Publié le: 16/05/2024 @ 14:10:21: Par Nic007 Dans "Google"
GoogleL'une des nouvelles de ces derniers jours qui a donné le plus d'espoir aux utilisateurs d'Android (et a probablement inquiété les développeurs de Samsung DeX ) était la possibilité d'exécuter Chrome OS sur Android en mode bureau . Un rêve devenu réalité, mais apparemment cela restera un rêve : Google a confirmé qu'il ne s'agissait que d'une " preuve de concept " pour Android 15 et qu'il n'était pas prévu de l'implémenter dans Android. Mais d’où vient tout ce tapage ? Prenons du recul. Depuis Android 13, Google a introduit l'Android Virtualization Framework (AVF), une solution qui permet de créer des machines virtuelles. Cela permet de déplacer des calculs de plus en plus « délicats » depuis la TrustZone, une partie sécurisée présente sur de nombreux CPU ARM, jusqu'aux machines virtuelles sur l'AVF, une solution plus sécurisée. Avec Android 15 , Google a mis à jour AVF pour prendre en charge l'exécution de systèmes d'exploitation graphiques dans une VM accélérée par GPU . Pour tester et démontrer cette nouvelle capacité aux partenaires, GrandeG a dû choisir un système d'exploitation graphique, et quel meilleur choix qu'un système prêt à l'emploi ? C'est pourquoi il a créé Ferrochrome , une version spéciale de Chromium OS, la version open source de Chrome OS, conçue pour fonctionner dans une machine virtuelle aux côtés d'Android.

Essentiellement, ce projet vous permettrait d'exécuter Chrome OS sur des appareils Android. Plus tôt dans la semaine, Google a présenté une démonstration du concept sur un Pixel 8 connecté à un moniteur externe lors d'un « événement privé » à ses sociétés partenaires Android les plus proches. Non seulement cela, mais Android Authority a réussi à le faire fonctionner sur un Pixel 7 Pro , laissant espérer que Google pourrait implémenter la fonctionnalité en tant que mode de bureau pour les appareils Android. "Tuer" efficacement Samsung DeX et mettre le marché des Chromebooks en danger.
A présent, lors de la conférence Google I/O , Mishaal Rahman , qui craignait que la fonctionnalité ne soit qu'une démo, a confirmé ses craintes en s'adressant à Sameer Samat , président de l'écosystème Android, et à Dave Burke , vice-président de l'ingénierie de la plateforme Android. Malheureusement, Burke a confirmé que ce projet n'était fondamentalement qu'une preuve de concept amusante . Ferrochrome n'est rien de plus qu'une démo technologique pour montrer les fonctionnalités avancées de virtualisation d' Android 15 . Rahman a exprimé son enthousiasme pour la fonctionnalité (et celui de toute la communauté Android), peut-être que Burke et Samat changeront d'avis.
Lire la suite (0 Commentaires)
Publié le: 15/05/2024 @ 17:03:38: Par Nic007 Dans "Google"
GoogleDans une Google I/O au nom de l'IA, l'innovation qui nous a le plus enthousiasmé est un simple bouton qui arrivera dans la recherche Google à partir d'aujourd'hui. Il s'agit du filtre Web , qui fait exactement cela : il purge les résultats de recherche de tout le « bruit » que Google y a introduit. Nous évoquions il y a peu de temps comment la recherche Google est désormais envahie par des « distractions » de toutes sortes. Qu'il s'agisse d'un bloc d'actualités, de vidéos, de shopping, de "les gens ont aussi demandé" ou autre chose, les fameux 10 liens bleus qui peuplaient autrefois les SERP ( page de résultats des moteurs de recherche ) doivent être retrouvés avec une lumière. A moins de cliquer sur le nouveau bouton web ! "Web" est essentiellement un filtre , exactement comme les autres présents sous la barre de recherche, qui supprime tous les panneaux Google supplémentaires, les extraits de code surlignés, les carrousels d'achats, ainsi que le nouvel aperçu de l'IA introduit directement sur Google I/O, comme confirmé. par Google à The Verge . Il ne reste que les 10 liens fatidiques vers les sites qui répondent le mieux à cette intention de recherche.

Il y a cependant deux éléments qu’il est important de souligner. Tout d'abord, les résultats de recherche ne sont en rien altérés : l'ordre des différents sites est le même, la différence est qu'en appuyant sur le Web vous avez éliminé les "distractions", mais les liens présents sont les mêmes que ceux trouvé sur la page principale, dans le même ordre. Il faut dire aussi que, dans certains cas, les knowledge graphs de Google sont très utiles . Si vous souhaitez une réponse rapide à des questions séculaires, telles que : « quelle est la hauteur du Mont Blanc ? », cette réponse est là pour vous. Nous ne disons donc pas que cliquer sur le Web est la bonne chose à faire en permanence ; mais faites-le (presque) toujours ! Dans un monde où l’information est de plus en plus éphémère, laisser d’autres éléments déterminer les résultats de nos recherches peut nous faire gagner du temps, mais cela peut aussi nous faire dévier un peu du cap.

Recherchez quelque chose, regardez les sites qui visent à répondre à cette question, et peut-être comparez-les entre eux : ce n'est qu'ainsi que vous obtiendrez au final une réponse claire , la plus objective possible et riche en contenu. Tout le reste est un résumé . Dans la plupart des cas, c'est peut-être bien aussi, mais si nous nous habituons à toujours utiliser la calculatrice, nous ne pourrons même plus faire 2+2 par nous-mêmes. Laissant un instant de côté les leçons de vie, le nouveau bouton Web est aujourd'hui déployé dans le monde entier , nous l'aurons donc tous bientôt. Il se peut qu'il ne soit pas exactement dans la position indiquée ci-dessus : dans certains cas, vous devrez appuyer sur Plus pour le trouver, mais il sera toujours là.

Cela ne résout en aucun cas le problème de la qualité des résultats de recherche . Pour tenter d'offrir des résultats sûrs, Google accorde toujours plus d'importance aux grands éditeurs en qui il a confiance , au détriment de nombreux éditeurs indépendants qui ont peut-être une expertise encore plus grande et qui sont « l'âme d'Internet » ; mais c'est une autre affaire. Il n'y aura jamais de bouton qui transformera Google en quelque chose qui n'est pas Google, mais au moins le filtre web redonnera un peu de dignité à de nombreux sites cachés par des cases qu'ils ont eux-mêmes malheureusement contribué à générer.
Lire la suite (0 Commentaires)
Publié le: 15/05/2024 @ 17:01:28: Par Nic007 Dans "Google"
GoogleLors du Google I/O de l'année dernière , le projet GameFace a été annoncé, un programme PC qui vous permet de contrôler des jeux vidéo à l'aide d'expressions faciales. Désormais, le géant de Mountain View a officialisé que le projet est disponible en open source pour les développeurs Android. Ils pourront donc intégrer cette fonctionnalité d'accessibilité dans leurs applications, permettant aux joueurs de contrôler le curseur avec des gestes du visage ou en bougeant la tête. Ce projet a été inspiré par Lance Carr, passionné de jeux vidéo, qui poursuit sa passion dans ce domaine malgré sa dystrophie musculaire. Quant à son fonctionnement, c'est assez simple. En effet, cette solution innovante ne nécessite pas de matériel dédié, mais seulement une webcam. Concrètement, ce logiciel permet de transformer le visage de l'utilisateur en un ensemble de points, dont les mouvements sont « convertis » en actions de souris (par exemple en mouvement du pointeur).

Pour ce projet, Google a également collaboré avec Incluzza - une entreprise sociale indienne axée sur l'accessibilité - afin de vérifier les possibilités d'étendre GameFace à des domaines tels que le travail, l'école et d'autres contextes. Enfin, la société a ajouté que "les développeurs peuvent désormais créer des applications dans lesquelles leurs utilisateurs peuvent configurer leur expérience en personnalisant les expressions faciales, la taille des gestes, la vitesse du curseur, etc.". C’est donc une très bonne nouvelle, surtout si GameFace parvient à pénétrer d’autres contextes sociaux.
Lire la suite (0 Commentaires)
Publié le: 15/05/2024 @ 14:20:21: Par Nic007 Dans "Google"
GoogleLe protagoniste absolu de Google I/O 2024 était Gemini , l'intelligence artificielle développée à Mountain View, qui imprégnera tous les services de l'entreprise , et parmi ceux-ci, la recherche Google ne pouvait certainement pas manquer. La principale nouveauté concernant la combinaison de Gemini et de la recherche Google s'appelle AI Overviews , déjà déployée auprès de tous les utilisateurs américains, et d'autres pays seront bientôt disponibles. L'objectif est de proposer cette fonctionnalité à plus d' un milliard d'utilisateurs d'ici la fin de l'année . Quels sont ces aperçus de l’IA ? Au lieu de la liste habituelle de sites Web, Google collectera les réponses aux intentions de recherche des utilisateurs et les présentera sous une forme graphiquement plus intelligible. Il sera possible de visualiser une version simplifiée voire augmentée des réponses, et évidemment nous pourrons communiquer avec Google/Gemini pour les élargir et les enrichir. Lais qu’adviendra-t-il de tous ces sites Web qui sont la véritable source de ces résultats ? Sur la base des tests effectués, les liens inclus dans Ai Overviews devraient recevoir plus de clics que s'ils étaient apparus dans les résultats de recherche traditionnels, Google s'engageant à générer du trafic vers les éditeurs et les créateurs. Il faut prendre les propos de Google à ce sujet au pied de la lettre, même si les prémisses ne présagent rien de bon

Bientôt, à partir de l'anglais aux États-Unis, des capacités de raisonnement multi-niveaux arriveront également sur AI Overviews . Nous parlons de recherches telles que " trouvez les meilleurs studios de yoga ou de pilates à Boston et montrez-moi les détails de leurs offres de lancement et le temps de marche depuis Beacon Hill ", une requête si complexe que si vous essayiez de la transmettre maintenant à Google, vous n'obtiendrez que de nombreux liens différents qui répondent au plus à un de ces besoins. Et comme nous l'avons déjà vu, cette capacité à regrouper différentes intentions sera également très utile dans la planification des voyages . L'avantage de ces recherches complexes est que la modification d'un des paramètres sera immédiate, vous permettant d'ajuster le résultat à la volée, comme le montre l'animation ci-dessous.

D'autres exemples donnés par Google concernent par exemple la création de régimes personnalisés avec beaucoup de contraintes (micro-ondes, régimes particuliers, etc.). Honnêtement, c'est un peu un champ de mines, car lorsque l'on entre dans le domaine de la nutrition/santé, le premier conseil que l'on devrait vous donner est de contacter un spécialiste , car chacun de nous a besoin d'un accompagnement extrêmement personnalisé en la matière. Et ce sera peut-être un autre des problèmes de l’ubiquité de l’IA : qu’on croie qu’on peut tout faire avec. Mais laissons cela de côté pour l’instant, car nous ferions fausse route.

La possibilité d'utiliser nos smartphones pour des recherches en temps réel sur le monde réel ne pouvait pas manquer . Semblable à ce qu'OpenAI a montré avec ChatGPT , avec Google nous pourrons également utiliser la caméra sur Android pour filmer un objet et demander des informations à son sujet. La recherche vidéo, après la recherche basée sur le texte et l'image, est en bref la dernière frontière, mais elle ne sera disponible que dans une version bêta en anglais américain dans un avenir proche, avec l'intention de l'étendre à d'autres régions au fil du temps.
Lire la suite (0 Commentaires)
Publié le: 15/05/2024 @ 14:17:49: Par Nic007 Dans "Google"
GoogleGoogle a lancé il y a environ un mois deux intelligences artificielles génératives gratuites. Il s'agissait de MusicFX et ImageFX qui, comme son nom l'indique, permettaient de créer des images et de la musique à partir de texte. Par rapport aux plateformes telles que ChatGPT, Midjourney ou Gemini de Google, ces plateformes sont plus simples et font en fait partie d'une série de Labs de l'entreprise . Aujourd'hui, les services sont enfin également disponibles en Europe alors que jusqu'à hier, il était nécessaire d'utiliser un VPN . Si vous souhaitez plus d'informations sur le fonctionnement de MusicFX et ImageFX, nous vous laissons sur notre page mais pour avoir un aperçu de ce qui différencie ces deux services, l'idée de base est de pouvoir créer de nouvelles variations d'images de manière simple, en modifiant le des images en un clic, des mots-clés de notre invite, mis en évidence par le site lui-même, ou pour changer le type de musique simplement en faisant défiler les sélecteurs pour ajouter plus ou moins une certaine influence ou un certain instrument dans la chanson. Par rapport à d’autres concurrents, ou au Gemini lui-même, ils sont beaucoup plus simples, mais pour cette raison ils sont aussi plus accessibles à tous.

Aujourd'hui, lors de Google I/O 2024, la société a ensuite révélé le lancement d'un nouveau service : VideoFX . Il s'agit, comme vous pouvez facilement l'imaginer, d'un outil permettant de créer de courtes vidéos, principalement sur une base abstraite, à partir de texte. VideoFX est basé sur Veo, le modèle de génération vidéo de Google DeepMind. Malheureusement, l'outil n'est actuellement actif qu'aux États-Unis et les utilisateurs américains doivent d'abord s'inscrire sur une liste d'attente pour y accéder. Compte tenu du peu de temps qui s'est écoulé entre le lancement de MusicFX et ImageFX et leur arrivée en Europe, nous sommes néanmoins confiants.

Lire la suite (0 Commentaires)
Publié le: 14/05/2024 @ 21:44:29: Par Nic007 Dans "Google"
GoogleUne nouvelle fonctionnalité pour Google Photos appelée « Ask Photos » a été annoncée lors de Google I/O . La fonctionnalité exploite l'intelligence artificielle de Gemini pour permettre aux utilisateurs de rechercher des images spécifiques à l'aide de commandes vocales et textuelles. Gemini est en effet le véritable protagoniste de cette édition 2024 de Google I/O, et la conférence des développeurs a commencé avec quelque chose de plus utile aux utilisateurs qu'aux développeurs, mais plus que suffisant pour démontrer la direction prise par Big. G avec son IA. Google Photos intègre déjà un moteur de recherche qui trouve assez facilement ce que l'on cherche. Pour le moment, cependant, vous pouvez effectuer des recherches très génériques , comme « hamburger », « chat » ou demander des photos de personnes que nous avons enregistrées dans l'application en marquant leurs visages. Grâce à Gemini et Ask to Photos , les utilisateurs pourront décrire ce qu'ils recherchent et obtenir des résultats plus pertinents en quelques secondes. Des descriptions détaillées telles que « Photo de Noël 2022 en famille » ou « Photo de Francesca apprenant à nager » peuvent être utilisées pour obtenir non seulement des résultats beaucoup plus précis que par le passé, mais de véritables carrousels d'images sensées et ordonnées , presque sur le faux. gamme de mini albums photos .

Lors de l'événement, Google a également donné l'exemple de la plaque d'immatriculation d'une voiture . Si vous avez acheté une voiture, il est probable que vous en ayez pris une photo, et si vous ne vous souvenez plus de la plaque d'immatriculation (par effort ou parce que vous savez où la chercher), sur Google Photos, écrivez simplement "Voiture » ou « plaque d'immatriculation » pour retrouver tous les résultats pertinents. Ici, avec Ask to Photos vous n'aurez plus besoin de parcourir toutes les images de voiture pour trouver la bonne : Gemini retrouvera la plaque d'immatriculation de la voiture en vous proposant directement son numéro. Et les vidéos ? Apparemment, Ask Photos fonctionnera également avec ceux-ci, mais Google n'a pas montré la fonctionnalité en action pour le moment.
Lire la suite (0 Commentaires)
Publié le: 14/05/2024 @ 21:43:09: Par Nic007 Dans "Google"
GoogleIl s'appelle Project Astra et promet de devenir votre bouée de sauvetage quotidienne. Nous parlons évidemment d'une nouvelle fonctionnalité liée à Google Gemini et à l'écosystème d'intelligence artificielle de Google , capable d'utiliser la reconnaissance visuelle comme jamais auparavant. Une sorte de réponse directe au GPT-4o et à l'actualité présentée hier soir par OpenAI, qui démontre à quel point Google veut devenir sérieux avec l'IA multimodale . Le projet Astra est la première expérience d'assistant d'IA multimodale basée sur les capacités de Google Gemini. Le développement a été confié à l'équipe de Google DeepMind, qui a créé une vidéo de démonstration montrant les extraordinaires possibilités offertes par cet outil. L'assistant est intégré directement dans un Google Pixel , et utilise l' appareil photo du smartphone pour visualiser et interpréter tout ce qui est cadré. Non seulement cela, car l'utilisateur peut interagir avec l'assistant via des commandes vocales , en demandant des informations relatives à ce qui est encadré, voire en indiquant des éléments spécifiques. Mais cela ne s'arrête pas là. Le projet Astra travaille également sur les lunettes intelligentes , celles équipées d'une caméra vidéo et d'un microphone. L'expérience utilisateur semble très intuitive : avec vos lunettes vous cadrez la scène devant vous et avec votre voix demandez à Gemini ce que vous voulez. Et que peut faire le Projet Astra pour vous ? Potentiellement tout. Grâce à la fonctionnalité multimodale , il est capable de reconnaître le paysage à l'extérieur de la fenêtre, de résoudre une formule mathématique, de lire et d'interpréter une partie de code, de reconnaître les parties d'un locuteur, d'inventer de jolis noms pour les animaux de compagnie.

Il y a deux choses qui sont les plus impressionnantes dans cette démo. D’une part, l’incroyable interactivité et proactivité du Projet Astra, qui semble pouvoir passer d’une opération à l’autre de manière fluide et naturelle. En revanche, une latence quasi nulle , encore accentuée par le fait que le système doit reconnaître visuellement une scène, traiter l'information, produire un résultat et le communiquer à l'utilisateur. Tout cela se produit en quelques instants seulement. Si vous souhaitez voir les capacités du projet Astra en action, vous trouverez ci-dessous la première vidéo officielle publiée par Google. Comme mentionné, la démo du Projet Astra est vraiment impressionnante et parfois difficile à croire. Nous avons déjà eu de mauvaises surprises avec les systèmes d'intelligence artificielle de Google, avec de belles promesses qui ne se sont pas réalisées. Faut-il le croire cette fois-ci ? Google a déclaré que le projet est toujours en développement, mais que certaines des fonctionnalités présentées seront intégrées aux produits Google plus tard cette année. On parle de quelques mois donc, un laps de temps très court pour bien mettre en œuvre une fonctionnalité complexe comme celle-ci.



Il faut dire que ces dernières années le secteur de l’intelligence artificielle a fait – et fait – des pas de géant, accélérant toujours plus les capacités offertes par les différents systèmes concurrents. Le nouveau GPT-4o évoqué en début d'article s'inscrit également dans cette évolution très rapide . Cependant, de nombreux doutes restent à clarifier. Le Projet Astra sera-t-il intégré à tous les smartphones Pixel ? Fonctionnera-t-il localement ou se connectera-t-il aux serveurs de Google ? La latence des fonctions interactives sera-t-elle vraiment aussi faible (quasiment inexistante) que dans la démo ? Pour répondre à toutes ces questions, nous devrons attendre, espérons-le, encore plusieurs mois. Pourtant, la direction est déjà tracée : l'intelligence artificielle partout et dans tous les cas, utilisable avec les yeux et avec la voix, intégrée aux smartphones et aux lunettes, capable de répondre à toutes vos questions , ou presque.
Lire la suite (0 Commentaires)
Publié le: 14/05/2024 @ 21:41:28: Par Nic007 Dans "Google"
GoogleLors de Google I/O 2024, la société a dévoilé une fonctionnalité très utile qui arrivera bientôt sur les smartphones Android, basée sur Gemini Nano . Beaucoup connaissent et utilisent déjà les fonctions intégrées aux smartphones ou via des applications qui permettent d'être alerté si un appel entrant pourrait être frauduleux, grâce à la comparaison du numéro de téléphone avec des bases de données constamment mises à jour. Mais Google veut aller plus loin. En fait, la fonctionnalité se chargera d '« écouter » l'appel téléphonique en cours et de comprendre si ce que dit l'autre personne pourrait être une tentative d'arnaque, en reconnaissant les modèles connus utilisés par les escrocs pour convaincre l'interlocuteur d'envoyer de l'argent, de fournir des informations d'identification ou envoyer des données sensibles. Puisque la fonction est basée sur Gemini Nano, tout se passera localement sur votre smartphone et aucun appel téléphonique ni sa transcription ne seront jamais téléchargés sur un serveur. L'activation de la fonction sera à l'entière discrétion de l'utilisateur.

Pour le moment, on ne sait pas exactement quand cette fonctionnalité arrivera sur les smartphones Android, mais la société donnera plus d'informations plus tard dans l'année. Qui sait, cela pourrait faire ses débuts avec Android 15 et surtout avec le Pixel 9 . À ce jour, les smartphones équipés de Gemini Nano sont ceux des familles Pixel 8 et Galaxy S24 . C’est une fonctionnalité qui pourrait vraiment aider beaucoup de personnes moins expertes en informatique. En fait, nous devons nous rappeler que les escrocs élaborent des plans de plus en plus élaborés et que, dans un moment de distraction, pratiquement n'importe qui peut tomber dans un piège .
Lire la suite (0 Commentaires)
Publié le: 14/05/2024 @ 21:40:04: Par Nic007 Dans "Google"
GoogleParmi les nouveautés révélées sur la scène Google I/O , il y a aussi quelque chose de vraiment appétissant concernant Cercle and Search . La fonction présentée en janvier comme l'avenir de la recherche permet essentiellement d'entourer des images sur l'écran de l'appareil pour rechercher des informations, quel que soit l'environnement dans lequel nous nous trouvons (application, galerie, navigateur). Il était logique de s’attendre à ce que cette fonctionnalité devienne de plus en plus puissante au fil du temps, et ce fut le cas. Circle and Search pourra désormais également aider les élèves à résoudre leurs devoirs de mathématiques et de physique directement depuis les smartphones et les tablettes. Comment? Google a appliqué le modèle LearnLM AI à la fonctionnalité , garantissant que Circle and Search reconnaît non seulement les équations numériques et littérales, mais peut également les résoudre. Évidemment, une telle chose est en quelque sorte « dangereuse » : si un geste suffit à résoudre des problèmes plus ou moins complexes, les élèves ne feront jamais d'effort pour les résoudre, n'apprenant en fait rien. La solution créée par Google tentera plutôt de guider l'étudiant tout au long des étapes de résolution du problème , en fournissant des instructions détaillées sur la résolution et la manière de traiter ce problème donné. Dans les mois à venir, Circle and Search apprendra également à reconnaître des diagrammes , des graphiques et des formules de plus en plus complexes , s'avérant véritablement un « changement de jeu » pour divers contextes, pas seulement scolaires. Au moins selon ce qu'a déclaré la division européenne de Google, la fonctionnalité pourra aider les étudiants à partir d'aujourd'hui . Ce qui est sûr, c'est que la fonction est actuellement disponible sur 100 millions d'appareils, le Galaxy de Samsung et le Pixel de Google, et par conséquent tout le monde ne pourra pas y accéder. Essayer à ce moment précis sur un Pixel 7 Pro avec Circle et Search actifs ne semble pas fonctionner, mais la présentation a eu lieu relativement récemment, et il est également possible qu'elle s'active lentement au cours des prochains jours.
Lire la suite (0 Commentaires)
Publié le: 14/05/2024 @ 19:46:06: Par Nic007 Dans "Google"
GoogleNous sommes sur le point d’assister à une nouvelle et importante étape de Google vers l’avenir de la communication entre les gens. BigG vient en effet d'annoncer que le projet Starline était enfin sur le point de voir le jour. Starline, pour ceux qui ne le connaissent pas ou ne s'en souviennent pas, est un projet illustré par Google en 2021, lorsque nous étions en pleine pandémie et que les appels vidéo étaient à l'ordre du jour pour tout type de affaires à travers le monde. Il s’agissait essentiellement d’une initiative particulièrement futuriste, qui offrait la possibilité de communiquer par appel vidéo avec un degré de réalisme jamais vu auparavant . Ces conversations virtuelles très réalistes se dérouleraient grâce à la génération d' hologrammes et d'éléments 3D , pour donner aux deux interlocuteurs la perception qu'ils parlent réellement en personne, et non à travers un écran et des kilomètres de câble pour la connexion Internet.

L'annonce de Google concerne enfin les futurs débuts de Starline. BigG a en effet annoncé collaborer avec HP pour commercialiser cette solution, dans le but de la commercialiser d'ici 2025 et de l'intégrer dans les principales plateformes de visioconférence, telles que Google Meet et Zoom . Grâce aux récents progrès réalisés dans les domaines de l'intelligence artificielle et de l'imagerie 3D, Google a réussi à perfectionner Starline afin de passer des appels vidéo avec le service activé de manière extrêmement immersive. Cela permet aussi de stimuler davantage les interlocuteurs, qui se sont révélés plus attentifs. Pour « expérimenter » la magie de Starline, il suffit de regarder la vidéo ci-dessous, dans laquelle Google nous montre un aperçu des appels vidéo avec Starline. Pour le moment, nous ne savons pas à quel prix la dernière magie de Google sera disponible. Pour plus de détails, nous vous suggérons de vous référer au site officiel dédié https://starline.google/

Lire la suite (0 Commentaires)
Informaticien.be - © 2002-2024 AkretioSPRL  - Generated via Kelare
The Akretio Network: Akretio - Freedelity - KelCommerce - Votre publicité sur informaticien.be ?