Google vient de présenter ses avancées et les nouvelles fonctionnalités de ses applications en matière d’intelligence artificielle. Voici tout ce qu’il faut retenir.
Le monde entier imaginait sans doute que la conférence Google Live de Paris destinée à présenter les dernières avancées de Google en matière d’intelligence artificielle serait la conférence de l’année.
Malheureusement, le soufflet est un peu vite retombé et cette conférence nous a laissés un peu sur notre faim. La firme de Mountain View n’a fait aucune annonce fracassante, mais s’est simplement contentée de dévoiler de timides nouveautés et d’annoncer le déploiement imminent de plusieurs fonctionnalités sur plusieurs de ses applications. Un goût de trop peu alors que l’on attendait beaucoup plus (peut-être trop ?) de la part de Google en réponse aux dernières annonces de Microsoft qui entendent révolutionner la recherche dans Bing grâce à l’IA.
Nouveau design et traduction contextuelle pour Google Translate
Google a ouvert sa conférence en parlant de Translate, son application de traduction. Le service, qui ne compte pas moins d’un milliard d’utilisateurs, va profiter de plusieurs nouveautés qui devraient améliorer ses résultats. Google compte à partir de ce mois-ci et intègre les traductions mises en contexte. Lorsque vous demanderez à l’outil de traduire un mot, Google Translate affichera ainsi les différentes significations accompagnées de citations possibles les utilisant. Cette mise en contexte sera disponible au cours des prochaines semaines, mais ne concernera, pour l’instant, que l’anglais, le français, l’allemand, le japonais et l’espagnol.

Après avoir introduit une nouvelle interface pour son application de traduction sur Android, Google va réussir la nouvelle interface de traduction sur iOS. Cela inclut notamment de nouveaux gestes qui simplifieront la navigation, des résultats plus lisibles et une police dynamique qui s’ajuste au fur et à mesure que vous avez saisi du texte. Par ailleurs, Google vient d’annoncer l’arrivée de 33 nouvelles langues pouvant être traduites hors connexion.
La traduction via Google Lens évolue également. Si elle s’affichait jusqu’à présent en surimpression sur l’image et dissimulait par la même occasion une partie de celle-ci, elle s’affichera désormais de manière plus naturelle, à la place du texte original. L’image originale ne sera ainsi pas altérée grâce au machine learning qui viendra compléter les pixels manquants. Attention cependant, seuls les disposant d’au moins 6 Go de RAM pourront en profiter.
Une recherche plus visuelle et plus intuitive
Google était attendu au tournant en matière d’IA et de recherche. À notre grand regret, l’entreprise américaine ne s’est pas étendue sur Bard qu’elle a très rapidement évoquée avant de passer à autre chose.
Et visiblement, avant de pouvoir insérer un concurrent à ChatGPT dans son moteur de recherche, Google cherche à vous simplifier l’utilisation de Lens. Le module de recherche d’image, qui peut déjà être interrogé depuis l’appareil photo ou la barre de recherche, pourra bientôt être utilisé pour rechercher directement ce qui s’affiche sur l’écran de votre smartphone. La fonction, qui sera réservée aux seuls utilisateurs Android, pourra être déclenchée via le pop-up Google Assistant, après avoir effectué une pression longue sur le bouton d’allumage du smartphone. Que vous soyez en train de visualiser une photo ou de regarder une vidéo, vous pourrez n’importer quel moment interroger Google Lens pour qu’il recherche en ligne ce qui s’affiche sur votre écran.
Par ailleurs, le multisearch et la recherche à proximité, deux fonctionnalités présentées l’an passé lors de la conférence Google I/O, vont enfin arriver chez tous les utilisateurs et dans toutes les langues. Vous pourrez ainsi lancer des requêtes combinant texte et image dans le moteur de recherche. Vous pourrez aussi très prochainement vous payer le luxe de lancer des requêtes pour trouver des lieux ou des objets à proximité de votre position géographique.
La recherche immersive arrive dans Maps
Présentées l’an passé pendant la conférence Google I/O, les vues immersives de Google Maps vont être évaluées. Ces vues en 3D à 360° qui combinent des milliards d’images de Street View et des vues aériennes vont vous permettre d’explorer les grandes villes comme si vous y parviendrez. Pour cela, Google va y intégrer de nouvelles informations telles que la météo, la circulation ou encore la fréquentation d’un lieu.
Vous pourrez visiter virtuellement certains lieux et vous imprégner de l’ambiance qui y règne. Il suffit pour cela de jouer sur un curseur qui ajuste la lumière du jour, la météo et l’occupation des lieux en fonction de l’heure de la journée.
La navigation Live View va également profiter des avancées de Google en matière d’IA. Vous pouvez désormais l’utiliser pour rechercher des lieux en réalité augmentée. Il vous pour cela de pointer votre téléphone devant vous, dans la rue, pour voir s’afficher sur l’écran suffit les différents points d’intérêts.
La navigation en réalité augmentée dans les lieux clos, notamment dans les aéroports, va être étendue. Lancée en 2021 dans une poignée d’aéroports, elle sera déployée dans un millier de nouveaux aéroports, gares et centres commerciaux dans plusieurs grandes villes du monde, dont Paris.
Google Maps va en outre intégrer de nouvelles fonctionnalités pour les possesseurs de véhicules électriques qui intègrent Google Automotive. L’application de cartographie va ainsi s’insérer dans les itinéraires, les arrêts de recharge et vous permettra même de filtrer les stations de recharge en fonction de leur puissance. Par ailleurs, vous pourrez visualiser directement dans les résultats de recherche de Maps les lieux disposant d’une borne de recharge, par exemple, les supermarchés.
Enfin, Google Maps va inaugurer une nouvelle fonctionnalité « direction en un coup d’œil » pour vous permettre de suivre vos trajets sans avoir à démarrer le mode navigation.

Vous pourrez alors visualiser votre trajet directement depuis l’écran verrouillé de votre smartphone ou depuis l’aperçu de l’itinéraire.
Source :