Meta passe la deuxième avec ses lunettes connectées, un accessoire accueilli tièdement servant principalement à prendre des photos et à écouter de la musique. L’entreprise vient d’annoncer qu’elle allait commencer à déployer des fonctions d’IA pour sa dernière monture lancée au mois de septembre. Le concept est plutôt intéressant : un assistant vocal va pouvoir répondre aux questions du porteur en se basant sur ce qu’il voit ou entend.
Mark Zuckerberg a fait une petite démo de la fonction sur Instagram. On le voit montrer une chemise à rayures avant de demander à l’IA (« Hey Meta ») quel type de pantalon serait le plus adapté. Celle-ci réfléchit un peu avant de faire différentes suggestions. On peut également voir le CEO demander à traduire un meme en espagnol, ce que l’IA fait sans soucis. Le directeur de la technologie de Meta Andrew Bosworth a aussi fait une petite vidéo de démonstration dans laquelle on voit l’IA des lunettes décrire une sculpture représentant la Californie.
Différents exemples sont donnés dans la FAQ de Meta : on pourra par exemple demander quel type de plante on est en train de regarder, quel repas faire avec certains ingrédients, que signifie un panneau… Des fonctions d’IA pratiques pour les utilisateurs certes, et qui auront sans doute une forte résonance pour ce qui touche à l’accessibilité. Si les lunettes de Meta sont bien en vente en France, cette première vague de test de fonctions liées à l’IA est pour le moment réservée aux États-Unis.
Méta accélère la cadence avec ses services d’IA depuis quelque temps. L’entreprise a récemment lancé MetaAI, son concurrent à ChatGPT arrivé accompagné d'une vingtaine de chatbots basés sur des célébrités. Elle a également déployé des autocollants générés par IA dans Messenger, ainsi qu’un équivalent à DALL-E baptisé Imagine. Malheureusement, tout cela est réservé aux États-Unis pour le moment.