Google rend son assistant IA plus accessible avec "Look and Talk"

Google rend son assistant IA plus accessible avec « Look and Talk »


L’assistant Google est déjà très utile, remplissant vos informations de paiement sur les commandes à emporter, aidant les enfants à se rendre à l’école à l’heure, contrôlant le volume de vos systèmes stéréo et les horaires d’éclairage intelligents de la maison. Dans leur discours d’ouverture d’I/O 2022 aujourd’hui, les dirigeants de l’entreprise ont présenté certaines des nouvelles fonctionnalités à venir pour l’IA.

Le premier d’entre eux est « Regarde et parle ». Au lieu de devoir lancer à plusieurs reprises vos demandes d’assistant avec « Hey Google », cette nouvelle fonctionnalité s’appuie sur la vision par ordinateur et la correspondance vocale pour prêter constamment attention à l’utilisateur. Comme Sissie Hsiao, VP de Google Assistant, l’a expliqué sur scène, il suffit à l’utilisateur de regarder son Nest Hub Max et d’indiquer sa demande. Google développe également une série de commandes rapides que les utilisateurs pourront crier sans avoir à regarder avec envie l’écran de leur tablette ou à dire d’abord « Hey Google », des choses comme « allume les lumières » et « régle une alarme de 10 minutes ».  » . »

Alphabet

Toutes les données capturées lors de cette interaction, en particulier les empreintes digitales du visage et de la voix de l’utilisateur, qui sont utilisées pour vérifier l’utilisateur, sont traitées localement dans le Hub lui-même, a poursuivi Hsiao, et ne sont pas partagées avec Google « ou qui que ce soit d’autre ». De plus, vous devrez vous inscrire spécifiquement au service avant de pouvoir l’utiliser.

Selon Hsiao, le backend de ce processus repose sur une demi-douzaine de modèles d’apprentissage automatique et 100 entrées de caméra et de microphone – c’est-à-dire la proximité, l’orientation de la tête et la direction du regard – pour s’assurer que la machine sait quand vous la ciblez. . devant ça. La société affirme également qu’elle a travaillé avec diligence pour s’assurer que ce système fonctionne pour les personnes de tous les types de peau humaine.

À l’avenir, Google prévoit de continuer à affiner ses modèles NLP pour améliorer encore la réactivité et la fidélité des réponses de l’Assistant en « construisant de nouveaux modèles de parole et de langage plus puissants qui peuvent comprendre les nuances de la parole humaine », a déclaré Hsiao. « L’assistant sera en mesure de mieux comprendre les imperfections de la parole humaine sans trébucher, y compris les pauses, les « umms » et les interruptions, ce qui rendra vos interactions beaucoup plus proches d’une conversation naturelle. »

Suivez toute l’actualité de Google I/O 2022 ici même!

Tous les produits recommandés par Engadget sont sélectionnés par notre équipe éditoriale, indépendante de notre maison mère. Certaines de nos histoires incluent des liens d’affiliation. Si vous achetez quelque chose via l’un de ces liens, nous pouvons gagner une commission d’affiliation.



Source link

Share iT

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.