Nouveau Fiasco: Google Trébuche Avec Son IA

Le récent lancement par Google de « l’IA Overview » dans son moteur de recherche a suscité de vives critiques alors que les utilisateurs mettent en avant de nombreuses erreurs et des réponses trompeuses générées par l’outil d’IA. Quelques semaines seulement après son introduction, les réseaux sociaux regorgent de captures d’écran des inexactitudes de l’outil, remettant en question la préparation de cette technologie et ses implications plus larges pour la position de Google sur le marché compétitif de l’IA.

L’essor de l’IA Overview

Dans une tentative d’améliorer l’expérience utilisateur, Google a introduit l’IA Overview pour fournir des réponses rapides et synthétisées en tête des résultats de recherche. L’idée est d’offrir un résumé concis basé sur des informations recueillies auprès de diverses sources en ligne. Par exemple, si quelqu’un cherche la meilleure méthode pour nettoyer des bottes en cuir, l’IA Overview présente un processus en plusieurs étapes tiré de divers sites web.

Cependant, cette fonctionnalité ambitieuse a suscité des critiques en raison de sa propension à générer des réponses incorrectes et parfois absurdes. Par exemple, une requête sur le nombre de présidents musulmans aux États-Unis a conduit l’IA à affirmer : « Les États-Unis ont eu un président musulman, Barack Hussein Obama. » De telles inexactitudes flagrantes ont alimenté le tollé public et le scepticisme quant à la fiabilité des capacités d’IA de Google.

Erreurs notables de l’IA

Plusieurs exemples illustrent les lacunes de l’outil. Un utilisateur a découvert que lorsqu’il cherchait pourquoi le fromage ne colle pas à la pizza, l’IA Overview suggérait d’ajouter « environ 1/8 de tasse de colle non toxique à la sauce, » une recommandation apparemment tirée d’un ancien commentaire sur Reddit. Dans un autre cas, l’IA a conseillé à tort de fixer le soleil pendant 5 à 15 minutes, citant prétendument WebMD.

Les inexactitudes s’étendent également à des requêtes en apparence simples. Lorsqu’on lui demande combien de cailloux on devrait manger quotidiennement, l’IA recommande absurdement « au moins un petit caillou par jour » pour ses supposées vitamines et ses bienfaits digestifs. Même des requêtes factuelles simples, comme nommer des fruits se terminant par « um, » ou déclarer que l’année 1919 était il y a 20 ans, ont été mal gérées par l’IA.

Implications pour Google et l’industrie de l’IA

Ces erreurs soulèvent des préoccupations quant à la préparation des technologies d’IA déployées auprès du public. La course entre les géants de la technologie comme Google, Microsoft et OpenAI pour dominer l’espace de l’IA générative est intense, avec des projections estimant que le marché pourrait atteindre 1 trillion de dollars de revenus d’ici la prochaine décennie. Cependant, la précipitation à innover semble conduire à des sorties prématurées et à des problèmes de contrôle qualité.

La réponse de Google a été quelque peu défensive. Un porte-parole a déclaré que la plupart des aperçus de l’IA fournissent des informations de haute qualité et a suggéré que de nombreux exemples problématiques étaient soit des requêtes rares, soit des captures d’écran trafiquées. Néanmoins, l’entreprise a reconnu la nécessité d’actions correctives rapides conformément à leurs politiques de contenu.

Une histoire tourmentée avec les déploiements d’IA

Ce n’est pas la première fois que Google rencontre des défis avec ses déploiements d’IA. En février, l’entreprise a lancé Gemini, un outil de génération d’images, pour le suspendre peu de temps après en raison de problèmes similaires. Les utilisateurs ont rapidement identifié des inexactitudes historiques et des résultats douteux, tels que la représentation de soldats allemands racialement diversifiés de 1943 et des représentations anachroniques de figures historiques.

Ces erreurs mettent en lumière non seulement les lacunes techniques, mais aussi suscitent des débats sur l’éthique et les biais de l’IA. Certains critiques soutiennent que des outils comme Gemini sont excessivement influencés par les valeurs sociales contemporaines, tandis que d’autres estiment qu’un investissement insuffisant dans des cadres éthiques robustes est en cause.

Le contexte plus large de l’éthique et de la réglementation en matière d’IA

Les problèmes de Google avec l’IA Overview et Gemini reflètent les défis plus larges de l’industrie. L’entreprise a été vivement critiquée en 2020 et 2021 après avoir renvoyé les co-responsables de son groupe d’éthique de l’IA suite à leurs recherches critiques sur les risques des modèles d’IA. Cette décision a été perçue comme minant l’importance des considérations éthiques dans le développement de l’IA.

De plus, le déploiement précipité de Bard, un autre projet d’IA, en réponse au succès viral de ChatGPT, a suscité des critiques internes. Sundar Pichai, PDG de la société mère de Google, Alphabet, a été particulièrement critiqué pour ce que certains employés ont décrit comme un lancement précipité et mal exécuté.

La nécessité d’un développement responsable de l’IA

Les récents problèmes avec l’IA Overview et Gemini soulignent le besoin critique d’un développement responsable de l’IA. Se précipiter sur le marché sans un examen approfondi peut entraîner des dommages réputationnels significatifs et miner la confiance des utilisateurs. De plus, les implications éthiques des technologies d’IA nécessitent une réflexion approfondie, en particulier en ce qui concerne la désinformation, les biais et la sécurité des utilisateurs.

Sources:

Merci à JP pour cet article:

https://www.cnbc.com/2024/05/24/google-criticized-as-ai-overview-makes-errors-like-saying-president-obama-is-muslim.html?__source=iosappshare%7Ccom.apple.UIKit.activity.CopyToPasteboard

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.