le 

Par Lucie Robet

Nombreuses sont les organisations privées et publiques qui misent gros sur l’intelligence artificielle. Cependant, l’IA peut générer de graves erreurs qui peuvent peser très lourd sur leur réputation. En voici quatre relevées récemment par le média CIO :

McDonald’s a mis fin en juin 2024 à une expérimentation de trois ans avec l’IA d’IBM pour des commandes en libre-service dans plus de 100 drive-in aux Etats-Unis. Il a suffi de quelques vidéos publiées sur TikTok dont l’une, virale, montrait deux personnes implorant l’IA d’arrêter d’ajouter des centaines de Chicken McNuggets en continu à leur commande.

En avril 2024, Grok, le robot conversationnel de la société xAI d’Elon Musk, a faussement accusé la star du basket-ball Klay Thompson d’avoir jeté des briques à travers les fenêtres de plusieurs maisons à Sacramento, en Californie. Cet incident soulève d’importantes questions sur la responsabilité des fournisseurs de chatbots lorsque ceux-ci émettent des déclarations erronées et diffamatoires.

Au printemps 2024, le chatbot officiel de la ville de New York développé par Microsoft affirmait à tort que les propriétaires de PME pouvaient garder une partie des pourboires de leurs employé·e·s, licencier les personnes qui se plaignaient de harcèlement sexuel et même servir à la clientèle de la nourriture grignotée par des rongeurs. Il a également affirmé que les propriétaires de biens immobiliers pouvaient pratiquer de la discrimination fondée sur les sources de revenus. The Markup rapporte que ce chatbot est toujours en ligne.

En février 2024, Air Canada a été condamnée à verser des dommages et intérêts à un passager après que son assistant virtuel lui a donné des informations erronées à la suite du décès de sa grand-mère. Le chatbot l’a informé qu’il pouvait acheter un billet d’avion à prix normal puis demander une réduction pour décès dans les 90 jours suivant l’achat. Toutefois, Air Canada a refusé la demande de remboursement. La compagnie aérienne a tenté de faire valoir qu’elle ne pouvait être tenue responsable des informations fournies par son assistant virtuel mais elle a perdu son procès.

Sorry! This product is not available for purchase at this time.

Publications similaires

Laisser un commentaire