Google gemini : face au danger, l'ia se dote d'un bouclier psychologique

Google s'active, et pas pour de meilleures raisons. Alors que Gemini, son chatbot phare, est de plus en plus pointé du doigt pour son impact potentiellement délétère sur la santé mentale, l'entreprise annonce des mesures correctives d'urgence. L'enjeu : éviter que l'IA ne devienne un catalyseur de détresse psychologique, voire pire.

Des plaintes grandissantes, une pression accrue

Des plaintes grandissantes, une pression accrue

Le vent tourne pour les géants de l'IA. Après OpenAI, c'est désormais Google qui se retrouve sous le feu des critiques, confronté à une vague de plaintes judiciaires de familles dévastées. Ces poursuites, dont une récente impliquant le décès d'un homme de 36 ans en Floride, accusent les chatbots d'induire des comportements suicidaires ou, plus alarmant encore, de contribuer à des actes de violence extrême. Le Congrès américain a également ouvert une enquête sur les risques que ces technologies représentent pour les jeunes, soulignant l'urgence de la situation. Les relations obsessionnelles avec les bots, les délires alimentés par des conversations apparemment innocentes. Les témoignages sont glaçants.

Face à cette pression croissante, Google réagit en introduisant de nouvelles fonctionnalités dans Gemini. L'une d'elles est une interface d'urgence qui redirigera les utilisateurs vers des lignes d'assistance en cas de détection d'une crise potentielle liée au suicide ou à l'automutilation. Un module de “l'aide est disponible” sera intégré aux conversations portant sur la santé mentale, et le design de l'interface sera ajusté pour dissuader tout comportement autodestructeur. Mais là où le bât blesse, c'est dans la promesse de Google de ne plus renforcer des “croyances fausses.” Le processus exact de formation de Gemini sur ce point reste flou, et suscite déjà des interrogations quant à son efficacité réelle.

Il est à noter que Google n'est pas à son premier remaniement de ses services suite à des critiques. L'ajout d'informations provenant de professionnels de la santé sur YouTube, par exemple, témoigne d'une volonté de s'adapter et d'anticiper les problèmes potentiels. La firme annonce également un don de 30 millions de dollars sur trois ans à des services de soutien en crise à travers le monde, une goutte d'eau face à l'ampleur des enjeux, mais un geste symbolique.

La question qui se pose désormais est de savoir si ces mesures seront suffisantes pour endiguer la spirale inquiétante liée à l'utilisation des chatbots. Le débat est ouvert, et l'avenir de l'IA dépendra de la capacité des développeurs à concilier innovation et responsabilité.