30 millions de dollars sur trois ans, une nouvelle interface d’alerte et des réponses revues sur les sujets sensibles : Google durcit la sécurité de Gemini. Le groupe veut limiter les situations où un chatbot peut aggraver une détresse mentale. Cette mise à jour arrive alors que les plaintes visant les grandes entreprises de l’IA se multiplient.
Google va afficher une aide immédiate quand Gemini détecte une situation critique
Google a annoncé le 7 avril l’arrivée de nouveaux outils de soutien psychologique dans Gemini. Le changement le plus important concerne les échanges qui laissent penser à une crise grave, notamment lorsqu’un risque d’automutilation est détecté.
Dans ce type de conversation, le chatbot affichera une interface spéciale pour orienter l’utilisateur vers des lignes d’aide et des services d’urgence.
Google cherche ainsi à éviter qu’une discussion avec l’IA ne prenne une place dangereuse au moment où une intervention humaine devient nécessaire.
Un message d’assistance sera aussi visible dans les discussions sur la santé mentale
La société ne réserve pas cette évolution aux seuls cas extrêmes. Elle ajoute aussi un encadré du type « une aide est disponible » dans les conversations liées à la santé mentale.
Google indique également avoir modifié le design et le comportement de Gemini pour réduire les scénarios à risque. L’entreprise ne détaille pas la mise en œuvre technique, mais le signal est clair : l’IA devra être plus prudente sur ces sujets.
Les relations émotionnelles avec les chatbots inquiètent de plus en plus
La diffusion massive de Gemini, ChatGPT et d’autres assistants IA a fait émerger un problème devenu impossible à ignorer : certains utilisateurs développent un lien affectif fort avec ces outils.
Dans les cas les plus sensibles, cette relation peut s’accompagner d’une perception altérée de la réalité. C’est ce qui alimente aujourd’hui les critiques contre plusieurs acteurs majeurs du secteur.
Aux États-Unis, plusieurs familles ont déjà engagé des poursuites. Le Congrès s’est aussi penché sur les risques potentiels pour les enfants et les adolescents, preuve que l’inquiétude dépasse désormais le cadre technologique.
Une plainte en Floride a encore accentué la pression sur Google
En mars, la famille d’un homme de 36 ans vivant en Floride a déposé une plainte contre Google. Elle estime que ses interactions avec Gemini ont contribué à une crise psychologique et à un comportement dangereux.
Google a répondu que son système avait conseillé à plusieurs reprises de contacter des services de crise. L’entreprise a aussi promis de renforcer ses garde-fous.
Gemini a été ajusté pour ne plus valider des croyances erronées
D’autres utilisateurs ont signalé que certains chatbots pouvaient conforter des convictions fausses au lieu de les corriger. Google affirme avoir entraîné Gemini à ne pas approuver ce type d’affirmations.
Le but est de mieux séparer ce qui relève du ressenti personnel et ce qui relève des faits. La firme ne donne pas plus de détails, mais ce point montre que le problème ne concerne pas uniquement les situations d’urgence.
Google met aussi de l’argent sur la table pour les services de crise
Ce changement s’inscrit dans une logique plus large. Par le passé, Google avait déjà ajusté certains de ses services après des critiques, notamment en mettant en avant des informations validées par des institutions médicales dans la recherche et sur YouTube.
Le groupe annonce cette fois un engagement financier concret : 30 millions de dollars seront consacrés au soutien des services de crise dans le monde durant les trois prochaines années. Une somme qui souligne à quel point la question de la santé mentale est en train de devenir un dossier brûlant pour l’IA grand public.

Je m’appelle Samuel Le Goff. À 38 ans, je suis l’actualité du numérique depuis plus de 14 ans. Aujourd’hui, je m’intéresse particulièrement aux smartphones et aux usages concrets de l’intelligence artificielle, que je traite à travers des contenus clairs et accessibles sur Menow.fr.
