Actualité GeekIT, Data & IATechnologies

Les journalistes exigent la désactivation d’une fonctionnalité d’Apple après des erreurs graves d’intelligence artificielle

Une IA accusée de diffuser de faux titres

Le 13 décembre, Apple Intelligence, un outil alimenté par l’intelligence artificielle pour résumer des notifications, a publié un résumé erroné d’un titre supposément issu de la BBC. Cette synthèse inexacte a attribué à tort un suicide à Luigi Mangione, actuellement en détention pour un meurtre présumé. L’incident, survenu à peine 48 heures après le lancement de cette fonctionnalité au Royaume-Uni, soulève des inquiétudes croissantes sur la fiabilité de l’outil.

Mangione, accusé du meurtre du PDG de UnitedHealthcare, Brian Thompson, est en réalité incarcéré dans une prison en Pennsylvanie, sans qu’aucun acte de suicide n’ait été signalé. Ce n’est pas la première fois qu’Apple Intelligence génère des résumés trompeurs : l’outil avait précédemment affirmé que le Premier ministre israélien Benjamin Netanyahou avait été arrêté, ce qui s’est révélé tout aussi faux.

Un titre de la BBC mal conçu par l’IA d’Apple / Photo : BBC

La crédibilité des médias en jeu

Reporter sans Frontières (RSF), organisation mondiale dédiée à la liberté de la presse, a appelé Apple à désactiver cette fonctionnalité. Selon Vincent Berthier, responsable du pôle technologie et journalisme chez RSF, « les systèmes d’IA probabilistiques ne peuvent pas être utilisés comme sources fiables d’informations. Leur capacité à produire des fausses nouvelles attribuées aux médias est une menace directe pour la crédibilité journalistique et le droit du public à des informations exactes. »

RSF critique également les failles législatives, pointant le règlement européen sur l’IA qui, malgré ses avancées, ne considère pas les systèmes génératifs d’IA comme des technologies à haut risque pour l’information. L’organisation appelle à un renforcement urgent de ce cadre juridique.

Une réponse insuffisante d’Apple ?

Contacté par la BBC, Apple a défendu la fonctionnalité, soulignant son utilité pour résumer des notifications complexes ou volumineuses. Cependant, des erreurs fréquentes dans l’interprétation et le contexte des données mettent en lumière les limites actuelles de cette technologie. L’entreprise n’a pas encore annoncé de mesures concrètes pour remédier à ces défaillances.

Cette situation pose des questions essentielles sur l’utilisation des IA dans les secteurs sensibles comme celui des médias, où la diffusion d’informations erronées peut avoir des conséquences graves.

Je m’appelle Samuel Le Goff. À 38 ans, je suis l’actualité du numérique depuis plus de 14 ans. Aujourd’hui, je m’intéresse particulièrement aux smartphones et aux usages concrets de l’intelligence artificielle, que je traite à travers des contenus clairs et accessibles sur Menow.fr.

Samuel

Je m’appelle Samuel Le Goff. À 38 ans, je suis l’actualité du numérique depuis plus de 14 ans. Aujourd’hui, je m’intéresse particulièrement aux smartphones et aux usages concrets de l’intelligence artificielle, que je traite à travers des contenus clairs et accessibles sur Menow.fr.

Voir tous les articles

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *