Une IA accusée de diffuser de faux titres
Le 13 décembre, Apple Intelligence, un outil alimenté par l’intelligence artificielle pour résumer des notifications, a publié un résumé erroné d’un titre supposément issu de la BBC. Cette synthèse inexacte a attribué à tort un suicide à Luigi Mangione, actuellement en détention pour un meurtre présumé. L’incident, survenu à peine 48 heures après le lancement de cette fonctionnalité au Royaume-Uni, soulève des inquiétudes croissantes sur la fiabilité de l’outil.
Mangione, accusé du meurtre du PDG de UnitedHealthcare, Brian Thompson, est en réalité incarcéré dans une prison en Pennsylvanie, sans qu’aucun acte de suicide n’ait été signalé. Ce n’est pas la première fois qu’Apple Intelligence génère des résumés trompeurs : l’outil avait précédemment affirmé que le Premier ministre israélien Benjamin Netanyahou avait été arrêté, ce qui s’est révélé tout aussi faux.
La crédibilité des médias en jeu
Reporter sans Frontières (RSF), organisation mondiale dédiée à la liberté de la presse, a appelé Apple à désactiver cette fonctionnalité. Selon Vincent Berthier, responsable du pôle technologie et journalisme chez RSF, « les systèmes d’IA probabilistiques ne peuvent pas être utilisés comme sources fiables d’informations. Leur capacité à produire des fausses nouvelles attribuées aux médias est une menace directe pour la crédibilité journalistique et le droit du public à des informations exactes. »
RSF critique également les failles législatives, pointant le règlement européen sur l’IA qui, malgré ses avancées, ne considère pas les systèmes génératifs d’IA comme des technologies à haut risque pour l’information. L’organisation appelle à un renforcement urgent de ce cadre juridique.
Une réponse insuffisante d’Apple ?
Contacté par la BBC, Apple a défendu la fonctionnalité, soulignant son utilité pour résumer des notifications complexes ou volumineuses. Cependant, des erreurs fréquentes dans l’interprétation et le contexte des données mettent en lumière les limites actuelles de cette technologie. L’entreprise n’a pas encore annoncé de mesures concrètes pour remédier à ces défaillances.
Cette situation pose des questions essentielles sur l’utilisation des IA dans les secteurs sensibles comme celui des médias, où la diffusion d’informations erronées peut avoir des conséquences graves.
Je suis Samuel Le Goff, à la tête de Menow.fr et père de deux enfants. À 38 ans, je navigue dans l’univers de l’informatique depuis plus de 14 ans, me spécialisant récemment dans le contenu high-tech et le gaming. Ma mission ? Partager des conseils pratiques et des insights en technologie, avec une touche d’honnêteté et d’authenticité, comme si je m’adressais à des amis.