Actualité GeekIT, Data & IATechnologies

Meta remplace ses évaluateurs humains par l’IA : vers un virage à haut risque

Meta Platforms s’apprête à confier l’évaluation des risques liés à ses produits à des systèmes d’intelligence artificielle, reléguant les examinateurs humains à un rôle secondaire, selon des informations révélées par NPR (National Public Radio).

Le groupe ambitionne que l’IA prenne en charge jusqu’à 90 % des analyses de risques, y compris dans des domaines particulièrement sensibles comme la sécurité des jeunes ou les contenus relatifs à la désinformation et à la violence.

Accélérer les lancements, quitte à réduire la vigilance

Jusqu’à récemment, chaque nouvelle fonctionnalité sur Instagram, WhatsApp ou autres services du groupe faisait l’objet de contrôles humains approfondis. Mais au cours des deux derniers mois, Meta aurait significativement intensifié son recours à l’IA, dans l’objectif clair de gagner en rapidité pour tester et déployer ses nouveautés.

Cette stratégie vise à fluidifier les mises à jour et à simplifier les processus internes. Mais un ancien cadre de Meta, resté anonyme, met en garde : une automatisation aussi poussée pourrait engendrer des conséquences majeures, certaines erreurs n’étant identifiées qu’une fois les problèmes largement diffusés.

L’IA pour les tâches simples, l’humain pour les décisions complexes

Face aux critiques, Meta affirme ne pas abandonner complètement le facteur humain. L’entreprise précise que les situations complexes ou inédites continueront d’être évaluées par des spécialistes, tandis que les décisions à faible impact seront laissées à l’IA.

Un porte-parole explique : « Nos processus évoluent pour mieux détecter les risques, faciliter la prise de décision et garantir une expérience cohérente pour les utilisateurs. » Il insiste sur l’importance de la technologie pour traiter les cas répétitifs, tout en réaffirmant que les experts humains restent essentiels sur les enjeux les plus critiques.

Cette annonce intervient peu après la publication du dernier rapport trimestriel sur l’intégrité, le premier depuis la révision des politiques internes de modération de contenu et de vérification des faits. Ce tournant stratégique soulève une interrogation centrale : jusqu’où peut-on automatiser sans compromettre la sécurité des utilisateurs ?

Je m’appelle Samuel Le Goff. À 38 ans, je suis l’actualité du numérique depuis plus de 14 ans. Aujourd’hui, je m’intéresse particulièrement aux smartphones et aux usages concrets de l’intelligence artificielle, que je traite à travers des contenus clairs et accessibles sur Menow.fr.

Samuel

Je m’appelle Samuel Le Goff. À 38 ans, je suis l’actualité du numérique depuis plus de 14 ans. Aujourd’hui, je m’intéresse particulièrement aux smartphones et aux usages concrets de l’intelligence artificielle, que je traite à travers des contenus clairs et accessibles sur Menow.fr.

Voir tous les articles

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *