Moins de trois semaines après avoir levé l’interdiction d’utiliser ChatGPT pour ses employés, Samsung aurait divulgué par erreur ses propres secrets à trois reprises, notamment des informations sensibles sur des semi-conducteurs en cours de développement.
L’interdiction visait initialement à protéger les données de l’entreprise, mais a été levée le 11 mars afin d’améliorer la productivité et de permettre aux employés de rester en phase avec les dernières avancées technologiques mondiales.
D’après un rapport de média local coréen, les secrets divulgués incluraient des données sur les mesures d’équipement et les rendements provenant de l’unité de solutions pour dispositifs et de semi-conducteurs du conglomérat.
Un employé aurait confié au média local avoir copié l’ensemble du code source problématique d’un programme de téléchargement de base de données de semi-conducteurs, l’avoir entré dans ChatGPT et demandé une solution. Un autre aurait téléchargé un code de programme destiné à identifier les équipements défectueux, et un troisième aurait téléchargé des comptes-rendus de réunion dans le but de générer automatiquement des procès-verbaux.
La FAQ de ChatGPT stipule que “Vos conversations peuvent être consultées par nos formateurs d’IA pour améliorer nos systèmes.” Ainsi, les secrets de Samsung pourraient être accessibles à OpenAI, une entité qui s’intéresse de près aux technologies et aux affaires du géant coréen.
Suite à la découverte de ces incidents, Samsung aurait pris des “mesures d’urgence”, notamment en limitant la capacité de téléchargement à 1024 octets par question.
“Si un accident similaire se produit même après la mise en place de mesures de protection de l’information d’urgence, l’accès à ChatGPT pourrait être bloqué sur le réseau de l’entreprise”, auraient averti les dirigeants de Samsung.
Lorsque l’interdiction d’utiliser ChatGPT a été levée, Samsung avait déjà mis en garde ses employés contre la divulgation d’informations propriétaires. OpenAI met également en garde contre le téléchargement de données sensibles.
Depuis le 1er mars de cette année, la politique d’OpenAI stipule que les utilisateurs de l’API doivent accepter de partager leurs données pour former ou améliorer ses modèles, tandis que les services non-API, comme ChatGPT ou DALL-E, exigent que l’utilisateur se désinscrive pour éviter que ses données ne soient utilisées.
“Nous supprimons toute information personnellement identifiable des données que nous avons l’intention d’utiliser pour améliorer les performances du modèle. Nous n’utilisons également qu’un petit échantillon de données par client pour nos efforts d’amélioration des performances du modèle”, affirme OpenAI.
Les médias locaux indiquent que Samsung envisage désormais de créer son propre service d’IA en interne pour éviter de futurs incidents.
The Reg a contacté Samsung pour confirmer les détails de cette histoire, mais n’a pas reçu de réponse au moment de la rédaction de cet article.
Selon The Korea Times, l’incident a ébranlé les entreprises technologiques nationales, y compris le fabricant de puces SK hynix et l’entreprise de matériel grand public LG Display, qui élaborent actuellement des directives pour l’utilisation des chatbots IA.
SK hynix aurait bloqué l’utilisation des chatbots sur son réseau interne et les employés souhaitant utiliser le service doivent obtenir des autorisations de sécurité. LG Display aurait pour sa part opté pour une campagne éducative afin que son personnel comprenne comment protéger les secrets de l’entreprise.
Je suis Samuel Le Goff, à la tête de Menow.fr et père de deux enfants. À 38 ans, je navigue dans l’univers de l’informatique depuis plus de 14 ans, me spécialisant récemment dans le contenu high-tech et le gaming. Ma mission ? Partager des conseils pratiques et des insights en technologie, avec une touche d’honnêteté et d’authenticité, comme si je m’adressais à des amis.