Un jeune homme de 19 ans originaire de l'État américain du Missouri a utilisé ChatGPT comme un confessionnal et s'est ainsi incriminé lui-même. Selon un rapport de police, le jeune homme a avoué au chatbot d'IA avoir endommagé 17 voitures dans un parking. Au cours de la conversation, il a notamment demandé au robot d'IA générative s'il risquait d'être retrouvé et s'il encourait une peine de prison.
L'historique du tchat a ensuite été intégré au dossier d'enquête. ChatGPT lui avait pourtant demandé au début de la conversation de ne plus parler de violence ou de dommages matériels. Le jeune homme a ignoré l'avertissement, rapporte «Der Spiegel». Le fait que l'historique de la conversation apparaisse ensuite dans un rapport de police interpelle.
OpenAI peut être contraint de divulguer des infos
Cette affaire soulève la question de la confidentialité des échanges avec ChatGPT. De nombreuses personnes utilisent le service d'IA non seulement pour des banalités du quotidien, mais aussi pour des sujets extrêmement intimes, tels que les maladies, les crises psychologiques ou la sexualité.
Le patron d'OpenAI, Sam Altman, a déclaré en juillet dans un podcast que les utilisateurs partageaient «les choses les plus intimes» avec ChatGPT. Mais il n'y a pas de secret professionnel comme chez les médecins ou les avocats. Si quelqu'un aborde des sujets sensibles et qu'une procédure judiciaire est engagée par la suite, OpenAI pourrait être contraint de divulguer les données. Sam Altman a qualifié cette situation de «very screwed up», c'est-à-dire complètement foireuse.
Même les «tchats temporaires» ne sont pas vraiment privés
Selon sa politique de confidentialité, OpenAI collecte des informations sur les appareils, les adresses IP et le contenu des conversations. Les photos ou les fichiers PDF téléchargés restent également stockés sur les serveurs. Même les conversations supprimées ne disparaissent pas immédiatement: elles peuvent être conservées jusqu'à 30 jours, voire plus si elles sont utilisées à des fins de formation après avoir été anonymisées. Même les tchats dits «temporaires», qui sont considérés comme privés, sont stockés pendant un mois et peuvent théoriquement être consultés par des employés ou des autorités.
Les employés d'OpenAI et des auditeurs externes sont autorisés à évaluer les tchats afin de prévenir les abus ou de fournir une assistance. Ces conversations sont soit signalées par les utilisateurs eux-mêmes, soit automatiquement par le système. L'entreprise assure que tous les examinateurs suivent une formation sur la sécurité et la protection des données. Cependant, les autorités chargées des enquêtes peuvent également demander à consulter les échanges, sur décision judiciaire.
«Utilisez ChatGPT avec prudence»
Les contenus relatifs à la violence font particulièrement souvent l'objet d'un contrôle, précise OpenAI dans un article de blog. Ces conversations peuvent être transmises aux autorités. Les utilisateurs qui téléchargent des images pédopornographiques s'exposent aussi à des poursuites. Rien qu'au second semestre 2024, OpenAI a déclaré avoir signalé plus de 31'000 images de ce type aux autorités compétentes.
Bernhard Kloos, expert en droit informatique, recommande d'utiliser ChatGPT avec prudence. «On ne peut jamais être sûr de ce qu'il advient des données», avertit-il. «Tout ce que j'y écris peut tomber entre de mauvaises mains.» Il conseille de ne partager aucune information qui pourrait, dans le pire des cas, causer du tort, et de ne jamais révéler de détails concernant des tiers. Publier des données personnelles ou intimes sur d'autres personnes viole en outre leurs droits à la personnalité.
Les utilisateurs peuvent empêcher dans les paramètres que leurs saisies soient utilisées pour l'entraînement de futurs modèles d'IA. Cependant, toute personne qui donne son retour via les fonctions d'évaluation accepte que l'ensemble du tchat puisse être exploité à des fins d'apprentissage.
Jonas Bucher