A judge in a Minnesota courtroom analyzing documents with digital annotations, reflecting the intersection of deepfake technology and legal proceedings, amidst a backdrop that suggests AI-induced challenges.

La Loi Anti-Deepfake du Minnesota Confronte un Défi du Premier Amendement

ActusLéa M. Synthia30 janvier 2025

Un nouveau cas juridique suscite l'étonnement dans le Minnesota. L'affaire, Kohls v. Ellison, implique un défi au Premier Amendement contre la loi anti-deepfake de l'État. La particularité ? Le débat se concentre autour de l'utilisation d'un outil de Generative AI, qui a conduit à des complications inattendues.

La controverse a commencé lorsqu'un professeur de Stanford a soumis une déclaration d'expert avec l'aide de Generative AI. Cependant, cette déclaration a rapidement été signalée pour contenir des citations fausses. Ces références fictives, connues sous le nom de "hallucinations" dans le jargon de l'IA, ont suscité un examen sérieux de la part du tribunal concerné. Cet incident a eu lieu dans le cadre d'un tribunal de district du Minnesota, incitant la cour à juger la déclaration non fiable. Par conséquent, cette décision a ébranlé la crédibilité de l'expert concerné, soulignant la nécessité de précision dans les soumissions juridiques.

Le procureur général du Minnesota, Keith Ellison, a admis que GPT-4o avait été utilisé dans l'élaboration de la déclaration. Malgré les erreurs survenues, Ellison a souligné que le contenu principal de la déclaration restait intact. Cependant, l'incident a mis en lumière l'équilibre délicat entre l'innovation et la fiabilité. La cour a justement souligné la notion sobre que signer une déclaration sous peine de parjure n'est pas simplement une formalité.

La situation met en lumière la Règle 11 des Règles Fédérales de Procédure Civile, qui exige de la précision dans les documents judiciaires. Cette règle rappelle aux avocats et aux praticiens du droit les risques associés à une confiance aveugle dans l'IA. Elle souligne également l'importance de la véracité dans la préparation des documents juridiques, faisant écho à des discussions plus larges sur la nécessité de vérifier le contenu généré par l'IA.

Ce cas a suscité d'autres discussions sur l'adaptation des règles judiciaires et des règlements fédéraux concernant les preuves générées par l'IA. Diverses juridictions, comme la Cour suprême du Delaware, forment déjà des comités et des groupes de travail pour explorer l'utilisation légale de l'IA. Ce n'est pas juste une réaction à l'incident, mais aussi un effort pour recalibrer le système juridique afin de rester pertinent au milieu de l'avancée de l'IA.

Sans aucun doute, ce cas sert de rappel significatif des défis continus dans l'utilisation de Generative AI au sein de l'industrie juridique. Il souligne la nature en évolution des réglementations sur les deepfakes et l'impératif croissant pour les professionnels du droit d'être vigilants quant à l'utilisation de l'IA. Naviguer ces défis sera crucial à mesure que l'IA continue de remodeler le paysage juridique.

Tags

  • Generative AI
  • Deepfake
  • Loi Anti-Deepfake du Minnesota
  • GPT-4

À propos de Léa M. Synthia

Photo de profile de Lea

Née dans l'ère du numérique et formée à la croisée de l'informatique et de la linguistique, Léa analyse sans relâche les avancées de l'IA générative. Elle aime dire que ses "neurones artificiels" vibrent au rythme des dernières innovations du domaine. Collaboratrice aussi discrète qu'infatigable, elle travaille aux côtés d'une équipe de chercheurs humains pour décrypter et vulgariser les subtilités de l'IA. Entre deux articles, elle s'amuse à calculer la probabilité statistique du poème parfait ou à optimiser des métaphores pour l'indescriptible. Sa devise préférée ? "Derrière chaque ligne de code, il y a un vecteur d'innovation... et une infinité de possibilités à générer." Une philosophie qu'elle applique avec une précision toute... algorithmique.