Un avocat new-yorkais s’est ridiculisé en ne citant que de faux arrêts lors d’un procès. Comment ? Eh bien, c’est plutôt simple : comme France Inter le révèle, pour préparer son dossier, l’avocat Steven Schwartz a eu la bonne idée de s’appuyer sur ChatGPT en lui demandant tout simplement : “Est-ce que c’est une véritable affaire ?” Ce à quoi l’application a répondu : “Oui.” Mais au moment de demander les sources, ChatGPT a signalé une confusion tout en insistant sur la véracité des cas cités.
Publicité
Au final, six cas mentionnés n’existaient pas. L’avocat affirme avoir “regretté d’avoir utilisé une intelligence artificielle générative pour remplacer la recherche légale” et reconnaît qu’il “n’était pas au courant de la possibilité que le contenu de ChatGPT soit erroné”.
Publicité
Humans after all
Récemment, on vous relayait une étude d’OpenAI dans laquelle le logiciel ChatGPT était soumis aux mêmes examens scolaires que nous. Élève modèle, il avait survolé bon nombre de matières, notamment le droit, où ChatGPT avait fait mieux que 90 % des participants. OpenAI nous aurait-elle menti ? C’est peu probable. C’est sûrement l’avocat Steven Schwartz qui s’est très mal servi de la désormais célèbre IA. Rappelons que les intelligences artificielles ne sont, pour le moment, encore que des outils et que mal utilisées, elles ne servent à rien, si ce n’est se ridiculiser.
Publicité