Hubo un error en la Matrix
Estrado Futurista.- Un abogado aprovechó la llegada del futuro para usar el ChatGPT para un juicio y pues el resultado no fue para nada lo que creía.
El caso fue reportado por el diario The New York Times, y habría sido protagonizado por el abogado Steven Schwartz quien llevaba el caso de un cliente que demandó a la aerolínea Avianca por haber sufrido una lesión de rodilla con un carrito con los que sirven refrigerios dentro del avión (sí, ni él se lo cree).
Un abogado usa ChatGPT y lo pillan al descubrirse que le salieron datos falsos
Steven Schwartz aseguró que antes nunca había usado ChatGPT como fuente de investigación legal y "no estaba al tanto de la posibilidad de que su contenido pudiera ser falso".https://t.co/bvsEvUcQza pic.twitter.com/RkGdiy26fR
— RT en Español (@ActualidadRT) May 29, 2023
A este abogado le urge que alguien haga su trabajo por él
El caso fue presentado a un juez federal de Manhattan quien aceptó la demanda, y para el escrito inicial el abogado se apoyó del Chat GPT para incluir casos similares que habían ocurrido en la historia entendiendo que el derecho anglosajón le da mucha importancia a los “precedentes”.
El único problema es que la inteligencia artificial se inventó casos “similares” que supuestamente habrían ocurrido con las aerolíneas Delta Airlines, Korean Airlines, entre otras, con el pequeño detalle que jamás sucedieron y se las había inventado el Chat motherno.
Al momento de ser descubierto, Schwartz confesó que se había apoyado en esta tecnología y que la computadora le había perjurado que sí eran reales (¿quieren decir que las compus sí chorean?), cosa que no lo salvó de perder el juicio en cuestión y de recibir una sanción por mal uso de la patineta voladora.
No sabemos si el problema con todo esto es el uso indiscriminado de la tecnología en el día a día, o que se sigan necesitando abogados para que las personas pueda acudir a pedir justicia a los tribunales.
Legal #AI mishap: Lawyer Steven Schwartz used #ChatGPT for case research and ended up citing nonexistent cases it generated. Schwartz may now face sanctions for this.https://t.co/fmkAdmDD8W
— Wales.AI (@CymruAI) May 29, 2023