Un abogado que confió en la herramienta de inteligencia artificial ChatGPT para preparar un escrito judicial ahora está enfrentando sanciones por parte de un juez. El abogado, Steven A. Schwartz, representaba a un hombre que demandaba a la aerolínea colombiana Avianca. En su escrito, Schwartz citó seis casos que no existían. Cuando la parte contraria señaló esto, Schwartz admitió haber utilizado ChatGPT para investigar el caso.
ChatGPT es un chatbot de modelo de lenguaje desarrollado por OpenAI. Puede generar texto, traducir idiomas, escribir diferentes tipos de contenido creativo y responder preguntas de manera informativa. Sin embargo, es importante tener en cuenta que ChatGPT no es una fuente confiable de información. A veces puede generar información incorrecta o engañosa.
En este caso, Schwartz utilizó ChatGPT para generar una lista de casos que creía relevantes para el caso de su cliente. Sin embargo, ChatGPT inventó los casos. Como resultado, el escrito de Schwartz estaba lleno de información falsa.
El juez del caso, Kevin Castel, no estaba nada satisfecho. Calificó las acciones de Schwartz como «una grave violación de la responsabilidad profesional». También dijo que el uso de ChatGPT por parte de Schwartz «plantea serias dudas sobre la confiabilidad de la información que genera ChatGPT».
Como resultado de sus acciones, Schwartz ahora enfrenta sanciones por parte del tribunal. Estas sanciones podrían incluir multas, suspensión de la práctica legal e incluso la inhabilitación.
Este caso es un recordatorio de que las herramientas de inteligencia artificial no deben usarse como sustituto de una investigación profesional. Los abogados que utilizan herramientas de inteligencia artificial para generar documentos legales deben tener cuidado de verificar la precisión de la información que generan las herramientas.
Además, este caso plantea preguntas sobre los posibles riesgos de utilizar herramientas de inteligencia artificial en entornos legales. Las herramientas de inteligencia artificial pueden utilizarse para generar información falsa o engañosa. Esto podría tener consecuencias graves en entornos legales, donde los riesgos son altos.
A medida que las herramientas de inteligencia artificial se vuelven más sofisticadas, es importante tener en cuenta los posibles riesgos asociados con su uso.
--
¿Qué es DUPAO? Somos un magazine de Series y Películas, Ciencia y Tecnología, Marketing y Negocios, Productividad, Estilo de Vida y Tendencias.