-
Comprueban que la IA aún no alcanza el razonamiento humano complejo
El tiempo es oro para todos, ya que permite controlar el trabajo, la obtención de recursos y las actividades que dan mayor sentido a la existencia, como puede ser cuidar a los hijos, practicar algún deporte o simplemente mirar los pájaros. Optimizar estos periodos es la promesa de las nuevas tecnologías desde comienzos de este siglo, a través, por ejemplo, de respuestas automáticas del correo cuando se está de vacaciones, o la predicción de textos con inteligencia artificial (IA) al momento de escribir: aquí es donde comenzaron los problemas para un abogado de la Región del Bíobío.
El Segundo Juzgado Civil de Concepción sancionó al abogado Franklin Bustos Díaz, en representación de la Inmobiliaria General Cruz SpA, al presentar una demanda redactada con IA.
Los sistemas de IA se diferencian entre predictivos y generativos: en el primer caso, tal como su nombre lo indica, predicen una respuesta a través de la información disponible en internet o con que haya sido entrenada el robot (bot) de IA.
La IA generativa realiza el mismo trabajo, aunque "genera" conocimiento, es decir, es capaz de inventar en caso de no encontrar una respuesta, lo que miles de usuarios en la red han tildado de "alucinaciones".
Diferenciar estos sistemas es complejo, por lo que sus propios creadores recomiendan tener criterio al usarlos. Por ejemplo, al abogado Bustos la IA le explicó una jurisprudencia (costumbre jurídica) inexistente que luego él presentó ante el juez Adolfo Depolo Cabrera, quien se dio cuenta de los datos falsos y acusó al egresado de la Universidad del Desarrollo (UDD) de haber "actuado en contra del principio de buena fe".
El fallo, disponible en el sitio web del Poder Judicial (pjud.cl), afirma que, "habiéndose citado jurisprudencia inexistente con el propósito de obtener un resultado favorable", el abogado tuvo "un comportamiento desleal, una infracción al deber de colaboración y a la conducta procesal exigida a las partes, que se traduce en una falta de respeto por el proceso como método de solución de conflictos".
El estudio Bustos, Melgar y Piderit, del cual el sancionado es socio fundador, respondió en Instagram apenas el fallo comenzó a circular por grupos de WhatsApp de abogados: "Jamás se intentó engañar al Tribunal o forzar un resultado a través de este escrito que muchos tienen en su poder, el tema es más simple, pero me vi en la obligación de explicarlo (sic) ya que en este país la gente emite juicios con cero información".
El argumento de Bustos fue que otro abogado de la oficina redactó el documento con IA y admitió que debió revisarlo antes de presentarlo al juzgado. Sin embargo, "tenemos claro quién fue el colega que se encargó de difundir esta información, sólo le pido a Dios que entre con amor en su corazón para que lo limpie y lo sane, lo que hizo fue con evidente maldad y mala intención de manchar mi nombre, ningún problema tengo con él".
El perfil del estudio en la red social ayer, al cierre de esta edición, no permitía comentar las publicaciones. Las Últimas Noticias (LUN) ayer llevó el caso en su portada y Bustos respondió en su perfil personal de Instagram que "nos encontramos revisando todo lo que ha presentado la oficina para enmendar o subsanar cualquier error, muchas gracias a todos por su apoyo y reconocimiento". Al igual que su bufete, cerró los comentarios.
examen de humanidad
Un equipo internacional formado por 1.100 científicos comprobó que la IA sigue cometiendo errores al responder preguntas que requieren razonamiento conceptual, más allá de búsquedas en internet, lo que reveló que aún no iguala el pensamiento humano en tareas académicas complejas.
La investigación fue publicada ayer en la prestigiosa revista Nature, donde los autores señalaron el desarrollo de 2.500 preguntas para probar a la IA. Si un sistema como ChatGPT o Gemini era capaz de responder, esa duda era borrada del set de preguntas de alta complejidad técnica y conceptual llamado "Humanity's last exam (Último examen de humanidad)".
El desempeño de las diversas IA frente a preguntas como "¿cuántos tendones pares sostiene un hueso sesamoideo específico en un colibrí? ¿Puede identificar sílabas cerradas en hebreo bíblico basándose en los estudios más recientes sobre las tradiciones de pronunciación tiberiana?", está disponible gratis en el sitio agi.safe.ai. Hasta noviembre de 2025, ninguna alcanzaba el 40% de exactitud en sus respuestas.
La Universidad de Sídney, Australia, explicó en su blog The Conversation que "cuando un estudiante de Derecho obtiene un buen puntaje en un examen, se puede predecir razonablemente que será un abogado competente, porque la prueba se diseñó para evaluar si los seres humanos han adquirido los conocimientos y las habilidades de razonamiento necesarios para el ejercicio del Derecho, y para los seres humanos, eso funciona: la comprensión necesaria para aprobar realmente se aplica al trabajo. Pero las IA no son humanos preparándose para sus carreras". J