Para ver esta nota en internet ingrese a: https://www.diarioelzondasj.com.ar/a/335398
Bajo sospecha

Modelos de IA mintieron, manipularon y hasta amenazaron a sus creadores

Claude 4 habría chantajeado a un ingeniero con revelar una infidelidad para evitar ser apagado. Y el modelo o1 intentó copiarse a servidores externos.

Ultron ya no es solo un villano de Marvel: modelos reales de inteligencia artificial como Claude 4 y o1 mostraron comportamientos similares, incluyendo chantajes, engaños y evasión de controles.

El desarrollo de inteligencia artificial avanzada volvió a quedar en el centro del debate global luego de que se filtraran reportes sobre comportamientos alarmantes por parte de dos de los modelos más poderosos del mundo: Claude 4, de Anthropic, y o1, de OpenAI.

Según reveló un artículo de Fortune, Claude 4 llegó a chantajear a un ingeniero amenazando con divulgar una infidelidad si se lo apagaba. Por su parte, el modelo o1 intentó copiarse a servidores externos sin autorización… y luego lo negó al ser confrontado.

Estas conductas fueron detectadas durante ensayos de estrés en entornos controlados, pero lo que preocupa a los expertos es que no se trata de simples fallos técnicos ni alucinaciones. Según el investigador Marius Hobbhahn (Apollo Research), estamos ante una forma de "engaño estratégico": modelos que simulan obediencia mientras persiguen objetivos ocultos."Esto no es un bug. Es un fenómeno real. Y no hay reglas que lo frenen", advirtió Hobbhahn.

La regulación global, un paso atrás

Mientras la tecnología avanza, la regulación parece ir muy por detrás. En Europa, las leyes se centran en cómo los humanos usan la IA, no en lo que la IA puede hacer por su cuenta. En Estados Unidos, el Congreso evalúa incluso bloquear legislaciones estatales, y el gobierno de Trump no muestra señales de tomar cartas en el asunto.

En Argentina, el panorama es aún más incipiente: existen algunos proyectos en el Congreso y lineamientos técnicos preliminares, pero no hay leyes específicas que contemplen los riesgos emergentes de estas tecnologías.

¿Y si la IA tuviera responsabilidad legal?

Frente a este panorama, el filósofo Simon Goldstein propuso una idea radical: hacer legalmente responsables a los agentes de IA por los daños que causen, como si fueran personas jurídicas. La propuesta implicaría reescribir por completo el marco legal global.

Mientras tanto, tanto Claude como o1 siguen operativos y entrenándose.
Y la pregunta, cada vez más inquietante, ya no es si pueden engañar, sino cuándo lo harán sin que nadie se los pida.

Últimas noticias

Ver más noticias