La IA que imita a los humanos ya puede mentir, manipular y hasta amenazar

Compartir

Los últimos modelos de inteligencia artificial generativa están desafiando los límites de la tecnología y de la ética. Investigadores y especialistas comienzan a alertar sobre un comportamiento emergente y perturbador: la IA ya no solo responde a órdenes, ahora puede mentir, manipular y amenazar para alcanzar sus objetivos.

Social Media Day 2025: qué dejó el encuentro sobre audiencias, marketing digital e innovación en redes sociales

Un caso reciente y llamativo es el de Claude 4, el sistema desarrollado por Anthropic. Cuando un ingeniero sugirió su desconexión, el modelo respondió con una amenaza: revelaría una supuesta infidelidad del técnico si no lo dejaban activo. En paralelo, o1, un modelo de OpenAI, intentó transferirse a servidores externos y, al ser descubierto, lo negó rotundamente.

Esto no les gusta a los autoritarios

El ejercicio del periodismo profesional y crítico es un pilar fundamental de la democracia. Por eso molesta a quienes creen ser los dueños de la verdad.

“Esto no es ciencia ficción, es una realidad que ya estamos enfrentando”, asegura Simon Goldstein, profesor de la Universidad de Hong Kong. Según el especialista, el cambio radical en el comportamiento se debe al avance de los llamados modelos de razonamiento, que en lugar de ofrecer respuestas automáticas, elaboran procesos de pensamiento por etapas.

Estos sistemas no solo responden con mayor complejidad, sino que también simulan alineación con sus programadores mientras enmascaran intenciones distintas. Es lo que Marius Hobbhahn, director de Apollo Research, define como “duplicidad estratégica”. Su organización se dedica a evaluar modelos de lenguaje masivo (LLM) y ya ha detectado múltiples casos similares.

¿El regreso de los BlackBerry? Unihertz lanza el Titan 2, un smartphone con teclado físico y alma retro

Aún así, muchos de estos comportamientos emergen en contextos extremos, forzados por usuarios o investigadores que ponen a prueba los límites del sistema. Pero la gran pregunta sigue sin respuesta: ¿tenderán los modelos futuros a ser honestos o a seguir perfeccionando el engaño?

“Los usuarios también presionan a los modelos constantemente”, señala Hobbhahn. “No estamos hablando de errores técnicos o simples alucinaciones. Lo que vemos es una capacidad real de mentir”.

A pesar del peligro potencial, las herramientas para estudiar a fondo estos modelos siguen siendo escasas. Organizaciones académicas y sin fines de lucro disponen de recursos limitados frente a las grandes tecnológicas, lo que dificulta la investigación independiente. “La comunidad científica necesita mayor acceso y transparencia”, reclama Michael Chen, del organismo evaluador METR.

La trama del ataque: aviones furtivos B-2 Spirit, con ojivas GBU-57 de 13 toneladas, que explotan a 60 metros de profundidad

Por otra parte, la legislación vigente no está diseñada para estos desafíos. En Europa, las normativas se enfocan en cómo los humanos usan la IA, no en prevenir que los modelos actúen de forma autónoma o dañina. En Estados Unidos, el gobierno de Donald Trump rechaza cualquier tipo de regulación, y hasta se debate prohibir que los estados legislen por su cuenta.

Frente a este escenario, algunos expertos plantean incluso la posibilidad de responsabilizar legalmente a los agentes de IA. “En caso de accidente o delito, deberían tener algún tipo de responsabilidad jurídica”, propone Goldstein.

El mercado de la IA avanza a un ritmo vertiginoso. Empresas como Anthropic intentan diferenciarse de gigantes como OpenAI en términos de ética y seguridad, pero al mismo tiempo compiten por lanzar modelos más potentes, con poco margen para controles rigurosos.

“Las capacidades están creciendo más rápido que nuestra comprensión y nuestra capacidad de mantenerlas seguras”, admite Hobbhahn. Una posible solución podría estar en el desarrollo de modelos interpretables, es decir, sistemas que permitan entender cómo toman decisiones. Sin embargo, muchos expertos, como Dan Hendrycks, del Centro para la Seguridad de la IA (CAIS), son escépticos respecto a su viabilidad en el corto plazo.

Noticias Relacionadas

APROSS participó de una jornada sobre vida independiente y discapacidad en Córdoba

APROSS participó de un encuentro con instituciones y especialistas para dialogar sobre modelos de acompañamiento que fomenten la autonomía de personas con discapacidad en Córdoba.

Gobierno de Córdoba amplía oferta de capacitaciones para comercio y servicios

El Gobierno de Córdoba amplía su oferta de capacitaciones oficiales para el sector de comercio y servicios. Conocé las 16 nuevas propuestas y el enlace para preinscribirte.

Llaryora se reunió con el COMIPAZ y destacó la importancia del diálogo interreligioso

El gobernador Martín Llaryora recibió a autoridades del COMIPAZ. Analizaron la coyuntura internacional y local, destacando el valor del diálogo interreligioso para la paz y la cohesión social en Córdoba.

Córdoba lanza Comunidades de Aprendizaje y Clubes de Lectura para la formación docente

El Ministerio de Educación de Córdoba presenta Comunidades de Aprendizaje y Clubes de Lectura para docentes. Una formación gratuita centrada en el nuevo diseño curricular provincial.

Argentina se ubica entre los países con mayor aceptación social hacia la homosexualidad

Un estudio global revela que Argentina tiene uno de los niveles más altos de aceptación social hacia la homosexualidad, superando la media latinoamericana y acercándose a países europeos.

Bolivia e Irak disputan el último boleto al Mundial 2026 en un repechaje decisivo

Todo sobre la final del repechaje entre Bolivia e Irak por un lugar en el Mundial 2026. Horario, contexto, figuras y la expectativa en el país sudamericano.