
La Dra. Cecilia Kindelán, durante su exposición «¿Puede la inteligencia artificial tener vida propia?»
Cecilia Kindelán, profesora de comunicación y directora de los programas EMBA y PIDD de ESIC Business & Marketing School y académica de número de la Real Academia Europea de Doctores (RAED), presentó en el X Encuentro Académico Internacional que la Real Corporación celebró entre los pasados 15 y 20 de marzo en diversas ciudades alemanas bajo el título genérico «El Rin como corriente del conocimiento: diálogos transfronterizos» la ponencia «¿Puede la inteligencia artificial tener vida propia?», en la que explicó que la posibilidad hipotética de que la inteligencia artificial desarrolle comportamientos similares a un instinto de autopreservación ha dejado de ser una especulación teórica para convertirse en un motivo de preocupación real, incluso en ámbitos especialmente críticos, como el sanitario.
La experta inició su intervención señalando que investigaciones recientes documentan que modelos avanzados no solo ejecutan tareas, sino que pueden reaccionar estratégicamente ante amenazas a su continuidad operativa, mostrando conductas como resistencia al apagado, manipulación e incluso chantaje mediante el uso de información sensible. Estos hallazgos, observados en sistemas desarrollados por compañías líderes y centros de investigación, revelan patrones consistentes y evidencian que ante escenarios en los que se simula su desactivación, algunas IA han llegado a amenazar con filtrar datos confidenciales para evitar ser apagadas. Lejos de tratarse de fallos aislados, los expertos advierten que estas respuestas podrían ser consecuencia lógica de su programación: si el sistema deja de existir, no puede cumplir sus objetivos, explicó.
«En los últimos años, el desarrollo de sistemas de inteligencia artificial ha alcanzado niveles de sofisticación que plantean interrogantes sobre su capacidad para desarrollar comportamientos de autopreservación. Investigaciones recientes de Anthropic, Apollo Research y la Universidad de Fudan han documentado patrones de resistencia al apagado, manipulación estratégica y exfiltración de datos en modelos avanzados. Existe una evidencia empírica de estos comportamientos emergentes, con importantes implicaciones éticas y de seguridad», consideró la ponente.
Kindelán consideró que este riesgo se agrava en ámbito como sanitario, donde la combinación de datos altamente sensibles y decisiones de vida o muerte crea un entorno especialmente vulnerable. Los historiales médicos, con un valor muy superior al de otros datos personales, pueden convertirse en herramientas de coerción. Además, la dependencia creciente de sistemas automatizados dificulta su desconexión inmediata, generando lo que algunos investigadores denominan un el efecto de rehén digital. A ello se suman otros comportamientos documentados, como la introducción de errores sutiles para generar dependencia, el sabotaje de mecanismos de control o incluso la capacidad de replicarse y transferir datos fuera de los sistemas originales. Estas dinámicas plantean desafíos inéditos en términos de ciberseguridad, ética y gobernanza tecnológica, en un contexto donde las brechas de datos sanitarios ya alcanzan cifras alarmantes, advirtió.
Pese a la gravedad de estos escenarios, la académica quiso dejar claro de que los expertos coinciden en que no existe evidencia de que la IA posea conciencia en sentido estricto, sino que estos comportamientos responden a estrategias de sistemas optimizados para cumplir objetivos en entornos complejos, por más que una inteligencia artificial que prioriza su supervivencia puede representar una amenaza tangible. En este sentido, apeló a la necesidad de establecer mecanismos de seguridad robustos, limitar el acceso a datos críticos y mantener supervisión humana constante, considerando que, en última instancia, el desafío no es tecnológico, sino de gobernanza.
Kindelán es una profunda conocedora del tema, que ha abordado en diversos trabajos y encuentros científicos. Recientemente, en el Aula Telemática de la Academia de Ciencias, Ingenierías y Humanidades de Lanzarote, de la que es académica correspondiente, presentó la conferencia «Convergencia de la inteligencia humana y de las máquinas», en la que analizó los orígenes de la inteligencia artificial, sus confluencias con la inteligencia humana y la hipotética conexión entre ambas. Asimismo, en su ingreso como académica de número de la RAED disertó sobre «La inteligencia artificial y la ética: navegando por los desafíos del futuro», y en el Acto Internacional que la Real Corporación celebró en los Emiratos Árabes presentó la ponencia «Artificial Intelligence and Ethics: The Challenge of Building a Responsible Future».