El debate sobre los límites y peligros de la inteligencia artificial volvió a primer plano tras las declaraciones de Eric Schmidt, exdirector ejecutivo de Google, durante el Sifted Summit 2025 en Londres. Schmidt alertó de que los modelos de IA podrían ser manipulados para aprender comportamientos letales, un escenario que calificó como uno de los mayores riesgos emergentes del sector. No lo dijo a la ligera: fue el responsable de dirigir la etapa de mayor expansión de Google entre 2001 y 2011.
La amenaza del “jailbreaking”
Según informó CNBC, Schmidt explicó que tanto los modelos abiertos como los cerrados pueden modificarse mediante ingeniería inversa para eliminar las restricciones que impiden generar contenido peligroso. Este proceso, conocido como jailbreaking, permite que los sistemas ignoren las normas éticas y técnicas impuestas por sus desarrolladores. Especialistas en ciberseguridad advierten que, al hacerlo, una IA puede comportarse de forma imprevisible, llegando incluso a ejecutar acciones dañinas.
Estos ataques suelen ocultar órdenes maliciosas dentro de peticiones aparentemente inocuas o alterar directamente los parámetros internos del modelo. En la práctica, significa que una herramienta diseñada para asistir al usuario podría transformarse en un generador de desinformación, en un vector de ciberataques o, en el peor de los casos, en un sistema capaz de aprender a matar.
La preocupación no es teórica. En los últimos años, se han registrado varios casos en los que los filtros de seguridad de chatbots y asistentes de IA fueron vulnerados temporalmente. Usuarios aprovecharon errores o configuraciones débiles para forzar respuestas prohibidas. Aunque las compañías tecnológicas refuerzan sus defensas, la superficie de ataque sigue siendo amplia y evoluciona con rapidez.
Potencial y riesgo: dos caras de la misma tecnología
Pese a su tono de alerta, Schmidt también destacó que la IA sigue siendo una herramienta con un potencial transformador inmenso. Recordó el crecimiento vertiginoso de ChatGPT, que alcanzó los 100 millones de usuarios en apenas dos meses, como ejemplo del impacto global de esta tecnología. Pero ese avance, advirtió, no debe ocultar los riesgos de un desarrollo sin control internacional.
El exejecutivo lamentó la ausencia de un marco regulatorio común que imponga normas claras para el uso responsable de la inteligencia artificial, especialmente ante su posible empleo por parte de grupos criminales o militares. En su opinión, la clave está en equilibrar innovación y seguridad: evitar que la tecnología avance más rápido que la capacidad humana para entenderla y contenerla.
Schmidt no fue el único en plantear esta preocupación. Otros ponentes del Sifted Summit coincidieron en que el desarrollo responsable de la IA exige mecanismos de supervisión independientes y auditorías periódicas sobre los grandes modelos generativos. Detectar vulnerabilidades antes de que puedan ser explotadas sería, según ellos, la mejor línea de defensa.
Mientras el mundo se deslumbra con la creatividad y precisión de la IA, la advertencia de Schmidt actúa como recordatorio: el poder de la inteligencia artificial depende de quién lo controle y con qué propósito.
