La inteligencia artificial (IA) está transformando el mundo a un ritmo vertiginoso. Desde asistentes virtuales hasta avances médicos, su potencial parece ilimitado. Sin embargo, no todo es optimismo. Demis Hassabis, CEO de DeepMind, la división de investigación en IA de Google y premio Nobel, ha expresado preocupaciones clave sobre el futuro de esta tecnología. En una entrevista con CNN durante el festival SXSW en Londres, Hassabis dejó claro que el desempleo masivo no es su mayor temor. En cambio, alerta sobre riesgos más profundos: el mal uso de la IA y la falta de controles para sistemas autónomos avanzados. Este artículo explora sus advertencias, el contexto de la IA actual y las implicaciones para nuestra sociedad.
¿Quién es Demis Hassabis y por qué importa su opinión?
Demis Hassabis no es un ejecutivo cualquiera. Fundador de DeepMind y líder en la investigación de IA, su trabajo ha revolucionado campos como la predicción de estructuras de proteínas con AlphaFold, lo que le valió un Nobel de Química en 2024. Su visión combina innovación con responsabilidad, lo que hace que sus advertencias sobre la IA sean especialmente relevantes.
Hassabis no habla desde el miedo, sino desde una comprensión profunda de la tecnología. Mientras otros se centran en el impacto laboral de la IA, él dirige la atención hacia cuestiones éticas y de seguridad que podrían tener consecuencias globales.
Las dos grandes preocupaciones de Hassabis sobre la IA
1. El peligro del mal uso de la IA
El mayor temor de Hassabis es que la IA, especialmente la inteligencia artificial general (AGI), caiga en manos equivocadas. La AGI, un tipo teórico de IA que igualaría la inteligencia humana, podría ser una herramienta poderosa para el bien, pero también para el mal. “Un actor malintencionado podría reutilizar estas tecnologías con fines perjudiciales”, advirtió en su entrevista con CNN.
Ejemplos de mal uso ya existen. El FBI reportó en mayo de 2025 que hackers usaron IA para generar mensajes de voz falsos, haciéndose pasar por funcionarios del gobierno estadounidense. Además, la creación de deepfakes, como pornografía no consensuada, ha llevado a nuevas leyes, como la Take It Down Act, firmada por el expresidente Donald Trump. Estos casos muestran cómo la IA puede ser explotada si no se regula adecuadamente.
2. La falta de controles para sistemas autónomos
La segunda preocupación de Hassabis es la ausencia de medidas de protección para controlar sistemas de IA autónomos. A medida que los modelos se vuelven más sofisticados, garantizar su seguridad se vuelve un desafío. Sin regulaciones claras, estos sistemas podrían actuar de formas impredecibles o peligrosas.
Hassabis subraya la necesidad de restringir el acceso a tecnologías avanzadas sin limitar su potencial positivo. “¿Cómo restringir el acceso a estos sistemas poderosos a los malhechores, pero permitir que los buenos hagan cosas asombrosas con ellos?”, planteó. Este dilema ético es central en el debate sobre el futuro de la IA.
El mito del “apocalipsis laboral”
Mientras algunos, como Dario Amodei, CEO de Anthropic, advierten que la IA podría eliminar la mitad de los empleos administrativos de nivel inicial, Hassabis tiene una perspectiva diferente. No niega que la IA transformará el mercado laboral, pero cree que el impacto no será tan catastrófico como se teme.
Históricamente, las revoluciones tecnológicas han generado ansiedad, pero también oportunidades. Hassabis argumenta que la IA será una herramienta aditiva, aumentando la productividad en sectores como la ciencia y la medicina. Por ejemplo, un médico podría usar IA para diagnosticar con mayor precisión, pero la empatía de una enfermera seguirá siendo insustituible.
La visión optimista: Un asistente universal de IA
Hassabis no solo ve riesgos, sino también un futuro prometedor. En su entrevista, describió un mundo donde “agentes” de IA actúan como asistentes universales. Estos sistemas, integrados en herramientas como el buscador de Google o dispositivos como gafas inteligentes, podrían manejar tareas administrativas, recomendar libros o incluso sugerir conexiones sociales.
Esta visión no es ciencia ficción. Google ya está incorporando IA en sus productos, desde mejoras en la búsqueda hasta el desarrollo de hardware impulsado por IA. Hassabis cree que estos asistentes enriquecerán nuestras vidas, liberándonos de tareas mundanas para enfocarnos en lo que realmente importa.
El impacto de la IA en el empleo: ¿Pérdida o transformación?
Aunque Hassabis no ve el desempleo como el mayor riesgo, el debate sobre el impacto laboral de la IA es candente. Según Amodei, la IA podría automatizar significativamente trabajos de oficina. Mark Zuckerberg, CEO de Meta, predijo que para 2026, la IA escribiría la mitad del código de su empresa.
Sin embargo, la IA también está creando nuevos empleos. En Estados Unidos, roles relacionados con ChatGPT, como desarrolladores de IA, están entre los de mayor crecimiento. Además, la IA puede generar nuevas profesiones, desde entrenadores de modelos hasta especialistas en ética tecnológica.
Hassabis sugiere que la clave está en la adaptación. Los jóvenes deben adquirir habilidades en ciencia, tecnología, ingeniería y matemáticas (STEM), así como aprender a interactuar con sistemas de IA. “Sumérgete en estos nuevos sistemas, entiende cómo funcionan y aprende a sacarles el máximo partido”, recomendó.
Los riesgos catastróficos de la IA
Más allá del empleo, la IA plantea riesgos existenciales. En 2023, Hassabis, junto con Sam Altman de OpenAI y otros líderes, firmó una carta abierta alertando que la IA podría llevar a la extinción humana si no se regula. Compararon su peligro con el de pandemias o guerras nucleares.
Un informe del Departamento de Estado de EE. UU. en 2024 señaló que la IA podría representar riesgos “catastróficos” para la seguridad nacional. Desde deepfakes hasta ciberataques, las amenazas son reales y crecientes. Hassabis insiste en que el desarrollo de la IA debe ir acompañado de valores éticos y regulaciones sólidas.
La carrera global por la IA: EE. UU. vs. China
El desarrollo de la IA no ocurre en el vacío. Estados Unidos y China compiten ferozmente por el liderazgo en este campo. En enero de 2025, DeepSeek, una empresa china, lanzó un modelo de IA sorprendentemente eficiente, desafiando la supremacía tecnológica de EE. UU. Esto provocó una caída del 12% en las acciones de Nvidia y afectó a gigantes como Meta y Alphabet.
Hassabis reconoce las tensiones geopolíticas, pero aboga por un acuerdo internacional que establezca principios básicos para el uso de la IA. “Parece difícil en la actualidad, dadas las circunstancias geopolíticas”, admitió, pero insiste en que la cooperación global es esencial para garantizar la seguridad.
La regulación de la IA: Un desafío urgente
La falta de regulación es un obstáculo importante. Mientras la IA avanza rápidamente, los marcos legales van a la zaga. En febrero de 2025, Google eliminó de su sitio web un compromiso ético que prohibía usar IA para armas o vigilancia, lo que generó críticas.
Hassabis propone una regulación ágil y adaptativa, capaz de evolucionar con la tecnología. Sugiere un modelo internacional que equilibre innovación y seguridad, similar a los tratados sobre armas nucleares. Sin embargo, reconoce que lograr consenso global es un desafío en un mundo dividido.
El potencial transformador de la IA
A pesar de los riesgos, Hassabis es optimista sobre el impacto positivo de la IA. En medicina, herramientas como AlphaFold ya están acelerando el descubrimiento de tratamientos. En energía, la IA podría facilitar avances en fusión nuclear o superconductores, abriendo la puerta a energía limpia y accesible.
En el ámbito ambiental, la IA está ayudando a combatir incendios forestales en California mediante sensores inteligentes y apoyando la conservación de especies en peligro, como venados en Buenos Aires, mediante drones y modelos predictivos.
Cómo prepararnos para un futuro con IA
Hassabis anima a la sociedad a abrazar la IA como una herramienta, no como una amenaza. Para los jóvenes, recomienda formarse en disciplinas STEM y aprender a personalizar sistemas de IA. Para las empresas, sugiere integrar la IA de manera estratégica, enfocándose en la eficiencia y la innovación.
A nivel global, la educación será clave. Las escuelas deben enseñar no solo habilidades técnicas, sino también ética y pensamiento crítico para navegar un mundo impulsado por la IA. Los gobiernos, por su parte, deben invertir en capacitación y regulaciones que protejan a los ciudadanos sin sofocar el progreso.
El equilibrio entre innovación y responsabilidad
La IA es una de las mayores revoluciones tecnológicas de nuestra era, comparable a la invención de internet. Sin embargo, su poder conlleva una gran responsabilidad. Las advertencias de Hassabis no buscan frenar el progreso, sino garantizar que la IA se desarrolle con valores humanos y controles adecuados.
Como sociedad, enfrentamos un desafío colectivo: aprovechar el potencial de la IA para resolver problemas globales mientras mitigamos sus riesgos. La visión de Hassabis, combinada con una regulación internacional efectiva, podría guiarnos hacia un futuro donde la IA no solo sea inteligente, sino también segura y ética.
Un llamado a la acción
El mensaje de Demis Hassabis es claro: la IA tiene el poder de transformar el mundo, pero solo si actuamos con responsabilidad. Sus preocupaciones sobre el mal uso y la falta de controles son un recordatorio de que el futuro de la IA depende de las decisiones que tomemos hoy. Desde regulaciones globales hasta educación masiva, el camino hacia una IA segura y beneficiosa requiere colaboración y compromiso.
La IA no es el enemigo, pero tampoco es un salvador infalible. Es una herramienta, y su impacto dependerá de cómo la usemos. Como dijo Hassabis, “sería inmoral no aprovecharla si está a nuestro alcance”. La pregunta es: ¿estamos listos para hacerlo de manera responsable?