«¿Podría aniquilarnos la Inteligencia Artificial?» Responde un compañero católico de Stephen Hawking
Ilyas Khan, fundador de «Quantinuum», cree que la distopía tecnológica puede empezar por deificar la IA

Si la Inteligencia Artificial tuviese una cadena de parentesco, se podría decir que Ilyas Khan es algo parecido a un padrino. Y cuándo le preguntan por su futuro o los riesgos asociados a su uso, los explica cargado de confianza en ella, pero también de incertidumbre.
Como compañero de Stephen Hawking y fundador de Quantinuum, la vanguardista empresa de computación cuántica más grande del mundo dedicada a potenciar la Inteligencia Artificial, Ilyas Khan es una voz autorizada para hablar de lo que supone la IA en la actualidad y de lo que podría implicar en el futuro.
Unas consideraciones que ha expresado recientemente en una entrevista concedida a Catholic World Report en la que no ha rechazado responder a ninguna pregunta… Ni siquiera a la que muchos se hacen. ¿Podría la Inteligencia Artificial volverse contra la humanidad?
Católico, expresidente de la Fundación Stephen Hawking y fundador del Instituto Topos en Berkeley (California), Khan también ha sido nombrado Caballero de San Gregorio por el Papa Francisco y es actualmente uno de los más conocidos conferenciantes sobre computación cuántica, una especie de potenciadora de la IA.
Inteligencia artificial: una definición
Requerido por una definición breve y sintética de la misma, Khan se refiere a la Inteligencia Artificial como “una extensión de todas las tecnologías que hemos inventado, desde el fuego a los aviones, cosas que podemos ver y tocar y hacen cosas que los seres humanos no pueden”. Al menos, matiza, “no a escala industrial”, como a la hora de realizar grandes operaciones.
En este sentido, continúa, “la Inteligencia Artificial representa una extensión de todo eso. Se centra en patrones que a los humanos nos resultan muy difíciles”.
La IA, ¿es inteligencia?
En su opinión, se pueden encontrar patrones en la Inteligencia Artificial que la hacen “similar” a otros modelos de inteligencia, pero conservando en todo momento su esencia “mecánica”.
“Cuando nos enfrentamos a la inteligencia artificial, es decir, a las respuestas generadas por máquinas, se trata de un aprovechamiento muy rápido de los datos, que a veces son precisos y a veces creativos. Hay un salto de cosas que siguen siendo mecánicas y similares a las máquinas, y donde, pase lo que pase, podemos ver que siguen siendo una máquina”, explica.
Pese a considerar ciertos rasgos que hacen que la IA sea en cierta forma una “forma más” de inteligencia, matiza que “equipararla con los seres humanos es un gran salto”.
“[Los hombres] fuimos creados a imagen de Dios y la inteligencia que tenemos y el lenguaje que usamos son un don y son únicos. Recuerdo una cita que tuve con mi esposa antes de que lo fuese, y puedo describirla. Ese nivel de inteligencia es exclusivamente humano, y no creo que haya nada que pueda confundirse en ese sentido”, comenta.
Es por ello que su respuesta a los que comparan la inteligencia humana con la IA es enérgica: “Si Tomás de Aquino, o incluso Aristóteles, estuvieran aquí, los callarían en tres segundos. Nada de lo que dicen tiene sentido”.
El potencial riesgo distópico de la IA
Llegado el momento, su entrevistador, Mark Brumley, verbalizó la pregunta que muchos se hacen a la hora de pensar en el futuro de la IA: ¿Tiene riesgos?.
Ilyas lo explica con sencillez y profusión de ejemplos, como la reciente película Oppenheimer y los riesgos contenidos en el uso de bombas nucleares cuando estas solo eran una idea.
“De hecho, si se usara mañana una fracción de las bombas que existen, podrían aniquilar a la humanidad”, observa.
Para él, el riesgo de la técnica “no es nada nuevo”, pero tratándose de la IA cree que podrían darse “un conjunto de resultados” y “una confluencia de circunstancias que podrían llevarla a tomar decisiones contrarias a nuestros intereses. Y si nuestro interés es la supervivencia, entonces es mínimamente probable que, en los próximos 100 años, pueda existir un conjunto de instrucciones que nos aniquile”.
Hacia el avance tecnológico más importante de la historia
En todo caso, la inteligencia artificial que hipotéticamente podría terminar con la humanidad no serían embriones como Chat GPT.
“Stephen dijo algo más, que esta quizá era la revolución tecnológica más importante. Y en eso coincido. Las inteligencias artificiales generativas -tipo Chat GPT- son la primera generación. La próxima generación, particularmente las tecnologías cuánticas, serán sin duda el avance tecnológico más importante que haya ocurrido. Y eso conlleva riesgos”, puntualiza.
Preguntado por la tendencia de esos riesgos, el tecnólogo reitera que actualmente asistimos a las “primeras etapas” de la IA, comparables los sentimientos de fascinación e incluso miedo que podrían despertar los primeros años de internet.
“Como seres humanos, tenemos la obligación de saber qué está bien y qué está mal. Y no lo hacemos con esta nueva tecnología que se nos ha impuesto. Esto no está bien, y a menos que cambiemos de actitud y hagamos algo al respecto, los peligros de la deificación nos abrumarán”.
Hacia la deificación de la inteligencia artificial
Khan, católico, se sorprende de cómo actualmente se da un gran rechazo y negación de Dios al mismo tiempo que la sociedad se sumerge en el riesgo de deificar la tecnología y la inteligencia artificial, como se ha hecho “con otras cosas”.
Pero hacerlo con la tecnología conlleva una serie de riesgos que podrían desencadenar en una distopía: “Es un tipo de futuro del que hablaba Stephen Hawking y creo que sería el peor resultado: un mundo donde somos esclavos de una máquina, en el que no se nos permite pensar en su contra y en el que siempre tengamos miedo”.
La pregunta es si ese camino ha comenzado. Para el tecnólogo, la sociedad actual se encontraría dando sus primeros pasos, pero a través de gestos y detalles apenas perceptibles:
“Piensa en la cantidad de veces que tú, tus seres queridos o tus amigos habéis visitado una web. Y la página te dice `Haz click aquí antes de seguir´, y ni si quiera leemos lo que hacemos. Eso es lo que estamos haciendo actualmente. Nos estamos vendiendo a los recopiladores de datos y estamos perdiendo la autonomía. Ya la hemos perdido, en muchos sentidos”.
Herramienta global, ¿amenaza global?
En último término, esos riesgos de los que advierte Ilyas Khan no solo son distópicos e iniciales, sino que son también de carácter global”, al contrario que otras revoluciones tecnológicas “geográficamente aisladas”.
Y eso tiene un riesgo, “que social, cultural e intelectualmente no estamos preparados para reconocer el peligro. Nuestros datos, y por tanto, el acceso a controlar nuestras vidas, están siendo usurpados por otro poder soberano. Cuando hablamos de acceder [a las webs] y enviar nuestros datos, los datos recopilados no se quedan ahí. Se globalizan rápidamente”, menciona.
Un argumento que emplea para advertir de cara a la repercusión “global” de la IA -y su hipotética amenaza- es que todos los estados-nación “han creado programas y comités e invertido muchísimo dinero en relación con el tamaño de sus economías. La única comparación directa que se me ocurre históricamente son los ejércitos. Todos los estados tenían uno. Pero eso no era una tecnología: era la extensión de la fuerza”.
Parte de la explicación a la creciente inversión global en las tecnológicas es la llamada computación cuántica a la que se dedica Khan, y concretamente a la inteligencia artificial cuántica.
De nuevo, recurre a ejemplos de “tecnología arqueológica” para comparar el impacto de las nuevas propuestas.
“La implementación actual de la IA es de primera generación, un poco como el teléfono grande y tosco de 1989, con redes limitadas y baterías que duraban unos 4 segundos. Han tardado casi 40 años en llegar a los teléfonos actuales. Pero creo que este impacto en la IA de la computación cuántica se manifestará mucho más rápido. La próxima generación de IA y la posterior -hablemos de 10 años, no de 40- serán tan diferentes como los smartphones actuales de los primeros”, explica.
Solo una herramienta
Para el experto, no todo es el futuro de la inteligencia artificial cuántica es distópico, pero aventura que sus cambios y posibles peligros tendrán tres notas: “Las mejoras serán transformadoras, potentes y los peligros mucho más inmediatos”.
Con todo y al margen de su consideración como experto global, Khan se muestra “optimista”, y aunque cree que la inteligencia artificial puede ser “desconcertante”, es solo “una herramienta”.
“No creo que haya nada que enfrentemos que sea imposible para nosotros. Creo que nuestro Dios nos ha dado a todos la capacidad de lidiar con cualquier cosa que se nos presente. Hay cosas horribles, hemos vivido vidas privilegiadas, pero hay gente que sufre adversidades y pruebas increíbles, y estamos preparados para afrontarlas. También nosotros estamos preparados para afrontar lo que nos espere”, concluye. –