Antes de que la inteligencia artificial se convirtiera en una tecnología de uso masivo y tema central del debate global, Stephen Hawking ya había encendido las alertas. En 2014, cuando la IA aún era un concepto lejano para la mayoría, el reconocido físico británico advirtió sobre su enorme potencial y sus riesgos inéditos para la humanidad.

Ese año, Hawking publicó un artículo en The Independent junto al físico y Premio Nobel Frank Wilczek, el profesor del MIT Max Tegmark y Stuart Russell, académico de la Universidad de California. En el texto, los expertos señalaron que la humanidad podría estar frente a uno de los momentos más decisivos de su historia. “Nos enfrentamos potencialmente a lo mejor o lo peor que le ha pasado a la humanidad”, afirmaron.
El análisis tomó como punto de partida la película Transcendence: Identidad virtual, protagonizada por Johnny Depp, que plantea un escenario en el que un investigador de inteligencia artificial logra transferir su conciencia a una máquina capaz de aprender, evolucionar y actuar de forma autónoma, mientras grupos extremistas intentan frenar ese avance tecnológico.
Lejos de descartar la trama como simple ciencia ficción, los autores advirtieron que hacerlo sería un grave error. “Es tentador minimizar la idea de máquinas altamente inteligentes, pero sería un error potencialmente histórico”, escribieron, subrayando además que la investigación en inteligencia artificial avanzaba a un ritmo acelerado.
Hawking reconoció que los beneficios de la IA podían ser extraordinarios. Sostuvo que su desarrollo exitoso representaría “el mayor acontecimiento en la historia de la humanidad”, al abrir posibilidades sin precedentes en ciencia, medicina, tecnología y calidad de vida. Sin embargo, también lanzó una advertencia contundente: si no se gestionaban adecuadamente sus riesgos, ese mismo avance podría convertirse en el último gran logro humano.
En ese contexto, alertó sobre escenarios en los que una inteligencia artificial avanzada podría superar a los mercados financieros, aventajar a los científicos en creatividad, manipular a líderes políticos o incluso acelerar el desarrollo de armas de gran poder destructivo.
Las advertencias de Hawking no se limitaron a 2014. En octubre de 2016, durante la inauguración del Centro Leverhulme para el Futuro de la Inteligencia en la Universidad de Cambridge, reiteró que una IA poderosa podría ser “lo mejor o lo peor que le pueda pasar a la humanidad”. En aquella ocasión, reflexionó que gran parte de la historia humana ha sido “la historia de la estupidez” y celebró que cada vez más personas se enfocaran en estudiar el futuro y no solo el pasado.
Un año después, en noviembre de 2017, volvió a insistir en la necesidad de anticiparse a los peligros. Señaló que el crecimiento de la IA exigía identificar riesgos, aplicar buenas prácticas y prepararse con suficiente antelación para enfrentar sus consecuencias. Ese mismo mes, en una entrevista con Wired, expresó su preocupación por haber cruzado un punto de no retorno: “El genio ha salido de la botella”, dijo, al advertir que la IA podría eventualmente reemplazar a los humanos.
Stephen Hawking falleció el 14 de marzo de 2018 en su hogar de Cambridge, Reino Unido, a los 76 años. Su muerte marcó el cierre de una trayectoria excepcional dedicada al estudio del universo, los agujeros negros y la divulgación científica. A pesar de haber sido diagnosticado a los 21 años con esclerosis lateral amiotrófica (ELA), una enfermedad que limitó progresivamente su movilidad y su habla, continuó investigando, escribiendo y enseñando durante más de cinco décadas.
Su libro Una breve historia del tiempo se convirtió en un fenómeno editorial mundial y acercó la física teórica a millones de personas. Tras su fallecimiento, su familia lo describió como un científico extraordinario cuya perseverancia, ingenio y valentía dejaron una huella imborrable en la ciencia y en la humanidad.
Este artículo fue publicado originalmente en Infobae y está protegido por derechos de autor. Todos los derechos reservados a Infobae. Puedes consultar el artículo original en su (https://www.infoabe.com).