“Sistemas de IA no son más inteligentes que nosotros, pero creo que pronto lo serán”

Fue pionero en la investigación de redes neuronales y aprendizaje profundo, que allanó el camino para el desarrollo de sistemas actuales de Inteligencia Artificial (IA) como ChatGPT.

1 71Después de renunciar a su trabajo en Google, el informático británico-canadiense, Geoffrey Hinton, de 75 años, se atrevió a cuestionar públicamente la actual carrera entre compañías tecnológicas para desarrollar productos de IA.

A corto plazo, advierte de tres peligros: la creación de contenido digital cuya veracidad será imposible de comprobar para el “usuario promedio”, el reemplazo de trabajadores en una amplia gama de oficios y que los sistemas de IA se conviertan un día en armas autónomas, especies de “robots asesinos”. En entrevista con la BBC, Hinton dijo que los chatbots podrían superar pronto el nivel de información que contiene un cerebro humano, avances que cree que son “bastante aterradores”.

Pregunta: ¿Por qué tomó la decisión de renunciar a Google y hacer estas críticas contra el desarrollo de la IA?

Respuesta: Había varias razones. Una es que tengo 75 años, así que es hora de retirarme. Otra razón es que quiero decir algunas cosas buenas sobre Google y son más creíbles si no trabajo para ellos. Y por último, quería tener la libertad de hablar sobre los peligros de la IA sin preocuparme por el impacto que pueda tener en Google.

P: Usted dijo que Google actuó de manera muy responsable. ¿Habría sido más efectivo su mensaje si hubiera estado dentro de la compañía, con la capacidad de dirigir las decisiones?

R: Pensé eso por un tiempo y puede ser cierto. Pero creo que ahora puedo hablar libremente sobre cuáles podrían ser los peligros y algunos de ellos son bastante aterradores. Lo importante es que muchos buenos científicos han trabajado en el tema de cómo podemos controlar estas cosas si llegan a ser más inteligentes que nosotros.

P: ¿Confía en las empresas de tecnología para avanzar sobre estos temas con responsabilidad?

R: Creo que un problema es que Microsoft decidió poner uno de estos chatbots avanzados en (el buscador) Bing y en otros productos y Google no tiene más remedio que responder a eso. No puede simplemente sentarse y no competir con Microsoft. Antes de eso, Google estaba a la cabeza de la IA y optó por no publicar estas cosas debido a todos los peligros. Los usaron internamente para mejorar la búsqueda, pero en realidad no los dieron a conocer al público, a pesar de que tenían chatbots, debido a los peligros potenciales. Creo que Google ha sido responsable en ese sentido. Pero solo puedes hacer eso cuando estás a la cabeza. Si estás compitiendo con la compañía que está usando estas cosas, también tienes que usarlas.

P: Microsoft no llegó a esta tecnología por su cuenta. Usted ha sido parte de la investigación que condujo a este desarrollo durante años. ¿Quién es responsable de que la IA haya alcanzado el punto donde está ahora?

R: Somos científicos. Estamos explorando lo que sucede cuando entrenamos grandes redes neuronales de computadoras y por eso terminamos aquí.

Es una de esas cosas que no hay forma de que la gente no vaya a explorar. El problema es que ahora que descubrimos que funciona mejor de lo que esperábamos hace unos años, ¿qué hacemos para mitigar los riesgos a largo plazo? Cosas más inteligentes que nosotros tomando el control.

Hablemos de esos riesgos. Usted dijo que le preocupan los malos actores. ¿Qué es lo que más le inquieta con respecto a cómo se podría utilizar esta tecnología?

R: Se ha hablado mucho sobre la posibilidad de producir automáticamente textos con información falsa. Se pueden crear herramientas muy efectivas que permitan a líderes autoritarios manipular a sus electores, por ejemplo.

Pero quiero hablar en particular del riesgo existencial de lo que sucede cuando estas cosas se vuelven más inteligentes que nosotros. Recientemente llegué a la conclusión de que el tipo de inteligencia que desarrollamos es muy diferente de la inteligencia que tenemos.

Somos sistemas biológicos y estos son sistemas digitales. La gran diferencia con los sistemas digitales es que tienes muchas copias del mismo conjunto, del mismo modelo del mundo, y todas estas copias pueden aprender por separado, pero comparten su conocimiento al instante. Es como si tuviéramos 10,000 personas y cada vez que una aprende algo, todas las demás lo aprenden automáticamente. Así es como estos sistemas logran saber mucho más que el resto.

P: Ha dicho que no sabemos exactamente cómo funciona el cerebro humano. ¿Cómo podemos estar seguros de que lo que acaba de describir eclipsa a la inteligencia humana?

R: No lo sabemos. En este momento lo que estamos viendo son cosas como que Chat GPT-4 eclipsa a una persona en la cantidad de conocimiento general. En términos de razonamiento no es tan bueno, todavía no hace un razonamiento simple, pero dado el ritmo de progreso, presumimos que las cosas mejoren bastante rápido. Así que tenemos que preocuparnos por eso.

En este momento (los sistemas de IA) no son más inteligentes que nosotros, pero creo que pronto lo serán.

P: ¿Qué pasa con las oportunidades que ofrece esta tecnología? Por ejemplo, para detectar enfermedades mejor que lo que pueden hacer los médicos humanos.

R: Esa es una de las razones por las que he estado trabajando en IA tanto tiempo, porque va a ser extremadamente beneficioso para cosas como esa.

La capacidad de estos grandes chatbots de saber mucho más que nadie los haría mejores que el médico de familia estándar. Serían como un médico que ha visto a diez millones de pacientes y probablemente esté viendo a muchos con los mismos problemas por los que tú acudes al médico.

P: ¿Cuál es el equilibrio entre el riesgo y el beneficio?

R: A corto plazo, creo que obtenemos muchos más beneficios que riesgos. No creo que debamos dejar de desarrollar estas cosas (…) Ver sus usos puede ser muy beneficioso y eso alentará a las personas a seguir desarrollándola.

Pero debemos pensar detenidamente en cómo podemos desarrollarla sin que pueda ser controlada.

P: ¿Podría darnos una idea, quizás no a corto, pero sí a más largo plazo, de cómo podría verse la IA dentro de nuestras vidas?

R: Me refiero a este como el peor de los casos, el escenario de la pesadilla. Puedes imaginar, por ejemplo, a algún mal actor como (Vladimir) Putin decidiendo dar a los robots la capacidad de crear sus propios subobjetivos.

¿Qué significa esto? Tengo un objetivo, por ejemplo, llegar al aeropuerto. Luego debo configurar el subobjetivo de conseguir un taxi, por lo que mi subobjetivo es llamar a un Uber. La capacidad de crear subobjetivos hace que los agentes sean mucho más efectivos. Así que le darás a los soldados robots la capacidad de crear subobjetivos. Pero una vez que haces eso, entonces pueden crear subobjetivos como “necesito obtener más poder”, porque si obtienen más poder, podrán lograr mejor sus objetivos.

P: Estas son empresas privadas en competencia por trabajar con esta tecnología. ¿Qué pueden hacer las autoridades para cambiar la dirección de los acontecimientos si hay un problema?

R: Soy un experto en la ciencia, no en política. Lo que diga sobre esto no proviene de una experticia, pero debe haber algo que puedan hacer. Tiene que ser el gobierno el que desarrolle (esta tecnología) con mucha reflexión sobre cómo detenerla si se rebela.

No estaría lejos la posibilidad de crear cíborgs autónomos

Tras un sinfín de largos experimentos, científicos de las universidades de Michigan y Pittsburgh lograron obtener partículas biónicas a través de un “cóctel” inusual: la mezcla de sustancias orgánicas con semiconductores, informa “The Guardian“.

Como aseguraban los mismos investigadores de EE. UU., durante sus experimentos no buscaban “esclavizar” el mundo creando un ejército de robots, sino inventar un nuevo biocombustible, aseguran.

Las partículas microscópicas que tienen potencial para crecer hasta el tamaño de un Terminator, están compuestas de teluro de cadmio, que se utiliza en la fabricación de paneles solares y del citocromo C, una proteína vegetal que acelera el transporte de electrones durante el proceso de fotosíntesis. Una mezcla de estos elementos permite reproducir el proceso que permite a las plantas convertir la luz solar en energía.

Según los científicos, si eligen de manera correcta el tamaño y la composición de las enzimas de partículas biónicas, estas serán capaces potencialmente de autorreplicarse. Esto significa que la perspectiva de creación de una raza de cíborgs capaces de recuperarse de forma independiente puede no estar muy lejos./Con información de BBC-

Te puede
Interesar