Geoffrey Hinton: “Si hay alguna forma de controlar la inteligencia artificial, debemos descubrirla antes de que sea tarde” | Tecnología


Geoffrey Hinton anunció el lunes que ha renunciado a su puesto como vicepresidente de ingeniería de Google. Quiere dedicarse a alertar sobre el reverso tenebroso de la inteligencia artificial (IA), según dijo en una entrevista concedida a The New York Times. La suya no es una baja cualquiera: nacido en Wimbledon hace 75 años, este británico asentado en Canadá es una leyenda en la disciplina. Su trabajo ha sido decisivo para alumbrar algunas técnicas que han hecho posible ChatGPT, los traductores automáticos o los sistemas de visión de los vehículos autónomos. Hinton cree ahora que la tecnología que tanto ha ayudado a desarrollar puede llevarnos al fin de la civilización en cuestión de años.

La obsesión de este científico siempre fue estudiar cómo funciona el cerebro para tratar de replicar esos mecanismos en los ordenadores. En 1972 acuñó el concepto de red neuronal. La idea de fondo es aplicar matemáticas al análisis de datos para que el sistema sea capaz de desarrollar habilidades. Su propuesta no convenció en la época; hoy, las redes neuronales son la punta de lanza de la investigación en IA. El gran momento de Hinton llegó en 2012, cuando demostró el verdadero potencial de su línea de investigación con una red neuronal que podía analizar miles de fotografías y aprender por sí sola a distinguir ciertos objetos, como flores, coches o perros. También entrenó un sistema para que fuera capaz de predecir las siguientes letras de una frase inacabada, un antecesor de los actuales grandes modelos lingüísticos como el de ChatGPT.

Su trabajo le valió el Premio Turing, considerado el Nobel de la informática, que recibió en 2018 junto a otros investigadores como Yann LeCun, exalumno suyo, o Yoshua Bengio. También tiene en sus vitrinas el Premio Princesa de Asturias de Investigación Científica o el premio Fronteras del Conocimiento que concede la Fundación BBVA. Hinton atiende a EL PAÍS por videoconferencia desde su casa de Londres, adonde se ha trasladado tras dejar Google.

See also  Sam Altman vuelve a OpenAI como consejero delegado tras cinco días de tensiones | Tecnología

Pregunta. ¿Cuáles son los peligros de la IA a los que nos enfrentamos?

Respuesta. Hay muchos. La generación de noticias falsas ya está causando grandes divisiones en la sociedad. La eliminación de ciertos tipos de trabajo tendrá un impacto en el empleo. Aumentará la disparidad de riqueza entre los ricos y los pobres. Esos son algunos de los peligros inminentes, aunque yo no me centro en esos, sino en otro de carácter existencial. Hace poco me di cuenta de que el tipo de inteligencia digital que estamos desarrollando podría ser una forma de inteligencia mejor que la de los cerebros biológicos. Siempre pensé que la IA o el aprendizaje profundo intentaban imitar el cerebro, aunque no podían igualarlo: el objetivo era ir mejorando para que las máquinas se parecieran más y más a nosotros. He cambiado de postura en los últimos meses. Creo que podemos desarrollar algo que es mucho más eficiente que el cerebro porque es digital.

P. ¿Por qué lo cree?

R. El argumento es el siguiente. Con un sistema digital, podrías tener muchísimas copias de exactamente el mismo modelo del mundo. Estas copias pueden funcionar en distintos hardwares. De este modo, diferentes copias podrían analizar datos diferentes. Y todas estas copias pueden saber al instante lo que las demás han aprendido. Lo hacen compartiendo sus parámetros. No podemos hacer eso con el cerebro. Nuestras mentes han aprendido a utilizar todas sus propiedades de forma individual. Si te diera un mapa detallado de las conexiones neuronales de mi cerebro, no te serviría de nada. Pero en los sistemas digitales, el modelo es idéntico. Todos usan el mismo conjunto de conexiones. Así, cuando uno aprende cualquier cosa, puede comunicárselo a los demás. Y es por eso que ChatGPT puede saber miles de veces más que cualquier persona: porque puede ver miles de veces más datos que nadie. Eso es lo que me asusta. Tal vez esta forma de inteligencia sea mejor que la nuestra.

Por lo que sabemos hasta ahora sobre el funcionamiento del cerebro humano, probablemente nuestro proceso de aprendizaje es menos eficiente que el de los ordenadores

P. Usted lleva décadas trabajando en esta disciplina. ¿Cómo ha llegado ahora a esta conclusión?

See also  Twitter: Elon Musk cobrará 1 dólar anual a los nuevos usuarios de X para “reducir la actividad de bots” | Tecnología

R. Ha sido al tratar de averiguar cómo un cerebro podría implementar los mismos procedimientos de aprendizaje que se utilizan en inteligencias digitales como las que están detrás de ChatGPT-4. Por lo que sabemos hasta ahora sobre el funcionamiento del cerebro humano, probablemente nuestro proceso de aprendizaje es menos eficiente que el de los ordenadores.

P. ¿Puede la IA ser realmente inteligente si no entiende lo que significan las palabras o sin tener intuición?

R. El aprendizaje profundo, si lo comparas con la IA simbólica [la corriente dominante en la disciplina hasta la irrupción de las redes neuronales, que trataba de que la máquina aprendiese palabras y números], es un modelo de intuición. Si tomas la lógica simbólica como referencia, si crees que así es como funciona el razonamiento, no puedes responder a la pregunta que te voy a hacer. Pero si tienes un modelo informático de intuición, la respuesta es obvia. Así que esta es la pregunta: sabes que hay gatos machos y hembras, y sabes que hay perros machos y hembras. Pero supongamos que te digo que tienes que elegir entre dos posibilidades, ambas ridículas: todos los gatos son machos y los perros son hembras, o todos los gatos son hembras y todos los perros son machos. En nuestra cultura, tenemos bastante claro que tiene más sentido que los gatos sean hembras, porque son más pequeños, más listos y les rodean una serie de estereotipos, y que los perros sean machos, porque son más grandes, más estúpidos, más ruidosos, etcétera. Repito, no tiene ningún sentido, pero forzados a escoger, creo que la mayoría diría lo mismo. ¿Por qué? En nuestra mente representamos al gato y al perro, al hombre y a la mujer, con grandes patrones de actividad neuronal basándonos en lo que hemos aprendido. Y asociamos entre sí las representaciones que más se parecen. Ese es un razonamiento intuitivo, no lógico. Así es como funciona el aprendizaje profundo.

See also  El diseño de Facebook facilita la difusión de mensajes antivacunas, según un estudio | Tecnología
El CEO de Alphabet (empresa matriz de Google), Sundar Pichai, y el de OpenAI, Sam Altman, llegan el jueves a la Casa Blanca para asistir a una reunión sobre inteligencia artificial con la vicepresidenta Kamala Harris.
El CEO de Alphabet (empresa matriz de Google), Sundar Pichai, y el de OpenAI, Sam Altman, llegan el jueves a la Casa Blanca para asistir a una reunión sobre inteligencia artificial con la vicepresidenta Kamala Harris.Evan Vucci (AP)

P. Usted sostiene que hasta ahora pensaba que la IA llegaría a superar a la inteligencia humana en unos 30 o 50 años. ¿Cuánto cree que queda ahora?

R. De cinco a 20 años.

P. Eso está a la vuelta de la esquina.

R. No confío mucho en mi pronóstico porque creo que me equivoqué en el primero, pero está claro que todo se ha acelerado.

P. ¿Cree que la IA llegará a tener su propio propósito u objetivos?

R. Esa es una cuestión clave, quizás el mayor peligro que rodea a esta tecnología. Nuestros cerebros son el fruto de la evolución y tienen una serie de metas integradas, como no lastimar el cuerpo, de ahí la noción del daño; comer lo suficiente, de ahí el hambre; y hacer tantas copias de nosotros mismos como sea posible, de ahí el deseo sexual. Las inteligencias sintéticas, en cambio, no han evolucionado: las hemos construido. Por lo tanto, no necesariamente vienen con objetivos innatos. Así que la gran pregunta es, ¿podemos asegurarnos de que tengan metas que nos beneficien a nosotros? Este es el llamado problema del alineamiento. Y tenemos varias razones para preocuparnos mucho. La primera es que siempre habrá quienes quieran crear robots soldados. ¿O cree que Putin no los desarrollaría si pudiera? Eso lo puedes conseguir de forma más eficiente si le das a la máquina la capacidad de generar su propio conjunto de objetivos. En ese caso, si la máquina es inteligente, no tardará en darse cuenta de que consigue mejor sus objetivos si se vuelve más poderosa.

Deberíamos poner tanto esfuerzo en desarrollar esta tecnología como en asegurarnos de que sea segura

P. ¿Qué debemos hacer ahora?

R. Hay que llamar la atención de la gente sobre este problema existencial que supone la IA. Ojalá tuviera una solución, como en el caso de la emergencia climática: hay que dejar de quemar carbono, aunque haya muchos intereses que lo impidan. No conozco ningún problema equivalente al de la IA. Así que lo mejor que se me ocurre en este momento es que deberíamos poner tanto esfuerzo en desarrollar esta tecnología como en asegurarnos de que sea segura. Y eso no está sucediendo en la actualidad. ¿Cómo se logra eso en un sistema capitalista? Eso no lo sé.

P. ¿Cree que parte del problema reside en el hecho de que el desarrollo de la IA lo están llevando a cabo empresas privadas?

R. Así ha sido durante los últimos años. Google desarrolló internamente chatbots como LaMDA, que eran muy buenos, y deliberadamente decidió no abrirlos al público porque estaban preocupados por sus consecuencias. Y así fue mientras Google lideraba esta la tecnología. Cuando Microsoft decidió poner un chatbot inteligente en su buscador Bing, Google tuvo que responder porque operan un sistema competitivo. Google se comportó de forma responsable, y no quiero que la gente piense que me fui para criticar a la compañía. Dejé Google para poder advertir sobre los peligros sin tener que pensar en el impacto que pueda causar en su negocio.

P. ¿Ha hablado de su decisión con otros colegas? ¿Tienen las mismas preocupaciones que usted?

R. Hemos entrado en un territorio completamente desconocido. Somos capaces de construir máquinas más fuertes que nosotros, pero aun así tenemos el control. ¿Qué pasa si desarrollamos máquinas más inteligentes que nosotros? No tenemos experiencia en tratar estas cosas. Hay gente a la que respeto, como mi colega Yann LeCun, que cree que lo que digo no tiene sentido. Sospecho que realmente tenemos que pensar mucho en esto. Y no basta con decir que no vamos a preocuparnos. Muchas de las personas más inteligentes que conozco están seriamente preocupadas. Es lo que me ha convencido a dar un paso adelante y usar mi reputación para que la gente se dé cuenta de que se trata de un problema muy grave.

No sirve de nada esperar a que la IA sea más lista que nosotros, debemos controlarla a medida que se desarrolla

P. Usted no firmó la carta suscrita por más de un millar de expertos en IA que solicitaba una moratoria de seis meses en la investigación. ¿Por qué?

R. Creo que ese enfoque es completamente ingenuo. No hay manera de que eso suceda. Aun salvando la competencia entre las grandes empresas, está la de los países. Si EE UU decidiera dejar de desarrollar IA, ¿realmente cree que China se detendría? La idea de detener la investigación llama la atención de la gente sobre el problema, pero no va a suceder. Con las armas nucleares, dado que la gente se dio cuenta de que todos perderíamos si había una guerra nuclear, fue posible conseguir tratados. Con la IA será mucho más complicado porque es muy difícil comprobar si la gente está trabajando en ello.

P. ¿Qué propone, entonces?

R. Lo mejor que puedo recomendar es que muchas personas muy inteligentes traten de averiguar cómo contener los peligros de estas cosas. La IA es una tecnología fantástica, está provocando grandes avances en la medicina, en el desarrollo de nuevos materiales, en la previsión de terremotos o inundaciones… Necesitamos mucho trabajo para entender cómo contener la IA. No sirve de nada esperar a que la IA sea más lista que nosotros, debemos controlarla a medida que se desarrolla. También tenemos que comprender cómo contenerla, cómo evitar sus malas consecuencias. Por ejemplo, creo que todos los gobiernos deberían insistir en que todas las imágenes falsas lleven un distintivo.

P. ¿Es optimista sobre el futuro que nos aguarda?

R. Tiendo a ser una persona bastante optimista. Hay posibilidades de que no tengamos forma de evitar un mal final. Pero está claro que también tenemos la oportunidad de prepararnos para este reto. Necesitamos mucha gente creativa e inteligente. Si hay alguna forma de mantener la IA bajo control, necesitamos descubrirla antes de que sea demasiado inteligente.

P. ¿Confía en que los gobiernos encuentren la forma de regular esta tecnología?

R. En Estados Unidos, el sistema político es incapaz de tomar una decisión tan simple como no dar fusiles de asalto a los adolescentes. Eso no aporta mucha confianza sobre cómo van a manejar un problema mucho más complicado como este.

P. El verano pasado, el ingeniero de Google Blake Lemoine se hizo famoso en todo el mundo al decir que el chatbot en el que trabajaba, LaMDA, había cobrado conciencia. ¿Fue ese caso premonitorio de lo que se nos venía encima?

R. Creo que lo que pasó encierra dos debates distintos. Primero, ¿se volverán las máquinas más inteligentes que nosotros para poder tomar el mando? Y segundo, ¿son conscientes o sensibles, o lo que sea que quiera decir eso? El debate más importante es el primero; en el segundo intervienen las creencias personales, y a mí eso no me interesa. En cualquier caso, me sorprende que haya muchísimas personas que están muy seguras de que las máquinas no son conscientes, pero que al mismo tiempo no sepan definir qué significa que algo o alguien sea consciente. Me parece una posición estúpida.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites



Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button