Investigador de IA: “Hay que estar dispuesto a bombardear un centro de datos para salvarnos”

Por RT

“Si alguien construye una IA demasiado poderosa, en las condiciones actuales, creo que todos los miembros de la especie humana y toda la vida biológica de la Tierra morirán poco después”, opina Eliezer Yudkowsky, que ofrece un plan para evitar este extremo.

Los recientes escándalos en torno al sistema de inteligencia artificial ChatGPT, desarrollado por la compañía estadounidense OpenAI, han provocado que la comunidad internacional haya empezado a prestar más atención al desarrollo de la IA, contemplando las posibles amenazas que pueden surgir debido a la falta de control humano sobre estas tecnologías.

En este sentido, una carta abierta —firmada ya por el director de SpaceX, Tesla y Twitter, Elon Musk, el cofundador de Apple, Steve Wozniak, y otras personalidades— hace “un llamado a todos los laboratorios de IA para que pausen de inmediato durante al menos seis meses el entrenamiento de los sistemas de IA más potentes que GPT-4”.

En respuesta a esta situación, el investigador y defensor estadounidense de la llamada inteligencia artificial amigable, Eliezer Yudkowsky, ha publicado en la revista Time un artículo, afirmando que la medida propuesta en la carta abierta no será suficiente para salvar a la humanidad si “alguien construye una IA demasiado poderosa“: “En las condiciones actuales, creo que todos los miembros de la especie humana y toda la vida biológica de la Tierra morirán poco después“. 

Yudkowsky enfatiza que esa no es solo su opinión, sino la de “muchos investigadores inmersos en estos temas”, y no se ve como “alguna posibilidad remota”, sino como que “eso es lo que obviamente sucedería“.

¿Cómo salvarnos?

Yudkowsky indica que se abstuvo de firmar la carta abierta porque esta “subestima la gravedad de la situación y pide muy poco para resolverla”. “Si hubiera un plan para que la Tierra sobreviviera, si solo aprobáramos una moratoria de seis meses, respaldaría ese plan”, dice el investigador y propone lo siguiente:

  • cerrar todos los grandes clústeres de procesadores gráficos (GPU, por sus siglas en inglés): las grandes granjas de computadoras donde se refinan las IA más poderosas
  • poner un límite a la cantidad de poder de cómputo que cualquiera puede usar para entrenar un sistema de IA y reducirla en los próximos años para compensar los algoritmos de entrenamiento más eficientes
  • no hacer excepciones para Gobiernos y militares
  • concluir acuerdos multinacionales inmediatos para evitar que las actividades prohibidas se trasladen a otros lugares
  • monitorear todas las GPU vendidas

“Si la Inteligencia dice que un país fuera del acuerdo está construyendo un clúster de GPU, tenga menos miedo de un conflicto a tiros entre naciones que de que se viole la moratoria; hay que estar dispuesto a destruir un centro de datos rebelde mediante un ataque aéreo”, opina el investigador. 

“Hay que cerrarlo todo”, concluye. “No estamos listos. No estamos en camino de estar significativamente más preparados en el futuro previsible. Si seguimos adelante con esto, todos morirán, incluidos los niños que no eligieron esto y no hicieron nada malo”, advierte. “La IA no te ama, ni te odia, pero estás hecho de átomos que puede usar para otra cosa”, recuerda Yudkowsky.

Deja una respuesta

Deja un comentario