tps radiotps tvstreaming web

La advertencia de un experto sobre la inteligencia artificial

Eliezer Yudkowsky, responsable del Machine Intelligence Research Institute, fue contundente respecto a los riesgos asociados al desarrollo de esas tecnologías.

Tecno04 de abril de 2023
robot
Yudkowsky: “No estamos preparados para sobrevivir a una superinteligencia”

Pausar los desarrollos de inteligencia artificial no es suficiente, necesitamos frenarlos por completo. El título con evidente tono de advertencia encabeza un artículo firmado en la revista Time por Eliezer Yudkowsky, responsable del Machine Intelligence Research Institute (MIRI) que estudia los avances en IA hace más de dos décadas.

La referencia de Yudkowsky es a la carta que la semana rubricaron personalidades de la industria tecnológica, entre ellos Elon Musk, exigiendo un parate de seis meses en el desarrollo de los sistemas de IA por los riesgos asociados a esos avances, ahora manifiestos en el despliegue de ChatGPT de OpenAI.

En la petición, el grupo de especialistas instó a establecer una moratoria hasta que se establezcan procedimientos seguros, nuevas autoridades reguladoras, vigilancia de los desarrollos, técnicas que ayuden a distinguir entre lo real y lo artificial, e instituciones capaces de hacer frente a la “dramática perturbación económica y política que causará la IA”.

De acuerdo a Yudkowsky, pausar los desarrollos en el área es un paso necesario, aunque no suficiente.

whatsappWhatsApp añadirá más tiempos para los mensajes temporales

3 datos sobre Eliezer Yudkowsky

  • Nacido en 1979, es reconocido por ser un defensor de la inteligencia artificial amigable.
  • Realiza investigaciones en el área desde comienzos de siglo, cuando fundo la organización sin fines de lucro MIRI.
  • Además de su foco en los desarrollos y alcances de la IA, es autor de varias obras de ciencia ficción.

Yudkowsky: “No estamos preparados para sobrevivir a una superinteligencia”

En el artículo publicado en Time, el especialista plantea que la carta de los expertos para frenar por seis meses los desarrollos en IA es “demasiado poco” para enfrentar la amenaza que plantean estas tecnologías.

“No podemos calcular por adelantado qué ocurrirá y cuándo, y actualmente parece posible imaginar que un laboratorio de investigación pueda cruzar líneas críticas sin enterarse”, escribió. Según el líder de la organización MIRI, a este ritmo aparecerá un sistema de IA que no haga lo que los humanos deseen y no le importen los seres vivos. “Sería como si el siglo XI intentará batallar contra el siglo XXI”, graficó.

“No estamos preparados. No estamos en el camino de estar significativamente más preparados a corto plazo. Si seguimos así todos moriremos, incluyendo a niños que no eligieron esto y que no hicieron nada malo”, remató Yudkowsky.

Fuente: TN.

Te puede interesar
Lo más visto