miércoles, abril 17, 2024
InicioPortadaOtro experto enciende las alarmas por el avance de la inteligencia artificial:...
spot_img

Otro experto enciende las alarmas por el avance de la inteligencia artificial: “Nos matará a todos”

Eliezer Yudkowsky cree que la carta firmada por Elon Musk y cientos de referentes “se quedó corta” en sus reclamos.

La semana pasada, Elon Musk, Steve Wozniak y Yuval Harari, entre otros cientos de expertos, firmaron una petición para pausar el desarrollo y entrenamiento de nuevas inteligencias artificiales por seis meses. Ahora también se suma al alerta un reconocido investigador que advierte que la vida en la Tierra podría estar en riesgo por los avances en esta tecnología.

Esta postura extrema corresponde a Eliezer Yudkowsky, un experto en IA, responsable del Machine Intelligence Research Institute. También está convencido de que los firmantes de Future of Life Institute (FLI) se quedaron cortos.

Este experto lleva investigando sobre el desarrollo de una IA General y los peligros que conlleva desde 2001 y es considerado como uno de los fundadores de este campo de investigación.

Para sentar su postura, acaba de publicar una editorial en Time en donde plantea que los firmantes de FLI “piden demasiado poco” para solventar la amenaza que se avecina y por lo tanto, habrá que recurrir a medidas extremas.

Los miedos que despierta ChatGPT. Foto REUTERS


Los miedos que despierta ChatGPT. Foto REUTERS

“Esta moratoria de 6 meses sería mejor que nada. Respeto a todos los que han dado un paso al frente [pero] yo me abstuve de firmar porque creo que la carta subestima la gravedad de la situación y pide demasiado poco para resolverla”, señaló el experto.

El pedido consiste en una prórroga hasta que se establezcan procedimientos seguros, nuevas autoridades reguladoras, vigilancia de los desarrollos, técnicas que ayuden a distinguir entre lo real y lo artificial, e instituciones capaces de hacer frente a la “dramática perturbación económica y política que causará la IA”.

Yudkowsky indica que la humanidad está en un terreno poco explorado del que todavía no se conocen sus límites.

“No podemos calcular por adelantado qué ocurrirá y cuándo, y actualmente parece posible imaginar que un laboratorio de investigación pueda cruzar líneas críticas sin enterarse”.

Con un tinte apocalíptico anticipa que “tampoco estamos en el camino de estar significativamente más preparados a corto plazo. Si seguimos así todos moriremos, incluyendo a niños que no eligieron esto y que no hicieron nada malo”.

Yudkowsky habla además de que no se tiene ni idea de cómo determinar si los sistemas de IA son conscientes de sí mismos porque “no sabemos cómo piensan y desarrollan sus respuestas”.

IA: Las posible soluciones

Eliezer Yudkowsky con un pedido urgente.


Eliezer Yudkowsky con un pedido urgente.

La propuesta de Yudkowsky es breve en su formulación, aunque contundente en cuanto a sus alcances. La única salida es detener de forma total ese entrenamiento de futuras IAs.

Su postura es más que clara “no estamos capacitados para sobrevivir a una súper IA”. Para poder hacerle frente a esta amenaza es necesaria una planificación conjunta.

Yudkowsky recuerda que se necesitaron más de 60 años desde los inicios de esta disciplina en llegar a este punto y se podrían demorar otros 30 años más en lograr la preparación que se requiere.

Ante una IA de ese tipo y en la situación actual, la lucha sería inútil. Sería “como si el siglo XI intentara luchar contra el siglo XXI”. Por eso propone que: la moratoria sobre nuevas IAs complejas debe ser indefinida y mundial, sin excepciones para gobiernos y ejércitos.

Debemos apagar todos los grandes clusters de GPU, y rastrear y destruir todas las GPU ya vendidas. De nuevo, sin excepciones para gobierno y ejércitos.

SL

Mirá también


Source link

RELATED ARTICLES
spot_img
spot_img

Most Popular

Aguachica

Indicativos

Ir al contenido