Generales Escuchar artículo

Investigadores de OpenAI advirtieron de un avance que podría amenazar a la humanidad antes del despido de Altman

LONDRES.- Antes del despido del CEO de OpenAI, ...

LONDRES.- Antes del despido del CEO de OpenAI, Sam Altman -que estuvo apenas cuatro días alejado de la empresa y volvió a ser reincorporado-, varios investigadores escribieron una carta a la junta directiva advirtiendo sobre un poderoso descubrimiento de inteligencia artificial que, según dijeron, podría amenazar a la humanidad, señalaron a la agencia Reuters dos personas familiarizadas con el asunto.

No está claro el papel que jugó esa carta en el despido temporal de Altman. Fuentes citadas por Reuters la señalan como decisiva, mientras que el medio especializado The Verge asegura que la carta no llegó al consejo y que no tuvo que ver en el cese de Altman.

Tras el despido, más de 700 empleados amenazaron con renunciar y unirse al patrocinador Microsoft en solidaridad con su líder despedido, lo que desencadenó la reincorporación de Altman.

Las fuentes de Reuters citaron la carta sobre el poderoso descubrimiento como un factor entre una lista más larga de quejas de la junta que llevaron al despido de Altman, entre otras, la preocupación sobre la comercialización de avances en Inteligencia Artificial antes de comprender las consecuencias que tendría su eventual desarrollo. Reuters no pudo revisar una copia de la carta, y el personal que escribió la carta no respondió a las solicitudes de comentarios.

Tras la publicación de la noticia, un vocero de OpenAI declaró a Reuters que la ejecutiva Mina Murati había informado a los empleados sobre esta información que iban a publicar los medios, pero no se pronunció sobre su veracidad. Según ella, el fabricante de ChatGPT ha logrado algunos progresos en Q* (que se pronuncia Q-Star), que algunos ejecutivos de la empresa creen que podría ser un gran avance en la búsqueda de la superinteligencia (la que supera a la humana), también conocida como inteligencia artificial general (AGI, por sus siglas en inglés). Otras fuentes familiarizadas con el proyecto Q*, sin embargo, no consideran que se trate de un avance decisivo.

Gracias a sus enormes recursos informáticos, el nuevo modelo fue capaz de resolver ciertos problemas matemáticos. Aunque solo realiza operaciones al nivel de estudiantes de primaria, la superación de ese tipo de pruebas hizo que los investigadores se mostraran muy optimistas sobre el futuro éxito de Q*, afirmó la fuente. A diferencia de una calculadora que puede resolver un número limitado de operaciones, la IAG puede generalizar, aprender y comprender.

Los investigadores consideran que las matemáticas son la frontera del desarrollo de la IA generativa. Actualmente, la IA generativa es buena escribiendo y traduciendo idiomas mediante la predicción estadística de la siguiente palabra, como en ChatGPT. Las respuestas a una misma pregunta pueden variar mucho. Pero conquistar la capacidad de hacer cálculos matemáticos donde solo hay una respuesta correcta implica que la IA tendría una mayor capacidad de razonamiento que se asemejaría a la inteligencia humana. Esto podría aplicarse, por ejemplo, a la investigación científica novedosa, creen los investigadores de IA.

Según Reuters, en su carta al consejo, los investigadores señalaron las proezas de la IA y su peligro potencial. Los informáticos llevan mucho tiempo debatiendo sobre el peligro que suponen las máquinas superinteligentes, si se planteasen, por ejemplo, que les interesa la destrucción de la humanidad. En el consejo de OpenAI había dos personas muy preocupadas por esos riesgos, que finalmente renunciaron como parte del acuerdo para el retorno de Altman.

Anna Tong , Jeffrey Dastin y Krystal Hu

Agencia Reuters

Fuente: https://www.lanacion.com.ar/el-mundo/investigadores-de-openai-advirtieron-de-un-avance-que-podria-amenazar-a-la-humanidad-antes-del-nid23112023/

Comentarios
Volver arriba