Now Reading
1.000 expertos en IA y líderes tecnológicos piden que se detenga temporalmente el desarrollo de IA avanzada

1.000 expertos en IA y líderes tecnológicos piden que se detenga temporalmente el desarrollo de IA avanzada

1.000 expertos en IA y líderes tecnológicos piden que se detenga temporalmente el desarrollo de IA avanzada

1.000 expertos en IA, entre ellos Elon Musk, CEO de Tesla y Twitter, y Steve Wozniak, cofundador de Apple, han pedido que se detenga temporalmente el avance de la tecnología de IA hasta que puedan establecerse salvaguardias.

Forbes informa de que más de 1.000 expertos en IA y ejecutivos tecnológicos, entre ellos titanes del sector como Elon Musk y Steve Wozniak, han firmado una carta abierta en la que piden que se detenga temporalmente el desarrollo de sistemas avanzados de IA.

La carta, redactada por el Future of Life Institute, pide una moratoria de los sistemas de IA más potentes que el GPT-4 de OpenAI durante al menos seis meses para desarrollar una gobernanza más sólida y protocolos de seguridad compartidos.

La carta, redactada por el Future of Life Institute, pide una moratoria de los sistemas de IA más potentes que el GPT-4 de OpenAI durante al menos seis meses para desarrollar una gobernanza más sólida y protocolos de seguridad compartidos.

Sam Altman, fundador de OpenAI y creador de ChatGPT.
Sam Altman, fundador de OpenAI y creador de ChatGPT

La publicación de la carta ha sido posible gracias al Future of Life Institute, una organización sin ánimo de lucro dedicada a dirigir la tecnología transformadora hacia la mejora de la vida y la reducción de riesgos significativos.

Entre los firmantes se encuentran destacados investigadores de DeepMind, propiedad de Google, y conocidos expertos en aprendizaje automático como Yoshua Bengio y Stuart Russell.

¿Qué dice la carta para la moratoria de la IA?

La carta abierta insta a los laboratorios de IA y a expertos independientes a trabajar juntos para crear y poner en práctica un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo de IA avanzada.

Para garantizar que los sistemas de IA que se adhieran a ellos estén libres de riesgos, estos protocolos serían estrictamente auditados y supervisados por expertos externos que no estén afiliados a la empresa.

Los firmantes subrayan que la pausa propuesta es sólo una retirada temporal de la peligrosa carrera hacia modelos de caja negra cada vez más impredecibles y con capacidades emergentes, no un freno general al desarrollo de la IA.

La carta insta a la creación de sistemas de gobernanza más sólidos, además del establecimiento de protocolos de seguridad.

See Also

Además de sistemas de procedencia y marcas de agua que ayuden a distinguir entre contenidos auténticos y falsos y a rastrear las filtraciones de modelos, estos sistemas deberían incluir nuevos organismos reguladores dedicados a la supervisión y el seguimiento de la IA.

Los expertos también recomiendan aumentar la financiación de la investigación técnica sobre la seguridad de la IA y responsabilizar a los proveedores de los daños causados por la IA.

Aunque es poco probable que la carta abierta consiga todos sus objetivos, representa un malestar general por las tecnologías de IA y aumenta la necesidad de una regulación más estricta.

Los autores de la carta afirman que la sociedad ya ha frenado el avance de otras tecnologías que podrían tener consecuencias desastrosas, y que el desarrollo de la IA no es diferente.

What's Your Reaction?
Me gustó esta nota
0
No me gustó esta nota
0