Elon Musk y los expertos dicen que el desarrollo de la inteligencia artificial debe detenerse de inmediato | noticias de ciencia y tecnologia

La carta, firmada por más de 1000 personas, advirtió sobre los riesgos potenciales para la sociedad y la civilización de los sistemas de IA competitivos entre humanos en forma de agitación económica y política.

por Samuel Osborne, reportero de noticias @empleado


miércoles 29 de marzo de 2023, 17:49, Reino Unido

Elon Musk y un grupo de expertos en IA han pedido que se detenga el entrenamiento de poderosos sistemas de IA debido a los riesgos potenciales para la sociedad y la humanidad.

La carta, producida por el Future of Life Institute sin fines de lucro y firmada por más de 1,000 personas, advirtió sobre los riesgos potenciales para la sociedad y la civilización de los sistemas de IA competitivos humanos en forma de agitación económica y política.

La carta advierte que «los sistemas de IA con inteligencia competitiva humana pueden plantear riesgos profundos para la sociedad y la humanidad».

«Los sistemas de IA fuertes solo deben desarrollarse una vez que estemos seguros de que sus efectos serán positivos y que sus riesgos serán manejables».

Pidió detener la «carrera seria» durante seis meses para desarrollar sistemas más potentes que los de OpenAI. GPT-4 recién lanzado.

Si tal moratoria no se puede promulgar rápidamente, la carta dice que los gobiernos deberían intervenir y declarar una moratoria.

“AI Labs y los expertos independientes deberían aprovechar esta pausa para desarrollar e implementar un conjunto de protocolos de seguridad conjuntos para el diseño y desarrollo de IA avanzada que sean rigurosamente auditados y supervisados ​​por expertos externos independientes”, dice la carta.

“Estos protocolos deben garantizar que los sistemas a los que se adhieren sean seguros más allá de toda duda razonable”.

READ  Al menos 180 pruebas positivas para Covid después de asistir a un club nocturno holandés que solicitó una prueba negativa

Leer más:
Algunos usuarios de Twitter comienzan a perder marcas azules a partir del próximo mes
Un presentador de Sky News ahora puede leerle nuestros artículos: así es como

La carta también fue firmada por el cofundador de Apple, Steve Wozniak, Joshua Benigo, a menudo conocido como uno de los «padrinos de la inteligencia artificial», y Stewart Russell, un líder de investigación en el campo, así como investigadores de DeepMind, propiedad de Alphabet. .

El Instituto Future of Life está financiado principalmente por la Fundación Musk, el grupo de altruismo efectivo Founders Pledge con sede en Londres y la Fundación Comunitaria de Silicon Valley, según el Registro de Transparencia de la UE.

Musk ha expresado sus preocupaciones sobre la IA. Su fabricante de automóviles, Tesla, utiliza inteligencia artificial para su sistema Autopilot.

Desde su lanzamiento el año pasado, ChatGPT respaldado por OpenAI de Microsoft ha instado a los competidores a acelerar el desarrollo de modelos de lenguaje grandes similares y alentó a las empresas a integrar modelos de IA generativa en sus productos.

Reino Unido presenta propuestas de regulaciones de ‘toque ligero’ en torno a la IA

Viene como lo reveló el gobierno del Reino Unido. Propuestas para un marco regulatorio ‘ligero’ sobre inteligencia artificial.

Esta es una versión de edición limitada de la historia, por lo que lamentablemente este contenido no está disponible.

Desbloquear la versión completa

El enfoque del gobierno, descrito en el documento de política, dividiría la responsabilidad de administrar la IA entre los reguladores de derechos humanos, salud y seguridad y competencia, en lugar de crear un nuevo organismo dedicado a la tecnología.

READ  Tesco está vendiendo un supermercado de zumos en Oranmore

Mientras tanto, Europol a principios de esta semana se unió a una serie de preocupaciones éticas y legales sobre inteligencia artificial avanzada como ChatGPT, advirtiendo sobre el potencial de abuso del sistema en intentos de phishing, desinformación y ciberdelincuencia.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *