Grabar controles de IA en silicio podría evitar el fin del mundo

Se supone que incluso los algoritmos de IA más inteligentes y astutos obedecen las leyes del silicio. Sus capacidades estarán limitadas por el hardware en el que se ejecuta.

Algunos investigadores están explorando formas de explotar esta conexión para limitar la capacidad de los sistemas de inteligencia artificial de causar daño. La idea es codificar las reglas que rigen el entrenamiento e implementar algoritmos avanzados directamente en los chips de computadora necesarios para ejecutarlos.

En teoría, y es un área donde actualmente hay mucho debate sobre la IA peligrosamente poderosa, esto podría proporcionar una nueva y poderosa forma de evitar que estados rebeldes o empresas irresponsables desarrollen en secreto IA peligrosa. Y uno que es más difícil de evadir que las leyes o tratados tradicionales. Un informe publicado a principios de este mes por Centro para una nueva seguridad estadounidenseun influyente grupo de expertos en política exterior de Estados Unidos, muestra cómo se puede aprovechar el silicio cuidadosamente restringido para hacer cumplir una variedad de controles de IA.

Algunos conjuntos de chips ya cuentan con componentes confiables diseñados para proteger datos confidenciales o protegerlos contra el uso indebido. Por ejemplo, los últimos iPhone guardan la información biométrica de una persona en «Bolsillo seguroGoogle utiliza un Segmento personalizado En sus servidores en la nube para garantizar que no se manipule nada.

El documento propone aprovechar características similares integradas en las GPU (o grabar nuevas características en chips futuros) para evitar que los proyectos de IA accedan a más de una cierta cantidad de potencia informática sin una licencia. Dado que se necesita una potencia informática masiva para entrenar los algoritmos de IA más potentes, como el que está detrás de ChatGPT, esto limita quién puede construir los sistemas más potentes.

Las licencias pueden ser emitidas por un gobierno o un regulador internacional y actualizadas periódicamente, lo que hace posible cortar el acceso a la capacitación en IA al negar una nueva licencia, dice CNAS. «Se pueden diseñar protocolos de modo que sólo se pueda implementar un modelo si se realiza una determinada evaluación y se obtiene una puntuación superior a un determinado umbral, digamos en materia de seguridad», dice Tim Vest, miembro de CNAS y uno de los tres autores. el papel.

Algunas figuras prominentes en el campo de la inteligencia artificial temen que la inteligencia artificial sea ahora tan inteligente que algún día pueda resultar rebelde y peligrosa. Lo que es más urgente, a algunos expertos y gobiernos les preocupa que incluso los modelos actuales de IA puedan facilitar el desarrollo de armas químicas o biológicas o la automatización del delito cibernético. Washington ya ha impuesto una serie de controles a la exportación de chips de IA para limitar el acceso de China a IA más avanzada, por temor a que pueda usarse con fines militares, aunque el contrabando y la ingeniería inteligente han brindado cierto alivio. Los caminos a su alrededor. Nvidia declinó hacer comentarios, pero la compañía ha perdido miles de millones de dólares en pedidos de China debido a los recientes controles de exportación de Estados Unidos.

Fist of CNAS dice que si bien las estrictas restricciones de cifrado en las computadoras pueden parecer extremas, existe un precedente en la creación de infraestructura para monitorear o controlar tecnología importante y hacer cumplir tratados internacionales. «Si pensamos en la seguridad y la no proliferación, las técnicas de verificación han sido absolutamente esenciales para asegurar los tratados», dice Fest de CNAS. «La red de sismómetros que tenemos ahora para detectar pruebas nucleares subterráneas respalda tratados que dicen que no probaremos armas subterráneas por encima de un cierto umbral de kilotones».

Las ideas propuestas por CNAS no son del todo teóricas. Los chips de entrenamiento de IA críticos de Nvidia, que son esenciales para construir los modelos de IA más potentes, ya vienen con Módulos de cifrado seguro. En noviembre de 2023, investigadores de Instituto de vida futurauna organización sin fines de lucro dedicada a proteger a la humanidad de amenazas existenciales, y seguridad de mitriluna startup de seguridad, ha creado una demostración que muestra cómo el módulo de seguridad de la CPU de Intel se puede utilizar en un sistema de cifrado que puede restringir el uso no autorizado de un modelo de IA.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *