El “científico de la inteligencia artificial” inventa y realiza sus propios experimentos

A primera vista, una serie de artículos recientes publicados por un destacado laboratorio de inteligencia artificial de la Universidad de Columbia Británica en Vancouver pueden no parecer dignos de mención. Implican mejoras incrementales de algoritmos e ideas existentes, y parecen el contenido de una conferencia o revista de IA de nivel medio.

Pero la investigación es realmente fascinante. Porque funcionó”.El mundo de la inteligencia artificial“Fue desarrollado en un laboratorio de la Universidad de Columbia Británica en colaboración con investigadores de la Universidad de Oxford y una startup llamada sakana es decir.

el proyecto Esta investigación muestra un primer paso hacia lo que podría resultar un truco revolucionario: permitir que la inteligencia artificial aprenda inventando y explorando nuevas ideas. No es muy innovador en este momento. Varios artículos describen modificaciones para mejorar una técnica de generación de imágenes conocida como modelado de difusión; Otro artículo describe un enfoque para acelerar el aprendizaje en redes neuronales profundas.

«Estas no son ideas innovadoras. No son ideas terriblemente creativas», admite. Jeff Clune«Pero parecen grandes ideas que cualquiera podría probar». Así lo afirmó el profesor que dirige el laboratorio de la Universidad de Columbia Británica.

A pesar de lo sorprendentes que son los programas de IA actuales, están limitados por la necesidad de consumir datos de entrenamiento generados por humanos. Si los programas de IA pueden aprender de manera abierta, a través de la experimentación y la exploración de ideas “interesantes”, podrán desatar habilidades más allá de lo que los humanos les han mostrado.

El Clone Lab había desarrollado previamente programas de IA diseñados para aprender de esta manera. Por ejemplo, Un programa se llama Omni Los investigadores intentaron generar el comportamiento de personajes virtuales en varios entornos similares a los de un videojuego, memorizando aquellos que parecían interesantes y luego replicándolos con nuevos diseños. Anteriormente, estos programas requerían instrucciones escritas manualmente para determinar el interés. Sin embargo, los modelos de lenguaje grandes proporcionan una manera de permitir que estos programas decidan qué es más interesante. proyecto moderno de Clone Lab utilizó este enfoque para permitir que los programas de inteligencia artificial crearan código que permitiera a los personajes virtuales hacer todo tipo de cosas dentro de un mundo similar a Roblox.

El mundo de la inteligencia artificial es un ejemplo de cómo Clone Lab explota las posibilidades. El programa ejecuta experimentos de aprendizaje automático, decide qué parece más positivo con la ayuda de un LLM, luego escribe y ejecuta el código necesario y repite el proceso. A pesar de los resultados decepcionantes, Clune afirma que los programas de aprendizaje abierto, al igual que los propios modelos de lenguaje, podrían volverse más capaces a medida que aumenta la potencia informática que los impulsa.

“Es como si estuviéramos explorando un nuevo continente o un nuevo planeta”, dice Clune sobre las posibilidades que ofrecen los títulos de LLM. “No sabemos qué vamos a descubrir, pero dondequiera que miremos, encontramos algo nuevo. «

Tom esperanzaEl científico en IA, al igual que sus estudiantes de LLM, parece en gran medida derivativo y no puede considerarse confiable, dice el profesor asistente de la Universidad Hebrea de Jerusalén y científico investigador del Instituto Allen de Inteligencia Artificial (AI2). «Ninguno de los ingredientes es digno de confianza en este momento», dice.

Hope señala que los esfuerzos para automatizar elementos del descubrimiento científico se remontan a décadas atrás, hasta el trabajo de los pioneros de la inteligencia artificial. Allen Newell y Herbert Simón A partir de los años 1970 trabajó Palmadita

langley En el Instituto para el Estudio del Aprendizaje y la Experiencia. También señala que varios otros grupos de investigación, incluido un equipo de AI2, han aprovechado recientemente el LLM para ayudar a generar hipótesis, escribir artículos y revisar investigaciones. «Han capturado el espíritu de la época», dice Hope sobre el equipo de la UBC. «La tutoría, por supuesto, es potencialmente increíblemente valiosa».

Aún no está claro si los sistemas basados ​​en LLM son capaces de generar ideas verdaderamente nuevas o innovadoras. «Ésa es la pregunta del billón de dólares», dice Clune.

Incluso sin avances científicos, el aprendizaje abierto puede ser vital para desarrollar los sistemas de IA más capaces y útiles de la actualidad. un informe Un estudio publicado este mes por la firma de inversión Air Street Capital destacó el potencial del trabajo de Clone en el desarrollo de agentes o programas de inteligencia artificial más potentes y confiables que realicen tareas útiles de forma autónoma en las computadoras. Las grandes empresas de IA parecen estar considerando a los agentes como la próxima gran novedad.

Esta semana, Clone Lab presentó su último proyecto de educación abierta: Software de IA que inventa y construye agentes de IALos agentes diseñados por IA superan a los agentes diseñados por humanos en algunas tareas, como matemáticas y comprensión lectora. El próximo paso será idear formas de evitar que dicho sistema genere agentes que se comporten mal. «Es potencialmente peligroso», dice Clune sobre el trabajo. «Necesitamos hacerlo bien, pero creo que es posible».

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *