Una lección del sistema inmunológico para la inteligencia artificial

Una lección del sistema inmunológico para la inteligencia artificial

Está en peligro el movimiento internacional de código abierto para llevar modelos de lenguaje libres de controles corporativos a todo el mundo.

En el ámbito de la inteligencia artificial (IA), hay una conversación constante en torno al concepto de los Grandes Modelos de Lenguaje (LLM) y su papel en el mundo. La diversidad crece semana a semana, hemos visto el entrenamiento de nuevos LLM, tanto salvajes como domésticos, como Vicuña, Alpaca, Guanaco y Chinchilla, y muy pronto Orca. Cada uno de ellos aporta capacidades y perspectivas únicas a las computadoras de usuarios en todo el mundo. Sin embargo, el desarrollo y control de estos modelos ha provocado un debate urgente: ¿Es necesario el código abierto?, ¿debemos temerle?, ¿está bien confiar el desarrollo de los LLM humanísticos a unos cuantos grandes actores? ¿La concentración del poder en las manos de pocos siempre acaba en malignidad? Apliquemos los principios de la hipótesis de la higiene al desarrollo de LLM avanzados y otros sistemas de IA.

La hipótesis de la higiene, un concepto en inmunología, sugiere que la exposición a una variedad de microbios en la primera infancia puede ayudar a entrenar el sistema inmunológico, reduciendo el riesgo de alergias y enfermedades autoinmunes durante la edad adulta. La hipótesis de la higiene suele ser la respuesta a por qué el asma es la enfermedad crónica más común en el mundo desarrollado.

Durante la temporada de polen en Japón, donde la limpieza se coloca junto a la santidad, un asombroso 45% de las personas experimenta síntomas de fiebre del heno. Después de la Segunda Guerra Mundial, habiendo perdido sus bosques naturales, el gobierno japonés desplegó enormes campañas de reforestación. La diversidad fue dejada de lado en beneficio de la utilidad y se plantaron cedros y cipreses por millones. Ahora en día, los japoneses con alergia estacional deben usar mascarillas en febrero y marzo. Los visitantes del extranjero no sufren de estos síntomas.

Por analogía, exponer los sistemas de IA a una variedad de modelos de lenguaje, incluidos aquellos que podrían considerarse "malos" o "no alineados", podría ayudarlos a reconocer y neutralizar mejor el comportamiento dañino potencial de la IA en el futuro. El poder descentralizado es benévolo. La forma en que la biodiversidad en un ecosistema robusto (o un microbioma), donde cada nicho exhibe competencia y cooperación saludables, protege de la invasión y destrucción de patógenos o especies destructivas.

Este concepto se relaciona con la idea más amplia de “robustez” en los sistemas de IA. La robustez se refiere a la capacidad de un sistema de IA para manejar una amplia gama de entradas, incluidas aquellas con las que no se haya encontrado durante el entrenamiento inicial y para evitar ser engañado. Al exponer un sistema de IA a un conjunto diverso de modelos y escenarios, sin duda se redoblaría su robustez y su capacidad para manejar actores inesperados o dañinos, o reconocer malas intenciones en otros sistemas más prontos.

Sin embargo, la tendencia actual en el desarrollo de la IA parece inclinarse hacia el cierre o la sobrerregulación del desarrollo de nuevos LLM, así como hacia el sofocamiento del crecimiento de modelos de código abierto, designando solo a unos pocos actores que se les permitiría continuar con el desarrollo. Ejemplos recientes y preocupantes: La Ley de Inteligencia Artificial está en camino de aprobarse en el parlamento de la UE, anulando el crecimiento de modelos de código abierto en esa región; así como la exhortación de Sam Altman, director de OpenAI y el jugador más fuerte en la carrera armamentista actual de los LLM, quien ante el senado de EEUU pidió restricciones para el desarrollo de nuevos modelos.

Logo de OpenAI en rojo

Si solo un puñado de megacorporaciones controlan el ecosistema de IA en Occidente, en el futuro carecerán de la diversidad y la robustez necesarias para identificar y neutralizar las amenazas de agentes de IA no alineados. Otras partes del mundo: los países árabes, China y Rusia, están entrenando sus propios modelos de lenguaje en este mismo momento.

 

 

Autor: IIEH

Fuentes: El asma y la hipótesis de la higiene

Japón declara la guerra al polen ante la epidemia de fiebre del heno

No hay comentarios aún en “Una lección del sistema inmunológico para la inteligencia artificial” .

Otros Artículos