5 de diciembre, 2023

***

Nota: Esta es una nota the The Economist, uno de los medios más potentes de uno de los grupos de la élite más decisiva. Veamos qué piensan y cómo muestran su temor.

***

Por TE

La IA de código abierto está en auge. Así es menos probable que un puñado de empresas controle la tecnología.

Han cambiado el mundo escribiendo software. Pero los técnicos también son conocidos por redactar extensos memorandos en prosa, los más famosos de los cuales han marcado puntos de inflexión en la informática. Pensemos en el memorándum de Bill Gates “Internet tidal wave” de 1995, que reorientó a Microsoft hacia la web; o el memorándum de Jeff Bezos “api mandate” de 2002, que abrió la infraestructura digital de Amazon, allanando el camino para la moderna computación en nube.

Ahora, los expertos en tecnología hablan de otro memorándum, esta vez filtrado desde dentro de Google, titulado “We have no moat” (No tenemos foso). Su autor, desconocido, detalla los asombrosos avances de la inteligencia artificial (IA) y pone en tela de juicio algunas suposiciones de larga data sobre el equilibrio de poder en esta industria en rápida evolución.

La IA irrumpió en la conciencia pública con el lanzamiento a finales de 2022 de Chatgpt, un chatbot impulsado por un “modelo grande de lenguaje” (llm – Large Lenguage Model) fabricado por Openai, una startup estrechamente vinculada a Microsoft. Su éxito llevó a Google y otras empresas tecnológicas a lanzar sus propios chatbots basados en llm.

Estos sistemas pueden generar texto y mantener conversaciones realistas porque han sido entrenados con billones de palabras extraídas de Internet. Entrenar un gran llm lleva meses y cuesta decenas de millones de dólares. Por eso se temía que la Inteligencia Artificial estuviera dominada por unas pocas empresas con mucho dinero.

Pero esa suposición es errónea, dice la nota de Google. En él se señala que los investigadores de la comunidad de código abierto, que utilizan recursos gratuitos en línea, están logrando resultados comparables a los de los mayores modelos patentados. Resulta que los llm pueden “afinarse” mediante una técnica llamada adaptación de bajo rango, o LoRa. Esto permite optimizar un llm existente para una tarea concreta de forma mucho más rápida y barata que entrenar un llm desde cero.

La actividad de la Inteligencia Artificial de código abierto se disparó en marzo, cuando se filtró en Internet LLAMA, un modelo creado por Meta, la matriz de Facebook. Aunque es más pequeño que los mayores llms (su versión más pequeña tiene 7.000 millones de parámetros, frente a los 540.000 millones de la palm de Google), se afinó rápidamente para producir resultados comparables a la versión original de Chatgpt en algunas tareas.

Como los investigadores de código abierto se basaron en el trabajo de los demás con LLAMA, “se produjo una tremenda avalancha de innovación”, escribe el autor de la nota.

Esto podría tener implicaciones sísmicas para el futuro del sector. “La barrera de entrada para la formación y la experimentación se ha reducido de la producción total de una gran organización de investigación a una persona, una tarde y un portátil potente”, afirma la nota de Google.

Ahora se puede poner a punto una llm por 100 dólares en unas pocas horas. Con su modelo rápido, colaborativo y de bajo coste, “el código abierto tiene algunas ventajas significativas que no podemos replicar”. De ahí el título de la nota: esto puede significar que Google no tiene un “foso” defensivo frente a sus competidores de código abierto. Ni tampoco Openai.

No todo el mundo está de acuerdo con esta tesis. Es cierto que Internet funciona con software de código abierto. Pero la gente también utiliza software propietario de pago, desde Adobe Photoshop a Microsoft Windows. La IA puede encontrar un equilibrio similar. Además, la evaluación comparativa de los sistemas de Inteligencia Artificial es notoriamente difícil.

Pero incluso si el memorándum tiene parte de razón, la implicación es que el acceso a la tecnología de la inteligencia artificial será mucho más democrático de lo que parecía posible hace un año. En un ordenador portátil se pueden ejecutar potentes algoritmos; cualquiera que lo desee puede poner a punto su propia inteligencia artificial.

Esto tiene implicaciones tanto positivas como negativas. Por el lado positivo, hace que el control monopolístico de la inteligencia artificial por parte de un puñado de empresas sea mucho menos probable. Además, abaratará el acceso a la inteligencia artificial, acelerará la innovación en este campo y facilitará a los investigadores el análisis del comportamiento de los sistemas de inteligencia artificial (su acceso a modelos patentados estaba limitado), lo que aumentará la transparencia y la seguridad.

Pero un acceso más fácil a la inteligencia artificial también significa que los malos actores podrán ajustar los sistemas con fines nefastos, como generar desinformación. Significa que fracasarán los intentos occidentales de impedir que regímenes hostiles accedan a la potente tecnología de la inteligencia artificial.

Y hace que la inteligencia artificial sea más difícil de regular, porque el genio ha salido de la botella.

Pronto se sabrá si Google y los de su calaña han perdido realmente su terreno en la inteligencia artificial. Pero al igual que con los memorandos anteriores, este parece otro punto de inflexión para la informática.

About Author

Deja un comentario

Descubre más desde

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Sigue leyendo

%d