Dos cartas para la Inteligencia Artificial

Dos cartas para la Inteligencia Artificial

El ojo del huracán

El jueves 30 de marzo se conoció la carta abierta “Pausa en los experimentos gigantes de IA”, con más de mil firmas de referentes en la industria y la investigación tecnológica. En esta solicitan que todos los laboratorios de Inteligencia Artificial “pausen inmediatamente durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que el GPT-4. Esta pausa debería ser pública y verificable e incluir a todos los actores clave. Si esta pausa no puede realizarse rápidamente, los gobiernos deberían intervenir e instituir una moratoria”.

Muchos medios de comunicación presentaron la noticia como si la carta hubiese sido escrita de puño y letra por Elon Musk, flamante dueño de Twitter. Pero la verdad es que, junto a su firma, están las de otras figuras relevantes de la industria, como la de Steve Wozniak, cofundador de Apple, o la de Emad Mostaque, CEO de Stability AI, además de las de figuras destacadas como el historiador mundialmente conocido, Yuval Noah Harari.

La carta se completa con cientos de firmas de CEOs, investigadores, presidentes de fundaciones y ONG que velan por tecnologías más humanas, etc. Podríamos decir, sin embargo, que ninguna de esas firmas aporta autoridad científica al pedido. Muy diferente es el caso de las firmas del informático canadiense Yoshua Bengio y del inglés Stuart Jonathan Russell, ambos científicos de renombre internacional que han realizado importantes innovaciones en el campo del Aprendizaje Profundo (Deep Learning), cuya tecnología está en la base de los nuevos chats inteligentes.

Muchos de ellos (a excepción de Harari, claro está) tienen algo en común: han participado como científicos o empresarios en la “carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas” que (ahora) proponen pausar. Si uno fuera malpensado, podría suponer que la carta representa un caso de “patear la escalera”, es decir, “yo llegué, ahora que no lleguen los demás”.

El caso de Musk es aún más contradictorio porque co-fundó OpenAI, la empresa que desarrolló el ChatGPT, para abandonarla tres años después en busca de su propia Inteligencia Artificial, más potente (o más rentable). Por otro lado, cabe destacar que el 80% de los firmantes son varones, lo que muestra, además, que la cima del poder tecnológico sigue siendo, a la hora de la verdad, predominantemente masculina. Un varón que no firmó fue el actual CEO de OpenAI y principal responsable de la creación de ChatGPT y GPT-4. Horas después de que se difundiera la carta twiteaba: “Todo muy calmado en el ojo del huracán”.

Evolución

En 1872, el periodista y escritor inglés, Samuel Butler, publicaba Erewhon, una novela que contaba la historia de un país en el cual las máquinas habían sido prohibidas y se penaba con la cárcel, e incluso la muerte, a quien construía o poseía una.

La novela ilustra con exageración un fenómeno que comienza a ganar fuerza en el siglo XIX: la regulación estatal de las tecnologías por temor a las consecuencias sociales que pueden provocar. Butler era un afanoso lector de Darwin y, en su novela, las regulaciones tienen que ver con el descubrimiento de que las nuevas máquinas industriales, a diferencia de todas las anteriores, evolucionan más rápido de lo que podemos comprender: “reflexiónese sobre el extraordinario adelanto que las máquinas han realizado durante los últimos centenares de años y nótese cuán levemente están avanzando los reinos animal y vegetal”.

La referencia literaria no es arbitraria. En la carta de esta semana subyace la preocupación por la gran capacidad de evolución que tienen las tecnologías de IA. Si en la época de Butler las máquinas se perfeccionaban ostensiblemente cada diez años, los aprendizajes automáticos actuales pueden hacerlo cada diez meses. O cada cinco. La velocidad de evolución de estas tecnologías es inédita en la historia de la humanidad, por lo tanto, también lo es su imprevisibilidad.

La carta afirma que “nadie -ni siquiera sus creadores- puede entender, predecir o controlar de forma fiable” el devenir de estas tecnologías. Hay un tono catastrófico que recuerda la novela de Butler. En Erewhon puede leerse: “¿Es que no estamos creando a los herederos de nuestra supremacía en La Tierra, contribuyendo día a día a su belleza, a la armonía de su funcionamiento, proporcionándoles día a día mayores habilidades y una capacidad de autorregularse y actuar con autonomía que superará a cualquier intelecto?”. En la carta puede leerse: “¿Debemos desarrollar mentes no humanas que con el tiempo nos superen en número, inteligencia, obsolescencia y reemplazo? ¿Debemos arriesgarnos a perder el control de nuestra civilización?”

¿Quién le pone el cascabel a la IA?

Rápida de reflejos, la Red Abierta de Inteligencia Artificial a Gran Escala (LAION, por sus siglas en inglés), una organización alemana sin ánimo de lucro y famosa por defender la democratización de los datos y el código abierto, ha sacado otra carta abierta en la que plantea que la carta de Musk y compañía tiene “un enfoque equivocado”.

La diferencia sustancial entre una y otra carta es cómo se concibe la relación entre el sector público y el sector privado. Mientras que la primera carta concibe el sector público como un regulador de los desarrollos de IA que realizan las corporaciones privadas, LAION propone que, precisamente, es el sector público, en lugar de las corporaciones, el que debe desarrollar ese tipo de tecnologías, y no limitarse a regularlas. Para ello, afirma que no hay que realizar una pausa, que solo serviría “para que actores corporativos o estatales oscuros y potencialmente maliciosos realicen avances en la oscuridad” a la vez que restringiría la posibilidad de hacerlo a todos los demás. Propone, en su lugar, “la creación de laboratorios de IA de código abierto con recursos informáticos financiados con fondos públicos, que actúen de acuerdo con las normativas dictadas por las instituciones democráticas”.

Se cambia así el eje de la discusión. No se trata de “planificación” o “pausa” del statu quo actual, sino de intervenir el sistema de innovación tecnológica, transfiriendo poder de decisión a “las empresas más pequeñas, las instituciones académicas, las administraciones municipales y las organizaciones sociales, así como los Estados-nación”, en busca de que “afirmen su autonomía y se abstengan de depender únicamente de la benevolencia de estas poderosas entidades que a menudo se mueven por intereses lucrativos a corto plazo y actúan sin tener debidamente en cuenta a las instituciones democráticas en su toma de decisiones”.

Desde este punto de vista, pausar el desarrollo no implica mayor seguridad. En cambio, acelerar la participación de la comunidad académica y los entusiastas del código abierto podría permitir que se “identifiquen y aborden los posibles riesgos de forma más rápida y transparente”. Ambas cartas están circulando en la red. Tome usted la lapicera y decida en cual (y junto a quiénes) firmar. Yo ya lo tenía decidido desde antes que se inventara el ChatGPT.

Salir de la versión móvil