Inteligencia Artificial, ¿esperanza o amenaza?

La inteligencia artificial (IA, o AI por sus siglas en inglés) se presenta hoy como una esperanza y una amenaza, todo depende de quien lo diga. Conocer la historia reciente de ese debate en la cumbre tecnológica del mundo nos permitirá introducirnos en lo que afectará la vida de millones de personas.

Inteligencia Artificial, ¿esperanza o amenaza?

 

Eduardo Ingaramo

Especial para HDC

 

 

La inteligencia artificial (IA, o AI por sus siglas en inglés) se presenta hoy como una esperanza y una amenaza, todo depende de quien lo diga. Conocer la historia reciente de ese debate en la cumbre tecnológica del mundo nos permitirá introducirnos en lo que afectará la vida de millones de personas. Entre los esperanzados están los que han impulsado desde siempre el desarrollo tecnológico, que niegan todas sus consecuencias negativas, y los que, aun admitiéndolas, dicen que “no es para tanto”.

 

Los cambios recientes la cúpula de quienes están en el corazón que ha desarrollado y desarrolla esa tecnología son profundos, y hay que tomarlos bien en serio ya que no son simples opinadores. Hoy, con ChatGPT de Microsoft podemos utilizar lo que se denomina “inteligencia artificial generativa”, o sea, aquella que requiere que hagamos preguntas o pedidos al Bot, que es una aplicación de software automatizada que realiza tareas repetitivas en una red, con lo que se puede pedir que nos escriba una carta de amor, un ensayo, un trabajo final o que combine una voz, un texto y una imagen de alguien para generar una noticia falsa o simplemente un juego visual. También podemos pedirle que elabore una nota, un informe meteorológico y tantas otras tareas más o menos repetitivas que hoy realizan personas.

 

Es evidente que eso genera problemas en varios aspectos de nuestra vida actual. Por ejemplo, en los exámenes académicos (en especial si son a distancia), en la comunicación en redes ya que puede hacer creíble cualquier mentira, y en los puestos de trabajo que reemplaza. Pero el debate entre los protagonistas de la IA no es ese que suelen considerarlo “daños colaterales”, como los que se produjeron con la industrialización en el siglo pasado con la mano de obra artesanal, pero esto parece ser mucho más profundo y mucho más rápido: es que se agrega al proceso de robotización industrial, que ya ha reemplazado a millones de trabajadores semi calificados y alcanzaría a tareas más calificadas, desde creaciones artísticas hasta la programación menos compleja.

 

Es que el siguiente paso de la IA, que ya se está desarrollando es la Inteligencia artificial general o Súper-AI, que, desde 2015, Google había comenzado a desarrollar “sin límite ético alguno”, que tiene la potencia de reemplazar millones de puestos de trabajo calificado y transformar el mundo con pocos humanos, en donde podrían automatizarse muchos procesos de creación y producción de conocimiento, gestión y control. Por lo que Elon Musk propuso crear OpenAI, una entidad sin fines de lucro que compitiera con Google con un programa de IA de “código abierto”, o sea que pueda ser utilizado por todos y evitara el monopolio de la tecnología, en donde se desarrolló ChatGPT en sus cuatro versiones, con Sam Altman a la cabeza.

 

Pero, en 2018, Elon Musk, que había prometido 1.300 millones, cuando puso los primeros 100 millones y habían desarrollado la versión 2, superando a Google, pretendió conducir el proyecto y, ante la negativa, retiró el apoyo de 1.000 millones que había prometido. Allí, Altman, ante la falta de financiamiento, propuso y creó una entidad intermedia que se denomina “de beneficios limitados”, que, si bien remunera a los aportantes, lo hace de modo limitado con lo que obtuvo el apoyo de Microsoft, que comprometió 13.000 millones de dólares, manteniendo el principio de seguridad inicial que implicaba detenerse una vez que se lograra la Súper-AI.

 

Es claro que la acusación de Elon Musk respecto a que OpenAI se ha convertido de una subsidiaria de Microsoft, por lo que además rompió el acuerdo de intercambio de datos con Twiter (hoy X) que conduce, tiene el interés de quien la ha pretendido controlarla. Allí, en OpenAI, se desarrolló en noviembre pasado la lucha de poder por controlar la tecnología, que incluyó a Microsoft –hoy ofrece ChatGPT4 en Windows, su buscador Bing y programas de Office 365- por lo que amenaza la hegemonía de Google como el buscador más utilizado.

 

En marzo de 2023 Elon Musk y más de un millar de expertos publican una carta abierta, solicitando una moratoria de seis meses en el desarrollo de la IA. Altman afirmó en mayo de 2023 ante el Congreso de los EEUU que “está tratando que el aterrizaje de la SuperAI sea lo menos doloroso posible”, lo que confirma en el mejor de los casos los temores de muchos. En ese momento, el Directorio de OpenAI despidió a Sam Altman, que, en cinco días, tras idas y vueltas, recaló en Microsoft con 700 de los 770 técnicos de OpenAI. Detrás de ellos además de Microsoft está Airbnb, Twich, Bill Clinton y Barak Obama, entre muchos otros.

 

La pregunta es: ¿si la principal empresa de tecnología (Microsoft en estos días ha logrado ser la empresa más valorada del mundo en la bolsa superando a Apple) pudo deglutirse a la institución líder en unos pocos días, podemos confiar que su desarrollo será “poco doloroso” para la Humanidad?

 

Y, finalmente, ¿podemos confiar en que los gobiernos o los organismos supranacionales que están enfrascados en múltiples guerras, al menos limiten el dolor que sus propios autores dicen producirá? ¿Podrán imponer impuestos a las empresas que reemplacen mano de obra humana por IA o robots que trabajan 24 horas al día, no tienen feriados, ni vacaciones, ni aportan a la seguridad social?

 

Por ahora, sólo hay iniciativas de protección de datos personales que promueven algunos gobiernos, a los que podría acceder la AI que sería capaz de romper todas las claves de acceso hoy existentes.

 

 

 

 

Salir de la versión móvil