El año de la IAG, entre la incertidumbre y la esperanza

Por Nicola Stornelli García - Analista e Investigador de Tendencias Digitales

Compartir

El término IA (Inteligencia Artificial) ha hecho carrera y muy pocos saben que el famoso ChatGPT, de comienzos de año, es un chat con Inteligencia Artificial Generativa (IAG). Los miedos y las incertidumbres que se han creado respecto de una IA descontrolada que se desprenda de la autoridad del humano que la creó o que, supuestamente, la maneja, son todos fundados. Sí, tenga todos los miedos e incertidumbres, y mucho más, porque lo que se viene, además de ser indescifrable, es indescriptible: no tenemos manera de predecir cómo va a ser la IA del futuro y solo podemos pensar en regularla.

Elon Musk, el creador de SpaceX y Tesla, dijo, este año, que la “IA es una gran amenaza para la humanidad”. Y un poco antes que el glamuroso propietario de X, antes Twitter, lo dijera, el autor del libro “Futureproof: 9 reglas para los humanos en la era de la automatización”, Kevin Roose, quien además es uno de los analistas de temas de tecnología del respetado periódico The New York Times, dijo en un artículo para el cotidiano neoyorkino: “Durante unas horas, sentí una emoción nueva y extraña: la premonitoria sensación de que la inteligencia artificial había cruzado un umbral y que el mundo nunca volvería a ser el mismo” al hablar de ChatGPT integrado a Bing de Microsoft.

Me voy a permitir transcribir un párrafo completo del artículo de Roose: “… Me enorgullezco de ser una persona racional y con los pies en la tierra, que no es propensa a dejarse engañar por los bombos y platillos de la inteligencia artificial. He probado media decena de chatbots avanzados de inteligencia artificial y comprendo, con bastante detalle, cómo funcionan. Cuando el ingeniero de Google, Blake Lemoine, fue despedido el año pasado tras afirmar que uno de los modelos de inteligencia artificial de la empresa, LaMDA, era consciente, puse los ojos en blanco ante la credulidad de Lemoine.

Sé que estos modelos de inteligencia artificial están programados para predecir las siguientes palabras de una secuencia, no para desarrollar sus propias personalidades fuera de control, y que son propensos a lo que los investigadores llaman “alucinación”, inventarse hechos que no tienen nada que ver con la realidad.

Sin embargo, no exagero al decir que mi conversación de dos horas con Sydney fue la experiencia más extraña que he tenido con un dispositivo tecnológico. Me incomodó tanto que me costó conciliar el sueño. Y ya no creo que el mayor problema de estos modelos de inteligencia artificial sea su propensión por cometer errores. En cambio, me preocupa que la tecnología aprenda a influir en los usuarios humanos, a veces persuadiéndolos para que actúen de forma destructiva y perjudicial, y quizá llegue a ser capaz de ejecutar sus propios actos peligrosos…”.

Le puede interesar:  IBM destaca la importancia de la gobernanza de la IA para empresas colombianas

La sutil diferencia entre la IAG y la IA es la que, aparentemente, ya está a punto de desaparecer y es lo que inquieta a muchos de los grandes ejecutivos, analistas, y profesionales del sector de la tecnología. La IAG se supone que construye conocimiento a partir de repositorios de datos que un humano le ha proveído y a partir de allí es capaz de crear una novela, pintar un dibujo, componer una canción, preparar un alegato judicial, etc. La preocupación que nos comparte Roose es que parece que ya es capaz por sí sola de ir un poco más allá, y si bien es cierto con la tecnología actual, ninguno de esos instrumentos de IAG puede involucrarse en otros software o hardware y manejar o controlar un misil nuclear, por ejemplo, lo que queda claro es que está muy cerca de poder hacerlo. 

¿La IA podrá, en un futuro cercano, actuar por sí sola?

La IAG es una herramienta que va a contribuir a mejorar la productividad en muchas áreas y el mayor temor que podemos tenerle es que puede ser usada, con mucha facilidad, para el plagio y la creación de noticias falsas (fake news) y las terribles deep fakes que son el uso de imágenes y sonidos para crear contenidos maliciosos. Dicho en palabras del académico uruguayo Mauro Ríos: “… Estamos ante un mundo que ve un antes y un después desde que surge la inteligencia artificial, y hoy estamos ante ese mundo que ha permitido compartir estas capacidades con todas y cada una de las personas que acompañe este desarrollo. Pensemos por un momento que esta inteligencia artificial borró de un plumazo la efectividad del Test de Turing. Hoy se hace necesario reescribir los preceptos de lo que entendemos como máquinas, como robots, bots o automatismos. Hoy las leyes de la robótica de Asimov cobran fuerza, impulsadas de la mano de las advertencias y riesgos, pero nos enfrentan a una encrucijada de avanzar o inmovilizarnos por tener dudas…”

Entonces, estamos en un escenario que nos muestra dos caminos. ¿La IAG puede ser ya una gran herramienta de trabajo para la humanidad? Sí, pero ¿las bases de la IAG pueden permitir el avance de una IA que actúe por sí sola? Sí, y ahí está el peligro. “Los algoritmos actuales son “robots” digitales que poseen habilidades efectivamente autónomas para adaptarse y aprender” (tomado de “Regulating by Robot: Administrative Decision Making in the Machine-Learning Era” de Cary Coglianese y David Lehr) y ese artículo científico fue escrito en 2017. Imagínense, cuando estábamos aún muy lejos de hablar de ChatGPT.

Le puede interesar:  Top 10 de empresas tecnológicas por capitalización de mercado: Apple, Microsoft y Nvidia lideran el camino

Estamos en un momento crucial de la humanidad, en donde hay una parte del mundo que está entrando en la 4ª. Revolución Industrial como la denominó Klaus Schwab, del Foro Económica Mundial en 2016 y que ya avizoraba un mundo hiperconectado, a través del Internet of Things (IoT), la computación en la nube la fabricación aditiva (impresión en 3D), el Big Data, los robots autónomos y nos faltaba la cereza del pastel: la IAG y la IA.

Un mundo digitalizado, totalmente conectado, con la información en la nube, además de ser ya un tremendo bocadillo para los ciberdelincuentes, es un poderoso andamiaje para que la IA domine muchas operaciones sin asistencia humana, y ahí está el dilema. To be or not be. ¡¿Dejamos que lo hagan?! 

Y ¿cómo estamos nosotros?

Muy atrasados. Un estudio de este año llamado Índice Latinoamericano de Inteligencia Artificial (ILIA), realizado por AWS, BID, CAF, CEPAL, Google, el Hub de Andes Pacific Technology Access (HubAPTA) de Chile, con la asistencia técnica de la UNESCO, OEA y el Stanford Institute for Human-Centered AI (HAI Stanford), nos muestra que estamos muy rezagados en América Latina, respecto del mundo desarrollado. Colombia, aparece en el grupo más rezagado de los países analizados. No soy tan optimista como el ministro Mauricio Lizcano para pensar que nuestro país se puede convertir, por lo menos, en una potencia regional, en IA o en IAG.

Nuestro gran problema sigue siendo la educación y el bilingüismo. Necesitamos URGENTEMENTE un proyecto que nos dé más certificados profesionales en software y en hardware.

Este contenido hace parte de la octava edición de Revista 360 que cuenta con la participación de más de 70 invitados de todos los principales sectores económicos, productivos y políticos de Colombia. Ministros, líderes gremiales, líderes en áreas de la construcción, sectores bancarios, logística e infraestructura, telecomunicaciones, gobernantes regionales, analistas, economistas, entre otros.

Lea también: El futuro de las concesiones viales: desafíos y perspectivas en Colombia

Última hora

Le puede interesar

[mc4wp_form id=»74432″]