“La inteligencia artificial no es buena ni mala, simplemente es una herramienta”: Claudia Flores-Saviaga

Uno de los puntos relevantes del Taller de Regulación de la CRC fue la inteligencia artificial. 

Compartir

En el marco del 19° Taller de Regulación de la CRC, Claudia Flores-Saviaga. Investigadora Senior, Laboratorio de Inteligencia Artificial cívica de la Universidad Northeastern, explicó en detalle varios puntos clave sobre la inteligencia artificial en el mercado de las telecomunicaciones. 

En su charla llamada “Riesgos en servicios digitales, contenidos audiovisuales e IA: ética, desinformación y protección de los derechos humanos”, Claudia ahondó en preocupantes escenarios que deben tratarse al detalle. 

Sin embargo, en primer lugar dejó clara su postura y expresó que “la inteligencia artificial no es buena ni mala, simplemente es una herramienta”. 

Los puntos a revisar de la inteligencia artificial

Respecto a Chat GPT, Claudia mostró un panorama importante enfocado en la creación de información falsa. 

“Chat-GPT es una herramiento de lenguajes de gran tamaño y pueden ser utilizados para generar información convincente pero falsa. Todo va en la manera en que se le haga la pregunta a esta herramienta. Muchas veces puede generar información falsa y lo peor es que se puedan creer, ha habido varios casos que son difíciles de manejar”, expresó. 

También, otro de los problemas mencionados, es que hay problemas de privacidad debido al potencial de los lenguajes de gran tamaño para generar contenido que infringe derechos de autor, marcas registradas u otros derechos de propiedad intelectual. 

¿Qué tan ético es que empresas grandes utilicen nuestra información con IA? 

Sin duda, el tema ético en el campo de la inteligencia artificial resulta importante por el tratamiento de datos y derechos de autor. 

“Es importante mirar los problemas de derecho de autor porque los modelos generativos se enfrentan con colecciones extensas de imágenes, que incluyen fotografías, obras de arte, diagramas e ilustraciones, para aprender patrones visuales, estilos y características”. 

Dentro de los principales desafíos, Claudia aseguró que las empresas tecnológicas no pueden simplemente desactivar la encriptación; estas aplicaciones están diseñadas para proteger la privacidad. 

Le puede interesar:  Economía de Colombia crecería modestamente con 1.8% en 2024, según OCDE

Además, el contenido producido por la IA generativa puede enfrentar un mayor escrutinio en una sociedad con niveles más bajos de tolerancia cultural.

Lea también: Estas son las nuevas directrices de la SuperFinanciera para potenciar el mercado de capitales en Colombia

Última hora

Le puede interesar

[mc4wp_form id=»74432″]