En el marco del 19° Taller de Regulación de la CRC, Claudia Flores-Saviaga. Investigadora Senior, Laboratorio de Inteligencia Artificial cívica de la Universidad Northeastern, explicó en detalle varios puntos clave sobre la inteligencia artificial en el mercado de las telecomunicaciones.
En su charla llamada “Riesgos en servicios digitales, contenidos audiovisuales e IA: ética, desinformación y protección de los derechos humanos”, Claudia ahondó en preocupantes escenarios que deben tratarse al detalle.
Sin embargo, en primer lugar dejó clara su postura y expresó que “la inteligencia artificial no es buena ni mala, simplemente es una herramienta”.
Los puntos a revisar de la inteligencia artificial
Respecto a Chat GPT, Claudia mostró un panorama importante enfocado en la creación de información falsa.
“Chat-GPT es una herramiento de lenguajes de gran tamaño y pueden ser utilizados para generar información convincente pero falsa. Todo va en la manera en que se le haga la pregunta a esta herramienta. Muchas veces puede generar información falsa y lo peor es que se puedan creer, ha habido varios casos que son difíciles de manejar”, expresó.
También, otro de los problemas mencionados, es que hay problemas de privacidad debido al potencial de los lenguajes de gran tamaño para generar contenido que infringe derechos de autor, marcas registradas u otros derechos de propiedad intelectual.
¿Qué tan ético es que empresas grandes utilicen nuestra información con IA?
Sin duda, el tema ético en el campo de la inteligencia artificial resulta importante por el tratamiento de datos y derechos de autor.
“Es importante mirar los problemas de derecho de autor porque los modelos generativos se enfrentan con colecciones extensas de imágenes, que incluyen fotografías, obras de arte, diagramas e ilustraciones, para aprender patrones visuales, estilos y características”.
#TallerCRC2024| «La IA no es buena ni mala, es una herramienta con riesgos y desafíos». No te pierdas la conferencia de Claudia Flores:Riesgos en servicios digitales, contenidos audiovisuales e inteligencia artificial: ética, desinformación y protección de los derechos humanos pic.twitter.com/CdqCCnbeZg
— CRC Colombia (@CRCCol) September 3, 2024
Dentro de los principales desafíos, Claudia aseguró que las empresas tecnológicas no pueden simplemente desactivar la encriptación; estas aplicaciones están diseñadas para proteger la privacidad.
Además, el contenido producido por la IA generativa puede enfrentar un mayor escrutinio en una sociedad con niveles más bajos de tolerancia cultural.