América Latina enfrenta desafío de regular la inteligencia artificial para garantizar su uso ético y seguro
Gobiernos y empresas buscan equilibrar el avance tecnológico con la protección de datos y la ética en el uso de la inteligencia artificial
A medida que el uso de la Inteligencia Artificial (IA) continúa expandiéndose, los ciudadanos y las empresas están cada vez más conscientes de los riesgos potenciales asociados con su mal uso. Los gobiernos de América Latina están llamados a tomar medidas para regular el uso de la IA, con el objetivo de aprovechar sus beneficios y mitigar los posibles riesgos de su utilización en actividades poco éticas.
Países como Colombia, México y Argentina han encendido las alarmas debido a la inminente utilización de técnicas como 'deep fake', que utiliza la IA para imitar digitalmente la voz de candidatos en campañas de desprestigio durante procesos electorales. Este problema se suma a la preocupación por el uso generalizado e ilegal de bases de datos de ciudadanos para manipular opiniones con noticias falsas y contenidos malintencionados.
Las empresas también se ven desafiadas por la IA, ya que para calibrar completamente esta tecnología con la infraestructura de una organización, es necesario acceder a grandes cantidades de datos de usuarios, lo que plantea preocupaciones en torno a la privacidad.
Una encuesta global elaborada por Zoho revela que el 81% de los trabajadores tiene preocupaciones sobre la exposición de sus datos privados debido a la IA, mientras que el 49% expresa temores sobre la gestión de sus datos y su privacidad. A pesar de estas preocupaciones, el 84% cree que la IA se utilizará en los lugares de trabajo en el próximo año.
El desarrollo de la IA avanza a un ritmo vertiginoso, lo que hace que los gobiernos y reguladores, que operan de manera más lenta, tengan dificultades para mantenerse al día. Según el informe "Perspectivas de Directores de Riesgos Empresariales", el 43% de los encuestados considera necesario frenar el desarrollo de la IA mientras se actualizan las regulaciones, y el 90% cree que las regulaciones deben acelerarse.
En este contexto, los gobiernos tienen la responsabilidad de diseñar normas que fomenten el desarrollo de la IA, al tiempo que establecen límites éticos y garantizan la protección de la privacidad de los datos. Las medidas deben definir claramente cómo las organizaciones pueden recopilar, almacenar, compartir y utilizar información con esta tecnología, al mismo tiempo que empoderan a los ciudadanos para tener control sobre sus propios datos.
Además, la regulación de la IA debe condenar de manera inequívoca las actividades ilegales que puedan llevarse a cabo con su uso, abarcando desde fraudes hasta la creación de contenido engañoso, como 'fake news' y campañas de manipulación.
En el proceso de regulación, los gobiernos deben también crear un marco legal que facilite la utilización de la IA por parte de organizaciones de todos los tamaños y sectores económicos, evitando la creación de monopolios que puedan encarecer los servicios y restringir el acceso a unos pocos.
Algunos países de la región ya están dando pasos en esta dirección. Chile, por ejemplo, está evaluando un proyecto de ley para regular los sistemas de IA, que aborda diversos riesgos y propone acciones concretas. Argentina ha aprobado recomendaciones para el uso ético de la IA en el sector público.
En la búsqueda por establecer pautas regulatorias que guíen el apropiado desarrollo de la Inteligencia Artificial, se enfrenta un trayecto de complejidades y desafíos, sin embargo, resulta imperativo para asegurar que esta tecnología, con su inmenso potencial, se utilice de manera ética y segura, evitando así los posibles riesgos que puedan surgir. La colaboración activa y constructiva entre los gobiernos, las empresas y la sociedad civil se erige como un pilar esencial para hallar un equilibrio equitativo en el uso de la Inteligencia Artificial en el contexto de América Latina.