La legislación promoverá mayores controles con los sistemas de IA que sean considerados de mayor riesgo para la población, con el objetivo de evitar la manipulación cognitiva del comportamiento de las personas. Los peligros del uso de los datos biométricos para el espionaje ilegal.
Por Verónica Sforzin
Enmarcado en la “transformación digital” [1], la Unión Europea (UE) implementara el primer conjunto de leyes para regular el uso e impacto social de la Inteligencia Artificial (IA). Esta medida “propone que los sistemas de IA que puedan utilizarse en distintas aplicaciones se analicen y clasifiquen según el riesgo que supongan para los usuarios. Los distintos niveles de peligro implicarán una mayor o menor regulación.” [2]
Son muchos los intelectuales, activistas y académicos que proclaman la regulación por parte de los Estados. Este difícil proceso, el de la regulación enmarcado en metas y objetivos, es el único que puede garantizar el encuadramiento de las tecnologías occidentales en función de los intereses y necesidades de las mayorías. Hoy los objetivos y los tiempos del desarrollo tecnológico se encuentran en manos de unas pocas corporaciones y países consolidando un sistema de colonización tecnológica; en el cual las naciones como Argentina son exportadores de materias primas y datos, y son consumidores de programas y servicios. Para asumir este desafío, las instituciones de la democracia tienen la enorme tarea de construir áreas específicas para su seguimiento, así como formar rápidamente cuadros con esta expertis.
Entre los puntos más importantes de este sistema de leyes que propone la UE, se destacan: la necesaria supervisión de la IA por personas, en lugar de por la automatización, para evitar resultados perjudiciales. El establecimiento de una definición uniforme y tecnológicamente neutra de la IA que pueda aplicarse a futuros sistemas. Y el establecimiento de normas diferentes para niveles diferentes de riesgo social.
En este sentido se establece el nivel más alto, de “riesgo inaceptable”, para los sistemas de IA que sean considerados una amenaza para las personas, los que serán prohibidos, entre los que se incluyen aquellos que produzcan: “manipulación cognitiva del comportamiento de personas o grupos vulnerables específicos” [3]. Esto resulta paradigmático y quizás el comienzo de la regulación de los escenarios político – electorales, ya que se encontrarían incluidos los productos de marketing político que se pueda demostrar que manipularon a la población en un proceso electoral.
A su vez, dentro de este nivel se encuentran los sistemas de identificación biométrica en tiempo real y a distancia, como el reconocimiento facial. En América Latina, bajo la consigna del “combate de la delincuencia”, los Estados han comprado “llave en mano” esta tecnología (como paquete cerrado) sin poder modificarla o regularla, produciendo una gran erogación de dólares, un extractivismo de datos de nuestras poblaciones y un negocio fenomenal para las pocas corporaciones, estadounidenses o israelíes, que la ofrecen. Lejos de ayudar a bajar los niveles de inseguridad, se han utilizado en muchos casos, para vigilar el comportamiento de la población, sin aprobación judicial, vulnerando los derechos humanos fundamentales.
Siguiendo con la normativa, serán considerados de alto riesgo aquellos sistemas de IA que afecten negativamente a la seguridad o a los derechos fundamentales y se dividirán en dos categorías: los que se utilicen en productos sujetos a la legislación de la UE sobre seguridad y los pertenecientes a ocho ámbitos específicos que deberán registrarse en una base de datos de la UE. Se destaca que todos los sistemas de IA de alto riesgo serán evaluados antes de su comercialización y a lo largo de su ciclo de vida. La IA generativa, como ChatGPT de Open IA, tendría que cumplir requisitos de transparencia.
Por último, se encuentran los sistemas de riesgo limitado los cuales deben cumplir requisitos mínimos de transparencia que permitan a los usuarios tomar decisiones con conocimiento de causa. Esto incluye los sistemas de IA que generan o manipulan contenidos de imagen, audio o vídeo (por ejemplo, deepfakes).
Será hacia fin de año que este conjunto de leyes entren en vigencia luego de que tome su forma final en función de las negociaciones que se están produciendo.
Este proceso de construcción de un marco regulatorio es un gran ejemplo para regiones como la nuestra, la cual, como marque anteriormente, es dependiente en términos tecnológicos, es decir que utilizamos tecnología extranjera. La regulación comienza a dejar de ser una mala palabra para las sociedades en relación a la tecnología y comienza a verse como una necesidad frente al profundo impacto social que genera la aplicación permanente de las Tecnologías de la Información y la Comunicación (TIC) y la IA en la vida cotidiana.
Fue la pandemia la que permitió volver a poner en el centro de la escena política a los Estados a pesar de la crisis de representatividad, ya que estos fueron los únicos que garantizaron el acceso igualitario de la sociedad al sistema de salud y a las vacunas. La pandemia de noticias falsas, desinformación y problemáticas sociales y psicológicas relacionadas a la tecnología quizás sean el punto de inflexión desde donde los Estados y organismos regionales puedan comenzar a instalar la regulación necesaria.
Lejos de copiar procesos, tendremos el desafío, en la región, de concebir, desde nuestras culturas y características específicas los mejores proyectos para que sean las sociedades, junto con los Estados, quienes definan los tiempos y los objetivos de la aplicación y la producción tecnológica, en función de nuestras propias necesidades como comunidad.
*Verónica Sforzin. Dra. en Comunicación y Licenciada en Sociología por la UNLP. Docente Titular e investigadora de la UNLP. Investigadora del CIEPE – CLACSO. Autora del libro: Geopolítica de las Tecnologías de la Información y la Comunicación. Un análisis desde América Latina y el Caribe. Ganadora del premio Ensayo Pensar Nuestra América con Categorías Propias (de la Editorial CICCUS) con la obra: Ética, poder y tecnologías de próxima publicación.