Puede ser una imagen de 2 personas, personas de pie e interior

En diálogo con Télam, el director ejecutivo de la Fundación Sadosky pidió analizar los riesgos de las nuevas tecnologías antes de liberarlas al mercado y "discutir la falsa dicotomía entre innovación y regulación". Crece el debate por el avance de la IA y los riesgos que representa.

Por Iván Federico Hojman
Fernando Schapachnik, director ejecutivo de la Fundación Sadosky, consideró "insoslayable" que los programas de Inteligencia Artificial (IA) afectarán puestos de trabajo, por lo que pidió regulaciones para estas plataformas que volvieron al centro del debate público ya no por su capacidad de realizar múltiples tareas o sumar millones de usuarios sino porque cientos de académicos y CEOs tech pidieron esta semana una pausa en su investigación al considerar que representan "grandes riesgos para la humanidad".

En una entrevista con Télam, Schapachnik destacó los cuestionamientos que plantearon el fundador de Tesla y Space X, Elon Musk, y el historiador y escritor israelí Yuval Noah Harari, entre otros, pidió analizar los riesgos de las nuevas tecnologías antes de liberarlas al mercado y "discutir la falsa dicotomía entre innovación y regulación".

La Fundación Sadosky es una institución público privada que promueve la articulación entre el sistema científico tecnológico y la estructura productiva en todo lo referido al empleo de las tecnologías de la información y la comunicación (TIC).

A cargo de la dirección ejecutiva desde mediados de 2021, Schapachnik es profesor del Departamento de Computación de la Facultad de Ciencias Exactas y Naturales de la Universidad de Buenos Aires, Doctor en Ciencias de la Computación e Investigador del Instituto de Ciencias de la Computación UBA-CONICET.

- Esta semana cientos de personalidades del mundo tecnológico y académico publicaron una carta advirtiendo los "grandes riesgos" que presentan las IA para la humanidad. ¿Coincide con ese punto de vista?
- No hay que ser ingenuos, hay académicos muy importantes pero la carta la sacaron dentro del mundo de la tecnología los perdedores de la carrera. Aún así, piden mayor regulación, plantean que esto abre preguntas fundamentales para la humanidad y dicen que las respuestas a estas preguntas no pueden quedar en las manos de líderes tecnológicos no elegidos por nadie. Reconocen que el mercado no puede ser el que defina cuestiones tan trascendentales para la humanidad porque sería antidemocrático. Lo democrático sería que sean las personas que nosotros elegimos, de eso se trata la democracia.

- ¿Cree que no se midieron los riesgos de estas tecnologías cuando fueron lanzadas al público?
- La evaluación de los riesgos de una tecnología debería hacerse desde el momento de la concepción y no una vez que ya fue liberada. La pregunta cuando se desarrolla una tecnología debería ser si los beneficios que va a aportar justifican los riesgos. Una tecnología es valiosa si sirve para toda la sociedad, si lo único que hace es enriquecer a un puñado de personas entonces no es socialmente valiosa.

- ¿Cuáles son esos riesgos?
- No puede dejar de preocuparnos el efecto que tienen en el mundo del trabajo. El hecho de que van a desplazar la labor humana es insoslayable, por lo que el impacto en la desigualdad y el desempleo debe ser una preocupación de primer orden. Se sometió a la herramienta a una serie de tests estandarizados, esos que se rinden para entrar a la universidad, y se vio la diferencia de rendimiento de la versión original de Chat GPT y la versión nueva que salió 4 meses después. Esta herramienta podría calificar, metafóricamente, para empleos que gran parte de la población no podría porque no llegaría a esas calificaciones.

- Se vio en varias oportunidades que estas plataformas también tienen errores y sesgos en la información que brindan. ¿Cómo toma esto?
- Cuando estos sistemas no tienen información se dice, técnicamente, que "deliran". Si nos focalizamos en eso perdemos el punto importante ya que por supuesto que tienen muchísimos sesgos, pero si vos tomas al azar un ciudadano también tiene sesgos y se equivoca. Si yo le pido que realice una tarea que hoy realiza un humano, como por ejemplo generar un contrato de alquiler, una respuesta en un call center, iniciar una venta o escribir una nota periodística, las puede hacer lo suficientemente bien como para poner en riesgo enormes cantidades de empleo humano.

- ¿Qué implicancias tienen los programas de IA en la sociedad como tecnologías nuevas?
- Son una tecnología que permite crear imágenes y videos; entonces ya no podemos confiar en nuestros sentidos para distinguir realidad de ficción. El problema de las fake news no es nuevo pero la diferencia es que antes la supuesta realidad estaba mediada y la mentira aparecía en esa mediación. Ahora la IA me obliga a desconfiar de algo tan elemental como mis sentidos. Si yo estoy viendo un video con mis ojos. ¿Cómo que es mentira? ¿Cómo es mentira si escucho un audio con la voz de esa persona?

- ¿Ante este escenario cómo debería avanzarse en regulaciones?
- Es hora de discutir la falsa dicotomía entre innovación y regulación. Tenemos que pensar seriamente en la regulación de estas tecnologías. La industria farmacéutica está fuertemente regulada ya que no puede sacar un producto antes de que sea aprobado en cada país con estándares muy rigurosos y nadie podría caracterizar a esa industria como poco innovadora. Es falso que mayor regulación sea un obstáculo para la innovación.


- ¿Cómo habría que avanzar en ese marco normativo?
- Es una cuestión a trabajar en los organismos internacionales y los países también deberían elaborar marcos normativos nacionales por una cuestión de soberanía. El mercado digital no está acostumbrado a las regulaciones porque en la historia de la humanidad es muy novedoso y ha tenido un poder de lobby que resistió todos los intentos de regulación. El potencial de cambio y de daño de las tecnologías basadas en la IA me parece que está fuera de discusión, es hora de regularlas.