6 de junio 2025
Dólar
Compra 40,30 Venta 42,70
7 de octubre 2024 - 5:00hs

Unos años antes de morir, el astrofísico británico Stephen Hawking movió las cejas y los ojos para —ayuda de la tecnología mediante— escribir virtualmente su última profecía: “el desarrollo de una completa inteligencia artificial (IA) podría traducirse en el fin de la raza humana”.

Pocos le creyeron. No era la primera vez que los científicos de su talla lanzaran mensajes apocalípticos ante la incipiente cuarta revolución industrial. Pero una década después, en la capital de Uruguay, los gobiernos se dieron cita para ver cómo poner freno al avance —“poco ético”— de la inteligencia artificial.

La mexicana Gabriela Ramos, subdirectora general de la Unesco e impulsora de las estrategias sobre ética algorítmica, fue una de las presentes. A continuación parte de la entrevista que dio a El Observador, mientras dejaba las oficinas de la CAF y corría como la tecnología para alimentarse en el hotel céntrico en el que se hospedaba.

Más noticias

—Hace años se habla de “los retos” que enfrenta la humanidad por el avance de la inteligencia artificial, pero, ¿cuál es el gran reto?

—El reto fundamental es cómo incrementamos nuestras capacidades para usar la tecnología de la mejor forma, porque, hasta ahora, el desarrollo tecnológico fue a impulso de las grandes empresas. Salió al mercado ChatGPT y recién luego empezamos a preguntarnos sobre sus impactos. Las dudas sobre la desinformación que genera, el consumo de energía, la falta de referencia a fuentes… todo eso vino después, con delay.

—¿Está proponiendo una curaduría de tecnología antes de que salga al mercado?

—Es que la discusión no es tecnológica, es política. La industria farmacéutica no puede salir al mercado sin una aprobación previa. Tampoco las señales de televisión. Ni los automóviles. Entonces, ¿por qué los gobiernos, cuyo principal interés es velar por el bien de sus ciudadanos, no pueden evaluar los impactos antes de que una tecnología salga al mercado?

—En California se aprobó hace poco un proyecto de ley para regular el avance de las grandes tecnológicas en materia de IA. El gobernador lo vetó. ¿Hizo lo correcto?

—Es desafortunado que no se haya aplicado esa regulación. Si hay daño, tiene que haber una compensación. Lo interesante que estamos viendo en Montevideo estos días es que, al menos en algunos países de América Latina, los Estados están adoptando estrategias nacionales de inteligencia artificial que va más allá de recibir inversión tecnológica. Antes, hace solo cinco años atrás, lo único que querían muchos países era tener más empresas unicornio, más inversión, más tecnología. Ahora, por fin, aparece el ciudadano, el gobierno, la academia y los derechos. Aclaro que no es solo regulación, sino también incentivos.

—¿La prohibición tiene que ser parte de la política?

—Una política es decir que a los menores de 14 años no se les vende ni da un iPhone. Es una política pública de salud y de educación.

—Pero, ¿hay que aplicar esa política?

—Por supuesto. Muchos estudios demostraron los daños que las redes sociales causaron en los adolescentes. Y si bien llegamos después, tal vez tarde, Australia dio el paso de prohibirles a los más chicos el a las redes sociales. En Francia hubo un revuelo porque se comprobó que estaba habiendo a la pornografía en niños de solo ocho años. Alguien se tiene que hacer responsable de eso. Las tecnologías dejadas a su libre albedrío sin un marco ético ha sido muy negativo.

—Este año más de 100 países tuvieron (o tienen) elecciones, por lo que se ha dado en llamar “súper año electoral”. ¿La inteligencia artificial perjudicó la calidad democrática?

—No lo sabemos más allá de casos muy sonados, como los deepfake del presidente Biden hablando para que nadie lo vaya a votar, o en Eslovaquia donde se vio afectado uno de los candidatos. Insisto, si existe el problema, yo lo prohibiría. Porque la democracia no es solo el proceso electoral. ¿Con qué fuentes se informa la gente? ¿Por qué está creciendo la polarización política? ¿En qué medida los algoritmos terminan potenciando los sesgos? ¿Acabamos hablando dentro de una burbuja?

—Hubo un momento en que la humanidad no supo lidiar con las drogas y las prohibió. Un siglo después, distintos expertos dicen que fue un error. ¿Qué garantiza que la prohibición de parte de la tecnología no termine siendo un error?

—Es muy maniqueo pensar que es todo prohibición o no prohibición. No son las únicas dos opciones. La prohibición es fácil y lo haría en algunos casos, porque lo contrario es irresponsable. Si se está afectando la salud mental de nuestros niños, algo hay que hacer. Pero no es un tema de una persona, es lo que la humanidad considere. Eso sí: ante investigaciones que muestran tamaño impacto negativo, prefiero a errarle por prohibicionista antes que no hacer nada.

Temas:

UNESCO Redes sociales inteligencia artificial

Seguí leyendo

Te Puede Interesar

Más noticias de Argentina

Más noticias de España

Más noticias de Estados Unidos