Ana María Castillo: Desmontando mitos de la inteligencia artificial

Abril 30, 2024

ANA MARÍA CASTILLO HINOJOSA es Licenciada en Comunicación Social y Magíster por la Universidad Austral de Chile, Ph. D por la Universidad de Barcelona y directora del Núcleo de Inteligencia Artificial, Sociedad, Comunicación e Información.  Formará parte del evento Reimaginando la Inteligencia Artificial: Perspectivas Innovadoras que se efectuará en la Facultad de Ingeniería de UNAB en Viña del Mar los días 12, 13 y 14 de junio. 

 

Este ciclo organizado por ITISB-UNAB incluye un seminario, charlas magistrales, exposiciones y un webinar. En este último evento participarán Xaviera López Cortés, académica U Católica del Maule, experta en Data Science y Machine learning. Gabriela Arriagada Bruneau, académica de la Pontificia U. Católica de Chile, investigadora del Centro Nacional de Inteligencia Artificial, Hernán Astudillo, Ph. D en Informática, experto en arquitectura de software, académico de la UTFSM e investigador de ITISB-UNAB y nuestra entrevistada, Ana María Castillo Hinojosa. 

 

Existen estudios recientes que desmontan el mito de los “nativos digitales” donde se señala que cerca del 90% de los estudiantes chilenos presenta dificultades en el uso de un computador para evaluar la fiabilidad de la información. ¿Qué habilidades digitales no se están desarrollando en las escuelas? Y ¿Cómo piensas que podemos aportar para resolver esta situación? 
 

 Concuerdo con la necesidad de desmontar este tipo de mitos, porque nos alejan de las cuestiones importantes como la capacidad de evaluar la calidad de las fuentes informativas. En este sentido pienso que se confunden fácilmente las habilidades de uso de dispositivos con la capacidad crítica y la comprensión de la información que estamos recibiendo. Entonces, desde el trabajo de campo que hemos realizado con el Núcleo de Inteligencia Artificial y Sociedad, lo que hemos observado es mucho énfasis de las escuelas por promover el acceso y el uso de herramientas de ofimática, robótica y otros, pero poco sobre el contenido que circula en las redes y plataformas que son de uso cotidiano. Desde mi perspectiva, necesitamos bajar un par de peldaños, es decir, ocuparnos de fortalecer habilidades de reconocimiento y gestión de buena información, que están en la base y nos capacitan para hacer un mejor uso de las herramientas tecnológicas. No quiero decir que debamos dejar de usar tecnología, sino que el énfasis debería estar puesto en la conversación sobre nuestros usos y prácticas: el cómo, por qué y para qué estamos usando esas herramientas; así podemos reflexionar sobre ellas. 

 
Has estudiado las brechas de contenido en línea y las dinámicas por las que las y los jóvenes consumen, seleccionan, chequean y comparten información/desinformación en plataformas digitales. ¿Qué reflexión podrías compartir? ¿Con qué te has encontrado? 
 

Lo que hemos encontrado es que hay unas prácticas extendidísimas de uso, consumo y réplica de contenidos digitales, muchos de los cuales no pasan por ningún filtro y son infinitamente compartidos. Estos contenidos y los mecanismos mediante los cuales los usamos están apartados de las aulas y los espacios educativos en general. No los hacemos parte de la reflexión crítica que tenemos día a día. 

En nuestros trabajos nos hemos encontrado con adolescentes que usan las redes y plataformas para vender contenidos digitales con ayuda de sus entornos de confianza, exponiéndose a abusos de toda índole. Esto escapa de las posibilidades que tiene una escuela de cuidar a personas en formación, pero es algo que está en el ambiente y que es necesario transparentar y atender, justamente para proveer herramientas que no son digitales, sino analógicas: reflexión, crítica, autocuidado. Estoy dando un ejemplo extremo, pero las mismas habilidades nos podrían servir para cuidar la calidad de la información que usamos y compartimos para tomar decisiones en nuestra vida cotidiana. 

 
 ¿Cuáles son/serán las nuevas tecnologías que permitirían un uso más justo, seguro y transparente de la IA en la sociedad? 
 

Pienso que buscar la respuesta dentro de las mismas tecnologías nos puede jugar en contra. Las tecnologías, en concreto las que podemos comprender bajo el gran paraguas de la IA, están entrenadas con datos que existen en internet y que pueden tener sesgos que se han descrito ampliamente en los medios y en las discusiones académicas y públicas. 

Pienso que el ejercicio de la mirada crítica y optimista puede ser un valor importante, dar a conocer que todas las tecnologías tienen una base humana en su creación y que necesitamos mirar cómo, por quiénes y con qué fines han sido creadas. Si una tecnología ha sido creada para dar beneficio económico a una empresa o a una persona, entonces nos toca desentrañar cómo se obtiene ese dinero, qué es lo que se está comercializando; es la única manera de poder usar más transparentemente dicha herramienta: conociendo qué es lo que está obteniendo de nosotros para su beneficio. La mayoría de estas tecnologías tienen potenciales de beneficio social, pero para poder usarlas mejor, es básico entender de dónde vienen y también cuáles son sus limitaciones y riesgos. 

 
 ¿Con qué metodologías contamos para evaluar el impacto de la IA en la sociedad? ¿Cuál es la realidad en nuestro país? 
 

 Las auditorías algorítmicas me parecen un buen inicio, aunque se requieren muchos recursos y equipos entrenados para esta tarea.  

En Chile el CENIA ha probado metodologías de evaluación de proyectos de IA con un enfoque centrado en el ser humano, lo cual es un gran inicio, muy esperanzador. Más allá de eso, la verdad es que la mayoría de las tecnologías cuentan con evaluaciones internas, que hacen las mismas empresas y sus equipos de ética y seguridad; es muy bueno que estos equipos existan y, sin duda, aportan a un mejor desarrollo de las tecnologías, pero como decía antes, la posibilidad de evaluar en varias etapas me parece fundamental. Lamentablemente hay muchas aplicaciones, herramientas y dispositivos que son de uso cotidiano y que están fuera del alcance de estas iniciativas. 
 
 ¿Cómo podemos promover nuevas herramientas para una IA inclusiva? ¿Cuáles serían esas herramientas? Y ¿Qué rol deberían a tu juicio, asumir gobiernos y Estados? 
 

 Desde el Núcleo IA y Sociedad promovemos sobre todo el diálogo intersectorial y la inclusión de todas las comunidades potencialmente beneficiadas, impactadas y excluidas en la conversación sobre tecnologías. Pienso que este es un paso para promover que las tecnologías sean inclusivas y que podamos articular una creación tecnológica que esté pensando en las necesidades de las diferentes personas y territorios que componen nuestras sociedades. Desde mi perspectiva, los gobiernos y estados deben comprometerse con esta mirada, que no es la de la regulación unilateral, sino de la conversación con todos los actores involucrados en beneficio de las personas. 

 
A tu juicio, ¿Por qué la premura de las empresas por lanzar al mercado nuevas tecnologías sin la suficiente validación ni control? ¿Cuáles serían los riesgos que corremos como sociedad?  
 

 La premura siempre tiene un componente de novedad, de ser los primeros en ofrecer la última tecnología, la más espectacular, la que acapare más titulares, más clics y sea la que le pone el nombre a la cosa: hoy hablamos de Chat GPT como sinónimo de IA, por ejemplo. Pero no es el único caso: hemos visto cómo los filtros de imagen en redes sociales están causando un montón de problemas de autopercepción en adolescentes y esto está ahí, funcionando sin que se discuta lo suficiente sobre ello. Este es el tipo de riesgos que corremos. Los sistemas automatizados que evalúan la capacidad de endeudamiento, el pago de impuestos; estas son tecnologías que pueden afectar el que una persona obtenga o no la posibilidad de comprar una casa, de mantener a su familia, etc. Son cuestiones graves que deben ser abordadas en beneficio y protección de la ciudadanía. 

 

¿Cómo es la legislación europea en la materia? 

 

La legislación europea todavía tiene varias herramientas. El acta de servicios digitales, la legislación sobre mercados digitales y hace poco se discutió el acta de IA, que pone en el centro la protección de los derechos de las personas y su seguridad en todos los ámbitos en los que la IA puede afectar, incluidas las democracias. Estos son marcos que tendrán bajadas concretas y que requieren de discusiones específicas según cada legislación, pero ofrecen paraguas importantes porque explicitan la necesidad de proteger y favorecer al ser humano. 

 

¿Qué opinas de estas formas de IA con apariencia humana que suelen tener voces, rasgos femeninos? ¿Crees que existe un sesgo de género, social, cultural en eso? Pienso en Siri, en Alexa. En este contexto ¿Cuánto participamos las mujeres en el diseño/programación de este presente/futuro tecnológico del planeta? 

 

Sin duda hay un marcado sesgo de género si asumimos que los asistentes sintéticos tengan apariencia femenina, porque se perpetúa el estereotipo patriarcal de lo femenino asociado a los cuidados y al servicio. 

 

Hay iniciativas muy interesantes en Chile para promover la participación de las mujeres en el desarrollo de tecnología, que potencian el interés de las niñas y jóvenes por el área de STEM, para intentar variar la composición de los equipos que crean y desarrollan. Pienso que esta es una discusión mucho más extensa, pero hay un muy buen primer paso si estamos pensando en que haya más miradas de mujeres sobre tecnologías que pueden ir en beneficio de todos. 

 

Magaly Acosta Oviedo 

 
Scroll to Top