Mapa web
Youtube
Instagram
Campus UNED

La doctora Ángeles Manjarrés hizo una llamada de atención que permita impulsar la Inteligencia Artificial para la igualdad de los pueblos 

26 de marzo de 2021

La ponente explicó en el seminario de la UNED en Ourense la relación de la IA con la Agenda 2030 y qué puede hacer para potenciar los 17 Objetivos de Desarrollo Sostenible (ODS) de la ONU.

OURENSE, 26 de marzo de 2021.- La profesora doctora de la UNED, Ángeles Manjarrés Riesco, habló esta mañana de la relación entre la IA y los Objetivos de Desarrollo Sostenible de la ONU (ODS). Lo hizo dentro del seminario que la Universidad esté celebrando en Ourense sobre IA, a través del Centro de Intelixencia Artificial del Concello de Ourense. Manjarrés dijo que en la relación entre IA y los ODS es precisa "una llamada de atención para impulsar la IA para la igualdad, (en inglés con las siglas AI4Eq. Artificial Intelligence for Equity) que constituye un enorme campo por explorar, con estudio de experiencias, paradigmas, herramientas metodológicas y técnicas propias. El trabajo futuro pasa por la IA “como soporte a paradigmas de desarrollo alternativos, más sostenibles y resilientes, con énfasis en la equidad y en la sostenibilidad de la vida”. Manjarrés fue relatando la aplicación de la IA para cada uno de los ODS de la ONU y así, por ejemplo, en el Objetivo 6, dedicado al Agua limpia y saneamiento, la IA puede ser utilizada como:

  •  Soporte a servicios de saneamiento e higiene y su gobernanza
  •  Soporte a la gestión integrada de recursos hídricos: predicción de precipitaciones, sequías, presencia de bacterias, optimización de costes; planificación de instalaciones, reparaciones…; modelado/optimización de procesos de depuración y eliminación de contaminantes, monitorización de flujos, detección de fugas y otros fallos en infraestructuras; simulación de redes de distribución, simulación de intervenciones humanas (con realidad virtual y aumentada)
  • Soporte a la gestión y gobernanza de ecosistemas Fuentes de datos: sensorización de ecosistemas e infraestructuras en tiempo real, datos históricos de comportamiento de infraestructuras
Naciones Unidas está aplicando IA en proyectos de interés como el de identificación de cosechas favorables en Áreas de Producción de Arroz en Indonesia, en el uso de Registros de Llamadas para la Comprensión de la Integración de Refugiados en Turquía; también está el proyecto After Dark para favorecer el tránsito seguro para mujeres que viajan de noche en Jakarta, o el acabar con la violencia contra mujeres y niñas en Uganda sin olvidar el proyecto de extender el Arte de lo Posible con Big Data para dar respuesta informada al COVID-19 en Jakarta. La ponente expuso que la AI4Eq puede catalizar la necesaria transformación hacia el mundo equitativo y sostenible de la Agenda 2030. Añadió que requiere un esfuerzo coordinado (en cogerencia con el ODS 17) multinivel, multiactor y que implique a investigadores y profesionales de la IA, de la ética, también del mundo de la legislación, de los derechos humanos, de la innovación, etc. Deberá implicar también a educadores de múltiples disciplinas; a representantes de los sectores público y privado, a gobiernos e instituciones nacionales e internacionales. Igualmente debe implicar al tercer sector y a la sociedad civil.

Habló del aprendizaje-servicio en la asignatura Aplicaciones de la IA para el Desarrollo Humano Sostenible, en el Máster en Investigación IA de la UNED y de una pedagogía activa, participativa, constructivista y experiencial. La AI4Eq requiere formación de profesionales cuyo curriculum esté alineado con los ODS.

A modo de ilustración, la ponente se refirió también a la necesidad de verificación de la discriminación por sesgos en los algoritmos de aprendizaje. Mencionó la inequidad en las soluciones de IA para la COVID-19 con unos sistemas de diagnóstico y tratamiento en los que se detecta una falta de transparencia e interpretabilidad así como sesgos que se ven en la enmarcación del problema, en los datos de entrenamiento (muestras demográficas limitadas, escaso equipamiento en regiones más desfavorecidas); en el etiquetado, en la elección de proxys; en la elección y sintonización de algoritmos, en la evaluación e interpretación de resultados y en la falta de transparencia del sector privado (vacunas). Puso como ejemplo el diagnóstico basado en imágenes pulmonares sin consideración de la prevalencia de tuberculosis o VHI, sin adecuada trazabilidad y discriminación de poblaciones, falta de escáneres y radiólogos en regiones desfavorecidas.

Hay adicionalmente infodemia, es decir, desinformación sobre COVID-19 focalizada en los ciudadanos más vulnerables.

Un enfoque apropiado de las soluciones IA para la COVID-19 ha de tener en cuenta: sensibilidad al contexto, participación de expertos locales, evaluación de sesgos en cada etapa del proceso de desarrollo; compartición de datos y modelos, uso de métodos híbridos: complementar con conocimiento experto y datos clínicos; basado en móviles, reproductibilidad, recopilación de datos suficientes y precisos, incluyendo raza y etnia, en base a perfiles de inmunidad completos (genética, factores ambientales, nutrición, localización geográfica…); etiquetado adecuado y mecanismos de auditoría y examen de sesgos. Ángeles Manjarrés señaló que en esa inequidad se notan fallos de modelos al evaluar las tendencias de transmisión en Europa y África, faltan datos sobre asentamientos informales, sin apps de rastreo.

La doctora señaló que la Inteligencia Artificial para la Equidad necesita herramientas de intervenciones para el desarrollo; técnicas que requieren pocos recursos energéticos; ciencia ciudadana y enfoques centrados en la comunidad, directrices de Ciencia de Datos; herramientas de explicabilidad; técnicas soft-computing; IA de bajo coste, abierta; sistemas sensibles al contexto y a valores así como modelos híbridos basados en datos y conocimiento. También precisa medición de impacto por diseño, equidad por diseño, privacidad por diseño; democracia por diseño, paradigma de ciudadano inteligente además de técnicas generales para el desarrollo de la IA ética (agentes morales, técnicas para prevención y medida de justicia algorítmica e integridad de datos, diseño transparente, evaluación de riesgos…) También necesita tecnologías coadyuvantes de interés como Edge computing ó Blockchain; P2P entre otras.

Cuestiones relevantes en la AI4Eq son:

  • Uso del enfoque basado en los Derechos Humanos con tecnología apropiada, con promoción de autonomía/empoderamiento, además de consideraciones éticas, psicológicas, legales filosóficas en el desarrollo e implantación: necesidad de equipos multidisciplinares y medida de impacto en Derechos Humanos.
  • Atención a las prioridades locales ODS

  • Implicación del sector privado

  • Consideración del contexto legislativo y político

  • Cómo afectan los siguientes aspectos a las poblaciones vulnerables: privacidad, explicabilidad, transparencia, trazabilidad, apertura, robustez, seguridad, viabilidad, inclusión y consideraciones psicológicas y filosóficas.

Ángeles Manjarrés habló del papel que ha de desempeñar la industria, con autorregulación, mantenimiento de empleo, capacitación de profesionales y colaboración con la academia y con el gobierno.

Por otro lado, gobiernos e instituciones deben apoyar a la industria en la reconversión del mercado laboral y colaborando con la industria y la academia. En este ámbito destaca la ponente legislación y gobernanza basada en blockchain; salvaguardas legales y políticas de la privacidad; adaptación de los instrumentos internacionales de derechos Humanos a la era digital y regulación internacional de la IA, encabezada por la ONU, alineada con la Declaración Universal de los Derechos Humanos y la ley internacional.

Gobiernos e instituciones tienen que promover la I+D con la investigación en IA y tecnologías coadyuvantes; infraestructuras compartidas; datos accesibles, fiables, abiertos y respetuosos con los DD HH; destinos y territorios inteligentes (monitorización de ecosistemas, etc); investigación en equipos multidisciplinares de la interdependencia IA-Derechos Humanos pues “la mala comprensión de cómo funcionan las nuevas tecnologías puede resultar en regulaciones subóptimas e ineficaces”.

Gobiernos e instituciones tienen que promover la educación, capacitando a profesionales cualificados, fomentando vocaciones técnico-científicas; establecer un paradigma educativo de formación continua.

La IA puede afectar de modo negativo a los ODS relacionados con la equidad y la sostenibilidad dentro de los países y entre países. Esto se puede ver, señaló Manjarrés,  en un consumo de recursos computacionales masivos, ineficiencia que deriva en sobreexplotación y la degradación ambiental que tiende a afectar a las comunidades marginadas. Puede, además, producir competencia por materias primas de la tecnología digital lo que deriva en conflictos bélicos, sobreexplotación, mano de obra esclava. Todo ello redunda en efectos adversos en derechos humanos y en democracia pues surgen nuevas modalidades de dominación con estructuras patriarcales, vulneración de la privacidad y falta de acceso a servicios sociales. También puede ocasionar la sustitución de la atención personalizada por servicios automáticos, lo que deriva en pérdida de destrezas profesionales y en una degradación de servicios para sectores desfavorecidos.

Igualmente la IA puede afectar negativamente originando una capacitación profesional desigual, con efectos adversos en el empleo, lo que conlleva pobreza y exclusión. Puede también traer consecuencias indeseadas para la Ciencia de Datos al manejar datos no representativos, defectuosos o sesgados. El sesgo amplía y perpetúa discriminaciones y estereotipos de grupos minoritarios y vulnerables.

Otra manera de que la IA pueda afectar negativamente a los ODS relacionados con la equidad y la sostenibilidad es que se dé un acceso desigual a conocimientos y recursos tecnológicos con la monopolización y empoderamiento desigual, es decir, con desequilibrio de poder en el mercado, con brecha digital y nuevos métodos de violación de derechos humanos. O puede dar una visión del desarrollador inadecuada al contexto socioeconómico cultural, con sesgos, produciendo una brecha digital.

Manjarrés se pregunta si es realmente la Inteligencia Artificial una tecnología apropiada en contextos de pobreza y cita la existencia de:

  • Insuficiencia de las soluciones basadas en datos
  • Aplicaciones críticas que requieren alta seguridad y fiabilidad

  • Desconfianza de la población en la inmadurez de las técnicas IA y en su impacto

  • Condiciones socio-económicas inapropiadas: recursos e infraestructiras de computación, comunicación, sensorización deficientes; falta de recursos humanos capacitados.

  • Escasez de datos históricos, actuales: coste prohibitivo de recopilación y etiquetado; contextos muy idiosincráticos no generalizables; dificultad de acceso a datos no abiertos; datos inexactos, con mucho ruido.

Los principios de la IA son, según Fjeld:

Equidad y no discriminación; control humano de la tecnología; responsabilidad profesional; promoción de valores humanos; privacidad, responsabilidad; seguridad; transparencia y explicación.

La próxima conferencia de este seminario diseñado por la UNED para Ourense tendrá lugar el viernes, día 9 de abril con la intervención del profesor ayudante y doctor Andrés Duque Fernández, que hablará sobre traducción automática. Evolución histórica, aproximaciones actuales y desafíos abiertos. Este seminario cuenta con el apoyo del Vicerrectorado de Investigación, Transferencia del Conocimiento y Divulgación de la UNED.

 

Ver la conferencia de Ángeles Manjarrés aquí

 

UNED Ourense

Comunicación   

  Acabar con la violencia contra mujeres y niñas en Ugand Acabar con la violencia contra mujeres y niñas en Ugand

Carretera de Vigo Torres do Pino  s/n Baixo 32001 Ourense - . Tel. 988371444 info@ourense.uned.es