Mapa web
Youtube
Instagram
Campus UNED

A doutora Ángeles Manjarrés fixo unha chamada de atención que permita impulsar a Intelixencia Artificial para a igualdade dos pobos

26 de marzo de 2021

A relatora explicou no seminario da UNED en Ourense a relación da IA coa Axenda 2030 e que pode facer para potenciar os 17 Obxectivos de Desenvolvemento Sostible (ODS) da ONU.

OURENSE, 26 de marzo de 2021.- A profesora doutora da UNED, Ángeles Manjarrés, falou esta mañá da relación entre a IA e os Obxectivos de Desenvolvemento Sostible da ONU (ODS). Fíxoo dentro do seminario que a Universidade estea a celebrar en Ourense sobre IA, a través do Centro de Intelixencia Artificial do Concello de Ourense. Manjarrés dixo que na relación entre IA e os ODS é precisa "unha chamada de atención para impulsar a IA para a igualdade, (en inglés coas siglas AI4 Eq. Artificial Intelligence for Equity) que constitúe un enorme campo por explorar, con estudo de experiencias, paradigmas, ferramentas metodolóxicas e técnicas propias. O traballo futuro pasa pola IA “como soporte a paradigmas de desenvolvemento alternativos, máis sostibles e resilientes, con énfases na equidade e na sustentabilidade da vida”. Manjarrés foi relatando a aplicación da IA para cada un dos ODS da ONU e así, por exemplo, no Obxectivo 6, dedicado ao Auga limpa e saneamento, a IA pode ser utilizada como:

  •  Soporte a servizos de saneamento e hixiene e a súa gobernanza
  •  Soporte á xestión integrada de recursos hídricos: predición de precipitacións, secas, presenza de bacterias, optimización de custos; planificación de instalacións, reparacións…; modelado/optimización de procesos de depuración e eliminación de contaminantes, monitoraxe de fluxos, detección de fugas e outros fallos en infraestruturas; simulación de redes de distribución, simulación de intervencións humanas (con realidade virtual e aumentada)
  •  Soporte á xestión e gobernanza de ecosistemas Fuentes de datos: sensorización de ecosistemas e infraestruturas en tempo real, datos históricos de comportamento de infraestruturas 
Nacións Unidas está a aplicar IA en proxectos de interese como o de identificación de colleitas favorables en Áreas de Produción de Arroz en Indonesia, no uso de Rexistros de Chamadas para a Comprensión da Integración de Refuxiados en Turquía; tamén está o proxecto After Dark para favorecer o tránsito seguro para mulleres que viaxan de noite en Jakarta, ou o acabar coa violencia contra mulleres e nenas en Uganda sen esquecer o proxecto de estender a arte do Posible con Big Data para dar resposta informada ao COVID-19 en Jakarta.

 A relatora expuxo que a AI4 Eq pode catalizar a necesaria transformación cara ao mundo equitativo e sostible da Axenda 2030. Engadiu que require un esforzo coordinado (en cogerencia co ODS 17) multinivel, multiactor e que implique a investigadores e profesionais da IA, da ética, tamén do mundo da lexislación, dos dereitos humanos, da innovación, etc. Deberá implicar tamén a educadores de múltiples disciplinas; a representantes dos sectores público e privado, a gobernos e institucións nacionais e internacionais. Igualmente debe implicar ao terceiro sector e á sociedade civil.

 Falou tamén da aprendizaxe-servizo na materia Aplicacións da IA para o Desenvolvemento Humano Sostible, no Máster en Investigación IA da UNED e dunha pedagoxía activa, participativa, constructivista e experiencial. A AI4 Eq require formación de profesionais cuxo curriculum estea aliñado cos ODS.

A modo de ilustración, a relatora referiuse tamén á necesidade de verificación da discriminación por rumbos nos algoritmos de aprendizaxe. Mencionou a inequidad nas solucións de IA para a Covid-19 cuns sistemas de diagnóstico e tratamento nos que se detecta unha falta de transparencia e interpretabilidade así como rumbos que ven na enmarcación do problema, nos datos de adestramento (mostras demográficas limitadas, escaso equipamento en rexións máis desfavorecidas); na etiquetaxe, na elección de proxys; na elección e sintonización de algoritmos, na avaliación e interpretación de resultados e na falta de transparencia do sector privado (vacúas). Puxo como exemplo o diagnóstico baseado en imaxes pulmonares sen consideración da prevalencia de tuberculose ou VHI, sen adecuada trazabilidad e discriminación de poboacións, falta de escáneres e radiólogos en rexións desfavorecidas.

Hai adicionalmente infodemia, é dicir, desinformación sobre COVID-19 focalizada nos cidadáns máis vulnerables.

Un enfoque apropiado das solucións IA para a COVID-19 ha de ter en conta: sensibilidade ao contexto, participación de expertos locais, avaliación de rumbos en cada etapa do proceso de desenvolvemento; compartición de datos e modelos, uso de métodos híbridos: complementar con coñecemento experto e datos clínicos; baseado en móbiles, reproductibilidad, recompilación de datos suficientes e precisos, incluíndo raza e etnia, en base a perfís de inmunidade completos (xenética, factores ambientais, nutrición, localización xeográfica…); etiquetado axeitado e mecanismos de auditoría e exame de rumbos. Ángeles Manjarrés sinalou que nesa inequidad nótanse fallos de modelos ao avaliar as tendencias de transmisión en Europa e África, faltan datos sobre asentamentos informais, sen apps de rastrexo.

A doutora sinalou que a Intelixencia Artificial para a Equidade necesita ferramentas de intervencións para o desenvolvemento; técnicas que requiren poucos recursos enerxéticos; ciencia cidadá e enfoques centrados na comunidade, directrices de Ciencia de Datos; ferramentas de explicabilidad; técnicas soft- computing; IA de baixo custo, aberta; sistemas sensibles ao contexto e a valores así como modelos híbridos baseados en datos e coñecemento. Tamén precisa medición de impacto por deseño, equidade por deseño, privacidade por deseño; democracia por deseño, paradigma de cidadán intelixente ademais de técnicas xerais para o desenvolvemento da IA ética (axentes morais, técnicas para prevención e medida de xustiza algorítmica e integridade de datos, deseño transparente, avaliación de riscos…) Tamén necesita tecnoloxías coadxuvantes de interese como Edge computing ó Blockchain; P2 P entre outras.

Cuestións relevantes na AI4 Eq son:

  •  Uso do enfoque baseado nos Dereitos Humanos con tecnoloxía apropiada, con promoción de autonomía/empoderamento, ademais de consideracións éticas, psicolóxicas, legais filosóficas no desenvolvemento e implantación: necesidade de equipos multidisciplinares e medida de impacto en Dereitos Humanos
  •  Atención ás prioridades locais ODS
  •  Implicación do sector privado
  •  Consideración do contexto lexislativo e político
  •  Como afectan os seguintes aspectos ás poboacións vulnerables: privacidade, explicabilidad, transparencia, trazabilidad, apertura, robustez, seguridade, viabilidade, inclusión e consideracións psicolóxicas e filosóficas.
Ángeles Manjarrés falou do papel que ha de desempeñar a industria, con autorregulación, mantemento de emprego, capacitación de profesionais e colaboración coa academia e co goberno.

Doutra banda, gobernos e institucións deben apoiar á industria na reconversión do mercado laboral e colaborando coa industria e a academia. Neste ámbito destaca a relatora lexislación e gobernanza baseada en blockchain; salvagardas legais e políticas da privacidade; adaptación dos instrumentos internacionais de dereitos Humanos á era dixital e regulación internacional da IA, encabezada pola ONU, aliñada coa Declaración Universal dos Dereitos Humanos e a lei internacional.

Gobernos e institucións teñen que promover a I+D coa investigación en IA e tecnoloxías coadxuvantes; infraestruturas compartidas; datos accesibles, fiables, abertos e respectuosos cos DD HH; destinos e territorios intelixentes (monitoraxe de ecosistemas, etc); investigación en equipos multidisciplinares da interdependencia IA-Dereitos Humanos pois “a mala comprensión de como funcionan as novas tecnoloxías pode resultar en regulacións subóptimas e ineficaces”.

Gobernos e institucións teñen que promover a educación, capacitando a profesionais cualificados, fomentando vocacións técnico-científicas; establecer un paradigma educativo de formación continua.

A IA pode afectar de modo negativo aos ODS relacionados coa equidade e a sustentabilidade dentro dos países e entre países. Isto pódese ver, sinalou Manjarrés, nun consumo de recursos computacionales masivos, ineficiencia que deriva en sobreexplotación e a degradación ambiental que tende a afectar as comunidades marxinadas. Pode, ademais, producir competencia por materias primas da tecnoloxía dixital o que deriva en conflitos bélicos, sobreexplotación, man de obra escrava. Todo iso redunda en efectos adversos en dereitos humanos e en democracia pois xorden novas modalidades de dominación con estruturas patriarcais, vulneración da privacidade e falta de acceso a servizos sociais. Tamén pode ocasionar a substitución da atención personalizada por servizos automáticos, o que deriva en perda de destrezas profesionais e nunha degradación de servizos para sectores desfavorecidos.

Igualmente a IA pode afectar negativamente orixinando unha capacitación profesional desigual, con efectos adversos no emprego, o que conleva pobreza e exclusión. Pode tamén traer consecuencias indeseadas para a Ciencia de Datos ao manexar datos non representativos, defectuosos ou nesgados. O rumbo amplía e perpetúa discriminacións e estereotipos de grupos minoritarios e vulnerables.

Outra maneira de que a IA poida afectar negativamente aos ODS relacionados coa equidade e a sustentabilidade é que se dea un acceso desigual a coñecementos e recursos tecnolóxicos coa monopolización e empoderamento desigual, é dicir, con desequilibrio de poder no mercado, con fenda dixital e novos métodos de violación de dereitos humanos. Ou pode dar unha visión do desarrollador inadecuada ao contexto socioeconómico cultural, con rumbos, producindo unha fenda dixital.

Manjarrés pregúntase se é realmente a Intelixencia Artificial unha tecnoloxía apropiada en contextos de pobreza e cita a existencia de:

  •  Insuficiencia das solucións baseadas en datos
  •  Aplicacións críticas que requiren alta seguridade e fiabilidade
  •  Desconfianza da poboación na inmaturidade das técnicas IA e no seu impacto
  •  Condiciones socio-económicas inapropiadas: recursos e infraestructiras de computación, comunicación, sensorización deficientes; falta de recursos humanos capacitados
  •  Escaseza de datos históricos, actuais: custo prohibitivo de recompilación e etiquetaxe; contextos moi idiosincráticos non xeneralizables; dificultade de acceso a datos non abertos; datos inexactos, con moito ruído.
Por último, a relatora sinalou os principios da IA, segundo Fjeld: equidade e non discriminación; control humano da tecnoloxía; responsabilidade profesional; promoción de valores humanos; privacidade, responsabilidade; seguridade; transparencia e explicación.

próxima conferencia deste seminario deseñado pola UNED para Ourense terá lugar o venres, día 9 de abril coa intervención do profesor axudante doutor Andrés Duque Fernández, que falará sobre Traducción automática. Evolución histórica, aproximacións actuais e desafíos abertos. Este seminario conta co apoio do Vicerreitorado de Investigación, Transferencia do Coñecemento e Divulgación da UNED.

 

Ver a conferencia de Ángeles Manjarrés aquí

UNED Ourense

Comunicación

Carretera de Vigo Torres do Pino  s/n Baixo 32001 Ourense - . Tel. 988371444 info@ourense.uned.es