OURENSE, 26 de marzo de 2021.- A profesora doutora da UNED, Ángeles Manjarrés, falou esta mañá da relación entre a IA e os Obxectivos de Desenvolvemento Sostible da ONU (ODS). Fíxoo dentro do seminario que a Universidade estea a celebrar en Ourense sobre IA, a través do Centro de Intelixencia Artificial do Concello de Ourense. Manjarrés dixo que na relación entre IA e os ODS é precisa "unha chamada de atención para impulsar a IA para a igualdade, (en inglés coas siglas AI4 Eq. Artificial Intelligence for Equity) que constitúe un enorme campo por explorar, con estudo de experiencias, paradigmas, ferramentas metodolóxicas e técnicas propias. O traballo futuro pasa pola IA “como soporte a paradigmas de desenvolvemento alternativos, máis sostibles e resilientes, con énfases na equidade e na sustentabilidade da vida”. Manjarrés foi relatando a aplicación da IA para cada un dos ODS da ONU e así, por exemplo, no Obxectivo 6, dedicado ao Auga limpa e saneamento, a IA pode ser utilizada como:
A relatora expuxo que a AI4 Eq pode catalizar a necesaria transformación cara ao mundo equitativo e sostible da Axenda 2030. Engadiu que require un esforzo coordinado (en cogerencia co ODS 17) multinivel, multiactor e que implique a investigadores e profesionais da IA, da ética, tamén do mundo da lexislación, dos dereitos humanos, da innovación, etc. Deberá implicar tamén a educadores de múltiples disciplinas; a representantes dos sectores público e privado, a gobernos e institucións nacionais e internacionais. Igualmente debe implicar ao terceiro sector e á sociedade civil.
Falou tamén da aprendizaxe-servizo na materia Aplicacións da IA para o Desenvolvemento Humano Sostible, no Máster en Investigación IA da UNED e dunha pedagoxía activa, participativa, constructivista e experiencial. A AI4 Eq require formación de profesionais cuxo curriculum estea aliñado cos ODS.
A modo de ilustración, a relatora referiuse tamén á necesidade de verificación da discriminación por rumbos nos algoritmos de aprendizaxe. Mencionou a inequidad nas solucións de IA para a Covid-19 cuns sistemas de diagnóstico e tratamento nos que se detecta unha falta de transparencia e interpretabilidade así como rumbos que ven na enmarcación do problema, nos datos de adestramento (mostras demográficas limitadas, escaso equipamento en rexións máis desfavorecidas); na etiquetaxe, na elección de proxys; na elección e sintonización de algoritmos, na avaliación e interpretación de resultados e na falta de transparencia do sector privado (vacúas). Puxo como exemplo o diagnóstico baseado en imaxes pulmonares sen consideración da prevalencia de tuberculose ou VHI, sen adecuada trazabilidad e discriminación de poboacións, falta de escáneres e radiólogos en rexións desfavorecidas.
Hai adicionalmente infodemia, é dicir, desinformación sobre COVID-19 focalizada nos cidadáns máis vulnerables.
Un enfoque apropiado das solucións IA para a COVID-19 ha de ter en conta: sensibilidade ao contexto, participación de expertos locais, avaliación de rumbos en cada etapa do proceso de desenvolvemento; compartición de datos e modelos, uso de métodos híbridos: complementar con coñecemento experto e datos clínicos; baseado en móbiles, reproductibilidad, recompilación de datos suficientes e precisos, incluíndo raza e etnia, en base a perfís de inmunidade completos (xenética, factores ambientais, nutrición, localización xeográfica…); etiquetado axeitado e mecanismos de auditoría e exame de rumbos. Ángeles Manjarrés sinalou que nesa inequidad nótanse fallos de modelos ao avaliar as tendencias de transmisión en Europa e África, faltan datos sobre asentamentos informais, sen apps de rastrexo.
A doutora sinalou que a Intelixencia Artificial para a Equidade necesita ferramentas de intervencións para o desenvolvemento; técnicas que requiren poucos recursos enerxéticos; ciencia cidadá e enfoques centrados na comunidade, directrices de Ciencia de Datos; ferramentas de explicabilidad; técnicas soft- computing; IA de baixo custo, aberta; sistemas sensibles ao contexto e a valores así como modelos híbridos baseados en datos e coñecemento. Tamén precisa medición de impacto por deseño, equidade por deseño, privacidade por deseño; democracia por deseño, paradigma de cidadán intelixente ademais de técnicas xerais para o desenvolvemento da IA ética (axentes morais, técnicas para prevención e medida de xustiza algorítmica e integridade de datos, deseño transparente, avaliación de riscos…) Tamén necesita tecnoloxías coadxuvantes de interese como Edge computing ó Blockchain; P2 P entre outras.
Cuestións relevantes na AI4 Eq son:
Doutra banda, gobernos e institucións deben apoiar á industria na reconversión do mercado laboral e colaborando coa industria e a academia. Neste ámbito destaca a relatora lexislación e gobernanza baseada en blockchain; salvagardas legais e políticas da privacidade; adaptación dos instrumentos internacionais de dereitos Humanos á era dixital e regulación internacional da IA, encabezada pola ONU, aliñada coa Declaración Universal dos Dereitos Humanos e a lei internacional.
Gobernos e institucións teñen que promover a I+D coa investigación en IA e tecnoloxías coadxuvantes; infraestruturas compartidas; datos accesibles, fiables, abertos e respectuosos cos DD HH; destinos e territorios intelixentes (monitoraxe de ecosistemas, etc); investigación en equipos multidisciplinares da interdependencia IA-Dereitos Humanos pois “a mala comprensión de como funcionan as novas tecnoloxías pode resultar en regulacións subóptimas e ineficaces”.
Gobernos e institucións teñen que promover a educación, capacitando a profesionais cualificados, fomentando vocacións técnico-científicas; establecer un paradigma educativo de formación continua.
A IA pode afectar de modo negativo aos ODS relacionados coa equidade e a sustentabilidade dentro dos países e entre países. Isto pódese ver, sinalou Manjarrés, nun consumo de recursos computacionales masivos, ineficiencia que deriva en sobreexplotación e a degradación ambiental que tende a afectar as comunidades marxinadas. Pode, ademais, producir competencia por materias primas da tecnoloxía dixital o que deriva en conflitos bélicos, sobreexplotación, man de obra escrava. Todo iso redunda en efectos adversos en dereitos humanos e en democracia pois xorden novas modalidades de dominación con estruturas patriarcais, vulneración da privacidade e falta de acceso a servizos sociais. Tamén pode ocasionar a substitución da atención personalizada por servizos automáticos, o que deriva en perda de destrezas profesionais e nunha degradación de servizos para sectores desfavorecidos.
Igualmente a IA pode afectar negativamente orixinando unha capacitación profesional desigual, con efectos adversos no emprego, o que conleva pobreza e exclusión. Pode tamén traer consecuencias indeseadas para a Ciencia de Datos ao manexar datos non representativos, defectuosos ou nesgados. O rumbo amplía e perpetúa discriminacións e estereotipos de grupos minoritarios e vulnerables.
Outra maneira de que a IA poida afectar negativamente aos ODS relacionados coa equidade e a sustentabilidade é que se dea un acceso desigual a coñecementos e recursos tecnolóxicos coa monopolización e empoderamento desigual, é dicir, con desequilibrio de poder no mercado, con fenda dixital e novos métodos de violación de dereitos humanos. Ou pode dar unha visión do desarrollador inadecuada ao contexto socioeconómico cultural, con rumbos, producindo unha fenda dixital.
Manjarrés pregúntase se é realmente a Intelixencia Artificial unha tecnoloxía apropiada en contextos de pobreza e cita a existencia de:
A próxima conferencia deste seminario deseñado pola UNED para Ourense terá lugar o venres, día 9 de abril coa intervención do profesor axudante doutor Andrés Duque Fernández, que falará sobre Traducción automática. Evolución histórica, aproximacións actuais e desafíos abertos. Este seminario conta co apoio do Vicerreitorado de Investigación, Transferencia do Coñecemento e Divulgación da UNED.
Ver a conferencia de Ángeles Manjarrés aquí
UNED Ourense
Comunicación