OURENSE, 26 de marzo de 2021.- La profesora doctora de la UNED, Ángeles Manjarrés Riesco, habló esta mañana de la relación entre la IA y los Objetivos de Desarrollo Sostenible de la ONU (ODS). Lo hizo dentro del seminario que la Universidad esté celebrando en Ourense sobre IA, a través del Centro de Intelixencia Artificial del Concello de Ourense. Manjarrés dijo que en la relación entre IA y los ODS es precisa "una llamada de atención para impulsar la IA para la igualdad, (en inglés con las siglas AI4Eq. Artificial Intelligence for Equity) que constituye un enorme campo por explorar, con estudio de experiencias, paradigmas, herramientas metodológicas y técnicas propias. El trabajo futuro pasa por la IA “como soporte a paradigmas de desarrollo alternativos, más sostenibles y resilientes, con énfasis en la equidad y en la sostenibilidad de la vida”. Manjarrés fue relatando la aplicación de la IA para cada uno de los ODS de la ONU y así, por ejemplo, en el Objetivo 6, dedicado al Agua limpia y saneamiento, la IA puede ser utilizada como:
Habló del aprendizaje-servicio en la asignatura Aplicaciones de la IA para el Desarrollo Humano Sostenible, en el Máster en Investigación IA de la UNED y de una pedagogía activa, participativa, constructivista y experiencial. La AI4Eq requiere formación de profesionales cuyo curriculum esté alineado con los ODS.
A modo de ilustración, la ponente se refirió también a la necesidad de verificación de la discriminación por sesgos en los algoritmos de aprendizaje. Mencionó la inequidad en las soluciones de IA para la COVID-19 con unos sistemas de diagnóstico y tratamiento en los que se detecta una falta de transparencia e interpretabilidad así como sesgos que se ven en la enmarcación del problema, en los datos de entrenamiento (muestras demográficas limitadas, escaso equipamiento en regiones más desfavorecidas); en el etiquetado, en la elección de proxys; en la elección y sintonización de algoritmos, en la evaluación e interpretación de resultados y en la falta de transparencia del sector privado (vacunas). Puso como ejemplo el diagnóstico basado en imágenes pulmonares sin consideración de la prevalencia de tuberculosis o VHI, sin adecuada trazabilidad y discriminación de poblaciones, falta de escáneres y radiólogos en regiones desfavorecidas.
Hay adicionalmente infodemia, es decir, desinformación sobre COVID-19 focalizada en los ciudadanos más vulnerables.
Un enfoque apropiado de las soluciones IA para la COVID-19 ha de tener en cuenta: sensibilidad al contexto, participación de expertos locales, evaluación de sesgos en cada etapa del proceso de desarrollo; compartición de datos y modelos, uso de métodos híbridos: complementar con conocimiento experto y datos clínicos; basado en móviles, reproductibilidad, recopilación de datos suficientes y precisos, incluyendo raza y etnia, en base a perfiles de inmunidad completos (genética, factores ambientales, nutrición, localización geográfica…); etiquetado adecuado y mecanismos de auditoría y examen de sesgos. Ángeles Manjarrés señaló que en esa inequidad se notan fallos de modelos al evaluar las tendencias de transmisión en Europa y África, faltan datos sobre asentamientos informales, sin apps de rastreo.
La doctora señaló que la Inteligencia Artificial para la Equidad necesita herramientas de intervenciones para el desarrollo; técnicas que requieren pocos recursos energéticos; ciencia ciudadana y enfoques centrados en la comunidad, directrices de Ciencia de Datos; herramientas de explicabilidad; técnicas soft-computing; IA de bajo coste, abierta; sistemas sensibles al contexto y a valores así como modelos híbridos basados en datos y conocimiento. También precisa medición de impacto por diseño, equidad por diseño, privacidad por diseño; democracia por diseño, paradigma de ciudadano inteligente además de técnicas generales para el desarrollo de la IA ética (agentes morales, técnicas para prevención y medida de justicia algorítmica e integridad de datos, diseño transparente, evaluación de riesgos…) También necesita tecnologías coadyuvantes de interés como Edge computing ó Blockchain; P2P entre otras.
Cuestiones relevantes en la AI4Eq son:
Por otro lado, gobiernos e instituciones deben apoyar a la industria en la reconversión del mercado laboral y colaborando con la industria y la academia. En este ámbito destaca la ponente legislación y gobernanza basada en blockchain; salvaguardas legales y políticas de la privacidad; adaptación de los instrumentos internacionales de derechos Humanos a la era digital y regulación internacional de la IA, encabezada por la ONU, alineada con la Declaración Universal de los Derechos Humanos y la ley internacional.
Gobiernos e instituciones tienen que promover la I+D con la investigación en IA y tecnologías coadyuvantes; infraestructuras compartidas; datos accesibles, fiables, abiertos y respetuosos con los DD HH; destinos y territorios inteligentes (monitorización de ecosistemas, etc); investigación en equipos multidisciplinares de la interdependencia IA-Derechos Humanos pues “la mala comprensión de cómo funcionan las nuevas tecnologías puede resultar en regulaciones subóptimas e ineficaces”.
Gobiernos e instituciones tienen que promover la educación, capacitando a profesionales cualificados, fomentando vocaciones técnico-científicas; establecer un paradigma educativo de formación continua.
La IA puede afectar de modo negativo a los ODS relacionados con la equidad y la sostenibilidad dentro de los países y entre países. Esto se puede ver, señaló Manjarrés, en un consumo de recursos computacionales masivos, ineficiencia que deriva en sobreexplotación y la degradación ambiental que tiende a afectar a las comunidades marginadas. Puede, además, producir competencia por materias primas de la tecnología digital lo que deriva en conflictos bélicos, sobreexplotación, mano de obra esclava. Todo ello redunda en efectos adversos en derechos humanos y en democracia pues surgen nuevas modalidades de dominación con estructuras patriarcales, vulneración de la privacidad y falta de acceso a servicios sociales. También puede ocasionar la sustitución de la atención personalizada por servicios automáticos, lo que deriva en pérdida de destrezas profesionales y en una degradación de servicios para sectores desfavorecidos.
Igualmente la IA puede afectar negativamente originando una capacitación profesional desigual, con efectos adversos en el empleo, lo que conlleva pobreza y exclusión. Puede también traer consecuencias indeseadas para la Ciencia de Datos al manejar datos no representativos, defectuosos o sesgados. El sesgo amplía y perpetúa discriminaciones y estereotipos de grupos minoritarios y vulnerables.
Otra manera de que la IA pueda afectar negativamente a los ODS relacionados con la equidad y la sostenibilidad es que se dé un acceso desigual a conocimientos y recursos tecnológicos con la monopolización y empoderamiento desigual, es decir, con desequilibrio de poder en el mercado, con brecha digital y nuevos métodos de violación de derechos humanos. O puede dar una visión del desarrollador inadecuada al contexto socioeconómico cultural, con sesgos, produciendo una brecha digital.
Manjarrés se pregunta si es realmente la Inteligencia Artificial una tecnología apropiada en contextos de pobreza y cita la existencia de:
Equidad y no discriminación; control humano de la tecnología; responsabilidad profesional; promoción de valores humanos; privacidad, responsabilidad; seguridad; transparencia y explicación.
La próxima conferencia de este seminario diseñado por la UNED para Ourense tendrá lugar el viernes, día 9 de abril con la intervención del profesor ayudante y doctor Andrés Duque Fernández, que hablará sobre traducción automática. Evolución histórica, aproximaciones actuales y desafíos abiertos. Este seminario cuenta con el apoyo del Vicerrectorado de Investigación, Transferencia del Conocimiento y Divulgación de la UNED.
Ver la conferencia de Ángeles Manjarrés aquí
UNED Ourense
Comunicación
Acabar con la violencia contra mujeres y niñas en Ugand Acabar con la violencia contra mujeres y niñas en Ugand