XAI implica diseñar sistemas de IA que puedan explicar su proceso de toma de decisiones a través de diversas técnicas. La XAI debería permitir a los observadores externos comprender mejor cómo se produce el resultado de un sistema de IA y qué tan confiable es. Esto es importante porque la IA puede provocar efectos adversos directos e indirectos, que pueden afectar a las personas y las sociedades.
Así como explicar qué comprende la IA, explicar sus resultados y funcionamiento también puede ser desalentador, especialmente cuando entran en juego los sistemas de IA de aprendizaje profundo. Para que aquellos que no son especialistas visualicen cómo la IA aprende y descubre nueva información, se puede sostener que estos sistemas utilizan circuitos complejos en su núcleo interno, que tienen una forma similar a las redes neuronales en el cerebro humano.
Las redes neuronales que facilitan la toma de decisiones de la IA a menudo se denominan sistemas de “aprendizaje profundo”. Se debate hasta qué punto las decisiones a las que llegan los sistemas de aprendizaje profundo son opacas o inescrutables, y hasta qué punto la IA y su “pensamiento” pueden y deben ser explicables a los humanos comunes.
El aprendizaje profundo a veces se considera una “caja negra”, lo que significa que puede ser difícil entender el comportamiento del modelo del aprendizaje profundo y cómo toma sus decisiones. La “explicabilidad” (argumentación) busca facilitar las explicaciones del aprendizaje profundo. Hay investigaciones en curso acerca de la evaluación de diferentes métodos de explicación..
El aprendizaje profundo y las cajas negras
Existe un debate entre los académicos sobre si los sistemas de aprendizaje profundo son realmente cajas negras o completamente transparentes. Sin embargo, el consenso general es que la mayoría de las decisiones deberían ser explicables hasta cierto punto. Esto es importante porque la implementación de sistemas de IA por parte de entidades estatales o comerciales puede afectar negativamente a las personas, por lo que es crucial garantizar que estos sistemas sean responsables y transparentes.
Por ejemplo, el caso de Systeem Risico Indicatie (SyRI), es un ejemplo destacado que ilustra la necesidad de una IA explicable en la toma de decisiones del gobierno. SyRI era un sistema automatizado de toma de decisiones que usaba IA desarrollado por organizaciones semi-gubernamentales holandesas que usaban datos personales y otras herramientas para identificar posibles fraudes a través de procesos poco transparentes que luego se clasificaron como cajas negras.
El sistema fue objeto de escrutinio por su falta de transparencia y rendición de cuentas, tanto tribunales nacionales como organismos internacionales expresaron que violaba la privacidad y varios derechos humanos. El caso de SyRi ilustra cómo las aplicaciones gubernamentales de IA pueden afectar a los humanos, al replicar y amplificar los sesgos y la discriminación. SyRi apuntó injustamente a personas y comunidades vulnerables, como las poblaciones minoritarias y de bajos ingresos.
SyRi tenía como objetivo encontrar posibles estafadores del bienestar social etiquetando a ciertas personas como de alto riesgo. SyRi, como sistema de detección de fraude, solo se ha implementado para analizar a las personas en vecindarios de bajos ingresos, ya que dichas áreas se consideraban zonas “problemáticas”. Como el Estado solo implementó el análisis de riesgo de SyRI en comunidades que ya se consideraban de alto riesgo, no es de extrañar que se encontraran más ciudadanos de alto riesgo allí (con respecto a otros vecindarios que no se consideran de “alto riesgo”).
Esta etiqueta, a su vez, alentaría la creación de estereotipos y reforzaría una imagen negativa de los residentes que vivían en esos barrios (incluso si no se mencionaron en un informe de riesgo o se calificaron como “no-hit”) debido a las bases de datos integrales de organizaciones cruzadas. en el que dichos datos ingresaron y se reciclaron en las instituciones públicas. El caso ilustra que cuando los sistemas de IA producen resultados adversos no deseados, como sesgos, pueden pasar desapercibidos si falta transparencia y control externo.
Además de los Estados, las empresas privadas desarrollan o implementan muchos sistemas de IA con transparencia y explicabilidad superadas por otros intereses. Aunque se puede argumentar que las estructuras actuales que permiten la IA no existirían en sus formas actuales si no fuera por la financiación del gobierno anterior, una proporción significativa del progreso logrado en la IA hoy en día es financiado de forma privada y está aumentando constantemente . De hecho, la inversión privada en IA en 2022 fue 18 veces mayor que en 2013. Aunque, parece que la incertidumbre financiera ha ralentizado la inversión en 2022.