Nuevo informe sobre la Explicabilidad en la Inteligencia Artificial

La Inteligencia Artificial Explicable permite a los usuarios entender por qué un algoritmo ha dado un determinado resultado.

Comparte
Comparte
31 ENERO 2023

El equipo de Inteligencia Artificial de la Fundación TIC Salud Social ha publicado el Informe sobre Explicabilidad de la Inteligencia Artificial en Salud, en el marco del Programa Salud/IA de la Generalidad de Cataluña. El documento describe los beneficios del uso de herramientas de explicabilidad en Inteligencia Artificial, y presenta las principales técnicas de explicabilidad de algoritmos basados en imagen médica digital, datos tabulares y procesamiento de lenguaje natural, con el objetivo de apoyar a las personas involucradas en el desarrollo de algoritmos de Inteligencia Artificial en el ámbito de la salud.

La Inteligencia Artificial Explicable permite a los usuarios entender por qué un algoritmo ha dado un determinado resultado. La autora principal del informe y responsable del Área de Inteligencia Artificial de la Fundación TIC Salud Social, Susanna Aussó, explica que “es capital que los profesionales de la salud comprendan los mecanismos por los que la herramienta de Inteligencia Artificial ha llegado a una predicción. Este conocimiento es esencial para mejorar la confianza de las personas usuarias, ya que les otorgan herramientas para comprobar si la respuesta se ha basado en criterios de solvencia clínica. Existen varios formatos de explicabilidad, y es necesario acordar con los expertos cuál es el formato más adecuado en cada caso. Normalmente se trata de formatos muy visuales que pueden combinarse en función de las necesidades”.

 

¿Qué puede aportar la Inteligencia Artificial Explicable?

El uso de la Inteligencia Artificial en el ámbito de la salud está en constante crecimiento, gracias a la disponibilidad de registros electrónicos de salud y la gran diversidad de datos relacionados, así como al gran potencial de esta tecnología para mejorar la salud y el bienestar de las personas.

Algunos centros de salud hacen uso de la Inteligencia Artificial para apoyar principalmente el diagnóstico, pronóstico y tratamiento de determinadas enfermedades. De hecho, el Observatorio de IA en Salud ya ha detectado cerca de 100 algoritmos de Inteligencia Artificial que están en fase de desarrollo o se están utilizando de forma controlada.

Esta tecnología se utiliza como herramienta de apoyo para la toma de decisiones, puesto que el personal sanitario tiene la última palabra y toma la decisión final. Sin embargo, es importante que esta decisión se adopte desde el conocimiento que aportan las herramientas de explicabilidad. Sin estas herramientas, los modelos de Inteligencia Artificial actúan como una “caja negra” que no permiten entender qué ocurre; esta problemática es la que precisamente quiere solucionar la Inteligencia Artificial Explicable.

Para poder ser capaz de explicar el modelo de aprendizaje automático en términos humanos, la Inteligencia Artificial Explicable debe dar respuesta a aspectos relacionados con la corrección, robustez, sesgo, mejora, transferibilidad y comprensión humana del modelo. De esta forma, se consigue mejorar la confianza de los profesionales, ya que podrán entender las limitaciones y dificultades, y simplificar y relacionar con conceptos más fáciles; implicar a las partes interesadas para construir un modelo intuitivo entendedor; y realizar mejores modelos eliminando los errores e identificando escenarios injustos producidos por posibles sesgos.

 

Taxonomía de la Inteligencia Artificial Explicable

Ante la falta de consenso en la clasificación de las técnicas que siguen a los modelos de Inteligencia Artificial Explicable, el informe describe diferentes modelos de taxonomía: explicabilidad intrínseca y post hoc; explicabilidad global y local; modelos transparentes y opacos; y técnicas agnósticas en el modelo y dependientes del modelo.

 

Explicabilidad de algoritmos basados en imagen médica digital, datos tabulares y procesamiento de lenguaje natural

El informe recoge en tres capítulos específicos los distintos métodos de explicabilidad según el origen de los datos. En primer lugar, expone los métodos de explicación de los algoritmos basados en imagen médica digital, como por ejemplo, las radiografías o resonancias magnéticas, entre otros. Los métodos principales son el CAM (mapeo de activación de clase), GRAD-CAM (mapeo de activación de clase ponderado por gradiente), LRP (propagación de la relevancia por capas), LIME (explicaciones agnósticas al modelo interpretables a nivel local ), y SHAP (explicaciones aditivas de Shapley).

En segundo lugar, describe la explicabilidad de los algoritmos basados en datos tabulares; es decir, en variables que proceden por ejemplo de analíticas, datos ómicos o constantes vitales, hasta datos de gestión hospitalaria, entre otros. En este caso, las técnicas presentadas son PDP (gráfico de dependencia parcial), ICE (expectativa condicional individual), C-ICE (ICE centrado), counterfactual explanations, LIME (explicaciones agnósticas al modelo interpretables a nivel local), anchors, y SHAP (explicaciones aditivas de Shapley).

Por último, el documento aborda la explicabilidad de algoritmos basados en el procesamiento de lenguaje natural, que permite, por ejemplo, extraer información estructurada a partir de un informe con texto libre con datos de diagnósticos, tratamientos o seguimiento. Las técnicas especificadas para este tipo de explicabilidad son SHAP (explicaciones aditivas de Shapley), GbSA (análisis de la sensibilidad basada en gradientes), LRP (propagación de la relevancia por capas) y LIME (explicaciones agnósticas al modelo interpretables a nivel local ).