Nou informe sobre l’Explicabilitat en la Intel·ligència Artificial

La Intel·ligència Artificial Explicable permet a les persones usuàries entendre per què un algorisme ha donat un determinat resultat.

Comparteix
Comparteix
31 GENER 2023

L’equip d’Intel·ligència Artificial de la Fundació TIC Salut Social ha publicat l’Informe sobre Explicabilitat de la Intel·ligència Artificial en Salut, en el marc del Programa Salut/IA de la Generalitat de Catalunya. El document descriu els beneficis de l’ús d’eines d’explicabilitat en Intel·ligència Artificial, i presenta les principals tècniques d’explicabilitat d’algorismes basats en imatge mèdica digital, dades tabulars i processament de llenguatge natural, amb l’objectiu de donar suport a les persones involucrades en el desenvolupament d’algorismes d’Intel·ligència Artificial en l’àmbit de la salut.

La Intel·ligència Artificial Explicable permet a les persones usuàries entendre per què un algorisme ha donat un determinat resultat. L’autora principal de l’informe i responsable de l’Àrea d’Intel·ligència Artificial de la Fundació TIC Salut Social, Susanna Aussó, explica que “és capital que els professionals de la salut comprenguin els mecanismes pels quals l’eina d’Intel·ligència Artificial ha arribat a una predicció. Aquest coneixement és essencial per millorar la confiança de les persones usuàries ja que els atorguen eines per comprovar si la resposta s’ha basat en criteris de solvència clínica. Hi ha diversos formats d’explicabilitat, i cal acordar amb els experts quin és el format més adequat en cada cas. Normalment es tracta de formats molt visuals que es poden combinar en funció de les necessitats”.

 

Què pot aportar la Intel·ligència Artificial Explicable?

L’ús de la Intel·ligència Artificial en l’àmbit de la salut està en constant creixement, gràcies a la disponibilitat de registres electrònics de salut i la gran diversitat de dades relacionades, així com al gran potencial d’aquesta tecnologia per millorar la salut i el benestar de les persones.

Alguns centres de salut fan ús de la Intel·ligència Artificial per donar suport principalment al diagnòstic, pronòstic i tractament de determinades malalties. De fet, l’Observatori d’IA en Salut ja ha detectat prop de prop de 100 algorismes d’Intel·ligència Artificial que estan en fase de desenvolupament o s’estan utilitzant de forma controlada.

Aquesta tecnologia s’utilitza com a eina de suport per a la presa de decisions, ja que el personal sanitari té l’última paraula i pren la decisió final. No obstant, és important que aquesta decisió s’adopti des del coneixement que aporten les eines d’explicabilitat. Sense aquestes eines, els models d’Intel·ligència Artificial actuen com una “caixa negra” que no permeten entendre què hi passa; aquesta problemàtica és la que precisament vol solucionar la Intel·ligència Artificial Explicable.

Per poder ser capaç d’explicar el model d’aprenentatge automàtic en termes humans, la Intel·ligència Artificial Explicable ha de donar resposta a aspectes relacionats amb la correcció, robustesa, biaix, millora, transferibilitat i comprensió humana del model.  D’aquesta manera, s’aconsegueix millorar la confiança dels professionals, ja que podran entendre les limitacions i dificultats, i simplificar i relacionar amb conceptes més fàcils; implicar les parts interessades per construir un model intuïtiu entenedor; i fer millors models eliminant els errors i identificant escenaris injustos produïts per possibles biaixos.

 

Taxonomia de la Intel·ligència Artificial Explicable

Davant la falta de consens en la classificació de les tècniques que segueixen els models d’Intel·ligència Artificial Explicable, l’informe descriu diferents models de taxonomia: explicabilitat intrínseca i post hoc; explicabilitat global i local; models transparents i opacs; i tècniques agnòstiques al model i dependents del model.

 

Explicabilitat d’algorismes basats en imatge mèdica digital, dades tabulars i processament de llenguatge natural

L’informe recull en tres capítols específics els diferents mètodes d’explicabilitat segons l’origen de les dades. En primer lloc, exposa els mètodes d’explicació dels algorismes basats en imatge mèdica digital, com per exemple, les radiografies o ressonàncies magnètiques, entre d’altres. Els mètodes principals són el CAM (mapeig d’activació de classe), GRAD-CAM (mapeig d’activació de classe ponderat per gradient), LRP (propagació de la rellevància per capes), LIME (explicacions agnòstiques al model interpretables a nivell local), i SHAP (explicacions additives de Shapley).

En segon lloc, descriu l’explicabilitat dels algorismes basats en dades tabulars; és a dir, en variables que procedeixen per exemple d’analítiques, dades òmiques o constants vitals, fins a dades de gestió hospitalària, entre d’altres. En aquest cas, les tècniques presentades són PDP (gràfic de dependència parcial), ICE (expectativa condicional individual), C-ICE (ICE centrat), counterfactual explanations, LIME (explicacions agnòstiques al model interpretables a nivell local), anchors, i SHAP (explicacions additives de Shapley).

Finalment, el document aborda l’explicabilitat d’algorismes basats en el processament de llenguatge natural, que permet, per exemple, extreure informació estructurada a partir d’un informe amb text lliure amb dades de diagnòstics, tractaments o seguiment. Les tècniques especificades per a aquest tipus d’explicabilitat són SHAP (explicacions additives de Shapley), GbSA (anàlisi de la sensibilitat basada en gradients), LRP (propagació de la rellevància per capes) i LIME (explicacions agnòstiques al model interpretables a nivell local).