Justificacions

Per què verificació?

La verificació és una eina per avaluar el nostre sistema d’IA a l’abast de tothom per a contribuir a l’ús d’una IA Ètica i d’acord amb la normativa vigent. 

Amb aquest procés de verificació descobrim o tenim la certesa sobre la categoria de risc associada el nostre sistema amb la fase de preavaluació i posteriorment, coneixeu el detall de l’adequació als set principis ètics troncals del Model PIO. Finalment, s’obté un resultat a través del qual us guiem i indiquem les fortaleses i les millores del vostre sistema d’acord amb el procés realitzat. 

Per què catàlegs?

Els catàlegs serveixen com a eina per localitzar i conèixer contingut específic que inclou el Model PIO. Ambdós segueixen l’ordre del Model PIO, és a dir, la categorització a partir dels set principis i la classificació dels apartats corresponents. Així com, la informació classificada també està ordenada de manera alfabètica per facilitar la navegació. 

Text per a l’apartat concret: 

Legal: El present catàleg conté la normativa legal i a les recomanacions ètiques existents que han configurat les qüestions plantejades al model. A més, cada normativa referenciada permet l’accés al text corresponent, a l’article concret citat i a la pregunta del Model PIO on s’esmenta.

Exemples: El present catàleg recull exemples relacionats amb les més de cent trenta preguntes del model, que permeten filtrar les cerques a través d’exemples reals o supòsits concrets. A més, trobareu enllaços a l’article periodístic o acadèmic que sosté o exemplifica el contingut, així com la pregunta del Model PIO on apareix.

Per què recomanacions sobre contractes?

Proporcionem clàusules de recomanació ètica per a la compra i adquisició de sistemes d’IA les quals incorporen els requisits legals i els estàndards i recomanacions ètiques i serveixen com a pautes perquè les organitzacions públiques i privades les incorporin en els seus processos de contractació i de compres.

Aquestes giren al voltant dels set principis bàsics del Model PIO. En aquest sentit, conté clàusules de transparència i requereix que els proveïdors proporcionin una documentació completa sobre el disseny, els algorismes i els processos de presa de decisions del sistema d’IA; clàusules d’equitat que estipulen que els sistemes d’IA s’han de sotmetre a processos de detecció i mitigació de biaix, demostrant el compromís amb la justícia i l’equitat en els resultats per a tots els usuaris; clàusules de seguretat que exigeixen proves d’avaluacions de riscos rigoroses i la implementació de mesures de seguretat per prevenir danys; clàusules de retiment de comptes que insisteixen en marcs de responsabilitat clars dels venedors, que han de detallar els rols i les responsabilitats en el desenvolupament i el desplegament de sistemes d’IA; clàusules de protecció de privadesa que exigeixen el compliment de les lleis de protecció de dades (p. ex. GDPR) i la implementació dels principis de privadesa des del disseny, salvaguardant la privadesa dels usuaris; clàusules de preservació de l’autonomia per assegurar que els sistemes d’IA incorporen funcions que permetin la supervisió, el control i la intervenció humana per mantenir l’autonomia de l’usuari; i clàusules de sostenibilitat que obliguen a l’avaluació de l’impacte ambiental dels sistemes d’IA i a un compromís amb pràctiques de compromís social que reflecteixen el principi de sostenibilitat de l’Agenda 2030 de les Nacions Unides.