9 principi guida relativi all’IA per
un futuro a misura d’umanità
Risoluzione
I sistemi di Intelligenza artificiale sono al servizio delle persone e della loro autonomia, della società nonché del pianeta, per cui le persone mantengono in qualsiasi momento il controllo sulla macchina. I sistemi di IA non hanno pertanto una personalità giuridica propria – l’uomo continuerà a esserne responsabile. Viene rispettata la dignità umana.
Motivazione
La relazione uomo-sistema sta mutando: avviene un cambio di paradigma verso il modello della partnership. Lo scopo dei sistemi intelligenti è quello di sgravarci. Sono in grado di assumere questa funzione di sgravio poiché percepiscono il loro ambiente, dispongono di una memoria e agiscono in modo autonomo. L’uomo non domina pertanto più il sistema bensì interagisce con esso. Al fine di evitare effetti paternalistici a seguito di decisioni automatizzate che limitano la libertà di azione dell’uomo, serve un costante controllo del sistema e possibilità di intervenire nello stesso. Gli utilizzatori deve poter comprendere come vengono sviluppati e allenati i sistemi intelligenti.
I processi decisionali di particolare responsabilità – ad es. nella guida autonoma di veicoli oppure nella diagnostica sanitaria – dovrebbero essere strutturati in modo tale che l’ultima competenza decisionale spetti agli attori responsabili, fino a quando la qualità di controllo dell’IA non avrà raggiunto un livello accettato da tutti i partecipanti. In questo modo nei processi di approvazione di veicoli a guida autonoma, l’autonomia viene estesa solo a piccoli passi.
Risoluzione
Nei sistemi di IA avviene un’adeguata verifica. I diritti umani e i diritti in materia di libertà nonché i principi dello Stato di diritto e democratici vengono tutelati, rispettati e accompagnati da meccanismi correttivi. I sistemi di IA sono conformi alle regole definite dalle persone nonché al diritto e alle leggi. Nei sistemi di IA e nei loro risultati, distorsioni e pregiudizi nonché discriminazioni vengono ridotte al minimo. Parità, non-discriminazione e solidarietà sono il filo conduttore dell’azione. Nello sviluppo di sistemi di IA viene rispettata e promossa la diversità degli sviluppatori.
Motivazione
Crediamo a un approccio nei confronti dell’etica di IA basato sui diritti fondamentali ancorati nella legislazione internazionale in materia di diritti umani. Il rispetto dei diritti fondamentali in un quadro di democrazia e di stato di diritto forma la base più promettente per la determinazione di principi e valori etici astratti che possono essere concretizzati nell’ambito dell’IA. A tutte le persone deve essere concessa la stessa considerazione per il loro valore morale e la loro dignità. Questa rivendicazione va oltre la non discriminazione che tollera le differenze tra situazioni simili sulla base di giustificazioni oggettive. In un contesto connesso all’IA parità significa che il sistema non può fornire risultati distorti in modo scorretto (ad es. i dati utilizzati per l’allineamento dei sistemi di IA dovrebbero essere più inclusivi possibile e rappresentare diverse fasce di popolazione). Questo richiede inoltre adeguato rispetto per persone e gruppi eventualmente a rischio, ad es. lavoratori, donne, persone con disabilità, minoranze etniche, bambini, consumatori o altri gruppi a rischio di esclusione. Proprio per questo la diversità degli sviluppatori è così importante.
Un particolare modo di creare legittimità sono i processi politici, ovvero il modo di comunicare prima, durante e dopo decisioni vincolanti a livello collettivo. La possibilità di informarsi e il diritto alla formazione della propria opinione giocano un grande ruolo per la nostra comprensione dei processi democratici. Questo tema viene toccato dalla digitalizzazione e recentemente dal coinvolgimento dell’IA in applicazioni di massa. Gli assistenti digitali decidono quali informazioni farci vedere, ci supportano nella formulazione delle nostre opinioni e pensieri. Gli algoritmi svolgono un ruolo importante anche nell’ulteriore diffusione di notizie e possono intervenire sull’elenco di tematiche da proporre nel dibattito pubblico.
Risoluzione
Nel design, sviluppo, introduzione e impiego di sistemi di IA viene esercitata la responsabilità sociale ed etica. Con i sistemi di IA si agisce in modo affidabile. Si applica il principio « Ethics by Design ».
Motivazione
I progettisti di IA hanno una responsabilità etica nell’elaborazione di sistemi di IA che si ripercuotono positivamente sulla società, sono conformi alle disposizioni giuridiche e soddisfano i nostri più elevati standard etici.
Chi viene ritenuto responsabile delle conseguenze se le persone delegano le decisioni alle macchine? A causa di questa domanda gli specialisti si dichiarano contrari ai sistemi completamente autonomi e a favore di una persona nel circuito (loop). Altrimenti ci cederebbe la responsabilità etica per la progettazione sistemica.
La responsabilità deve rimanere in capo all’uomo. È ciò che avviene già oggi, quando ad esempio guidiamo un’auto – non cambia nulla in termini di responsabilità. È necessario che esercitiamo il potere sulle macchine e vi è motivo di ritenere che saremo ancora in grado di farlo anche in un prossimo futuro.
Risoluzione
I sistemi di IA sono trasparenti, comprensibili, spiegabili e riconoscibili in quanto tali. I loro risultati sono riproducibili, rintracciabili e affidabili. I dati e i formati elaborati e risultanti sono interoperabili. Se le decisioni dei sistemi di IA riguardano le persone, esse hanno il diritto di contestare tali decisioni e farle verificare da una persona (« human review »).
Motivazione
Per avere fiducia nei sistemi intelligenti nella pratica quotidiana, servono sufficienti informazioni sul relativo funzionamento e sulle possibili conseguenze. I meccanismi del sistema devono essere trasparenti al fine di fornire informazioni per il proprio operato e per poter determinare autonomamente se e in che misura dargli fiducia. Gli elementi chiave di una catena di processo di tipo etico sono di conseguenza: informazione → trasparenza → riconoscimento → autodeterminazione → fiducia. La fiducia è tanto più importante quanto più alto è il rischio.
Risoluzione
I sistemi di IA contengono un « blackbox etico » che registra i dati elaborati dal sistema. I datori di lavoro che impiegano sistemi di IA sono tenuti all’analisi e alla valutazione dei sistemi e devono renderne conto. Inoltre, per le autorità e la scienza c’è un accesso definito per legge ad algoritmi e dati che vengono utilizzati dai sistemi di IA.
Motivazione
È necessario adottare misure che garantiscano la responsabilità e la rendicontazione dei sistemi di IA e dei loro risultati prima e dopo la relativa attuazione.
Rintracciabilità significa che algoritmi, dati e il metodo di progettazione possono essere sottoposti a valutazione. Questo non significa obbligatoriamente che le informazioni sui modelli aziendali e sulla proprietà intellettuale relative al sistema di IA debbano essere sempre pubblicamente disponibili. La valutazione di sistemi di IA tramite esami interni ed esterni e la presenza di tali relazioni di valutazione può contribuire notevolmente all’affidabilità della tecnologia. La rintracciabilità esterna dovrebbe essere garantita in particolare per applicazioni che si ripercuotono sui diritti fondamentali nonché per applicazioni sensibili in termini di sicurezza.
È necessario garantire la possibilità della rendicontazione delle azioni o delle decisioni che contribuiscono a un determinato risultato di sistema nonché la capacità di reazione alle conseguenze di tali risultati. L’individuazione, valutazione, rendicontazione e riduzione al minimo di potenziali ripercussioni negative di sistemi di IA è particolarmente importante per le persone coinvolte. Deve essere garantita un’adeguata protezione per gli informatori (whistleblower), organizzazioni non governative, sindacati e altri enti che esprimono dubbi fondati nei confronti del sistema basato sull’IA. L’utilizzo di valutazioni d’impatto (ad es. « red teaming » o forme di valutazioni d’impatto basate su algoritmi) sia prima che durante lo sviluppo, l’introduzione e l’impiego di sistemi di IA può rivelarsi utile per contenere al minimo le conseguenze negative. Queste valutazioni devono essere proporzionate al rischio rappresentato dai sistemi di IA.
Risoluzione
Esiste una politica responsabile in materia di dati che stabilisce le regole efficaci per la sicurezza dei dati, la protezione della privacy e l’autodeterminazione informativa. Inoltre, per ogni sistema di IA esiste un «interruttore di sicurezza». Al primo posto c’è il principio della prevenzione dei danni.
Motivazione
I sistemi di IA devono garantire la protezione della privacy e la protezione in tutte le fasi del ciclo di vita di un sistema. Questo comprende anche informazioni fornite inizialmente dagli utenti nonché informazioni generate dagli utenti nel corso dell’interazione con il sistema (ad es. risultati che il sistema di IA crea per determinati utenti oppure la reazione a determinate raccomandazioni). Dai dati digitali sul comportamento umano i sistemi di IA possono desumere non solo le preferenze personali delle singole persone, ma anche l’orientamento sessuale, l’età e il sesso nonché le posizioni politiche o religiose. Affinché le persone possano avere fiducia nell’elaborazione di dati, si deve garantire che i dati raccolti attraverso di esse non vengano utilizzati a scopi discriminatori illeciti o scorretti.
Risoluzione
I sindacati hanno ampi diritti di partecipazione a livello politico e presso i datori di lavoro. Per garantire la partecipazione di tutte le lavoratrice e di tutti i lavoratori in materia di sistemi di IA e l’elaborazione dei dati, vengono inoltre formate adeguate rappresentanze del personale che vengono dotate di efficaci diritti di partecipazione. I datori di lavoro presentano tempestivamente al personale e ai suoi sindacati, prima dello sviluppo o dell’introduzione di sistemi di IA, relazioni sulle conseguenze sul personale nonché resoconti periodici sul benessere del personale. In presenza di un abuso di diritto, le lavoratrici ed i lavoratori possono rinunciare all’impiego o alla partecipazione allo sviluppo di sistemi di IA, senza dover temere conseguenze negative. In tali casi si applica una protezione assoluta dal licenziamento, in particolare anche quando hanno esaurito i rispettivi uffici di contatto interni e operano come whistleblower.
Motivazione
I sindacati hanno ampi diritti di partecipazione a livello politico e presso i datori di lavoro. Tali diritti vanno rafforzati affinché vengano preservati anche nell’era dell’IA. L’IA modifica sensibilmente i rapporti di lavoro. Pertanto deve diventare un tema importante del partenariato sociale, ad esempio nell’elaborazione di contratti collettivi di lavoro. Proprio lì dove viene sviluppata l’IA, anche le rappresentanze del personale hanno un ruolo importante per garantire voce in capitolo ai collaboratori, in particolare in caso di questioni etiche relative a sistemi di IA da sviluppare. Allo stesso tempo anche ai lavoratori autonomi come i crowdworker devono essere garantiti diritti collettivi e tutele.
Risoluzione
La trasformazione sociale ed economica guidata dalla digitalizzazione viene attuata in modo equo, e grazie alla ridistribuzione migliora le condizioni del maggior numero possibile di persone e contribuisce a realizzare una parità tra uomo e donna. Gli incrementi di produttività vengono reinvestiti in modo sostenibile a favore della popolazione. Le persone vengono messe in condizione di utilizzare i sistemi di IA. Allo stesso tempo viene ancorato all’apprendimento permanente un diritto che consente un tempestivo e ampio reskilling e upskilling.
Motivazione
Facendo un’analisi di lungo periodo, in nessuna delle tre fasi della rivoluzione industriale precedente si sono avverati i timori per le grandi perdite di posti di lavoro. Sono costantemente nati nuovi lavori che hanno compensato i posti di lavoro divenuti obsoleti a seguito dell’automatizzazione. La storia però mostra anche che le questioni esistenziali per una società durante una rivoluzione industriale non riguardano il numero di posti di lavoro bensì le conseguenze dei processi di adeguamento e – soprattutto – la ripartizione del benessere.
- La prima rivoluzione industriale ha trasformato i contadini e gli agricoltori in operai di fabbrica.
- Nella seconda rivoluzione industriale si trattava di ottenere il massimo dal lavoro grazie all’automatizzazione (nastri trasportatori) e allo stesso tempo di creare una produzione di massa per un consumo di massa. Questo presupponeva un potere d’acquisto di massa (salari crescenti).
- La terza rivoluzione industriale ha combinato il lavoro con le macchine a comando microelettronico. In questo modo da un lato ha aumentato al massimo la produttività del lavoro. Dall’altro è iniziato il processo di escludere il lavoro dal processo di produzione. Talvolta i lavoratori dell’industria si meravigliano del termine « trasformazione digitale », perché si confrontano da ben 30 anni con robot per la produzione a controllo numerico, produzione « lean » e licenziamenti di massa. Questo era un po’ il vecchio sogno dei capitalisti: ottenere crescita e guadagni senza lavoro. Un’illusione perché solo il lavoro crea valore.
- Nella quarta rivoluzione industriale il sistema economico cambia faccia. Esso mira a svolgere le mansioni con il minor numero possibile di lavoratori stipendiati e a sganciarsi da rapporti contrattuali protetti. Questa non è un’innovazione tecnologica, è una frattura storica e sociale. I motivi non risiedono nell’automatizzazione digitale bensì nel sistema economico.
Ed è qui che oggi i sindacati vengono chiamati a intervenire.
Risoluzione
Vengono stabiliti meccanismi di regolamentazione mondiali. Sono vietate armi basate su sistemi di IA.
Motivazione
Big data e IA possono anche essere sviluppati per nuocere all’uomo. Dati, AI e sistemi intelligenti diventano così strumenti sofisticati nelle mani di una moltitudine di attori tra cui potenti politici. Anche i criminali utilizzano l’IA. Ciò dovrebbe essere considerato nella creazione e nella regolamentazione dell’IA. Tuttavia il potenziale di danneggiamento non è una caratteristica dello sviluppo tecnologico, bensì un risultato del suo utilizzo. È perciò ancora più importante che Comuni, Cantoni e lo Stato plasmino lo spazio digitale con la sua funzione di ordinamento sociale e non lascino ad altri attori la facoltà di dettare l’ordinamento. E questo vale anche oltre i confini.