"Se preferisci una presentazione visiva e contenuta di questo articolo clicca qui. Altrimenti, continua a leggere per tutti i dettagli."
Infortuni sul lavoro da AI e robotica: immaginate una linea di montaggio scintillante, pavimento lucido, caschi protettivi che riflettono luci al neon. Un braccio robotico, perfettamente oliato, completa movimenti che un essere umano impiegherebbe ore a replicare. Finché, in un battito di ciglia, l’algoritmo che lo governa calcola male una distanza e il braccio devia di pochi gradi, abbastanza per colpire un operatore.
Chi rimborserà le spese mediche? Chi risponderà di quell’errore? E, domanda ancor più scomoda: come facciamo a dimostrare che cosa è andato storto?
Viviamo nella quarta rivoluzione industriale. Non è solo uno slogan per convegni: algoritmi di machine learning ottimizzano cicli di produzione, sensori IoT segnalano anomalie in tempo reale, cobot lavorano fianco a fianco dei dipendenti.
Se con un cacciavite difettoso il danno riguarda un singolo pezzo di metallo, con un sistema dotato di AI parliamo di una catena decisionale capace di mutare autonomamente. La probabilità statistica di un incidente resta magari bassa, ma l’impatto potenziale cresce esponenzialmente.
(Piccola digressione): ricordate il primo incidente mortale di un’auto a guida autonoma, in Arizona nel 2018? Quel caso,fuori dalla fabbrica, è vero, ha insegnato che la percezione pubblica della tecnologia può cambiare in un fine‑settimana se si rompe la promessa implicita di sicurezza.
Guasto meccanico: un sensore si brucia, un motore cede, un connettore si ossida.
Errore algoritmico: il modello statistico fa overfitting, un set di dati alterato introduce bias, una rete neurale compensa male il deterioramento di un giunto.
Il primo scenario è roba da manuale, letteralmente, basta aprire le istruzioni d’uso. Il secondo è più subdolo. Non tutti gli errori sono colpa di codice "scritto male"; talvolta è il processo di apprendimento che genera traiettorie impreviste. Pensate a un allievo brillante che, dopo anni di esperienza, sviluppa un vizio che nessun insegnante gli aveva notato.
La teoria è chiara, l’applicazione meno: quando il "difetto" risiede nell’algoritmo, le aspettative di sicurezza si spostano dal metallo al software. E il software, lo sappiamo, invecchia più in fretta dell’acciaio.
Chi paga se succede il patatrac? Spesso tutti, in quote diverse, secondo il principio di corresponsabilità.
Gigafactory Tesla di Austin, 2023
Un robot per l'imballaggio, utilizzato all'interno di una Gigafactory Tesla vicino a Austin, in Texas, ha «attaccato» un ingegnere durante il suo turno di lavoro, colpendolo alla schiena e al braccio sinistro, ferendolo alla mano.
Bug CrowdStrike: il “Cyber Guaio dell’estate 2024”.
Il 19 luglio 2024 sarà ricordato come una giornata nera nella storia della tecnologia. Un aggiornamento software, noto come Bug CrowdStrike, apparentemente innocuo ha causato un caos a livello globale, portando a interruzioni in vari settori chiave, dai trasporti aerei ai servizi bancari.
In Francia, nel 2019, il Tribunale di Grasse ha stabilito che, in caso di danno subito dalla vittima a causa di un errore da parte di un professionista sanitario durante un intervento chirurgico, "quando è attribuibile a più persone che agiscono in modo indipendente, la vittima può chiedere il risarcimento del danno. In questa configurazione, un professionista sanitario che utilizza un dispositivo di intelligenza artificiale sarebbe ritenuto responsabile congiuntamente con il produttore in caso di errore.
Con reti neurali profonde la spiegazione puntuale è spesso impossibile. Sta emergendo la process liability, ovvero la responsabilità del modo in cui si lavora, la responsabilità dei processi interni: il giudice non chiede perché l’AI ha sbagliato, bensì come l’hai formata, testata, monitorata. Se i tuoi protocolli sono robusti, la colpa si attenua; se hai scorciato il ciclo di test per uscire sul mercato, preparati alla responsabilità. Piccola parentesi nerd: i log di training oggi valgono quanto le certificazioni ISO sui materiali. Conservateli, versionateli, fateli auditare.
C’è chi ipotizza una «personalità giuridica elettronica» per i sistemi di AI avanzati. Fantascienza? Forse. Ma basta guardare alla responsabilità civile delle self‑driving car per capire che la direzione è quella: attribuire il rischio a chi beneficia economicamente dell’autonomia macchina.
E se il futuro fosse una responsabilità distribuita, un po’ come avviene nel settore nucleare? Pool assicurativi, fondi mutualistici, premi modulati sul risk score reale di ciascuna AI. In altre parole, meno tribunali e più actuary che litigano su coefficienti statistici.
Le norme cambiano, i sensori si miniaturizzano, gli algoritmi si riscrivono. L’unica costante è la necessità di tradurre la complessità tecnica in procedure quotidiane, comprensibili per l’operaio al tornio e difendibili davanti a un giudice. Non lo si fa in un giorno, ma ogni giorno.