Macchine con AI: che impatto hanno per gli RSPP?
A cura della Redazione
L’AI corre. Tantissimi prodotti hanno iniziato a utilizzare l’intelligenza artificiale (AI). Esistono ( e da qualche anno) servizi nella vita quotidiana (sia a casa che al lavoro), ed in molte professioni.Migliorano il funzionamento delle macchine, mentre AI interagendo con il mondo esterno, velocemente si ottimizza. Anche questo cambiamento interessa gli RSPP. Quale affidabilità hanno questi sistemi e quali rischi ? C’è tanto clamore mediatico sull’ IA negli ultimi tempi ed è giusto porsi qualche interrogativo sull’implementazione sui macchinari e l’impatto sul loro funzionamento.
Cosa tratta:
La prima importante distinzione che è necessario fare è quella di dividere le macchine dotate di intelligenza artificiale (AI) dalle macchine autonome.Sono autonome le macchine che hanno la “facoltà di agire liberamente”. Per quanto invece riguarda il software che integra AI, un rapporto tecnico (TR ISO 29119-11), viene definito sistema autonomo quello che è “in grado di funzionare senza intervento umano per periodi prolungati”, non riferendosi alla libertà di azione quanto alla capacità di lavorare da sola. Quindi molte macchine automatiche, anche molto vecchie, (con o senza AI), possono essere qualificate come autonome. Se poi una AI riduce ancora gli interventi umani, contribuisce a renderla ancora più autonoma.
Un software dotato di AI però può anche prendere decisioni, ad esempio per l’incolumità dei lavoratori, fermando la macchina e rendendola meno autonoma. L’uso dell’ AI quindi non si traduce per forza in autonomia (come si pensa).
Uno dei tanti utilizzi in cui AI è e sarà maggiormente sviluppata è il settore degli AGV (veicoli a guida automatica) per il trasporto merci. Le previsioni azzardano che il 50% dei muletti attuali, sarà sostituito nei prossimi dieci anni, con veicoli senza operatore (non tutti i processi e non tutti gli spazi sono adatti). Gli AGV, sono macchine autonome, perché gestite dal software di gestione del magazzino e guidate su un tracciato prestabilito. Ad oggi, queste macchine perfettamente funzionanti non sono ancora dotate di AI, quindi autonomia e AI non sono legate tra loro.
E allora che cos'è questa AI sulle macchine?
Sembra strano, ma non abbiamo ancora una definizione di AI legata ai macchinari. Abbiamo capito che non rende le macchine più autonome, ma ha portato e porterà enormi benefici ai macchinari a partire proprio dall’ autonomia, ma anche nel processo decisionale, nelle sequenze di compiti e nella percezione dell’ ambiente di lavoro. Tutte funzioni automatiche ed estremamente complesse, che devono essere progettate e testate da specialisti dell’ automazione. Negli ultimi anni, queste funzioni sono state implementate con programmi software, anche grazie all’ aumentata potenza di calcolo degli hardware a disposizione. Il risultato è quello che comunemente viene definito “apprendimento automatico”. Attraverso algoritmi, sulla base di migliaia di esempi, il software riesce ad apprendere. Se poi viene installato su una macchina, iniziamo a vedere come la macchina abbia capacità di apprendere attraverso l’osservazione e la sintesi di esempi di compiti.Parliamo di una “macchina che integra l’AI”.Cambia di conseguenza anche la progettazione ed i relativi sistemi di controllo. Non è più necessario progettare ambienti e scenari. E’ sufficiente fare osservare degli esempi alla macchina, ed attraverso l’algoritmo di apprendimento si riesce a costruire un sistema di controllo.
Come sono programmate?
Sono due quindi i percorsi rendono possibile la programmazione delle macchine.Il primo è il percorso classico in cui un ingegnere dell’ automazione decide e programma il sistema di controllo via software. L’altro più innovativo, è quello in cui il programma (parzialmente o meno) è il prodotto dell’algoritmo di apprendimento. In questo caso di parla di “automazione appresa” (LA). Nel caso di LA, per ottenere un programma di controllo che rispetti i requisiti essenziali di sicurezza è necessario tenere conto di diversi criteri :
1) Adeguatezza dell’ algoritmo di apprendimento
2) Quantità di esempi da fornire all’ algoritmo
3) Qualità degli esempi (privi di errori)
4) Capacità dell’ algoritmo di fornire indicatori.
Se questi criteri soddisfano i requisiti, il programma di controllo è paragonabile a quello progettato con il metodo più tradizionale.E’ necessario in ogni caso porre attenzione ad aspetti importanti quali il database, l’apprendimento continuo e il concetto di opacità del programma LA.
Database
L'apprendimento supervisionato richiede un set di dati etichettati per addestrare un modello di intelligenza artificiale. L'etichettatura dei dati è un processo laborioso che richiede competenze specifiche e può diventare difficile quando si tratta di grandi quantità di dati. In pratica si definisce etichettatura il processo di validazione di quanto appreso rispetto all’ osservazione umana. Le difficoltà principali come si può ben capire sono proprio l’ etichettatura, ma anche l’acquisizione dei dati. L’etichettatura (o validazione), richiede tempo e competenze specifiche, ma soprattutto diventa difficile con grandi quantità di dati e può essere soggettiva (e portare a errori). Per quanto riguarda invece l’acquisizione dei dati occorre fare molta attenzione al fatto che i dati preesistenti potrebbero non essere di alta qualità o rappresentativi del problema. La produzione manuale di dati è costosa e dispendiosa in termini di tempo. e l'acquisizione automatica di dati può essere costosa e richiede di solito hardware specifico. Di norma quindi viene eseguita l'etichettatura a priori durante l'acquisizione dei dati, (quando possibile) e si utilizzano procedure di etichettatura automatizzate per ridurre gli errori. Anche acquisire dati online in produzione per evitare fermi macchina ed assicurarsi che i dati acquisiti siano di alta qualità e rappresentativi del problema, può aiutare e velocizzare i processi. Per chiudere, l'acquisizione e l'etichettatura di dati di alta qualità sono fondamentali per l'apprendimento supervisionato. Esistono diverse sfide da affrontare, ma con le giuste soluzioni è possibile creare modelli di intelligenza artificiale affidabili e performanti.
Concetto di opacità del programma di LA
I processi decisionali dell’ AI, non appaiono sempre chiari e quindi vengono definiti “opachi”.Immaginiamo un sistema in grado di analizzare migliaia di immagini di mirtilli e classificare quelli difettosi con quasi il 90% di accuratezza. Sembra magia. Ma come fa questo sistema a prendere decisioni così precise? Tramite l’apprendimento automatico. Il sistema "impara" da un'enorme quantità di dati, come immagini di mirtilli sani e difettosi, e "digerisce" queste informazioni per creare un modello di classificazione. Tuttavia, c'è il problema dell'opacità del processo decisionale. Non possiamo ripercorrere il ragionamento del sistema e capire perché un certo mirtillo è stato classificato come difettoso. La complessità dell'apprendimento automatico, con centinaia di migliaia di parametri in gioco, rende praticamente impossibile seguire il percorso che ha portato alla decisione di produrre falsi positivi (mirtilli scartati ma buoni) e falsi negativi (mirtilli non scartati ma non perfetti) con ripercussioni sia sull’ aumento dei costi (scarto dei buoni) che sulla perdita di qualità (non scarto dei difettati).In definitiva significa mancanza di controllo sulle decisioni: non è possibile sapere con certezza se il sistema ha preso la decisione giusta in ogni caso e perché. C’è una difficoltà di debug, perché se il sistema commette errori, è difficile capire la causa e risolverla.La criticità maggiore è rappresentata dalle implicazioni di natura etica: se l'AI prende decisioni che discriminano o danneggiano qualcuno, è difficile individuare le responsabilità. Per questo motivo le macchine con LA ad oggi non possono ancora integrare funzioni di sicurezza, che non sarebbero del tutto validabili in maniera trasparente.Le soluzioni sono rappresentate dallo sviluppo di :
- Sistemi di AI "spiegabili", ovvero rendere il processo decisionale più trasparente e comprensibile, ·
- Miglioramento dei test, della validazione volte ad assicurare che l'AI sia affidabile e precisa in diverse situazioni, ad oggi sembrano ancora abbastanza complesse e lontane da arrivare.
E’ partito infine, (e ce ne siamo accorti tutti), il dibattito sulla definizione dei principi etici per stabilire regole per un utilizzo responsabile dell'AI.
L'AI appre allore come un'arma a doppio taglio, che può portare enormi benefici, ma può anche nascondere insidie. Solo con un approccio cauto e responsabile potremo sfruttare appieno il suo potenziale, garantendo sicurezza, affidabilità e soprattutto equità. Sembrano parole scontate, ma contengono all’ interno un quoziente di difficoltà molto alto, soprattutto per quanto riguarda l’opacità del software ed i principi etici, perché già da oggi appare molto difficile coniugare autonomia e benessere dei lavoratori.
Apprendimento continuo
Nel contesto sopra descritto i sistemi LA sono programmati per eseguire compiti. Dopo la formazione iniziale e la messa in servizio, possono apprendere anche dagli esempi che troveranno in produzione. Sembra scontato che possano arricchire il loro programma ed apprendere in maniera continua.I risultati registrati però, non sono considerati attendibili proprio perché autoalimentati (e non validati). L’insieme dei dati usato per la formazione deve essere etichettato (il risultato atteso viene allegato all’ osservazione). Quindi senza la validazione di ogni esempio da parte di terzi, il sistema non può auto apprendere, perché non si avrebbe certezza di cosa abbia effettivamente appreso.Si può al contrario ottimizzare le procedure di supervisione umana. Se ad esempio per tornare all’ esempio di prima, un operatore corregge gli errori in tempo reale, riesce a far capire meglio alla macchina quali siano i falsi positivi o i falsi negativi, ma può diventare lungo e dispendioso.
A chiudere
Grazie al nuovo sviluppo dell’ AI, una macchina acquisisce capacità precise in base a richieste specifiche. La capacità di scegliere o classificare oggetti (dalla frutta ai rifiuti, ma anche pietre, stoffe ecc) era impossibile prima dell’ avvento dell’AI.Tuttavia l’AI non può influire direttamente sul funzionamento della macchina, non prende iniziative, non decide di fare cose mai fatte prima. La macchina ha maggiori capacità in precisi compiti, ma non è autonoma.Anche le macchine che integrano l’automazione appresa (LA), rimangono macchine con le loro energie e i loro rischi. La capacità di apprendere non sembra ad oggi creare pericoli aggiuntivi e permette di creare automatismi più complessi ed elaborare informazioni più specifiche e complesse come ambienti esterni, immagini di oggetti d’arte ecc. Il problema dell’ opacità dell’ apprendimento automatico può rendere estremamente complessa la validazione, in alcuni casi irrealizzabile. Per questo motivo ad oggi le macchine con LA non possono integrare la catena logica di una funzione di sicurezza. Il nuovo regolamento macchine che andrà a sostituire l’attuale direttiva macchine, ha anticipato questa possibilità e prenderà in considerazione anche macchine con funzioni di sicurezza che utilizzano LA e macchine che tramite il machine learning abbiano funzioni di autoapprendimento. Gli approcci di valutazione dei rischi rimangono applicabili alle macchine che integrano LA nelle funzioni più standard. Per le funzioni di sicurezza anche se il nuovo regolamento lo prevede, rimane l’ostacolo dell’ opacità degli algoritmi, che ad oggi rappresenta un grande impedimento anche per la certificazione CE delle macchine che usano LA.
Decrittazione
Riproduzione riservata ©