PRESS

Machine learning e deep learning si spostano dal Cloud all'Edge: gli impatti sul settore manifatturiero

Uno dei mantra che da sempre contraddistinguono i manager delle aziende manifatturiere è "produrre di più con meno", o meglio: fornire prodotti di qualità sempre più elevata a costi sempre più ridotti, riducendo anche il time-to-market.

La cosiddetta Quarta rivoluzione industriale ha portato molte imprese ad abbracciare le nuove tecnologie dell'Internet of Things (IoT) e abilitare la cosiddetta "Fabbrica 4.0", ovvero una fabbrica digitalizzata che, partendo dai dati, sfrutta le tecnologie dell'Industria 4.0 per migliorare i processi produttivi e ottenere benefici in termini di riduzione dei costi e riduzione delle inefficienze.

Con l'avvento del modello dell'Industria 4.0 i dati, che erano già rilevanti, hanno assunto un'importanza cruciale per il valore aggiunto che questi possono portare al business

Applicazioni con algoritmi e concetti di intelligenza artificiale sfruttano i dati e portano innumerevoli benefici alla produzione.

L'automazione industriale rappresenta il fulcro di questa nuova ondata tecnologica: gli algoritmi, sempre più complessi, insegnano alle macchine a operare in modo autonomo, partendo da una base di dati e creando mappe logiche che legano gli input agli output.

Quanto più la base di dati affidata agli algoritmi è estesa e presisa, tanto più sarà alto il livello di automazione.

Ad oggi, l'utilizzo e l'applicazione di questi algoritmi avviene tipicamente nei data center, che possiedono l'infrastruttura di rete, di archiviazione e di calcolo necessaria all'elaborazione degli algoritmi di intelligenza artificiale (AI, Artificial Intelligence) che fornisce le basi per l'apprendimento autonomo delle macchine, che si distingue in Machine Learning (ML) e Deep Learning (DL).

Rete neurale

Una rete neurale artificiale è formata da più livelli di informazioni che costituiscono il percorso logico che porta un dato in entrata a generare un determinato output.

Machine e Deep Learning: come funzionano?

Il Machine Learning è il processo mediante il quale i dati vengono forniti alle macchine per formare dei modelli e automatizzarne l’attività, consentendo di effettuare operazioni o di gestire interi processi in autonomia. Esistono diversi modi in cui una macchina può apprendere attingendo dai dati, e ognuno utilizza algoritmi diversi per raggiungere diversi obiettivi.

Il Machine Learning supervisionato è la tipologia più semplice. Alla macchina vengono forniti dati relativi a input e output, e all’algoritmo è assegnato il compito di mappare le diverse connessioni logiche per formare dei modelli. L’obiettivo è consentire agli operatori di predire un determinato output in base ai dati in entrata: il ruolo dell’operatore umano è rilevante, poiché deve selezionare i dati in entrata, i dati in uscita, deve decidere quale algoritmo applicare e deve valutare quando una macchina è pronta per agire in autonomia.

Il ML supervisionato utilizza due principali modelli per la mappatura dei dati e il training della macchina: la regressione e la classificazione. Il primo è un modello basato su dati che vengono registrati dai sensori entro un determinato intervallo (temperatura, peso, ecc.), e viene di solito utilizzato per stimare la durata del ciclo di vita di un asset o di un ciclo produttivo.

Ad esempio, la regressione può essere utilizzata per prevedere la sostituzione di un componente. La classificazione – come suggerisce il nome – prevede invece l’assegnazione di categorie specifiche a determinati tipi di dati, in modo tale che la macchina possa prendere determinate decisioni in base alla presenza o meno di una categoria di dati. Ad esempio, certi avvenimenti possono essere categorizzati come “guasto macchina”, in modo tale che si possano impostare degli alert nel momento in cui si ripresentano.

Il Machine Learning non supervisionato prevede che i dati forniti alla macchina non siano codificati, ossia non abbiano ancora una correlazione con un determinato output: in questo caso, si parte da un risultato aspettato e si verifica se effettivamente si verifica in presenza di determinati dati. La macchina, in questo caso, impara da sola a categorizzare i dati in base agli output registrati, creando dei cluster di dati utilizzabili dagli algoritmi per scoprire correlazioni tra gli stessi.

L’Intelligenza Artificiale si basa sulla creazione di reti neurali che connettono le varie informazioni, organizzate in diversi strati, per definire i percorsi che da un input portano a un determinato output. Queste reti neurali artificiali si rinforzano all’aumentare dei dati disponibili, consentendo di rilevare percorsi e meccanismi sempre più complessi, una situazione che risulta ideale in presenza di molte variabili, come è il caso dei processi produttivi.

In questo caso si parla di Deep Learning, ossia l’apprendimento autonomo e senza intervento umano della macchina, che in ambito industriale può essere utilizzato per applicazioni di robotica avanzata, ad esempio per robot che effettuano manipolazione di oggetti o analisi di immagini.

Infine, il Machine Learning per rinforzo prevede che la macchina sia in grado di interpretare i dati in entrata e in uscita autonomamente grazie al Deep Learning, al tempo stesso disponendo degli strumenti per apprendere dall’ambiente circostante – sensori, RADAR, LIDAR, GPS, telecamere, ecc. – e adattare i propri comportamenti in base a esso.

In definitiva, IoT, Intelligenza Artificiale, Machine Learning e Deep Learning permettono di raggiungere l’obiettivo di cui si è parlato all’inizio dell’articolo: aumentare la qualità riducendo i costi. Vediamo nel dettaglio alcune applicazioni in ambito industriale.

Manutenzione predittiva (predictive maintenance)

I costi di manutenzione rappresentano sicuramente una delle voci più rilevanti nei budget delle aziende manifatturiere. Per questa ragione, riuscire a prevedere i guasti prima che si verifichino rappresenta un notevole risparmio, e le nuove tecnologie aiutano a muoversi in tal senso. Le operazioni di manutenzione predittiva sono tradizionalmente abilitate da operatori, che programmano le macchine tramite sistemi SCADA per creare particolari configurazioni e regole per le notifiche.

Questo approccio non tiene conto della complessità delle variabili che costituiscono il sistema-impianto: un sensore potrebbe surriscaldarsi per ragioni che non dipendono dal funzionamento dell’impianto, e rilevare un’anomalia quando invece si tratta solo di un episodio accidentale. Al contrario, gli algoritmi di Machine Learning sono “alimentati” dai dati provenienti da diverse fonti: dalla produzione, il cosiddetto “production floor” o Operational Technology (OT), che comprende dispositivi, sensori, PLC e sistemi SCADA installati sulle macchine, ma anche le correlazioni tra status del macchinario e tasso di produzione; oppure dagli applicativi IT aziendali, ad esempio ERP, MES, controllo qualità, ecc.

Nell’ambito dell’Intelligenza Artificiale, il processo noto come “training” permette agli algoritmi di identificare le anomalie e testare le correlazioni fra di esse, cercando allo stesso tempo di creare dei modelli relazionali tra i dati provenienti dalle varie fonti sopra citate. Il punto di forza di questo processo è la capacità di analizzare enormi quantità di dati in tempo reale, rendendo le macchine autonome nelle decisioni in base agli avvenimenti. Lo stato e il comportamento di ogni componente e di ogni dispositivo è costantemente monitorato per identificare le anomalie prima che si verifichi il guasto vero e proprio.

L’Intelligenza Artificiale permette quindi di abbattere i costi di manutenzione, e consente alle macchine di agire direttamente sul problema, o di informare gli operatori prima che il problema si verifichi. In questo modo non sono più necessari controlli di manutenzione programmata, che a volte risultano superflui, e gli operatori possono avere un maggiore controllo su tutta la filiera produttiva grazie ai dati.

Controllo qualità migliorato grazie a Machine Learning e Deep Learning

Mantenere alta la qualità del prodotto è una sfida sempre più difficile, in quanto la concorrenza è sempre più serrata, il time-to-market è sempre più ristretto e i prodotti sono sempre più complessi. Come già evidenziato, la qualità resta l’obiettivo principale per i manager, che ben conoscono il potere dei loro clienti nel veicolare la loro esperienza e le loro informazioni sui prodotti e le difficoltà dovute al richiamo di prodotti per difetti di fabbricazione.

Le tecnologie dell’Industria 4.0 hanno portato a una maggiore efficienza nel controllo qualità dei prodotti, grazie alla possibilità di monitorare costantemente i dati di produzione con l’IoT. Questi dati forniscono utili insights relativi all’uso e alle performance di prodotti e macchinari, diventando una fonte preziosa per le strategie di business e di product management.

Di nuovo, l’Intelligenza Artificiale viene in aiuto alle imprese, fornendo degli algoritmi in grado di migliorare la qualità dell’output di produzione, ad esempio prevedendo i ritmi di deterioramento e la necessità di sostituire i componenti dei macchinari. Avere in anticipo queste informazioni permette di allocare più correttamente le risorse ed evitare sprechi di materie prime.

Intelligenza Artificiale, Machine Learning e Deep Learning at the Edge

Il Cloud ha avuto finora un ruolo di primo piano nell’elaborazione di modelli di Machine Learning e Deep Learning per l’Intelligenza Artificiale in genere, grazie alla disponibilità di computer molto potenti in grado di processare enormi quantità di dati. Tuttavia, l’aumento della mole di dati raccolti sul campo genera problemi relativi alla trasmissione degli stessi al Cloud, senza considerare gli aspetti di banda, di latenza e di confidenzialità delle informazioni.

La soluzione è portare la potenza di calcolo disponibile a livello di Cloud verso l’Edge, ossia verso il campo. Eurotech ha recentemente ampliato il suo portafoglio di supercomputer ad alte prestazioni realizzando dei sistemi di calcolo, storage e networking che portano le capacità del data center sul campo. Questi sistemi HPEC (High Performance Embedded Computer) permettono l’elaborazione di modelli di AI tramite Deep Learning direttamente alla fonte dei dati, spesso in condizioni ambientali difficili in termini di spazio, temperatura, shock e vibrazioni: per questo la robustezza risulta una caratteristica essenziale per il loro funzionamento.

Sistemi HPEC

Gli HPEC abilitano applicazioni di AI avanzata, come ad esempio le auto a guida autonoma di livello 5. In ambito industriale possono essere impiegati per applicazioni di visione artificiale e di robotica avanzata, per rendere i robot sempre più autonomi nelle loro decisioni. Visto l’ammontare dei dati raccolti ogni giorno dagli asset sul campo, questi “supercomputer embedded” sono l’ideale per tradurre i dati in conoscenza e poi in decisioni prese, in tempo reale e in autonomia, dalle macchine.

Download

mail
richiesta informazioni
* campi obbligatori
Letta e compresa l'informativa sulla privacy *
Consenso a ricevere e-mail di marketing * - leggi
Vorremmo condividere con te le nostre comunicazioni di marketing. Rimani aggiornato sugli ultimi prodotti, eventi e newsletter di Eurotech dando il tuo consenso a ricevere le nostre e-mail di marketing. Se vuoi sapere di più su come gestiamo i tuoi dati e su come aggiornare le tue preferenze di iscrizione, consulta qui la nostra Informativa sul Trattamento dei Dati Personali
Premi “INVIA” per confermare i dati e inviare la richiesta. Premi “ANNULLA” per resettare i campi
Questo sito o gli strumenti terzi da questo utilizzati si avvalgono di cookie necessari al funzionamento ed utili alle finalità illustrate nella cookie policy. Se vuoi saperne di più o negare il consenso a tutti o ad alcuni cookie, consulta la
cookie policy
Chiudendo questo banner, scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all’uso dei cookie.
accetto