Articolazione dei WP
RILIES è un progetto strutturato e articolato secondo WP logici riportati di seguito con la sintetica illustrazione delle attività ed il ruolo dei partner.
Il progetto è articolato in 3 Work Packages, ciascuno dei quali è strutturato in più attività realizzative. Di seguito viene presentata la descrizione delle varie sezioni del progetto, con l’indicazione dei partner coinvolti e delle competenze apportate.
Workpackage 1: Analisi del contesto e stato dell’arte
– Problemi dovuti all’esondazione dei corsi d’acqua nel territorio crotonese
– Sistemi di monitoraggio e allerta attualmente utilizzati
– Risorse dirette dell’ente proponente da destinare a compiti di monitoraggio e allerta
– Altri soggetti istituzionali e privati coinvolti nella gestione del problema
– Entità della popolazione interessata in modo diretto o indiretto al problema;
Questi tre corsi d’acqua sono quelli che, unendosi poco prima dell’inizio del centro abitato di Crotone, possono essere considerati delle “sentinelle” in riferimento a fenomeni di esondazione localizzata e/o diffusa che interessino la città di Crotone (come quella tristemente nota dell’ottobre del 1996). Pertanto, nella proposta progettuale in oggetto, si è scelto di individuare tre sezioni (Figura 1), una per ciascun corso d’acqua, ove collocare gli idrometri, ossia strumenti per misurare i livelli idrici, ed allo stesso tempo individuare i sottobacini delle aree di monte, cioè quelle porzioni di territorio che contribuiscono a generare il deflusso superficiale che attraversa quella sezione. In corrispondenza delle sezioni relative a ciascun idrometro e di un numero adeguato di sezioni immediatamente a monte e a valle si procederà inoltre all’esecuzione di una serie di rilievi idrografici diretti necessari per la successiva analisi idraulica finalizzata alla stima della scala di deflusso (AR2.3 e AR3.1). In corrispondenza di zone significative (in prossimità dei crinali o dei baricentri geometrici) di ciascun sottobacino sarà posizionata inoltre una stazione meteo completa, tale da misurare in continuo le principali variabili meteo-idrologiche. In particolare, la pioggia misurata sarà assimilata come rappresentativa dell’intero sottobacino e dunque indicativa delle soglie pluviometriche da individuare.
Il fiume Esaro nella sua parte terminale è reggimentato artificialmente, tuttavia questo intervento di mitigazione strutturale può generare degli inconvenienti. Infatti, in considerazione delle velocità di deflusso considerevolmente aumentate si può dar luogo a fenomeni di esondazione localizzata in prossimità di punti nevralgici per la conformazione idrografica del territorio, come per esempio i ponti o le curve.
Pertanto, al fine di migliorare sensibilmente la qualità del progetto ed in vista della successiva analisi idraulica (AR2.3) si procederà all’esecuzione di rilievi topografici supportati da LiDAR su circa 8.7 km di reticolo idrografico (Figura 1), cioè su tutte le aste fluviali a valle delle sezioni scelte per il posizionamento degli idrometri. Il rilievo con sensore LiDAR garantirà un’accurata precisione, dell’ordine inferiore al metro, ed inoltre riguarderà tutte le aree di “pertinenza idraulica”, quindi si estenderà con un buffer anche oltre gli argini.
Tutto ciò al fine di garantire un’adeguata accuratezza geomorfologica alla successiva analisi idraulica.
Prodotti attesi:
1. Report con analisi aggiornata del contesto idrografico oggetto dell’intervento inclusivo di analisi idrologica
2. Rilievo topografico delle sezioni dell’asta fluviale in corrispondenza degli idrometri e delle sezioni immediatamente a valle (fino a 150 m) e a monte (fino a 150 m), per un totale di circa 11 rilievi. Restituzione in tavole e file .dwg
3. Rilievo con sensore LiDAR dell’asta fluviale a valle degli idrometri fino al mare, da argine destro ad argine sinistro considerando un ulteriore buffer di 40 m in entrambi i lati. Restituzione del modello digitale delle superfici (DSM) e del terreno (DTM) sia con sistema di riferimento WGS84 e quote ellissoidiche che con sistema di riferimento UTM33 e quote ortometriche.
Per quanto riguarda in particolare la misura della pioggia, secondo le stringenti norme internazionali WMO (Weather Meteorological Organization), i pluviometri devono avere una precisione di 0.2 mm ed un’accuratezza di ± 0.05 mm. Normalmente essi sono costituiti da un recipiente cilindrico, che può avere diverse dimensioni, con all’interno un imbuto per convogliare l’acqua verso una camera sottostante dotata di bascula oscillante in grado di fornire la misura. Tali strumenti devono essere in metallo in modo tale da garantirne la durata nel tempo alle diverse condizioni climatiche, inoltre devono essere costruiti con delle caratteristiche costruttive tali da minimizzare il disturbo generato dal vento o dall’evaporazione dovuta alle alte temperature estive.
Per quanto riguarda i misuratori di portata esistono diverse scelte possibili, in particolare, occorre accoppiare delle misure di livello idrometrico a delle misure di velocità della corrente idrica, pertanto oltre agli idrometri, che sono strumenti dedicati alla sola misura dei livelli idrometrici, talvolta si affiancano misuratori Doppler per ottenere la velocità idrica superficiale. Tuttavia, questi misuratori di velocità sono molto costosi sia per l’installazione che per la manutenzione stessa.
Nell’ottica generale del progetto, che intende offrire soluzioni affidabili e al contempo “low-cost” alla problematica del rischio idraulico, si è scelto di utilizzare dei sensori basati sul paradigma “Open Hardware”, che si fonda sul concetto di rendere fruibile a chiunque la strumentazione fisica, *l’hardware, per effettuare misure di grandezze di interesse meteo-idrologico. Tale paradigma consente di avere sensori che rispettano tutti gli standard WMO, ma allo stesso tempo notevoli vantaggi dal punto di vista economico.
Per quanto riguarda il preannuncio dei fenomeni alluvionali, i sistemi più complessi, ma anche più efficienti, sono costituiti dall’accoppiamento fra modelli numerici dell’atmosfera (NWP – Numerical Weather Prediction) e modelli idrologici-idraulici. Il vantaggio principale di tale catena modellistica è dato dalla capacità di fornire con opportuno anticipo previsioni utili ad allertare la popolazione in caso di necessità (Avolio et al., 2019). Tuttavia, lo svantaggio di questa modellistica è dato dall’elevato onere computazionale richiesto dai modelli atmosferici (Furnari et al, 2019), i quali non solo richiedono ingenti costi in termini di infrastrutture informatiche, ma anche personale con elevate competenze specifiche.
Pertanto, nella visione generale “smart” e “low-cost” del progetto, si è scelto di utilizzare un approccio basato sul cosiddetto “metodo inverso” (AR2.1), che valutando l’evoluzione temporale delle serie di pioggia misurate in tempo reale è in grado di fornire elementi importanti di supporto alle decisioni per il rischio alluvioni.
L’impegno relativo a quest’azione sarà dunque soprattutto indirizzato alla descrizione delle varie scelte operative disponibili nell’approccio al problema, puntualizzandone vantaggi e svantaggi, per poi soffermarsi in particolare sulla soluzione operativa adottata nel presente progetto.
Prodotti attesi:
1. Report relativo al posizionamento della proposta progettuale nel panorama degli strumenti operativi a disposizione per il monitoraggio e preannuncio del rischio alluvioni
WP2 – Progettazione e realizzazione della soluzione
Il concetto alla base del sistema che si intende sperimentare è dato dalla ricerca della cosiddetta soluzione inversa della classica trasformazione degli afflussi meteorici in deflussi di piena. Tramite questo approccio, assegnata una portata di guardia nelle sezioni caratteristiche di un tronco fluviale, si determina tramite modellistica numerica la soglia pluviometrica di allertamento, ossia la quantità di precipitazione lorda che per diverse durate determina la portata di piena assegnata. Il valore della portata di guardia è definito, in particolare, come quella quantità d’acqua che, transitando nella sezione di controllo, determina un livello idrico tale da garantire un franco medio sufficiente (es. 1 m) per ciascun tronco principale del reticolo idrografico di cui è nota la geometria.
In seguito all’esondazione del fiume Esaro del 1996, all’interno del “Piano di interventi infrastrutturali di emergenza e di prima sistemazione idrogeologica nel territorio del comune di Crotone”, è stata prevista la determinazione delle soglie idrometeorologiche di allerta ed allarme delle piene fluviali utilizzando l’approccio sopra esposto. La proposta RILIES intende rivisitare ed aggiornare la metodologia facendo leva su una serie di importanti innovazioni scientifiche e tecnologiche.
L’architettura generale del sistema può essere definita dalla seguente catena procedurale:
• Monitoraggio in continuo delle principali variabili meteo-idrologiche nei tre principali sottobacini che comprendono l’area a monte del bacino del Fiume Esaro e dei livelli idrici in corrispondenza delle sezioni di chiusura degli stessi sottobacini
• Trasmissione in tempo reale delle misure presso il database NOSQL ElasticSearch; ElasticSearch nasce come motore di analisi e ricerca RESTful altamente scalabile, distribuito e open-source che offre analisi dei log, monitoraggio delle applicazioni in tempo reale, analisi dei flussi di clic e altro ancora. Elasticsearch memorizza e recupera strutture dati in tempo reale. Ha funzionalità multi-tenant con un’interfaccia web HTTP, presenta i dati sotto forma di documenti JSON strutturati, rende la ricerca full-text accessibile tramite RESTful API utilizzabili con client Web per linguaggi come PHP, Ruby, .Net e Java.
• Utilizzo delle misure di pioggia per la valutazione, tramite l’utilizzo integrato di modelli idrologici ed idraulici ed algoritmi di real time analytics, del raggiungimento della soglia pluviometrica di allertamento e quindi dell’eventuale rischio alluvioni.
La valutazione del rischio avverrà, per le specifiche condizioni di umidità del suolo associate all’evento in analisi, confrontando l’andamento delle piogge misurate con un poderoso database di serie di piogge sintetiche in grado di determinare il raggiungimento della portata di guardia. Le serie di piogge sintetiche saranno selezionate, adottando un approccio del tipo Monte Carlo e valutando evoluzioni temporali tipiche associate sia a fenomeni meteorologici convettivi che a sistemi frontali, tramite una catena di modellazione idrologico-idraulica. Il confronto tra piogge osservate e piogge sintetiche si baserà su reti neurali, e quindi su tecniche di apprendimento automatico che, in base ad alcuni recenti studi, risultano molto più vantaggiose rispetto l’uso di tecniche e metodi analitici, in cui la previsione dei fenomeni a partire da dati empirici è soggetto ad errori o incompletezza delle informazioni.
Per ognuno degli elementi del sistema possono essere evidenziati i seguenti aspetti innovativi:
1. Le misure meteo (in particolare le misure di pioggia) e di livello idrometrico (da cui saranno desunti, attraverso la definizione delle scale di deflusso, i valori di portata) saranno eseguite con sensori low-cost, ma rispettosi di standard di accuratezza elevati, basati sul paradigma open hardware
2. Trasmissione dati in tempo reale. Questa fase è molto importante per il corretto monitoraggio dei corsi d’acqua, e verrà effettuata attraverso l’uso di tecnologia LORA abbinata all’uso di rete Cellulare GSM/3G+ …[IFM] 3. La modellazione idrologica relativa alla trasformazione afflussi-deflussi sarà costantemente monitorata e validata su tre sezioni idrometriche, permettendo di valutare con la necessaria accuratezza le condizioni di umidità del suolo medie delle rispettive aree drenanti
4. La determinazione della portata di guardia tramite modellazione idraulica si avvarrà di un rilievo eseguito con sensore Lidar per l’intera asta fluviale a valle degli idrometri di controllo, permettendo un livello di dettaglio assolutamente inedito
5. Algoritmi di analytics, attraverso l’applicazione di tecnologie di intelligenza Artificiale con le quali il sistema permetterà di evidenziare le possibili criticità dei corsi d’acqua monitorati. Il prototipo non deve essere inteso come un sistema di Event Alerting ma un sistema di supporto alle decisioni relative alle criticità sui flussi d’acqua.
Si individuano le seguenti componenti:
– Sensori di campo – sono i sensori individuati tra quelli descritti nell’attività 1.3 che saranno gestiti da un Edge Gateway su cui risiederà la logica elaborativa periferica con il compito di acquisirei dati e trasferirli opportunamente codificati e formattati alla piattaforma cloud IoT attraverso un sistema di comunicazione basato su protocolli industriali di trasporto e applicativi offerti dalla piattaforma stessa (genericamente HTTP/REST e MQTT sopra IP). La logica elaborativa presente sugli edge gateway sarà costruita in base alle interfacce di comunicazione dei sensori e produrrà un flusso normalizzato di dati verso la piattaforma IoT. Sarà implementata da Eclipse Kura che è un IoT Edge Framework estensibile e open source basato su Java / OSGi. Nella piattaforma è impiegato come software di base per la gestione dei gateway, mettendo in comunicazione i vari sensori impiegati con la piattaforma IoT in cloud. Kura offre accesso API alle interfacce hardware dei gateway IoT (porte seriali, GPS, watchdog, GPIO, I2C, ecc.). È dotato di protocolli di campo pronti all’uso (tra cui Modbus, OPC-UA, S7), un contenitore di applicazioni e una programmazione del flusso di dati visivi basata sul web per acquisire dati dal campo, elaborarli al limite e pubblicarli sulle principali piattaforme cloud IoT attraverso la connettività MQTT.
– IoT – è responsabile dell’autenticazione centralizzata dei dispositivi di campo (edge gateway), dello scambio di messaggi (informazioni lette dal campo) tramite protocolli IoT standard. Tali informazioni vengono “ingerite” dal middleware IoT e vengono redirette secondo regole verso gli altri consumatori, oggi rappresentati dalla piattaforma di analitica ma comunemente anche mobile/web applications. Caratteristiche fondamentali di un IoT middleware open source in grado di soddisfare i requisiti dell’attività sono il supporto dei protocolli MQTT e HTTP/REST per lo scambio di messaggi, la gestione degli account device utilizzati tramite tali protocolli e la possibilità’ di impostare regole di “Routing” sui messaggi, quindi allarmi e trigger, in grado di reagire in tempo reale, anche con elevati throughput (bisogna considerare che l’infrastruttura possa ingerire milioni di messaggi al secondo e che l’IoT middleware debba essere in grado di gestirli). Le componenti open source individuate, in termini di prestazioni, scalabilità’ e completezza del software è Eclipse IoT (Kapua) che supporta diversi protocolli di ingestione dati e ha una moderna interfaccia web, colloquia in modo nativo con il software agent Eclipse Kura presente sugli edge gateway.
– Communication Layer – il compito di trasferire le infoprmazoni dalla piattaforma di IoT al sistema di Analytics è affidato alla componente Apache Kafka. E’ una piattaforma open source di stream processing scritta in Java e Scala e sviluppata dall’Apache Software Foundation. Il progetto mira a creare una piattaforma a bassa latenza ed alta velocità per la gestione di feed dati in tempo reale. Le informazioni acquisite e presenti nella piattaforma IoT vengono inviate alla piattaforma di Analytics attraverso dei Job creati con Vert.X.
– Analytics Real Time e Batch – le componenti del sistema elaborano gli algoritmi di l’intelligenza artificiale per analizzare i dati che provengono dalla piattaforma di IoT e ancor prima dai sensori di campo che saranno installati nell’area interessata dall’intervento. Ci saranno due tipi di elaborazioni, in Real Time e Batch ed entrambi producono report e dashboard per la segnalazione di anomalie, destinate a chi deve successivamente prendere delle decisioni, dell’area soggetta a controllo. La componente dove vengono memorizzati i big data provenienti dai sensori è ElasticSearch; è un server di ricerca basato su Lucene, con capacità Full Text, con supporto ad architetture distribuite. Tutte le funzionalità sono nativamente esposte tramite interfaccia a servizi di tipo RESTful, mentre le informazioni sono gestite come documenti JSON. Elasticsearch nel gennaio 2016 risulta essere il motore di ricerca più utilizzato. Date le sue alte performance nella ricerca di documenti, nell’ambito del progetto, viene usato come database NOSQL. Apache Spark è un framework open source per il calcolo distribuito sviluppato dall’AMPlab della Università della California e successivamente donato alla Apache Software Foundation. Il meccanismo di processing delle informazioni attraverso funzionalità “in-memory” multilivello fornisce prestazioni molto elevate rispetto ad altri software di pari funzionalità. Grazie alle sue alte prestazioni nel calcolo computazionale, Spark è utilizzato per implementazione degli algoritmi di apprendimento automatico con tecniche di Machine Learning e Deep Learning. Nel progetto viene usato in due modalità, prelevando direttamente dati forniti su Code Kafka, attraverso la libreria Apache Spark Streaming, o in modalità batch, prelevando i dati dal Db No SQL Elastic Search, attraverso l’uso delle librerie standard Apache Sparck Batch. Eclipse Vert.x è un framework per la creazione di sistemi “event driven” e “non blocking”. Ciò significa che è possibile creare applicazioni che gestiscono dati in concorrenza usando ed ottimizzando le poche risorse hardware a disposizione. Sposa a pieno il concetto delle applicazioni a Microservizi. Nella piattaforma viene utilizzato per creare job di acquisizione dati dalla piattaforma IoT in Cloud e il loro riversamento nel database Elastic Search. Può essere inoltre utilizzato per inviare direttamente dati agli applicativi (web e mobile) in modalità WebSocket agli stakeholder del sistema. Il software HEC-RAS permette di modellare la propagazione di una corrente lungo un d’acqua utilizzando uno schema unidimensionale sia in condizioni di moto permanente che in condizioni di moto vario. Il programma può essere utilizzato per simulare la propagazione dell’onda di piena lungo il reticolo idraulico e determinare l’altezza che il livello idrico raggiunge nelle varie sezioni, permettendo di perimetrare le aree allagabili con diversi tempi di ritorno. Il software HEC‐HMS è un sistema di analisi dei fiumi sviluppato dall’Hydrologic Engineering Center. È stato progettato per simulare i processi di precipitazione e di deflussi di bacini idrografici, ed è applicabile ad una vasta gamma di problemi idrologici; il software, infatti, consente la modellazione idrologica di un bacino, mediante la definizione degli elementi concettuali che lo rappresentano e dei processi fisici che avvengono in essi. Infine Kibana è un plugin open source Data Visualization per Elastic Search. Viene utilizzato nell’ambito del progetto di ricerca nell’applicazione di front-end per la visualizzazione dei report e dei dashboard.
Una evidenza particolare è rivestita dall’attività di acquisizione dei dati dai sensori che di fatto sono di due tipologie: stazione meteo completa (a sua volta composta da diversi sensori quali pluviometro, temperature e umidità, irragiamento, ecc.) e idrometri per la misurazione del livello dell’acqua. Tutti questi sensori comunicheranno con la piattaforma IoT e con la piattaforma di Analytics secondo delle specifiche in formato JSON che saranno messe a punto nella fase esecutiva del progetto. Sostanzialmente sarà prodotto un JSON SCEMA per ogni sensore e un JSON SCHEMA per la comunicazione tra KURA e KAPUA. Il disegno che segue riepiloga concettualmente il flusso di acquisizione dei dati.
La frequenza di acquisizione dipenderà dalla tipologia di sensore e dal tipo di analisi che si intenderà implementare.
Prodotti attesi:
1. Report contenente la definizione dettagliata delle componenti del sistema e delle interfacce di correlazione; il report conterrà anche la definizione del flusso di interfaccia tra i sensori e gli edge gateway, tra questi ed il cloud IoT e tra il cloud e la piattaforma di Analytics.
La catena modellistica che il progetto propone di realizzare prevede, dopo la prima fase di acquisizione dei dati di pioggia e portata volumetrica , una simulazione sia idrologica che idraulica. Per quanto riguarda la modellazione idraulica si farà uso del software freeware HEC-RAS River Analysis System, sviluppato dall’US Army Corps of Engineers. Tale software consente di effettuare simulazioni idrauliche monodimensionali o, come potrà essere possibile nel caso in analisi, bidimensionali, sia in regime transitorio che stazionario, utilizzando diverse tecniche di approssimazione e risoluzione numerica. Il software, largamente adoperato nell’ambito dell’ingegneria idraulica, è estremamente versatile e consente di ottenere risultati sufficientemente accurati per gli scopi del progetto. Esso sarà tra l’altro utilizzato, in combinazione con misure periodiche di portata (che avverranno tramite uno strumento portatile), per la definizione delle scale di deflusso in corrispondenza degli idrometri.
La modellazione idrologica, al fine di quantificare il deflusso superficiale generato dalla pioggia lorda registrata dalle stazioni pluviometriche o generata con tecniche di generazione Monte Carlo, è affidata al software freeware HEC-HMS Hydrologic Modeling System, sviluppato sempre dall’US Army Corps of Engineers. Questo software, così come HEC-RAS, è estremamente personalizzabile e consente quindi l’applicazione di diversi possibili modelli per rappresentare le varie componenti, come per esempio l’infiltrazione, l’evapotraspirazione o la trasformazione matematica fra afflussi netti e deflussi.
Un aspetto caratterizzante del WP è dato dal fatto che la catena di modellazione sarà costantemente monitorata e validata, in particolare per quanto riguarda la trasformazione afflussi-deflussi, utilizzando i dati disponibili dalle tre sezioni idrometriche, permettendo quindi di valutare in tempo reale, con la necessaria accuratezza, le condizioni di umidità del suolo medie dei rispettivi sottobacini. La modellazione idraulica sarà invece caratterizzata da un’attenta stima dei parametri di scabrezza definita tramite appositi sopralluoghi e da misure a terra a completamento del rilievo Lidar (es., pile dei ponti), e sarà validata sia con eventuali valori di portata e/o di livello idrometrico forniti dalla stazione di misura “Ponte San Francesco” gestita dal Centro Funzionale Multirischi ARPACAL, sia con ulteriori misure di portata spot per diverse sezioni a valle degli idrometri.
La catena di modellazione calibrata e validata sarà utilizzata in modalità off-line per la definizione delle soglie pluviometriche di allertamento. In particolare, applicando la tecnica Monte Carlo sarà generata una significativa quantità ( 103) di ietogrammi considerando: i) tipologie di evoluzione temporale del fenomeno associate sia a fenomeni meteorologici convettivi che a sistemi frontali; ii) durate di precipitazione variabili da 1 a 24 ore; iii) intensità di pioggia variabili (ma comunque di entità significativa, definita in base ad un apposito studio idrologico del bacino dell’Esaro); iv) condizioni di umidità iniziale del suolo variabili da molto secche a molto umide.
Tra tutte le serie di piogge sintetiche generate saranno selezionate quelle capaci di generare una portata pari almeno al livello di guardia. Le serie sintetiche selezionate saranno confrontate con l’andamento delle piogge misurate e su cui verranno applicativi algoritmi di predizione basata sulle reti neurali, le quali permetteranno di determinare le probabilità relative ai livelli di criticità dei flussi d’acqua.
Prodotti attesi:
1. Report relativo all’implementazione, la validazione e l’applicazione operativa della catena modellistica idrologico-idraulica.
2. Database delle serie sintetiche di pioggia selezionate per l’analisi tramite reti neurali.
Prodotti attesi:
1. Applicazione Web e Mobile per il monitoring in real time dei corsi d’acqua
2. Report di descrizione dettagliata delle integrazioni software realizzate
3. Report sulla configurazione completa del sistema software e l’installazione del software di base e di ambiente sui server
WP3 – Sperimentazione e Disseminazione della soluzione
Le stazioni idrometriche, invece, forniranno in continuo indicazioni sul livello idrometrico nelle sezioni in cui sono installate. Ogni stazione idrometrica sarà composta da un misuratore di livello radar, che sfrutta quindi il segnale retro-diffuso per ricavare l’altezza dello specchio liquido espressa in metri e con una precisione dell’ordine del mm. Il dato sarà processato dalla centralina e comunicato tramite il sistema di comunicazione GSM. Anche in questo caso la stazione sarà autoalimentata tramite un sistema fotovoltaico accoppiato con accumulo. Le stazioni idrometriche installate saranno tre, in modo tale da avere tre distinti corsi d’acqua “sentinella”.
Le stazioni di misura, oltre ad essere basate sul paradigma open-hardware, saranno fornite in modalità “kit-fai-da-te”, che agevolerà il montaggio.
Alle stazioni di misura fisse saranno affiancate misure periodiche di portata tramite un misuratore di portata con sonda aerea velocity Doppler acustico, finalizzate alla realizzazione delle scale di deflusso in corrispondenza degli idrometri e di eventuali misure di portata per sezioni a valle (lungo l’asta finale dell’Esaro).
Prodotti attesi:
Report di installazione delle stazioni di misura
Una rete neurale artificiale è composta a neuroni, organizzati a strati e interconnessi tra loro. Le reti, oltre all’essenziale strato di ingresso, composto dalle variabili di input, devono possedere uno o più strati di elaborazione: in generale, vi sono N strati, di cui i primi N – 1 nascosti (hidden layer), contenenti un numero arbitrario di neuroni ciascuno, mentre l’ultimo, visibile, è lo strato di output e contiene un numero q≥1 di neuroni pari alle variabili di uscita.
Ogni neurone è collegato ai neuroni dello strato successivo da connessioni pesate, dove una connessione non è altro che un valore numerico, detto peso, che viene moltiplicato per il valore del neurone. Alla somma dei prodotti tra pesi e neuroni, viene aggiunta una costante, detta bias. Al valore risultante da questa operazione, verrà applicata una funzione, detta funzione di attivazione, e l’output prodotto costituirà il neurone dello strato successivo. Dunque posto xi+1,j il j-esimo neurone dello strato (i+1)-esimo, allora xi+1,j = f(bj+Σwkxi,k),
dove xi,k è il k-esimo neurone dello strato i-esimo, wk è il peso che connette xi,k con xi+1,j, bj è il valore bias associato al neurone xi+1,j e f è la funzione di attivazione. La scelta della funzione di attivazione dipende dal tipo di problema e dalla complessità della rete neurale, esempi di funzioni di attivazione molto utilizzate sono la funzione lineare, la funzioni sigmoide e la funzione relu.
Continuando il procedimento descritto sopra fino all’ultimo strato della rete, in fase di training, il valore ricavato verrà confrontato con l’output noto, e a seconda dell’errore commesso verrà rieseguito tutto il procedimento, dopo aver modificato il valore assegnato ai pesi. Al termine della procedura di addestramento, i pesi assegnati saranno tali per cui la rete sarà in grado di calcolare un output corretto anche per valori di input sconosciuti.
L’utilizzo di reti neurali risulta particolarmente vantaggioso rispetto all’utilizzo di metodi analitici, in tutti quei campi in cui si vogliono prevedere fenomeni a partire da dati empirici, soggetti dunque ad errori imprecisioni o incompletezze.
Molta importanza verrà data alla parte di reportistica, dove insieme agli stakeholders saranno decise sia le dashboard di supporto, sia gli indicatori di riferimento. Il sistema nasce comunque per essere dinamico, per cui sarà dinamica anche la gestione dei report che sarà affinata assieme agli stackholders.
Prodotti attesi:
1. Report finale relativo alle statistiche delle misure acquisite nel corso del progetto (incluse le misure eseguite con il misuratore di portata portatile)
2. Report contenente i risultati di sintesi delle elaborazioni effettuate tramite gli algoritmi di real time analytics
D’altro canto, è necessario che, per alzare il livello di partecipazione civica della cittadinanza, si inneschi un dialogo costante con i cosiddetti stakeholder, cioè tutti i cittadini, le imprese, le organizzazioni e gli enti pubblici che hanno interesse verso la specifica problematica. In quest’ottica, si individuano alcune fasi progettuali all’interno delle quali deve trovare posto la partecipazione della cittadinanza attiva e interessata all’iniziativa. In particolare, tali fasi sono:
– Analisi del contesto su cui avrà impatto l’iniziativa
– Progettazione della soluzione prototipale
– Realizzazione della soluzione prototipale
– Sperimentazione e disseminazione della soluzione.
Pertanto, all’avvio del progetto, si prevede una divulgazione pubblica dell’iniziativa e dei suoi obiettivi, attraverso i vari media (Tv, stampa tradizionale e su web, conferenze locali), evidenziando gli obiettivi sociali e determinando un clima favorevole alla partecipazione. La comunicazione dovrà proseguire nella fase di progettazione della soluzione, accompagnata da eventi che consentono l’interazione diretta tra gli stakeholder e l’ente proponente (il c.d. rappresentante dell’utenza finale), con la partecipazione dei partner di progetto.
Anche la fase di realizzazione, per stati di avanzamento, dovrà prevedere dei momenti di interazione con la cittadinanza, ad es., attraverso la comunicazione dei risultati intermedi raggiunti, possibilmente su un portale di progetto che ne traccia il progresso.
La fase di sperimentazione deve rendere pubblici i risultati via via ottenuti, tramite l’esposizione periodica dei dati acquisiti, elaborati e opportunamente aggregati per essere resi fruibili ad un’utenza non specialistica.
Infine, la disseminazione dei risultati avverrà, oltre che tramite una comunicazione unilaterale, anche mediante convegni e altri momenti di partecipazione collettiva, tra cui gruppi sui social media, da cui l’ente può trarre interessanti spunti di riflessione nella fase cruciale in cui l’ente dovrà decidere come utilizzare i risultati di progetto, passando da una fase prototipale ad una industriale.
– Un periodo di sperimentazione più lungo, per acquisire una maggiore quantità di dati da fornire al sistema di real time analytics e rendere, pertanto, la piattaforma più intelligente
– Un budget in strumentazione e attrezzature molto più alto, per poter estendere l’area geografica oggetto della sperimentazione.
Dalle precedenti considerazioni si evince che, nel percorso di industrializzazione della soluzione proposta, è necessario prevedere un time to market, con un ben definito piano che al termine del percorso, consegni un prodotto industriale che garantisca ricadute produttive sia alle imprese partecipanti che alla collettività che ne ha sollecitato la realizzazione.
Pertanto è prevista una specifica attività afferente al WP3 che ha l’obiettivo di effettuare un’analisi per la valorizzazione economica dei risultati della sperimentazione. Tale analisi, la cui articolazione dipende anche dalla quantità e qualità dei risultati raggiunti, deve tenere conto di una serie di variabili, tra le quali non possono mancare:
– Il mercato di riferimento della soluzione
– Il livello tecnologico del prototipo
– Le caratteristiche del prodotto che si intende realizzare
– L’entità dell’investimento che si intende effettuare.
L’output dell’attività sarà un business plan da avviare in continuità con la fase di sperimentazione.
Output di progetto
Il progetto intende costruire una piattaforma per la gestione operativa di un sistema di monitoraggio e preannuncio caratterizzato da sensoristica low-cost e modelli di calcolo speditivi in grado di fornire indicazioni utili e tempestive a supporto dei decisori per il rischio alluvioni. Obiettivo di questa soluzione è quello di caratterizzarsi come importante (anche se non unica) sorgente informativa a supporto dei decisori istituzionali per la predizione di eventi di altissima criticità che nel tempo hanno portato a disastrose conseguenze sul territorio Crotonese.
L’output progettuale consisterà dunque in una prototipazione software per la gestione dei dati, dei modelli idrologico/idraulici e degli algoritmi di real time analytics, finalizzata alla valutazione del raggiungimento di una soglia pluviometrica di allertamento e quindi dell’eventuale rischio alluvioni.