FOSS4G-IT 2024
Introduzione al software desktop QGIS: interfaccia utente. Caricamento in mappa di layer vettoriali, Visualizzazione tabellare, Simbologie di layer vettoriali. Modifica di layer vettoriali. Assegnazione del sisteme di riferimento. Caricamento delle mappe di base. Caricamento di servizi cartografici WMS.
Introduzione alla gestione di dati geospaziali con l'estensione Postgis del database Postgresql. Importazione da QGIS, Ambiente di Lavoro. Funzioni principali di Postgis, Query di selezione, Query di raggruppamento, Trasformazione e manipolazione delle geometrie.
Il workshop verterà su espressioni e funzioni, join e relazioni, compositore di stampa, strumenti di processing e plugins
Il workshop si pone come obiettivo il mostrare strumenti e procedure per mappare e aggiornare informazioni in OpenStreetMap
API di QGIS, Cookbook di QGIS, Console e Script in python, Framework di processing. implementazione di un'algoritmo personalizzato.
Il workshop ha come obiettivo il mostrare strumenti per la ricerca e l'analisi dei dati satellitari della missione Sentinel - ESA.
Tecniche e strumenti per la pubblicazione su web di informazioni geospaziali. Qgis server, Plugin e server Lizmap. Organizzazione dei progetti per la pubblicazione
Introduzione all'amministrazione del database Postgresql: utenti e gruppi. Autenticazione. Diritti sui database/schemi/tabelle. Foreign Wrappers.
Gli spazi verdi pubblici svolgono un ruolo essenziale nel migliorare la vivibilità delle nostre città, non solo dal punto di vista ambientale, ma anche in termini di coesione sociale, interazione ed equità. Con l'approvazione della Nature Restoration Law [1] in Europa, gli Stati membri sono ora obbligati a monitorare e valorizzare le aree verdi urbane, considerando tutta la vegetazione presente nei contesti urbani.
Deda Next [2], nell’ambito del progetto USAGE [3] e in collaborazione con l’Istituto Superiore per la Protezione e la Ricerca Ambientale – ISPRA [4], ha analizzato le aree verdi nelle 14 principali città metropolitane italiane. L’obiettivo? Misurare quanto gli spazi verdi siano accessibili per la popolazione residente.
Gli spazi verdi nelle città non si limitano però ai parchi pubblici, possono includere anche giardini privati, parchi giochi, foreste, file di alberi lungo le infrastrutture stradali o lungo le cosiddette infrastrutture blu come fiumi o canali. Tuttavia, non esiste una definizione univoca di spazio verde pubblico urbano (Green Urban Public Space - GUPS), poiché varia a seconda del contesto locale e degli obiettivi di pianificazione. La scelta è stata quella di prendere in considerazione come spazio verde urbano i dati estratti dai database Urban Atlas [5] e OpenStreetMap [6], mappando il territorio urbano con celle esagonali di 125 metri per lato. Ogni cella è stata associata a un punto di partenza, come un incrocio stradale, e tramite la rete stradale di OpenStreetMap è stato calcolato il percorso pedonale più breve verso le aree verdi più vicine.
Infine, ogni cella è stata associata alla popolazione residente, utilizzando dati ISTAT del 2021 [7]. Il riferimento è la regola IUCN 3-30-300 [8], che suggerisce un accesso ottimale agli spazi verdi quando il percorso pedonale per raggiungerli è inferiore a 300 metri. Questo approccio ci permette di comprendere quanto le città italiane siano connesse ai propri spazi verdi e di suggerire ai decisori opportunità per migliorarne l'accessibilità.
L’analisi è stata eseguita con QGIS 3.34 Model Designer [9] e integrando script python per il calcolo della distanza su grafo stradale. I dati sono poi stati condivisi tramite QGIS GeoCat Bridge plugin [10] all’interno del server geografico di progetto (GeoServer) in modo da essere visualizzati tramite servizi WMS all’interno di questa pagina [11].
[1] environment.ec.europa.eu/topics/nature-and-biodiversity/nature-restoration-law_en
[2] dedanext.it
[3] usage-project.eu
[4] isprambiente.gov.it/it
[5] land.copernicus.eu/en/products/urban-atlas
[6] openstreetmap.org
[7] istat.it/notizia/dati-per-sezioni-di-censimento
[8] nbsi.eu/the-3-30-300-rule
[9] docs.qgis.org/3.34/en/docs/user_manual/processing/modeler.html
[10] plugins.qgis.org/plugins/geocatbridge
[11] dedanext.it/aree-verdi-pubbliche-urbane
Il progetto europeo USAGE “Urban Data Space for Green Deal” [1] sta sviluppando metodi e meccanismi per rendere disponibili i dati ambientali e climatici a livello di città in base ai principi FAIR “Findable, Accessible, Interoperable, Reusable” [2]. L’obiettivo è supportare i decisori politici attraverso la fornitura di dati e strumenti appropriati per potenziare il monitoraggio ambientale e mitigare gli effetti locali dei cambiamenti climatici. Per raggiungere questo obiettivo, nella città pilota di Ferrara stiamo sperimentando meccanismi innovativi di governance dei dati e strumenti basati sull'intelligenza artificiale per analizzare, condividere, accedere e utilizzare i dati provenienti da telerilevamento, sensori e dispositivi Internet of Things (IoT), software gestionali di pubbliche amministrazioni e aziende private, attingendo da standard per garantire l'interoperabilità dei dati e dei servizi.
In questo lavoro presentiamo alcuni casi d'uso del progetto USAGE e risultati rilevanti sviluppati nel pilot di Ferrara per l'analisi e la mitigazione dei cambiamenti climatici, basate su dati già disponibili nel portale open data del Comune [3]:
- rilevamento di isole di calore urbane (UHI) e produzione di mappe UHI utilizzando dati aperti, come immagini satellitari (Landsat 8&9, Sentinel 3), dati di sensori meteorologici terrestri, proprietà delle superfici e un modello ibrido basato su apprendimento automatico e geostatistica;
- avvio di analisi termiche multi-temporali (notte/giorno, estate/inverno) basate su immagini termiche aeree ad alta risoluzione (1m), da cui sono derivate le temperature superficiali terrestri (LST), prendendo in considerazione i coefficienti di emissività dei materiali di superficie;
- generazione di mappe tematiche ad alta risoluzione (indici ecologici, coefficiente di deflusso, permeabilità, ecc.) a partire dalle informazioni sui materiali di superficie estratte da immagini aeree iperspettrali (1 m risoluzione spaziale) utilizzando un approccio di machine learning a più livelli allenato con dati forniti dal Comune;
- generazione di modelli urbani 3D per la stima del potenziale solare fotovoltaico e la valutazione di efficientamento energetico;
- mappatura del verde urbano a più livelli a partire da nuvole di punti 3D acquisite da sensore LiDAR (10 pt/mq) e immagini aeree iperspettrali, analisi metriche delle chiome degli alberi e stima della biomassa, monitoraggio della salute e della crescita degli alberi nel tempo e mappatura delle specie arboree, nelle aree pubbliche e private.
[1] usage-project.eu
[2] go-fair.org/fair-principles
[3] dati.comune.fe.it/dataset?tags=usage
Nel progetto europeo AIR-BREAK [1]è stata realizzata una dashboard informativa rivolta ai cittadini di Ferrara per visualizzare una stima immediata e sintetica sullo stato di inquinamento dell’aria, aggiornato ogni ora: https://airbreakferrara.net/che-aria-tira/
“che-aria-tira” è una pagina senza numeri né complicate unità di misura (es. μg/m3) o soglie (poco note e poco comprensibili alla maggior parte delle persone).
Il contenuto e l’interfaccia grafica sono state progettate dai partner Air-Break attraverso una serie di workshop UX [2] coinvolgendo una ventina di persone tra docenti e studenti di istituti superiori, attivisti ambientali, tecnici di enti pubblici esperti di qualità aria.
I dati di partenza provengono da 14 centraline installate nell’ambito del progetto; si tratta di centraline non certificate (i dati ufficiali rimangono quelli delle 2 stazioni ARPAE Emilia-Romagna [3]) che misurano 6 parametri di qualità dell’aria (PM2.5, PM10, NO2, O3, CO, VOC) e 3 parametri climatici (temperatura, umidità relativa, pressione atmosferica). Le misurazioni sono al continuo (con una frequenza che va dai 5 ai 30 secondi, in base al sensore); le medie orarie dei 6 parametri aria (espressi in μg/m3) vengono trasmesse al server IoT del Comune di Ferrara, basato sulla soluzione open-source FROST [4], che implementa lo standard OGC SensorThings API [5].
I dati orari vengono confrontati con i range usati dall'Agenzia Ambientale Europea nel portale Air Quality Index [6] per PM2.5, PM10, NO2, O3; per il CO il range di riferimento è quello dell’U.S. Environmental Protection Agency [7].
L’indice Air-Break è un valore adimensionale con una scala da 0 (buono) a oltre 100 (pessimo) in modo da facilitare la comprensione da parte di chi non ha dimestichezza con numeri, unità di misura, soglie limite (norme) e soglie consigliate (Organizzazione Mondiale Sanità).
I valori degli indici (sia quelli delle singole centraline, sia il valore medio sull'area urbana) sono salvati su server FROST del Comune, con frequenza oraria. Da qui, tramite viste spaziali materializzate (su PostgreSQL/PostGIS) gli indici orari degli ultimi 7 giorni vengono pubblicati con GeoServer tramite servizi WFS, in modo da renderli accessibili alla dashboard web “che-aria-tira” e ai 2 totem stradali installati lungo un nuovo tratto di percorso ciclabile [8].
I valori orari dei 5 parametri e dell’indice riassuntivo di qualità aria sono scaricabili dal portale open data del Comune [9].
[1] https://www.uia-initiative.eu/en/uia-cities/ferrara
[2] https://www.getcrowd.eu/event/9521ddc5--623847e6
[3] https://apps.arpae.it/qualita-aria/bollettino-qa-provinciale/fe
[4] https://github.com/FraunhoferIOSB/FROST-Server
[5] https://www.ogc.org/standards/sensorthings
[6] https://airindex.eea.europa.eu/AQI/index.html
[7] https://www.epa.gov/criteria-air-pollutants/naaqs-table
[8] https://shorturl.at/pqHNg
[9] https://dati.comune.fe.it/dataset?q=qualit%C3%A0+aria
La cartografia storica, in Italia, può essere considerata bene culturale o meno, a seconda delle sue caratteristiche e della normativa applicabile. È classificata come bene culturale quando presenta un rilevante valore storico-artistico ed è sottoposta a vincolo ai sensi del Codice dei Beni Culturali e del Paesaggio (D.Lgs. 42/2004). In caso contrario, non rientra sotto questa tutela e la sua riproduzione e divulgazione sono regolate esclusivamente dalle leggi sul diritto d'autore: se l'opera è in pubblico dominio o non protetta da copyright, può essere utilizzata liberamente; se invece è protetta, si applicano le limitazioni previste dal diritto d’autore.
Quando la cartografia storica è considerata bene culturale, il trattamento dipende dalla proprietà:
• Proprietà privata: il proprietario decide su uso, riproduzione e divulgazione, nei limiti stabiliti dai vincoli di tutela.
• Proprietà statale o di enti pubblici territoriali: la gestione è regolata dal Codice dei Beni Culturali, che disciplina la riproduzione e divulgazione. È consentita la libertà di riproduzione, uso e divulgazione senza scopo di lucro; in caso contrario, è necessario pagare un canone concordato con l’ente custode.
Fino al 2023, la regolamentazione di tali riproduzioni si basava su prassi consolidate: ad esempio, erano gratuite le pubblicazioni con tiratura inferiore a 2.000 copie e prezzo di copertina sotto i 70 euro. Tuttavia, il Decreto Ministeriale 161/2023 ha introdotto un tariffario per l'uso delle riproduzioni, estendendo il canone anche ai download digitali. Questo ha comportato un aumento dei costi e notevoli difficoltà operative per editori e utenti, generando ampie critiche.
Nel 2024, il Decreto Ministeriale 108/2024 ha apportato importanti modifiche, tra cui:
• Esenzione dal pagamento del canone per:
◦ Pubblicazioni scientifiche e accademiche.
◦ Riviste divulgative.
◦ Cataloghi d'arte e pubblicazioni relative a mostre con tiratura fino a 4.000 copie.
◦ Pubblicazioni in giornali e periodici nell’esercizio del diritto-dovere di cronaca.
◦ Pubblicazioni liberamente accessibili senza pagamento (open access).
Al di là dell’estensione delle gratuità rispetto non solo al decreto del 2023 ma anche alla situazione precedente al decreto, una rilevante novità introdotta dal decreto del 2024 riguarda l’introduzione dell’azzeramento del canone e l’autonomia decisionale degli enti pubblici custodi, che ora possono azzerare il canone per la riproduzione e divulgazione dei beni culturali. una possibilità che non esisteva in precedenza. Questa disposizione apre nuovi scenari per una maggiore accessibilità e fruizione del patrimonio cartografico storico, pur mantenendo un equilibrio con le esigenze di tutela.
Il consumo suolo è attualmente una delle tematiche più discusse a livello sia nazionale che internazionale in quanto ha un peso sia come “acceleratore” della crisi climatica tutt’ora in atto che sugli effetti dei sempre più frequenti eventi estremi.
ISPRA elabora da anni una serie di indici che riguardano il consumo di suolo e li sintetizza nel rapporto pubblicato annualmente, da quest’anno è stata inserita nell’analisi paesaggistica una sezione riguardante la visibilità del suolo consumato.
L’impatto visivo del suolo consumato ha infatti un notevole effetto sulla percezione personale e collettiva della degradazione di un paesaggio, dove essa è costituita da un insieme di fattori che sono sia oggettivi che soggettivi.
Il lavoro presentato si pone come obiettivo quello di quantificare la parte oggettiva dell’impatto visivo (che chiameremo visibilità) tramite l’indice adimensionale (NI) definito da Minelli et al. nel 2014. La visibilità di un oggetto è calcolata tramite analisi trigonometriche come l’area dell’oggetto rispetto a quella del campo visivo dinamico di un osservatore posto in un qualsiasi punto in un dato intorno dell’oggetto osservato.
L’area dell’oggetto osservato viene calcolata in funzione della posizione dell’osservatore e quindi comprensiva delle sue eventuali distorsioni tramite calcoli di natura trigonometrica. Il codice che implementa il calcolo dell’indice è stato rilasciato per GRASS GIS e recentemente aggiornato alla versione 8 del software (https://github.com/annalisapg/r.wind.sun/tree/updated_GRASS8).
L’analisi di visibilità è stata svolta sull’intero territorio nazionale con risoluzione di 10m per ogni pixel in un intorno di 30km dall’oggetto osservato considerando 4 categorie di consumo suolo: nuovi edifici, strade, cantieri e impianti fotovoltaici a terra.
Le analisi sono state eseguite tramite una procedura mista che ha coinvolto un preprocessing dei dati in QGIS e un processamento degli stessi in GRASS GIS.
Avendo a disposizione per ogni singolo elemento la sola impronta sul territorio, il calcolo è stato eseguito sulla base di alcune assunzioni. Per gli impianti fotovoltaici, data la disomogeneità delle tipologie di impianto esistenti, è stato considerato un impianto ad un’unica falda, con pannello di dimensione pari a quella dell’area rilevata durante il monitoraggio e con inclinazione variabile in base alla stessa dimensione, la quota del centro del pannello è pari a 4m. Per i cantieri e le strade, data l’irregolarità delle forme assunte dagli stessi, si è ricondotto il calcolo al minimo rettangolo orientato che circoscrive la forma irregolare e un’altezza nulla rispetto alla superficie. Infine, per gli edifici si è considerata un’altezza media pari a 6m, in coerenza con quanto osservato dagli studi precedenti, e una forma rettangolare degli stessi, posta in posizione verticale rispetto al suolo.
Dai risultati ottenuti si può affermare che la distribuzione dei valori dell’indice è di tipo logaritmico e i valori massimi dell’indice vengono registrati per strade e cantieri, a seguire fotovoltaico ed edifici. Inoltre, confrontando la visibilità di edifici e strade, nonostante gli edifici abbiano una maggior densità sul territorio nazionale, proporzionalmente i primi sono visibili molto meno rispetto alle seconde.
A livello computazionale il calcolo ha richiesto 30 giorni circa di elaborazioni, su due macchine: un MacBook Pro con processore M1 e un Debian con processore Intel i-5. La procedura è risultata abbastanza lenta a causa dell’ingente quantità di dati processati (decine di migliaia di features, considerando tutte e 4 le classi su tutte le regioni), del fatto che il calcolo viene svolto pixel per pixel, e a causa della elaborazione, in serie, all’interno del modulo r.photovoltaic.py.
In generale, il codice e la procedura hanno dimostrato un’elevata stabilità con nessun caso di crash durante le elaborazioni svolte h24 e una definitiva consistenza dei risultati ottenuti.
La schematizzazione delle features di forma irregolare sul territorio è molto semplificata ma è stata dettata da esigenze di rapidità di esecuzione dell’analisi, presenza di informazioni parziali riguardo i singoli impianti o edifici e necessità di adottare una procedura il più possibile standardizzata sull’intero territorio nazionale.
Possibili miglioramenti dell’analisi consistono in (i) l’affinamento della procedura di rappresentazione delle feature oggetto di studio tramite una revisione dell’analisi trigonometrica contenuta nel codice, (ii) identificazione, per ogni classe di elementi, della ragionevole distanza massima alla quale effettuare l’analisi, (iii) parallelizzazione del codice r.photovoltaic.py in modo da riuscire a sfruttare appieno le capacità della macchina.
Nella prassi comune di lavoro le basi di dati geografiche, per problematiche specifiche di responsabilità, controllo di qualità e suddivisione del lavoro, le operazioni di editing avvengono in modo discontinuo ed intermittente, per pacchetti di modifiche soggetti a revisione ed approvazione.
E' dunque necessario ricorrere a strumenti di versionamento delle basi di dati che consentono di lavorare separatamente su diverse versioni delle stesse senza che la base di dati originale sia in alcun modo modificata, ma assicurando al contempo la possibilità di riversare le modifiche effettuate in un secondo momento tenendo traccia delle stesse e risolvendo eventuali conflitti derivanti da modifiche concorrenti sugli stessi dati.
Il caso concreto da cui scaturisce questo lavoro è la necessità di gestire i dati vettoriali relativi alla pianificazione urbanistica del comune di Padova, i cui dataset stabiliscono l'uso del suolo programmato e vengono modificati con un provvedimento del consiglio comunale. E' prassi comune per contesti territoriali medio grandi, avere in lavorazione numerose varianti agli strumenti urbanistici che poi confluiscono in modo discontinuo nella versione ufficiale della pianificazione.
La presentazione tratta di uno strumento open source molto potente che si chiama "kart" https://kartproject.org/ . E' basato su git, il celebre strumento per il versionamento del codice creato da Linux Torvals per gestire lo sviluppo di Linux, da kar cui eredita l'organizzazione dei comandi. Kart permette di gestire dati tabellari vettoriali, raster e pointcloud appoggiandosi a versioni di lavoro distribuite in geopackage o in postgis/postgres.
Kart è disponibile in tutte le piattaforme e può essere utilizzato da riga di comando. Esistono altri strumenti più pratici ed amichevoli per l'utilizzatore finale: kart plugin https://github.com/koordinates/kart-qgis-plugin per l'uso di kart da QGIS e djakart https://github.com/enricofer/djakart, una web app sviluppata in django che ne consente e ne facilita l'uso multi utente, sviluppato dall'ufficio dati territoriali del settore urbanistica del Comune di Padova.
Il cambiamento climatico rappresenta una delle sfide più critiche del nostro tempo, con impatti significativi sulle condizioni ambientali e socio-economiche, specialmente nelle regioni vulnerabili come l'area del Mediterraneo. Qui, l’aumento delle temperature, la riduzione delle precipitazioni estive e l’intensificazione degli eventi estremi richiedono approcci innovativi per valutare i rischi e sviluppare strategie di adattamento e mitigazione.
In questo contesto ARPA Veneto - con il supporto tecnico di Geobeyond srl e la collaborazione di Arpa FVG - ha sviluppato CliNE (Clima Nord-Est), una piattaforma open source progettata per offrire proiezioni climatiche regionali ad alta risoluzione, strumenti di analisi dei dati multidimensionali e visualizzazione interattiva, a supporto di decisori politici, ricercatori, stakeholder e cittadini. Basata su dati provenienti dalla rete di stazioni meteorologiche regionali e arricchita con proiezioni elaborate mediante modelli climatici regionali del progetto EURO-CORDEX, CliNE rappresenta un esempio di come la tecnologia open source possa essere impiegata per affrontare problematiche globali in un contesto locale.
Funzionalità Principali:
-
Indicatori Climatici
La piattaforma fornisce tredici indicatori climatici chiave, come temperatura media, giorni caldi, notti tropicali, precipitazioni estreme, e durata delle ondate di calore. Tali indicatori sono calcolati per orizzonti temporali futuri (2021-2050, 2071-2100) e adattati per tre scenari emissivi (RCP2.6, RCP4.5, RCP8.5). -
Visualizzazione e Download Dati
Gli utenti possono accedere a mappe climatiche e serie temporali annuali o trentennali, con la possibilità di confrontare le proiezioni future con i dati storici rilevati dalle stazioni meteorologiche. È inoltre possibile scaricare i dati per punti di interesse specifici, facilitando analisi personalizzate. -
Scenari e Modelli Climatici
La piattaforma utilizza metodi avanzati di correzione dei bias per migliorare l'accuratezza delle proiezioni a livello locale. Cinque modelli climatici regionali sono integrati in una media di ensemble per ridurre l’incertezza e fornire proiezioni più affidabili. -
Risoluzione Geografica e Temporale
CliNE offre dati climatici ad alta risoluzione: 500 m e 5 km per indicatori corretti con bias, e 11 km per indicatori senza correzione. I dati sono disponibili per stagioni climatiche e annuali, con un riferimento temporale storico (1976-2005) per calcolare anomalie rispetto al passato. -
Tecnologie e Approccio Open Source
CliNE è sviluppata con tecnologie open source e ospita il proprio codice sorgente su GitHub (https://github.com/venetoarpa/Arpav-PPCV, https://github.com/venetoarpa/Arpav-PPCV-backend), promuovendo la trasparenza e la replicabilità tramite riuso dal catalogo nazionale AgID. La piattaforma integra strumenti GIS open source per la gestione e visualizzazione dei dati, garantendo interoperabilità con altri sistemi.
Impatti e Applicazioni
CliNE supporta la pianificazione territoriale e le politiche di adattamento ai cambiamenti climatici, contribuendo alla creazione di comunità resilienti. Inoltre, sensibilizza i cittadini sull’evoluzione del clima locale, aumentando la consapevolezza sui rischi climatici e l'importanza di azioni di mitigazione.
Conclusioni
La piattaforma CliNE dimostra il potenziale delle soluzioni open source nel fornire strumenti avanzati per l'analisi climatica, favorendo l’integrazione di scienza, tecnologia e politica. Grazie alla sua architettura flessibile e ai dati ad alta risoluzione, CliNE rappresenta un modello replicabile per altre regioni che desiderano affrontare le sfide del cambiamento climatico in modo efficace e sostenibile.
Il posizionamento indoor rappresenta una delle sfide più significative nel campo delle tecnologie di localizzazione, con applicazioni che spaziano dalla logistica alla sicurezza, fino alla valorizzazione culturale. In tale contesto, il progetto NEURO-MUSEUM ha adottato un approccio innovativo basato su sistemi open-source per la creazione di un'infrastruttura di posizionamento indoor efficiente, scalabile e accessibile.
Il progetto si è concentrato sullo sviluppo di un sistema integrato che combina tecnologie open-source e strumentazione ultra-wide-band (UWB) per garantire una localizzazione precisa all'interno di ambienti museali complessi. L'obiettivo è migliorare l'esperienza dei visitatori attraverso soluzioni personalizzate di navigazione e accesso a contenuti multimediali, adattate al percorso e agli interessi individuali.
Il caso applicativo è stato sperimentato in un museo pilota, dove è stato possibile testare la precisione del sistema e raccogliere feedback dagli utenti. I risultati preliminari evidenziano una precisione media inferiore a 1 metro, decisamente competitiva se confrontata con altre soluzioni commerciali.
Il progetto NEURO-MUSEUM dimostra come l'integrazione di tecnologie open-source possa costituire una soluzione efficace e sostenibile per affrontare le sfide del posizionamento indoor, favorendo al contempo l'inclusione digitale e la valorizzazione del patrimonio culturale. Prospettive future includono l'ottimizzazione degli algoritmi di localizzazione e l'estensione della piattaforma a contesti extra-museali, quali spazi pubblici e ambienti urbani.
Il 71% del nostro pianeta è coperto dall'oceano, un ambiente difficile da mappare con l'utilizzo di immagini aree, voli lidar e rilievo sul campo. I dati oceanografici e i modelli di previsione dello stato del mare (principalmente onde, correnti e livello) sono condivisi in formati dedicati (NetCDF o GRIB) con l'uso di griglie strutturate o irregolari (mesh). Sono presenti molte infrastrutture di condivisione dati che hanno portato allo sviluppo di data server come ERDDAP and THREDDS dataserver.
Questi software open source sono mantenuti da una community legata agli ambiti scientifici di riferimento e consentono la gestione di metadati, la creazione di aggregazioni lungo l'asse temporale e soprattutto la pubblicazione del dato tramite webservice WMS
Verranno presentati alcuni componenti della infrastruttura dati utilizzata dal CNR-ISMAR in fase di potenziamento nell’ambito del progetto ITINERIS ( Next Generation EU PNRR) e alcune interfacce realizzate nel corso dei progetti europei.
Gli output dei modelli previsionali di onde e livello del mare sono in genere distribuiti in formato NetCDF, un formato binario messo a punto dalla NOAA appositamente per contenere dati multidimensionali. Più variabili (es. direzione e livello dell'onda) sono associate ad una griglia nello spazio (coordinate X e Y o Lon e Lat) e nel tempo (numero naturale definito come minuti o secondo a partire da una data di riferimento). Per l’oceanografia la terza dimensione è normalmente gestita indicando dei livelli a partire dalla superficie del mare.
Questi file vengono analizzati e gestiti con librerie dedicati e ci sono dei visualizzatori specifici che permettono di plottare il modello secondo una scala di colori personalizzata. I file NetCDF su griglia regolare (quadrata o rettangolare) possono essere letti come raster da GDAL (ogni momento temporale corrisponde a una banda).
All’interno del nostro istituto si usano più spesso output su griglia non strutturata (una mesh composta di elementi triangolari) che permette una maggior risoluzione in prossimità della costa o dei punti di interesse. Su una griglia di questo tipo lavora il modello idrodinamico SHYFEM[0] messo a punto in particolare per la Laguna di Venezia.
Da un po’ di tempo i file NetCDf sono direttamente leggibili in QGIS grazie al driver MDAL, anche quelli con griglia non strutturata, purché conformi alla convenzione UGRID.
Una migliore interazione con i dati cartografici si può realizzare quando i file NetCDF, anche con griglia non strutturata, vengono pubblicati utilizzando Thredds data server che espone servizi standard ncWMS. Come visualizzatore web è stato utilizzato per ora Leaflet.js con l'estensione Leaflet time series sviluppata dal servizio di osservazione e previsione delle isole Baleari
[0] Umgiesser, G., Canu, D.M., Cucco A. 2004. A finite element model for the Venice Lagoon. Development, set up, calibration and validation, Journal of Marine Systems 51(1-4):123-145, DOI: 10.1016/j.jmarsys.2004.05.009
Sensor Things API (in breve STA) è una specifica OGC per l'archiviazione e il recupero (di serie temporali) delle osservazioni dei sensori [1]. FROST-Server, sviluppato dal Fraunhofer IOSB, è una delle implementazioni più consolidate di STA, ben documentato e molto utilizzato [2]. L'implementazione include un endpoint REST per inserire, modificare e recuperare entità STA, utilizzando un linguaggio di query basato su URL e su parametri OASIS OData [3].
Un plugin sperimentale per QGIS [4], sviluppato nel 2022 da Deda Next srl [5] e implementato in Python nell'ambito del progetto europeo Air-Break [6], è attualmente disponibile per connettersi agli endpoint STA e scaricare dati dai sensori. Il plugin agisce anche come provider per recuperare i dati e per poi analizzarli in un secondo momento.
Grazie al finanziamento di BRGM (Service géologique national Francais) [7], Faunalia [8] e DedaNext hanno sviluppato un provider C++ STA direttamente nel core in QGIS. È stata aperta una dettaglia QEP (QGIS Enhancement Proposal) [9] per discutere con la comunità di QGIS e con tutte le persone interessate l'implementazione migliore.
Durante tutte le fasi di sviluppo le interazioni fra comunità, sviluppatori e finanziatori è stata portata avanti nel miglior modo possibile, garantendo così un provider nativo in QGIS che potrà essere espanso in futuro in base agli aggiornamenti del provider, funzionalità nuove e ottimizzazione dei dati.
La vecchia versione del plugin sviluppato da Deda Next, infatti, è stato ri-fattorizzato per poter sfruttare al meglio il provider nativo, più veloce e con test automatici che ne garantiscono la stabilità. Così facendo, è stato possibile concentrare la parte di sviluppo del plugin per quanto riguarda soprattutto l'analisi dei dati, la creazione di grafici dettagliati per analizzare serie temporali e per scaricare facilmente i risultati.
[1] www.ogc.org/standards/sensorthings
[2] github.com/FraunhoferIOSB/FROST-Server
[3] groups.oasis-open.org/communities/tc-community-home2
[4] github.com/AirBreak-UIA/SensorThingsAPI_QGIS-plugin
[5] www.dedanext.it
[6] www.uia-initiative.eu/en/uia-cities/ferrara
[7] www.brgm.fr
[8] www.faunalia.eu
[9] github.com/qgis/QGIS-Enhancement-Proposals/issues/257
Mosul, città storica nel nord dell’Iraq, si sta rialzando dalle macerie dopo la devastazione subita durante il conflitto contro l’ISIS. Per supportare il processo di ricostruzione e pianificazione urbanistica, abbiamo sviluppato un sistema integrato basato interamente su software open source: MerginMap, QGIS e PostGIS. Questo progetto mira a creare un censimento dettagliato degli edifici e degli usi degli edifici della città, fornendo dati aggiornati e georiferiti indispensabili per il nuovo piano urbanistico.
Il sistema si fonda su una metodologia collaborativa e decentralizzata, che consente di raccogliere dati sul campo, analizzarli in ambiente GIS e integrarli in un database spaziale centralizzato. MerginMap facilita la sincronizzazione e la gestione delle modifiche, permettendo al team di lavorare simultaneamente su grandi dataset anche in condizioni di connettività limitata. QGIS offre strumenti avanzati per l’analisi e la visualizzazione, mentre PostGIS garantisce un’infrastruttura robusta per la gestione di dati complessi.
I principali vantaggi di questo approccio includono l’accessibilità economica, la personalizzazione completa e la possibilità di integrare strumenti diversi per rispondere alle esigenze specifiche del progetto. Tuttavia, abbiamo affrontato sfide significative, tra cui la necessità di formazione tecnica per il personale locale, il supporto continuo per la manutenzione del sistema e la complessità di gestire un flusso di lavoro fluido tra strumenti e tecnologie diverse.
Nonostante queste difficoltà, l’utilizzo di una piattaforma open source ha garantito una flessibilità impareggiabile, permettendoci di adattare il sistema alle particolari esigenze di Mosul. Ad esempio, siamo stati in grado di gestire dati in formati complessi, sviluppare strumenti personalizzati per il controllo di qualità e integrare rilevamenti satellitari per migliorare la precisione della mappatura.
Questo approccio innovativo rappresenta un modello replicabile per altre città che affrontano processi di ricostruzione e pianificazione urbana post-conflitto. Il progetto non solo contribuisce alla rinascita fisica di Mosul, ma punta a rafforzare la capacità locale di gestire autonomamente il proprio sviluppo urbanistico, investendo nel potenziamento delle competenze e nell’adozione di tecnologie aperte e collaborative.
Il censimento degli edifici di Mosul tramite MerginMap, QGIS e PostGIS dimostra come strumenti open source possano giocare un ruolo cruciale nella pianificazione urbana in contesti complessi e in rapido cambiamento.
ETRA S.p.A. Società Benefit è una multiutility a proprietà totalmente pubblica. L’attività di ETRA si svolge nel bacino del fiume Brenta, che si estende dall’Altopiano di Asiago ai Colli Euganei, comprendendo l’area del Bassanese, l’Alta Padovana e la cintura urbana di Padova.
Questo territorio, attraverso i propri rappresentanti (Comuni e Consiglio di Bacino Brenta), ha affidato a ETRA compiti essenziali per la collettività: la gestione del Servizio Idrico Integrato e la gestione dei rifiuti.
ETRA si è dotata, sin dai primi anni 90, di un Sistema Informativo Territoriale (SIT) che, pur cambiando ed evolvendo nel corso degli anni, si è comunque sempre mosso all’interno di un territorio conosciuto ovvero quello della software house Autodesk. Scelta sempre un po’ obbligata per le peculiarità dovute alla gestione di disegni contabili realizzati da imprese che utilizzavano, come strumento di redazione, il software allora più diffuso: Autocad.
Da un lato il SIT basato su applicativo AutoCAD Map 3D iniziava far a sentire il peso degli anni, dall’altro l’evoluzione del mondo open source che di recente ha subito un’accelerazione, ci ha spinto al cambiamento. Come società, consapevoli delle proprie competenze acquisite negli anni, abbiamo deciso di cambiare strada per spostarci su mondo nuovo conviti che ormai i tempi fossero maturi.
Un percorso certamente non facile perché la nostra è una realtà complessa e sul mercato open source c’erano pochi progetti analoghi e solo parzialmente paragonabili. Abbiamo trovato dei partner di settore GTER – FAUNALIA preparati e in grado di affrontare con noi la sfida di analisi e ricostruzione di un complesso ed intricato insieme di regole, relazioni e trigger che non è trasparente nei prodotti proprietari.
Ad oggi siamo online con un sistema sicuramente migliorato rispetto al precedente rendendo realtà quello che noi abbiamo ribattezzato come “SIT diffuso” uno strumento più efficace che migliora l’interoperabilità tra i soggetti, e i sistemi, che vi interagiscono.
Stiamo gettando le basi per lo sviluppo di nuovi progetti ancora più complessi ed importanti come l’integrazione con il BIM e l’inclusione dell’Intelligenza Artificiale.
I benefici dell’utilizzo del software open source, hanno un grosso impatto anche nelle pubbliche amministrazioni. La migrazione del sistema informativo territoriale di ETRA S.p.a. da un sistema proprietario a un sistema open source ha coinvolto i maggiori software del settore attualmente utilizzati. Da un database Oracle (Spatial) i dati sono stati migrati in un database PosgtreSQL con estensione PostGIS. La migrazione non ha coinvolto solamente i dati, ma è stato fatto un audit dell’architettura esistente che è stata completamente riscritta e semplificata: il numero di tabelle si è notevolmente ridotto, sono state aggiunte delle foreign keys per ottimizzare la qualità dei dati inseriti ed impedire l’inserimento di dati scorretti e sono stati aggiunti trigger topologici per migliorare l’inserimento di dati spaziali. Il vecchio sistema si basava su era AutoCAD Map 3D, mentre come client per il nuovo sistema è stato scelto QGIS, grazie al quale sono stati creati diversi progetti con relazioni complesse, moduli di inserimento dati personalizzati e ottimizzazione degli stili. È stato predisposto anche un plugin che aggiunge delle funzionalità custom che QGIS non prevede nativamente. Infine è stata usata l’accoppiata LizMap e QGIS Server per la pubblicazione dei progetti sul web. Grazie all’imponente utilizzo di LizMap è stato possibile migliorare il codice inserendo funzionalità nuove e correggendo diversi bug esistenti. Molte delle novità dell’ultima versione di LizMap (3.8) sono state sviluppate all’interno di questo progetto: single WMS, WebDav e miglioramento dei moduli con relazioni 1:N, fra i tanti.
Per diverse funzionalità presenti nel vecchio sistema è stato necessario fare un complesso lavoro di reverse engeneering, in quanto le funzionalità non erano chiaramente descritte e il comportamento per l’utente finale doveva risultare simile e migliorato. Le funzionalità dell’attuale sistema sono ben commentate e descritte in modo da garantire un migliore funzionamento e stabilità nel tempo.
Il dato informatizzato e georeferenziato rappresenta una risorsa inestimabile per una gestione efficiente e sostenibile del verde urbano. In Italia, alcune normative e linee guida sottolineano l'importanza di una gestione dati efficiente come le linee guida per la gestione del verde urbano e le prime indicazioni per una pianificazione sostenibile del MASE e i Criteri Ambientali Minimi (CAM) che, pur non specificando in modo dettagliato l'obbligo di utilizzare dati informatizzati, promuovono una gestione del verde basata su criteri di sostenibilità e efficienza.
Il Protocollo Areté è una metodologia innovativa e completa per valutare la stabilità degli alberi. Sviluppato da Arborete®, questo protocollo va ben oltre le semplici ispezioni visive, offrendo uno strumento preciso e scientificamente fondato per la gestione del rischio arboreo. Il Protocollo Areté si basa su una valutazione integrata che considera diversi fattori, tra cui aspetti: fisiologici, morfologici, biomeccanici e ambientali. L’attuale metodologia di valutazione si basa sull’utilizzo di scheda di rilievo in un foglio di calcolo; l’attuale scheda contiene due campi dove poter inserire le coordinate dell’elemento arboreo rilevato. Questo comporta che la georeferenziazione del dato avviene in modo successivo con l’introduzione in ambiente QGIS del dato in formato .csv o .xls.
Il progetto ha previsto la digitalizzazione in ambiente QGIS della scheda di rilievo in formato .xls utilizzata per il rilievo secondo le metodologie previste dal Protocollo Areté. A tal fine si è implementato il protocollo bypassando l'utilizzo del foglio di calcolo e andando a creare un prodotto completamente in ambiente GIS. Questo è stato possibile tramite lo sviluppo un modulo attributi personalizzato che permettesse, oltre che di censire e georeferenziare le alberature in maniera immediata, anche di ottenere gli stessi risultati definiti da Arborete®, grazie ad una conversione delle formule presenti nel foglio di calcolo in sql. Infine, è stata definita una simbologia tramite la funzione generatore geometria che permettesse di visualizzare in mappa lo stato delle alberature sulla base dei valori di rischio e pericolo
Il progetto è stato poi ulteriormente implementato per un utilizzo in campo tramite QFIELD. La semplice integrazione tra QGIS e QFIELD permette di conseguenza al professionista di avere in campo con QFIELD la scheda completamente digitalizzata che non solo permette di georeferenziare automaticamente il dato, ma anche di visualizzazione vedere i livelli di rischi e pericolo associati alla singola alberatura. L’Integrazione, infine, con QFIELD CLOUD permette al professionista di effettuare un agevole backup del rilievo di campo effettuato.
Le frane rappresentano una importante minaccia per le attività umane, con rilevanti impatti sulla
sicurezza, l'ambiente e lo sviluppo economico globale. La gestione e mitigazione di questi pericoli
richiedono strumenti efficaci e robusti per l'identificazione, l'analisi della suscettibilità/pericolosità e la
valutazione del rischio. I modelli sviluppati in ambiente GIS sono strumenti efficaci per l'analisi della
pericolosità e della suscettibilità da frana, consentendo la valutazione preliminare di vaste aree sulla base
di parametri spazialmente diffusi. Queste valutazioni forniscono spunti critici per identificare le aree in
cui concentrare studi dettagliati; tuttavia, l'integrazione di algoritmi specialistici in piattaforme GIS che
siano di facile utilizzo rimane una sfida, limitando l'accessibilità di utenti non esperti e ostacolando
l'applicazione pratica di tecniche avanzate di valutazione del rischio geologico.
Questo lavoro presenta il plugin per QGIS Geohazard come strumento open-source che incorpora una
suite di algoritmi mirati ad aspetti chiave dell'instabilità dei pendii, tra cui la valutazione dell'affidabilità
dei dati satellitari SAR, l'analisi della suscettibilità per le frane superficiali e la valutazione della
pericolosità spaziale per fenomeni di caduta massi. Geohazard, sviluppato in collaborazione tra Arpa
Piemonte e Politecnico di Torino, fornisce uno strumento completo per l'analisi e la gestione di frane a
scala medio-piccola ed include:
- Groundmotion - C index: questo algoritmo calcola l'indice C [1] per valutare l'accuratezza della
registrazione degli spostamenti del pendio da parte del satellite in funzione della posizione della
sua orbita e dell'orientamento del pendio. Il risultato è una mappa della rappresentatività dei dati
InSAR per il monitoraggio delle frane lente, in termini di magnitudo e velocità degli spostamenti
del versante;
- Landslide – Shalstab: questo algoritmo valuta la suscettibilità dei versanti all'innesco di frane
superficiali, sulla base del modello idro-meccanico di Montgomery & Dietrich [2]. Il risultato
consente l'identificazione preliminare di aree soggette a frane superficiali a scala medio-piccola, in
termini di pioggia critica infiltrata;
- Rockfall - Droka_Basic e Rockfall – Droka_Flow: questi due algoritmi stimano le zone
potenzialmente interessate da eventi di caduta massi originati da punti sorgente distribuiti su un
pendio. La stima si basa sul concetto della linea di energia e impiega due approcci, Droka_Basic
utilizza il metodo dei coni per identificare le celle visibili da uno o più punti di origine della caduta
massi [3], Droka_Flow si basa su un modello idrologico per simulare le traiettorie della caduta
massi, assimilate al percorso di una goccia d'acqua che scende lungo la linea di massima pendenza
del versante.
Verranno presentati casi reali di validazione dei modelli implementati nel plugin Geohazard per illustrare
l'applicazione pratica dei moduli nelle analisi preliminari di pericolosità per frana a media scala.
[1] Notti, D., Herrera, G., Bianchini, S., Meisina, C., García-Davalillo, J. C., & Zucca, F., (2014), A
methodology for improving landslide PSI data analysis. Int. J. of Remote Sensing. 2014. 35(6), 2186–
2214.
https://doi.org/10.1080/01431161.2014.889864;
[2] Montgomery, D.R. & Dietrich, W.E. (1994), A Physically Based Model for the Topographic Control
on Shallow Landsliding. Water Resources Research, 30, 1153-1171.
https://doi.org/10.1029/93WR02979;
[3] Jaboyedoff, M. & Labiouse, V., (2011), Technical Note: Preliminary estimation of rockfall runout
zones, Nat. Hazards Earth Syst. Sci., 11, 819–828.
https://doi.org/10.5194/nhess-11-819-2011.
L’inasprimento degli effetti negativi associati al cambiamento climatico ha recentemente stimolato l’applicazione di strategie e strumenti anche normativi per poterlo fronteggiare. Ciò è di particolare rilevanza in contesto urbano, dove attualmente risiede circa il 55% della popolazione mondiale e dove si concentrano notevoli preoccupazioni circa gli impatti di fenomeni come inquinamento, isole di calore, consumo e impermeabilizzazione dei suoli. Si rende necessario, dunque, attuare delle politiche volte a rendere le città più sostenibili e resilienti di fronte alle sfide del futuro, nonché il più autonome possibile per quanto riguarda la produzione e il consumo di cibo, in un contesto di giustizia ambientale e sociale. In questo ambito si sviluppa il presente lavoro, che mira, con l’ausilio di strumenti di partecipazione pubblica e di analisi multi-criteriali in ambiente GIS opensource, a identificare aree verdi del Comune di Padova potenzialmente idonee ad ospitare pratiche sostenibili di agricoltura urbana, quali le foreste commestibili (le cosiddette Urban Food Forests).
Le Urban Food Forests rappresentano una particolare pratica di agro-forestazione urbana che prevede la combinazione di specie commestibili e non, prevalentemente arboree, arbustive ed erbacee, andando a costituire un vero e proprio ecosistema forestale complesso. Numerosi sono i benefici ad essa associati, tra cui la mitigazione gli effetti negativi associati alle isole di calore e agli eventi metereologici estremi, creazione di potenziali habitat per specie animali e vegetali, miglioramento della vivibilità del contesto urbano, offrono una potenziale opportunità di riscatto sociale e una fonte di cibo a livello locale.
In questo studio è stato utilizzato un approccio quali-quantitativo (mixed methods reasearch). Questo ha previsto dapprima la conduzione di interviste semi-strutturate a informatori chiave, utili a definire dei criteri decisionali, a cui sono stati attribuiti dei pesi; in seguito, con l’analisi multi-criteriale spaziale sono state identificate le aree verdi potenzialmente idonee ad ospitare Urban Food Forests. Infine, per le aree a maggiore idoneità è stata valutata l’area effettivamente fruibile, ovvero quella libera da elementi antropici o vegetazionali. Questo contributo vuole focalizzarsi sulla metodologia utilizzata, in particolare l’utilizzo di open source data per la costruzione della tabella decisionale, fondamentale per l’implementazione dell’analisi multi-criteriale e di QGIS.
La prima fase dell’analisi ha previsto l’identificazione di un set di criteri decisionali, raggruppati in due categorie: distanza da elementi di interesse urbano, come le piste ciclabili e socioeconomici, ad esempio, il numero di famiglie per unità urbana. Questi sono stati elaborati in QGIS a partire da dati open source spazializzati liberamente accessibili e ricavati da OSM, banche dati ministeriali, regionali e comunali, in maniera tale da ottenere un indicatore, inteso come un valore numero che permette di rendere confrontabili i criteri tra loro. Una volta stabiliti i pesi per ciascuno di essi, attraverso la costruzione di un processo partecipato che ha coinvolto alcuni informatori chiave, e riorganizzati per ottenere una tabella decisionale, si è passati all’implementazione dell’analisi multi-criteriale, utilizzando il metodo TOPSIS disponibile nel plugin vectorMCDA. Questa operazione ha generato uno scenario di idoneità, associando uno specifico indice d’idoneità a ciascuna delle alternative, ossia le aree verdi. In seguito, sono state selezionate le dieci aree ad indice superiore e sottoposte ad un’ulteriore analisi per estrarre l’ipotetica superficie disponibile, andando ad escludere quella occupata da elementi artificiali e naturali sopraelevati. A tal scopo, ci si è avvalsi di due modelli di elevazione prodotti da rilievo LIDAR per il comune di Padova nel 2023, il Digital Surface Model (DSM) e il Digital Terrain Model (DTM). Questa operazione ha permesso di aggiungere un ulteriore livello di approfondimento nella valutazione dei siti potenzialmente idonei ad ospitare pratiche di food forests.
Questo risultato ha permesso di testare la bontà degli open source data nell’ambito delle analisi spaziali e le metodologie multi-criteriali partecipate per la definizione di aree idonee che possono essere un valido strumento a supporto dei processi decisionali, favorendo il coinvolgimento della cittadinanza e degli stakeholders.
Il "PoliTO Mapping Party - Indoor Buildings" (seconda edizione), organizzato dal gruppo di Geomatica del Politecnico di Torino (DAD, DIST, DIATI), è stato pensato per coinvolgere gli studenti del Politecnico di Torino nella mappatura degli spazi interni dell'ateneo, con l'obiettivo di migliorare navigazione e accessibilità. L'evento si è svolto dal 4 all'11 novembre 2024 e ha visto la partecipazione di 25 studenti di laurea triennale e magistrale, affiancati da 10 tutor (professori, ricercatori e dottorandi).
Il programma ha previsto una sessione introduttiva in cui sono stati presentati OpenStreetMap e le attività con le aree da mappare (limitando l’attenzione solo ad alcuni blocchi di aule e sale studio). Nei giorni successivi, gli studenti hanno lavorato autonomamente utilizzando mappe cartacee stampate o pdf su tablet di alcune aule di prova (I e T, al livello 0 e meno 1), prendendo nota dei relativi elementi e dei tag OSM secondo le regole fornite loro. L’evento si è concluso con una giornata finale, durante la quale è stato usato lo strumento di editing OsmInEdit per inserire e verificare i dati raccolti con il commento “#PolitoMappingParty2024” su OpenStreetMap (OSM). Come si evince da OsmCha, sono stati registrati 170 changeset.
Il focus principale del mapping party è stato la raccolta e la verifica di informazioni sugli spazi interni, come aule, sale studio, scale, ascensori, estintori, accessi per disabili, bagni, distributori automatici, ecc., con l’obiettivo di creare una mappa accurata e dettagliata di tutti questi elementi in ambiente open. L’evento ha anche avuto una finalità formativa: grazie all’esperienza, gli studenti hanno scoperto le potenzialità di OpenStreetMap e hanno iniziato a collaborare attivamente anche attraverso strumenti di editing avanzati come OsmInEdit.
Il lavoro svolto consentirà, in futuro, di implementare funzionalità di navigazione indoor su più piani all'interno dell'app POLITO Students e delle nuove Mappe web del Politecnico, facilitando l'orientamento degli utenti e l'accesso alle diverse aree dell'ateneo. Grazie ai dati raccolti, alcune delle aule mappate sono già visibili su OpenLevelUp, fornendo un primo esempio di come potrebbe apparire la navigazione indoor multilivello.
L'evento rappresenta solo la prima fase di un progetto più ampio: seguirà infatti una challenge, un progetto di didattica innovativa volto a far emergere proposte di soluzioni innovative da parte degli studenti, denominato "Mapping PoliTO Spaces". In questo contesto, gli studenti potranno continuare a contribuire alla mappatura dettagliata del Politecnico. Il progetto intende coinvolgere ulteriormente la comunità universitaria, invitandola a contribuire alla creazione di una mappa sempre più precisa e funzionale degli spazi dell'ateneo.
Questa iniziativa ha offerto agli studenti un'opportunità unica di collaborare, acquisire nuove competenze tecniche in ambito di informazione geografica libera e partecipare attivamente alla costruzione di uno strumento utile per tutta la comunità del Politecnico.
Infine, il contributo sottolinea le potenzialità e i limiti dello strumento di editing indoor per il mapping condiviso.
I recenti investimenti nazionali e regionali sulle dotazioni infrastrutturali legati al PNRR hanno comportato una rinnovata stagione di sviluppo di autostrade e linee ferroviarie, sia convenzionali che AC/AV.
Il percorso di ricerca inter-ateneo PRIN 2022 PNRR SEW Line (che vede coinvolte unità di ricerca dalle università di Bergamo, Padova e Roma Sapienza), muove dalla necessità di sviluppare un modello che preveda un approccio olistico, replicabile e scalabile, al progetto delle infrastrutture lineari ed il loro inserimento nel paesaggio. Con sempre maggior frequenza, i processi di pianificazione sembrano non considerare in maniera adeguata gli impatti delle infrastrutture sugli ecosistemi, sulle piattaforme agro-industriali ed i sistemi produttivi, ma anche sulle comunità ed i processi di valorizzazione del patrimonio culturale locale. Concentrando l’attenzione sulle aree rurali e periurbane, il modello SEW Line si propone di indagare il rapporto tra infrastruttura e contesto, basandosi su aspetti ambientali, paesaggistici, sociali, economici e storico-culturali.
Per fare ciò, non è possibile prescindere dalla cartografia istituzionale e dalle informazioni in essa contenute, trattate tramite l’utilizzo di Sistemi Informativi Geografici (GIS). Di converso, si riconosce la difficoltà nel lavorare solo attraverso questi dati per identificare, comprendere e rappresentare la trama geostorica di un territorio. Questo perché l’impianto delle basi cartografiche consolidate non fornisce sempre in maniera completa tutti quegli elementi necessari alla ricostruzione del rapporto tra infrastruttura e paesaggio, la complessità del palinsesto risultante dalla loro sovrapposizione, o la qualità degli elementi (servizi ecosistemici, matrici paesaggistiche, elementi patrimoniali, ecc.) presenti.
Accostare agli strumenti tradizionali alcune attività innovative di georeferenziazione e mappatura permette di analizzare e spazializzare il portato delle interazioni tra elementi naturali, umani e storici che si sono sedimentati e stratificati in un paesaggio nel corso degli anni.
Il caso presentato si incardina all’interno della ricerca “SEW line” e si articola, nell’ambito di un living lab, su un lavoro di terreno e su un’attività di formazione - editathon sviluppato in collaborazione e con il supporto di Wikimedia Italia. Questo approccio ha permesso al gruppo di ricerca di raccogliere dati e georeferenziare tutti quegli elementi che non sono visibili sulle mappe consolidate (come, ad esempio, la presenza di fontanili o di palate nel contesto del reticolo idrografico), attraverso l’osservazione diretta. Successivamente, è stato utilizzato Open Street Map con la duplice finalità di strumento di inserimento dati e mappatura, da una parte, e come attivatore di coinvolgimento della comunità locale, dall’altra.
L’attività ha evidenziato una complessità paesaggistica che ha permesso diverse letture interpretative anche dell’aspetto legato alle trame geostoriche e ha, inoltre, permesso di poter coinvolgere la collettività nell’attività di recupero e localizzazione di queste informazioni.
Autori: Andrea Canevazzi (AMAT), Lorenzo Stucchi (Wikimedia), Chiara Angiolini (TomTom) e Said Turksever (Meta)
La completezza e la qualità dei dati della mappa pedonale OSM sono fondamentali per una vasta gamma di applicazioni, dall'urbanistica al miglioramento dell'accessibilità di una città.
L'organizzazione governativa (AMAT), le comunità locali di OpenStreetMap (Wikimedia Italia e PoliMappers) e le aziende (Meta e TomTom) hanno collaborato per snellire il miglioramento e i controlli di qualità dei dati della mappa pedonale su OpenStreetMap per Milano, Italia. Questa collaborazione mirava a completare e mantenere l'infrastruttura dei dati della mappa pedonale su OpenStreetMap nell'area di lavoro. Gli approcci collaborativi e innovativi hanno incluso l'automatizzazione del rilevamento dei attraversamenti pedonali da immagini ad alta risoluzione, l'introduzione di controlli di qualità dei dati della mappa pedonale e il miglioramento dei controlli di qualità con MapRoulette e la collaborazione attiva della comunità locale per affrontare i problemi di miglioramento e qualità dei dati. Il nostro lavoro ha reso Milano una delle città più complete d'Europa in termini di infrastruttura dei dati della mappa pedonale.
In questa presentazione, condivideremo i problemi di dati più comuni riscontrati nei dati della mappa pedonale, la metodologia utilizzata per snellire i progetti di qualità dei dati con le sfide di MapRoulette, le strategie per migliorare i dati mancanti su OSM, le strategie di attivazione della comunità, gli output del progetto e come diffonderli.
La completezza e la qualità dei dati della mappa pedonale OSM sono fondamentali per una vasta gamma di applicazioni, dall'urbanistica al miglioramento dell'accessibilità di una città.
L'organizzazione governativa (AMAT), le comunità locali di OpenStreetMap (Wikimedia Italia e PoliMappers) e le aziende (Meta e TomTom) hanno collaborato per snellire il miglioramento e i controlli di qualità dei dati della mappa pedonale su OpenStreetMap per Milano, Italia. Questa collaborazione mirava a completare e mantenere l'infrastruttura dei dati della mappa pedonale su OpenStreetMap nell'area di lavoro. Gli approcci collaborativi e innovativi hanno incluso l'automatizzazione del rilevamento dei attraversamenti pedonali da immagini ad alta risoluzione, l'introduzione di controlli di qualità dei dati della mappa pedonale e il miglioramento dei controlli di qualità con MapRoulette e la collaborazione attiva della comunità locale per affrontare i problemi di miglioramento e qualità dei dati. Il nostro lavoro ha reso Milano una delle città più complete d'Europa in termini di infrastruttura dei dati della mappa pedonale.
In questa presentazione, condivideremo i problemi di dati più comuni riscontrati nei dati della mappa pedonale, la metodologia utilizzata per snellire i progetti di qualità dei dati con le sfide di MapRoulette, le strategie per migliorare i dati mancanti su OSM, le strategie di attivazione della comunità, gli output del progetto e come diffonderli.
Sessione plenaria di apertura dell'Open Space Technology, per poter avviare i tavoli di lavoro successivi su tematiche condivise.
Sessione di apertura: introduzione alla struttura e al metodo dell’Open Space Technology, condivisione delle proposte di attività e costruzione dell’agenda della giornata.
Saranno invitate proposte di tavoli di lavoro su:
- QGIS: incontro della community, code sprint ed altro
- Open data geografici: limiti e successi parlando di licenze, accesso, riuso dei dati della PA
- Servizi, piattaforme e cataloghi web: standard e software aperti all'interoperabilità
- Qfield: scambio know-how, come superare i difetti e conoscere tutti i pregi
- OpenStreetMap: incontro della community aspettando OSMIT del giorno dopo
- AI e GIS: nuove opportunità per la conoscenza del territorio
- ogni altro tema legato a software e dati geografici free e open Source
https://2024.foss4g.it/open_space_tech.php
Sessione plenaria di chiusura dell'Open Space Technology, per poter riassumere quanto discussi all'interno dei tavoli di lavoro.