I dati del progetto sono archiviati con il softwares DBPrismas: esso prevede la possibilità di effettuare stampe e reports standard oltre allesportazione dei dati in formato Microsoft Excel o MS Word o secondo estrazioni pre-impostate verso i programmi elaborativi (p.es. AquaChem).
Le estrazioni dei dati da utilizzare per le rappresentazioni grafiche e per le successive elaborazioni numeriche avvengono secondo due criteri che si traducono in due gruppi distinti di files:
1. in una prima estrazione i dati vengono divisi in modo che ogni file contenga solo i dati relativi ad una singola campagna;
2. in una seconda estrazione i dati di tutte le campagne eseguite su di ogni acquifero vengono raggruppati in un unico file che può a sua volta essere suddiviso in files di dimensioni minori selezionando in ogni file solo alcune variabili.
I files estratti al punti (1) vengono utilizzati per le elaborazioni statistiche e grafiche su periodi stagionali omogenei, mentre i files estratti al punto (2) sono utilizzati per le serie temporali e per le elaborazioni necessarie alla definizione del quadro idrochimico generale.
Lelaborazione è articolata secondo fasi e modalità finalizzate a interpretare i dati in ordine ai seguenti obiettivi:
1. classificazione di base delle acque e caratterizzazione geochimica degli acquiferi;
2. analisi statistica dei dati;
3. studio della distribuzione spaziale dei parametri significativi (analisi geostatistiche);
4. analisi delle tendenze temporali;
5. rappresentazione cartografica dei dati.
Obiettivo 1: Classificazione di base delle acque e caratterizzazione degli acquiferi
Con la classificazione di base delle acque vengono individuate le caratteristiche chimiche naturali delle acque e i principali processi (miscele e interazioni acqua-roccia) che concorrono alla definizione del chimismo. Come base interpretativa vengono utilizzati i diagrammi classificativi di Piper e/o di Langelier-Ludwig. Tali diagrammi forniscono indicazioni sui rapporti relativi fra le principali specie chimiche disciolte ma non forniscono informazioni sulle concentrazioni. Per una corretta interpretazione dei dati questa elaborazione viene pertanto affiancata da diagrammi binari e calcoli di speciazione in fase acquosa. La necessità di affiancare la elaborazione di diagrammi classificativi e calcoli di speciazione ha condotto la scelta del software su un accoppiamento pacchetti interfacciati. Gli unici prodotti rinvenuti per i nostri scopi sono risultati AquaChem release 3.7 e PHREEQC (for Windows) release 1.4.01. AquaChem è un pacchetto di programmi sviluppato specificamente per l'analisi grafica e numerica e per la modellistica degli insiemi di dati geochimici acquosi. Caratterizza una base di dati completamente customizzabile dei parametri geochimici e fornisce una selezione completa degli strumenti di analisi e delle tecniche grafiche usati comunemente per l'interpretazione ed il tracciato dei dati geochimici acquosi. PHREEQC per Window è una versione a 32 bit del modello geochimico PHREEQC ed ha alcune possibilità estese:
· editor dell'input;
· editor dell'output;
· editor del database;
· debugger semplice che controlla gli errori presenti nel file di input;
· grid per far apparire i risultati in formato spreadsheet;
· editor grafico dei risultati.
Obiettivo 2: Analisi statistica dei dati
Le elaborazioni statistiche consentono di correlare le variabili allo scopo di verificarne il comportamento e individuare la tendenza centrale di ogni sistema acquifero rispetto alle variabili significative.
Attraverso istogrammi e curve cumulative si verifica la distribuzione statistica delle singole variabili: se la variabile è caratterizzata da una distribuzione normale è sufficiente la statistica di base (media e deviazione standard) per descriverne la tendenza centrale, se invece la variabile segue una distribuzione statistica diversa (logaritmica, polimodale,
.) è necessario un approccio di tipo probabilistico. L'analisi delle curve di probabilità permette di suddividere il campione in popolazioni omogenee (normali o log-normali) per ognuna delle quali è possibile stimare la media e l'intervallo di confidenza della media attraverso test statistici.
Un'ulteriore procedura utilizzabile in caso di distribuzioni non parametriche è la statistica descrittiva basata sull'individuazione di media, mediana, del 25mo e 75mo percentile, che racchiudono il 50% centrale dei campioni, dei percentili 10mo e 90mo e dei valori massimo e minimo. Questa rappresentazione permette di individuare la tendenza centrale, la dispersione e la simmetria nella distribuzione dei dati anche nel caso di distribuzioni non parametriche. Il software utilizzato è la release 5.0 di Microcalä Originä
(Microcal Origin, Inc.). Il pacchetto consta di un potente mezzo elaborativo e grafico che consente molti tipi di rappresentazioni dei dati. Nel nostro caso il programma è stato scelto per poter presentare boxplots caratterizzati da una grande quantità di informazioni insieme e che potessero essere successivamente ordinati in senso cronologico.
Lo studio delle relazioni fra le variabili viene effettuato utilizzando le matrici di correlazione e l'analisi cluster. Nel caso dei dati del progetto PRISMAS-Umbria i coefficienti di correlazione sono stati calcolati come coefficiente r di Pearson, mentre l'analisi cluster è stata realizzata, previa standardizzazione delle variabili, utilizzando l'algoritmo di Ward per valutare le distanze fra i clusters. Il software testato e utilizzato per tale elaborazione è la ormai datata release 4.3 di CSS-Statistica (Statsoft,Inc., 1993). Il pacchetto consente di operare in statistica multivariata attraverso una serie di moduli, ciascuno dedicato ad una particolare elaborazione. E presente inoltre un modulo molto potente che consente limportazione di dati dai principali fogli elettronici, limportazione di file ascii e ascii delimitati ed il pre-trattamento dei dati (standardizzazione delle variabili, creazione di subsets, ecc..). Linterfaccia grafica consente lesportazione di grafici e tabelle verso qualsiasi programma di architettura grafica e videoscrittura.
Obiettivo 3: Studio della distribuzione spaziale dei parametri significativi
Con queste elaborazioni viene indagata la struttura dei dati in funzione della posizione relativa che occupano nello spazio. Nel caso del progetto PRISMAS si è scelto di utilizzare il Kriging come procedura di indagine geostatistica. Il Kriging è un interpolatore lineare che permette di realizzare una griglia regolare di dati (grid) partendo da una distribuzione irregolare dei dati nello spazio. La matrice dei dati viene utilizzata successivamente per le rappresentazioni cartografiche.
Lanalisi geostatistica si compone di tre fasi distinte:
Realizzazione dei variogrammi sperimentali
Per ogni campagna viene realizzato un variogramma sperimentale su ogni variabile. Dal punto di vista operativo i variogrammi sperimentali vengono realizzati con il programma GEOEAS per il quale sono previste delle estrazioni direttamente dal database del progetto PRISMAS.
Scelta del modello teorico del variogramma
Una volta realizzato il variogramma sperimentale si ricerca il modello teorico che determina matematicamente la variabilità spaziale dei dati ed il grid risultante. Questa fase è determinante per lapplicazione corretta del Kriging, infatti i pesi di interpolazione (il Kriging è di fatto una media pesata) che sono applicati ad ogni punto durante il calcolo dei nodi del grid sono una funzione diretta del modello di variogramma scelto. In questa fase vengono determinati anche il range, la scala e leventuale effetto nugget del variogramma. Anche questa fase viene effettuata con il programma GEOEAS. Tuttavia la recente acquisizione della release 7 di SURFER permetterà in futuro di effettuare tutte le procedure geostatistiche da un unico programma.
Kriging
In questa fase si passa dalla distribuzione irregolare dei dati al calcolo del grid vero e proprio. Da un punto di vista operativo il calcolo del grid viene effettuato con il programma SURFER. Tale programma importa i dati in formato ASCII, calcola il grid utilizzando le impostazioni ed il modello di variogramma scelti dallutente (range, scala, effetto nugget) e produce le mappe che possono essere esportate in vari formati (dxf, wmf,
) per essere infine georeferenziate ed inserite in qualsiasi Sistema Geografico Informatizzato. Il Kriging può essere un interpolatore esatto o produrre uno smoothing dei dati a seconda dei parametri specificati dalloperatore. Una cura particolare va posta nellanalisi delleffetto nugget. Tale effetto, le cui unità di misura sono uguali alle unità di misura delle osservazioni elevate al quadrato, è dovuto alla sovrapposizione di due componenti: la microvarianza (microvariance), che rappresenta la varianza dovuta alla struttura locale dei dati, e la varianza degli errori di misura (error variance), che è una misura della ripetibilità dei dati. Se leffetto nugget è uguale a zero il Kriging è un interpolatore lineare esatto, ovvero il grid generato rispetta i valori dei dati originari. Se leffetto nugget è maggiore di zero (come accade nella maggior parte dei casi) il Kriging è un interpolatore esatto solo se la varianza degli errori di misura è uguale a zero (error variance=0), altrimenti (error variance>0) il kriging permette al grid di deviare dai valori osservati producendo una superficie mediata.
Lanalisi geostatistica proposta, pur essendo realizzata attraverso procedure completamente informatizzate, necessita di una grande cura nelle scelta delle opzioni lasciate allutente perché le stime prodotte possono variare notevolmente in funzione del modello di variogramma e del partizionamento delleffetto nugget. I valori di range, scala, effetto nugget devono essere determinati in ogni campagna, per ogni variabile, per produrre delle stime corrette.
Tuttavia per automatizzare laggiornamento delle informazioni areali con un GIS è possibile stabilire un variogramma meno ottimizzato da utilizzare per campagne di misure successive, verificandone comunque regolarmente la validità per ciascuna variabile.
Obiettivo 4: Analisi delle tendenze temporali
Le serie temporali vengono utilizzate per verificare variazioni su cicli stagionali e pluriennali dei parametri che si ritengono significativi per ciascun acquifero.
Gli obiettivi principali delle analisi di serie cronologiche sono:
· identificare la natura del fenomeno rappresentato dalla sequenza delle osservazioni;
· produrre modelli previsionali (forecasting).
Entrambi gli obiettivi richiedono che un modello dei dati osservati sia identificato e formalmente descritto. Una volta che il modello è stabilito è possibile estrapolarlo per predire gli eventi futuri.
A tal proposito è necessario distinguere all'interno della serie di dati un modello sistematico e il disturbo casuale. Il modello sistematico è solitamente costituito da un insieme di componenti identificabili (p.es. la curva di esaurimento di una sorgente); il disturbo casuale è dato dalla somma di eventi accidentali ed errori strumentali e rappresenta la componente che solitamente rende il modello difficile da identificare. La maggior parte delle tecniche di analisi di serie cronologiche implicano perciò una certa forma di filtraggio del disturbo.
La maggior parte dei modelli di serie cronologiche possono essere descritti in termini di due componenti: tendenza e carattere stagionale. La prima rappresenta una componente non ciclica all'interno dell'intervallo di tempo delle nostre osservazioni. Il secondo può avere una natura formalmente simile ma si ripete ciclicamente ad intervalli di tempo regolari.
Il primo passo per l'identificazione del modello sistematico è costituito dallo smoothing. In questa fase si cerca di ottenere una media locale dei dati tale da annullare il disturbo. La tecnica più comune è la media-mobile che sostituisce ogni elemento della serie con la media o la media pesata di n elementi circostanti. Un metodo alternativo consiste nell'utilizzazione della mediana al posto della media. Il vantaggio principale della mediana rispetto alla media mobile è che i risultati sono meno influenzati dai valori estremi. Quindi se la distribuzione dei dati è molto ampia la mediana produce uno smoothing maggiore e più realistico.
Il filtraggio dei dati dal disturbo permette di identificare il modello sistematico e di distinguere al suo interno le componenti stagionali (cicliche) dalle tendenze pluriennali. Infine è possibile effettuare unanalisi di regressione (lineare o non lineare) dei dati filtrati per evidenziarne la tendenza su base pluriennale e sviluppare modelli previsionali.
Tali elaborazioni possono riguardare sia singoli punti, sia ciascun acquifero nel suo complesso. Nellambito del progetto PRISMAS questi due aspetti sono stati trattati con due approcci differenti.
Tendenze temporali di punti dacqua singoli
Nel caso dei cronogrammi riguardanti le sorgenti appenniniche e alcuni punti particolarmente significativi all'interno degli acquiferi alluvionali è necessario distinguere tra le misure in continuo (temperatura, conducibilità elettrica e portate delle sorgenti) e i parametri chimico-fisici e le concentrazioni delle specie chimiche che sono stati misurati con cadenza stagionale.
Variazioni temporali delle tendenze centrali degli acquiferi
Mediante la release 5.0 di Microcalä Originä sono stati elaborati gli andamenti medi stagionali delle variabili significative in ognuno degli acquiferi studiati, utilizzando la mediana. Considerando che gran parte delle variabili studiate hanno una distribuzione non gaussiana, la mediana si è rivelata il modo più efficace e rapido per rappresentare la tendenza centrale dellacquifero senza la necessità di addentrarsi in studi di tipo probabilistico che comportano lutilizzazione di test statistici complessi e diversi per ogni variabile considerata. Il valore della mediana è stato rappresentato mediante boxplots insieme a media, 25mo e 75mo percentile. I boxplots sono stati successivamente ordinati in senso cronologico ottenendo dei diagrammi che mostrano sia la distribuzione statistica dei dati in ogni campagna sia le variazioni tra le diverse campagne.
|