3.1.1.2 Le Decisioni Statistiche

Molto spesso è necessario prendere delle decisioni relative a “popolazioni statistiche” sulla base delle informazioni che sono state derivate dall’analisi di uno o più campioni.

Questo tipo di decisioni sono normalmente definite “Decisioni Statistiche” e le probabilità di fare degli errori decisionali (sopra o sotto il limite) basandosi sul set di dati disponibili può essere quantificata mediante una procedura statistica denominata “Test di Ipotesi”.

Il test può essere usato per dimostrare sia che non vi sia sufficiente evidenza per indicare che l’ipotesi di base sia falsa (e di conseguenza che si accetti che l’ipotesi di base sia presuntamente vera) sia che vi sia sufficiente evidenza che l’ipotesi di base sia falsa (e di conseguenza che l’ipotesi alternativa sia vera).

L’onere della prova è quello di dimostrare in modo scientificamente corretto che si possa rifiutare l’ipotesi di base; nel Test di Ipotesi, infatti, l’ipotesi di base è da presumersi vera fino a quando non ci sia sufficiente evidenza che indichi che sia falsa. Pertanto è fondamentale capire, sia quale ipotesi deve essere scelta come ipotesi di base, sia quale probabilità occorre associare al fatto che essa sia presunta vera; infatti lo stesso set di dati può condurre a differenti decisioni in funzione della probabilità che si associa all’ipotesi di base.

Bisogna altresì notare che quando il numero dei dati è limitato si può fare l’errore di rigettare falsamente l’ipotesi di base (decidere che l’ipotesi di base sia falsa quando nella realtà invece essa è vera) o, nel caso opposto, l’errore di accettare falsamente l’ipotesi (decidere che l’ipotesi di base sia vera quando nella realtà invece essa è falsa).

 

Decisione da prendere sulla base di set di dati

Condizione Vera

Ipotesi di base è vera

         Decisione Corretta

Decisione Errata (Falsa  Accettazione)

Ipotesi di base è falsa

     Decisione Errata (Falso Rigetto)

    Decisione Corretta

 

Esempio:

In ambito legislativo i gestori di un impianto di trattamento acque non devono eccedere i valori di legge consentiti per il parametro X: in questo caso l’ipotesi di base sarebbe che il valore vero del parametro X sia minore o uguale al limite di legge; l’ipotesi alternativa che tale valore ecceda il limite. Spetterebbe al gestore l’onere della prova del dare evidenza scientifica che, in base ad un monitoraggio di n campioni (dove n dipende dal tipo di monitoraggio nel tempo e dalla variabilità dei dati di monitoraggio), ci sia almeno il 95% (esempio) di probabilità che i valori veri del parametro X nel tempo siano inferiori al limite di legge.

Se da un set di dati disponibili si evincesse (stima ad occhio) una preponderanza di valori eccedenti il limite di legge si sarebbe portati a concludere che il parametro X eccede i limiti di legge: rifiuto dell’ipotesi di base (parametro X minore o uguale al limite di legge ); se nella realtà però il valore del parametro X fosse minore del limite di legge la decisione sarebbe stata errata dovuto ad un falso rigetto dell’ipotesi di base.

N.B. (Gli organi di controllo hanno al contrario l’onere della prova di dare sufficiente evidenza che il valore vero del parametro X sia superiore al limite di legge ed in questo caso l’ipotesi di base sarebbe che il valore vero sia superiore al limite di legge e l’ipotesi alternativa l’opposto)

Come si fa ad identificare il valore di probabilità da associare ad un errore nelle decisioni?

 

Ref to US EPA document G4 - Guidance For The Data Quality Objectives Process Section 6.2

 

In un monitoraggio ambientale si può dimostrare che in funzione della modalità di campionamento che si intende eseguire (random, composito, etc…) esistono delle relazioni funzionali che legano il numero di campioni da analizzare (n), la probabilità dell’errore decisionale (Dp) e l’incertezza della misura connessa con il monitoraggio (sM2 = variabilità del monitoraggio).

N = f(Dp,sM2)

L’incertezza di misura del monitoraggio (sM2) è a sua volta scomponibile nelle incertezza di misura del campionamento (sC2) e nell’incertezza di misura dell’analisi (sA2) che normalmente per un monitoraggio di suolo potrebbero essere in un rapporto variabile da 5:1 a 10:1.

N.B. Il criterio di decomposizione della variabilità è basato sul fatto che con buona approssimazione si può dire che la variabilità totale è la sommatoria di tutte le variabilità parziali che la costituiscono; siccome lavorare a livello della varianza può essere scomodo da un punto di vista visivo è più facile e rappresentativo lavorare al livello della deviazione standard e rappresentare l’incertezza con triangoli rettangoli.

 

Gli Step per la definizione dell’errore nella decisione

  1. Si calcola il numero di campioni da prelevare per consentire la concordata probabilità decisionale.

Per fare questo occorre conoscere la variabilità dei metodi analitici utilizzati (ex ante da verificarsi ex post con i Campioni di Controllo di Laboratorio: Laboratory QC) e stimando la variabilità del campionamento (ex ante da verificarsi ex post con i Campioni  di Controllo di Campo: Field QC).

N = f(Dp,sM2)

2.       Si definiscono le principali fonti (punto c del DQO process) che possano generare delle incertezze nelle decisioni e le strategie per prendere in considerazione ed eliminare dove possibile tali fonti (i.e. se si campiona un acqua di falda vicino ad un serbatoio di stoccaggio di benzina si esegue un QC di campo chiamato Ambient Blank per tenere sotto controllo che una potenziale presenza di toluene nei campioni non sia dovuta alla contaminazione dell’acqua di falda prelevata da parte dell’atmosfera in cui si è svolto il campionamento).

3.       Si verifica che il piano di monitoraggio rispetti i requisiti di budget rischi per gli stake holders e sia da essi approvato, altrimenti si ottimizza il piano in funzione delle necessità (punto g del DQO process) e si scrive un Piano di Assicurazione della Qualità dei Dati sulla base dei DQI di interesse in cui si definiscono tutte le specifiche operative per ciascun metodo di campionamento ed analisi utilizzati, Flagging Criteria, modalità di Reporting etc etc ed in particolar modo si definiscono quali e quanti QC il laboratorio deve eseguire per la verifica della variabilità del monitoraggio ex post.

  1. Si esegue il monitoraggio, si validano i dati sulla base del QAPP e si verifica ad esempio mediante i QC quali MS e MSD e Field Duplicates (within unit o between unit) se rispettivamente la variabilità del laboratorio e se la variabilità del campionamento rientrano in quelle ipotizzate (ex ante) nel piano.
  2. Se è vero che la variabilità del monitoraggio (variabilità del campionamento + variabilità analitica) rientrano all’interno dei valori di progetto allora si può prendere la decisione con la probabilità di errore stabilità che l’ipotesi di base è vera; se non si può si devono fare delle ulteriori indagini.

 

Come si fa a valutare la variabilità di un metodo analitico ex ante ed ex post?

Ex ante: Il laboratorio deve dare evidenza di essere in grado di eseguire il metodo richiesto applicato ad una matrice simile a quella da investigare. L’evidenza può venir data mediante l’analisi di campioni di controllo LCS nel tempo (Ongoing Precision and Bias evaluation in compliance with ISO 17025) dai quali si ricava il coefficiente di variazione della misura per ciascun analita (N.B. se il metodo definisce dei limiti di precisione e bias cfr. metodi SW 846 i parametri di precisione e bias che il laboratorio ottiene devono rientrare nei limiti previsti dal metodo di interesse per consentire al laboratorio di affermare di essere in grado di eseguire quel metodo) oppure mediante l’analisi di materiali di riferimento certificati.

 

Ex post: Il laboratorio deve dare evidenza di tutti i QC richiesti nel QAPP ed in particolare dei QC MS e MSD (a meno che non si siano utilizzati dei metodi basati sulla diluizione isotopica per i quali è sufficiente eseguire dei duplicati di laboratorio al posto di MS e MSD).

Esempio:

Se il Coefficiente di Variazione Percentuale di una misura ex ante è 25%, e dai campioni di controllo (QC) MS e MSD si evince che il % RPD (equivalente al Coefficiente di Variazione Percentuale per due campioni) è 48% allora vuol dire che, benchè il laboratorio sia capace ad eseguire quel metodo con un coefficiente di variazione del 25% su quella matrice specifica, all’atto di applicazione del metodo magari il campione utilizzato per la triade di comparazione M MS MSD o non è stato ben omogeneizzato in laboratorio o ha delle caratteristiche di non omogeneità molto forti.

Quindi se il % RPD è più grande di quanto richiesto in specifica per il metodo allora vuol dire che nel campione M e in tutti i campioni associati a quella matrice la misura ha un coefficiente di variazione superiore a quello atteso, pertanto devo ripetere tutte le analisi dalla preparativa omogeneizzando il campione meglio e dandone adeguata evidenza.

Se anche in questo caso avrò un % RPD superiore al 25%, ad esempio 38% allora il laboratorio ha fatto tutto il possibile per dimostrare di aver eseguito il metodo nelle migliori modalità e si dovrà concludere che il reale Coefficiente di variazione per quelle misure non sarà 25% ma, se si vuole essere il più conservativi possibile, sarà il 48% e tutti i dati saranno flaggati in maniera adeguata per indicare che su quella matrice ci sono problemi dovuti ad un effetto matrice sulla misura.

Per valutare la variabilità del campionamento si valutano i relativi QC di campo che ne danno misura sperimentale ex post.

 

N.B. per poter asserire che le considerazioni fatte sono vere è necessario che il laboratorio dia altresì evidenza che la calibrazione iniziale del metodo sia conforme ai requisiti e verifichi con standard di seconda sorgente, che sia stato fatto un MDL study su quella matrice, che per ogni batch sia stata verificata la calibrazione in conformità alla periodicità richiesta dal QAPP, che per ogni Batch di preparativa siano stati preparati ed analizzati i QC MB ed LCS, etc. etc..

 

Ref. AFCEE QAPP 3.1

3.1.1.3 Vantaggi e Svantaggi nell’utilizzo di un DQO Process

3.1.1.3.1 Vantaggi

-        Anche se il costo sul singolo processo è sicuramente più alto il costo globale della gestione dei monitoraggi ambientali con Qualità definita è notevolmente inferiore:

a.       una volta definito il processo tutte le decisioni che ne derivano sono prese con una tempistica molto più rapida in quanto già stabilite nel Processo;

b.      non sono necessarie ripetizioni di analisi di tre o quattro enti per lo stesso progetto ecc...

-        Consente di evitare di fare delle elaborazioni statistiche e conseguentemente di prendere decisioni sulla base di informazioni non corrette, o non rappresentative e questo è particolarmente importante quando queste decisioni possono avere un impatto sulla salute e sulla sicurezza dei cittadini.

-        È un sistema totalmente trasparente: si deve dare evidenza scientifica di tutto.

-        The Environmental Forensics issue: potrebbe essere interessante per le società considerare di gestire il controllo ambientale e dell’igiene industriale in modo efficace ed efficiente sulla base di questo principio: “sulla base specifica dei propri processi l’azienda, per tutelare meglio se stessa, dovrebbe dare evidenza con una probabilità del X% (negli Stati Uniti dovrebbe essere il 95%) di non superare i limiti di legge sia puntuali (dove applicabile) sia medi. Tale evidenza potrebbe essere data mediante la predisposizione di processi DQO e relativi QAPP e Report di dati scientificamente validati.

3.1.1.3.2 Svantaggi

1.      Inizialmente può sembrare essere più complicato da gestire.

3.1.2 Sampling Design

Prima di procedere alla stesura di un Piano di Assicurazione della Qualità dei Dati occorre fare un attento esame relativo al disegno del progetto di campionamento, con l’obiettivo di rispondere alla domanda :”I campioni da prelevare sono rappresentativi della popolazione di interesse?”.

Si devono preventivamente esaminare le modalità con cui si intende effettuare il campionamento ed il trasporto dei campioni affinché queste due fasi abbiano una influenza controllata sulla accuratezza dei risultati analitici.

Si devono altresì prevedere le modalità (i Campioni di Controllo di Campo) per controllare l’influenza delle fasi di campionamento e trasporto dei campioni al laboratorio.

3.1.2.1  Punti Principali

-        Punti di campionamento e criteri di scelta (se applicabile);

-        Responsabilità del progetto in campo;

-        Modalità di campionamento (metodi e istruzioni operative di dettaglio);

-        QC da effettuare su campo (per la valutazione del Bias e della Precisione globale del monitoraggio);

-        Modalità di stabilizzazione/stoccaggio temporaneo dei campioni;

-        Modalità di trasporto dei campioni al laboratorio;

-        Informazioni da registrare che possano influenzare la misura (temperatura, pressione atmosferica, flussi, condizioni climatiche ecc..);

-        Moduli di registrazione (Chain of Custody ecc…).

 

Usa il motore di ricerca!