COME CAPIRE LA STATISTICA IN TERMINI NON MATEMATICI
Vediamo alcuni esempi. Pensate ad una donna in gravidanza. Il sesso del nascituro è già definito, ma lei non lo sa. In questo caso siamo sicuri di poter parlare di probabilità di nascita di un maschio? Non dovremmo parlare di probabilità, in quanto quest'ultima ha a che fare con la casualità, non con l'ignoranza. Pensiamo ora alla percentuale di voti che avrà un certo partito. Abbiamo fatto un'indagine statistica come si deve, ed abbiamo ottenuto un intervallo di confidenza ben costruito e sufficientemente ristretto per la proporzione dei voti. Possiamo fare affidamento su questo risultato? No, se le elezioni si svolgono un po' di tempo dopo la raccolta e l'elaborazione dei dati (in quanto gli elettori possono cambiare idea velocemente).
Consideriamo ora il rischio relativo: abbiamo due gruppi di soggetti, un gruppo ha ricevuto il trattamento, mentre l'altro ha ricevuto il placebo. Vogliamo verificare se una certa patologia si verifica meno frequentemente fra i soggetti trattati. Dobbiamo fare attenzione a come comunichiamo i risultati: se il rischio relativo è 1,6 significa un aumento del rischio del 60%, invece 1 significa che non c'è alcuna variazione, 0,9 vuol dire riduzione del rischio del 10%. Ma non possiamo comunicare dati con certezza, poiché i dati "certi" possono riguardare solo il campione, mentre a noi interessa valutare il rischio relativo nella popolazione da cui quel campione è stato estratto. Utilizziamo quindi gli intervalli di confidenza: cosa diciamo ai non addetti ai lavori se l'intervallo è compreso tra 0,9 e 1,6? In pratica non possiamo escludere un rischio relativo pari a zero, minore o maggiore. Dobbiamo quindi tenere a freno la nostra voglia di sensazionalismo, ed essere molto cauti nel comunicare i dati, senza renderli certi (in quanto non lo sono), né utilizzare gli estremi (inferiore o superiore) dell'intervallo, poiché quest'ultimo è appunto un intervallo, non un valore. Inoltre, se pure l'intervallo di confidenza non comprendesse il valore 1 (che in questo caso, trattandosi di un rapporto, corrisponde all'assenza di effetto), potrebbe comunque non essere conclusivo a causa delle "variabili confondenti", che non abbiamo adeguatamente considerato.
Pensiamo ora al famoso "p-value", che molti usano come se fosse un semaforo: è verde se è più piccolo di 0,05, altrimenti è rosso. Se è verde, il risultato è statisticamente significativo, se è rosso, no. In realtà, questa soluzione "binaria" è piuttosto riduttiva quando si è di fronte ad un problema complesso. Non conta solo il p-value, ma anche l'entità dell'effetto, l'intervallo di confidenza e la sua plausibilità biologica.
Terminiamo con un classico della statistica: la dimensione del campione. A tal proposito, Harvey Motulsky ci ricorda che per determinare correttamente la dimensione di un campione dobbiamo farci quattro domande. La prima è: qual è la dimensione dell'effetto che stiamo cercando? Se stiamo cercando un effetto molto piccolo, ci servirà un campione molto grande. La seconda domanda è: che livello di significatività vogliamo? Quanto meno vogliamo rischiare, tanto più grande deve essere il campione. Ed ecco la terza domanda: la variabilità è elevata oppure no? Se ci aspettiamo una variabilità elevata fra i dati, abbiamo necessariamente bisogno di un campione grande. Arriva la quarta ed ultima domanda: quanta potenza deve avere il nostro studio? Se davvero c'è un effetto, quanto vogliamo essere sicuri di riuscire ad identificarlo? Più è alta la potenza, più grande deve essere il campione.
Non aggiungo altro, perché penso che abbiate chiaramente compreso il valore e l'utilità di questo libro, a maggior ragione in un'epoca in cui si usano numeri, dati, statistiche e grafici come se fossero spade per eliminare il nemico oppure scudi per difendersi da qualunque attacco.
Walter Caputo
Divulgatore in Scienze Statistiche
N.B.: le foto incluse in questo articolo sono state scattate da Walter Caputo.
Post a Comment