Manuale
introduttivo all'inferenza statistica |
|
PROBABILITÀ *
1.
Definizione di probabilità e sue proprietà
elementari *
2. Eventi e loro probabilità *
2.1 Spazio degli eventi *
2.2 Eventi *
2.3 Combinazione di eventi *
2.4 Probabilità di eventi derivati *
2.5 Eventi condizionati *
2.6 Indipendenza *
VARIABILI
CASUALI *
1.
Definizione di variabili casuali *
2. Variabili casuali discrete *
3. Variabili casuali continue *
4. Distribuzioni di probabilità congiunte *
5. Parametri delle distribuzioni di probabilità *
5.1 Valore medio di una variabile casuale *
5.2 Misure di variabilità *
5.3 Momenti delle distribuzioni congiunte *
MODELLI
DISTRIBUTIVI *
1.
Modelli distributivi discreti *
1.1 Modello di Bernoulli *
1.2 Modello Binomiale *
1.3 Modello ipergeometrico *
1.4 Modello di Poisson *
2. Modelli distributivi continui *
2.1 Modello normale o gaussiano *
CAMPIONAMENTO
E DISTRIBUZIONI CAMPIONARIE *
1.
Popolazione e campione *
2. Il campione casuale *
3. Distribuzione campionaria delle medie *
4. Distribuzione campionaria del numero di successi e
della proporzione *
STIMA
DEI PARAMETRI *
1.
Stima per intervalli *
2. Intervalli di confidenza per la media *
3. Intervalli di confidenza per una proporzione *
VERIFICA
DELLE IPOTESI *
1.
Controllo di ipotesi sulla media di una popolazione *
1.1 Test bilaterale *
1.2 Test unilaterale *
1.3 Determinazione della numerosità campionaria
fissati e *
1.4 Test di ipotesi per la media nel caso di ignota *
2. Controllo di ipotesi sulla proporzione di una popolazione *
PROBABILITÀ
Nei capitoli che
seguono verranno effettuate deduzioni riguardo ad un campione
estratto da una popolazione nota. Questo studio è
preliminare all'induzione, della quale si tratterà
in seguito partendo da un campione noto per compiere inferenze
su una popolazione ignota.
Se la produzione
di una macchina utensile presentasse una difettosità
pari al 2%, non potremo mai essere sicuri che, in un campione
casuale, si troverà esattamente la stessa percentuale
di pezzi difettosi; tuttavia è probabile che
la percentuale osservata nel campione sia vicina a
quella della popolazione. Si tratta quindi di chiarire i
vocaboli probabile e vicina a in modo più
preciso, si tratta in altri termini di definire le leggi
probabilistiche che stanno alla base delle previsioni in
condizioni di incertezza.
1.
Definizione di probabilità e sue proprietà
elementari
Se consideriamo
il caso del lancio di un dado, cerchiamo di definire la
probabilità che esca la faccia 1. Intuitivamente,
dal momento che questo è uno dei sei eventi equiprobabili,
potremo arguire che la probabilità sia pari ad un
sesto. In altre parole, potremo dire che, se il dado venisse
lanciato un gran numero di volte, la frequenza relativa
della faccia 1 si approssimerebbe a un sesto. Questa definizione
di probabilità come frequenza relativa limite è
formalmente stabilita dalla:
in cui e1
è l'evento, n è il numero totale delle volte
in cui l'esperimento viene ripetuto (lancio del dado), n1
è il numero delle volte che si verifica l'evento
e1
(frequenza f di e1);
n1/n
è perciò la frequenza relativa di e1.
Generalizzando,
se un esperimento è costituito da N eventi elementari
(e1,e2,....,ei,....eN),
le frequenze relative ni/n
di ogni evento ei
saranno positive, dal momento che sia il numeratore che
il denominatore sono positivi; inoltre siccome il numeratore
risulta non superiore del denominatore, la frequenza relativa
non può essere superiore ad 1. Pertanto:
e poichè la stessa
relazione è valida al limite, si avrà:
Inoltre, si deve osservare
che siccome tutti i possibili eventi hanno per somma n
dividendo questa equazione
per n otteniamo che tutte le frequenze relative hanno per
somma l'unità:
2.
Eventi e loro probabilità
2.1
Spazio degli eventi
Supponiamo che l'esperimento
consista nel lancio di una moneta per tre volte. L'elenco
di tutti i possibili risultati, cioè di tutti i possibili
eventi sarà:
T T T =e1
T T C =e2
T C T =e3
T C C =e4
C T T =e5
C T C =e6
C C T =e7
C C C =e8
L'insieme dei risultati
è detto Spazio campione S.
Ognuno degli otto possibili
eventi elementari avrà una probailità di 1/8.
2.2
Eventi
Continuando con
l'esempio del lancio della moneta per tre volte, definiamo
l'evento
E: almeno 2 Teste
questo evento comprende
i punti campione e1 e2
e3
e5
, diremo pertanto che l'evento E è l'insieme dei
punti {e1 e2
e3
e5
}
Un evento E è
un sottoinsieme dello spazio campione S. La sua probabilità
sarà data da:
in cui nE
è la frequenza di E. Naturalmente E si presenta ogni
volta che si presentano i punti campione e1
e2
e3
e5
e quindi:
per cui si ottiene:
La generalizzazione
di quanto riportato sopra è che la probabilità
di un evento è la somma delle probabilità
di tutti i punti campione (o eventi elementari) compresi
in quell'evento, vale a dire:
Nella tabella che
segue sono riportati diversi eventi; come è immediato
notare nella colonna (3) sono riportati tutti gli eventi
elementari compresi in ogni evento:
Tavola 1
Simbolo
arbitrario
per l'evento
(1) |
Descrizione
(2) |
elenco
dei
punti campione
(3) |
probabilità
(4) |
E |
almeno
2 teste |
e1
e2 e3 e5 |
1/8+1/8+1/8+1/8=1/2 |
F |
seconda
moneta testa seguita da croce |
e2
e6 |
1/4 |
G |
meno
di 2 teste |
e4
e6 e7 e8 |
1/2 |
H |
stesso
risultato |
e1
e8 |
1/4 |
I |
nessuna
testa |
e8 |
1/8 |
I1 |
1
testa |
e4
e6 e7 |
3/8 |
I2 |
2
teste |
e2
e3 e5 |
3/8 |
I3 |
3
teste |
e1
|
1/8 |
J |
meno
di 2 croci |
e1
e2 e3 e5 |
4/8 |
2.3
Combinazione di eventi
Se consideriamo
i due eventi G ed H potremo ricercare la probabilità
di ottenere meno di due teste o che tutte le monete presentino
la stessa faccia, cioè la probabilità di <G
o H>. Questo evento congiunto si indica con <GH>
(G unione H). Dalla tavola 1 si vede che l'evento unione
tra G ed H è dato da:
GH = {e4
e6
e7
e8
e1}
In altri termini definiamo
GH l'insieme di tutti i punti campione che sono in G o in
H o in entrambi.
In questo esempio, poichè
in GH sono compresi 5 degli 8 punti equiprobabili, la sua
probabilità sarà di 5/8.
Analogamente potremo
essere interessati all'evento <G e H>, cioè
che si verifichino meno di due teste e che tutte le monete
presentino la stessa faccia. Tale evento viene indicato
con GH (G intersezione H). L'unico punto in comune tra gli
eventi G ed H è rappresentato da {e8}
GH={e8}
ne segue che la probabilità
di GH risulta pari ad 1/8. In generale, per ogni coppia
di eventi G ed H, definiamo GH come l'insieme dei punti
che sono in G ed in H.
2.4
Probabilità di eventi derivati
Se consideriamo una coppia di eventi
che non abbiano nessun punto in comune, come gli eventi
I e J della tabella 1, si può facilmente osservare
che:
Questa semplice
somma non è comunque sempre valida, infatti:
La differenza è
dovuta al fatto che G ed H si sovrappongono e che quindi
nel sommare Pr(G) e Pr(H) teniamo conto due volte dell'intersezione
GH. Potremo quindi scrivere correttamente che:
Nel caso degli eventi
I e J abbiamo che la loro intersezione è vuota Pr(IJ)=0,
per cui:
Più eventi
si dicono mutuamente incompatibili se nessuno si sovrappone
all'altro, cioè se nessun evento elementare appartiene
a più di un solo evento.
Nella tabella 1
gli eventi I, I1,I2
si escludono a vicenda, mentre ciò non accade per
gli eventi E, F ed I.
In particolare
gli eventi I, I1,I2,I3
si escludono a vicenda e la loro unione "copre" l'intero
spazio campione: in questo caso si parla di partizione
di S.
2.5
Eventi condizionati
Definiamo la probabilità
condizionata affermando che se G ed H sono due eventi dello
spazio campione S e Pr(G)>0, allora la probabilità
condizionata di H, dato G, Pr(H/G), è:
Facendo sempre riferimento
agli eventi definiti nella tabella 1, si supponga che sia
stato effettuato un lancio della moneta per tre volte e
di essere informati del fatto che si sono verificate meno
di due teste, cioè che si è verificato l'evento
G; sotto questa condizione ci si chiede quale sia la probabilità
che sia avvenuto l'evento H (monete tutte uguali).
Determinare la probabilità
di H, dato G, equivale a determinare la probabilità
di H relativamente allo spazio campione G: i soli elementi
di H che interessano sono quelli che appartengono pure a
G, ossia i punti campione dell'insieme GH.
Partendo dalla definizione
di probabilità condizionata si ottiene:
2.6
Indipendenza
Definiamo come indipendenti
due eventi A e B quando:
Pr(A/B)=Pr(A) e quindi
se Pr(AB)=Pr(A)Pr(B).
In altri termini significa
che il fatto di disporre di informazioni sul verificarsi
dell'evento B non modifica la probabilità dell'evento
A.
Se ad esempio definiamo
tre eventi, sempre in riferimento al lancio della moneta
tre volte:
E1:
i primi due lanci presentano testa {e1
e2}
= 2/8=1/4
E2:
l'ultimo presenta testa {e1
e3
e5
e7}=4/8=1/2
E3:
tutti i lanci presentano testa {e1}=1/8
potremo affermare che
E1
e E2
sono indipendenti, infatti
mentre E1
e E3
non sono indipendenti, infatti:
VARIABILI
CASUALI
1.
Definizione di variabili casuali
Considerando nuovamente
l'esperimento del lancio della moneta per tre volte, si
associ ad ogni evento elementare dello spazio campione il
corrispondente numero di teste, che indichiamo con X. In
questo modo si definisce una variabile, il cui singolo valore,
che corrisponde ad un sottoinsieme dello spazio campione,
è esso stesso un evento. L'insieme dei valori di
X costituisce uno spazio campione numerico su cui può
essere definita una misura di probabilità, come illustrato
nella figura seguente:
eventi elementari X
e1 T
T T 3 valori di X Probabilità
e2 T
T C 2
e3 T
C T 2 0 1/8
e4 T
C C 1 1 3/8
e5 C
T T 2 2 3/8
e6 C
T C 1 3 1/8
e7 C
C T 1
e8 C
C C 0 totale 1
In generale si definisce
variabile casuale una funzione che associa ad ogni
evento elementare e dello spazio campione S uno ed
un solo numero reale.
Associando ad ogni
possibile valore di X la sua probabilità, come somma
delle probabilità degli eventi elementari che forniscono
quel determinato valore di X, si ottiene la distribuzione
di probabilità della variabile casuale X.
In termini generali
se l'insieme di eventi {A1,A2
A3
..... An
} definiti su uno spazio campione costituiscono un insieme
esaustivo di eventi mutuamente escludentisi (dove A1,A2
A3
..... An
rappresentano i possibili valori della variabile casuale
X) il corrispondente insieme di valori di probabilità
associato agli eventi in questione {Pr(A1),Pr(A2),
Pr(A3).....
Pr(An)}
costituisce una distribuzione di probabilità.
2.
Variabili casuali discrete
La variabile casuale
X si chiama discreta se è definita in uno
spazio campionario discreto; potrà quindi assumere
un numero finito o un'infinità numerabile di valori.
Sono discrete, ad esempio, le variabili: numero di pezzi
difettosi prodotti da una macchina; numero di elementi non
difettosi osservati fino al primo difettoso.
Nel caso di una
v.c. discreta che assuma n valori x1,x2
..... xn
dovranno essere soddisfatte le condizioni:
la funzione p(xi)=Pr(X=xi)
si dice funzione di massa di probabilità (FMP)
mentre la funzione
viene denominata funzione cumulativa di distribuzione
(FCD) o funzione di ripartizione e rappresenta la
probabilità che la v.c. X assuma valori inferiori
ad un certo valore x di X.
3.
Variabili casuali continue
Una variabile casuale
X si dice continua se è definita in uno spazio campionario
continuo, essa può quindi assumere tutti i valori
di un certo intervallo. Sono continue variabili come il
diametro di un bullone prodotto da una certa macchina, la
temperatura registrata in un ambiente, e così via.
Si noti che la v.c.
continua è solo un'astrazione: essa non è
osservabile nella realtà. Se consideriamo infatti
il diametro di un bullone, comunque si fissino due suoi
valori, esso potrà assumere qualunque valore intermedio.
Tuttavia nella realtà la traduzione in cifre dell'osservazione
dà luogo ad un insieme discreto di numeri, sia per
i limiti di precisione dello strumento di misura sia per
gli errori dovuti al rilevatore. In altre parole il diametro
non può essere osservato con una precisione assoluta,
senza perdere alcuna cifra decimale. Tuttavia le v.c. continue
hanno un grande rilievo per la statistica come modelli approssimati
di situazioni reali. Di seguito si darà la definizione
della distribuzione di probabilità nel caso di v.c.
continue secondo un approccio intuitivo.
Supponiamo di avere
suddiviso l'intervallo in cui è definito il diametro
di un bullone in classi di uguale ampiezza, e di avere assegnato
a ciascuna di esse un livello di probabilità:
Tabella 1
diametro
(mm.) |
probabilità |
140-150 |
0.05 |
150-160 |
0.09 |
160-170 |
0.20 |
170-180 |
0.32 |
180-190 |
0.20 |
190-200 |
0.09 |
200-210 |
0.05 |
|
|
totale |
1.00 |
Si ha così
una distribuzione di probabilità; il livello di probabilità
assegnato ad una certa classe indica la probabilità
di osservare, in una estrazione casuale dalla popolazione,
un diametro compreso nella classe.
Tale distribuzione
può essere rappresentata graficamente mediante un
istogramma, in cui l'area di ciascun rettangolo è
pari alla probabilità della classe corrispondente
(figura 1)
Si supponga ora
di prendere classi di X sempre più piccole. Se ad
esempio consideriamo classi di ampiezza pari ad un quarto
di quelle precedenti, otterremo un nuovo istogramma dal
profilo più regolare, mentre resta invariato il significato
dell'altezza e dell'area di ogni singolo rettangolo dell'istogramma.
Sospingendo sempre più avanti il processo di riduzione
delle classi, si intuisce che la spezzata che delimita superiormente
l'istogramma, costituita da segmenti sempre più piccoli,
tende ad identificarsi con una curva continua.
Sia y = f(x) l'equazione
di questa curva. Il valore di f(x) corrispondente al generico
valore di X esprime, come altezza del singolo rettangolo
dell'istogramma, la densità di probabilità,
il prodotto f(x)x, rappresentato dal rettangolo tratteggiato
nella figura seguente, fornisce la probabilità che
X assuma un valore nell'intervallo di centro x e ampiezza
x.
E' evidente che
una figura simile, detta funzione di densità,
è tale che l'area ad essa sottostante è pari
all'unità.
Più in generale
si definisce funzione di densità della variabile
casuale continua X, definita in un intervallo (l,L), la
funzione f(x) che possiede le seguenti proprietà:
Inoltre si definisce
come funzione cumulativa di distribuzione o funzione di
ripartizione, sempre della variabile casuale continua X,
la:
4.
Distribuzioni di probabilità congiunte
A volte si può
essere interessati all'esame congiunto di due variabili
casuali; ad esempio peso e spessore di un determinato prodotto,
numero di pezzi difettosi e numero di macchine utilizzate
per fabbricarli, ecc. E' quindi il caso di una analisi congiunta
di due variabili casuali.
Se X e Y sono due
v.c. che possono assumere rispettivamente valori (x1,x2
..... xn)
e (y1,y2.....yn)
e si è interessati all'evento congiunto in cui X
= xi
e Y = yi
, allora la v.c. congiunta è rappresentata dalla
coppia (xi
, yi)
alla quale corrisponde la probabilità P(X = xi
, Y = yi).
Le coppie ordinate del tipo (xi
,yi),
P(X = xi
, Y = yi)
descrivono la distribuzione congiunta di probabilità.
Se consideriamo
l'esempio del lancio della moneta per tre volte e definiamo
le v.c.:
X: 1 se il primo
lancio presenta Testa
0 altrimenti
Y: numero totale
di teste nei tre lanci
avremo:
spazio campione X Y probabilità
T T T 1 3 1/8
T T C 1 2 1/8
T C T 1 2 1/8
T C C 1 1 1/8
C T T 0 2 1/8
C T C 0 1 1/8
C C T 0 1 1/8
C C C 0 0 1/8
la distribuzione congiunta
sarà perciò data da:
X
Y |
0 |
1 |
2 |
3 |
p(x) |
1 |
0 |
1/8 |
2/8 |
1/8 |
4/8 |
0 |
1/8 |
2/8 |
1/8 |
0 |
4/8 |
p(y) |
1/8 |
3/8 |
3/8 |
1/8 |
1 |
La colonna indicata
con p(x) e la riga p(y) sono dette distribuzioni marginali
e rappresentano le distribuzioni delle singole variabili
senza prendere in considerazione la relazione con l'altra
variabile.
Utilizzando le probabilità
congiunte e quelle marginali è possibile determinare
le distribuzioni condizionate di probabilità; si
avrà quindi:
Distribuzione condizionata
di X dato Y
X
Y |
0 |
1 |
2 |
3 |
1 |
0/(1/8)=0 |
(1/8)/(3/8)=1/3 |
(2/8)/(3/8)=2/3 |
(1/8)/(1/8)=1 |
0 |
(1/8)/(1/8)=1 |
(2/8)/(3/8)=2/3 |
(1/8)/(3/8)=1/3 |
0/(1/8)=0 |
p(y) |
1 |
1 |
1 |
1 |
Distribuzione condizionata
di Y dato X
X
Y |
0 |
1 |
2 |
3 |
p(x) |
1 |
0/(4/8)=0 |
(1/8)/(4/8)=1/4 |
(2/8)/(4/8)=1/2 |
(1/8)/(4/8)=1/4 |
1 |
0 |
(1/8)/(4/8)=1/4 |
(2/8)/(4/8)=1/2 |
(1/8)/(4/8)=1/4 |
0/(4/8)=0 |
1 |
Diremo che due variabili
casuali sono indipendenti se:
Partendo da questa condizione
è immediato dedurre che, affinchè due v.c.
siano indipendenti, deve risultare che, per ogni valore
di X
o per ogni valore di
Y
5.
Parametri delle distribuzioni di probabilità
Una distribuzione
di probabilità può essere rappresentata in
modi diversi (grafici, tabelle, funzioni), a volte però
può essere sufficiente una sintesi di tali distribuzioni.
Si possono cioè osservare solamente alcune caratteristiche
della distribuzione, sintetizzabili in uno o più
valori numerici in grado di fornire sufficienti informazioni
sulla distribuzione.
I due aspetti principali
di una distribuzione sono costituiti da misure di
tendenza centrale (i valori assunti in media dalla
v.c.) misure di dispersione o variabilità
(la tendenza dei valori della v.c. a differire tra loro).
5.1
Valore medio di una variabile casuale
Tra le misure di
tendenza centrale particolare importanza riveste la speranza
matematica o valore medio atteso indicato con
E(X):
esempio: in una scommessa
un individuo ha probabilità di 2/5 di vincere 10
e probabilità 3/5 di perdere 5: il valore medio atteso
di questa distribuzione di probabilità sarà:
E(X)=10(2/5)+(-5)(3/5)=1
1 è la vincita
attesa se il giocatore ripete la scommessa un certo numero
di volte.
Le proprietà
del valore medio atteso sono:
1. se a è
una costante E(aX)=aE(X)
2. E(a+X)=a+E(X)
3. se a e b sono
costanti: E(aX+b)=aE(X)+b
4. data la v.c. X
e la sua E(X), la v.c. definita come scarto da E(X) ha valore
pari a 0:
E[X-E(X)]=0
E[X-E(X)]=E(X)-E[E(X)]=E(X)-E(X)=0
5. se X è
una v.c. con E(X) e Y è una v.c. con E(Y) allora:
E(X+Y)=E(X)+E(Y)
6. dato un numero
finito di v.c. il valore medio atteso della somma delle
v.c. è pari alla somma dei valori medi delle singole
v.c.:
Evidentemente se
le n v.c. sono identiche tra loro si avrà:
Questa relazione
è particolarmente utile nel caso in cui si debba
calcolare la
di una v.c.
valore medio dei risultati di una estrazione con ripetizione.
Se n è la numerosità del campione, la v.c.
è
definita da:
Quindi avremo che:
Questo significa
che le medie dei campioni estratti da una v.c. descrivono
una distribuzione che ha valore medio atteso pari al valore
medio atteso della v.c. oggetto del campionamento.
7. date due v.c.
X con E(X) e Y con E(Y), se X e Y sono indipendenti avremo
che
E(XY)=E(X)E(Y)
5.2
Misure di variabilità
Una prima misura della
variabilità può essere fornita dalla deviazione
del valore x dalla sua media: d=x-E(X). Si può quindi
costruire una media E[X-E(X)], ma il valore degli scarti
è sempre pari a 0. Si possono quindi utilizzare i
quadrati. Si otterrà quindi la varianza della v.c.
X:
Per la Varianza di una
v.c. valgono le seguenti proprietà:
1. se a è
una costante V(a+X)=V(X)
2. V(aX)=a²V(X)
3. se a e b sono
costanti V(aX+b)=a²V(X)
5.3
Momenti delle distribuzioni congiunte
Nel caso di due v.c.
X e Y, assume particolare importanza il valore medio atteso
del loro prodotto. Essendo E(XY)=E(X)E(Y) nel caso in cui
le due v.c. siano indipendenti, il loro prodotto può
essere utilizzato per misurare la forza della relazione
che le lega.
Una misura caratterizzante
la distribuzione congiunta di X e Y, che esprime la direzione
della relazione tra le due v.c. è la covarianza:
COV(XY)=E[(X-E(X)(Y-E(Y))]
=E[XY-YE(X)-XE(Y)+E(X)E(Y)]
=E(XY)-E(X)E(Y)-E(Y)E(X)+E(X)E(Y)
=E(XY)-E(X)E(Y)
Dal punto di vista calcolatorio
la covarianza si ottiene, nel caso di v.c. discrete come:
Evidentemente se X e
Y sono indipendenti, avremo che E(XY)-E(X)E(Y)=0 e quindi
E(XY)=E(X)E(Y), per cui si avrà COV(XY)=0.
E' da notare che nell'effettuare
il prodotto tra gli scarti di X e di Y avremo che se ad
alti (bassi) valori di X corrispondono alti (bassi) valori
di Y si ha un legame positivo tra le due v.c., espresso
da valori positivi della covarianza. Se invece sussiste
una relazione inversa tra le due v.c. (ad alti valori di
X corrispondono bassi valori di Y o viceversa) il prodotto
degli scarti condurrà a valori negativi della covarianza.
La covarianza risulta
espressa in termini dell'unità di misura di X e Y.
E' possibile esprimere la relazione tra X e Y in termini
di puri numeri tramite il coefficiente di correlazione
:
Il coefficiente di correlazione
assume valori compresi tra -1 e 1. Quando =1 le variabili
risultano perfettamente correlate in senso positivo, mentre
se è pari a -1 lo saranno in senso negativo. Se invece
=0, vorrà dire che COV(XY)=0, quindi non esiste relazione
tra le due v.c..
Riprendendo le proprietà
della varianza di due v.c. avremo che:
V(X+Y)=V(X)+V(Y)+2COV(XY)
V(X-Y)=V(X)+(VY)-2COV(XY)
esempio:
Y
X |
0 |
1 |
2 |
3 |
p(y) |
1 |
1/8 |
0 |
0 |
1/8 |
2/8 |
2 |
0 |
1/8 |
1/8 |
0 |
2/8 |
3 |
0 |
2/8 |
2/8 |
0 |
4/8 |
p(x) |
1/8 |
3/8 |
3/8 |
1/8 |
1 |
E(X)=0(1/8)+1(3/8)+2(3/8)+3(1/8)=12/8=3/2
E(Y)=1(2/8)+2(2/8)+3(4/8)=18/8=9/4
E(XY)=(0)(1)(1/8)+(3)(1)(1/8)+(2)(1)(1/8)+(2)(2)(1/8)+(3)(1)(2/8)+(3)(2)(2/8)=27/8
E(X²)=0²(1/8)+1²(3/8)+2²(3/8)+3²(1/8)=24/8=3
E(Y²)=1²(2/8)+2²(2/8)+3²(4/8)=42/8=21/4
V(X)=E(X²)-[E(X)]²=3-(3/2)²=3/4
V(Y)=E(Y²)-[E(Y)]²=(21/4)-(9/4)²=3/16
COV(XY)=E(XY)-E(X)E(Y)=(27/8)-[(3/2)(9/4)]=(27/8)-(27/8)=0
evidentemente il coefficiente
di correlazione sarà pari a 0.
MODELLI
DISTRIBUTIVI
Uno dei principali compiti
di un ricercatore consiste nell'individuazione di una legge
che meglio permetta di descrivere il fenomeno che sta indagando.
Quando il fenomeno implica situazioni di incertezza (che
portano quindi ad escludere modellizzazioni di tipo deterministico)
ci si deve ricondurre alla elaborazione di modelli probabilistici
che consentano di interpretare le informazioni disponibili.
La nozione di modello
si riferisce generalmente ad una espressione matematica
che in qualche modo riguarda la possibilità del verificarsi
dei risultati di una astratta situazione sperimentale.
Quando l'analisi della
situazione reale permette di ricondurre il complesso delle
informazioni raccolte ad uno schema interpretativo, corrispondente
alle assunzioni che caratterizzano il modello astratto,
è possibile per il ricercatore adottare il modello
come strumento deduttivo.
I modelli probabilistici
sono di notevole interesse pratico perchè propongono
una precisa formulazione matematica di molte situazioni
che si incontrano frequentemente nella realtà sperimentale.
In molte situazioni reali, diverse tra loro, è possibile
adottare lo stesso modello interpretativo, solo i parametri
di tale modello varieranno in funzione del problema specifico.
Le variabili casuali
che emergono, interpretando distinte situazioni reali, vengono
così ad essere descritte da distribuzioni di probabilità
che possono essere studiate e algebricamente manipolate,
indipendentemente dalle loro specifiche applicazioni.
La scelta del modello
della distribuzione di probabilità da adattare ad
un particolare problema, molto spesso, è condotta
per mezzo del confronto tra la forma dell'istogramma dei
dati osservati e la forma della funzione di densità
(FDP) o funzione di ripartizione (FMP) di una particolare
distribuzione nota. A volte questo esame può essere
l'unico approccio al problema, ma è da sottolineare
che le conclusioni a cui si arriverà saranno tanto
più errate tanto più le assunzioni del modello
di base sono lontane dal descrivere e interpretare la situazione
reale. E' quindi auspicabile che la scelta del modello si
basi principalmente sulla comprensione del fenomeno.
1. Modelli
distributivi discreti
1.1 Modello
di Bernoulli
E' il più semplice
dei modelli probabilistici, e si riferisce ad una situazione
sperimentale in cui si hanno due soli risultati: l'evento
E e il suo opposto .
Si ha quindi a che fare
con una v.c. che può assumere solo 2 valori: E con
probabilità p e
con probabilità (1-p):
si può quindi
esprimere la funzione di massa di probabilità (FMP)
come:
In questo caso avremo:
E(X)=0(1-p)+1p=p
E(X²)=0²(1-p)+1²p=p
V(X)=p-p²=p(1-p)
1.2 Modello
Binomiale
Se abbiamo una situazione
sperimentale in cui:
1. numero n di prove
indipendenti tra loro
2. ciascuna prova
è di tipo bernoulliana E,
3. in tutte le prove
la probabilità p, dell'evento E, si mantiene costante,
e quindi anche la probabilità di
è sempre (1-p)
e se in tale situazione
si è interessati al numero di eventi E risultanti
nel ripetersi delle prove, si può derivare una v.c.
X, detta binomiale, che rappresenta il numero X degli
eventi E che si manifestano nelle n prove.
Ad esempio una v.c.
binomiale è data dal numero di teste che si presentano
lanciando una moneta per tre volte; al numero di pezzi difettosi
che si possono avere osservando 20 pezzi prodotti da una
macchina.
La probabilità
che su n prove si verifichi x volte l'evento E, sarà
data da .
Questa probabilità deve essere moltiplicata per il
numero di possibili sequenze in cui si hanno x eventi E
e n-x eventi .
Il numero di queste possibili sequenze è dato dalla
combinazione di x eventi E e n-x eventi ,
cioè:
Ad esempio, la probabilità
di avere 3 pezzi non difettosi su 4 osservati sarà
data da:
ND ND ND D
ND ND D ND ognuna
di queste sequenze avrà prob.=
ND D ND ND
D ND ND ND
dove la probabilità
di non difettoso (ND) è sempre p, mentre quella di
difettoso (D) è (1-p); inoltre il numero di sequenze
possibili, in cui si possono avere 3 ND e 1 D sarà:
quindi la probabilità
di avere 3 non difettosi su 4 sarà:
supponendo di avere
precedentemente verificato che la probabilità di
un pezzo non difettoso nella produzione in esame sia pari
a 0.95, avremo che la probabilità in oggetto sarà:
In generale la funzione
di massa di probabilità (FMP) della distribuzione
binomiale è data da:
La funzione di ripartizione
(FCD) è invece data da:
che esprime la probabilità
di una v.c. di tipo binomiale di assumere valori inferiori
ad un certo x.
Il valore medio atteso
sarà: E(X)=np, infatti ogni v.c. X, numero di successi
su n prove, può essere considerata come somma di
n v.c. identiche tra loro di tipo bernoulliano, ognuna con
valore medio p; quindi =np.
La varianza di una v.c.
binomiale sarà V(X)=np(1-p).
Esempio: se il 20% dei
bulloni prodotti da una macchina è difettoso, determinare
la probabilità che su 4 bulloni scelti a caso ve
ne siano a) 1 difettoso, b) nessun difettoso, c) al massimo
3 difettosi.
a) p=0.20
lo stesso risultato
lo si può ottenere consultando la tavola IIIb nella
pagina seguente. In essa, per diversi valori di n, x,
p, sono riportate le probabilità binomiali.
b) p=0.20
c)
1.3 Modello
ipergeometrico
Utile nel rappresentare
situazioni tipiche del controllo di accettazione. Si differenzia
dal modello binomiale per le condizioni di costanza del
valore di probabilità degli eventi da prova a prova
e dell'indipendenza delle prove.
In questo caso si ipotizza
una popolazione composta da N elementi K dei quali hanno
una certa caratteristica, ed, evidentemente N-K non la posseggono.
Selezionando un elemento
di questi N, potremo osservare uno dei K (successo) o uno
degli N-K. Ripetendo le prove n volte senza ripetizione,
senza cioè reimmettere gli elemeti estratti, ciascuna
prova è condizionata dai risultati precedenti e la
probabilità di successo o insuccesso si modifica
da prova a prova.
Sarà quindi possibile
determinare quale sia la probabilità di avere in
n prove x elementi dei K di un tipo e n-x elementi degli
N-K.
Il numero complessivo
dei casi possibili sarà dato dal numero di possibili
modi in cui possono essere scelti gli n tra gli N dati:
.
Inoltre gli x elementi
dei K possono presentarsi in
modi diversi, mentre gli n-x dell'altro tipo possono presentarsi
in
modi diversi. Quindi:
Il valore medio atteso
E(X) di questa distribuzione è data da:
mentre la varianza è: .
Esempio 1: se vengono
estratte 4 carte da un mazzo da poker contenente i soli
onori (A,K,Q,J,10), con quale probabilità si avranno
a) 1 asso, b) 4 assi:
a) N=20, K=4, n=4, x=1
b) N=20, K=4, n=4, x=0
Esempio 2: in un lotto
di 15 lampadine ve ne sono 4 difettose. Se si estrae, per
decidere l'accettazione dell'intero lotto, un campione di
3 elementi, con quale probabilità si avranno nel
campione a) nessun difettoso, b) 2 difettosi , c) 3 difettosi?
a) N=15, K=4, n=3, x=0
b) N=15, K=4, n=3, x=3
1.4 Modello
di Poisson
Si riprenda la distribuzione
binomiale e si ponga np=, dove è una costante positiva,
rappresentando il valore medio atteso di tale distribuzione.
Poichè p=/n si può scrivere:
Quindi:
In termini imprecisi
si può dire che, se n, in modo che np=, la distribuzione
binomiale tende ad una forma limite che va sotto il nome
di distribuzione di Poisson, la cui funzione di massa di
probabilità è data da:
In termini più
descrittivi si può fare riferimento ad una situazione
sperimentale in cui non si è in grado di definire
preventivamente una sequenza finita di prove, come nel caso
della binomiale, perchè gli eventi si manifestano
in una dimensione continua, come ad esempio il tempo o lo
spazio.
Un esempio può
essere rappresentato dall'arrivo di una macchina ad un incrocio,
oppure dal presentarsi di un pezzo difettoso al punto di
controllo, in un intervallo di tempo t. Data una situazione
sperimentale di questo tipo si può ricondurla ad
una situazione simile a quella della binomiale considerando
n intervalli del tempo t, tutti di uguale ampiezza t/n,
e considerare t come composto da n prove indipendenti, caratterizzate
ognuna da una v.c. di tipo bernoulliano "arrivo", "non arrivo".
Per rendere però impossibile il verificarsi di due
eventi in un intervallo t/n si dovrà aumentare il
numero di intervalli n, riducendo quindi la loro ampizza
t/n. Se consideriamo il valore medio atteso degli eventi
nel periodo t, secondo lo schema binomiale, si deve avere
che E(X)=np. Quindi, al crescere di n (numero di intervalli
e quindi numero di prove), l'ampiezza degli intervalli (t/n)
diverrà sempre più piccola, riducendosi quindi
anche la probabilità p che si manifesti un evento
in ogni singola prova.
Secondo questa impostazione
anche situazioni con eventi che si manifestano in una dimensione
continua, non immediatamante riconducibile alle sequenze
di prove, possono essere considerate rappresentabili da
un modello binomiale con il numero di prove tendente ad
infinito e valore medio atteso costante.
La funzione di ripartizione
(FCD) del modello di Poisson è data da:
I valori della funzione
di ripartizione della Poisson sono riportati nella Tav.
A-6 nella pagina seguente.
Esempio: una macchina
produce in media 3 pezzi difettosi ogni ora; determinare
la probabilità che la macchina produca in 1 ora:
a) 3 pezzi difettosi, b) nessun pezzo difettoso, c) non
più di 3 difettosi, d) 3 o più pezzi difettosi,
e) 7 difettosi in 2 ore.
a)
utilizzando la tavola
si debbono invece considerare le due probabilità
cumulate p(X3) e p(X2), e per differenza calcolare quella
di p(X=3), infatti p(X3) rappresenta la probabilità
di avere 0,1,2,3 difettosi, mentre p(X2) fornisce la probabilità
di avere 0,1,2 difettosi; quindi:
b)
c)
d)
e)
Esempio 2: un produttore
di transistor garantisce una vita utili maggiore di 2000
ore, una precedente esperienza assicura che 4 transistor
su 100 si guastano entro le 2000 ore. Determinare quale
sia a) la probabilità di non avere alcun guasto entro
le prime 2000 ore, b) la probabilità di uno o più
guasti entro le 2000 ore.
a) =4/100=0.04 (guasti/2000
ore) p(X=0/=0.04)=0.961
b) =0.04 p(X1/=0.04)=1-p(X=0/=0.04)=1-0.961=0.039
2. Modelli
distributivi continui
Se X è una variabile
casuale che può assumere qualsiasi valore in un insieme
non numerabile allora si dice di tipo continuo. Se è
possibile suddividere l'insieme infinito in cui è
definita X in un insieme numerabile di intervalli distinti
ed esiste una funzione f(x) (funzione di densità
di probabilità FDP) tale che:
allora è definibile
come probabilità dell'intervallo tra due valori a
e b di X (con ba) la funzione:
E' inoltre possibile
definire la funzione di ripartizione o funzione cumulativa
di distribuzione (FCD) come:
Particolarmente interessante
è il caso in cui la v.c. contiuna è rappresentata
dal tempo. In questo caso acquisiscono particolare interesse
alcune funzioni utilizzate nella valutazione dell'affidabilità
di un processo o della durata nel tempo.
Definiamo affidabilità
la probabilità che un sistema o unità mantenga
le sue prefissate condizioni di funzionamento sotto certe
condizioni ambientali per un tempo prefissato. In altri
termini si tratta di una misura della probabilità
che ha il sistema di non guastarsi e quindi di funzionare
in un definito intervallo di tempo. Quindi se t è
la v.c. continua tempo e T la variabile tempo del guasto,
f(t)dt la FDP di guasto, cioè una misura della probabilità
di guasto nell'intervallo t-t+dt. Allora la funzione di
affidabilità del sistema al tempo t, siboleggiata
con R(t), è data da:
Si noti che la funzione
di affidabilità R(t) è il complemento all'unità
della funzione di ripartizione ed esprime la probabilità
che del sistema di non guastarsi prima dell'istante t.
Altra funzione, rilevante
negli studi di affidabilità, è il cosiddetto
tasso di guasto indicato con (t), definibile come
la probabilità che il sistema si guasti al tempo
T, quando non si sia guastato prima di T. Si ha, dalla definizione:
2.1 Modello
normale o gaussiano
Una v.c. si distribuisce
normalmente, cioè secondo un modello normale o gaussiano,
quando la sua funzione di densità di probabilità
è:
In generale questo tipo
di distribuzione è ipotizzabile per un certo fenomenoquando
le sue misure sono composte da una parte da un sistema di
cause costante, dall'altra da un errore giustificato da
un insieme di cause contrastanti e indipendenti tra loro.
La normale è
completamente descritta dai parametri e ², infatti l'esponente
è l'unica parte variabile. In realtà si tratta
quindi di una famiglia di distribuzioni, ognuna caratterizzata
da una coppia (, ²). Le distribuzioni normali possono quindi
differire per media o per varianza o per entrambi. La media
rappresenta un parametro di locazione e determina lo spostamento
sull'asse X, mentre ² determina la forma della curva.
Si deve inoltre sottolineare
che la distribuzione normale presenta la caratteristica
che per intervalli simmetrici rispetto alla media e funzione
dello scarto quadratico medio, l'area sottostante alla curva
è sempre rappresentata da una particolare percentuale
del totale dell'area (che essendo una probabilità
è pari ad 1).
In particolare se consideriamo
l'intervallo - |--| + l'area sottea alla curva in tale intervallo
è sempre pari al 68% dell'area totale; se invece
consideriamo l'intervallo -1.96 |--| +1.96 l'area sarà
pari al 95% dell'area complessiva.
La funzione di ripartizione
(FCD) della distribuzione normale è data da:
Il valore medio atteso
di una distribuzione normale è E(X)=, mentre la varianza
è V(X)=².
Evidentemente, per calcolare
la probabilità che una v.c. distribuita secondo una
normale assuma un valore inferiore ad un certo valore x
di X o interno ad un certo intervallo, si dovrà calcolare
l'integrale presentato nella funzione di ripartizione, essendo
ogni distribuzione normale caratterizzata da un suo valore
medio e da una sua varianza. Per evitare questo inconveniente
si può procedere ad una trasformazione della variabile,
in modo tale da ricondurre tutte le possibili v.c. di tipo
normale ad un unica distribuzione normale con media pari
a 0 e varianza uguale ad 1. Si tratta in altri termini di
trasformare una distribuzione normale con media e varianza
² in una variabile standardizzata z, calcolata come
segue:
la quale è ancora
distribuita normalmente, ma con =0 e ²=1. Si potrà
quindi trasformare qualunque distribuzione normale con e
² dati in una v.c. normale standardizzata, per la quale
sono stati tabulati i valori della funzione di ripartizione
(Tavola IV nella pagina seguente).
Esempio 1: determinare
la probabilità che: a) z2, b) z1.45
a) P(z2.00)=0.5+0.4772=0.9772
la tavola IV riporta
il valore della probabilità dell'intervallo compreso
tra la media 0 ed il valore di z (in questo caso pari a
2.00); per ottenere quindi la probabilità che z sia
minore di 2 si dovrà sommare al valore di probabilità
desunto dalla tavola il valore di 0.5 che rappresenta la
probabilità di avere un valore inferiore a 0:
b) P(z1.45)=0.5+0.4265=0.9265
Esempio 2: data una
v.c. X distribuita normalmente con media=50 e s.q.m.=5 determinare
la probabilità che: a) X sia minore di 57.5, b) X
sia compreso tra 49 e 52:
a) prima di tutto si
deve calcolare z:
avremo quindi P(z1.5)=0.5+0.4332=0.9332
b) in questo caso avremo
due valori di z:
quindi P(-0.2z0.4)=P(-0.2z0)+P(0z0.4)=0.0793+0.1554=0.2347
Se abbiamo n v.c.
distribuite tutte normalmente, la v.c. somma di queste n
v.c.
sarà ancora distribuita normalmente:
Esempio: nell'assemblaggio
di un prodotto intervengono 4 componenti, prodotti indipendentemente
uno dall'altro. La lunghezza del prodotto assemblato è
data dalla somma delle lunghezze dei 4 componenti. La lunghezza
del prodotto assemblato è una v.c. che indichiamo
con Y, mentre le lunghezze dei 4 componeneti sono 4 v.c.
distribuite normalmente con:
Se le specifiche del
prodotto assemblato sono 5-0.10Y5+0.10, determinare con
quale probabilità la produzione di Y sarà
accettabile come non difettosa.
Siccome la media di
Y è pari alla somma delle medie delle sue componenti
avremo che:
mentre lo scarto quadratico
medion sarà:
per cui dovremo calcolare:
questo fornirà
una probabilità pari a:
P(4.9Y5.1)=0.2157+0.2157=0.4314
Potremo quindi anche
dire che il 43% della produzione del prodotto assemblato
sarà conforme alle specifiche fornite.
La distribuzione normale
rappresenta inoltre una approssimazione di altre distribuzioni,
in quanto costituisce una forma limite alla quale tendono
molte altre distribuzioni (ipergeometrica, poisson, binomiale,
ecc.).
Nel caso di un esperimento
di tipo binomiale in cui il numero di prove è molto
elevato, diviene difficoltoso calcolare la probabilità
di un valore di X. Però, con n, la distribuzione
binomiale tende ad una distribuzione normale con =np e con
²=np(1-p). Sarà quindi possibile calcolare:
Esempio: determinare
la probabilità di osservare un numero di pezzi difettosi
compreso tra 29 e 46, avendo estratto dall'intera produzione
di una macchina un campione di 100 unità e sapendo
che la macchina produce con un tasso di difettosità
pari al 40%.
in questo caso avremo
p=0.40, per cui:
CAMPIONAMENTO
E DISTRIBUZIONI CAMPIONARIE
In questo capitolo,
prendendo le mosse dalle nozioni di popolazione e campione
e da quelle di distribuzione del campione, si perverrà
alla definizione dell'inferenza statistica nelle sue diverse
articolazioni. Verranno inoltre illustrate le distribuzioni
campionarie di alcune particolari funzioni dei dati del
campione (statistiche), distribuzioni che sono la premessa
indispensabile per poterevrisolvere i problemi concreti
di inferenza.
1. Popolazione
e campione
Come è noto,
l'indagine statistica verte sempre su insiemi di unità
in cui si manifesta il fenomeno che si studia. Questi insiemi
vanno sotto il nome di popolazioni o collettivi
statistici o universo di riferimento, e possono
essere costituiti da un numero finito o infinito di unità;
nel primo caso si parla di popolazioni finite, nel
secondo di popolazioni infinite.
La conoscenza delle
caratteristiche di una popolazione finita può essere
conseguita osservando la totalità delle unità
della popolazione, oppure un sottoinsieme di queste, un
campione. Una popolazione infinita, invece, può
essere studiata solo tramite un campione. Per chiarire questi
concetti può risultare opportuno fare un esempio.
Si supponga di volere
studiare la distribuzione del diametro delle rondelle contenute
in lotto di prodotto (ad esempio di 1000 pezzi). In questo
caso l'osservazione di tutti i pezzi del lotto può
risultare troppo oneroso, si può quindi procedere
all'esame di una parte del lotto. In questo esempio l'insieme
di rondelle appartenenti al lotto costituisce una popolazione
finita.
Se invece consideriamo
la produzione di una macchina che produce rondelle e vogliamo
studiare il diametro dei pezzi prodotti da tale macchina,
osserveremo una parte di tale produzione la quale rappresenterà
un campione della produzione. Tuttavia, rispetto all'esempio
precedente, a fronte del campione osservato, non esiste
una popolazione ben definita, una totalità di elementi
di cui quelli osservati sono una parte. In altri termini
si può dire che un insieme di pezzi prodotti e osservati
per allo scopo del controllo del processo costituisce un
campione dei pezzi che la macchina può produrre nelle
stesse condizioni. Questo insieme potenziale è una
popolazione infinita.
2. Il
campione casuale
Data una popolazione
finita di N unità, si consideri l'operazione consistente
nell'estrarre a sorte un'unità, nell'osservarvi il
valore di una certa caratteristica quantitativa X, e nel
riporla nella popolazione. Si ammetta che l'operazione sia
effettuata in modo che ogni unità della popolazione
abbia la stessa probabilità di essere estratta, probabilità
pari ad 1/N. Si immagini di ripetere l'operazione n volte.
L'insieme delle unità così estratte costituisce
un campione casuale.
L'estrazione di un campione
può essere schematizzata mediante un'urna, dove ciascuna
unità della popolazione è rappresentata da
una pallina recante il valore che la caratteristica X assume
nell'unità. Da questo punto di vista, l'operazione
di estrazione consiste nella scelta a caso di una pallina,
nella registrazione del valore in essa indicato e nel riporre
la pallina nell'urna. Questo procedimento è denominato
campionamento con ripetizione.
Una variante a queso
procedimento si ha quando la singola estrazione nonè
seguita dal reinserimento della pallina nell'urna; in questo
caso si parla di campionamento senza ripetizione.
E' chiaro che nel campionamento
senza ripetizione le successive estrazioni non avvengono
in condizioni uniformi; infatti, da una estrazione all'altra
la popolazione si modifica. Tuttavia quando la dimensione
N della popolazione è molto elevata e l'ampiezza,
n, del campione è una frazione modesta di N, i due
tipi di campionamento sono praticamente equivalenti.
L'obiettivo che ci si
propone con il campionamento è quello di formare
un campione il più possibile rappresentativo
della popolazione, in modo che risultino accurate le informazioni
sulle caratteristiche della popolazione che si traggono
dal campione.
In generale si può
ritenere che quando si estrae un campione di n unità,
il risultato campionario può essere pensato come
l'espressione di n v.c. identiche tra loro
che possiedono cioè la stessa distribuzione della
popolazione di provenienza. Se ad esmpio consideriamo una
popolazione composta da un'urna in cui vi sono 2 palline
segnate con 1, 2 palline segnate con 3 e 4 palline segnate
con 5 e se estraiamo una pallina, il risultato campionario
"numero segnato sulla pallina" ha ovviamente la stessa distribuzione
di probabilità della popolazione di provenienza:
X:
valore della pallina |
probabilità |
1 |
0.25 |
3 |
0.25 |
5 |
0.50 |
Considerare le osservazioni
campionarie come v.c. permette di ritenere che qualsiasi
quantità calcolata sui risultati del campione è
anch'essa una variabile casuale.
Il parametro campionario
ottenuto come funzione dei risultati campionari avrà
quindi una sua distribuzione di probabilità della
distribuzione parametrica campionaria o distribuzione
campionaria che può essere messa in relazione
con la distribuzione della popolazione.
Riprendendo l'esempio
dell'urna, costruiamo tutti i possibili campioni di numerosità
2 (n=2):
X1,X2
|
probabilità |
1,1 |
(0.25)(0.25)=0.0625 |
1,3 |
(0.25)(0.25)=0.0625 |
1,5 |
(0.25)(0.50)=0.1250 |
3,1 |
(0.25)(0.25)=0.0625 |
3,3 |
(0.25)(0.25)=0.0625 |
3,5 |
(0.25)(0.50)=0.1250 |
5,1 |
(0.50)(0.25)=0.1250 |
5,3 |
(0.50)(0.25)=0.1250 |
5,5 |
(0.50)(0.50)=0.2500 |
totale |
1 |
Se consideriamo la funzione
somma dei risultati campionari X1+X2
avremo che:
X1+X2
|
probabilità |
2 |
1(0.0625)=0.0625 |
4 |
2(0.0625)=0.1250 |
6 |
2(0.1250)+0.0625=0.3125 |
8 |
2(0.1250)=0.2500 |
10 |
1(0.2500)=0.2500 |
totale |
1 |
Questa è la distribuzione
campionaria del parametro campionario somma, per campioni
di numerosità n=2 estratti con ripetizione da una
popolazione data.
Riassumendo: dalla distribuzione
di una popolazione deriva la distribuzione dei possibili
valori di un parametro campionario, calcolato su ciascun
campione di numerosità n estratto secondo un preciso
schema campionario:
Avremo quindi distribuzioni
diverse a seconda del parametro campionario e a seconda
della numerosità del campione.
Come per ogni altra
distribuzione di probabilità è possibile,
anche per le distribuzioni campionarie, determinare il valore
medio atteso e la varianza per qualunque parametro :
che esprime la tendenza
centrale, e quindi il valore attorno al quale tendono ad
assestarsi i valori calcolati su tutti i possibili campioni
del parametro .
V()=E[-E()]=E(²)-[E()]²
che esprime la misura
di dispersione dei possibili valori campionari di attorno
a E().
Nell'esempio precedente
dell'urna è facile determinare la distribuzione del
parametro campionario (nell'esempio la somma) e quindi calcolare
E() e V(); nella pratica però si ha a che fare con
situazioni più complesse, nelle quali è in
pratica difficile costruire la distribuzione campionaria
e di conseguenza calcolarne la madia e la varianza.
Per superare questo
problema è utile il teorema del limite centrale:
se
sono n variabili casuali indipendenti e identicamente distribuite,
ognuna con media
e varianza
la variabile
tende asintoticamente a distribuirsi secondo una normale
qualunque sia la distribuzione delle v.c.
inoltre:
L'importanza di questo
teorema sta nel fatto che molti parametri campionari sono
esprimibili come funzioni della somma degli n risultati
campionari.
3. Distribuzione
campionaria delle medie
In base al teorema del
limite centrale si può ritenere che il valore medio
campionario
calcolato in un campione
scelto casualmente da una popolazione caratterizzata da
una media e da uno scarto quadratico medio , descrive, al
ripetersi del campionamento una distribuzione con valore
medio atteso
e varianza ;
inoltre se il campione è sufficientemente grande,
la distribuzione delle medie campionarie si approssima ad
una normale.
Per quanto riguarda
la media campionaria abbiamo infatti che:
considerando ogni risultato
campionario come manifestazione di una stessa v.c., quindi
tutti con media e varianza uguali a quelli della popolazione
di provenienza, avremo:
Analogamente per la
varianza V(X) avremo che:
Quanto visto fino ad
ora vale per il caso in cui il campione si estratto con
ripetizione da popolazioni finite o da popolazioni infinite.
Nel caso in cui il campionamento
venga effettuato senza ripetizione da popolazioni finite
si dovrà tenere conto di un fattore di correzione.
In questo caso avremo che:
Esempio: 200 bulloni
hanno un diametro medio =8 cm con scarto quadratico medio
=0.2. Determinare la probabilità che un campione
estratto casualmente a) con ripetizione, b) senza ripetizione,
abbia un diamtero medio 1) minore di 7.5 cm, 2) minore di
8.1 cm, 3) compreso tra 7.95 e 8.08 cm.
a.1) si deve calcolare
il valore di z corrispondente a 7.5, tenendo conto che la
media è pari ad 8 e lo s.q.m. della distribuzione
della media campionaria è data dalla radice del rapporto
tra la varianza e la numerosità del campione; per
cui:
a.2)
a.3)
b.1) in questo caso
si modifica la varianza della distribuzione di riferimento,
avremo quindi:
b.2)
b.3)
4. Distribuzione
campionaria del numero di successi e della proporzione
Partendo da una popolazione
di tipo bernoulliano, quindi caratterizzata da due soli
tipi di evento, successo (E) e insuccesso (),
consideriamo l'esempio Difettoso (1), NonDifettoso (0),
rispettivamente successo e insuccesso; avremo che:
per cui avremo che =
e ²= [(1-)].
Estraendo un campione
di numerosità n da una popolazione di questo tipo,
dove abbiamo indicato con 1 i difettosi e con 0 i non difettosi,
otterremo:
1 |
1 |
0 |
1 |
0 |
...... |
D |
D |
ND |
D |
ND |
...... |
Quindi la somma campionaria
è uguale alla somma del numero di difettosi (successi),
perciò, siccome:
avremo che
da cui otterremo che:
E(X)=n
Sulla base di questi
parametri della distribuzione campionaria avremo che la
funzione di distribuzione del parametro campionario numero
di successi può essere scritta:
dove z è sempre
la distribuzione normale standardizzata.
Disorso molto simile
può essere fatto per determinare la distribuzione
della proporzione campionaria che indichiamo con
dove X rappresenta il numero di successi ed n il
numero di prove, ovvero la numerosità campionaria.
Avremo quindi:
Anche in questo caso,
in base al teorema del limite centrale, la funzione di ripartizione
(FCD) del parametro P potrà essere scritta:
Esempio 1: si è
trovato che il 2% degli utensili prodotti da una macchina
è difettoso. Determinare la probabilità che
in una spedizione di 400 utensile vi sia a) il 3% o più
di difettosi, b) il 4% o meno di difettosi.
a)
e
per cui:
b)
Esempio 2: in un lotto
con N=1000 componenti è presente un 30% di difettosi,
determinare la probabilità di avere in un campione
di n=64 elementi una percentuale di difettosi superiore
al 20%.
E(P)==0.30
quindi:
STIMA
DEI PARAMETRI
Molto spesso non è
possibile osservare un'intera popolazione per determinarne
un parametro (ad esempio una medio, il numero di successi,
una proporzione, ecc.), ma si deve ricorrere ad informazioni
parziali per stimare tale parametro. Si ha cioè una
popolazione rispetto alla quale si è interssati ad
un carattere X che avrà una sua distribuzione f(x/),
dove è il valoree incognito di un parametro che identifica
la funzione f(x). Se da questa popolazione si estrae un
campione di n osservazioni si potrà ottenere un valore
da
utilizzare come stima del parametro della popolazione. Il
problema è quindi di definire una funzione, che applicata
al risultato campionario, offra una stima
che si possa ritenere una buona stima di . Questa funzione
si dice stimatore e
viene detta stima, ed in particolare parleremo di
stima puntuale. E' inoltre possibile, sempre in base ai
risultati campionari, definire un intervallo di stima
entro il quale considerare compreso il valore del parametro
da stimare, con una determinata probabilità di errore.
1. Stima
per intervalli
La stima puntuale non
fornisce indicazioni riguardo alla probabilità che
lo stimatore utilizzato abbia fornito una stima vicina all'ignoto
valore , per cui spesso si preferisce dare un intervallo
di stima. Si tratta quindi di determinare, in base ai risultati
campionari, gli estremi di un intervallo entro il quale
considerare compreso, con un determinato affidamento, il
valore ignoto del parametro da stimare.
La soluzione a questo
problema è offerta dalla distribuzione campionaria,
infatti noto il modello distributivo di un parametro, oltre
a potere essere utilizzato in senso deduttivo (con quale
probabilità avremo certi valori di tale parametro),
è possibile utilizzarla in senso induttivo (entro
quali intervalli, con una determinata probabilità,
e da ritenersi compreso il valore del parametro della popolazione).
In generale sia X una
v.c. con f(x,) dipendente da ignoto, considerato un campione
di numerosità n che fornisce i valori ,
se
sono due v.c. funzione di ,
tali che
è indipendente da e che:
esse determinano un intervallo di confidenza del parametro
avente coefficiente di confidenza pari a 1-.
Se per tale intervallo
si afferma che al suo interno è compreso l'ignoto
parametro , tale affermazione gode di un grado di fiducia
pari ad 1-.
Per chiarire quanto
detto consideriamo un esempio in cui si ipotizzi una popolazione
in cui sia noto il valore medio del carattere a cui si è
interessati: =69 e =6, e si ipotizzi di costruire campioni
di numerosità n=36.
In base a quanto detto
nel capitolo precedente sappiamo che la distribuzione della
media campionaria sarà:.
Questo ci permetterà di affermare che il 95% della
popolazione è compresa tra 67 e 71. Nella realtà
il parametro è ignoto, e dobbiamo determinarlo in
base ai risultati campionari.
Se supponiamo che un
primo campione estratto casualmente dalla popolazione abbia
fornito una media ,
potremo costruire un intervallo:
La media campionaria
ottenuta per mezzo del campione osservato è diversa
da quella della popolazione, però quest'ultima ricade
all'interno dell'intervallo che è stato calcolato.
In pratica affermiamo quindi che la media della popolazione
cade all'interno dell'intervallo con una grado di confidenza
del 95%.
Arriviamo a questa affermazione
partendo dalla distribuzione del parametro campionario media,
distribuita, come noto secondo una normale con media pari
a quella della popolazione e s.q.m. pari allo s.q.m. della
popolazione diviso per la radice della numerosità
canpionaria /n. Partendo da questa distribuzione possiamo
costruire un intervallo entro il quale, data come nota la
media della popolazione, ricade ad esempio il 95% delle
medie campionarie calcolate su tutti i possibili campioni
di una certa numerosità. In pratica però non
conosciamo la media della popolazione, che è il parametro
da stimare, possiamo però rovesciare il ragionamento
deduttivo sviluppato fino ad ora, affermando che in un intervallo
costruito su uno dei possibili campioni, quello effettivamente
osservato, di ampiezza sempre 1.96, vi ricadrà la
media della popolazione con una probabilità del 95%.
Questo significa che il 95% di tutti i possibili campioni
che possono essere costruiti danno luogo ad un ntervallo
che contiene la media della popolazione:
Come si può vedere
dal grafico potremo affermare il 95% dei possibili campioni
fornisce un intervallo (1.96) entro il quale cade la vera
media della popolazione, mentre il 5% dei possibili campioni
presenta un intervallo non contenente la media della popolazione
(ad esempio il campione n.5).
Se volessimo costruire
un intervallo con livello di confidenza superiore, ad esempio
il 99%, gli intervalli saranno più ampi (2.58).
2. Intervalli
di confidenza per la media
Nel caso in cui il parametro
della popolazione da stimare sia la media , dobbiamo considerare
due casi possibili: che sia nota la varianza ² della popolazione,
o che questa sia ignota e debba quindi essere stimata per
mezzo del campione.
2.1 Varianza della popolazione
nota
Dato un campione di
dimensione n estratto da una popolazione con media e varianza
², avremo che, per il teorema del limite centrale:
dove -
è l'ascissa che lascia /2% dei casi della normale
standardizzata alla sua sinistra, mentre
è l'ascissa che lascia a medesima percentuale di
casi alla sua destra.
Per mezzo di una semplice
trasformazione matematica avremo che la formula precedente
diviene:
Potremo cioè
dire che la media della popolazione è compresa nell'intervallo:
con un grado di affidabilità
dell'1-%.
2.2 Varianza della popolazione
ignota
In questo caso, se la
numerosità del campione è sufficientemente
grande (n30) i limiti dell'intervallo potranno essere calcolati
esattamente con le stesse modalità del caso in cui
la varianza della popolazione sia nota utilizzando come
stima della varianza della popolazione la varianza calcolata
sui dati campionari che indicheremo con s²:
avremo quindi gli intervalli:
Se invece la numerosità
del campione è inferiore a 30 unità non potremo
più assumere la distribuzione normale come distribuzione
limite; in particolare avremo che:
Gli intervalli saranno
perciò:
3. Intervalli
di confidenza per una proporzione
Abbiamo già avuto
modo di notare come il parametro proporzione possa essere
considerato come una media .
Pertanto potremo costruire
intervalli di confidenza seguendo una formla del tutto analoga
a quella della media. Quindi se è la proporzione
della popolazione da stimare e p è la proporzione
calcolata sulla base delle osservazioni campionarie, avremo
che:
L'approssimazione che
si compie nel sostituire con p per il calcolo della
varianza è ppari a quella che si ha quando si sostituisce
con s, ed introduce una fonte di errore trascurabile per
campioni sufficientemente grandi.
Nel caso di piccoli
campioni sono stati tabultai i valori degli intervalli per
proporzioni da parte di Pearson e Clopper.
Esempio 1: Osservato
un campione con n=50 di rondelle, estratto da una popolazione
con =0.5 mm., si è calcolata una media campionaria
del diametro delle rondelle pari a
Determinare il diametro medio della produzione da cui è
stato estratto il campione, con un livello di confidenza
del a) 95% e del b) 99%.
a)
b)
Esempio 2: L'osservazione
di un campione di 200 cuscinetti a sfera ha dato come peso
medio
Trovare i limiti di confidenza al 1.a) 95% e 1.b) 99% del
peso medio dei cuscinetti prodotti dalla macchina in esame.
1.a)
1.b)
Se il campione osservato
fosse stato di 20 unità, determinare sempre i limiti
di confidenza al 2.a) 95% e 2.b) 99% del peso medio dei
cuscinetti prodotti dalla macchina in esame.
2.a)
2.b)
Esempio 3: se in un
campione di 5000 pezzi ne sono stati osservati 60 difettosi,
determinare un intervallo di confidenza al 99% per la proporzione
di difettosi prodotta dalla macchina esaminata.
Esempio 4: Nel misurare
il diametro di un bullone, un operatore stima che lo s.q.m.
sia pari a 0.05 cm. Quanto deve essere grande un campione
utilizzato per stimare il diamtero della produzione di bulloni
affinchè possiamo essere "confidenti" a) al 95% e
b) al 99% che l'errore compiuto nella stima non superi il
valore di 0.01 cm.?
a) l'errore di 0.01
cm. corrisponde all'ampiezza dell'intervallo di stima, in
questo caso avremo quindi che:
b)
VERIFICA
DELLE IPOTESI
Per ipotesi statistica
intendiamo un'assunzione riguardante generalmente un paramtero
o na distribuzione di una popolazione.
La verifica o controllo
di piotesi consiste nello stabilire se l'assunzione
fatta si possa considerare esatta o meno, sulla base delle
osservazioni campionarie. Un test per provare un'ipotesi
è un criterio per accettare o respingere l'ipotesi
fatta sulla popolazione in base alle risultanze di un campione
estratto da questa popolazione.
L'ipotesi che viene
formulata sul valore che un parametro può asumere,
e che si vuole provare per mezzo del test, è detta
ipotesi nulla H0,
mentre viene indicata con H1
l'ipotesi alternativa, che è l'ipotesi sul
valore che lo stesso parametro può assumere in alternativa
a quello definito nell'ipotesi nulla.
Le ipotesi possono essere:
semplici: se
definiscono un punto nello spazio dei parametri H0:=a
H1:=b
composte: se
definiscono delle regioni H0:=a
H1:a;
H0:a
H1:>a
Nella verifica di ipotesi
si segue la seguente procedura:
definizione
dell'ipotesi nulla
assunzione
della distribuzione del parametro campionario
decisione
del grado di rischio che si è disposti a correre
decisione
sullanumerosità del campione
definizione,
in base ai punti precedenti, della regione critica
o di rifiuto R
estrazione
del campione, calcolo del parametro, controllo con la regione
critica, accettazione o rifiuto dell'ipotesi nulla.
Nel compiere questa
decisione si possono commettere due tipi di errore:
1. rifiutare l'ipotesi
nulla H0
quando in realtà è vera (errore di I tipo)
2. accettare l'ipotesi
nulla H0
quando in realtà è falsa (errore di II
tipo)
La possibilità
di commettere uno di questi errori dipende dal fatto che
la prova di piotesi, essendo di carattere inferenziale,
viene effettuata in condizioni di informazione limitata,
cioè per mezzo di un campione. Questo significa che,
sulla base delle informazioni prodotte da un sottoinsieme
della popolazione, non potremo mai essere sicuri che l'affermazione
fatta nei riguardi della popolazione sia corretta (la certezza
l'avremmo solamente osservando l'intera popolazione).
Ai due tipi di errore
sono associate le probabilità e . In particolare
se
è la funzione test, definiamo:
1.
la probabilità di rifiutare H0
quando in realtà è vera (probabilità
errore di I tipo)
2.
la probabilità che la statistica S cada nella regione
di accettazione A, quando l'ipotesi nulla è falsa.
Il valore di probabilità
è detto livello di significatività,
e corrisponde alla dimensione della regione critica.
Riassumendo potremo
avere:
|
ipotesi |
decisioni |
H0
vera |
H0
falsa |
respingere
H0
|
errore
I tipo prob= |
decisione
corretta prob=1- |
accettare
H0
|
decisione
corretta prob=1- |
errore
II tipo prob= |
Esiste una relazione
tra e , tale per cui se diminuiamo la probabilità
di avere un errore di I specie , aumenterà la probabilità
di commettere un errore di seconda specie.
Se consideriamo ad esempio:
avremo un'area in cui
saremo portati ad accettare ,
(intervallo A,B). Entro tale intervallo sarà però
possibile commettere un errore di II specie.
E' chiaro se vogliamo
ridurre la probabilità , dovremo aumentare .
La procedura di verifica
di ipotesi può quindi essere sintetizzata come segue,
nel caso in cui siano prefissati ed n:
definizione
dell'ipotesi nulla
assunzione
della distribuzione del parametro campionario
determinazione
della numerosità campionaria n
definizione
di : livello di significatività
identificazione
della regione critica
estrazione
del campione, calcolo del parametro,
controllo
con la regione critica, e quindi accettazione o rifiuto
dell'ipotesi nulla
controllo
di (detta curva operativa caratteristica OC) o di
1-, detta funzione di potenza, in relazione a prefissate
ipotesi alternative
- se o 1- sono adeguate
alle necessità proprie dell'analisi, confermare la
decisione
- se o 1- sono inadeguate
modificare o n e ripetere il test.
La curva operativa caratteristica
è un grafico indicante la probabilità di errore
di II tipo sotto diverse ipotesi alternative. Questi grafici
forniscono indicazioni riguardo a quanto un test permette
di minimizzare l'errore di II specie; indicano in altri
termini la potenza di un test nell'evitare di prendere decisioni
errate.
Se invece di fissare
a priori i valori di e n, si vuole mantenere controllata
la probabilità di errore di II tipo, potremo sviluppare
un test in cui e sono dati, ed, in base a questi, si determina
la numerosità n del campione da osservare, tale da
soddisfare i livelli di probabilità richiesti. In
questo caso il processo di verifica di ipotesi sarà:
definizione
dell'ipotesi nulla
assunzione
della distribuzione del parametro campionario
definizione
di : livello di significatività, e di
calcolo
della numerosità n del campione
identificazione
della regione critica
estrazione
del campione, calcolo del parametro,
controllo
con la regione critica, e quindi accettazione o rifiuto
dell'ipotesi nulla
1. Controllo
di ipotesi sulla media di una popolazione
1.1 Test bilaterale
1. stabilire le ipotesi
2. stabilire il parametro
campionario da utilizzare:
3. decidere il livello
di significatività
4. stabilire la numerosità
campionaria n
5. stabilire i limiti
critici di z in base ad ed n
6. estrarre il campione
e calcolare il valore di z per il campione e controllare
la sua posizione nei confronti dei valori dei limiti
critici
7. decidere se accettare
o rifiutare l'ipotesi nulla
8. individuare, se
necessario, la curva operativa caratteristica
Esempio 1: data la produzione
di una macchina che produce componenti meccanici per i quali
è previsto un diametro di 67mm, con una deviazione
standard di 3mm, decidere, sulla base di un campione di
25 unità se la produzione rispetta le specifiche,
con un livello di significatività del 5%.
per =5%=0.05 avremo
che i valori limite di z saranno 1.96; graficamente il test
sarà:
Supponiamo di estrarre
il campione e di ottenre .
Calcoliamo
Il valore di z ricade
all'interno dell'intervallo fissato come regione di accettazione:
si è quindi portati
ad accettare l'ipotesi nulla.
Vediamo di determinare
la curva operativa caratteristica. Si ipotizza che alcune
ipotesi alternative siano vere; si considera quindi vera
l'ipotesi =68; sarà la probabilità di avere
campioni con media che ricade nell'intervallo di accettazione
costruito con =67, quando in realtà =68.
I limiti di accettazione
pr =67 saranno:
E' sufficiente calcolare
i valori di z per i due limiti:
e determinare la probabilità
di avere valori campionari entro questi due limiti, se è
vero che =68:
0.5+0.1172=0.6172.
Ripetendo questo calcolo
per diverse alternative avremo:
|
z1 |
z2 |
|
1- |
68.5 |
-4.47 |
-0.53 |
0.29 |
0.71 |
68 |
-3.63 |
0.30 |
0.62 |
0.38 |
67.5 |
-2.80 |
1.13 |
0.87 |
0.13 |
67 |
-1.96 |
1.96 |
0.95 |
0.05 |
66.5 |
-1.13 |
2.80 |
0.87 |
0.13 |
66 |
-0.30 |
3.63 |
0.62 |
0.38 |
65.5 |
0.53 |
4.47 |
0.29 |
0.71 |
Per diminuire , fissato
, si dovrà modificare la numerosità campionaria
n; quindi pper avere valori di 1- più bassi dovremo
aumentare n. Se consideriamo ad esempio n=100 avremo che
i limiti saranno 66.41 e 67.59, per cui i valori di probabilità
saranno:
|
z1 |
z2 |
|
1- |
68.5 |
-6.97 |
-3.04 |
0.00 |
1.00 |
68 |
-5.30 |
-1.37 |
0.09 |
0.91 |
67.5 |
-3.63 |
0.30 |
0.62 |
0.38 |
67 |
-1.96 |
1.96 |
0.95 |
0.05 |
66.5 |
-0.30 |
3.63 |
0.62 |
0.38 |
66 |
1.37 |
5.30 |
0.09 |
0.91 |
65.5 |
3.04 |
6.97 |
0.00 |
1.00 |
Graficamente avremo
quindi, confrontando le due curve delle funzioni di potenza:
1.2 Test unilaterale
E' il caso in cui si
applica il test per la media ad una sola coda per accettare
l'ipotesi:
oppure
Si applicherà
evidentemente lo stesso procedimento utilizzato nel caso
di test bilaterali, però il limite della regione
di rifiuto sarà determinato in modo che si trovi
da un lato solo della distribuzione del parametro campionario
media.
Esempio: in una miscela
debbono essere presenti 64.3 parti di additivo. Si vuole
verificare con un campione di 25 prove, se la produzione,
con uno scarto quadratico medio =2, assicura la composizione
data, con un livello di significatività =0.05.
Per =0.05, il limite
di accettazione sarà z=-1.645
per cui il numero di
parti di additivo che rappresenta il limite della regione
di rifiuto sarà:
Si rifiuterà
quindi l'ipotesi nulla se il numero medio di parti additivo
nel campione di 25 prove sarà inferiore a 63.64,
oppure se il valore di z calcolato sempre nel campione sarà
inferiore a -1.645.
In questo caso la curva
operativa caratteristica sarà:
valori
medi alternativi
|
limite
regione rifiuto
|
curva
operativa caratteristica
|
62.5 |
2.85 |
0.0020 |
63 |
1.60 |
0.0548 |
63.5 |
0.35 |
0.3632 |
64.3 |
-1.645 |
0.9500 |
65 |
-3.40 |
0.9997 |
esprime quindi la probabilità di avere valori medi
campionari superiori a 63.4 quando la media della popolazione
è diversa da 63.4:
1.3 Determinazione
della numerosità campionaria fissati e
Quando viene fissata
una ipotesi, ed assieme ad essa i valori di probabilità
associati agli errori di I e II specie, si deve determinare
la numerosità minima del campione sufficiente a garantire
i livelli di probabilità desiderati.
Nel caso di test
unilaterali, se indichiamo con K il valore discriminante
che divide la regione di accettazione da quella di rifiuto,
K può essere espresso in termini di si per l'ipotesi
nulla che per quella alternativa, secondo le espressioni:
la soluzione del sistema
composto da queste due equazioni consente di determinare
la numerosità campionaria n:
Esempio: sia fissata
l'ipotesi:
con =16 ed inoltre siano dati =0.05 e =0.20, determinare
la numerosità n del campione.
Avremo quindi: per
cui
Nel caso di test
bilaterali avremo che la numerosità del campione
sarà data da:
1.4 Test di
ipotesi per la media nel caso di ignota
In questo caso si dovrà
utilizzare la distribuzione del parametro campionario t-Student:
con n-1 gradi di libertà,
purchè la popolazione di provenienza possa essere
considerata normale.
Esempio test bilaterale:
data una macchina che
effettua le pesatura automatica per il riempimento di sacchetti
contenenti 65 gr. di prodotto: si vuole controllare se la
macchina mantiene il suo standard. Vengono registrate 12
pesate: 55, 62,54,58,65,64,60,62,59,67,62,61; e si vuole
operare il controllo al livello del 5%.
Avremo quindi una distribuzione
t con (n-1)=(12-1)=11 gradi di libertà da cui otterremo:
in base al campione
avremo inoltre:
potremo quindi calcolare il valore di t nel campione:
per cui rifiuteremo
l'ipotesi nulla.
Esempio test unilaterale:
data una miscela chimica
in cui debbono essere presenti almeno 64.3 parti di un additivo,
si vuole verificare con 25 prove se la produzione garatisce
tale tipo di composizione della miscela al livello del 5%.
Il campione di 25 prove ha presentato: .
In questo caso i gradi
di libertà saranno (25-1)=24, per cui la soglia del
valore t sarà: t-1.711.
Il valore del t campionario
è invece:
per cui potremo accettare
l'ipotesi nulla.
2. Controllo
di ipotesi sulla proporzione di una popolazione
In questo caso il paramtero
campionario sarà ,
dove
rappresenta il numero di elementi del campione che hanno
la caratteristica da controllare.
Come noto la proporzione
ha una distribuzione binomiale, che però si approssima
alla normale per valori di n sufficientemente grandi e P
no troppo piccolo. Il parametro P potrà quindi essere
assimilato alla media campionaria. Perciò se np5
si potrà fare riferimento alla distribuzione z:
In base a questa si
potranno quindi determinare i valori critici in base ad
in
caso di test unilaterale o bilaterale.
Esempio: dato un campione
di 50 unità di prodotto, nel quale è stato
osservato un 5% di pezzi difettosi, si verifichi l'ipotesi
che
la produzione complessiva presenta meno del 4% di difettosi,
con un livello di significatività del 5%.
Siccome la soglia critica
del test unilaterale per =0.05 è z=1.64, accetteremo
l'ipotesi nulla.