Naprej Skozi grede > Ustvarjanje znanosti

33

Statistika

PreštevanjePoskusi in izidiVerjetnosti izidovVerjetnost sestavljenih izidovBinomska porazdelitevVsota slučajnih izidovNormalna porazdelitevPovprečje in variancaVečdimenzijske porazdelitveSoodvisnost spremenljivkVzorčenje in statistikaMerjenje in merske napakeIntervalno ocenjevanjePreizkušanje domnevRegresijska analiza Statistično zavajanje

Preštevanje

Izbiranja

Nekatere stvari v življenju lahko naredimo na več načinov. Dober primer je kosilo v restavraciji. Na jedilniku je zapisano: 2 predjedi, 3 glavne jedi in 2 poobedka. Izberemo lahko po eno jed iz vsake skupine. Koliko različnih kosil si lahko privoščimo? Očitno N = 2 · 3 · 2. Nasploh velja: če lahko najprej naredimo N1 izbir; nato – neodvisno od tega, kaj smo izbrali – novih N2 izbir; in tako naprej, je različnih izbirnih nizov N = N1 · N2Nn. Kaže, da sta izbiranje in preštevanje izbir pomembni opravili. Poskusimo torej raziskati kaj več o tem.

Permutacije

Imejmo niz petih različnih črk (a, b, c, d, e). Ta niz lahko premešamo; ena izmed premešav je, na primer, (b, a, c, e, d). Rečemo, da je to permutacija osnovnega niza. Koliko pa je takih različnih permutacij? — Na prvo mesto permutacije lahko postavimo eno izmed 5 črk. Ostanejo še štiri. Na drugo mesto postavimo eno izmed preostalih 4 črk. Tako nadaljujemo in dobimo N = 5 · 4 · 3 · 2 · 1 = 5! različnih nizov črk. Na splošno lahko torej iz n-terice različnih elementov naredimo Pn njenih permutacij:

(33.1)

Pn = n! .

Če vseh n elementov ni različnih, ampak je med njimi r enakih, je različnih permutacij r!-krat manj: Pnr = n!/r!.

Variacije

Iz niza petih črk (a, b, c, d, e) potegnimo poljubne tri črke. Trojke iz istih črk, a z različnim vrstnim redom, obravnavamo kot različne: (a, b, c) je torej različna od (b, a, c). Rečemo, da so to variacije dolžine 3 iz osnovnega niza. Koliko različnih variacij pa lahko naredimo? — Na prvo mesto v trojki lahko postavimo eno izmed 5 črk. Preostanejo štiri. Na drugo mesto postavimo eno izmed preostalih 4 črk. Tako nadaljujemo in dobimo N = 5 · 4 · 3 = 5!/(5 − 3)! različnih trojk. Na splošno iz n-terice različnih elementov lahko naredimo Vnr različnih variacij dolžine r:

(33.2)

Vnr =

n!

(nr)!

.

Kombinacije

Koliko je pa različnih trojk, pri čemer obravnavamo trojke iz istih črk, a z različnim vrstnim redom, kot enake: (a, b, c) je enaka (b, a, c)? Rečemo, da so to kombinacije dolžine 3 iz osnovnega niza. Očitno je število kombinacij manjše kot število variacij in sicer za tolikokrat, kolikor je permutacij niza z dolžino 3, torej N = 5!/(5 − 3)!3!. Na splošno lahko torej iz n-terice različnih elementov naredimo Cnr različnih kombinacij dolžine r:

(33.3)

Cnr =

n!

r! (nr)!

.

Poskusi in izidi

Igralna kocka

Ljudje, ki nimajo kaj boljšega početi, radi mečejo kocke. Takšna igralna kocka ima na svojih ploskvah narisane pike. Vsaka ploskev ima svoje število pik: od ena do šest. Ko kocko vržemo na mizo, se zakotali, ustavi in njena zgornja ploskev pokaže določeno število pik. Vnaprej nikoli ne vemo, koliko jih bo padlo. Ljudje stavijo denar, kaj se bo pri metu zgodilo, in tisti, ki ugane, pobere stave. Te so lahko raznovrstne: padla bo trojka; ne bo padla trojka; padlo bo sodo število; v dveh zaporednih metih bo padla vsaj ena šestica; pri hkratnem metu dveh kock bo padlo skupaj deset pik; in še mnogo drugega.

[Igralna kocka] Slika 33.1.
Igralni kocki. Izid meta ene ali več kock je slučajna spremenljivka. (Anon.)

Poskus in izid

Na met kocke lahko pogledamo kot na poskus, ki ima šest možnih elementarnih izidov: število pik od ena do šest. Vnaprej ne vemo, kakšen bo izid predstoječega poskusa, zato rečemo, da je tak izid slučajna spremenljivka, ki lahko zavzame celoštevilčne vrednosti med ena in šest. Pričakujemo pa, da se bo v velikem številu poskusov (torej metov), pojavil vsak izmed šestih izidov v približno enakem deležu in sicer v eni šestini primerov, če je le kocka "poštena". Pravzaprav je res obratno: če se vsak izid pojavlja enako pogosto, rečemo, da je kocka poštena.

Verjetnosti izidov

Pogostost izida

Pa izmerimo, kako pogosto se pojavljajo posamični izidi za dotično kocko! Kar naprej jo mečimo in beležimo vsakokratne izide, to je, vrednosti slučajne spremenljivke x. Ta spremenljivka lahko zavzame vrednosti x1 = 1, x2 = 2x6 = 6. Ko vržemo kocko 10-krat, se izid x3, na primer, pojavi 2-krat, torej v 2/10 poskusov. Pri N poskusih se nasploh izid xk pojavi Nk-krat. Razmerje Nk/N se z vsakim nadaljnjim metom spremeni. V začetku se od meta do meta močno spreminja, kasneje pa se čedalje bolj zgošča okrog neke limitne vrednosti. Vsak izid se zgošča okrog svoje limite. S tem je definirana njegova relativna frekvenca oziroma pogostost

(33.4)

Pk =

lim

N → ∞

Nk

N

.

Pri pošteni kocki, na primer, izmerimo v 1000 metih P3 = 0,17 ≈ 1/6 in enako za ostale izide. Pogostosti elementarnih izidov prikažemo s tabelo ali grafom – frekvenčno porazdelitvijo izidov.

[Uniform distribution] Slika 33.2.
Frekvenčna porazdelitev izidov pri metu poštene kocke. Vsak izid n se pojavlja z enako pogostostjo: porazdelitev je enakomerna.

Iz definicije je jasno, da mora za vsakršno frekvenčno porazdelitev veljati

(33.5)

Pk = 1 .

Rečemo, da so porazdelitve normirane.

Verjetnost izida

Čim večja je pogostost kakega izida v množici poskusov, tem bolj "verjetno" se nam zdi, da bo predstoječi posamični poskus pokazal ravno ta izid. Povedano izkoristimo za kvantitativno definicijo verjetnosti: verjetnost kakega izida pri posamičnem poskusu, to naj bo njegova relativna frekvenca v množici poskusov pri enakih "delovnih" pogojih. Pogostost se torej nanaša na množico poskusov, verjetnost pa na posamičen poskus. Izraz "verjetnost", kakor smo ga definirali in kakor ga hočemo uporabljati, ni nič drugega kot sinonim za izraz "pogostost". Verjetnosti so decimalna števila med 0 in 1.

Verjetnost sestavljenih izidov

Unija izidov

Kakšna je verjetnost, da pri metu kocke pade x3 ali x5? Da bomo bolj splošni, recimo: kakšna je verjetnost, da se v enem poskusu pokaže elementarni izid A ali elementarni izid B, torej vsaj eden izmed obeh? To je seveda tudi svojevrsten izid poskusa. Poimenujemo ga unija dveh elementarnih izidov ter ga označimo kot izid (AB). Iz definicije verjetnosti neposredno sledi

(33.6)

P(AB) = P(A) + P(B) .

Verjetnost, da se pri enem poskusu pokaže eden ali drugi od možnih elementarnih izidov, je enaka vsoti verjetnosti obeh posamičnih izidov. Da poštena kocka pokaže x3 ali x5, se zato zgodi z verjetnostjo 1/6 + 1/6 = 2/6.

Pravilo o seštevanju verjetnosti ne velja le za dva elementarna izida, ampak tudi za več njih. Prav tako ne velja le za elementarne izide, temveč za kakršnekoli izide, ki se medsebojno izključujejo, to je, če se pokaže eden, se ne more hkrati pokazati še drugi. Dva takšna izključujoča se izida pri metu kocke sta, na primer: (i) pade sodo število pik (x2 ali x4 ali x6) in (ii) pade trojka (x3). Verjetnost prvega izida je 1/2, verjetnost drugega je 1/6, in verjetnost njune unije, torej enega ali drugega, je 1/2 + 1/6 = 4/6.

Presek izidov

Kakšna je verjetnost, da pri metu kocke pade x3 in pri naslednjem metu x5? Da bomo bolj splošni, recimo: kakšna je verjetnost, da se v prvem poskusu pokaže elementarni izid A in pri drugem poskusu elementarni izid B? To je tudi svojevrsten izid (dvojnega) poskusa. Poimenujemo ga presek obeh izidov ter ga označimo kot izid (AB). Iz definicije verjetnosti neposredno sledi

(33.7)

P(AB) = P(A) · P(B) .

Verjetnost, da se pri prvem poskusu pokaže izid A in pri drugem izid B, je enaka produktu verjetnosti obeh posamičnih izidov. Seveda velja vse povedano tudi za več poskusov in za izide, ki niso elementarni. V vsakem primeru pa morajo biti poskusi medsebojno neodvisni, to je, izid drugega poskusa ne sme biti odvisen od izida prvega poskusa. Da poštena kocka pokaže prvič x3 in druga x5, se zato zgodi z verjetnostjo 1/6 · 1/6 = 1/36.

Binomska porazdelitev

Verjetnost, da pri metu kocke pade šestica, torej x6, naj bo 1/6. Verjetnost, da ne pade šestica, pa je zato 1 − 1/6 = 5/6. Zanima nas, kolikšne so verjetnosti, da v 5 metih pade šestica natanko 0-krat, 1-krat … 5-krat. Poskusi so sedaj petorke metov, opazovani izid pa število šestic, n, v vsaki petorki. Mečemo petorke v nedogled. Sproti štejemo, kolikokrat vsebujejo 0 šestic, 1 šestico in tako naprej. S tem so čedalje natančneje določene relativne frekvence Pn. Hočemo jih izračunati.

Število uspehov v vrsti poskusov

Bolj splošno lahko nalogo postavimo takole. Delamo take poskuse, ki imajo le dva izida, "uspeh" T in "neuspeh" F. Verjetnost za uspeh naj bo p in za neuspeh 1 − p = q. Kakšna je verjetnost, da je v N poskusih natanko n uspešnih?

En način, na katerega se lahko pojavi n = 2 uspehov v N = 5 poskusih, je TTFFF. Verjetnost tega izida znaša p.p.q.q.q = pn qNn. Vendar obstajajo še drugi načini, na primer FFFTT in TFFFT in še mnogi. Vsak izmed njih je enako verjeten, ker so zaporedni poskusi med seboj neodvisni. Verjetnosti vseh moramo sešteti. Koliko različnih N-teric pa pravzaprav lahko sestavimo iz n črk T in iz (Nn) črk F? Toliko, kolikor je permutacij N elementov, od katerih je n enakih in (Nn) tudi enakih: N!/n!(Nn)!. Iskana verjetnost je torej:

(33.8)

P(n) =

N!

n!(Nn)!

pn (1 − p)Nn = BN,p(n) .

To je binomska porazdelitev. Pove nam, kakšna je verjetnost, da v N poskusih zadenemo natanko n uspešnih izidov, če je verjetnost takega izida pri posamičnem poskusu enaka p. Da v petih metih kocke pade natanko ena šestica, se torej zgodi z verjetnostjo 0.16.

[Binomial distribution] Slika 33.3.
Binomska porazdelitev. Prikazana je verjetnost, da v deseterici metov poštenega kovanca pade glava 0, 1, 2 … 10-krat. Binomsko porazdelitev je prvi določil J. Bernoulli.

Vsota verjetnosti vseh možnih izidov pri enem poskusu (N-terici metov) mora biti enaka ena, to je, porazdelitev verjetnosti mora biti normirana. Malo nas skrbi, ali to za izpeljano binomsko porazdelitev res drži. Eksplicitno zapisana vsota n BN,p(n) znaša CN0 qn + CN1 pqn − 1 + … CNN pn. To pa ni nič drugega kot razviti binom (q + p)n, torej ((1 − p) + p)n, torej 1n = 1. Skrb je odveč, porazdelitev je normirana.

Slepo reševanje testov

Lep primer "uspešnega" poskusa je slepo reševanje šolskih testov. Učenec dobi 5 vprašanj. Ob vsakem so navedeni 3 odgovori in samo eden izmed njih je pravilen. Vsi odgovori se zdijo učencu enako verjetni, zato na slepo izbere enega. Verjetnost, da je prav uganil, je zato 1/3. Število uspehov, ki jih tako doseže, znaša od 0 do 5. Verjetnost, da doseže 4 ali 5 uspehov, je B5,1/3(4) + B5,1/3(5) ≈ 0,045. Kaj takega se torej zgodi enkrat v 1/0,045 ≈ 20 testih.

Namesto da en učenec slepo opravi neskončno testov, si lahko mislimo neskončno učencev, ki na slepo opravijo en test. Frekvenčni porazdelitvi po rezultatih sta v obeh primerih enaki. Če je torej potrebnih ∼20 testov, da en učenec slučajno doseže štiri ali pet točk, to slučajno uspe enemu izmed množice ∼20 učencev.

Še beseda o slepem izbiranju. Izbira enega izmed množice elementov, recimo enega izmed treh odgovorov, je slepa, če ima vsak element enako verjetnost, da je izbran. Dober način za to je naslednji: vse elemente oštevilčimo, številke zapišemo na listke in jih zapremo v čim bolj enake kroglice, vržemo kroglice v vrteč se boben ter čez nekaj časa z zavezanimi očmi potegnemo iz njega eno kroglico. Za prvo silo, če je elementov malo, zadostujejo kar prepognjeni listki in navaden klobuk. Da opisana načina res zagotavljata enako verjetnost izbire, pa se na koncu koncev ne moremo prepričati nič drugače, kot da ju dejansko preizkusimo s štetjem izidov.

Vsota slučajnih izidov

Ožebljena deska

Na met in kotaljenje kocke učinkuje okolje z množico vplivov, ki jih ne poznamo in na katere je izid silno občutljiv. Majhna sprememba v začetnih in vmesnih pogojih, pa je rezultat že čisto drugačen. To nas navede na misel, da bi vpliv okolja na gibanje telesa lahko preučevali tudi tako, da bi po klancu spuščali kroglico, nanjo vplivali z gozdom zabitih žebljičkov, in gledali, kje na dnu bo pristala. Najpreprostejša je deska z N vrsticami žebljičkov, ki so med sabo razmaknjeni za premer kroglice, pri čemer je vsaka druga vrsta zamaknjena vstran za polovčno razdaljo med žebljički. To je ožebljena deska.

[Galton] Slika 33.4.
Ožebljena deska. Spuščene kroglice se razvrstijo po binomski porazdelitvi. Desko je izumil F. Galton. (Anon.)

Porazdelitev odmikov

Kroglico spustimo z vrha. Na prvi vrstici se odbije levo ali desno, na drugi prav tako in s cikcakanjem nadaljuje vse do dna. Verjetnost za odboj v desno naj bo vsakokrat p in za odboj v levo q = 1 − p. Ti dve verjetnosti sta ponavadi enaki. V N trkih opravi kroglica n korakov v desno in Nn korakov v levo. Gibanje kroglice lahko torej opišemo kot N-kratni met kocke in štetje "ugodnih" izidov. Ugodni izid pri spuščanju kroglice je pač korak v (recimo) desno. Kolikokrat se bo kroglica premaknila v desno v N trkih, je torej opisano z binomsko porazdelitvijo BN,p(n).

Neto premik v desno, m, je enak razliki premikov v desno in levo: m = n − (Nn). Izrazimo n z m in ga vstavimo v binomsko porazdelitev, pri čemer izberemo še p = q = 1/2, pa dobimo:

(33.9)

BN,1/2(m) =

N!

[(N + m)/2]! [(Nm)/2]!

(

1

2

)N.

To je verjetnostna porazdelitev leg, ki jih doseže kroglica na dnu, oziroma delež kroglic, ki pristanejo v teh legah. Kadar izraza N + m ali Nm nista soda, bi morali računati faktorielo ulomnega števila. Kaj to pomeni, ne vemo in bo morda treba še primerno definirati. Zaenkrat bomo pri konkretnem računanju aproksimirali (n + 0,5)! ∼ n!(n + 1)/2.

Dolga ožebljena deska

Če je ožebljena deska dolga, postane porazdelitev simetrično zvonasta. Kakšna je ta porazdelitev, ko raste N čez vse meje, pri čemer se omejimo še na področje mN?

Faktoriele velikih števil so neznansko velike, zato porazdelitev najprej logaritmiramo. Nastane vsota logaritmov. Vsak člen oblike ln n! aproksimiramo z integralom: ln n! = ln 1 + ln 2 + … ln n ≈ ∫1n ln x dx. Tak integral znaša (x ln xx) |1n, torej – ko zanemarimo še 1 v primeri z nln n! ≈ n ln nn. Nato pridobljene izraze ln (1 + m/N) aproksimiramo s kratko potenčno vrsto: m/nm2/2N2. Dobimo ln B ≈ −m2/2N, torej

(33.10)

BN,1/2(m) ≈ A · em2/2N.

Konstanto A smo pritaknili, ker sumimo, da smo zaradi številnih aproksimacij zapravili normiranost izhodiščne porazdelitve. To pomeni, da moramo to konstanto zdaj naknadno določiti iz pogoja normiranosti, torej A = 1 / ∫ exp(−m2/2N) dm. S tem bo normalna aproksimacija k binomski porazdelitvi popolnoma določena.

Normalni integral

Kako izračunati normalni integral I = ∫ exp(−x2) dx med −∞ in +∞? Takole: I2 = ∫ exp (−x2) dx · ∫ exp (−y2) dy = ∫∫ exp −(x2 + y2) dxdy. To je ploskovni integral v kartezičnih koordinatah. Zapišemo ga v polarnih koordinatah x2 + y2 = r2 in dxdy = rdrdφ, preoblikujemo rdr = 1/2 d(r2) in dobimo integral z navadno eksponentno funkcijo I2 = 1/2 ∫∫ exp (−t) dtdφ. Za meji med 0..∞ ter 0..2π ga zlahka izračunamo in znaša π. Koren iz tega je torej iskani normalni integral:

(33.11)

+∞

−∞

ex2 dx = √π .

S tem je normalizacijska konstanta določena: A = 1/√(2πN).

Normalna porazdelitev

Gostota verjetnosti

Ko z astrolabom določamo višino zvezde ob kulminaciji, se izmerki med seboj bolj ali manj razlikujejo. Če odmislimo sistematične napake – ko uporabimo nenatančen kotomer ali ko narobe odčitamo številko z njega ali ko celo merimo napačno zvezdo – preostane še množica slučajnih napak – zaradi nihanje astrolaba, migotanja ozračja in še kaj. Podobno se dogaja pri merjenju drugih količin. Izmerke takšne zvezne količine x razvrstimo v primerno široke razrede x ± dx/2 in preštejemo, koliko izmerkov dN(x ± dx/2) pade v vsakega. S tem je določena njihova frekvenčna porazdelitev

(33.12)

dP

dx

=

lim

N → ∞

dN(x ± dx/2)

N

= p(x) ,

ki je seveda normirana:

(33.13)

dP = p(x) dx = 1 .

Pogledano z drugimi očmi: izmerek količine je slučajna spremenljivka in (limitna) frekvenčna porazdelitev izmerkov je njena gostota verjetnosti.

Normalna porazdelitev

Ko narišemo gostoto verjetnosti za izmerjene kulminacije ali kako drugo tovrstno količino, opazimo, da ima lepo zvonasto obliko, ki je na moč podobna normalni binomski aproksimaciji, le da je zvezna. Zato definiramo normalno porazdelitev kot

(33.14)

dP

dx

=

1

σ√2π

· e(xμ)2/2σ2 = Gμ,σ(x) .

Parameter μ pove, kje leži vrh porazdelitve in parameter σ določa širino vrha. Kot kvadrat ga pišemo zato, da ima enake dimenzije kot slučajna spremenljivka. Sorazmernostna konstanta poskrbi za normiranost.

[Normalna porazdelitev] Slika 33.5.
Normalna porazdelitev. Prikazana je porazdelitev s povprečjem 0 in deviacijo 1. Prvi jo je postavil C. Gauss.

Dejstvo, da so kakšni izmerki porazdeljeni normalno, nam sporoča, da nanje vpliva – kakor na gibanje kroglice po žebljasti deski – množica med seboj neodvisnih in nasprotujočih si drobnih vplivov. Pravzaprav je normalna porazdelitev celo neke vrste zagotovilo, da izmerki niso obremenjeni s sistematičnimi, ampak zgolj s slučajnimi napakami.

Standardna porazdelitev

S porazdelitvijo verjetnosti po spremenljivki x je določena tudi porazdelitev po vsaki drugi, z njo povezani spremenljivki z(x):

(33.15)

dP

dz

=

dP

dx

dx

dz

.

Če so izmerki x porazdeljeni kot dP/dx = Gμ,σ(x), potem so ustrezajoči normalizirani izmerki

(33.16)

z =

xμ

σ

porazdeljeni kot dP/dz = (dG/dx)(dx/dz), torej takole:

(33.17)

dP

dz

=

1

√(2π)

· ez2/2 = G0,1(z).

To je normalna porazdelitev z vrhom pri μ = 0 in s širino σ = 1. Poimenujemo jo standardna porazdelitev. Verjetnost, da bo slučajni izmerek x ležal na intervalu med x1 in x2, je zato enaka verjetnosti, da bo normalizirani izmerek z ležal na intervalu med z1 = (x1μ)/σ in z2 = (x2μ)/σ. Ta verjetnost je enaka integralu G0,1(z) med navedenima mejama. Za konkretno računanje potrebujemo še tabelirane vrednosti G0,1(z) in njenega integrala

(33.18)

z

0

G0,1(z) dz = erf(z) .

Slednjega izračunamo z razvojem podintegralske funkcije exp t, t = −z2/2 v potenčno vrsto 1 + t + t2/2! + … in jo členoma integriramo:

(33.19)

erf(z) =

1

√π

n=0

(−1)nz2n + 1

n!(2n + 1)

.

Tako pridelamo tabelo

z G0,1(z) erf(z)
0.0 0,40 0,00
0.5 0,35 0,19
1.0 0,24 0,34
1.5 0,13 0,43
2.0 0,05 0,48
2.5 0,02 0,49
3.0 0,00 0,50

Tabela 33.1.
Standardna porazdelitev in ploščina pod njo.

Verjetnost, da leži izmerek x znotraj intervala μ ± σ, je torej 2 · 0,34 = 0,68. Na intervalu ± 2σ leži z verjetnostjo 2 · 0,48 = 0,95. In na intervalu ± 3 σ ga najdemo (skoraj) z gotovostjo 2 · 0,50 = 1.

Povprečje in varianca

Povprečje

Ko zaporedno zložimo N palic z dolžinami l1, l2lN, dobimo palico dolžine L. Enako dolgo sestavljeno palico dobimo tudi z N enakimi palicami dolžine , torej N · = ∑n ln. S tem je definirana povprečna dolžina uporabljenih N palic: = (1/N) ∑n ln. Če je palic veliko in so nekatere med seboj enake, raje računamo takole: = (1/N) ∑k Nk lk = k (Nk/N) lk = k fk lk. Keficienti fk so relativne frekvence palic enake dolžine. Kar velja za palice in njihove dolžine, posplošimo za poljubno slučajno spremenljivko x: njeno povprečno vrednost v limitni množici poskusov, ko fkPk, definiramo kot x〉 = ∑k xk Pk = Ave(x). Če je spremenljivka zvezna, pa velja

(33.20)

x〉 = x p(x) dx.

Vsota uteženih odmikov od povprečja je enaka nič: ∫ (x − 〈x〉) dP = x dP − 〈x〉 ∫ dP = x〉 − 〈x〉 = 0.

Varianca in deviacija

Palice, iz katerih določamo povprečje, se med seboj bolj ali manj razlikujejo. Kolikšno je to razlikovanje, povemo s povprečnim kvadratnim odmikom od povprečja: sl2 = (1/N)∑n (ln)2 oziroma sl2 = ∑k fk (lk)2. Kar velja za dolžino palic, posplošimo na poljubno slučajno spremenljivko: njeno varianco definiramo kot σx2 = ∑k (xk − 〈x〉)2 Pk = Var(x). Koren iz variance, σx, pa poimenujemo deviacija. Za zvezno spremenljivko velja:

(33.21)

σx2 = (x − 〈x〉)2 p(x) dx .

Integral lahko preoblikujemo: kvadriramo podintegralski binom, integriramo dobljene člene in pridelamo izraz

(33.22)

σx2 = ∫ x2 p(x) dx − (∫ x p(x) dx)2 = 〈x2〉 − 〈x2 .

Izračun povprečij in varianc

Če so porazdelitve podane s tabelo, računamo njihova povprečja in variance s konkretnimi številskimi vrednostmi. Če so podane z enačbo, pa lahko računamo s simboli. Izračunajmo povprečja in variance tistih porazdelitev, ki smo jih že spoznali!

Za enakomerno diskretno porazdelitev (pošteno kocko) velja x〉 = ∑n n · (1/6) = 3,5 in σx2 = ∑n n2 · (1/6) − (3,5)2 = (1,7)2. Na interval x〉 ± σx padejo vrednosti 2, 3, 4 in 5, to je, 2/3 vseh vrednosti.

Za binomsko porazdelitev že poznamo njeno vsoto: n CNn pn qNn = (p + q)N. Če bi bil vsak člen vsote pomnožen s faktorjem n, bi nastala vsota opisovala povprečje. Kako pridelati faktorje n? Levo in desno stran odvajamo na p in nato množimo s p. Na levi nastane povprečje x〉 = ∑n n CNn pn qNn in na desni izraz np (p + q)N − 1. Ko v njem upoševamo q = 1 − p, najdemo x〉 = Np. Podobno izračunamo varianco – izhodiščno enačbo dvakrat odvajamo na p in nato pomnožimo s p2. Tako dobimo σx2 = Npq.

Pri računanju povprečja in variance normalne porazdelitve moramo izračunati integrala oblike x exp(−x2) dx in x2 exp(−x2) dx. Prvega izračunamo tako, da spravimo x pod diferencial, s čimer prevedemo integral v lahko rešljivo obliko ∫ exp(−t) dt. Drugega pa se lotimo po delih: u = x, dv = x exp(−x2) dx in ga s tem prevedemo ne integral za povprečje. Dobimo x〉 = μ in σx2 = σ2.

Katerokoli porazdelitev, ki ima povprečje 〈x〉 in varianco σx2, lahko aproksimiramo z normalno porazdelitvijo, ki ima isto povprečje in varianco. Ujemanje je bolj ali manj dobro. Normalna aproksimacija enakomerne porazdelitve je prav slaba, binomske pa naravnost odlična, če je le njen parameter N dovolj velik. Nekaj konkretnih grafov pokaže, da je ujemanje precej dobro že pri N = 10.

Večdimenzijske porazdelitve

Pri nadaljnji raziskavi bo očitno nerodno uporabljati dve različni pisavi, eno za diskretne primere in drugo za zvezna primere. Odločimo se, da bomo uporabljali le pisavo za zvezno spremenljivko, ki pa jo v bomo primeru diskretnosti razumeli takole: p(x)dxPk in p(x)d(x) → ∑k Pk.

Dve spremenljivki

Pri streljanju s puško v tarčo je lega zadetka slučajna spremenljivka.

[Tarča] Slika 33.6.
Tarča. Lega zadetka je slučajna spremenljivka. (Anon.)

Vsak zadetek ima svoj vodoravni odmik x in navpični odmik y od središča tarče. Gostoto verjetnosti za zadetek okrog točke (x, y), to je na intervalu (x ± dx/2, y ± dy/2), definiramo s številom strelov dN v ta interval, deljenim s številom vseh strelov N:

(33.23)

d2P

dx dy

=

lim

N → ∞

dN(x ± dx/2, y ± dy/2)

N

= p(x, y).

Predstavljamo si jo kot ploskev oziroma kot hrib, ki je ponekod bolj, drugod manj visok. Višina hriba na nekem mestu pove, kakšna je tamkajšnja pogostost oziroma verjetnost zadetkov.

Robne verjetnosti

Verjetnost za vodoravni izid okrog x, neodvisno od tega, kakšen je navpični izid, je vsota

(33.24)

dP

dx

= p(x, y) dy = u(x) .

Predstavljamo si, da smo ves hrib stlačili na vodoravno os, vzdolž katere se je naredil kumulativni profil u(x). Podobno velja tudi za tlačenje hriba na navpično os, ko nastane kumulativni profil v(y).

Pogojne verjetnosti

Kolikšna pa je verjetnost za vodoravni izid okrog x pri pogoju, da je navpični izid okrog y? Vzdolž ozkega vodoravnega pasu okrog y = const definiramo verjetnost

(33.25)

dP

dx

|y =

lim

N → ∞

dN(x ± dx/2)

N(y ± dy/2)

= p(x | y).

Rekli bomo, da je to pogojna verjetnost za izid okrog x glede na izid okrog y. Predstavljamo si jo kot profil hriba vzdolž vodoravnega prereza. Seveda velja podobno tudi za pogojne verjetnosti vzdolž navpičnih pasov, p(y | x). Iz definicij verjetnosti, robne verjetnosti in pogojne verjetnosti sledi

(33.26)

p(x, y) = u(x) v(y|x) .

Res. Verjetnost za strel okrog (x, y) je enaka robni verjetnosti za strel okrog x, pomnoženi z ustrezno pogojno verjetnostjo za strel okrog y. Kadar je slučajna spremenljivka y neodvisna od x, je njena pogojna verjetnost v(y|x) kar enaka "nepogojni" verjetnosti v(y) in velja že znano produktno pravilo

(33.27)

p(x, y) = u(x) v(y) .

Dober primer je streljanje v tarčo, če nastane gostota exp(−r2), to je exp(−x2y2), torej exp(−x2) · exp(−y2). Strelca zanaša v levo in desno enako, neodvisno od tega, kako ga zanaša gor in dol, in obratno.

Soodvisnost spremenljivk

Povprečje in varianca

Za vsako spremenljivko posebej lahko definiramo njeno povprečje in varianco. Za spremenljivko x tako velja:

(33.28)

x〉 = x p(x, y) dx dy
σx2 = (x − 〈x〉)2 p(x, y) dx dy .

Očitno sta to povprečje in varianca robne verjetnosti: x〉 = ∫ x u(x) dx in σx2 = ∫ (x − 〈x〉)2 u(x) dx. Podobno velja za spremenljivko y.

Kovarianca in korelacija

Sama se ponuja še mešana količina

(33.29)

σxy = (x − 〈x〉)(y − 〈y〉) p(x,y) dx dy .

Poimenujemo jo kovarianca. Pričakujemo, da na nek način pove, kako močno sta spremenljivki med seboj odvisni. Preverimo to domnevo! Če sta spremenljivki neodvisni, torej če p(x) = u(x)v(y), se kovariantni integral zapiše kot produkt dveh integralov, od katerih je vsak enak nič, torej je tudi kovarianca enaka nič. Če sta spremenljivki natanko sorazmerni, torej y = kx, so odmiki od povprečij maksimalni in koviariantni integral se reducira v kσx2 oziroma v (1/k)σy2. Domneva je torej potrjena. Zato je smiselno definirati

(33.30)

r =

σxy

σxσy

,

to je, korelacijski keoficient dveh spremenljivk. Koeficient očitno leži med vrednostima −1 in 1. Čim večja je njegova absolutna vrednost, tem tesnejša je medsebojna odvisnost spremenljivk.

Vzorčenje in statistika

Populacija in vzorci

Povprečje in varianco smo definirali za neskončno veliko množico poskusov oziroma opazovanj oziroma meritev, to je, na neskončni (ali zelo veliki) populaciji. Rekli bomo, da sta to populacijska parametra. Določimo ju pa seveda lahko le iz končnega vzorca; tedaj jima bomo rekli vzorčni statistiki.

Vzorčne statistike so seveda le približek k ustreznim populacijskim parametrom. Če je vzorec velik in slepo izbran, pričakujemo, da je ujemanje dobro. Pojavi se vprašanje, kako točne so takšne ocene, to je, kolikšne napake pri tem zagrešimo. Poskusimo to narediti za povprečje!

Ko opravimo N poskusov in zabeležimo njihove izide, s tem iz neskončne populacije poskusov izberemo končni vzorec. Za ta vzorec izračunamo povprečje . Pri kakem drugem vzorcu bi dobili drugačno povprečje. Mislimo si, da vzorčenje kar naprej ponavljamo. Dobimo neskončno populacijo povprečij. Kakšna je njihova povprečna vrednost ? In kakšna je njihova varianca σ2?

Povprečje povprečij

Na izmerjene vzorčne vrednosti x1 .. xN lahko pogledamo kot na uresničitev N slučajnih, med seboj neodvisnih spremenljivk X1 .. XN iz osnovne populacije. Vse so porazdeljene tako, kot osnovna spremenljivka X. Spremenljivka X1 je pri vzorčenju pač pokazala vrednost x1, pri drugem vzorcu bi pa pokazala kaj drugega. Podobno velja za druge spremenljivke. Izmerjeno povprečje pa je potem uresničitev slučajne spremenljivke = (1/N) ∑n Xn.

Kakšno je torej povprečje vzorčnih povprečij 〉 = Ave(X1 +… XN)/N)? Izpostavimo faktor 1/N izven povprečja; povprečje vsote je vsota povprečij; povprečje Xn je povprečje X; in dobimo:

(33.31)

〉 = 〈X〉 .

Povprečje vzorčnih povprečij je torej enako populacijskemu povprečju. To je dobro.

Varianca povprečij

In kakšna je varianca vzorčnih povprečij σ2 = Var((X1 + … XN)/N)? Izpostavimo faktor 1/N izven variance, pri čemer postane (1/N)2; varianca vsote je vsota varianc; varianca Xn je varianca X; in dobimo:

(33.32)

σ2 =

σX2

N

.

Vzorčna povprečja se torej stiskajo okrog populacijskega povprečja z N-krat manjšo varianco, kot je varianca posamičnih spremenljivk. Tudi to je dobro.

Porazdelitev povprečij

Vzorčno povprečje je (normirana) vsota N neodvisnih slučajnih spremenljivk z isto porazdelitvijo. To močno spominja na pot kroglice po ožlebljeni deski: ena pot, ki jo kroglica ubere, je en vzorec z N spremenljivkami, njihova vsota pa je končni odmik kroglice na dnu. Spremenljivke so "binomske", imajo samo dva izida. Vsote velikega števila binomskih spremenljivk se torej porazdelijo normalno. Morda velja to tudi za vsote velikega števila "nebinomskih" spremenljivk? Domnevamo torej

(33.33)

dP

d

∝ exp [−

1

2

(

− 〈

σ

)2] .

Ni videti lahke poti, da bi z doslej pridobljenim znanjem domnevo dokazali. Pa nič hudega: saj jo lahko utrdimo eksperimentalno. Mečemo pošteno kocko. Na stranice v mislih napišemo 1, 2, 3, 3, 4, 5. Verjetnostna porazdelitev izidov je zato P(1) = 1/6, P(2) = 1/6, P(3) = 1/3, P(4) = 1/6 in P(5) = 1/6, torej ima x〉 = 3,0 in σx = 1,7. Kocko vržemo 10-krat in dobimo prvi vzorec ter njegovo povprečje (nekje med 1,0 in 5,0). To ponovimo stokrat. Dobljenih sto povprečij porazdelimo po primerno širokih razredih. Porazdelitev se kar dobro prilega pričakovani normalni z μ = 3,0 in σ = 1,7/√10 = 0,5. Daljši vzorci in številčnejše ponovitve pokažejo še boljše prileganje. Seveda lahko kockine stranice kakorkoli oštevilčimo. Bolj kot je osnovna porazdelitev različna od normalne, daljše vzorce potrebujemo, da je njihova povprečna vrednost zadovoljivo normalno porazdeljena.

Merjenje in merske napake

Natančnost meritev

Povedano uporabimo za oceno merskih napak. Večkratna meritev kakšne količine, recimo dolžine mize, je namreč slučajno vzorčenje. Merjena dolžina je slučajna spremenljivka. Izmerjeno povprečje in varianca pa sta dve statistiki, iz katerih sklepamo na "pravo" dolžino mize. Ocenimo ≈ 〈x〉 ± σx / √N. Neznano populacijsko deviacijo σx aproksimiramo kar z znano vzorčno deviacijo sx, pa z nekaj drznosti zapišemo

(33.34)

x〉 ≈ ±

sx

N

.

Kadar je izmerkov malo, se ni treba mučiti z izračunom sx. Kar na oko ocenimo, kakšen je interval okrog povprečja, v katerega pade 2/3 izmerkov.

Izboljšanje natančnosti

Čim več je meritev, tem manjša odstopanja njihovega povprečja od prave vrednosti pričakujemo. Večkratno merjenje je torej dober način, da izboljšamo natančnost izmerka. Žal pa se z naraščanjem N povečuje N le počasi. Če hočemo natančnost povečati za faktor 10, moramo povečati število meritev za faktor 100. Pri tem pa niti ne zmanjšujemo sistematičnih napak.

Širjenje napak

Če je kakšna količina obremenjena z napako, in to je zmeraj, so tudi njene funkcije obremenjene z napakami. Rečemo, da se napake podedujejo oziroma se širijo. Kako to gre?

Na napako funkcije lahko pogledamo kot na njen diferencial. Pri funkciji ene spremenljivke je to navadni diferencial in pri funkciji več spremenljivk imamo opravka s totalnim diferencialom. Seveda pa moramo upoštevati, da so takšni diferenciali lahko pozitivni ali negativni. Tako z diferenciranjem dobimo naslednja pravila.

(33.35)

u = cx ⟹ du = |c| dx
u = x ± y ⟹ du = dx + dy
u = xy

du

|u|

=

dx

|x|

+

dy

|y|

u =

x

y

du

|u|

=

dx

|x|

+

dy

|y|

u = xn

du

|u|

= |n|

dx

|x|

u = u(x) ⟹ du = |u'| dx
u = u(x, y) ⟹ du2 = (ux dx)2 + (uy dy)2 .

Napaka vsote ali razlike je vsota napak posameznih členov. Relativna napaka produkta ali kvocienta pa je vsota relativnih napak posameznih faktorjev. Zlasti je nevarno takrat, kadar naletimo na razliko dveh približno enakih členov. Tedaj je relativna napaka lahko ogromna. Računanje odvodov je včasih zoprno. V takem primeru lahko ocenimo kar duu(x + dx) − u(x) oziroma duu(x + dx, y + dy) − u(x, y) za primerno izbrane neodvisne diferenciale.

Intervalno ocenjevanje

Ko rečemo = μ ± σ/√N, pravzaprav pravimo, da leži μ nekje na intervalu [σ/√N, + σ/√N] z verjetnostjo 0,68 in izven tega intervala z verjetnostjo 0,32. Oceno za μ pa lahko podamo bolj na splošno takole: leži na intervalu [xα, + xα] z verjetnostjo α, na primer 0.95. Kakšna je povezava med xα in α?

Verjetnostni interval

Vemo tole. Če je porazdeljen normalno kot Gμ,σ/√N, potem je Z = (μ)/(σ/√N) porazdeljena normalno kot G0,1. To pomeni, da je

(33.36)

P(−zαZ ≤ +zα ) = P(xαμ +xα ) = 2 erf(zα) = α
xα = zασ/√N .

Za vsako izbrano verjetnost α lahko izračunamo pripadajočo vrednost xα. Verjetnosti 0,68, na primer, odgovarja zα = 1, torej xα = σ/√N, kakor tudi mora biti. Verjetnosti 0,95 pa odgovarja 2-krat tolikšen interval. Če hočemo v več primerih uloviti srednjo vrednost μ, moramo pač razširiti lovilno past.

Ocena intervala

Za izračun xα moramo poznati deviacijo populacije. Te ponavadi ne poznamo, zato jo aproksimiramo kar z deviacijo vzorca. Širino intervala, ki pri 95 % vzorcev vsebuje neznano povprečje μ, torej določimo takole. Potegnemo vzorec dolžine N, iz njega izračunamo in sx ter izračunamo x0.95 = 2sx/√N. S tem je interval izračunan. Če ga hočemo prepoloviti, potrebujemo štirikrat večji vzorec.

Verjetnost, da ocenjeni interval zaupanja dejansko pokrije neznano pravo povprečje, znaša α. Rečemo, da je to stopnja zaupanja. Seveda pa tvegamo, da povprečje leži izven intervala. Verjetnost, da se to zgodi, znaša 1 − α. Rečemo, da je to stopnja tveganja.

Preizkušanje domnev

Domneva o povprečju

Vojaški zdravnik trdi, da je povprečna višina v populaciji vojakov x〉 = a. To domnevo hočemo preveriti. — Če domneva drži, vemo, da je vzorčna statistika Z = (a)/(σx/√N) porazdeljena standardno kot G0,1(Z). Ker ne poznamo populacijske deviacije, jo aproksimiramo z vzorčno deviacijo in dobimo statistiko T = (a)/(Sx/√N). Pričakujemo, da je tudi ona porazdeljena približno kot G0,1(T). To pomeni, da je na intervalu [−tα, +tα] = [−2, +2] pričakovati α = 95 % uresničitev te statistike. Da pade uresničitev izven intervala, pa pričakujemo le v 5 % vzorcev. Iz populacije torej na slepo potegnemo vzorec N vojakov in izračunamo , sx ter iz obojega t. Če pade t znotraj postavljenega intervala, nimamo kaj reči. Če pa pade t izven tega intervala, lahko to razlagamo na dva načina: (i) domneva je sicer pravilna, a smo imeli tako nesrečno roko, da smo naleteli na enega izmed tistih 5 % vzorcev; (ii) domneva je vsekekor nepravilna. Katero izmed obeh razlag izbrati? Odločimo se, da je bolj verjetna druga razlaga in domnevo zavrnemo.

Dve vrsti napak

S preizkušanjem domnev torej ne sprejemamo, ampak jo zgolj – bolj ali manj utemeljeno – zavračamo. Očitno lahko pri tem naredimo dve vrsti napak: (i) domneve ne zavrnemo, čeravno je nepravilna, (ii) domnevo zavrnemo, čeravno je pravilna. Kadar ima zavračanje domneve hude posledice, hočemo biti nadvse gotovi, da jo zavračamo utemeljeno. Takrat gledamo interval [−3, +3] in ustrezno verjetnost 99,8 %.

Ko zavračamo domnevo, moramo vsekekor povedati, pri kakšni stopnji tveganja 1 − α to počnemo. Tako rečemo, da smo domnevo zavrnili pri stopnji tveganja 5 %, oziroma da se vzorčni podatki statistično značilno razlikujejo od domneve pri tej stopnji tveganja. Stopnja tveganja pove, kolikšna je verjetnost, da smo domnevo zavrnili, čeravno je pravilna.

Druge domneve

Domnevamo, da lahko na podoben način zavračamo najrazličnejše domneve o populacijah, na primer: (i) varianca porazdelitve je enaka neki vrednosti; (ii) povprečji dveh porazdelitev sta enaki; (iii) varianci dveh porazdelitev sta enaki; (iv) porazdelitvi sta enaki; in še kaj. Postopek je vedno enak: postaviti moramo ustrezno cenilko in zanjo določiti porazdelitev. Potem pogledamo, kako verjetna je dejanska uresničitev cenilke in se glede na to odločamo. Vse to je seveda lažje reči kot narediti. Podrobnejšo obravnavo zato prepustimo tistim, ki to potrebujejo.

Regresijska analiza

Soodvisnost dveh spremenljivk, tabeliranih v N parih (xn, yn) lahko aproksimiramo s premico, ki se jima "najbolj prilega". Najboljše prileganje definiramo takole: vsota kvadratov odmikov ene spremenljivke od premice naj bo minimalna. Minimiziramo lahko odmike yn ali xn; v splošnem se dobljeni premici razlikujeta. Najbolje je minimizirati odmike tiste spremenljivke, ki ima večjo deviacijo. Naj bo to spremenljivka y. Zaradi preprostosti še privzamemo, da so deviacije spremenljivke x enake nič.

[Kajenje]

Slika 33.7. Povezava med kajenjem in rakom. Za 44 ameriških držav je bilo določeno, koliko cigaret na prebivalca je bilo prodanih v letu 1960 in koliko smrti na 100 tisoč prebivalcev zaradi raka na mehurju je bilo zabeleženih v istem letu. (J. Fraumeni.)

Določitev koeficientov

Iščemo torej funkcijo

(33.37)

y* = A + Bx

tako, da bo ∑ (y*nyn)2 = ∑ (A + Bxnyn)2 = Q(A, B) minimalen. Postavimo Q/∂A = 0 in Q/∂B = 0, s čimer pridelamo dve linearni enačbi z dvema neznankama A in B: AN + Bxn = ∑ yn in Axn + Bxn2 = ∑ xnyn. Iz enačb izračunamo obe neznanki in s tem je regresijska premica določena:

(33.38)

A =

(∑ xn2)(∑ yn) − (∑ xn)(∑ xnyn)

Δ

B =

N(∑ xnyn) − (∑ xn) (∑ yn)

Δ

Δ = N(∑ xn2) − (∑ xn)2.

Ocena napak

Vzorčne vrednosti yn imamo lahko za uresničitev slučajnih spremenljivk Yn. Predpostavimo, da je vsaka izmed teh spremenljivk porazdeljena normalno okrog svoje srednje vrednosti A + Bxn z isto "lokalno" deviacijo σ. Zato so vse spremenljivke YnABxn porazdeljene normalno kot G0,σ. Iz tega sklepamo, da je dobra ocena za lokalne deviacije kar enaka "globalni" deviaciji

(33.39)

sy2 =

1

N

(ynABxn)2 .

Parametra A in B sta čisti funkciji izmerkov y1 .. yN. Zato sta njuni deviaciji oz. napaki sA in sB določeni kar z deviacijami oz. napakami sy slednjih. V obrazec za propagacijo napak sA2 = ∑ (∂A/∂yn · sy)2 vstavimo A/∂yn = [(∑ xn2) − xn(∑ xn)]/Δ in dobimo, po nekaj računanja,

(33.40)

sA2 = sy2xn2 / Δ
sB2 = sy2 N / Δ .

Podobno obravnavamo tudi linearno regresijo več spremenljivk. Kogar to veseli, pa se lahko loti celo nelinearne regresije.

Statistično zavajanje

Pravijo, da obstajajo tri vrste laži: navadna laž, huda laž in statistika. Nedvomno je res, da je statistika močno orodje za raziskavo množice podatkov, če jo seveda prav uporabljamo. Je pa tudi res, da se jo da zlorabiti na najrazličnejše načine. Pogosto to počno politiki in prodajalci. Kakšni so njihovi glavni načini zavajanja?

Majhen vzorec

Osnova statistike je vzorčenje. Vzorec mora biti dovolj velik, da iz njega lahko karkoli sklepamo. Beremo recimo, da se 33,3 % študentk na univerzi N. N. poroči s svojimi profesorji. Natančne številke in decimalna mesta sugerirajo, da raziskovalec ve, o čem govori. Surove številke pa govorijo drugače: v obdobju raziskave so bile na univerzi vpisane tri študentke, od katerih se je ena poročila s profesorjem.

Neslučajen vzorec

Vzorec mora biti tudi slučajen. Ko anketiramo ljudi, mora imeti vsak človek enako verjetnost, da ga izberemo. Beremo recimo, da 73 % Slovencev nasprotuje smrtni kazni. Vprašamo se: katerih Slovencev? Pokaže se, da je raziskavo naredil levičarski časopis N. N. preko vprašalnikov, ki jih je kar priložil časopisu. Ta časopis kupujejo pretežno levičarji in ti imajo bolj odklonilen odnos do smrtne kazni kot desničarji. Sklepanje na celotno populacijo je povsem neutemeljeno.

Golo povprečje

Povprečje nič ne pove o razpršenosti izmerkov okrog njega. Podjetje N. N. na primer objavi, da znaša povprečna mesečna plača njihovega delavca solidnih 3000 dolarjev. Lepo in prav, dokler ne odkrijemo, da je v podjetju zaposlenih 9 delavcev in en direktor. Direktor ima 21.000 dolarjev plače in delavci po mizernih 1000 dolarjev. Skoraj vsakdo je pod navedenim povprečjem!

Korelacija kot vzrok

Korelacija ne pomeni vzročne odvisnosti. Študentje, ki kadijo, imajo nižje ocene. To je verodostojno statistično dokazano. Torej kajenje povzroča slabe ocene? Morda celo otopi možgane? Nič od tega: če gresta kajenje in slabe ocene skupaj, to še ne pomeni, da kajenje povzroča slabe ocene. Morda je ravno obratno: slabe ocene silijo študente h kajenju. Ali pa nobeno ne povzroča drugega, marveč je oboje posledica kakega tretjega vzroka. Je morda tako, da družabni ljudje, ki ne jemljejo preveč resno knjig, hkrati tudi kadijo več?

Obrezani grafi

Kako cene rastejo, najlepše pokažemo z grafom. Recimo, da kakšna cena v desetih letih naraste od 100 na 110 dolarjev. Na grafu z višino 5 cm, ki ima navpično os oštevilčeno od 0 do 120, je rast cene zelo položna krivulja. Morda nam to ni všeč? Odrežimo spodnji in zgornji del grafa (z izgovorom, da sta itak prazna) ter prikažimo zgolj navpični interval med 100 in 110 dolarji, seveda raztegnjen na isto višino. Mnogo bolje! Graf je sedaj zelo strma krivulja, ki kar kriči, kakšen hud porast cen se je zgodil. Nič ni bilo ponarejenega – razen vtisa, ki ga graf zapusti. Podobno lahko polepšamo tudi druge vrste grafov.

Obramba

Kako si pomagamo, da nas takšne "statistike" in sklepi iz njih ne zavedejo? Tako, da odgovorimo na nekaj vprašanj. Kdo to pravi? Kako to ve? Kaj vse manjka (velikost vzorca, način vzorčenja, povprečje brez deviacije, testiranje domnev brez stopnje tveganja, korelacijski parametri brez ocenjenih napak, grafi brez meril)? Ali je vse skupaj smiselno? Nikoli pa tudi ne smemo pozabiti, da je statistika vredna zgolj toliko, kot so verodostojni podatki, na katerih sloni. □

M. Divjak