Carte Elemente de teoria probabilitatilor

152
CONSTANTIN POPP NICOLETA GILLICH VILHELM ION PRAISACH ELEMENTE DE TEORIA PROBABILITĂŢILOR şi STATISTICĂ MATEMATICĂ EDITURA „EFTIMIE MURGU” REŞIŢA, 1998 f(x) 0 x -

Transcript of Carte Elemente de teoria probabilitatilor

Page 1: Carte Elemente de teoria probabilitatilor

CONSTANTIN POPP

NICOLETA GILLICH VILHELM ION PRAISACH

ELEMENTE DE

TEORIA PROBABILITĂŢILOR şi

STATISTICĂ MATEMATICĂ

EDITURA „EFTIMIE MURGU”

REŞIŢA, 1998

f(x)

0 x -� �

Page 2: Carte Elemente de teoria probabilitatilor

2 Cuprins

CUPRINS

PREFAŢĂ ..................................................................................................................... 6

ELEMENTE DE TEORIA PROBABILITĂŢILOR

Capitolul 1 Noţiuni introductive ............................................................................ 8

1.1. Câmp de evenimente....................................................................................... 8

1.2. Noţiunea de probabilitate.............................................................................. 10

Capitolul 2 Câmp de probabilitate....................................................................... 13

2.1. Definiţie şi proprietăţi................................................................................... 13

2.2. Probabilităţi condiţionate. Evenimente independente. ................................. 13

2.3. Probabilitatea reuniunii evenimentelor compatibile..................................... 15

2.4. Probabilitatea intersecţiei evenimentelor dependente .................................. 15

2.5. Formula probabilităţii totale şi formula lui Bayes........................................ 16

2.6. Scheme probabilistice clasice....................................................................... 18

2.6.1. Schema bilei nerevenite......................................................................... 18

2.6.2. Schema bilei revenite............................................................................. 18

2.6.3. Schema lui Poisson................................................................................ 20

2.7. Probleme rezolvate ....................................................................................... 20

Capitolul 3 Variabile aleatoare ............................................................................ 27

3.1. Variabile aleatoare discrete. Definiţie şi exemple. ....................................... 27

3.2. Operaţii cu variabile aleatoare discrete ........................................................ 28

3.3. Variabile aleatoare continue ......................................................................... 30

3.4. Funcţia de repartiţie ...................................................................................... 31

3.4.1.Funcţia de repartiţie pentru variabila aleatoare discretă......................... 32

3.4.2.Funcţia de repartiţie pentru variabila continuă ....................................... 34

3.5. Funcţia de repartiţie bidimensională ............................................................ 36

3.6. Grafice pentru variabile aleatoare ................................................................ 37

3.6.1.Pentru v.a. discretă.................................................................................. 37

3.6.2.Pentru v.a. continuă, ............................................................................... 38

3.7. Probleme rezolvate ....................................................................................... 39

Capitolul 4 Caracteristici numerice ale variabilelor aleatoare ......................... 43

4.1. Caracteristici de grupare............................................................................... 43

4.1.1.Valoarea medie ....................................................................................... 43

4.1.2. Valoarea mediană .................................................................................. 44

Page 3: Carte Elemente de teoria probabilitatilor

4.1.3.Cuantile. ................................................................................................. 45

4.1.4.Valoarea modală..................................................................................... 46

4.1.5.Momente şi medii de ordin superior. ..................................................... 47

4.2.Caracteristici de împrăştiere.......................................................................... 48

4.2.1.Variabila abatere. Abaterea absolută medie........................................... 49

4.2.2.Dispersia. Abaterea medie pătratică....................................................... 50

4.2.3.Momente centrate (medii centrate). Covarianţa..................................... 51

4.2.4.Normata unei variabile aleatoare............................................................ 52

4.3.Caracteristici care dau informaţii privind forma distribuţiei......................... 53

4.4.Corelaţie şi regresie....................................................................................... 54

4.4.1.Proprietăţile coeficientului de corelaţie : ............................................... 55

4.4.2.Funcţia de regresie ................................................................................. 56

4.5. Probleme rezolvate ....................................................................................... 58

Capitolul 5 Funcţie caracteristică şi funcţie generatoare.................................. 63

5.1. Definiţia funcţiei caracteristice. Proprietăţi. ................................................ 63

5.2. Funcţie generatoare ...................................................................................... 64

5.3. Teorema de inversiune şi teorema de unicitate ............................................ 65

5.4. Probleme rezolvate ....................................................................................... 66

Capitolul 6 Repartiţii probabilistice clasice discrete ......................................... 70

6.1. Repartiţia binomială sau repartiţia lui Bernoulli. ......................................... 70

6.2. Repartiţia multinomială................................................................................ 71

6.3. Repartiţia binomială cu exponent negativ.................................................... 72

6.4. Repartiţia hipergeometrică ........................................................................... 73

6.5. Repartiţia Poisson......................................................................................... 74

6.6. Repartiţia geometrică ................................................................................... 76

Capitolul 7 Repartiţii probabilistice clasice continue ........................................ 77

7.1. Repartiţia uniformă ...................................................................................... 77

7.2. Repartiţia normală ........................................................................................ 79

7.3. Repartiţia normală normată .......................................................................... 82

7.4. Repartiţia lognormală ................................................................................... 84

7.5. Repartiţia gamma. ........................................................................................ 85

7.6. Repartiţia beta .............................................................................................. 88

7.6.1.Cazuri particulare .................................................................................. 90

Page 4: Carte Elemente de teoria probabilitatilor

4 Cuprins

7.7. Repartiţia exponenţială negativă .................................................................. 91

7.8. Repartiţia Weibull......................................................................................... 92

7.9. Repartiţia Erlang........................................................................................... 94

7.10. Repartiţia � 2 (hi – pătrat) ......................................................................... 94

7.10.1.Cazuri particulare de repartiţii � 2 ....................................................... 97

7.11. Repartiţia „t” (Student)............................................................................... 97

7.12. Repartiţia Snedecor................................................................................... 100

7.13. Repartiţia Fischer...................................................................................... 101

7.14. Repartiţia Cauchy ..................................................................................... 102

7.15. Probleme rezolvate .................................................................................. 102

Capitolul 8 Teoreme şi legi în teoria probabilităţilor....................................... 105

8.1. Inegalitatea lui Cebîşev .............................................................................. 105

8.2. Convergenţa şirurilor de variabile aleatoare............................................... 106

8.2.1. Convergenţa în probabilitate ............................................................... 106

8.2.2. Convergenţa tare.................................................................................. 106

8.2.3. Convergenţa în medie de ordinul r ...................................................... 107

8.2.4. Convergenţa în repartiţie ..................................................................... 107

8.3. Legea numerelor mari. Legi limită ............................................................. 108

8.3.1. Problema limită centrală ...................................................................... 113

8.3.2. Teorema limită centrală a lui Leapunov .............................................. 115

8.4. Probleme rezolvate .................................................................................... 116

Capitolul 9 Procese stochastic. Elemente de teoria fiabilităţii. ....................... 120

9.1. Noţiunea de proces stochastic..................................................................... 120

9.2. Elemente de teoria fiabilităţii ..................................................................... 122

9.2.1. Timpul de funcţionare până la prima defecţiune. ................................ 123

9.2.2. Funcţia risc de defectare. ..................................................................... 124

9.2.3. Siguranţa sistemelor cu elemente legate în serie ................................. 125

9.2.4. Siguranţa sistemelor cu elemente legate în paralel.............................. 126

STATISTICĂ MATEMATICĂ

Capitolul 10 Teoria selecţiei. Teoria estimaţiei. Ajustarea legilor de distribuţie.

...................................................................................................................................... 127

10.1. Teoria selecţiei.......................................................................................... 127

10.1.1. Noţiuni introductive........................................................................... 127

Page 5: Carte Elemente de teoria probabilitatilor

10.1.2. Funcţia de repartiţie de selecţie......................................................... 129

10.2 Teoria estimaţiei ........................................................................................ 130

10.2.1. Estimatori punctuali. ......................................................................... 130

10.2.2. Estimarea prin intervale de încredere................................................ 137

10.3 Ajustarea legilor de distribuţie. Metode empirice..................................... 142

10.3.1. Forma histogramei............................................................................. 143

10.3.2. Verificarea unor proprietăţi matematice. .......................................... 143

10.3.3. Ajustarea grafică. .............................................................................. 143

10.3.4. Aplicaţii ............................................................................................. 145

ANEXE ..................................................................................................................... 147

Anexa 1. Distribuţia normală. Valorile funcţiei � (x)...................................... 147

Anexa 2. Funcţia � a lui Euler............................................................................ 148

Anexa 3. Distribuţia student............................................................................... 149

Anexa 4. Lista programelor MathCad folosite pentru generarea valorilor .. 150

BIBLIOGRAFIE ...................................................................................................... 151

Page 6: Carte Elemente de teoria probabilitatilor

6 Eroare! Legătură incorectă.

PREFA[~

Evoluţia cercetării ştiinţifice prezintă tendinţe de integrare atestate de

apariţia unor discipline a căror vocaţie este identificarea notelor de unitate

şi sinteză. În acest context, teoria probabilităţilor şi statistica matematică

acţionează ca un liant între disciplinele fizice, tehnice şi socio-umane,

validând descrierea generală şi abstractă a fenomenelor, furnizând astfel

ştiinţelor instrumente de lucru şi cadre conceptuale.

Fundamente ale calculului probabilităţilor au fost statuate în secolul al

XVII- lea de savanţii B. Pascal şi P. Fermat care au formulat definiţia

clasică a probabilităţii, fiind şi astăzi singura folosită în practică pentru

determinarea numerică a probabilităţii producerii unui eveniment.

În anul 1933, A.N. Kolmogorov a realizat o axiomatizare a noţiunii de

probabilitate, calculul probabilităţilor devenind un capitol al teoriei măsurii

iar probabilitatea o măsură normată.

Obiectivul fundamental al teoriei probabilităţilor constă în determinarea

legăturii pe care această ştiinţă abstractă o are cu lumea reală. Această

problemă a fost în atenţia primilor probabilişti, dintre care J.Bernoulli a

formulat „legea numerelor mari” şi a definit „speranţa matematică

normală”.

Apariţia tratatului lui Laplace „Teoria analitică a probabilităţilor”

(1813) certifică faptul că la începutul secolului al XIX-lea această teorie era

complet consolidată şi avea în vedere multiple aplicaţii în ştiinţă şi tehnică,

în economie şi în alte domenii.

Page 7: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 7

În anii care au urmat au fost studiate aproape toate distribuţiile clasice

(Bernoulli, Poisson, Gauss, Laplace etc.), au fost rezolvate teoremele limită

centrale pentru diferite şiruri de variabile, s-au definit tipurile de

convergenţă aleatoare iar Markov a descoperit „lanţurile" care îi poartă

numele. În deceniile premergătoare axiomatizării teoriei probabilităţilor,

K.Pearson şi R.A.Fischer vor pune bazele statisticii matematice actuale.

Studiul teoriei probabilităţilor în epoca clasică s-a limitat pentru

câmpurile finite de probabilitate, epoca actuală extinzând această teorie şi

la nivelul câmpurilor infinite.

Prezenta lucrare, alcătuită din două părţi distincte – probabilităţi şi

statistică matematică – este structurată în zece capitole, fiecare capitol fiind

însoţit de exemple şi probleme rezolvate care facilitează asimilarea

noţiunilor tratate.

Conţinutul lucrării reflectă elemente ale programelor analitice aferente

cursurilor de „Probabilităţi şi statistică matematică” şi „Matematici pentru

economişti” predate de autori la facultăţile din cadrul Universităţii „Eftimie

Murgu” din Reşiţa, dar considerăm că poate fi utilă şi cadrelor didactice

sau cercetătorilor cu preocupări în acest domeniu.

Autorii îşi exprimă gratitudinea şi aduc mulţumiri domnilor referenţi

ştiinţifici : prof.dr.ing. Corneliu Velicescu de la Facultatea de Electrotehnică

a Universităţii Tehnice Timişoara, prof.dr.ing. Ştefan Gârlaşu şi conf.dr.

Liviu Spătaru de la Universitatea „Eftimie Murgu” din Reşiţa, care prin

observaţiile pertinente au contribuit cu certitudine la creşterea nivelului

calitativ al lucrării noastre.

Autorii

Page 8: Carte Elemente de teoria probabilitatilor

8 Eroare! Legătură incorectă.

ELEMENTE DE TEORIA PROBABILITĂŢILOR

Capitolul 1 Noţiuni introductive

1.1. Câmp de evenimente

Se numeşte experienţă orice realizare a unui complex de condiţii, σ, bine precizat.

Prin efectuarea unei experienţe se înţelege alegerea unui element dintr-o mulţime dată,

printr-un procedeu susceptibil de a fi repetat.

O anumită realizare efectuată sau viitoare, a unei experienţe, se numeşte probă. Deci,

proba nu se confundă cu experienţa însăşi ci cu unul din rezultatele sale previzibile.

Uneori, în loc de probe ale unei experienţe, vom spune cazuri posibile ale experienţei.

În legătură cu o experienţă aleatoare (întâmplătoare) ne putem pune o serie de

întrebări ale căror răspunsuri nu le putem cunoaşte decât după efectuarea experienţei.

Toate situaţiile legate de o experienţă aleatoare şi despre care putem afirma cu certitudine

că s-au produs sau nu după efectuarea experienţei, le vom numi evenimente.

Evenimentul care poate fi realizat de o probă şi numai de una se numeşte eveniment

elementar. Celelalte evenimente (care nu sunt elementare) le vom numi evenimente

compuse.

Experienţele se împart în două categorii : cu un număr finit de rezultate posibile (sau

probe) şi cu o infinitate de cazuri posibile. De exemplu, aruncarea zarului este o

experienţă cu un număr finit de cazuri posibile (6). Are şase evenimente elementare, dar

poate avea şi altele (de pildă sau faţa 6 sau faţa 3, sau una din feţele 2, 3, 5, etc.). Numărul

total de evenimente este C C C60

61

66 62 64+ + + = =K .

O mulţime de evenimente care pot apărea într-o anumită experienţă, se numeşte

sistem de evenimente şi poate fi finit sau infinit, după cum conţine un număr finit sau

infinit de evenimente.

Evenimentul poate fi sigur (total) dacă se realizează cu certitudine la fiecare efectuare

a experienţei sau imposibil dacă nu se realizează la nici o efectuare a experienţei.

Evenimentele se notează de obicei cu litere mari ale alfabetului latin : A, B, C, … .

Evenimentul sigur se notează cu E, iar evenimentul imposibil cu Φ.

Fiecărui eveniment A îi corespunde evenimentul contrar (opus sau complementar)

notat A sau CA. Evident că E = Φ şi Φ = E . Dacă B A= atunci şi A B= .

Page 9: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 9

Implicaţia unui eveniment de către alt eveniment. Zicem că evenimentul A implică

evenimentul B (A⊂B) dacă B se realizează de fiecare dată când se realizează A. În caz

contrar se va scrie : A⊄B.

Proprietăţile implicaţiei 1. A⊂A (reflexivitate)

2. A⊂E, (∀)A (ultimul element)

3. Dacă A⊂B şi B⊂C, atunci A⊂C (tranzitivitate)

4. Φ⊂A, (∀)A (primul element)

5. Dacă A⊂B şi B⊂A atunci A=B, adică sunt echivalente (antisimetrie)

Reuniunea a două evenimente. Dacă A şi B sunt evenimente legate de aceeaşi

experienţă, atunci A∪B este evenimentul care constă în realizarea cel puţin a unuia din

cele două evenimente (se citeşte : A sau B).

Proprietăţile reuniunii 1. A∪B=B∪A (comutativitate)

2. (A∪B) ∪C=A∪(B∪C) (asociativitate)

3. A⊂A∪B, B⊂A∪B

4. A∪A=A (idempotenţa)

5. A∪E=E (proprietăţile ultimului element)

6. A∪Φ=A (proprietăţile primului element)

Intersecţia a două evenimente : A∩B este evenimentul care constă în realizarea

ambelor evenimente (se citeşte A şi B).

Evenimente compatibile. Două evenimente A şi B sunt compatibile dacă se pot realiza

simultan, adică dacă există probe comune care realizează atât pe A cât şi pe B (A∩B≠Φ).

În caz contrar evenimentele sunt incompatibile (A∩B=Φ, adică sunt disjuncte).

Proprietăţile intersecţiei 1. A∩B=B∩A (comutativitate)

2. (A∩B) ∩C=A∩(B∩C) (asociativitate)

3. A∩(B∪C)=(A∩B) ∪(A∩C) (distributivitate)

Page 10: Carte Elemente de teoria probabilitatilor

10 Eroare! Legătură incorectă.

Definiţia 1. Fie E o mulţime nevidă. (E≠Φ) şi K o familie nevidă de părţi ale lui E.

Cuplul (E,K) se numeşte câmp de evenimente (finit sau infinit) dacă K verifică axiomele

unui trib (algebră) respectiv a unui trib borelian (σ- algebră) :

a) E∈K, Φ∈ K

b) ( )∀ ∈ ⇒ ∈A AK K

c) A, B∈ K⇒A∪B∈ K, A∩B∈ K

d) A, B∈ K, A⊂B⇒B\A∈ K unde B \ A = B A∩ (diferenţa)

e) Dacă K este infinit şi Ai∈ K, i∈N⇒ A , Ai i11

∈ ∈∞∞

K KIU

Definiţia 2. Sistemul de evenimente { }B i = 1,n Bi i, , ∈K , se numeşte sistem complet

de evenimente dacă : B B B (i j), B Ei i j i1

n

≠ = ≠ =0, Φ UI .

Definiţia 3. Un eveniment A∈ K se numeşte eveniment compus dacă există două

evenimente B, C∈ K \{Φ} diferite de A astfel încât A=B∪C. Un eveniment care nu este

compus şi nu este imposibil, se numeşte eveniment elementar sau atom.

1.2. Noţiunea de probabilitate

Vom caracteriza printr-un număr raţional 0≤p≤1, gradul de realizare (şansa realizării)

al fiecărui eveniment A dintr-un câmp de evenimente K. Un astfel de număr notat P(A) se

va numi probabilitatea evenimentului A.

1. Definiţia statistică : P(A) = lim f A), unde f A) =nnn n nA

→∞( ( se numeşte frecvenţa

relativă a evenimentului A într-o serie de n repetări a unei experienţe ; nA este numărul

apariţiei evenimentului A în cele n încercări.

2. Definiţia clasică : P(A)mn

= ; m este numărul de cazuri favorabile producerii

evenimentului A iar n este numărul cazurilor posibile, în ipoteza că toate cazurile sunt

posibile.

Page 11: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 11

Această definiţie reduce noţiunea de probabilitate la noţiunea de egal probabilitate de

apariţie a evenimentelor elementare, care fiind admisă ca noţiune primară nu poate fi

definită riguros matematic. Se presupune că mulţimea evenimentelor ataşate unei

experienţe poate fi construită prin operaţia de reuniune a unor evenimente egal posibile.

Definiţia clasică este insuficientă deoarece se aplică numai pentru câmpuri finite de

evenimente, unde chiar şi pentru acestea nu întotdeauna se poate vorbi de cazuri egal

posibile (de exemplu zarul nu este perfect simetric).

3. Definiţia geometrică extinde noţiunea de probabilitate în cazul câmpurilor infinite.

Astfel, fie Ω o mulţime măsurabilă a unui spaţiu euclidian n-dimensional, a cărei măsură

Lebesgue n-dimensională este pozitivă şi finită. Notăm L∩Ω clasa de părţi măsurabile ale

lui Ω şi μ(A) măsura Lebesgue a mulţimii măsurabile A∈ L∩Ω. Se aruncă la întâmplare

un punct în mulţimea Ω şi se cere să se determine probabilitatea ca punctul respectiv să

cadă în mulţimea A. Se intuieşte că probabilitatea căutată este proporţională cu măsura

mulţimii μ(A) - măsura mulţimii A şi nu depinde de forma şi aşezarea lui A, adică prin

definiţie :

P(A) =(A)( )

μμ Ω

Această probabilitate verifică proprietăţile observate atât la frecvenţa relativă cât şi la

probabilitatea dată prin definiţia clasică. De multe ori se consideră în aplicaţii cazul când

Ω=[a,b] al dreptei reale, iar A este un subinterval închis [a’,b’]. Atunci :

P(A) =b'-a'b - a

4. Definiţia axiomatică. Kolmogorov în anul 1931 pune bazele axiomatice ale teoriei

probabilităţilor, în strânsă legătură cu teoria măsurii şi teoria funcţiilor de variabile

reale.

Numim probabilitate pe un câmp de evenimente (E,K), o funcţie P:K→[0,1] cu

proprietăţile :

1. P(E)=1

2. A , n ; A A m n P A P(An n m n1

n∈ ∈ = ≠⎛⎝⎜

⎞⎠⎟ =

∞ ∞

∑K N Φ, )I U1

Page 12: Carte Elemente de teoria probabilitatilor

12 Eroare! Legătură incorectă.

Din definiţie rezultă că o probabilitate nu este altceva decât o măsură pozitivă

normată (ia valori numai în [0,1]) definită pe un trib (respectiv trib borelian). Dacă E este

o mulţime finită, rolul lui K este jucat de P(E) - mulţimea părţilor lui E, pentru că de

obicei în tratarea ansamblistă atomii se reduc la elementele e∈E numite evenimente

elementare.

Dacă (E,K) este un câmp finit de evenimente, ale cărui evenimente elementare sunt

{e1, e2, …, en}=E, din definiţia axiomatică rezultă :

P(e i = 1,n P(e P(E) = 1i i1

n

) , ; )≥ =∑0

Dacă P(e1)=P(e2)=…=P(en) spunem că evenimentele elementare ei sunt egal

probabile şi în acest caz deducem : P(en

i = 1,ni ) ,=1

Dacă A∈ K oarecare, A = e e ei i i1 2 mKUUU , avem :

P(A) = P e P(e , deci P(A) =mni

r =1

m

ir rU⎛⎝⎜

⎞⎠⎟ =

=∑ )r

m

1,

adică raportul dintre numărul evenimentelor elementare favorabile evenimentului dat şi

numărul total de evenimente elementare ale câmpului.

Astfel definiţia clasică a probabilităţii este conţinută, ca un caz particular, în definiţia

axiomatică.

Page 13: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 13

Capitolul 2 Câmp de probabilitate

2.1. Definiţie şi proprietăţi

Fie (E, K) un câmp finit sau infinit de evenimente şi P o probabilitate pe (E, K).

Un triplet {E, K, P} se numeşte câmp de probabilitate.

Dacă (E, K) este infinit, atunci {E, K, P} se numeşte câmp borelian de probabilitate.

Proprietăţi: 1. P(Φ)=0

2. P(A) = 1- P(A , ( )A) ∀ ∈K

3. P(B\A)=P(B)-P(A), (∀)A,B∈K, A⊆B, iar în general :

P(B\A)=P(B)-P(A∩B)

4. P(A)≤P(B) dacă A⊆B ; A,B∈ K

5. 0≤P(A) ≤1, (∀)A∈ K

6. P(A∪B)=P(A)+P(B)- P(A∩B), (∀)A,B∈K (formula lui Poincaré)

7. { }P A P(A ( ) An1

n n

∞⎛⎝⎜

⎞⎠⎟ ≤ ∀ ⊂∑U ),

n NK

1

Pentru studiul câmpurilor infinite este util ca evenimentele câmpului să fie

reprezentate prin mulţimi de puncte din spaţiul Rn.

2.2. Probabilităţi condiţionate. Evenimente independente.

Fie o urnă care are n bile dintre care unele marcate cu litera A în număr de a, altele

notate cu B în număr de b şi în sfârşit unele notate cu A şi B în număr de c. Notăm cu A

(respectiv B) evenimentul de a extrage o bilă marcată cu A (respectiv B). Se cere

probabilitatea evenimentului B, în ipoteza că evenimentul A s-a produs. Vom avea :

P B P B Ac

a c

cn

a cn

P A BP AA ( ) ( / )

( )( )

= =+

= + =I

Page 14: Carte Elemente de teoria probabilitatilor

14 Eroare! Legătură incorectă.

Prin faptul că evenimentul A s-a produs, se modifică complexul de condiţii în care

mai poate să apară evenimentul B şi prin urmare producerea lui A influenţează

producerea lui B a cărui probabilitate de apariţie la început a fost P Bb c

n( ) =

+.

Acest exemplu sugerează următoarea definiţie :

Fie {E, K, P} un câmp borelian de probabilitate şi A,B∈K cu P(A)≠0. Se numeşte

probabilitate a evenimentului B condiţionată de evenimentul A (sau probabilitatea lui B în

raport cu A) expresia :

P B P B AP A B

P AA ( ) ( / )( )

( )= =

I ( 1.2.1)

Remarcă : Faptul că tripletul {E, K, P} este un câmp borelian de probabilitate arată

că PA:K→[0,1] este o probabilitate.

În adevăr, deoarece A∩E=A rezultă :

P EP A E

P AP AP AA ( )

( )( )

( )( )

= = =I 1

Dacă Ai∈K,, AI∩Aj=Φ (i≠j) atunci : (A∩Ai)∩(A∩Aj)= Φ şi deci :

P AP A A

P A

P A A

P AP AA i

i i

A i1

1 1

1

∞ ∞

∞⎛⎝⎜

⎞⎠⎟ =

⎛⎝⎜

⎞⎠⎟

⎝⎜

⎠⎟

=

⎛⎝⎜

⎞⎠⎟

= ∑UUI IU

( )

( )

( )( )

Să considerăm în continuare experienţa aruncării unei monede de două ori. Notăm cu

A evenimentul apariţiei stemei la prima aruncare şi cu B la a doua aruncare. Avem

P(A)=1/2, P(B)=1/2.

Pentru evenimentul A∩B se prezintă un singur caz favorabil din cele patru posibile :

(1,1), (1,2), (2,1), (2,2). Deci : P A B P A P B( ) ( ) ( )= = ⋅ = ⋅14

12

12I

Apariţia feţei cu stemă, la a doua aruncare este independentă de apariţia unei feţe sau

a celeilalte la prima aruncare. Rezultă astfel următoarea definiţie :

Două evenimente A,B∈K se numesc independente dacă :

P(A∩B)=P(A)⋅P(B) (2.2)

Din (2.1) rezultă o definiţie echivalentă a evenimentelor independente :

Page 15: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 15

PB(A)=P(A) dacă P(B)≠0 sau PA(B)=P(B) dacă P(A)≠0 (2.3)

De asemenea este evident că dacă P(A) ≠0, P(B) ≠0 atunci :

P(B) ⋅PB(A)= P(A) ⋅PA(B) (2.4)

Generalizând, două sisteme complete de evenimente {A1,A2,…,An} şi {B1,B2,…,Bn}

ale câmpului {E, K, P} sunt independente dacă :

P A B P A P B i m j ni j i j( ) ( ) ( ); , , ,I = ⋅ = =1 1 (2.5)

2.3. Probabilitatea reuniunii evenimentelor compatibile

Se ştie că dacă A,B∈K sunt incompatibile (A∩B=Φ) atunci :

P(A∪B)=P(A)+P(B) (2.6)

Ne propunem să calculăm P(A∪B) în cazul când A∩B≠Φ :

A∪B=[A\(A∩B)]∪[A∩B]∪[B\(A∩B)],

în care evenimentele din parantezele mari sunt incompatibile două câte două.

P(A∪B)=P[A\(A∩B)]+P[A∩B]+P[B\(A∩B)]=P(A)-P(A∩B)+P(A∩B)+P(B)-P(A∩B).

Deci :

P(A∪B)=P(A)+P(B)-P(A∩B) (2.7)

Prin recurenţă, formula se poate extinde la n evenimente (formula lui Poincaré) :

P A P A P A A P A A Ai

n

ii ji j

n

i ji j ki j k

n

i j k

n

1 1 11U I I I K

⎛⎝⎜

⎞⎠⎟ = − + +

=<

=< <

∑ ∑∑ ( ) ( ) ( ), , ,

+ −⎛⎝⎜

⎞⎠⎟−

=( )1 1

1

ni

i

n

P AI

(2.8)

2.4. Probabilitatea intersecţiei evenimentelor dependente

Dacă A1,…,An sunt independente, atunci :

P A P A P A P Aii

n

n=

⎛⎝⎜

⎞⎠⎟ = ⋅ ⋅ ⋅

11 2I K( ) ( ) ( )

(2.9)

În general, când Ai sunt dependente se poate demonstra prin inducţie următoarea

formulă de înmulţire a probabilităţilor :

Page 16: Carte Elemente de teoria probabilitatilor

16 Eroare! Legătură incorectă.

( )P A P A P A A P A A A P A Aii

n

n ii

n

= =

−⎛⎝⎜

⎞⎠⎟ = ⋅ ⋅ ⋅ ⋅

⎛⎝⎜

⎞⎠⎟

11 2 1 3 1 2

1

1

I I IK( ) ( / ) (2.10)

unde : A i ni ∈ =⎛⎝⎜

⎞⎠⎟ ≠K , ,1 0 şi P Ai

1

n-1

I . În practică, de obicei nu se calculează P Aii

n

=

⎛⎝⎜

⎞⎠⎟

1I

ci o margine inferioară a sa, dată de inegalitatea lui Boole :

P A P A nii

n

i

n

=

⎛⎝⎜

⎞⎠⎟ ≥ − −∑

1 11I ( ) ( ) ,

(2.11)

care se poate demonstra prin inducţie, observând că :

P(A∩B)=P(A)+P(B)-P(A∪B)≥P(A)+P(B)-1, deoarece P(A∪B)≤1.

2.5. Formula probabilităţii totale şi formula lui Bayes

Fie {B1, B2, …, Bn} un sistem complet de evenimente ale câmpului de probabilitate

{E,K,P}. Avem deci : E B B i ji i i j

n

= ∈ = ≠, B B K , ( )IU Φ1

.

Dacă A este un eveniment oarecare, atunci :

A A E A B A Bi

n

i

n

= =⎛⎝⎜

⎞⎠⎟ =

1 1UI IUI ( ) ,

unde : (A∩Bi)∩(A∩Bj)=Φ, i≠j. Deci :

( ) ( )P A P A B P A Bi

n n

i( ) =⎡

⎣⎢

⎦⎥ = ∑IU I

1 1.

Dar, P(A∩Bi)=P(Bi)⋅P(A/Bi)=P(A)⋅P(Bi/A), de unde :

P A P B P A Bi i

n

( ) ( ) ( / )= ⋅∑1

, (2.12)

numită formula probabilităţii totale. Această formulă reduce calculul lui P(A) la calculul

probabilităţilor cauzelor şi a probabilităţilor condiţionate de fiecare cauză. Deoarece într-o

experienţă apare cu siguranţă unul şi numai unul din evenimentele Bi, se mai spune că

sistemul complet de evenimente {B1, B2, …, Bn} este o „desfacere a evenimentului sigur

E”, iar evenimentele Bi se numesc „cauze” sau „ipoteze”.

Page 17: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 17

Egalitatea : A=(A∩B1)∪(A∩B2)∪…∪(A∩Bn), exprimă faptul că A se produce

împreună cu fiecare din cauzele Bi, deci :

P B AP B P A B

P AP B P A B

P B P A Bi

i i i i

j

n

j

( / )( ) ( / )

( )( ) ( / )

( ) ( / )=

⋅=

⋅∑1

(2.13)

numită formula lui Bayes (formula probabilităţii cauzelor sau formula ipotezelor).

Toate problemele în care intervin formulele prezentate pot fi modelate pe următorul

tip de aplicaţie :

Fie 5 urne din care două de compoziţie K1 având trei bile albe şi patru bile negre, o

urnă de compoziţie K2 cu două bile negre şi nici una albă precum şi două urne de

compoziţie K3 având zece bile albe şi două negre. Se cere :

a) Care este probabilitatea ca dintr-o urnă luată la întâmplare să extragem o bilă albă

?

b) Ştiind că bila extrasă e albă, care este probabilitatea ca ea să provină dintr-o urnă

de compoziţie K3 ?

Soluţie : Notăm cu A evenimentul extragerii unei bile albe şi cu Bi (i=1,2,3)

evenimentul extragerii unei bile dintr-o urnă de compoziţie Ki (i=1,2,3). Atunci,

evenimentele B1, B2, B3 sunt cauze relative la evenimentul A.

a) Cu formula (2.12) avem : P A P B P A Bi i( ) ( ) ( / )= ⋅∑1

3

, unde :

P(B1)=2/5, P(B2)=1/5, P(B3)=2/5, P(A/B1)=3/7, P(A/B2)=0, şi P(A/B3)=10/12=5/6.

Deci P(A)=53/105.

b) Cu formula (2.13) deducem :

159105

10553

65

52

)A(P)B/A(P)B(P

)B/A(P)B(P

)B/A(P)B(P)A/B(P 33

j

3

1j

333 =

⋅=

⋅=

⋅=

Notă : Formula lui Bayes are o importanţă practică considerabilă în aşa-numita statistică bayesiană.

Are aplicaţii curente în : diagnosticul medical funcţie de analizele de laborator, meteorologie pentru

prevederea avalanşelor, domeniul financiar pentru determinarea riscului de faliment a întreprinderilor după

observarea unor aspecte, etc.

Page 18: Carte Elemente de teoria probabilitatilor

18 Eroare! Legătură incorectă.

2.6. Scheme probabilistice clasice

2.6.1. Schema bilei nerevenite

Fie o urnă ce conţine N bile din care a–albe şi b–negre. Din urnă se extrage succesiv

câte o bilă, în total n bile, fără a le introduce din nou în urnă (aceasta echivalează cu a

extrage n bile odată). Care este probabilitatea Pn(x) ca din cele n bile extrase, de x ori să

apară bila albă şi de (n-x) ori bila neagră ?

Avem evident N=a+b ≥ n, x ≤ a, n-x ≤ b. În baza definiţiei clasice a probabilităţii,

avem :

P xC C

Cnax

bn x

Nn( ) = =

−cazuri favorabilecazuri posibile

(2.14)

Generalizare :

P x xC C C

Cn sax

ax

ax

Nn

s

s

( , , )11

1

2

2

KK

= (2.15)

unde : N a x a Nk

s

k

s

k k= ≤ ≤∑ ∑1 1

, , , n = x n .

Exemplu : Într-o grupă de 26 studenţi sunt 10 băieţi şi 16 fete. Care este

probabilitatea ca, formând la întâmplare un grup de 17 studenţi, acesta să fie format din 8

băieţi şi 9 fete ?

Soluţie : Aplicând formula (2.14) obţinem :

PC C

C17108

169

2617

108 2

169 7

2617 9

0 1647(8) ,!

! !!

! !!

! != =

⋅=

2.6.2. Schema bilei revenite (schema lui J. Bernoulli sau schema binomială)

Se consideră urna de mai sus, cu bilele de cele două culori (albe şi negre).

Presupunem că se cunoaşte probabilitatea p a evenimentului A de a extrage o bilă

albă : p=P(A). Extragem din urnă câte o bilă, de n ori, punând de fiecare dată bila extrasă

înapoi. Care este probabilitatea Pn(x) ca din cele n bile extrase, de x ori să avem bila albă

şi de (n-x) ori bila neagră ?

Una din situaţiile în care se realizează evenimentul A de x ori şi A de (n-x) ori, este :

Page 19: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 19

A A A A A Ade x ori de n x

K1 244 344

K1 244 344I II IIII

( )− ori

Probabilitatea acestei intersecţii, având în vedere că evenimentele sunt independente,

va fi px ⋅ qn-x, unde q=1-p este probabilitatea de a extrage o bilă neagră.

Avem însă Cnx situaţii, după cum de x ori se realizează evenimentele A din cele n

repetări. Aceste situaţii reprezintă evenimente echiprobabile şi incompatibile, deci :

P x C p qn

x n xp qn n

x x n x x n x( )!

!( )!= =

−− −

(2.16)

Remarcă : Deoarece bila revine în urnă, fiecare extragere se face din acelaşi conţinut, deci experienţa

se repetă în aceleaşi condiţii.

Cunoaşterea probabilităţii p=P(A), la o extracţie poate fi înlocuită cu situaţia de a cunoaşte conţinutul

urnei. Schema lui Bernoulli se concretizează în practică printr-o selecţie repetată spre deosebire de schema

bilei nerevenite, care corespunde unei selecţii nerepetate.

Notă : Dacă N>>n, aceeaşi condiţie menţinându-se şi pentru perechile a şi x, respectiv b şi n-x, atunci

se arată că cele două probabilităţi date în schemele I şi II sunt aproximativ egale, adică :

C CC

C p qax

bn x

Nn n

x x n x−

−≈

Exemplu : Se aruncă o monedă de 15 ori. Care este probabilitatea de a obţine de zece

ori stema ?

Soluţie : Avem n=15, x=10, p=1/2, q=1/2, deci :

P C15 1510

10 5

1012

12

0 0917( ) ,=⎛⎝⎜

⎞⎠⎟

⋅⎛⎝⎜

⎞⎠⎟

=

Generalizare : Schema multinomială

P x xn

x xp pn s

s

xsxs( , , )

!! !1

11

1KK

L= ⋅ , (2.17)

unde x1 bile sunt de culoarea 1,…, xs bile de culoarea s, adică : dintr-o urnă cu bile de s

culori, se extrag n bile, cu revenirea acestora în urnă.

Page 20: Carte Elemente de teoria probabilitatilor

20 Eroare! Legătură incorectă.

2.6.3. Schema lui Poisson

Se consideră n urne, U1, U2, …, Un. Urna Ui conţine ai bile albe şi bi bile negre

( i = 1,n ). Se extrage câte o bilă din fiecare urnă. Se cere probabilitatea ca din cele n bile

extrase, x să fie albe şi (n-x) negre.

Dacă notăm cu pi probabilitatea ca din urna Ui să scoatem o bilă albă şi cu qi

probabilitatea ca din Ui să scoatem o bilă neagră, avem :

pa

a bb

a bp ni

i

i ii

i

i ii=

+=

+= − =, , , q i1 1

Raţionând ca în schema lui Bernoulli, probabilitatea cerută este coeficientul lui xkyn-k

din produsul :

(p1x+q1y) (p2x+q2y)… (pnx+qny)

Exemplu : La o specializare (de exemplu ştiinţa materialelor) sunt în anul I 22

studente şi 20 studenţi, în anul II 16 studente şi 10 studenţi, iar în anul III sunt 20 de

studente şi 6 studenţi. Care este probabilitatea ca primul student din fiecare an de studiu

sosit la cursuri într-o zi, să fie de sex feminin ?

Soluţie : Aplicând schema polinomială, avem :

p1=22/42, q1=20/42 ; p2=16/26, q2=10/26 ; p3=20/26, q3=6/26

Probabilitatea cerută este dată de coeficientul lui xy2 din produsul :

( )( )( )p x q y p x q y p x q y x y x y x y1 1 2 2 3 3

2242

2042

1626

1026

2026

626

+ + + = +⎛⎝⎜

⎞⎠⎟

+⎛⎝⎜

⎞⎠⎟

+⎛⎝⎜

⎞⎠⎟

obţinem : p = ⋅ ⋅ + ⋅ ⋅ + ⋅ ⋅ ≈2242

1026

626

2042

1626

626

2042

2026

1026

0 255, .

2.7. Probleme rezolvate

1) Să se calculeze probabilitatea ca la o aruncare cu zarul să apară faţa numerotată cu

1 sau 2.

Soluţie : Fie A evenimentul apariţiei feţei 1 sau 2. Notând cu Ei evenimentul apariţii

feţei i (i=1,2,3,4,5,6), avem P(E )16i = .

2) Într-o magazie sunt 40 de piese dintre care 4 au defecte. Care este probabilitatea ca

o piesă luată la întâmplare să fie cu defecte ?

Soluţie : Notăm cu A evenimentul ca piesa aleasă să fie cu defecte. Evenimentul fiind

aleator, putem lua orice piesă din cele 40, deci avem 40 de cazuri posibile. Numărul

Page 21: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 21

cazurilor favorabile lui A este egal cu numărul pieselor defecte, adică 4. Din definiţia

clasică rezultă P(A)=4/40=0,1.

3) La fabricarea unui dispozitiv pot să apară defecte datorită materialului folosit,

datorită prelucrării pieselor componente şi datorită montajului. Dispozitivul se

consideră bun dacă nu are nici unul din aceste defecte. Din practică se cunoaşte că

datorită materialului folosit 5% din piese au defecte, datorită prelucrării 8% au

defecte, iar datorită montajului 4% au defecte. Se cere probabilitatea minimă ca un

dispozitiv să fie bun.

Soluţie : Notăm cu A evenimentul ca piesele componente să nu aibă defecte din

cauza materialului folosit, cu B ca ele să nu aibă defecte de fabricaţie şi cu D evenimentul

ca dispozitivul să nu aibă defecte de montaj. Se cere P(A∩B∩D), cunoscând

( )P A = 0 05, , ( )P B = 0 08, , ( )P D = 0 04, . Din inegalitatea lui Boole deducem :

( ) ( ) ( ) ( )[ ]P A B D P A P B P DII ≥ − + + = − =1 1 0 17 0 83, ,

sau : P(A∩B∩D)≥P(A)+P(B)+P(D)-(3-1)=0,95+0,92+0,96-2=0,83

4) Trei vânători trag simultan asupra unui iepure. Vânătorul nr.1 ocheşte iepurele cu

probabilitatea 0,9, al doilea cu 0,8 şi respectiv al treilea cu probabilitatea 0,7. Se

cere probabilitatea ca iepurele să scape dacă toţi trei vânătorii trag simultan asupra

iepurelui.

Soluţie : Notăm cu Ai (i=1,2,3,) evenimentul ca vânătorul i să ochească iepurele.

Trebuie să se realizeze evenimentul A A A1 2 3UU . Evenimentele Ai fiind independente,

avem P(A1∪A2∪A3)=0,9+0,8+0,7-(0,9⋅ 0,8+0,9⋅0,7+0,8⋅0,7)+ 0,9⋅0,8⋅0,7=0,994 (formula

lui Poincaré).

Probabilitatea cerută va fi deci : p=1- P(A1∪A2∪A3)=0,006.

(Sau : ( ) ( ) ( ) ( )p P A A A P A P A P A= = ⋅ ⋅ = ⋅ ⋅ =1 2 3 1 2 3 0 1 0 2 0 3 0 006II , , , , )

5) O urnă conţine 4 bile albe (a1, a2, a3, a4) şi două bile negre (n1, n2). Se extrag

simultan două bile. Se cere :

1. Să se precizeze probele experienţei

2. Se consideră evenimentele :

A1 – obţinerea a două bile negre

A2 – obţinerea a două bile albe

A3 – obţinerea a cel puţin unei bile negre

Page 22: Carte Elemente de teoria probabilitatilor

22 Eroare! Legătură incorectă.

A4 – obţinerea unei singure bile albe

A5 – obţinerea unei singure bile negre

A6 – obţinerea a două bile verzi

Să se precizeze care dintre ele sunt aleatoare, elementare sau compuse ; perechi de

evenimente compatibile şi incompatibile ; perechi de evenimente egale ; implicaţiile

dintre evenimente.

Soluţie :

1. Probele experienţei sunt : (a1,a2), (a1,a3), (a1,a4), (a2,a3), (a2,a4), (a3,a4),

(a1,n1), (a1,n2), (a2,n1), (a2,n2), (a3,n1), (a3,n2), (a4,n1), (a4,n2) şi (n1,n2). Deci numărul

probelor este C62 6 5

215=

⋅= .

2. Evenimentele A1, …, A5 sunt aleatoare. Evenimentul A6 este imposibil,

el nu este nici elementar nici compus. A1 este elementar, el realizându-se printr-o singură

probă (n1,n2). Avem A1={(n1,n2)}. Evenimentele A2, …, A5 sunt compuse. Apoi, A4=A5 şi

reciproc, deoarece A4 atrage după sine realizarea lui A5 şi reciproc. Aceasta se observă şi

din egalitatea mulţimilor de probe :

A4={(a1,n1), (a1,n2), (a2,n1), (a2,n2), (a3,n1), (a3,n2), (a4,n1), (a4,n2)}

A5={(n1,a1), (n1,a2), (n1,a3), (n1,a4), (n2,a1), (n2,a2), (n2,a3), (n2,a4)}

Avem :

A2={(a1,a2), (a1,a3), (a1,a4), (a2,a3), (a2,a4), (a3,a4)}

A3={(a1,n1), (a1,n2), (a2,n1), (a2,n2), (a3,n1), (a3,n2), (a4,n1), (a4,n2), (n1,n2)}

Sunt compatibile perechile : (A3,A5), (A1,A3), (A4,A5), (A3,A4)

Sunt incompatibile : (A2,A3), (A1,A2), (A1,A4), (A1,A5), (A2,A4), (A2,A5), (Ai,A6),

i=1,2,3,4,5.

Evenimente contrare sunt : A2 şi A3.

Avem implicaţiile : A1⊂A3, A4⊂A5, A5⊂A4, A4⊂A3, A5⊂A3, A6⊂Ai, i=1,2,3,4,5.

6) A şi B fiind două evenimente, să se arate că :

⎟P(A∩B)-P(A)⋅P(B)⎟ ≤1/4

Soluţie : Presupunem că P(A)≥P(B). Deoarece P(A∩B)≤P(B), avem :

P(A∩B)-P(A)⋅P(B) ≤P(B)[1-P(A)]≤ P(A)[1-P(A)]≤1/4

(ultima inegalitate se poate obţine, de exemplu, din inegalitatea mediilor).

Notând P A B x P A B a A B b( ) , ( ) , ( ) ,= = = P I II observăm că :

a+b+x=P(A∪B)≤1 şi a≤P(A), b P A P A≤ = −( ) ( )1 , ab≤P(A)[1-P(A)]≤1/4

Page 23: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 23

Deci : P(A∩B)-P(A)⋅P(B)=x-(a+x)(b+x)=x-[ab+x(a+b+x)]≥x-ab-x=-ab≥-1/4

7) Într-un câmp de probabilitate {E,K,P} fie evenimentele A1, …,An astfel încât

P A ni

n

( )⟩ −∑ 11

. Să se arate că P Ai

n

10I

⎛⎝⎜

⎞⎠⎟ ⟩ .

Soluţie : A E A A P Ai

n

i

n

i

n

i

n

1 1 1 11I U I U= −

⎛⎝⎜

⎞⎠⎟ = −

⎛⎝⎜

⎞⎠⎟ P;

Dar P A P A P A n P A n ni

n

i i

n

i

nn

1 1 111 1 1U

⎛⎝⎜

⎞⎠⎟ ≤ = − = − ⟨ − − =∑ ∑∑ ( ) [ ( )] ( ) ( )

Rezultă : 0APn

1i ⟩⎟⎟⎠

⎞⎜⎜⎝

⎛I .

8) Un grup de 2n băieţi şi 2n fete este împărţit la întâmplare în două grupuri egale. Să

se găsească probabilitatea p ca fiecare grup să aibă acelaşi număr de băieţi şi de fete,

apoi să se estimeze p folosind formula lui Stirling ⎟⎟⎠

⎞⎜⎜⎝

⎛⋅π= −+

mare n pentru ,en2!n n21

n.

Soluţie : Notăm cu F mulţimea fetelor şi cu B mulţimea băieţilor. Un eveniment

elementar este o submulţime a lui F∪B care are 2n elemente. Numărul modurilor în care

din 4n băieţi şi fete se pot alege 2n este n2n4C . Din toate acestea, evenimente elementare

favorabile sunt acele submulţimi ale lui F∪B pentru care numărul fetelor este egal cu

numărul băieţilor şi este egal cu n.

Dar, din 2n fete se pot alege n în nn2C moduri şi tot la fel pentru băieţi. Deci, n băieţi

şi n fete se pot selecta în ( )C C Cnn

nn

nn

2 2 2

2⋅ = moduri, acesta fiind numărul evenimentelor

favorabile. Probabilitatea cerută va fi :

( )p

CC

n!)n!)

n!)n!

n!)n!)(n!)

nn

nn= = ⋅ =2

2

42

2

4

2 4

4

2 24

24

((

( ((

Aproximând cu formula lui Stirling, avem :

pn e

n e n en

n n

n n n n

⎣⎢

⎦⎥ ⋅

⎝⎜

⎠⎟

=

+ −

+ − + −

2 2

2 4 2

22

12

4

8

412 4

12

4

4

π

π ππ

( )

( )

9) Sunt date în exploatare 10 aparate de acelaşi tip, provenind de la 3 fabrici : 3 de la

F1, 5 de la F2 şi 2 de la F3. Aparatele sunt supuse unei probe de verificare. Cele de

Page 24: Carte Elemente de teoria probabilitatilor

24 Eroare! Legătură incorectă.

la F1 trec proba cu probabilitatea 0,95, cele de la F2 cu probabilitatea 0,75 şi cele

de la F3 cu probabilitatea 0,80. Se alege la întâmplare un aparat. Care este

probabilitatea ca aparatul să treacă proba de verificare ?

Soluţie : Notăm cu Ai evenimentul „aparatul ales provine de la fabrica Fi”, i=1,2,3.

Avem : P(A1)=3/10, P(A2)=1/2, P(A3)=1/5. Notând cu A evenimentul „aparatul ales trece

proba de verificare”, vom avea : P(A/A1)=0,95, P(A/A2)=0,75, P(A/A3)=0,80.

Aplicând formula probabilităţii totale, obţinem :

P A P A P A Ai i( ) ( ) ( / ) , , , , , , ,= ⋅ = ⋅ + ⋅ + ⋅ =∑ 0 3 0 95 0 5 0 75 0 2 0 8 0 821

3

10) În condiţiile problemei 9, se alege la întâmplare un aparat şi se constată că el trece

proba de verificare. Care este probabilitatea ca el să provină de la fabrica F1 ?

Soluţie : P A AP A P A A

P A P A Ai i

( / )( ) ( / )

( ) ( / ),1

1 1

1

3

310

95100

4150

57164

0 347=⋅

⋅=

⋅= =

11) Într-o cutie sunt aşezate la întâmplare 40 de becuri de 100W, provenind de la trei

fabrici : 15 de la F1, 18 de la F2, 7 de la F3. Care este probabilitatea ca un

cumpărător, care este servit cu 10 becuri alese la întâmplare, să primească 5 de la

F1, 3 de la F2 şi 2 de la F3 ?

Soluţie : Suntem în cazul schemei bilei nerevenite (sau neîntoarse) cu 3 culori :

PC C C

C10155

183

72

40103 2 0 0607(5, , ) ,=

⋅ ⋅=

12) Se aruncă un zar de 5 ori. Care este probabilitatea de a obţine de 3 ori faţa cu 6

puncte şi câte o dată feţele cu 2 şi 3 puncte ?

Soluţie : Se aplică schema lui Bernoulli cu 6 culori. Experienţa se repetă în aceleaşi

condiţii şi n=5, x1=0, x2=1, x3=1, x4=0, x5=0, x6=3 ; p1=p2=…=p6=1/6. Deci :

P5

0 0 0 3

0 11 0 0 35

0 1 1 0 0 316

16

16

16

16

16

0 0026( , , , , , )!

! ! ! ! ! !,=

⎛⎝⎜

⎞⎠⎟

⋅ ⋅ ⋅⎛⎝⎜

⎞⎠⎟

⋅⎛⎝⎜

⎞⎠⎟

⋅⎛⎝⎜

⎞⎠⎟

=

13) O piesă fabricată este considerată corespunzând standardului dacă îndeplineşte

condiţiile A, B, C. Datele statistice arată că : 90% din piese îndeplinesc condiţia

A, 87% îndeplinesc condiţia B, 92% îndeplinesc condiţia C. Să se calculeze

probabilitatea ca o piesă fabricată să corespundă standardului.

Soluţie : Este necesar să se realizeze evenimentul S=A∩B∩C. Necunoscând în ce

relaţii sunt condiţiile A, B, C, vom folosi inegalitatea lui Boole pentru n=3 :

Page 25: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 25

P(A∩B∩C)≥P(A)+P(B)+P(C)-2, adică :

P(S)≥0,90+0,87+0,92-2=0,69. Deci : 0,69≤P(S)≤1.

14) Trei fabrici F1,F2, F3 trimit acelaşi produs spre vânzare într-un magazin, în

cantităţi proporţionale cu numerele 4, 1 şi 5. Se cunosc proporţiile respective ale

produselor cu defecte primite de la fiecare fabrică : 2%, 3% şi respectiv 1,5%. O

cantitate de produse în valoare de 50.000 lei care a fost vândută este restituită

având defecte care o fac de neîntrebuinţat, iar suma este restituită cumpărătorului.

Ce sume trebuie imputate fiecărei fabrici care a trimis marfa dacă nu se ştie de la

ce fabrică provine produsul respectiv ?

Soluţie : Sumele imputate fabricilor Fi (i=1,2,3) vor fi proporţionale cu probabilităţile

pi (i=1,2,3) ca marfa restituită să fie de la fabrica respectivă. Calculăm deci aceste

probabilităţi, notând cu Ei evenimentul ca marfa să fie de la Fi şi cu X evenimentul ca

marfa să fie defectă.

Avem următoarele evenimente dependente :

X/Ek - marfa defectă aparţinând fabricii Fk, cu probabilitatea P(X/Ek)

Ek/X - marfa care aparţine fabricii Fk este defectă, cu probabilitatea P(Ek/X)

Aplicând formula lui Bayes, obţinem :

p P E XP E P X E

P E P X Ei i

i i

k ki

= =⋅

⋅∑( / )

( ) ( / )

( ) ( / );

1

3 i = 1,2,3

Avem : P(E1)=4/10=0,4 ; P(E2)=1/10=0,1 ; P(E3)=5/10=0,5, P(X/E1)=2/100=0,02 ;

P(X/E2)=3/100=0,03 ; P(X/E3)=1,5/100=0,015.

Făcând înlocuirile în formulă, obţinem :

p1=P(E1/X)=80/185 ; p2=P(E2/X)=30/185 ; p3=P(E3/X)=75/185

Sumele si ce vor fi returnate de fabrici satisfac ecuaţiile :

sp

sp

sp

s s sp p p

1

1

2

2

3

3

1 2 3

1 2 3= = =

+ ++ +

adică : 1

50000

18575s

18530s

18580s 321 ===

De aici,

lei216221855000080s1 =

⋅=

s lei2

30 50000185

8108=⋅

=

Page 26: Carte Elemente de teoria probabilitatilor

26 Eroare! Legătură incorectă.

s lei3

75 50000185

20270=⋅

= (rotunjite la numere întregi).

15) La un concurs de matematică, trei candidaţi primesc câte un plic care conţine n

(n>3) bilete cu probleme de algebră şi geometrie. Cele 3 plicuri conţin respectiv

câte 1, 2, 3 subiecte de algebră. Fiind examinaţi, cei trei candidaţi extrag fiecare

câte un bilet din plic. Extragerea făcându-se la întâmplare, să se afle probabilitatea

următoarelor evenimente :

a) Toţi candidaţii să fie examinaţi la geometrie

b) Nici un candidat să nu fie examinat la geometrie

c) Cel puţin un candidat să fie examinat la algebră

Soluţie : Aplicăm schema lui Poisson, notând cu p0,3 probabilitatea cerută la punctul

a) Aceasta este coeficientul lui x0y3 din polinomul :

( ) ( )1 1 2 2 3 3 116 11 18 6 22 183

3 2 2 2

nx

nn

yn

xn

ny

nx

nn

yn

x n x y n n xy+−⎛

⎝⎜⎞⎠⎟

+−⎛

⎝⎜⎞⎠⎟

+−⎛

⎝⎜⎞⎠⎟

= + − + − + +[

+ − − −( )( )( ) ]n n n y1 2 3 3

Deci, pn n n

n0 3 3

1 2 3,

( )( )( )=

− − −.

Probabilitatea cerută la punctul b) va fi pn3 0 3

16, = (coeficientul lui x3y0 din

dezvoltarea de mai sus). Pentru punctul c) trecem la evenimentul contrar punctului a)

adică :

p pn n

n= − =

+ +1

6 11 60 3

2

3,

Page 27: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 27

Capitolul 3 Variabile aleatoare

3.1. Variabile aleatoare discrete. Definiţie şi exemple.

Notăm cu pi=P(Ai)=P(x=xi) - probabilitatea evenimentului Ai adică a evenimentului

că variabila întâmplătoare (aleatoare) x ia valoarea xi. Fie Sc={A1,A2,…,An} un sistem

complet de evenimente.

Definiţie : Se numeşte variabilă aleatoare o aplicaţie x definită pe Sc cu valori reale

(adică x:Sc→R).

Notăm : x x A i ni i= =( ), ,1 . Dacă Sc este cel mult numărabil, atunci variabila

aleatoare ataşată este discretă şi anume :

- discretă simplă, dacă are un număr finit de valori

- discretă numărabilă, dacă are o infinitate numărabilă de valori.

Variabila aleatoare discretă (v.a.d) se reprezintă printr-un tablou de repartiţie (sau

distribuţie) de forma :

n,1ii

i

n21

n21px :sau x ppp

xxx : x=

⎟⎠⎞

⎜⎝⎛

⎟⎠⎞

⎜⎝⎛

LL ,

în care xi sunt valorile variabilei, iar pi sunt probabilităţile cu care variabila x ia aceste

valori xi (adică probabilităţile evenimentelor din sistemul Sc). De aici, rezultă evident că :

p pi i

n

≥ =∑0 11

, .

Aceste două condiţii caracterizează v.a.d., iar n poate fi un număr finit sau infinit.

Exemple :

1) Considerăm experienţa aruncării unei monede. Drept sistem complet de

evenimente se consideră acela format din evenimentele elementare A (apariţia

stemei) şi A (faţa opusă). Se ştie că P A P A( ) ( )= =12

, deci putem defini v.a.d

prin : { }x : A,A → R , x(A)=0, x A( ) = 1, iar tabloul de distribuţie va fi :

x : 0 112

12

⎝⎜⎜

⎠⎟⎟

2) Să se scrie distribuţia v.a.d ce reprezintă suma punctelor obţinute la aruncarea a

două zaruri.

Page 28: Carte Elemente de teoria probabilitatilor

28 Eroare! Legătură incorectă.

Notăm cu A2, A3, …A12 evenimentele care arată că la aruncarea celor două zaruri s-

au obţinut puncte a căror sumă este 2,3,…,12. Acestea formează un sistem complet de

evenimente şi deci putem defini v.a.d x astfel încât x(Ai)=i, i = 2 12, . Tabloul de repartiţie

va fi :

x : 2 3 4 5 6 7 8 9 10 11 12136

236

336

436

536

636

536

436

336

236

136

⎝⎜⎜

⎠⎟⎟

3) În exemplul precedent să considerăm evenimentele :

B1 - suma punctelor obţinute să fie cel mult 5

B2 - suma punctelor obţinute să fie 6, 7, 8, sau 9

B3 - suma punctelor obţinute să fie cel puţin 10

Definim v.a.d y:{B1,B2,B3}→ R prin y(B1)=1, y(B2)=2, y(B3)=3.

Tabloul de distribuţie va fi deci :

y : 1 2 3

1036

2036

636

⎝⎜⎜

⎠⎟⎟

3.2. Operaţii cu variabile aleatoare discrete

Se consideră v.a.d simple, date prin tablourile de distribuţie :

x xp

i

i i n

:,

⎛⎝⎜

⎞⎠⎟ =1

şi y: yp

i

i j m

⎛⎝⎜

⎞⎠⎟

=1,unde : pi=P(x=xi), qj=P(y=yj)

1) Se numeşte produsul variabilei x cu numărul a, variabila ax al cărei tablou de

distribuţie este :

ax i n

:,

axp

i

i

⎛⎝⎜

⎞⎠⎟

=1

2) Se numeşte puterea de ordinul k a variabilei x, variabila xk al cărei tablou de

distribuţie este :

xk

i n

: xp ki

k

i

+⎛⎝⎜

⎞⎠⎟

∈=1,

, Z

Dacă xi≠0 atunci k poate fi şi întreg negativ. De exemplu :

x

i n

=

⎜⎜

⎟⎟

1

1

: 1xp

i

i ,

Page 29: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 29

3) Se numeşte suma variabilelor x şi y, variabila x+y cu tabloul de distribuţie

[ ]( ) , ( ) ( ),,

x yy

P x x y yj

i nj n

i i++⎛

⎝⎜

⎞⎠⎟ = = =

==

: x

p pi

ijij1

1

I

Se poate arăta că pijj

m

i

n

===∑∑ 1

11. Dacă variabilele sunt independente (adică corespund

unor experienţe independente), atunci :

pij=P(x=xi)⋅ P(y=yj)=piqj

4) Se numeşte produsul variabilelor x şi y, variabila xy cu tabloul de distribuţie :

[ ]xy :y

P x x y yj

i nj n

i i xp pi

ijij

⎛⎝⎜

⎞⎠⎟ = = =

==

11,,

, ( ) ( )I

Cazuri particulare :

a) Dacă constanta c se consideră o variabilă cu tabloul c1

⎛⎝⎜

⎞⎠⎟ , atunci suma (c+x) este

v.a.d cu tabloul :

( ),

c xc xi

i n+

+⎛⎝⎜

⎞⎠⎟

=

: pi 1

b) Dacă x ≠ 0, vom defini raportul yx

prin yx-1

Observaţie : În operaţiile cu v.a.d convenim să scriem valorile variabilei în ordine crescătoare şi o

singură dată. Dacă una din valori apare de două sau mai multe ori, se va scrie o singură dată, iar

probabilităţile acesteia se adună între ele.

Exemplu : Dându-se variabilele independente :

x : - 1 0 20,1 0,5 0,4 şi y : 1 3 6

0,5 0,2 0,3⎛⎝⎜

⎞⎠⎟

⎛⎝⎜

⎞⎠⎟

se cer operaţiile : − 5x, x y x + y, xy, xy

y - 2,92 -1, , ,

Soluţie:

− ⎛⎝⎜

⎞⎠⎟

⎛⎝⎜

⎞⎠⎟

⎜⎜

⎟⎟5 1

0 3 0 2 0 5x : - 10 0 5

0,4 0,5 0,1 x : 0 1 40,5 0,1 0,4 ; y

16

132 -1; :

, , ,

( )x y+ ⎛⎝⎜

⎞⎠⎟ : 0 1 2 3 5 6 8

0,05 0,25 0,02 0,3 0,11 0,15 0,12

Page 30: Carte Elemente de teoria probabilitatilor

30 Eroare! Legătură incorectă.

xy : - 6 - 3 - 1 0 2 6 120,03 0,02 0,05 0,5 0,2 0,08 0,12

⎛⎝⎜

⎞⎠⎟

( , )y − ⎛⎝⎜

⎞⎠⎟2 9 : - 1,9 0,1 3,1

0,5 0,2 0,3

3.3. Variabile aleatoare continue

În practică există multe experienţe aleatoare care au un câmp de evenimente

nenumărabil şi implicit sistemul de evenimente aleatoare este nenumărabil. Acest fapt

impune considerarea unei variabile aleatoare ale cărei valori acoperă o mulţime continuă

de numere reale (un interval închis [a,b]). Astfel de experienţe sunt de exemplu :

măsurarea masei, a forţei, a lungimii, a timpului, etc. În asemenea cazuri este practic

imposibil de a asocia evenimentelor corespunzătoare fiecărui rezultat câte o probabilitate

nenulă, deoarece numărul cazurilor posibile este infinit. Dacă unei asemenea experienţe i

se ataşează variabila aleatoare x, atunci x ∈[a,b].

Deoarece P(x=x0)=0, vom recurge la a caracteriza nu probabilitatea ca variabila x să

ia valoarea fixă x0, ci ca valorile lui x să parcurgă un interval oricât de mic, de lungime

dx.

Dacă dP(x0)=P(x ∈[x0,x0+dx]) este firesc să presupunem că această probabilitate este

proporţională cu lungimea dx a intervalului, iar dacă factorul de proporţionalitate îl notăm

cu f(x0), atunci dP(x0)=f(x0)dx.

Constatăm astfel că se poate defini o funcţie f:[a,b]→ R care atribuie fiecărei valori

x0∈[a,b], factorul de proporţionalitate f(x0) corespunzător probabilităţii ca variabila x să

ia valori în [x0, x0+dx].

Funcţia f definită astfel, se numeşte funcţie densitate de probabilitate (sau de

repartiţie) (analog cu densitatea unei baze liniare) şi verifică proprietăţile :

1) f(x)≥0, (∀)x ∈[a,b]

2) f x dxa

b

( ) =∫ 1 (realizarea evenimentului sigur)

(Proprietăţile sunt valabile şi în cazul a=-∞, b=+∞).

Prin analogie cu cazul discret, atribuim v.a. continue, x, următorul tablou de

distribuţie (repartiţie) :

Page 31: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 31

x :x a b

xf(x)

⎛⎝⎜

⎞⎠⎟

∈[ , ]

Deci, orice tablou de această formă, în care f(x) verifică proprietăţile 1) şi 2) de mai

sus, reprezintă tabloul de distribuţie al unei v.a. continue.

Exemplu :

a) Tabloul x :x

x3x2

⎛⎝⎜

⎞⎠⎟

∈[ , ]0 1 reprezintă o v.a. continuă, deoarece : f(x)=3x2≥0,

(∀)x∈[0,1] şi 3 12

0

1

x dx =∫ .

b) Tabloul x :x e

xlnx

⎛⎝⎜

⎞⎠⎟

∈[ , ]1 reprezintă de asemenea o v.a. continuă, pentru că lnx≥0,

(∀)x∈[1,e] şi lnxdxe

=∫ 11

.

3.4. Funcţia de repartiţie

Definiţie : Fie x o variabilă aleatoare (discretă sau continuă) având tabloul de

distribuţie :

xp

i

i i n

⎛⎝⎜

⎞⎠⎟

=1, respectiv x

f xx a b

( )[ , ]

⎛⎝⎜

⎞⎠⎟

Se numeşte funcţie de repartiţie corespunzătoare v.a. x, funcţia F:R→[0,1] definită

prin F(x0)=P(x<x0), x0∈R.

Această definiţie este luată după Kolmogorov, acceptându-se însă şi F(x0)=P(x≤x0).

Proprietăţi :

P1) 0≤F(x0)≤1, (∀)x0 ∈R

P2) F(-∞)=0 şi F(∞)=1

P3) F(β)-F(α)=P(α≤x<β)

P4) F este nedescrescătoare

Aceste proprietăţi rezultă din însăşi definiţia funcţiei de repartiţie.

Astfel, P1 este adevărată pentru că F este o probabilitate, iar P2 este imediată deoarece

F(-∞)=P(x<-∞)=P(Φ)=0 şi F(∞)=P(x<∞)=P(E)=1.

Page 32: Carte Elemente de teoria probabilitatilor

32 Eroare! Legătură incorectă.

Pentru P3 observăm că evenimentul x<β se scrie ca reuniunea evenimentelor

incompatibile x<α şi α≤x<β, deci P(x<β)= P(x<α)+P(α≤x<β), de unde :

P(α≤x<β)=P(x<β)-P(x<α)= F(β)-F(α)

Din P3 se deduce imediat P4 : F(x2)-F(x1)= P(x1≤x<x2)≥ 0 dacă x2≥x1, deci

F(x2)≥F(x1) adică F este nedescrescătoare.

3.4.1.Funcţia de repartiţie pentru variabila aleatoare discretă

Dacă x este v.a.d atunci x<x0 este reuniunea acelor evenimente x=xi pentru care xi<x0, adică : x x x xi

x xi

< = =<

00

( )U . Evenimentele x=xi fiind incompatibile, avem :

F x P x x P x x P x x pix x

ix x

ix xi o i i

( ) ( ) ( ) ( )0 00 0

= < = =⎛

⎝⎜

⎠⎟ = = =

< < <∑ ∑U

Acest rezultat defineşte funcţia de repartiţie pentru v.a.d ca funcţie cumulativă a

probabilităţilor. Graficul acestei funcţii este în scară (fig. 3.1).

Fig.3.1

Exemplu : Să se determine F(x) pentru v.a.d x având tabloul de repartiţie :

x : - 1 2 40,1 0,7 0,2

⎛⎝⎜

⎞⎠⎟

Să se reprezinte grafic şi să se calculeze P(0≤x<5)

Soluţie :

x1 0 x2 x3 … xn-1 xn

� pi=1

p1+…+pn-1

p1+p2

p1

Page 33: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 33

x0 ≤ -1 ⇒ F(x)=P(x<x0)=P(Φ)=0

-1<x0≤ 2 ⇒F(x)=P(x<x0)=P(x=-1)=0,1

2<x0 ≤ 4 ⇒ F(x)=P(x<x0)=P((x=-1)∪ (x=2))= P(x=-1)+P(x=2)=0,1+0,7=0,8

x0 >4 ⇒ F(x)=P(x<x0)=P(E)=1

Deci :

F x

xx

xx

( )

,, ,, ,

,=

≤− < ≤

< ≤

⎨⎪

⎩⎪

0 10 1 1 20 8 2 41 > 4

Graficul este dat în fig.3.2.

Fig.3.2.

P(0≤x<5)=F(5)-F(0)=1-0,1=0,9

Este util de reţinut următoarea teoremă (fără demonstraţie) :

Funcţia de repartiţie corespunzătoare v.a.d este o funcţie continuă la stânga în orice

punct, adică :

P x x F x F t P x t xt xt x

t xt x

( ) ( ) lim ( ) lim ( ), .< = = = < ∀ ∈→<

→<

0 0 00

00

0

( ) R

-1 0 2 4

1

0,8

0,1

Page 34: Carte Elemente de teoria probabilitatilor

34 Eroare! Legătură incorectă.

3.4.2.Funcţia de repartiţie pentru variabila continuă

Fie x : xf(x)

⎛⎝⎜

⎞⎠⎟

∈x a b[ , ] o v.a. continuă. Să scriem proprietatea P3 când β=x0+Δx, α=x0 :

F(x0+Δx)-F(x0)=P(x0≤x<x0+Δx)=dP(x0)=f(x0)Δx (vezi definirea v.a. continue).

Împărţind cu Δx şi trecând la limită când Δx→0, deducem :

lim( ) ( )

( ) ( ) ( )Δ

ΔΔx

F x x F xx

F x F x f x→

+ −= ′ ⇒ ′ =

0

0 00 0 0 şi deci :

F x f x dxa

x

( ) ( )0

0

= ∫

Relaţiile de mai sus exprimă legătura dintre funcţia de repartiţie F(x) şi densitatea de

probabilitate (sau de repartiţie) f(x) : F’(x)=f(x).

Proprietatea P3 devine :

P x F F f x dx( ) ( ) ( ) ( )α β β αα

β

≤ < = − = ∫

Aşadar, funcţia de repartiţie în cazul v.a. continue, se va scrie explicit :

⎪⎪⎩

⎪⎪⎨

=≤<

= ∫b>x,1

)egrareint de iabilavaru(bxa,du)u(f

ax,0

)x(Fx

a

,

şi va avea graficul de forma prezentată în fig.3.3.

Fig.3.3

Observaţii :

1

b a

F(x)

x

Page 35: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 35

3.�. Deoarece F’(x0)=f(x0)� 0, F(x) este nedescrescătoare

3.�. Deoarece F(x)=0 pt. x≤a şi F(x)=1 pt. x>b, vom considera pentru F(x) exprimarea :

F x f x dxa

x

( ) ( ) ,= ∈∫ x [a,b]

3.�. F(x) este o funcţie continuă

Exemple :

1) Să se determine funcţia de repartiţie pentru v.a. continuă x : x3x2

⎛⎝⎜

⎞⎠⎟

∈x [ , ]0 1, să se

reprezinte grafic şi să se calculeze P x12

34

≤ <⎛⎝⎜

⎞⎠⎟

Soluţie :

F x

x

x dx x

x

( )

, ,

, ,

,

=

< ≤ =

⎨⎪⎪

⎩⎪⎪

∫0 0

0 1

1

3

deoarece F(x) = P( ) = 0

x deoarece 3x

> 1 , deoarece P(x) = P(E) = 1

3 2

0

Graficul este prezentat în fig.3.4.

Fig.3.4

6419dxx3

21F

43F

43x

21P

43

21

2 ==⎟⎠⎞

⎜⎝⎛−⎟

⎠⎞

⎜⎝⎛=⎟

⎠⎞

⎜⎝⎛ <≤ ∫

Notă : Pentru v.a. continuă x, au loc egalităţile :

P(α≤x<β)=P(α≤x≤β)=P(α<x<β)=P(α<x≤β) şi P(x≥α)=1-F(α)

1

10

F(x)

x

Page 36: Carte Elemente de teoria probabilitatilor

36 Eroare! Legătură incorectă.

2) Să se determine constantele reale a, b, c astfel ca funcţia F(x) de mai jos să fie o

funcţie de repartiţie.

F x

a b xx

x

c x x

a b xx

x

( )

( ),

sin ,

( ),

=

−+

⋅ < ≤

+ − −−

⎪⎪⎪

⎪⎪⎪

23

0

02

2 11

2

2

π

π>

2

Soluţie :

F F x a b F x a bx

( ) lim ( ) ( )−∞ = = − = ∞ = + − =→−∞ →∞

2 0 2 1 ; F( ) = limx

Din sistemul : a-2b=0, a+b=3 rezultă a=2 şi b=1, iar din condiţia ca F(x) să fie

continuă l l F l Fs d s d( ) ( ) ( )0 0 02 2 2

= =⎛⎝⎜

⎞⎠⎟

=⎛⎝⎜

⎞⎠⎟

=⎛⎝⎜

⎞⎠⎟

⎛⎝⎜

⎞⎠⎟ şi l

π π π se obţine c=1.

3.5. Funcţia de repartiţie bidimensională

O variabilă aleatoare X:E⊂R2→R, X=(X1,X2), unde X1 şi X2 sunt variabile aleatoare

reale, se numeşte vector aleator bidimensional sau variabilă aleatoare bidimensională.

Definiţie : Funcţia F(x1,x2)=P(X1<x1,X2<x2) se numeşte funcţie de repartiţie a

vectorului X sau funcţie de repartiţie bidimensională.

Dacă I={(u1,u2)⎪u1<x1,u2<x2} iar Ex={e∈E⎪X(e)∈I}, atunci F(x)=F(x1,x2)=P(Ex)

Proprietăţi : 1) Dacă x1≤ x1’, x2≤x2’ atunci F(x1,x2)≤F(x1’,x2’) adică I⊂I’.

2) 0≤F(x1,x2)≤ 1

3) P(a1≤X1<b1, a2≤X2<b2)=F(b1,b2)-F(a1,b2)-F(a2,b1)+F(a1,a2)

4) Dacă notăm (-∞,-∞)=-∞ şi (∞,∞)=+∞, atunci : 0),(F)x,x(Flim)x(Flim)(F 21

xxx

21

=−∞−∞===−∞−∞→−∞→−∞→

1),(F)x,x(Flim)x(Flim)(F 21xxx

21

=+∞+∞===+∞+∞→+∞→∞→

Densitatea de repartiţie corespunzătoare funcţiei de repartiţie F(x)=F(x1,x2) este :

Page 37: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 37

21

2

21 ),(xx

Fxxf∂∂

∂= ; dacă f(x1,x2) există şi este continuă, atunci :

∫ ∫∞− ∞−

=1 2

212121 ),(),(x x

duduuufxxF şi 1),(1 2

2121 =∫ ∫∞− ∞−

x x

duduuuf

Dacă v.a. X1, X2 sunt independente şi au densităţile de repartiţie f1(x1), f2(x2) atunci :

f(x1,x2)=f1(x1)⋅ f2(x2). Notă : În mod absolut identic, cele de mai sus se pot generaliza pentru o variabilă aleatoare n-

dimensională X=(X1,…,Xn)∈Rn şi astfel se defineşte funcţia de repartiţie multidimensională .

3.6. Grafice pentru variabile aleatoare

În studiul unei v.a. sunt utile reprezentările grafice ale funcţiilor densitate de

probabilitate ataşate v.a.

3.6.1.Pentru v.a. discretă

Avem n,1ii

ipx :x

=⎟⎠⎞

⎜⎝⎛ unde pI=f(xI) ≥0 şi ∑ ∑ ==

n

1

n

1ii 1)x(fp .

În planul xOy se determină punctele Mi(xi,pi) prin unirea cărora se pot trasa curbe

(grafice). Una din aceste curbe se obţine unind punctele prin segmente de dreaptă. Se

obţine curba de distribuţie a variabilei X. (fig,.3.5)

Fig. 3.5

f(x)

pi Mi

Mn

M2

M1

x1 x2 xi xn … … O x

Page 38: Carte Elemente de teoria probabilitatilor

38 Eroare! Legătură incorectă.

În practică se foloseşte şi un alt mod de a reprezenta grafic valorile variabilei

aleatoare X. Se consideră valorile echidistante şi se ia drept unitate de lungime xi-xi-1=1.

În acest caz, ordonata pi=f(xi) are ca măsură acelaşi număr care exprimă şi aria

dreptunghiului de bază xi-xi-1=1 şi înălţime pi. De regulă se consideră dreptunghiuri astfel

încât xi să fie la mijlocul bazei (fig. 3.6). O astfel de reprezentare grafică este numită

histograma variabilei aleatoare. Unind mijloacele laturilor superioare ale

dreptunghiurilor din histogramă, se obţine curba de distribuţie. Aria histogramei este

egală cu 1.

Fig. 3.6

3.6.2.Pentru v.a. continuă,

]b,a[x)x(fx:X

∈⎟⎠⎞⎜

⎝⎛ , unde f(x)≥0 (funcţia densitate) şi ∫ =

b

a

1dx)x(f .

Graficul reprezentat în acelaşi plan xOy va fi o curbă continuă, ce se obţine prin

metoda cunoscută din analiza matematică. Ea se va numi curba de distribuţie a v.a.

continue (fig.3.7)

f(x)

Mi

Mn

M2

M1

x1 x2 xi xn … … O x

Page 39: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 39

Fig. 3.7

3.7. Probleme rezolvate

1) Să se determine constantele a şi b astfel încât funcţia :

F(x)=a+b arctg x, x∈R

Să fie o funcţie de repartiţie. Dacă X este o variabilă cu această repartiţie să se

calculeze P(0<X<1).

Soluţie :

12

ba)xarctgba(lim1)x(Flimxx

+=+⇔=∞→∞→

02

ba)xarctgba(lim0)x(Flimxx

−=+⇔=−∞→−∞→

Deci : π

==1b,

21a

2) La o întreprindere industrială consumul zilnic dintr-o anumită materie primă este

considerat normal (adică nu depăşeşte o limită fixată) cu probabilitatea 0,8.

a) Să se scrie legea de distribuţie (repartiţie) a v.a. care reprezintă consumul normal

(în zile) într-o săptămână (5 zile lucrătoare).

b) Să se afle funcţia de repartiţie corespunzătoare.

Soluţie :

a) Într-o zi lucrătoare se poate produce unul din următoarele două evenimente :

A – consumul este normal şi p=P(A)=0,8

a

f(x) P(xi<X<x2)

y=f(x)

x1 x2 b O x

Page 40: Carte Elemente de teoria probabilitatilor

40 Eroare! Legătură incorectă.

B – consumul normal este depăşit şi q=1-p=P(B)=0,2

Cele 5 zile lucrătoare consecutive reprezintă 5 probe efectuate după schema lui

Bernoulli, deci probabilitatea ca din 5 probe un număr de x să fie cu consum normal este

dată de relaţia :

5,0x;)2,0()8,0(C)x(P x5xx55 =⋅⋅= −

Deci :

p0=P5(0)=(0,2)5� 0,0003

p1=P5(1)=5⋅0,8⋅(0,2)4� 0,0064

p2=P5(2)=10⋅(0,8)2⋅(0,2)3� 0,0512

p3=P5(3)=10⋅(0,8)3⋅(0,2)2� 0,2048

p4=P5(4)=5⋅(0,8)4⋅(0,2)� 0,4096

p5=P5(5)=(0,8)5� 0,3277

Tabloul de distribuţie al variabilei aleatoare discrete X va fi :

⎟⎠⎞⎜

⎝⎛

3277,04096,2048,00512,00064,00003,0543210:X

b) Funcţia de repartiţie pentru această variabilă discretă va fi :

⎪⎪⎪

⎪⎪⎪

>≤<≤<≤<≤<≤<

=

5x,15x4,6723,04x3,2627,03x2,0579,02x1,0067,01x0,0003,0

0x,0

)x(F

3) Se consideră !x

e)x(fxλ

= λ− ; x=0,1,2,3,… ; λ >0 (funcţia densitate de

probabilitate a distribuţiei Poisson).

a) Să se verifice că f(x) este într-adevăr o densitate de probabilitate (sau de

repartiţie)

b) Să se arate că această distribuţie (Poisson) este valoarea asimptotică a distribuţiei

Bernoulli (schema binomială), adică :

xnxxnx

x

qpClim!x

e −

∞→

λ− =λ ; unde : λ =np

Page 41: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 41

Soluţie :

a) f(x)≥0 (evident când λ >0)

A doua condiţie se va scrie :

1ee!x

e!x

e0x

x

0x

x

==λ

=λ λλ−

=

λ−∞

=

λ− ∑∑ , deoarece ∑∞

=

λ

0x

x

!x este seria lui eλ . Deci f(x) este o

densitate de repartiţie.

b) ⋅⋅

⋅−−−

=⋅⋅+−−

== −−

!xpn

n)]1x(n[)1n(nqp

!x)1xn()1n(nqpC)x(f

xx

xxnxxnxx

nnKK

xnx

xn q!x)np(

n)1x(n

n1n

nnq −− ⋅

−−−⋅=⋅ L

Notăm np=λ, adică n

1q,n

p λ−=

λ= şi obţinem :

xnxxnx

n n1

n1

!xn1x1

n111

n1

!xn)1x(n

n1n

nn)x(f

−−

⎟⎠⎞

⎜⎝⎛ λ

−⎟⎠⎞

⎜⎝⎛ λ

−λ

⋅⎟⎠⎞

⎜⎝⎛ −

−⎟⎠⎞

⎜⎝⎛ −=⎟

⎠⎞

⎜⎝⎛ λ

−λ

⋅−−−

⋅= LL

Presupunând n mare iar p mic dar astfel încât np=λ să fie constant, factorii ⎟⎠⎞

⎜⎝⎛ −

nk1 ,

k=1,2,…x-1 tind către 1 ; λ−→⎟⎠⎞

⎜⎝⎛ λ

− en

1n

şi 1n

1x

→⎟⎠⎞

⎜⎝⎛ λ

−−

.

Deci : λ−

∞→

λ= e

!x)x(flim

x

nn

Observaţii :

a) Această aproximare a legii binomiale (Bernoulli) prin legea de distribuţie a lui Poisson presupune

îndeplinite următoarele condiţii :

- probabilitatea p să fie mică (motiv pentru care legea lui Poisson este numită legea micilor

probabilităţi)

- p să fie mic în raport cu n, adică realizarea evenimentului cu probabilitatea p, în n probe este rară

(legea evenimentelor rare)

b) Comparând densităţile de repartiţie ale celor două distribuţii observăm că densitatea de repartiţie a

distribuţiei binomiale depinde de doi parametri (n şi p) iar cea a distribuţiei Poisson doar de parametrul λ.

4) Într-o anumită perioadă (de vârf), o centrală telefonică primeşte 420 de apeluri pe

oră. Ştiind că centrala poate da 20 de legături / minut şi considerând îndeplinite

condiţiile distribuţiei Poisson, să se calculeze probabilitatea evenimentului prin

Page 42: Carte Elemente de teoria probabilitatilor

42 Eroare! Legătură incorectă.

care apelând un număr de telefon prin centrală, să nu-l putem obţine timp de un

minut.

Soluţie :

V.a. X reprezentând numărul de apeluri telefonice primite la centrală într-un minut,

are deci o distribuţie Poisson, cu funcţia densitate de probabilitate : !x

e)x(fxλ

= λ− ,

parametrul λ fiind numărul de apeluri / primiri. În cazul nostru, 760420

==λ .

Deci : !x

7e)x(fx

7−= şi se cere P(X>20)=1-P(X≤20).

Avem :

04,008,1096e11

!207

!27

!171e1

!x7e1)x(f1)20X(P 7

20

0x

20

0x

2027

x7 ≈⋅−≈⎟⎟

⎞⎜⎜⎝

⎛++++−=−=−=> ∑ ∑

= =

−− L

5) Să se arate că dacă variabilele aleatoare X şi Y sunt egale aproape sigur atunci ele

au aceeaşi repartiţie.

Soluţie :

Fie B mulţimea punctelor în care X şi Y diferă, adică B={X≠Y}. Prin ipoteză, această

mulţime este de măsură (respectiv probabilitate) nulă : P(B)=0.

Avem incluziunea : {X∈A}⊂{Y∈A}∪B, unde A este orice submulţime măsurabilă a

mulţimii în care X şi Y iau valori.

Rezultă : P(X∈A)≤P(Y∈A)+P(B)=P(Y∈A)

Analog, {Y∈A}⊂{X∈A}∪B⇒ P(Y∈A)≤P(X∈A)+P(B)=P(X∈A)

Din cele două inegalităţi deducem că P(X∈A)= P(Y∈A), deci au aceeaşi repartiţie.

Page 43: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 43

Capitolul 4 Caracteristici numerice ale variabilelor aleatoare

Pentru compararea diverselor fenomene care generează variabile aleatoare sunt

necesare date numerice (caracteristici numerice) care trebuie să îndeplinească o serie de

condiţii : să fie definite în mod obiectiv, să aibă o semnificaţie strict legată de variabila în

cauză, să fie uşor de calculat şi de folosit operaţiile algebrice, să fie cât mai insensibile la

fluctuaţii şi eşantionare.

Aceste caracteristici numerice se pot împărţi în trei categorii : caracteristici de

grupare, de împrăştiere şi caracteristici care dau informaţii despre forma distribuţiei.

4.1. Caracteristici de grupare

4.1.1.Valoarea medie (speranţa matematică)

a variabilei aleatoare X este numărul :

⎪⎪⎩

⎪⎪⎨

=

∑=

continuu cazulîn ,dx)x(xf

discret cazul în,px)X(M b

a

n

1iii

(4.1)

Proprietăţi : 1) x1≤M(X)≤xn, în cazul discret

a≤M(X)≤b, în cazul continuu

2) M(c)=0, c=constantă

3) M(cX)=cM(X)

4) M(X+Y)=M(X)+M(Y)

5) M(XY)=M(X)⋅M(Y) dacă X şi Y sunt independente

6) Dacă X, Y sunt v.a.d. astfel încât există M(X2) şi M(Y2), atunci are loc

inegalitatea lui Schwartz :

( ) ( ) ( )22 YMXMXYM ⋅≤

Exemple :

1) Se dă v.a.d. X cu tabloul

⎟⎠⎞⎜

⎝⎛−

2,07,01,0831:X

Deducem M(X)=-1⋅0,1+3⋅0,7+8⋅0,2=3,6

Page 44: Carte Elemente de teoria probabilitatilor

44 Eroare! Legătură incorectă.

2) Pentru v.a. continuă, cu tabloul :

X :[ ]1,0x

2x3x

∈⎟⎠⎞⎜

⎝⎛ ,

avem : M(X) = 43

1

0

31

0

2 dxx3dxx3x ==⋅ ∫∫

Observaţie : Fie X o v.a.d. care ia valorile xi, i I, cu probabilitatea pi=P(X=xi) şi A un eveniment

pentru care P(A) 0.

Dacă seria ( )∑∈

=Ii

ii A/xXPx este absolut convergentă, atunci :

∑∈

==Ii

ii )A/xX(Px)A/X(M (4.2)

Se numeşte valoare medie condiţionată, a lui X de către A.

Se demonstrează că dacă {An}n∈N este un sistem complet de evenimente, iar X este v.a.d. a cărei

valoare medie există, atunci :

∑∞

=

=1n

nn )A/X(M)A(P)X(M (4.3)

4.1.2. Valoarea mediană (mediana variabilei aleatoare)

Dacă X este v.a. discretă sau continuă, atunci numărul real Me pentru care :

P(X≥Me)≥1/2≤P(X≤Me), (4.4)

se numeşte mediană.

Relaţia (4.4) se poate înlocui cu :

F(Me)≤1/2 şi F(Me+0)≥1/2 (4.5)

Reţinem că nu orice v.a.d. admite valoare mediană. Convenim totuşi ca Me să fie

valoarea cea mai mare pentru care F(Me)≤1/2. Dacă F(Me)=1/2 pentru valorile din

[xk,xk+1] atunci se va lua Me=( xk+xk+1)/2.

În cazul v.a. continue, mediana este unic determinată de ecuaţia :

21dx)x(fdx)x(f

x

x

== ∫∫∞

∞−

(4.6)

Din punct de vedere geometric, Me este abscisa punctului prin care trece paralela la

Oy, care împarte în două părţi egale aria limitată de curba de ecuaţie y=f(x)şi de axa Ox.

Page 45: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 45

Exemple :

1) Pentru v.a.d. ⎟⎟

⎜⎜

21

21

30:X funcţia de repartiţie F(x) va fi :

( )⎪⎩

⎪⎨

>

∈∀=∈

=

3x,1

]3,0(x21)x(F],3,0(x,

21

0x,0

)x(F

Deci, Me este orice valoare din (0,3] şi vom lua 5,12

30M e =+

=

2) V.a.d. ⎟⎠⎞⎜

⎝⎛ −

3,05,02,0421:X

are funcţia de repartiţie :

⎪⎪⎩

⎪⎪⎨

>∈

≠−∈

=

4x,1]4,2(x,7,0

21)x(F];2,1(x,2,0

1x,0

)x(F

Deoarece F(x)=1/2 este imposibilă, variabila nu admite Me. Conform definiţiei, se va

lua Me=2.

3) V.a. continuă X :[ ]1,0x

2x3x

∈⎟⎠⎞⎜

⎝⎛ , are funcţia de repartiţie :

⎪⎩

⎪⎨

>

=∈

=

1x,121)x(F],1,0(x,x

0x,0

)x(F 3

Rezultă ecuaţia x3=1/2 care are soluţia unică : x=2-1/3.

4.1.3.Cuantile.

Valoarea mediană poate furniza în unele situaţii, indicaţii mai bune despre repartiţia

unei variabile aleatoare decât valoarea medie. Este firesc deci, să extindem noţiunea de

mediană în vederea obţinerii unei posibilităţi mai mari în studiul funcţiilor de repartiţie.

Astfel, generalizând noţiunea de mediană prin considerarea soluţiilor ecuaţiilor

1n,1i,ni)x(F −== , se obţin aşa numitele valori cuantile de ordinul n :

- O cuantilă de ordinul 2 (mediana), când n=2.

Page 46: Carte Elemente de teoria probabilitatilor

46 Eroare! Legătură incorectă.

- Două cuantile de ordinul 3, când n=3.

- Trei cuantile de ordinul 4 (cuartile), când n=4.

- Nouă cuantile de ordinul 10 (decile), când n=10.

- Nouăzeci şi nouă cuantile de ordinul 100 (centile sau procentile), când n=100. Pentru v.a. continuă, valorile xi, i=1,n-1 pentru care :

n1)x(dF)x(dF)x(dF

1n

2

1

1

x

x

x

x

==== ∫∫∫∞

∞− −

K (4.7)

se numesc cuantile. În particular, pentru n=4, avem :

41)x(dF)x(dF)x(dF)x(dF

3

3

2

2

1

1

x

x

x

x

x

x

==== ∫∫∫∫∞

∞−

; x1, x2, x3 sunt cuartile.

Astfel :

F(x1)≤1/4 şi F(x1+0)≥1/4

F(x2)≤1/4+F(x1)≤1/2 şi F(x2+0)≥1/2

F(x3)≤1/4+F(x2)≤3/4 şi F(x3+0)≥3/4

Observăm că a doua cuantilă x2 coincide cu mediana.

Raportată la valoarea medianei, cuartilele x1 şi x3 se numesc cuantila inferioară

(mică) respectiv cuantila superioară (mare).

4.1.4.Valoarea modală (moda)

Fiind notată cu Mo este valoarea cea mai probabilă a variabilei aleatoare (în cazul discret)

şi respectiv abscisa punctului de maxim al funcţiei densitate de repartiţie, f(x) (în cazul

continuu).

Dacă f(x) are mai multe puncte de maxim atunci v.a. X se numeşte plurimodală.

Pentru repartiţiile simetrice unimodale, valoarea medie M(X) coincide cu moda Mo. Deci

:

în cazul discret, Mo este valoarea pe care X o ia cu cea mai mare probabilitate, iar în

cazul continuu este numărul (abscisa) în care f(x) are valoarea maximă. În cazul v.a.d. Mo

poate să nu fie unic.

Page 47: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 47

În fig. 4.1 se poate vedea moda în cazul v.a. discrete, iar în fig. 4.2 în cazul v.a.

continue.

Fig. 4.1 Fig. 4.2

Exemple :

1) Pentru v.a.d. cu tabloul de distribuţie ⎟⎠⎞⎜

⎝⎛−

2,07,01,0831:X , avem M0=3 pentru că

p2=0,7 este valoarea cea mai mare.

2) Pentru v.a.d. dată de ⎟⎠⎞⎜

⎝⎛ −

3.01.01.03.02.054101 , avem două valori modale: 0 şi 5.

3) Pentru v.a. continuă [ ]1,0x

2x3x

∈⎟⎠⎞⎜

⎝⎛ , avem M0=1, deoarece :

[ ][ ] 3x3)x(fmax 1x

2

1,0x== =

∈ (abscisa punctului de maxim este 1).

4.1.5.Momente şi medii de ordin superior.

Fie X o v.a. discretă sau continuă. Se numeşte moment de ordin r , numărul Mr (r N)

definit astfel :

⎪⎪⎩

⎪⎪⎨

==

∑b

a

r

n

1i

ri

rr

continuu cazulîn ,dx)x(fx

discret cazulîn ,px)X(MM

(4.8)

Se presupune că există valoarea medie a v.a. Xr. Evident M1(x)=M(X).

Se numeşte medie de ordinul r a v.a. X, numărul � r dat de :

P(X=xi)

x MoO

f(x)

x MoO

Page 48: Carte Elemente de teoria probabilitatilor

48 Eroare! Legătură incorectă.

[ ]⎪⎪

⎪⎪

==η

continuu cazulîn ,dx)x(fx

discret cazulîn ,px)X(M)X(

r

b

a

r

rn

1i

ri

r1

rr

(4.9)

Valoarea medie a variabilei rX se numeşte momentul absolut de ordinul r al

variabilei X :

( ) ( ) i

rn

1i

rr pxXMXM ∑==

(4.10)

Exemple :

1) Pentru v.a.d. cu tabloul de distribuţie ⎟⎠⎞⎜

⎝⎛−

2,07,01,0831:X , avem :

M1= -1� 0,1 + 3� 0,7 + 8� 0,2 = 3,6 ; � 1=3,6

M2= (-1)2� 0,1 + (3)2� 0,7 + (8)2� 0,2 = 19,2 ; � 2 = 4,3818

M3= (-1)3� 0,1 + (3)3� 0,7 + (8)3� 0,2 = 121,2 ; � 3 = 4,9488 etc.

2) Pentru v.a. continuă [ ]1,0x

2x3x

∈⎟⎠⎞⎜

⎝⎛ , avem :

M1= M(X)=3/4, � 1=3/4

,53dxx3xM 2

1

0

22 == ∫ � 2=0,7746

,21dxx3xM 2

1

0

33 == ∫ � 3=2-1/3

……………………………………………………..

,3n

3dxx3xM 21

0

nn +

== ∫ � n = n

3n3+

4.2.Caracteristici de împrăştiere.

Deoarece caracteristicile de grupare nu pot oferi nici o indicaţie asupra împrăştierii

(concentrării) valorilor variabilei faţă de valoarea de grupare, sunt necesare caracteristici

numerice care să respecte gradul de împrăştiere a valorilor variabilei între ele şi a acestora

faţă de valoarea medie.

Page 49: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 49

4.2.1.Variabila abatere. Abaterea absolută medie.

Fie v.a.d. X cu media M(X)=m. Se numeşte variabilă abatere a variabilei X faţă de r

variabila (X-r).

De regulă se consideră abaterea faţă de valoarea medie m, adică X-M(X)=X-m.

Teoremă : Valoarea medie a variabilei abatere este nulă.

Demonstraţia este imediată : M(X-m)=M(X)-m=m-m=0 ( vezi propoziţiile 3 şi 4 ale

valorii medii).

Se numeşte abatere absolută medie , numărul M( X-m ) dat de expresia :

⎪⎪⎩

⎪⎪⎨

⋅−=−

∑=

b

a

n

1iii

cotinuu cazulîn ,dx)x(fmx

discret cazulîn ,pmx)mX(M

(4.11)

Se constată că M( X-m ) 0 dacă X constantă şi acest număr se poate considera

ca şi caracteristică de împrăştiere a v.a. faţă de medie (m).

Exemple :

1) Pentru v.a.d. ⎟⎠⎞⎜

⎝⎛−

2,07,01,0831:X , cu variabila abatere (X-3,6) dată de tabloul :

⎟⎠⎞

⎜⎝⎛−− 2,07,01,0

4,46,06,4:)6.3X( .

Se verifică direct că M(X-3,6) = M(X)-3,6=0 (media a fost calculată în exemplul

precedent fiind egală cu 3,6).

2) Pentru v.a. dată mai sus, considerăm :

⎟⎠⎞⎜

⎝⎛− 1.02.07.0

6.44.46.0:6.3X

Avem : M( X-3,6 )= 0,42+0,88+0,46=1,76

3) Să se scrie variabila abatere şi să se calculeze abaterea absolută medie a v.a.

continue [ ]1,0x

2x3x

∈⎟⎠⎞⎜

⎝⎛ .

A fost calculată anterior media M(X)=m=3/4. Variabila abatere este :

Page 50: Carte Elemente de teoria probabilitatilor

50 Eroare! Legătură incorectă.

[ ]1,0x2x3

4/3x:)43X(

∈⎟⎠⎞⎜

⎝⎛ −−

Observăm că M(X-3/4)=0 iar abaterea absolută medie va fi :

dxx34/3x43XM

1

0

2∫ ⋅−=⎟⎟⎠

⎞⎜⎜⎝

⎛−

⎪⎩

⎪⎨

<−

≥−=−

43 xdacă ,x

43

43 xdacă ,

43x

4/3x

Deci : ∫∫ =−+−−=⎟⎟⎠

⎞⎜⎜⎝

⎛−

1

4/3

24/3

0

2 1582.0dxx)4/3x(3dxx)4/3x(343XM

4.2.2.Dispersia. Abaterea medie pătratică.

Abaterea absolută medie este mai greu de calculat din cauza valorilor absolute, motiv

pentru care în practică se foloseşte mai rar. În locul ei se utilizează dispersia.

Fie o v.a. X cu variabila abatere (X-m) şi pătratul ei (X-m)2 , unde m=M(X). Se numeşte dispersia variabilei X , numărul D(X) dat de :

D(X) = �2 = M((X-m)2) (4.12)

Deci :

⎪⎪⎩

⎪⎪⎨

−=σ=

∑=

b

a

2

n

1ii

2i

2

continuu cazulîn ,dx)x(f)mx(

discret cazulîn ,p)mx()X(D

(4.13)

Teoremă : Dispersia este egală cu diferenţa dintre momentul de ordinul II şi pătratul

momentului de ordinul I (mediei), adică :

( )[ ] 22

22 mMXM)X(M)X(D −=−= (4.14)

Pentru demonstraţie plecăm de la definiţia dispersiei : D(X) = M[(X-m)2] = M(X2-2mX +x2) = M(X2) –2mM(X) + m2 = M2 – m2

Proprietăţi :

Page 51: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 51

1. D(0) = 0 , D(c) = 0, c-constantă

2. D(X) � 0 , � X

3. D(X� Y) = D(X) +D(Y) dacă X şi Y sunt independente

4. D(cX) = c2D(X) (c-constantă)

5. D(c+X) = D(X)

Demonstraţiile fiind simple, rămân la discreţia cititorului, pentru o mai bună fixare a

cunoştinţelor. Totodată, reţinem :

a. Dacă � şi � sunt constante iar Y=�X+� , atunci : D(Y)=� 2D(X)

b. Dacă � i (i=1,n) sunt constante iar Xi (i=1,n), v.a.d. independente două câte două,

atunci : D(� 1X1+ … + � nXn) =( � 1)2 D(X1) + … + (� n )2 D(Xn)

Sau : ( )∑∑ λ=⎟⎠

⎞⎜⎝

⎛λ

n

1i

2ii

n

1i XDXD

Prin definiţie, rădăcina pătrată a dispersiei se numeşte abatere medie pătratică (�).

Deci, σ=)X(D şi D(X) = �2. Abaterea � are aceeaşi dimensiune (unitate de măsură) ca

şi variabila aleatoare.

Exemple :

1) Pentru v.a. continuă X : [ ]1,0x

2x3x

∈⎟⎠⎞⎜

⎝⎛

Avem M2=3/5 şi m=3/4 iar m2=9/16. Rezultă D(X)= M2-m2 = 3/80 = 0,0375 şi

19365,00375,0 ≅=σ

2) Să se calculeze dispersia v.a.d. având tabloul de distribuţie : ⎟⎠⎞⎜

⎝⎛−

2,07,01,0831:X

Cunoaştem că m=3,6 şi ⎟⎠⎞

⎜⎝⎛−− 2,07,01,0

4,46,06,4:)6.3X( , deci :

⎟⎠⎞

⎜⎝⎛− 2,07,01,0

36,1936,016,21:)6.3X( 2

Rezultă : D(X) = M[(X-3,6)2] = 21,16� 0,1 + 0,36� 0,7 + 19,36� 0,2 = 6,24

(Sau calculăm : M2(X)=M(X2)=19,2 şi apoi D(X)= M2-m2=19,2-12,96=6,24)

4.2.3.Momente centrate (medii centrate). Covarianţa.

Se numeşte moment centrat sau medie centrată de ordinul r numărul � r, egal cu

momentul de ordinul r al variabilei abatere :

Page 52: Carte Elemente de teoria probabilitatilor

52 Eroare! Legătură incorectă.

( ) ( )[ ]rrr mXMmXM −=−=μ (4.15)

Deci :

⎪⎪⎩

⎪⎪⎨

−=μ

∑=

continuu cazulîn ,dx)x(f)mx(

discret cazul în,p)mx()X( b

a

r

n

1ii

ri

r

(4.16)

Între momentele centrate şi cele necentrate au loc relaţiile :

mM,kr,MMC)1( 1k1kr

kr

r

0k

kr =>−=μ −

=∑

(4.17)

care se obţin din (x-m)r folosind binomul lui Newton şi proprietăţile mediei. În

particular : 312133210 M2MM2M),X(D,0,1 +−=μ=μ=μ=μ (4.18)

Definiţie : Se numeşte covarianţa variabilelor X şi Y, numărul :

( )( )[ ])Y(MY)X(MXM)Y,Xcov( −−= (4.19)

ce reprezintă momentul centrat mixt al celor două variabile aleatoare.

Se pot demonstra uşor relaţiile utile :

( ) )Y(M)X(MXYM)Y,Xcov( −= (4.20)

D(X� Y) = D(X) + D(Y) � 2cov(X;Y) ; � X;Y (4.21)

cov (X;Y) = 0 dacă X,Y sunt independente (4.22)

4.2.4.Normata unei variabile aleatoare.

Fie X o v.a. cu media M(X)=m şi abaterea medie pătratică � = ⌦ D(X). Se numeşte

normata v.a. X, variabila σ−

=mXZ , având proprietăţile : M(Z) = 0, D(Z) = 1.

Într-adevăr : 0)mm(1)m)X(M(1)mX(M1)Z(M =−σ

=−σ

=−σ

=

1)X(D)X(D0)X(D1)mX(D1)Z(D 22 ==−

σ=−

σ=

Exemplu : Să se determine normata v.a.d a cărei tablou de distribuţie este :

Page 53: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 53

⎟⎠⎞⎜

⎝⎛−

2,07,01,0831:X

Avem calculate : M(X)=m=3,6 , 24,6mM)X(D 22 =−==σ

Deci : 24,6

6,3xz −= , având tabloul de distribuţie :

⎟⎟⎟

⎜⎜⎜

⎛ −−

2,07,01,024,64,4

24,66,0

24,66,4

:Z

Prin calcul deducem că M(z)=0 şi D(z)=1.

4.3.Caracteristici care dau informaţii privind forma distribuţiei

Se consideră două caracteristici numerice care dau informaţii asupra curbei pe care

sunt situate punctele (xi, pi) , i=1,n , în cazul discret, respectiv (x, f(x)), x [a, b] în cazul

continuu.

1) Simetria şi asimetria . O curbă plană de ecuaţie y=f(x) este simetrică faţă de o

valoare m dacă f(m-x) = f(m+x), adică punctele curbei, simetrice faţă de

dreapta x=m, au ordonatele egale. În caz contrar, curba este asimetrică.

Asimetria se măsoară prin coeficienţii de asimetrie şi anume :

- coeficientul lui Pearson :

σ−

=−

=α 001

Mm)X(D

)X(M)X(M

(4.23)

- coeficientul lui Fischer :

( )[ ]( ) 3

33

3

2)X(D

)X(MXMσμ

=−

=α (4.24)

2) Boltirea (turtirea) este caracterizată de coeficientul de boltire sau aplatizare

(coeficientul lui Fischer):

( )( )[ ]

( ) 44

2

4

XDXMXM

σμ

=−

=β (4.25)

Numim excesul distribuţiei :

Page 54: Carte Elemente de teoria probabilitatilor

54 Eroare! Legătură incorectă.

3E −β= (4.26)

Dacă E � 3 (� � 3) distribuţia se numeşte de tip leptokurtic iar dacă E � 3 (� � 3)

distribuţia este de tip platykurtic.

De exemplu, pentru distribuţia normală (aşa cum se va vedea ulterior) avem � =3 şi

E=0 iar pentru distribuţia binomială (Bernoulli) se obţine � = 3 + (1-6pq)/ npq şi

observăm că dacă n� � (E� 0), adică distribuţia binomială tinde către o distribuţie

normală când excesul ei tinde la zero, respectiv n→∞. (La fel, α2→0 când n→∞ şi pentru

o distribuţie normală α2=0).

4.4.Corelaţie şi regresie

Fie {� ,K,P} un câmp borelian de probabilitate şi X,Y două v.a. definite pe acest

câmp. Notăm M(X)=m1 şi M(Y)=m2.

Se numeşte corelaţie sau covarianţă a variabilelor X şi Y, valoarea

)]mY)(mX[(M)Y,Xcov( 21 −−= (4.27)

Se verifică uşor că : Cov(aX,bY)=a b cov(X,Y), a şi b constante

Cov(X,Y)=cov(Y,X)

Se numeşte coeficient de corelaţie raportul (notat cu � sau r) :

)Y(D)X(D)Y,Xcov()Y,X(

⋅=ρ (4.28)

Evident : � (X,Y)=� (Y,X)

Dacă v.a. sunt discrete şi pij=P(X=xi, Y=yj), i,j∈N, atunci din (4.27) şi din (4.28)

rezultă :

)Y(D)X(D

p)my)(mx()Y,X( 1i 1j

ij2j1i

−−=ρ

∑∑∞

=

=

(4.29)

Dacă v.a. X şi Y sunt continue şi au densitatea de repartiţie bidimensională f(x,y)

atunci deducem formula :

Page 55: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 55

∫ ∫∞

∞−

∞−

−−=ρ dxdy)y,x(f)my)(mx()Y(D)X(D

1)Y,X( 21 (4.30)

Coeficientul de corelaţie dat de (4.28) se poate scrie şi sub forma :

)Y(D)X(D)Y(M)X(M)XY(M)Y,X( −

=ρ , (4.31)

având în vedere că cov(X,Y)=M(XY)-M(X)M(Y).

4.4.1.Proprietăţile coeficientului de corelaţie :

a) Dacă X, Y sunt v.a. independente atunci � (X,Y)=0. Reciproca nu este adevărată.

(Se aplică : M(XY)=M(X)M(Y)).

V.a. X şi Y sunt necorelate dacă M2(X) şi M2(Y) sunt finite şi M(XY)=M(X)M(Y).

Dacă în plus M(XY)=0, atunci v.a. X şi Y se numesc ortogonale.

b) Pentru X şi Y ale căror valori medii există, avem :

� 2(X,Y)≤1 (4.32)

Relaţia se deduce aplicând inegalitatea lui Schwarz :

( )( )[ ] ( )[ ] ( )[ ] )Y(D)X(DmYMmXMmYmXM 22

2121 =−−≤−− (4.33)

Apoi, din (4.27), (4.28) şi (4.33) rezultă (4.32).

De asemenea, observăm că :

( )[ ]1

)X(DmXM

)X,X(2

1 =−

=ρ (4.34)

( )[ ]1

)X(DmXM

)X,X(2

1 =−−

=−ρ (4.35)

c) Între v.a. X şi Y există o relaţie liniară dacă şi numai dacă � 2(X,Y)=1.

Pentru demonstraţie, să presupunem că între v.a. X şi Y există o relaţie liniară de

forma Y=aX+b ; a≠0, b – constante. Avem : m2=am1+b şi în baza formulei (4.28) şi a

relaţiei (4.27) obţinem :

( )( )[ ] ( )[ ])X(Da

mXaM)baX(D)X(D

bambaXmXM)Y,X(

2111 −

=+⋅

−−+−=ρ , adică :

⎩⎨⎧

>=ρ<−==ρ 0a,1

1)Y,X(;0a,1aa)Y,X(

2

Reciproc, considerând � 2=1 şi v.a. :

Page 56: Carte Elemente de teoria probabilitatilor

56 Eroare! Legătură incorectă.

)X(DmX

u 1−= şi

)Y(DmY

v 2−= ,

observăm că :

( )[ ] ( )[ ] ( )[ ])Y(D)X(D

)uv(M2)Y(D

mYM)X(D

mXMvuM

22

212 ±

−+

−=±

1)Y,X()uv(M m=ρ= ,

adică : ( )[ ] ( ) 0122vuM 2 =±=± m şi u � v=0 aproape peste tot în � . Înlocuind u şi v

aici, deducem :

X)X(D)Y(D

)X(D)Y(Dm

)Y(MY 1 m±= ,

care arată că între Y şi X există o relaţie liniară.

4.4.2.Funcţia de regresie

Considerăm un vector aleator n-dimensional X=(X1,X2,…,Xn) şi funcţia de repartiţie

condiţionată a v.a. Xn de variabilele X1,…,Xn-1 : F(xn� x1,…,xn-1).

Se numeşte funcţie de regresie a v.a. Xn faţă de v.a. X1,…,Xn-1, valoarea medie

M(Xn� X1,…,Xn-1), considerată ca funcţie de X1,…,Xn-1.

Reţinem că dacă X este v.a.d. care ia valorile xi (i I) cu probabilităţile pi=P(X=xi),

A este un eveniment cu P(A) 0, iar seria ∑∈

=Ii

ii )AxX(Px este absolut convergentă,

atunci :

==Ii

ii )AxX(Px)AX(M (4.36)

se numeşte valoare medie condiţionată a variabilei X de evenimentul A.

Se demonstrează că dacă {An}n N este un sistem complet de evenimente, iar X este o

v.a.d. a cărei valoarea medie există, atunci :

∑∞

=

=1n

nn )AX(M)A(P)X(M (4.37)

Page 57: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 57

În particular, dacă valoarea medie condiţionată ce defineşte funcţia de regresie este

de forma :

M(Xn� X1,…,Xn-1)=a0+a1X1+…+an-1Xn-1, (4.38)

atunci regresia este liniară, iar coeficienţii a1, …, an-1 se numesc coeficienţi de regresie

(modelul regresiei multiple).

Să considerăm un vector aleator bidimensional : X=(X1,X2). Au loc proprietăţile

(valabile şi pentru vectori n-dimensionali) :

1) Dacă X1 sau X2 sunt constante, atunci :

( ) ( ) 0X,XX,Xcov 2121 =ρ= (4.39)

2) Dacă funcţia de regresie a v.a. X2 faţă X1 este liniară, adică M(X2/X1) = a0 + a1X1

(modelul regresiei simple), atunci :

)X(D)X,Xcov(

)X(D)XX(D

)X,X(a1

21

1

21

1

2211 =ρ=

σσ

ρ= (4.40)

)X(M)X(D

)XX(D)X(M)X(Ma)X(Ma 1

1

2121120 ρ−=−=

(4.41)

De aici, rezultă că dacă :

M(X2� X1)=a0+a1X1 şi M(X1� X2)=b0+b1X2,

atunci :

)]X(MX[)X,X()X(M)XX(M 111

221212 −

σσ

ρ=− (4.42)

)]X(MX[)X,X()X(M)XX(M 222

121121 −

σσ

ρ=− (4.43)

�1 şi �2 fiind )X(D 1 şi respectiv )X(D 2 (abaterile medii pătratice).

Dreptele (4.42) şi (4.43) se intersectează în punctul de coordonate (M(X1),M(X2)).

Independent de tipul regresiei, dreptele :

)]X(My[)X,X()X(My 11

2212 −

σσ

ρ=− (4.44)

)]X(My[)X,X()X(Mx 22

1211 −

σσ

ρ=− , (4.45)

Page 58: Carte Elemente de teoria probabilitatilor

58 Eroare! Legătură incorectă.

se numesc drepte de regresie, iar coeficienţii 1

2

σσ

ρ şi 2

1

σσ

ρ se numesc coeficienţi de

regresie liniară. Ecuaţia (4.44) reprezintă dreapta de regresie a lui X2 faţă de X1, iar

ecuaţia (4.45) reprezintă dreapta de regresie a lui X1 faţă de X2. În sens geometric, a1 este

panta dreptei de regresie (sau de estimare), în unităţi ale abaterii standard. În calculul

corelaţiei, coeficientul a1 arată cu cât se modifică variabila X2 când X1 se modifică cu o

unitate, adică răspunde tocmai la problema regresiei.

În cazul corelaţiei directe, a1>0 iar în cazul corelaţiei inverse a1<0.

Zicem că o corelaţie este directă sau pozitivă când variaţiile a două fenomene se

produc în acelaşi sens, iar în caz contrar corelaţia este inversă sau negativă. Parametrul a0

(termenul liber) de regulă nu are o semnificaţie independentă, ci una de calcul, putând

avea sens negativ.

Funcţia de modelare liniară îşi găseşte aplicaţie şi atunci când variaţiile variabilelor

nu urmează legea progresiei aritmetice dar ele sunt mici şi deci curba descrisă este foarte

aproape de o linie dreaptă. Multe legături statistice se înscriu pe curbe diferite, definite de

ecuaţii de regresie neliniare, cum ar fi : 2

210* xaxaay ++= (legătură de tip parabolic)

x1aay 10

* += (legătură de tip hiperbolic)

1a0

* xay = (legătură de tip funcţie putere)

Am notat y*=M(Y/X) – media condiţionată teoretică a lui Y în raport cu X.

Funcţia putere implică un ritm de variaţie constant, de unde şi valabilitatea ei numai

pentru fenomene cu evoluţie continuă, neadmiţând nivel de saturaţie. Aproximarea

exponenţială, ca şi cea liniară, apare potrivită în cazul intervalelor de variaţie nu prea

mari. Ea este recomandată şi atunci când nu se cunoaşte forma dependenţei într-un mod

mai precis.

Prin logaritmare, funcţia putere devine liniară.

În cazul când v.a. sunt independente, linia de regresie a variabilei Y în raport cu X

este o paralelă la Ox, iar linia de regresie a lui X în funcţie de Y este o paralelă la Oy.

4.5. Probleme rezolvate

1) Dacă X este o variabilă aleatoare continuă şi pozitivă cu M(X) finită, să se arate

că are loc relaţia (inegalitatea lui Markov) :

Page 59: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 59

( ) 1)( ,1)X(MXP >λ∀λ

≤λ≥ .

Soluţie :

)]m(F1[mdx)x(fmdx)x(xfdx)x(xfdx)x(xfdx)x(xf)X(Mmmmm

m

00

λ−λ=λ≥≥+=== ∫∫∫∫∫∞

λ

λ

λ

λ∞

De aici,

λ≤λ<−=λ−

1)mX(P1)m(F1 sau λ

≤λ≥1)mX(P

2) Se consideră funcţia :

⎩⎨⎧ π∈= uiintervalul afaraîn 0,

][0, x,xsina)x(f

a) Să se determine constanta reală a astfel ca f să fie densitatea de probabilitate a

unei v.a.

b) Să se determine funcţia de repartiţie corespunzătoare

c) Dacă X are această repartiţie, să se calculeze ⎟⎠⎞

⎜⎝⎛ π

<≤6

X0P

d) Să se calculeze Me(X)

e) Să se calculeze M(X) şi o limită superioară pentru P(X� 5M(X)),

Soluţie :

a) 21a1a2xdxsinadx)x(f

0

=⇒=== ∫∫π∞

∞−

,f(u)duF(x) : deci 0,f(u) ,du)u(f)x(Fx

0

x

∫∫ =≥=∞−

](0, xdacă ,2xsin)xcos1(

21udusin

21)x(F 2

x

0

π∈=−== ∫

∫ ∫ ∫π

π

π

π>==+=0

x

0

xdacă ,1udusin21du)u(fdu)u(f)x(F

b) Deci :

⎪⎩

⎪⎨

π>

π∈

=

x,1

],0(x,2xsin

0x,0

)x(F 2

Page 60: Carte Elemente de teoria probabilitatilor

60 Eroare! Legătură incorectă.

c) 4

32udusin21

6X0P

6

0

−==⎟

⎠⎞

⎜⎝⎛ π

<≤ ∫π

şi reprezintă aria cuprinsă între graficul

funcţiei densitate de probabilitate, axa Ox şi dreptele x=0, 6

x π= . (fig.4.3)

Fig. 4.3

d) F[Me(X)]=1/2 conduce la 2

x,42

x,21

2xsin 2 π

== . Din punct de vedere

geometric, mediana este abscisa punctului prin care trece paralela la Oy care

împarte în două părţi egale aria mărginită de y=f(x) şi axa Ox.

e) 2

xdxcos0xcosx21xdxsinx

21dx)x(xf)X(M

00

π=⎟⎟

⎞⎜⎜⎝

⎛+π−=== ∫∫∫

ππ+∞

∞−

Aplicând inegalitatea lui Markov pentru �=5 : P(X� 5M(X)) = P(X� 5� /2)� 1/5

3) Se dă funcţia f(x) = Rx,e21 x ∈− . Să se arate că este o densitate de repartiţie.

Dacă X este v.a. urmând această repartiţie, să se găsească M0(X) şi D(X).

Soluţie : Se observă că f(-x) = f(x), (� )x R .

R)x( ,0)x(f ∈∀> şi 1edxe212dx)x(f 0

x

0

x =−== ∞−∞

−∞

∞−∫∫

Funcţia f(x) dată este densitatea de repartiţie Laplace, deci X este o v.a. Laplace

(fig.4.4). Pe grafic se observă că pentru x=0 obţinem valoarea cea mai probabilă (funcţia

modală sau dominanta) : M0(X)=1/2

x 2π x 0 �

F(x)

0 6π

2π �

21

f(x)

21

f(x)

x

0

Page 61: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 61

Fig. 4.4

Pentru calculul dispersiei aplicăm formula : D(X)=M2(X)-M12(X)

0dxxe21dx)x(xf)X(M x

1 ==== ∫∫∞

∞−

−∞

∞−

L

2dxexdxex21dx)x(fx)X(M

0

x2x222 ===== ∫∫∫

∞−

∞−

−∞

∞−

L

Deci : D(X)=2.

4) Fie {E,K,P} un câmp de probabilitate cu ( )A,AE = (modelează o experienţă

Bernoulli) şi P(A)=p (0,1). Se repetă experienţa de o infinitate de ori şi i se

asociază v.a. X ce reprezintă numărul de eşecuri obţinute până la producerea

evenimentului A. Să se scrie distribuţia v.a. A şi să se afle M(X) şi D(X).

Soluţie : Avem o repartiţie geometrică. Valorile lui X sunt : 0,1, … k, … Când X ia

valoarea k înseamnă că s-a produs de k ori contrariul lui A şi în final evenimentul A,

adică :

p1q ; pq)AAA(P)kX(P k −==== IIKI

Tabloul de repartiţie al lui X va fi deci :

⎟⎠⎞⎜

⎝⎛

LLLL

kpqpqpk10:X

Avem 1q1

1pqppq0k

k

0k

k =−

== ∑∑∞

=

=

(s-a folosit suma progresiei geometrice conver-

gente, cu raţia q<1). Apoi, pqkqpkpq)X(M

1k

k

0k

k === ∑∑∞

=

=

şi == ∑∞

=

k

0k

22 pqk)X(M

23k

0k

2

p)q1(q

p)q1(pqqkp +

=+

== ∑∞

=

(În calcule s-a folosit seria geometrică şi derivata sa, cu raţia q (0,1))

Deci, D(X)=M(X2)-[M(X)]2= 22

2

2 pq

pq

p)q1(q

=−+

Page 62: Carte Elemente de teoria probabilitatilor

62 Eroare! Legătură incorectă.

5) Dacă X este v.a. din problema precedentă, să se demonstreze :

P(X� k+j/X� k) = P(X� j) , � j,k N

Soluţie : Notăm cu A evenimentul X� k+j şi cu B evenimentul X� k. Rezultă :

)k(F1)jk(F1

)kX(P1)jkX(P1

)kX(P)jkX(P

)kX(P)]jkX()kX[(P

)B(P)BA(P)B/A(P

−+−

=<−

+<−=

≥+≥

=≥

+≥∩≥=

∩=

unde F este funcţia de repartiţie a lui X.

q1q1ppq)jk(F

jk1jk

0i

i

−−

==++−+

=∑ şi

q1q1ppq)k(F

k1k

0i

i

−−

== ∑−

=

jk

jk

k

jk

qpq

qpqpqpq1

pqpq1)B/A(P ==+−−

+−−=

+

Membrul drept al relaţiei va fi :

jj1j

0i

i qq1q1p1pq1)j(F1)jX(P1)jX(P =

−−

−=−=−=<−=≥ ∑−

=

, deci are loc egalitatea

din enunţ. Notă : Aceasta se numeşte proprietatea lipsei de memorie a repartiţiei geometrice deoarece

evenimentul B este „trecut” faţă de evenimentul A şi este singura repartiţie discretă cu această proprietate.

Se poate demonstra că dacă o v.a.d. are proprietatea amintită, atunci ea urmează obligatoriu repartiţia

geometrică.

Page 63: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 63

Capitolul 5 Funcţie caracteristică şi funcţie generatoare

5.1. Definiţia funcţiei caracteristice. Proprietăţi.

Fie X şi Y două v.a. reale. Variabila Z=X+iY ( )1i −= se numeşte v.a. complexă.

Prin analogie cu numerele complexe, variabilei Z îi putem ataşa biunivoc punctul aleator

(X,Y) – imaginea lui.

Prin definiţie M(Z)=M(X)+iM(Y).

Expresia :

Rt,tXsinitXcoseitX ∈+= (5.1)

este o v.a. complexă având modulul egal cu unitatea :

1tXsintXcose 22itX =+= , deci eitX este mărginită. Valoarea mediei a acestei v.a.

există şi este unic determinată de funcţia de repartiţie F(X).

Prin definiţie, valoarea medie a v.a. eitX se numeşte funcţie caracteristică a v.a. X,

adică :

( )⎪⎪⎩

⎪⎪⎨

==ϕ∫

∑∞

∞−

continuu cazulîn ,dx)x(fe

discret cazulîn ,ep

eM)t(itx

Ik

itxk

itX

k

(5.2)

Reţinem că fiecărei v.a. îi corespunde o funcţie de repartiţie F şi o funcţie

caracteristică � , care este continuă în raport cu t R şi ia valori complexe. Funcţia � (t)

este un instrument de studiu al v.a. mai uşor de folosit decât funcţia de repartiţie.

Proprietăţi (fără demonstraţie) :

1) � (0)=1 ; � � (t)� � 1, (� ) t R

2) � (t) este uniform continuă pe R

3) )t()t( ϕ=−ϕ (conjugata)

4) Dacă Y=aX+b ; a,b R atunci : )at(e)t( Xitb

Y ϕ=ϕ

Page 64: Carte Elemente de teoria probabilitatilor

64 Eroare! Legătură incorectă.

5) Dacă X şi Y sunt independente, atunci :

� X+Y(t)= � X(t)⋅� Y(t)

Proprietatea de mai sus se poate generaliza pentru n variabile

6) Dacă X admite M(� X� n) ; n>0, atunci :

∫∞

∞−

=ϕ )x(dFexi)t( itxnn)n( şi n

)n(n

n i)0()X(M)X(M ϕ

==

unde � (n) înseamnă derivata de ordinul n a lui � .

7) Dacă (� )n N, (� )M(� X� n), atunci � (t) se poate dezvolta în serie de puteri

:

)X(M!k)it()t( k

0k

k

∑∞

=

8) Dacă � (t) este reală, atunci : 1-� (2t)� 4[1-� (t)], (� )t R (teorema lui

Raikov)

9) (� )t, h R are loc relaţia :

� � (t)- � (t+h)� 2� 2� (0)[ � (0)-Re� (h)]

unde Re� (h) este partea reală a lui � (h).

Observaţie :

Odată cu � (t) se poate considera şi ln� (t)= � (t) care se numeşte a doua funcţie caracteristică.

5.2. Funcţie generatoare

Fie v.a.d. X cu tabloul de repartiţie n,1ii

ipx:X

=⎟⎠⎞

⎜⎝⎛

Se numeşte funcţie generatoare ataşată v.a. X, valoarea medie a variabilei etX, adică :

( ) ∑=

==n

1i

txi

tX iepeM)t(g (5.3)

Dacă X este v.a. continuă cu tabloul ]b,a[x)x(f

x:X∈

⎟⎠⎞⎜

⎝⎛ , atunci :

∫=b

a

tx dx)x(fe)t(g (5.4)

Avem :

Page 65: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 65

⎪⎪⎩

⎪⎪⎨

=

∑=

b

a

txk

n

1i

txi

ki

)k(

continuu cazulîn ,dx)x(fex

discret cazulîn ,epx)t(g

i

,

(5.5)

Iar pentru t=0 : g(k)(0)=Mk(X)=M(Xk), deci funcţia generatoare se poate utiliza în

calculul momentelor de diferite ordine, prin derivare în t=0.

Exemple : Fie X o v.a.d. urmând o lege binomială de distribuţie :

n,0kknkk

n qpCk:X

=− ⎟

⎠⎞⎜

⎝⎛

Avem : ( ) ( ) ( )ntn

0k

knktkn

n

0k

knkkn

tktX qpeqpeCqpCeeM)t(g +==== ∑∑=

=

Apoi :

g’(t)=npet(pet+q)n-1 ; g’(0)=np=M1(X)=M(X)

g”(t)=np[et(pet+q)n-1+(n-1)pe2t(pet+q)n-2] şi g”(0)=np(np+q)=M2(X)=M(X2) etc.

5.3. Teorema de inversiune şi teorema de unicitate

Fie v.a. X cu funcţia de repartiţie F(x) şi funcţia caracteristică � (t).

Teorema 1 : Dacă F(X) este continuă în x1 şi x2 atunci :

dt)t(it

eelim21)x(F)x(F

21 itxitx

21 ϕ−

π=− ∫

λ

λ−

−−

∞→λ

(5.6)

Această formulă se numeşte de inversiune deoarece permite determinarea funcţiei de

repartiţie când se cunoaşte funcţia caracteristică.

Exemplu : Se cere F(x) pentru v.a. X, ştiind că .e)t( 2t 2

−=ϕ Avem :

dtettxsin1dte

ttxsin

21dte

ittxcos1

21

dteit

txsinitxcos121dte

ite1

21)0(F)x(F

2t

0

2t

2t

2t

2titx

222

22

−∞+−∞+

∞−

−∞+

∞−

−+∞

∞−

−+∞

∞−

∫∫∫

∫∫

π=

π+

−π

=+−

π=

−π

=−

(Prima integrală este nulă pentru că funcţia de integrat este impară pe un interval

simetric iar pentru a doua integrală observăm că funcţia de integrat este pară).

Apoi avem :

,dtetxcos1)x(F0

2t 2

∫∞

−⋅

π=′

(5.7)

Page 66: Carte Elemente de teoria probabilitatilor

66 Eroare! Legătură incorectă.

Pe care o integrăm prin părţi ⎟⎟⎠

⎞⎜⎜⎝

⎛=′=

−txcosg,ef 2

t 2

Rezultă : x

txsing,te'f 2t 2

=−=−

.

Deci : dtetxsintx

1ex

txsin1)x('F 2t

00

2t 22

−∞∞−

∫ ⋅π

=

Primul termen tinde la zero, astfel încât :

dtetxsintx

1)x('F 2t

0

2−

∫ ⋅π

= (5.8)

Derivând (5.7) şi ţinând seama de (5.8) obţinem :

)x('xFdtetxsint1)x(''F 2t

0

2

−=⋅π

=−∞

De unde : x'F''F

−= sau Cln2

x)x('Fln2

+−= (prin integrare)

De aici,

2t 2

eC)x('F−

⋅= şi 1

x2t

CdteC)x(F2

+= ∫∞−

0C0)x(Flim 1x=⇒=

−∞→ şi

π==π⇒=

∞→ 21C,12C1)x(Flim

x

În fine, dte21)x(F

x2t 2

∫∞−

π=

Teorema 2 (de unicitate) : Funcţia caracteristică � determină în mod unic funcţia de

repartiţie F.

Demonstrarea celor două teoreme este cuprinsă în cărţile de specialitate din

bibliografia prezentei lucrări.

5.4. Probleme rezolvate

1) Să se calculeze funcţia caracteristică � (t), a repartiţiei Cauchy care are densitatea

de repartiţie :

Rx,)x1(

1)x(f 2 ∈+π

=

Soluţie :

Având o repartiţie continuă, obţinem :

Page 67: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 67

∫∞

∞− +π=ϕ 2

itx

x1dxe1)t( ,

care se calculează printr-o metodă din teoria funcţiilor complexe, utilizând funcţia

complexă 2

itz

z1e)z(H+

= pe care o vom integra, pentru t>0, pe conturul (�) din fig.5.1,

unde R>1 astfel ca punctul (0,1) asociat lui i să intre în domeniu.

Utilizând reziduul lui H, avem :

∫Γπ

=)(

dz)z(Hi2

1HRez

Fig.5.1

Deci : ⎟⎟⎠

⎞⎜⎜⎝

++

+π= ∫ ∫

− γ

R

R )(2

itz2

itx

z1dze

x1dxe

i21HRez

Dar : 0R1RR

R1

e

z1dze 22

itz

2itz →

≤π+

≤+∫

γ

când R� � .

Trecând la limită pentru R� � obţinem în prima integrală :

,i2

e)iz)(iz(

e)iz(limx1

dxetitz

iz2itx

∞−

=+−

−=

+∫

deci : RezH⋅2� i� � e-t şi

0t,ex1

dxe1)t( t2

itx >=+π

=ϕ −∞

∞−∫

Pentru t<0, considerăm conturul simetric şi obţinem � (t)=et, aşa că în final :

� (t)=e-� t� , t R.

2) Fie n,1k,X k = , v.a. independente în ansamblu, urmând o repartiţie Cauchy. Să

se determine repartiţia variabilei Y rezultată ca medie aritmetică a variabilelor Xk.

-R R0

t>0i

(!

Page 68: Carte Elemente de teoria probabilitatilor

68 Eroare! Legătură incorectă.

Soluţie :

Avem ∑=n

1kX

n1Y şi notăm cu n,1k,k =ϕ , respectiv � funcţiile caracteristice ale

variabilelor Xk respectiv Y. Atunci :

( ) ⎟⎟⎠

⎞⎜⎜⎝

⎛=

⎟⎟⎟

⎜⎜⎜

⎛ ∑==ϕ=ϕ ∏

=

⋅ n

1k

itXn1X

n1

ititY

kk

n

1k

eMeMeM)t()t(

Cum şi variabilele kitXe sunt independente, avem:

tnntn

1k

n

k eent

nt)t( −⋅−

=

==⎥⎦

⎤⎢⎣

⎡⎟⎠⎞

⎜⎝⎛ϕ=⎟

⎠⎞

⎜⎝⎛ϕ=ϕ ∏

Funcţia caracteristică determină unic repartiţia, aşa că Y urmează aceeaşi repartiţie

Cauchy.

3) Să se afle densitatea de repartiţie a variabilei X cu funcţia caracteristică 23tae)t( −=ϕ , a>0, folosind teorema de inversiune.

Soluţie :

Notăm cu F funcţia de repartiţie a lui X şi x1<x2 două puncte de continuitate ale lui F.

Conform teoremei de inversiune,

dt)t(it

ee21)x(F)x(F

21 itXitX

12 ϕ−

π=− ∫

∞−

−−

Alegem x1=0 şi x2=x, deci :

21tatata

taitxitx

IIdtettxsin

21dte

ittxcos1

21dte

ittxsinitxcos1

21

dteite1

21dt)t(

ite1

21)0(F)x(F

222222

22

+=π

+−

π=

+−π

=

=⋅−

π=ϕ

−π

=−

−∞

∞−

−∞

∞−

−∞

∞−

−∞

∞−

−∞

∞−

∫∫∫

∫∫

Funcţia din I1 este impară iar cea din I2 este pară în raport cu t, deci : I1=0 şi

dtettxsin

212I

0

ta2

22

∫∞

π⋅= şi dte

ttxsin1)0(F)x(F

0

ta 22

∫∞

π=− .

Derivăm în raport cu x :

dtetxcos1)x('F0

ta 22

∫∞

−⋅π

= şi integrăm prin părţi :

Page 69: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 69

22taeu −= , dx=cos tx dt " dteta2du22ta2 −−= şi

xtxsinv =

Rezultă :

dtetxsint1xa2)x('F

0

ta2

22

∫∞

−⋅π

⋅=

Apoi :

dtetxsint1)x(F0

ta 22

∫∞

−⋅π

−=′′ (derivata lui F’ – iniţială)

Deci :

)x(Fxa2)x(F

2

′′−=′ sau 2ax

FF

−=′′′

, de unde prin integrare :

C2

xa21Fln

2

2 +⋅−=′ sau 2

2

a4x

ke)x(F−

=′ unde k=eC (constantă).

Determinăm pe k trecând la limită pentru x� � în expresia :

∫∞−

−=

xa4

x

dtek)x(F 2

2

făcând schimbarea de variabilă a2tu =

π==π⋅⇒=⇒= ∫

∞−

∞→ a21k,1ak21dueak21)x(Flim

2u

x

Deci :

2

2

a4x

ea21)x('F)x(f

π== (densitatea unei repartiţii normale).

Page 70: Carte Elemente de teoria probabilitatilor

70 Eroare! Legătură incorectă.

Capitolul 6 Repartiţii probabilistice clasice discrete

6.1. Repartiţia binomială sau repartiţia lui Bernoulli.

Corespunde schemei urnei cu bile revenite (valorile sale reprezintă numărul de bile

albe din cele n extrase). Tabloul acestei repartiţii (simple) va fi deci :

0q,p;p1q;qpCk:X

n,0kknkk

n>−=⎟

⎠⎞⎜

⎝⎛

=− (6.1)

Având repartiţie binomială de ordinul n şi parametru p, mulţimea tuturor variabilelor

aleatoare binomiale o notăm cu B(p,n).

Fie Xk, ( )n,1k = o v.a.d. care ia valorile 1 şi 0 după cum la extragerea k apare

evenimentul A sau CAA = . Atunci Y=X1+…+Xn este o v.a.d. care ia valoarea k dacă

evenimentul A s-a produs de k ori, având o repartiţie B(p,n)

Funcţia de repartiţie a lui B(p,n) este funcţia de repartiţie a v.a.d. Y, adică :

{ }( )[ ]

∑−

=

−=<ωω=1x

0k

knkkn qpCx)(Y:P)x(F , unde [x] este partea întreagă a lui x.

Deci :

⎪⎪⎪⎪

⎪⎪⎪⎪

>

−∈

∈≤

=

∑−

=

=

nx,1

]n,1n(x,qpC

]2,1(x,qpC

]1,0(x,q0x,0

)x(F1n

0k

knkkn

1

0k

knkkn

n

LLL

(6.2)

Caracteristici mai importante :

npqpkC)X(Mn

1k

knkkn == ∑

=

− (valoarea medie) (6.3)

(Plecăm de la binomul lui Newton : ∑ −=+n

0

knkkkn

n qxpC)qpx( , pe care o derivăm

în raport cu x şi facem x=1).

D(X)=M2(X)-[M(X)]2=npq (dispersia), (6.4)

unde :

Page 71: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 71

∑=

− −+==n

1k

2knkkn

22 p)1n(nnpqpCk)X(M (momentul de ordinul II),

(6.5)

Se obţine derivând de două ori binomul (px+q)n şi făcând apoi x=1.

Funcţia caracteristică este � (t)=M(eitY), adică :

nitn

0k

knkitkn

n

0k

knkkn

ikt )qpe(q)pe(CqpCe)t( +===ϕ ∑∑=

=

− (6.6)

Utilizând funcţia caracteristică se pot determina momentele v.a. binomiale şi de

asemenea se poate demonstra că : dacă v.a. X1 şi X2 aparţin mulţimilor B(p,X1) şi

B(p,X2) atunci (X1+X2) aparţine mulţimii B(p,n1+n2). Observaţie : În aplicaţii, în general numărul n ia valori mari (n� � ) şi este dificil calculul

probabilităţilor. Pn(k)=P(Ak)=Cnkpkqn-k, aşa încât se utilizează formula lui Stirling :

n121u0;n2enen2en!n n

nnunn n <<π≈π= −− (6.7)

Deci :

,npq2h

exp)npq2()k(P2n2

1

n⎭⎬⎫

⎩⎨⎧

−π=−

(6.8

)

Care reprezintă valoarea asimptotică a probabilităţii Pn(k). Relaţia (6.8) are loc dacă bn

ha n ≤≤

unde a şi b sunt constante.

6.2. Repartiţia multinomială (polinomială)

Corespunde urnei cu bile de mai multe culori. Fie nj bile de culoarea j, cu 1� j� r şi

1p ,nn

)A(Pp ,nnr

1j

jjj

r

1j ==== ∑∑ . (Aj – evenimentul extragerii bilei de culoare j).

Notăm r21 k,,k,kB L evenimentul care constă din obţinerea, în urma a n extrageri

repetate cu punerea în urnă a bilei extrase, a k1 bile de culoarea 1, k2 bile de culoarea 2,

etc. Deoarece ordinea extragerii bilelor nu interesează, obţinem :

r21

r21

kr

k2

k1

r21k,,k,kr21n ppp

!k!k!k!n)B(P)k,,k,k(P KK

L L == (6.9)

Repartiţia determinată de probabilităţile (6.9) se numeşte multinomială sau

polinomială. Expresia din membrul drept reprezintă termenul general al dezvoltării

polinomului (p1+…pr)n.

Page 72: Carte Elemente de teoria probabilitatilor

72 Eroare! Legătură incorectă.

Această repartiţie are multe aplicaţii în teoria fiabilităţii.

Funcţia caracteristică a repartiţiei polinomiale se obţine imediat dacă se scrie

vectorul aleator Y=X1+…Xn sub forma : Y=# 1e1+…# rer, unde e1, e2, …,er sunt vectorii

bazei (liniar independenţi) într-un spaţiu euclidian r-dimensional.

Avem : [ ]

( ) ( ) ( )nitr

it1

k,,k

kitr

kit1

r1

)ktkt(i

k,,kr1n

)tt(i

r1

r1

rr11

rr11

r1

rr11

epepepep!k!k

!n

e)k,,k(PeM)t(

++=

=⋅==ϕ

∑ +α+α

KKK

K

K

K

K

K

,

(6.10)

unde : t=t1e1+…+trer.

Valoarea medie şi dispersia vor fi :

rj1;npti

1)(M j

0tjj ≤≤=⎟

⎟⎠

⎞⎜⎜⎝

∂ϕ∂

=α=

(6.11)

[ ]

jjjj2j

22jj

2j

2

j

0t

2j

2

22

jj2j

qnp)p1(nppnnpnppn

npti

1)(M)(M)(D

=−=−−+=

=−⎟⎟⎠

⎞⎜⎜⎝

∂ϕ∂

=α−α=α=

(6.12)

6.3. Repartiţia binomială cu exponent negativ.

Repartiţia discretă în care valorilor n, n+1, … (n N) li se atribuie corespunzător

probabilităţile :

p1q,nk;qpC)k(P nkn1n1kn −=≥= −−

−− (6.13)

se numeşte repartiţie binomială cu exponent negativ.

Să considerăm un câmp de probabilitate finit care constă în evenimentele A şi A , în

afara evenimentului sigur (E) şi imposibil (� ). Fie p=P(A) şi q=P( A )=1-p.

Numărul grupelor de forma AAAAAAA KK , în care ultimul element este A şi care

conţin pe A de n ori iar pe A de (k-n) ori este 1n1kC −

− . Probabilitatea obţinerii unei astfel de

grupe este pnqk-n. Deci probabilitatea ca A să se producă în k experienţe independente de n

ori este nkn1n1kn qpC)k(P −−

−− = .

Funcţia caracteristică, va fi : n

it

it

qe1pe)t( ⎟⎟

⎞⎜⎜⎝

⎛−

=ϕ (6.14)

Cu ajutorul acestei se obţin momentele şi dispersia :

Page 73: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 73

pn

ti1)X(M

0t1 =⎟

⎠⎞

⎜⎝⎛

∂ϕ∂

==

(6.15)

20t

2

2

22 p)qn(n

ti1)X(M +

=⎟⎟⎠

⎞⎜⎜⎝

⎛∂

ϕ∂=

=

(6.16)

……………………………………………………………………..

2212 p

nqMM)X(D =−=

(6.17)

6.4. Repartiţia hipergeometrică

Fie n, a, b N cu n� a+b. Repartiţia hipergeometrică este o repartiţie discretă simplă,

ce corespunde unei bile nerevenite, având tabloul de repartiţie :

n,0kn

ba

knb

ka

CCCk

:X

=+

⎟⎟⎟

⎜⎜⎜

(6.18)

în care : max(0, n-b)� k� min(n,a), dar pentru simplitatea scrierii se poate lua n0,k = .

Având în vedere relaţia : ∑=

+− =

n

0k

nba

knb

ka CCC , se verifică uşor că sunt îndeplinite

condiţiile existenţei tabloului de distribuţie.

Exemplu : Se consideră un lot de 400 piese, care conţine 8% piese cu defecţiuni şi se

cercetează numărul de piese cu defecţiuni dintr-un eşantion de 10 piese. Să se identifice

legea de repartiţie a fenomenului aleator considerat.

Soluţie : Un lot de c piese conţine a piese defecte şi b piese bune (a+b=c). În acest

caz: c=400 şi a/c=0,08 , b/c=0,92. Un eşantion de n piese conţine k piese defecte şi (n-k)

piese bune. Cu cele b piese bune se pot obţine knb

ka CC − eşantioane de câte n piese, din care

k sunt defecte. Rezultă : kn

bkan

nba CC)b,a;k(PC −

+ =

recunoscând astfel o lege de repartiţie hipergeometrică.

Deci: 10400

k10368

k32

10 CCC

)368,32;k(P−

= ; 0,10k =

Repartiţia hipergeometrică joacă un rol esenţial în controlul calităţii produselor.

Cu ajutorul funcţiei generatoare :

( ) kn

0kn zb,a;kP)z(G ∑

=

= $z$� 1 (6.19)

Page 74: Carte Elemente de teoria probabilitatilor

74 Eroare! Legătură incorectă.

se pot obţine valoarea medie şi dispersia :

baan)X(M

+⋅

= (6.20)

( ))1ba()ba(

nbanab)X(D 2 −++−+

= (6.21)

Dacă notăm a+b=r atunci rap = şi

rbq = . În ipoteza că p şi q rămân constante iar

r� � avem :

)k(PqpC),b,a;k(Plim nknkk

nnn== −

∞→ (6.22)

relaţie care arată că, atunci când numărul biletelor creşte nemărginit, Pn(k;a,b) tinde către

probabilitatea Pn(k) ce defineşte repartiţia binomială.

Acest rezultat este firesc deoarece extragerea unei bile din urnă influenţează cu atât

mai puţin compoziţia urnei cu cât numărul iniţial de bile din urnă este mai mare.

6.5. Repartiţia Poisson (Legea evenimentelor rare)

Este o repartiţie discretă numărabilă determinată de probabilităţile :

λ−λ=λ e

!k);k(P

k

(6.23)

unde k=0,1,2,… şi �� 0 este un număr dat. Tabloul de distribuţie va fi deci :

...2,1,0k

k e!k

k:X

=

λ−

⎟⎟

⎜⎜

⎛λ

(6.24)

Observaţii : 1) Dacă �� 1 , P(k,� ) sunt descrescătoare

Dacă �=1 , P(0;1) = P(1;1) = e-1 iar celelalte valori ale lui P(k;1), k=2,3,.. sunt

descrescătoare.

Dacă �� 1 , repartiţia Poisson are un maxim sau două dacă � este un număr întreg.

2) Repartiţia Poisson se obţine pornind de la repartiţia binomială în care n creşte nemărginit

iar p scade corespunzător, astfel încât produsul np=� să rămână constant :

λ−−

∞→∞→

λ=⎟

⎠⎞

⎜⎝⎛ λ

−λ

⋅+−−

= e!kn

1n!k

)1kn()1n(nlim)k(Plimkkn

k

k

nnn

L ,

deoarece : 1!k

)1kn()1n(nlimn

=+−−

∞→

L şi λ−−

∞→=⎟

⎠⎞

⎜⎝⎛ λ

− en

1limkn

n.

Page 75: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 75

3) Repartiţia Poisson se mai numeşte şi Legea evenimentelor rare deoarece se întâlneşte în

cazul evenimentelor rare fiind frecvent utilizată în teoria fiabilităţii.

Din (6.23) deducem că 1ee!k

e);k(P0

k

0k=⋅=

λ=λ λ

∞λ−

=

λ− ∑∑

Funcţia de repartiţie este :

∑∑−

=

λ−−

=

λ=λ=

1]x[

0k

k1]x[

0ke

!k);k(P)x(F

(6.25)

Iar funcţia caracteristică :

( )1ek

0k

ikt it

ee!k

e);t( −λλ−∞

=

=λϕ ∑ (6.26)

Cu ajutorul funcţiei caracteristice se demonstrează că suma a două variabile Poisson

este tot o variabilă Poisson. Dacă X şi Y au parametrii � şi � atunci :

);t(eee);t();t( )1e)(()1e()1e( ititit

μ+λϕ==⋅=μϕλϕ −μ+λ−μ−λ ,

adică variabila aleatoare Poisson (X+Y) are o repartiţie Poisson cu parametrul (�+� ).

Valoarea medie şi dispersia :

λ=λ=−

λλ=

λ= λλ−

=

−λ−λ−

=∑∑ ee

)!1k(ee

!kk)X(M

1k

1k

0k

k

(6.27)

λ+λ=λ+λ=λ

+

−=λ

+−=λ

=

λλ−λ−∞

=

λ−∞

=

λ−∞

=

λ−∞

=

∑∑∑

22

0k

k

1k

k

0k

k2

0k

k2

2

eee!k

k

e!k

)1k(ke!k

)kkk(e!k

k)X(M

(6.28)

λ=−= 22 MM)X(D (6.29)

Aceleaşi rezultate se obţin dacă utilizăm funcţia caracteristică :

λ+λ+λ==⎟⎟⎠

⎞⎜⎜⎝

⎛∂

ϕ∂=

λ+λ==⎟⎟⎠

⎞⎜⎜⎝

⎛∂

ϕ∂=

λ==⎟⎠⎞

⎜⎝⎛

∂ϕ∂

=

=

=

=

23

0t3

3

33

2

0t2

2

22

0t1

3ti

1)X(M

ti1)X(M

ti1)X(M

L

L

L

Pentru momentele centrate obţinem :

λ==−=μ

λ==−=−=μ

=λ−λ=−=μ

L]))X(MX[(M)X(

)X(D)]X(M[)X(M]))X(MX[(M)X(

0)]X(MX[M)X(

313

212

212

11

Observăm că la o repartiţie Poisson M1(X)= � 2(X)= � 3(X).

Page 76: Carte Elemente de teoria probabilitatilor

76 Eroare! Legătură incorectă.

6.6. Repartiţia geometrică sau repartiţia lui Pascal

Este o distribuţie numărabilă având tabloul de distribuţie :

,...2,1k1kpq

k:X=

− ⎟⎠⎞⎜

⎝⎛ ; ,0q,p > 1qp =+ (6.30)

Se obţine :

p1)X(M = , 22 p

1qM += (6.31)

2222

2 pq

p1

p1q)]X(M[)X(M)X(D =−

+=−= (6.32)

Page 77: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 77

Capitolul 7 Repartiţii probabilistice clasice continue

7.1. Repartiţia uniformă

Funcţia de repartiţie care are densitatea de repartiţie :

⎪⎩

⎪⎨⎧

∈−=

]b,a[x,0

]b,a[x,ab

1)x(f

(7.1)

se numeşte funcţie de repartiţie uniformă pe [a,b], iar variabila aleatoare continuă care are

această funcţie de repartiţie se numeşte uniformă pe [a,b].

Tabloul de distribuţie al acesteia este :

]b,a[xab1x

:X∈

⎟⎟

⎜⎜

(7.2)

Funcţia de repartiţie uniformă se obţine pe baza definiţiei sale, astfel :

⎪⎪⎩

⎪⎪⎨

>

= ∫bx,1

]b,a[x,dt)t(f

ax,0

)X(Fx

a

Într-adevăr avem :

∫∫∫∫ =+==∞−∞−

x

a

x

a

ax

,dt)t(fdt)t(fdt)t(fdt)t(f)X(F

deoarece pentru t� a şi f(t)=0 prima integrală este nulă.

Deci :

abax

abdt)X(F

x

a −−

=−

= ∫

Dacă x� b, putem scrie :

∫∫∫∫∫ =−

==++=∞−

b

a

b

a

x

b

b

a

a

,1dtab

1dt)t(fdt)t(fdt)t(fdt)t(f)X(F

deoarece, pentru t� a şi t� b, f(t)=0.

Aşadar :

Page 78: Carte Elemente de teoria probabilitatilor

78 Eroare! Legătură incorectă.

⎪⎩

⎪⎨

>

∈−−

=

bx,1

]b,a(x,abax

ax,0

)x(F

(7.3)

Graficele lui f(x) şi F(X) ale repartiţiei uniforme sunt prezentate în figurile 7.1 şi 7.2.

Fig. 7.1 Fig. 7.2

Valoarea medie va fi dată de :

2baxdx

ab1dx)x(xfdx)x(xf)X(M

b

a

b

a

+=

−=== ∫∫∫

∞−

(7.4)

Momentul de ordinul II (mai important ) va fi :

3babadxx

ab1dx)x(fxdx)x(fx)X(M

22b

a

2b

a

222 ++=

−=== ∫∫∫

∞−

(7.5)

Dispersia este dată de relaţia : M(X2)-[M(X)]2 , adică :

( )12

ab4

bab2a3

baba)X(D22222 −

=++

−++

= (7.6)

Deoarece b� a , rezultă :

32ab)X(D −

==σ (7.7)

f(x)

a b x 0

ab1−

F(x)

a b x 0

1

Page 79: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 79

7.2. Repartiţia normală (Gauss)

Este cea mai importantă dintre repartiţiile continue. Variabila aleatoare continuă X

urmează o repartiţie normală de parametrii m şi �2 (şi se notează N(m;�2)) dacă densitatea

sa de repartiţie este :

( )2

2

2mx

e2

1),m;x(f σ

−−

πσ=σ , ,Rx ∈ 0)X(D >=σ

(7.8)

Variabila X se numeşte normală de parametrii m şi �2 dacă are funcţia de repartiţie

normală, respectiv tabloul de repartiţie :

( )

( )∞∞−∈

σ

−−

⎟⎟⎟

⎜⎜⎜

πσ ,x

2mx

2

2

e2

1x

:X (7.9)

Funcţia de repartiţie normală este dată de :

( )

∫∞−

σ

−−

πσ=

x2

mx

dte2

1)x(F 2

2

(7.10)

Pentru calculul integralei facem schimbarea de variabilă : umt=

σ− şi rezultă

dt=�du, respectiv :

due21due

21due

21)x(F 2

umx

0

2u0

2u

mx222

−σ−

∞−

−σ−

∞−∫∫∫ π

= (7.11)

Ştiind că integrala lui Poisson (integrala probabilităţii) este :

π=∫∞

∞−

−2due 2

u 2

, (7.12)

prima integrală din relaţia (7.11) va fi π221 iar a doua integrală este funcţia integrală a

lui Laplace care se găseşte tabelată în cărţile de specialitate :

due21)x( 2

ux 2−

∞−∫π

=Φ ; )x(1)x( Φ−=−Φ (7.13)

Deci :

⎟⎠⎞

⎜⎝⎛

σ−

Φ+=mx

21)x(F

(7.14)

Valoarea medie şi dispersia repartiţiei N(m, �2) sunt tocmai cei doi parametrii, adică :

Page 80: Carte Elemente de teoria probabilitatilor

80 Eroare! Legătură incorectă.

m)X(M = şi 2)X(D σ= (7.15)

unde � este abaterea medie pătratică.

Într-adevăr,

( )

dxex2

1)X(M 2

2

2mxσ

−−∞

∞−∫ ⋅

πσ= , unde înlocuind : tmx

=σ−

obţinem :

( ) dte2mdtet

2dtemt

21)X(M 2

t2t

2t 222

−∞

∞−

−∞

∞−

−∞

∞−∫∫∫ π

+⋅π

σ=⋅+σ

π=

Prima integrală este nulă (funcţia de integrat este impară) iar a doua este dată de

relaţia (7.12), deci : M(X)=m.

( )

dxe)mx(2

1dx)x(f)mx()X(D 2

2

2mx

22 σ

−−∞

∞−

∞−∫∫ ⋅−

πσ=−=

Se face aceeaşi schimbare de variabilă şi apoi se integrează prin părţi :

dtet2

)X(D 2t

22

2−∞

∞−∫ ⋅

π

σ= , t=u şi 2

t 2

etdv−

⋅= ,

obţinem du=dt şi 2t 2

ev−

−= , respectiv :

22

2t

2t

22

22

dteet2

)X(D22

σ=ππ

σ=⎟

⎟⎠

⎞⎜⎜⎝

⎛+

π

σ=

−∞

∞−

∞−

primul termen tinde la zero iar al doilea este integrala lui Poisson.

Din aceste rezultate deducem că funcţia de repartiţie a unei variabile aleatoare este

perfect determinată de valoarea medie şi dispersia variabilei.

Reprezentarea grafică a densităţii este o curbă simetrică faţă de axa x=m (paralelă la

Oy) având punctul de maxim de coordonate ⎟⎟⎠

⎞⎜⎜⎝

πσ 21,m , numită „curba normală” sau

„curba lui Gauss” (figura 7.3).

Punctele de abscisă (m-�) şi respectiv (m+�) sunt puncte de inflexiune ale curbei.

Astfel, curba este concavă dacă ( )σ+σ−∈ m,mx şi convexă în afara intervalului.

Cu cât � este mai mic, cu atât ordonata punctului de maxim este mai mare (m

rămânând constant) şi invers.

Page 81: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 81

Fig.7.3

Schimbarea lui m, în ipoteza că � rămâne constant, conduce la o translaţie a curbei

normale, forma ei rămânând neschimbată.

Momente centrate de ordin impar ale v.a. repartizate N(m, �2) sunt nule iar cele de

ordin par (2k) au valoarea :

( ) ( ) k2k2kk2 1k2531

2!k! k2)X( σ−⋅⋅=σ=μ L

Calculul momentelor centrate � r se face pornind de la formula de definiţie pe care o

integrăm prin părţi :

( ) dx)x(fmx rr ∫

∞−

−=μ ; u=(x-m)r-1 ; 2

2

2)mx(

e)mx(dv σ

−−

−=

obţinem : du=(r-1)(x-m)r-2dx şi 2

2

2)mx(

2ev σ

−−

σ−= etc.

Se obţine o formulă de recurenţă dacă r=2k (par) iar în caz contrar (deoarece

(x-m)2k+1f(x) este impară pe un interval simetric) integrala va fi nulă. Astfel :

( ) 2k22

k2 1k2 −μσ−=μ , k=1,2,… (7.16)

Deci, ştiind că � 0=1 şi � 1=0, vom avea :

� 2=D(X)= �2 , � 4=1� 3� �4 , � 6=1� 3� 5� �6 ,% , � 2k=1� 3% (2k-1)�2k şi

� 3 =� 5=% =� 2k-1=0.

Coeficienţii de asimetrie şi boltire ai repartiţiei N(m, �2) sunt :

0mmMm 01 =

σ−

−=α , 03

32 =

σμ

=α (deci curba normală este simetrică faţă de

x=m. Aceasta este o condiţie necesară de normalitate a unor legi ce descriu fenomene de

masă, dar nu şi suficientă).

3314

4

44 =

σσ⋅⋅

=σμ

=β şi excesul : E = � -3 = 0 .

m-� m+� 0

f(x)

πσ 21

m x

Page 82: Carte Elemente de teoria probabilitatilor

82 Eroare! Legătură incorectă.

Dacă E� 0, curba este mai ascuţită (mai bombată) decât cea normală iar dacă E� 0,

curba este plată (mai puţin bombată).

Funcţia caracteristică se obţine din :

( )

dxee2

1)t( 2

2

2mx

itx σ

−−∞

∞−

⋅πσ

=ϕ ∫ (7.17)

Se face schimbarea de variabilă cunoscută : x-m = �u şi se ajunge la : ( )

∫∞

∞−

σ−−

σ−

π⋅=ϕ due

21e)t( 2

itu2

titm

222

În continuare, notăm : u-it� = z şi se obţine integrala :

π=∫∞

∞−

−2dze 2

z2

(integrala Poisson),

deci, în final :

2titm

22

e)t(σ

−=ϕ

(7.18)

Cu ajutorul funcţiei caracteristice se poate demonstra că dacă ak ( )n1,k = , sunt

constante iar Xk, v.a. independente, repartizate normal, atunci v.a. ∑=n

1kk XaX este

repartizată : ⎟⎠

⎞⎜⎝

⎛σ∑ ∑

n

1

n

1

2k

2kkk a;maN .

7.3. Repartiţia normală normată (redusă)

Se obţine din N(m; �) în cazul particular : m=0 ; �=1.

Deci: o variabilă aleatoare X are repartiţia N(0,1) dacă densitatea sa de repartiţie este :

Rx,e21)1;0;x(f)x(g 2

x 2

∈π

==−

(7.19)

Funcţia de repartiţie este tocmai funcţia integrală a lui Laplace :

due21du)u(g)x( 2

uxx 2−

∞−∞−∫∫ π

==Φ (7.20)

Deoarece : � u� 0, g(-u)=g(u), curba reprezentativă este simetrică faţă de dreapta

m=0 (care se confundă cu Oy) şi & (-x)=1-& (x).

Page 83: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 83

Funcţia densitate este reprezentată în figura 7.4.

Fig.7.4.

Din cauza simetriei graficului lui g(x) faţă de axa Oy este suficient să cunoaştem

valorile lui & (x) numai pentru x� 0. Aceste valori se găsesc tabelate.

De asemenea : & (0)=0, & (' � )=-1/2 şi & (� )=1/2 aşa încât pentru întreaga axă

reală (x R) avem :

& (-x)+& (x)=1,

adică aria mărginită de curba f(x;0,1) şi axa Ox, tinde către 1.

Variabila : ZmX=

σ− , aşa cum s-a mai amintit, se numeşte variabilă normală

normată sau redusă şi se utilizează notaţia : N(z;0,1).

Din : ⎟⎠⎞

⎜⎝⎛

σ−

Φ+=mx

21)x(F , (relaţia 7.14) care înseamnă de fapt P(X� x) se deduce :

⎟⎠⎞

⎜⎝⎛

σ−

Φ−⎟⎠⎞

⎜⎝⎛

σ−

Φ=<<mamb)bXa(P ; a� b date

(7.21)

Observaţii : 1) Din (7.21), pentru orice # � 0, obţinem :

( ) ⎟⎠⎞

⎜⎝⎛

σα

−Φ−⎟⎠⎞

⎜⎝⎛

σα

Φ=α<−=α+<<α− mXP)mXm(P .

Dar, ⎟⎠⎞

⎜⎝⎛

σα

Φ−=⎟⎠⎞

⎜⎝⎛

σα

−Φ 1 şi rezultă :

( ) 12mXP −⎟⎠⎞

⎜⎝⎛

σα

Φ=α<− (7.22)

De aici rezultă următoarea regulă : dacă v.a. X are repartiţia N(m,�2) atunci : σ<− 3mX , cu o

probabilitate foarte apropiată de 1.

Într-adevăr, dacă # =3� obţinem :

9974,019987,021)3(2)3mX(P =−⋅=−Φ=σ<−

(& (3) se obţine din tabela anexă).

-� �

1

f(x;0,1)

x 0

& (x)

Page 84: Carte Elemente de teoria probabilitatilor

84 Eroare! Legătură incorectă.

Acest rezultat susţine afirmaţia că mX − nu depăşeşte 3�, adică : probabilitatea ca abaterea

absolută a v.a. X repartizată normal să depăşească 3� este :

1-0,9974=0,0026=0,26%.

2). Expresia asimptotică (6.8) a probabilităţilor Pn(k) ne sugerează faptul că repartiţia binomială este

asimptotic normală. Se poate arăta că funcţia caracteristică a v.a. normate tinde către funcţia caracteristică a

repartiţiei normale normate (reduse) N(0,1) :

2t

nn

2

e)t(lim−

∞→=ϕ

Acest rezultat permite să scriem pentru valori mai mari ale lui n :

( ) dte21npqbnpznpqaP

b

a

2t 2

∫−

π≅<−<

3). Abaterea redusă λ

λ−X a v.a. X care are repartiţia Poisson cu parametrul � este asimptotic

normală N(0,1) pentru �� � .

Funcţia caracteristică a abaterii reduse este :

⎟⎟⎠

⎞⎜⎜⎝

⎛λ

λϕ=⎟

⎟⎠

⎞⎜⎜⎝

⎛=⎟

⎟⎠

⎞⎜⎜⎝

⎛=λΨ λ−λλ−λ

λ−

,teeMeeM),t( itXit

itXit

,

unde � (t,� ) este dată de relaţia (6.26). După efectuarea calculelor obţinem :

2t 2

e),t(lim−

∞→λ=λΨ

care este funcţia caracteristică a repartiţiei N(0,1).

Practic, repartiţiile binomială şi Poisson se asimilează unei repartiţii normale reduse

N(0,1) în următoarele condiţii :

a) Pentru repartiţia binomială, dacă n � 50 şi np� 18 se ia ca v.a. redusă (sau

ameliorată) variabila npq

np5,0X −+ asimptotic normală N(0,1).

b) Pentru repartiţia Poisson, dacă �� 18 se ia v.a. redusă : λ

λ−+ 5,0X , asimptotic

normală N(0,1).

7.4. Repartiţia lognormală

Considerăm că v.a. X urmează o repartiţie lognormală dacă densitatea sa de repartiţie

este :

Page 85: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 85

( )2

2

2axln

e2x

1)x(f σ

−−

πσ=

(7.23)

unde a=M(X) şi �2=D(lnX). Dacă notăm : σ

−=

aXlnZ , rezultă X= ea+�z , v.a. Z fiind

repartizată N(0,1).

Valoarea medie a v.a. lognormale este :

( )2

a2

axln

00

2

2

2

edxe2

1dx)x(fx)X(Mσ

−−∞∞

=πσ

== ∫∫ (7.24)

Pentru calculul integralei se face schimbarea de variabilă : lnx-a=�u.

Dispersia v.a. X va fi :

[ ]∫∞

−σ+ σ

==−=0

)1e(a22 22

edx)x(f)X(Mx)X(D L (7.25)

Importanţa acestei repartiţii constă în faptul că dacă x=0, f(x)=0, ceea ce convine în

cazul variabilei timp ; această proprietate nu este întâlnită la repartiţia normală. De

asemenea, dacă Xk ( )n1,k = sunt v.a. lognormale independente, atunci ∏n

1kX este o v.a.

lognormală (rezultă din proprietatea de aditivitate a v.a. independente).

7.5. Repartiţia gamma.

V.a. X urmează o repartiţie gamma dacă are densitatea de repartiţie :

⎪⎩

⎪⎨⎧

<

≥⋅Γ=

−−

0x,0

0x,exb1

)a(1

)b,a;x(fbx

1aa ; a,b>0

(7.26)

În particular se utilizează şi varianta când b=1.

Se poate arăta că f(x;a,b) satisface condiţiile pentru a fi o funcţie densitate :

f(x;a,b) � 0, evidentă,

şi ∫+∞

∞−

=1dx)x(f (cu schimbarea de variabilă x=bt şi ţinând cont de definirea funcţiei �(a),

de speţa a doua, a lui Euler : dtet)a( t

0

1a −∞

−∫=Γ ).

Graficul curbei de distribuţie depinde de valorile parametrilor a şi b. În figura 7.5 se

prezintă alura curbei y=f(x;a,b) în cazurile : a (0,1), a=1 şi a� 1.

Page 86: Carte Elemente de teoria probabilitatilor

86 Eroare! Legătură incorectă.

Fig.7.5.

Valoarea modală este M0(X)=b(a-1) (rădăcina derivatei (x)f ′ adică abscisa

punctului de maxim).

Funcţia de repartiţie este dată de relaţia :

⎪⎩

⎪⎨⎧

<

≥⋅Γ=<= ∫

−−

0x,0

0x,dtetb1

)a(1

)xX(P)x(F

x

0

bt

1aa a,b� 0

(7.27)

Ştiind că : F’(x)=f(x) � 0 , când x� 0, rezultă că F este strict crescătoare când x� 0.

Graficul lui F(x) este de forma prezentată în figura 7.6.

Fig.7.6.

Momentul de ordinul k :

dxexb1

)a(1dx)x(fx)X(MM b

x

0

1kaa

kkk

−∞−+

∞−∫∫ ⋅

Γ===

Facem schimbarea de variabilă tbx

= ; dx=bdt şi obţinem :

x 0

f(x)

0<a<1

x0

f(x)

a=1

x0

f(x)

a>1

x 0

F(x)

a� 1

1

x 0

F(x)

a>1

1

Page 87: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 87

)ka()a(

bMk

k +Γ⋅Γ

=

Dar :

)a()1ka()1a(a)ka( Γ−++=+Γ L , deci k

k b)1ka()1a(aM −++= L

(7.28)

Valoarea medie este :

M1(X)=ab (7.29)

Momentul de ordinul II :

M2(X)=a(a+1)b2, iar (7.30)

Dispersia : 22

12 abMM)X(D =−= (7.31)

De asemenea, cu ajutorul formulelor de definiţie obţinem momentele centrate mai des

folosite :

� 1=0 , � 2=ab2 , � 3=2ab3 , � 4=3a(a+2)b4.

Cu ajutorul lor se determină :

- coeficienţii de asimetrie :

a1

ab)1a(babMm 0

1 =−−

−=α (Pearson)

a

2aab

ab23

3

33

2 ==σμ

=α (Fischer)

- coeficientul de boltire :

⎟⎠⎞

⎜⎝⎛ +=

σμ

=βa2134

4

- excesul repartiţiei :

a63E =−β=

Funcţia caracteristică este dată de formula :

dxexb)a(

1dx)b,a;x(fe)t(0

xb1it

1a

0a

itx ∫∫∞ ⎟

⎠⎞

⎜⎝⎛ −

−∞

Γ==ϕ

Integrala se calculează prin substituţia : yxb1it =⎟

⎠⎞

⎜⎝⎛ − şi se obţine :

a)itb1(1)t(

−=ϕ (7.32)

Page 88: Carte Elemente de teoria probabilitatilor

88 Eroare! Legătură incorectă.

Fie v.a. X repartizată ! , cu funcţia de repartiţie F(x) şi v.a. Xb1Y = (b – parametru

de scală al repartiţiei ! ), cu funcţia de repartiţie G(x). Avem :

)bx(F)bxX(PxbXP)xY(P)x(G =<=⎟

⎠⎞

⎜⎝⎛ <=<= , adică :

∫−−

Γ=

bx

0

bt

1aa dtet

b)a(1)x(G , 0x ≥

Derivăm în raport cu x şi deducem că G’(x) nu depinde de parametrul b :

)a(ex)bx(bf)bx('F)x('G

x1a

Γ===

−−

În cazul particular a=1 se obţine densitatea repartiţiei exponenţiale negative.

7.6. Repartiţia beta

V.a. X urmează repartiţia beta de parametrii a,b (a,b� 0) dacă are densitatea de

repartiţie :

⎪⎩

⎪⎨⎧

><

∈−=

−−

1saux0x,0

]1,0[x,)x1(x)b,a(B

1)b,a;x(f

1b1a

(7.33)

unde B(a,b) este funcţia lui Euler de speţa întâi.

Este evident că f� 0 şi 1dx)b,a;x(f∫∞

∞−

= , adică sunt îndeplinite condiţiile de existenţă

a densităţii de repartiţie. Între funcţiile lui Euler are loc relaţia :

)ba()b()a()b,a(B

+ΓΓ⋅Γ

= (7.34)

Câteva curbe densitate beta sunt prezentate în fig. 7.7:

f(x;a,b)

2

1

a=b=3

a=b=1

a=1; b=2 a=2; b=1

21ba ==

Page 89: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 89

Fig.7.7.

Funcţia de repartiţie a variabilei beta este :

⎪⎪⎩

⎪⎪⎨

>

≤<−

=<= ∫ −−

1x,1

1x0,dt)t1(t)b,a(B

10x,0

)xX(P)x(Fx

0

1b1a

(7.35)

În figurile 7.8 se reprezintă graficele unor funcţii de repartiţie pentru diferite valori

ale parametrilor a şi b.

1 x 0

1

f(x) a<1, b>1

1 x 0

1

f(x)a<1, b=1

1 x 0

1

f(x)a<1, b<1

1 x 0

1

f(x) a=1, b>1

1 x 0

1

f(x)a=1, b=1

1

f(x) a>1, b>1

1

f(x)a>1, b<1

1

f(x)a>1, b=1

1 x 0

1

f(x)a=1, b<1

Page 90: Carte Elemente de teoria probabilitatilor

90 Eroare! Legătură incorectă.

Fig.7.8.

Caracteristici numerice : prin calcul obţinem :

)ba()a(

)1kba()1ba)(ba()1ka()1a(a

)a()ba(

)a()kba()ba()ka(

)b()a()ba(

)kba()b()ka(

)b,a(B)b,ka(Bdx)x1(x

)b,a(B1dx)x(fx)X(M

1

0

1b1ak1

0

kk

+ΓΓ

⋅−+++++

−++⋅

Γ+Γ

=

=Γ++Γ+Γ+Γ

=ΓΓ+Γ

⋅++ΓΓ+Γ

=

=+

=−== ∫∫ −−+

L

L

(7.36)

)1kba()1ba)(ba()1ka()1a(aM k −+++++

−++=

L

L

Rezultă :

baam)X(M+

== (7.37)

)1ba)(ba()1a(a)X(M 2 +++

+= (7.38)

)1ba()ba(abMM)X(D 2

22 +++

=−= (7.39)

Valoarea modală se află calculând mai întâi punctele de maxim local ale densităţii de

repartiţie şi pentru a simplifica scrierea vom deriva B(a,b)f(x) :

2b2a

1a2b1b2a

)x1(x]x)1b()x1)(1a[(x)x1)(1b()x1(x)1a()x('f)b,a(B

−−

−−−−

−−−−−=

=−−−−−=

Rădăcinile sunt : x1=0 , x2=1 , 2ba

1ax 3 −+−

= .

Observăm că : f(0)=0 şi f(1)=0 iar pentru x3 , în cazul a+b-2>0 avem maximul :

2ba1a)X(M 0 −+

−= (7.40)

7.6.1.Cazuri particulare :

1). Pentru a=b=1, obţinem densitatea de repartiţie uniformă pe (0,1) :

Page 91: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 91

⎩⎨⎧

∉∈= )1,0(x,0

)1,0(x,1)x(f1 (7.41)

2). Pentru a=2, b=1, obţinem densitatea de repartiţie triunghiulară :

⎩⎨⎧

∉∈= )1,0(x,0

)1,0(x,x2)x(f 2 (7.42)

3). Pentru a=1, b=2, obţinem densitatea de repartiţie semitriunghiulară :

( )⎩⎨⎧

∉∈−= )1,0(x,0

)1,0(x,x12)x(f3 (7.43)

4). Pentru a=b=2, obţinem densitatea de repartiţie parabolică :

( )⎩⎨⎧

∉∈−= )1,0(x,0

)1,0(x,x1x2)x(f 4 (7.44)

Aceste cazuri particulare sunt prezentate în figurile 7.9.

Fig.7.9

7.7. Repartiţia exponenţială negativă

Variabila aleatoare X urmează o repartiţie exponenţială negativă dacă are densitatea

de repartiţie :

0 ; 0x,00x,e)x(f

x>λ

⎩⎨⎧

<≥λ=

λ−

(7.45)

Funcţia de repartiţie este :

] [ 1 0 x

1

f1(x)

[ 1 0 x

2

f2(x)

] 1 0 x

2

f3(x)

1 0 x

1,5

f4(x)

0,5

Page 92: Carte Elemente de teoria probabilitatilor

92 Eroare! Legătură incorectă.

⎩⎨⎧

≤>−=

λ−

0x,00x,e1)x(F

x ,

(7.46)

Iar funcţia caracteristică :

it)t(

−λλ

=ϕ (7.47)

Momentele repartiţiei se află utilizând derivatele lui � (t) în t=0 :

2210t

r

r

rr2)X(M;1)X(M;

dtd

i1)X(M

λ=

λ=⎟⎟

⎞⎜⎜⎝

⎛ ϕ=

=

(7.48)

Dispersia deci, va fi :

2212

1MM)X(Dλ

=−= (7.49)

Această repartiţie este un caz particular al repartiţiei gamma (a=1) în care notăm

1/b=� ; (b>0). În fig. 7.10 se prezintă graficele lui f(x) şi F(x) :

Fig. 7.10

7.8. Repartiţia Weibull

O v.a. X are repartiţia Weibull dacă densitatea sa de repartiţie este :

,ex

uxxm)x(f

m

0xux1m

00

⎟⎟⎠

⎞⎜⎜⎝

⎛ −−

⋅⎟⎟⎠

⎞⎜⎜⎝

⎛ −=

(7.50)

unde : x0>0, m>0, 0� u� x<� . Pentru x<0, f(x)=0.

Această repartiţie se utilizează cu rezultate foarte bune în studiul uzurii şi a duratei de

viaţă a materialelor. În general este importantă în teoria fiabilităţii.

În fig. 7.11 se reprezintă f(x) pentru diferite valori ale lui m.

] x 0

f(x)

x 0

1

F(x)

f(x)

0x2,1

Page 93: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 93

Fig.7.11.

Funcţia de repartiţie este :

⎪⎩

⎪⎨⎧

<≥≥−= ⎟⎟

⎞⎜⎜⎝

⎛ −−

0x;00u,ux;e1)x(F

m

0xux

(7.51)

Observăm din figură şi din formula (7.50) că pentru u=0 şi m=1 repartiţia Weibull

coincide cu repartiţia exponenţială negativă, iar dacă m� 3 ea tinde către o repartiţie

normală.

Momentele variabilei X, în cazul u=0 sunt date de :

dxexxm)X(M

0

xx

1mrm0

r

m

0∫∞

⎟⎟⎠

⎞⎜⎜⎝

⎛−

−+ ⋅=

(7.52)

Dacă facem substituţia yxx

m

0

=⎟⎟⎠

⎞⎜⎜⎝

⎛, deducem :

0m,1mrxdyeyx)X(M 0

0

ymr

0r >⎟⎠⎞

⎜⎝⎛ +Γ⋅== ∫

∞−

(7.53)

Valoarea medie şi dispersia vor fi :

0u ; 1m1x)X(M 0 =⎟

⎠⎞

⎜⎝⎛ +Γ=

(7.54)

şi ⎟⎠⎞

⎜⎝⎛ +Γ+= 1

m1xu)X(M 0 dacă u>0

(7.55)

0x1

3

32 0 2 4

m=1

m=2

m=3

0xx

21m =

Page 94: Carte Elemente de teoria probabilitatilor

94 Eroare! Legătură incorectă.

[ ]2

200

22 1

m1x-1

m2x)X(M)X(M)X(D ⎥

⎤⎢⎣

⎡⎟⎠⎞

⎜⎝⎛ +Γ⎟

⎠⎞

⎜⎝⎛ +Γ=−=

(7.56)

7.9. Repartiţia Erlang

În acest caz, v.a. X are funcţia densitate de repartiţie dată de :

( ) kx1kk

ex)k(

k)x(f λ−−

Γλ

= (7.57)

unde : �>0, k� 1, x [0,� )

Pentru k=1 obţinem densitatea repartiţiei exponenţiale negative, iar dacă �k=1,

repartiţia Erlang coincide cu repartiţia gamma de parametru 1/� .

Momentul de ordinul r :

( )∫∞

λ−−+

Γλ

=0

kx1krk

r dxex)k(

k)X(M (7.58)

Prin schimbarea de variabilă �kx=y rezultă :

( ) ( ) )k(k)rk(dyex

)k(k1)X(M r

0

y1krrr

Γλ

+Γ=

Γλ= ∫

∞−−+

(7.59)

De aici se poate deduce că :

λ=

1)X(M1 şi 22 k1k)X(M

λ+

= (7.60)

respectiv :

2k1)X(Dλ

= (7.61)

7.10. Repartiţia � 2 (hi – pătrat)

Variabila aleatoare X urmează o repartiţie � 2 cu n grade de libertate şi parametru

�� 0, dacă densitatea sa de repartiţie este :

⎪⎪⎩

⎪⎪⎨

<

∈≥⋅

⎟⎠⎞

⎜⎝⎛Γσ=

σ−−

0x,0

Nn,0x,ex

2n2

1

)x(f

22x

12n

n2n

(7.62)

Page 95: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 95

Aceasta se obţine din repartiţia ! , în care : a=n/2 , b=2�2.

Numărul gradelor de libertate (n) reprezintă numărul de variabile aleatoare normale,

de medie nulă şi dispersie �2, ale căror pătrate însumate reprezintă tocmai o variabilă � 2.

Vom nota : X ( � 2 (n, �2)

Pentru a facilita trasarea graficului densităţii de repartiţie se notează cu c, factorul

⎟⎠⎞

⎜⎝⎛Γσ

2n2

1

n2n şi astfel : 0exlimc)x(flim 22

x1

2n

xx=⋅= σ

−−

∞→∞→ , adică y=0 este asimptotă orizon-

tală la (+� ). Curba trece prin origine. Pentru n� 1, ⎟⎠⎞

⎜⎝⎛

σ−−⋅= σ

−−x

211

2nexc)x('f 2

2x

22n

2 ,

cu rădăcina x0=(n-2) �2 0, care reprezintă M0(X)- punct de maxim local (fs’(x0)� 0 , fd’(x0)� 0).

Graficul (fig. 7.12) depinde de n şi �. În general, se constată că pentru n� 25 acesta

tinde către o curbă normală (Gauss).

Fig.7.12

Funcţia caracteristică este de forma :

∫∞

σ

σ−−−

⎟⎠⎞

⎜⎝⎛Γσ

=ϕ0

2it21

12n

n2n dxex

2n2

1)t( 2

2

(7.63)

După efectuarea calculelor obţinem :

( ) 2n

2it21)t( −σ−=ϕ

(7.64)

Momentele repartiţiei � 2 vor fi :

f(x)

f(M0)

M0 x 0

Page 96: Carte Elemente de teoria probabilitatilor

96 Eroare! Legătură incorectă.

2

0t1 n

dtd

i1)X(M σ=⎟

⎠⎞

⎜⎝⎛ ϕ

==

(7.65)

4

0t2

2

22 )2n(ndtd

i1)X(M σ+=⎟⎟

⎞⎜⎜⎝

⎛ ϕ=

=

(7.66)

r2

0tr

r

rr )2r2n()2n(ndtd

i1)X(M σ−++=⎟⎟

⎞⎜⎜⎝

⎛ ϕ=

=

L

LLLLLLLLLLLLLLL

(7.67)

Dispersia este : 42

12 n2)]X(M[)X(M)X(D σ=−= (7.68)

Utilizând funcţia caracteristică se poate arăta că dacă v.a. X are repartiţia � 2 (n, �2)

atunci variabila n2

nX2

2

σ

σ− , este asimptotic normală pentru ∞→n .

De asemenea, se arată că dacă v.a. independente X1 şi X2 sunt repartizate � 2 cu n1

respectiv n2 grade de libertate şi parametru �, atunci variabila (X1 + X2) este repartizată

� 2 cu (n1+ n2) grade de libertate şi parametru � :

( ) 2nn

2XXXX

21

2121it21)t()t()t(

+−

+ σ−=ϕ⋅ϕ=ϕ (7.69)

Teoremă : Dacă Xk(k=1,n) sunt v.a. independente, fiecare repartizate N(0, �), atunci

v.a. ∑= 2kXY este repartizată � 2 (n, �2).

Demonstraţie : Determinăm mai întâi funcţia de repartiţie pentru Xk

2 :

( ) due2

1xXxP)xX(P)x(Fx

x

2u

k2k

2

2

∫−

σ−

πσ=<<−=<=

De aici, 22

x

ex2

1)x('F)x(f σ−

πσ==

şi ( ) 21

22it21

0

21

itXX

)it21(dxex2

1eM)t( 2

2

2k

2k

−σ

σ−−∞ −

σ−=πσ

==ϕ ∫

V.a. Xk fiind independente, funcţia caracteristică a v.a. Y va fi :

( ) 2n

2n

1kXY it21)t( 2

k

=

σ−=ϕ=ϕ ∏ (7.70)

adică tocmai expresia (7.64), deci Y este repartizată � 2(n,�2).

Page 97: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 97

7.10.1.Cazuri particulare de repartiţii � 2 :

Pentru n=2, obţinem :

⎪⎩

⎪⎨⎧

<

≥σ=

σ−

0x,0

0x,e2

1)x(f

22x

2 ,

care este funcţia densitate a repartiţiei Rayleigh.

Pentru n=3, rezultă :

⎪⎩

⎪⎨⎧

<

≥σ=

σ−

0x,0

0x,ex221

)x(f22

x

3 (7.71)

corespunzătoare repartiţiei Maxwell.

7.11. Repartiţia „t” (Student)

STUDENT este pseudonimul statisticianului V.S.Gosset.

V.a. X este repartizată „t” cu n grade de libertate dacă are densitatea de repartiţie :

*2

1n2

Nn,Rx;n

x1

2nn

21n

)x(f ∈∈⎟⎟⎠

⎞⎜⎜⎝

⎛+

⎟⎠⎞

⎜⎝⎛Γπ

⎟⎠⎞

⎜⎝⎛ +

Γ=

+−

(7.72)

Ca exerciţiu, să arătăm că f(x) este într-adevăr o densitate de repartiţie :

Observăm că f(x)� 0,(� )x R şi în plus f(-x)=f(x). Atunci :

∫∫∞

+−∞

∞−

+−

⎟⎟⎠

⎞⎜⎜⎝

⎛+=⎟⎟

⎞⎜⎜⎝

⎛+=

0

21n

221n

2

dxn

x12dxn

x1I

Facem schimbarea de variabilă dyy2

ndx,0yn

x 2

=>= şi ţinem seama de funcţia

beta a lui Euler :

∫∞

+−− +⋅=Β0

)ba(1a dx)x1(x)b,a(

După înlocuire şi calcule rezultă :

Page 98: Carte Elemente de teoria probabilitatilor

98 Eroare! Legătură incorectă.

⎟⎠⎞

⎜⎝⎛ +

Γ

⎟⎠⎞

⎜⎝⎛Γ⋅⎟

⎠⎞

⎜⎝⎛Γ

=⎟⎠⎞

⎜⎝⎛Β⋅=

21n

2n

21

n2n,

21nI

Deoarece π=⎟⎠⎞

⎜⎝⎛Γ

21 , ţinând seama de (7.72), deducem :

∫∞

∞−

=1dx)x(f ,

deci f(x) este o funcţie densitate de repartiţie.

Graficul lui f(x) pentru n=1 şi n=5 este prezentat în fig. 7.13. şi se observă că forma

lor aminteşte de curba distribuţiei normale.

Fig.7.13.

Se poate arăta că dacă v.a. X este repartizată „t” cu n grade de libertate, atunci X este

asimptotic normală N(0,1) pentru n � � . Practic pentru n� 30 , repartiţia „t” poate fi

aproximată cu N(0,1).

Funcţia de repartiţie este dată de relaţia :

0dtnt1

2nn

21n

dt)t(f)x(Fx 2

1n2x

=⎟⎟⎠

⎞⎜⎜⎝

⎛+⋅

⎟⎠⎞

⎜⎝⎛Γ⋅π

⎟⎠⎞

⎜⎝⎛ +

Γ== ∫∫

∞−

+−

∞−

,

(7.73)

care nu se poate aduce la o formă mai simplă. De aceea F(x) este tabelată pentru diferite

valori ale lui x şi n. Deoarece f(x) este pară, avem F(-x)=1-F(x) şi este suficient să

cunoaştem valorile lui F pentru x � 0.

n=5

n=1

x 0

f(x)

Page 99: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 99

Din acelaşi motiv (f(x)-pară), M(x)=0 iar momentele obişnuite coincid cu momentele

centrate :

0dxn

x1x

2nn

21n

)X(2

1n2

1r21r2 =⎟⎟

⎞⎜⎜⎝

⎛+⋅

⎟⎠⎞

⎜⎝⎛Γ⋅π

⎟⎠⎞

⎜⎝⎛ +

Γ=μ

+−∞

∞−

++ ∫

(7.74)

0dxn

x1x

2nn

21n

)X(2

1n2

r221 =⎟⎟

⎞⎜⎜⎝

⎛+⋅

⎟⎠⎞

⎜⎝⎛Γ⋅π

⎟⎠⎞

⎜⎝⎛ +

Γ=μ

+−∞

∞−∫

(7.75)

Prin schimbarea de variabilă un

x 2

= , deducem :

⎟⎠⎞

⎜⎝⎛Γ

⎟⎠⎞

⎜⎝⎛ −Γ⋅⎟

⎠⎞

⎜⎝⎛ +Γ

⋅π

2n

r2n

21r

n r

r2 ; 2nr <

(7.76)

Având în vedere relaţiile de recurenţă :

,r2nr

2n2

2n1

2n

2n

21

23r

21r

21

21

23r

21r

21r

⎟⎠⎞

⎜⎝⎛ −Γ⋅⎟

⎠⎞

⎜⎝⎛ −⎟

⎠⎞

⎜⎝⎛ −⎟

⎠⎞

⎜⎝⎛ −=⎟

⎠⎞

⎜⎝⎛Γ

π⎟⎠⎞

⎜⎝⎛ −⎟

⎠⎞

⎜⎝⎛ −=⎟

⎠⎞

⎜⎝⎛Γ⎟

⎠⎞

⎜⎝⎛ −⎟

⎠⎞

⎜⎝⎛ −=⎟

⎠⎞

⎜⎝⎛ +Γ

L

LL

obţinem :

)r2n()4n)(2n()1r2(531n)X( r

r2 −−−−⋅⋅

=μL

L ; 2nr < (7.77)

De aici, deducem dispersia :

2nn)X()X(D 2 −

=μ= (7.78)

Următoarele teoreme (fără demonstraţie) ne arată diferite modalităţi de a ajunge la

repartiţia „t”.

T1 : Dacă X şi Y sunt v.a. independente iar X este repartizată N(0,�) şi Y repartizată

� 2(n,�2) atunci v.a. :

nY

Xz = , este repartizată „t” cu n grade de libertate.

T2 : Dacă v.a. independente Xk (k=1,n) sunt repartizate N(0,1), atunci v.a. :

Page 100: Carte Elemente de teoria probabilitatilor

100 Eroare! Legătură incorectă.

∑ ∑

= =

=

⎟⎠

⎞⎜⎝

⎛−

⋅−=n

1i

2n

1kki

n

1kk

Xn1X

Xn1

)1n(nZ

este repartizată „t” cu (n-1) grade de libertate.

7.12. Repartiţia Snedecor

Variabila aleatoare X urmează această repartiţie cu m,n grade de libertate, dacă are

densitatea de repartiţie :

2nm

12m

2m

xnm1x

2n

2m

2nm

nm)x(f

+−

−⎟⎠⎞

⎜⎝⎛ +⋅

⎟⎠⎞

⎜⎝⎛Γ⋅⎟

⎠⎞

⎜⎝⎛Γ

⎟⎠⎞

⎜⎝⎛ +

Γ⎟⎠⎞

⎜⎝⎛=

(7.79)

unde : x ☯ 0,� ) şi m, n N*.

Momentele repartiţiei Snedecor se calculează direct cu formula de definiţie, în care

facem schimbarea de variabilă : uxnm

= şi ţinem seama că :

)ba()b()a()b,a(Bdx)x1(x

0

)ba(1a

+ΓΓ⋅Γ

==+∫∞

+−− (7.80)

Obţinem :

⎟⎠⎞

⎜⎝⎛Γ⋅⎟

⎠⎞

⎜⎝⎛Γ

⎟⎠⎞

⎜⎝⎛ −Γ⋅⎟

⎠⎞

⎜⎝⎛ +Γ

⎟⎠⎞

⎜⎝⎛=

2n

2m

r2n

2mr

nm)X(M

r

r , 2nr <

(7.81)

Dar :

⎟⎠⎞

⎜⎝⎛ −Γ⎟

⎠⎞

⎜⎝⎛ −⎟

⎠⎞

⎜⎝⎛ −⎟

⎠⎞

⎜⎝⎛ −=⎟

⎠⎞

⎜⎝⎛Γ

⎟⎠⎞

⎜⎝⎛Γ⎟

⎠⎞

⎜⎝⎛ −+⎟

⎠⎞

⎜⎝⎛ −+=⎟

⎠⎞

⎜⎝⎛ +Γ

r2nr

2n2

2n1

2n

2n

2m

2m2r

2m1r

2m

2mr

L

L

Deci :

Page 101: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 101

)r2n()4n)(2n()2r2m()2m(m

mn)X(M

r

r −−−−++

⋅⎟⎠⎞

⎜⎝⎛=

L

L (7.82)

În particular :

2nn)X(M1 −

= , 2n > (7.83)

)4n)(2n(2m

mn)X(M

2

2 −−+

⋅= , 4n > (7.84)

)4n()2n(2nm

mn2)X(D 2

2

−−++

⋅= , 4n > (7.85)

Observăm că valoarea medie este independentă de m.

Enunţăm în cele ce urmează două teoreme care ne oferă căi de a ajunge la repartiţia

Snedecor :

T1 : Dacă v.a. independente X1 şi X2 sunt repartizate � 2(m,�2), respectiv � 2(n,�2),

atunci v.a. : 2

1

XX

nmY ⋅= , este repartizată Snedecor cu m,n grade de libertate.

T2 : Dacă v.a X este repartizată „t” cu n grade de libertate, atunci v.a. X2 este

repartizată Snedecor cu 1,n grade de libertate.

7.13. Repartiţia Fischer

V.a. X urmează repartiţia Fischer cu m,n grade de libertate dacă are densitatea de

repartiţie :

2nm

x2mx2m

enm1e

2n

2m

2nm

nm2)x(f

+−

⎟⎠⎞

⎜⎝⎛ +⋅

⎟⎠⎞

⎜⎝⎛Γ⋅⎟

⎠⎞

⎜⎝⎛Γ

⎟⎠⎞

⎜⎝⎛ +

Γ⎟⎠⎞

⎜⎝⎛=

(7.86)

unde : x R ; m,n N*.

Dacă Y este o v.a. având repartiţia Snedecor cu m,n grade de libertate, atunci v.a.:

Yln21X = , este repartizată Fischer cu m, n grade de libertate. (Demonstraţia se poate

face plecând de la funcţia de repartiţie a v.a. X).

Page 102: Carte Elemente de teoria probabilitatilor

102 Eroare! Legătură incorectă.

Deasemenea, se poate arăta că v.a. : 1

Ynm1

⎟⎠⎞

⎜⎝⎛ + , are repartiţia ⎟

⎠⎞

⎜⎝⎛

2m,

2nB , iar v.a :

mY(n+mY)-1, are repartiţia ⎟⎠⎞

⎜⎝⎛

2n,

2mB .

7.14. Repartiţia Cauchy

V.a. are repartiţia Cauchy C(a,b), dacă densitatea sa de repartiţie este :

22 )bx(aa1)x(f

−+⋅

π= ; 0a > , x R (7.87)

Repartiţia C(a,b) este unidimensională şi simetrică faţă de dreapta x=b. Valoarea

modală şi mediana acestei repartiţii sunt egale cu b, iar cuartilele sunt egale cu a� b.

Repartiţia C(a,b) nu admite momente sau momente centrate.

Funcţia caracteristică este : taitbe)t( +=ϕ (7.88)

Dacă v.a. X are repartiţia C(a,b), atunci v.a. : )X( μ+λ are repartiţia )b,a(C μ+λλ .

Într-adevăr,

( ) ( ) ( ) tabitx

itXitit)X(itX e)t(eeMeeM)t( λ−λ+μμλμμ+λ

μ+λ =λϕ⋅=⋅==ϕ , care demonstrează

afirmaţia anterioară.

Dacă v.a. independente Xk , k=1,n, au repartiţiile C(ak,bk), atunci v.a. : ∑n

1kX , are

repartiţia ⎟⎠

⎞⎜⎝

⎛∑ ∑n

1

n

1kk b,aC .

7.15. Probleme rezolvate :

1) Se consideră v.a. ),m(N~X σ . Să se arate că m este parametru de locaţie (adică

funcţia de repartiţie a lui (X-m) nu depinde de m).

Soluţie : Fie σ−

=mXY variabila normată )1,0(N~Y . Notăm cu : YmXZ σ=−= .

Trebuie să arătăm că funcţia de repartiţie a lui Z, G(x) nu depinde de m.

Avem : ⎟⎠⎞

⎜⎝⎛

σΦ+=⎟

⎠⎞

⎜⎝⎛

σ<=<σ=<=

x21xYP)xY(P)xZ(P)x(G , deci G nu depinde de

m. Se verifică imediat că parametrul �, separat, nu este un parametru de scală.

Page 103: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 103

2) Fie v.a. independente : ),m(N~X 111 σ şi ),m(N~X 222 σ . Să se studieze

repartiţia variabilei : 2211 XaXaY += , a1,a2 R.

Soluţie : Utilizăm funcţiile caracteristice � 1 respectiv � 2, ale variabilelor X1 şi X2.

Notăm cu � funcţia caracteristică a lui Y.

Avem :

( ) ( ) ( )( ) ( )

2t

mit2

aatitamam

2at

itam2

atitam

2211XitaXita)XaXa(ititY

2222

22

21

21

2

2211

22

22

2

22

21

21

2

1122112211

ee

ee)ta()ta(eeMeMeM)t(σ

−σ+σ

−+

σ−

σ−+

==

=⋅=ϕϕ====ϕ

în care am notat : m=a1m1+a2m2 şi 22

22

21

21

2 aa σ+σ=σ . Din forma funcţiei caracteristice

rezultă : ( )22

22

21

212211 aa,mamaN~Y σ+σ+ .

3) Fie X o v.a. pozitivă ce urmează o repartiţie lognormală, adică : lnX~N(m,�).

Să se afle repartiţia variabilei ∏=n

1kXY , unde Xk~logN(mk,�k), n,1k = şi sunt

independente în totalitatea lor.

Soluţie : Avem lnXk~N(mk,�k)., n,1k = şi ∑=n

1kXlnYln .

Generalizând problema 2) pentru un număr finit de variabile, deducem :

⎟⎟⎠

⎞⎜⎜⎝

⎛σ∑∑

n

1

2k

n

1k ,mN~Yln ,

deci şi Y este lognormală de parametri ∑=n

1kmm şi ∑σ=σ

n

1

2k .

4) Se dau variabilele gamma independente : X1~�(a1,b) şi X2~�(a2,b). Să se studieze

repartiţia variabilei Y=X1+X2.

Soluţie : Utilizăm funcţiile caracteristice � 1 şi � 2 ale variabilelor X1 respectiv X2 şi

notăm cu � funcţia caracteristică a lui Y. Avem : ( )( ) ( ) ( ) ( )212121 itXitXitXitXXXititY eMeMeeMeM)e(M)t( ⋅=⋅===ϕ +

Rezultă :

2t

mit2

)aa(tit)amam()aa(aa

21

2222

22

21

21

2

22112121 ee)itb1()itb1()itb1()t()t()t(

σ−

σ+σ−++−−− ==−=−−=ϕϕ=ϕ

Din acest rezultat deducem că )b,aa(~Y 21 +Γ .

5) Să se arate că dacă X este o v.a. cu repartiţie exponenţială negativă, atunci :

P[(X� x+y)/(X� x)]=P[(X� y)], (� ) *Ry,x +∈ .

Page 104: Carte Elemente de teoria probabilitatilor

104 Eroare! Legătură incorectă.

Soluţie : Dacă notăm evenimentele (X� x+y)=A, (X� x)=B, membrul stâng al

egalităţii devine :

by

bx

by

bx

bx

byx

B ee

ee

e11

e11

)x(F1)yx(F1

)B(P1)A(P1

)B(P)A(P

)B(P)AB(P)A(P

−−

+−

=⋅

=

⎟⎟⎠

⎞⎜⎜⎝

⎛−−

⎟⎟⎠

⎞⎜⎜⎝

⎛−−

=−

+−=

−−

==∩

=

unde : )yxX(A +≤= şi )xX(B ≤= .

Membrul drept este : by

by

ee11)C(P1)C(P−−

=⎟⎟⎠

⎞⎜⎜⎝

⎛−−=−= , unde : )yX(C >= şi

)yX(C ≤= .

Relaţia demonstrată reprezintă „proprietatea lipsei de memorie” pentru repartiţia

exponenţială negativă, deci aceasta este repartiţia continuă ce corespunde repartiţiei

geometrice discrete şi similar cazului discret este singura repartiţie continuă cu această

proprietate.

Page 105: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 105

Capitolul 8 Teoreme şi legi în teoria probabilităţilor

8.1. Inegalitatea lui Cebîşev

Această inegalitate ne dă informaţii asupra distribuţiei unei variabile aleatoare, pe

intervale centrate la media m, cu atât mai bune cu cât dispersia este mai mică.

Teoremă : Fie X o v.a. cu media M(X)=m şi dispersia D(X)=�2. Pentru orice * >0

are loc inegalitatea (Cebîşev) :

( ) 2

)X(D1mXPε

−≥ε<− sau ( ) 2

)X(DmXPε

≤ε≥− (8.1)

Demonstraţie :

Variabila X poate fi discretă sau continuă. Să presupunem că este discretă, luând

valorile xi cu probabilităţile pi, n,1i = .

Avem :

( ) ( ) ( ) ∑ε≥−

=ε+≥∪ε−≤=ε≥−∪ε−≤−=ε≥−n

mx1

i

i

p)mX()mX(P)mX()mX(PmXP

Apoi,

( ) ( ) ( )ε≥−ε≥ε≥−≥−=−= ∑∑∑ε≥−ε≥−

mXPppmxpmx)mX(M)X(D 2

mxi

mx

2i

2i

n

1i

2i

2

ii

De aici :

( ) 2

)X(DmXPε

≤ε≥− sau ( ) 2

)X(D1mXPε

−≥ε<−

Exemplu :

Să se determine o margine superioară (inferioară) a probabilităţii evenimentului ca o

variabilă X să se abată de la media sa, m, cu cel puţin (cel mult) 3�, unde �2=D(X).

Avem :

( ) 1111,091

9)X(D3mXP 2 ≅=

σ≤σ≥− (marginea superioară)

( ) 8888,098

9)X(D13mXP 2 ≅=

σ−≥σ<− (marginea inferioară)

Page 106: Carte Elemente de teoria probabilitatilor

106 Eroare! Legătură incorectă.

8.2. Convergenţa şirurilor de variabile aleatoare

Fie (Xn) un şir de v.a. definite pe câmpul de probabilitate {E,K,P) complet aditiv.

Termenii şirului fiind funcţii de la E la R există diverse modalităţi de a defini convergenţa

lui (Xn), unele din ele cu rol special în teoria probabilităţilor.

8.2.1. Convergenţa în probabilitate

(Xn) converge în probabilitate către o v.a. X, dacă pentru orice numere * >0 şi + >0,

suficient de mici, există un rang natural N(* ,+ ) astfel încât :

( ) ε≤δ≥− XXP n sau 0)XX(Plim nn=δ≥−

∞→ (8.2)

Se notează : XX P

n ⎯→⎯

De asemenea, spunem că XX P

n ⎯→⎯ , dacă :

,0)( >ε∀ 1)XX(Plim nn=δ<−

∞→ (8.3)

În particular X poate fi o constantă a. Dacă ( ) aXM n → , este suficient să arătăm că

( ) 0XD n → , pentru a demonstra că .aX Pn ⎯→⎯ . Aceasta rezultă imediat din inegalitatea

lui Cebîşev :

( ) 2n

nn)X(D

)X(MXPε

≤ε≥− , adică : 0)X(MX Pnn ⎯→⎯− sau .aX P

n ⎯→⎯ .

8.2.2. Convergenţa tare (aproape sigură)

Se reţine că, prin definiţie, X şi Y sunt egale aproape sigur, dacă :

{ }( ) 0)(Y)(XEP =ω≠ω∈ω

Şirul (Xn) converge aproape sigur (sau converge tare) către X dacă :

{ } 0)(X)(XlimEP nn=⎟

⎠⎞⎜

⎝⎛ ω≠ω∈ω

∞→ (8.4)

Se notează : XX T

n ⎯→⎯ sau XX .s.an ⎯→⎯ .

Definiţia ne spune că mulţimea punctelor de divergenţă are probabilitatea nulă.

Reţinem că limita X nu este unică, dar oricare două limite sunt aproape sigur egale.

Page 107: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 107

XX T

n ⎯→⎯ implică XX Pn ⎯→⎯ , fapt ce rezultă imediat şi dintr-o altă definiţie :

XX Tn ⎯→⎯ dacă ),(N)(,0,0)( δε∃>δ>ε∀ astfel încât :

( ) ε<⎟⎟⎠

⎞⎜⎜⎝

⎛δ≥−

δε≥U

),(Nnn XXP

(8.5)

Sau

( ) ε−≥⎟⎟⎠

⎞⎜⎜⎝

⎛δ<−

δε≥

1XXP),(Nn

nI

(8.6)

8.2.3. Convergenţa în medie de ordinul r

Şirul (Xn) converge în medie de ordinul r (r� 1, r N) către variabila aleatoare X,

dacă există M(� Xn-X� r) şi dacă :

( ) 0XXMlim rnn

=−∞→

(8.7)

Se scrie : XX r

n ⎯→⎯μ .

Cea mai utilizată este convergenţa în medie pătratică (r=2).

Convergenţa în medie de ordinul r implică convergenţa în probabilitate.

8.2.4. Convergenţa în repartiţie

Şirul (Xn) converge în repartiţie către variabila X (şi se scrie XX repn ⎯→⎯ ), dacă

şirul funcţiilor de repartiţie (Fn) al variabilelor Xn converge către funcţia de repartiţie F a

variabilei X, în toate punctele de continuitate ale acesteia, adică :

)x(F)x(Flim 00nn=

∞→, x0 – punct de discontinuitate (8.8)

Observaţii :

a) XX repn ⎯→⎯ în sens Bernoulli

b) În general limita F(x0) nu este unică

c) O teoremă datorată lui Polya stabileşte că dacă F este continuă atunci convergenţa este uniformă.

d) Pentru variabile discrete, convergenţa în repartiţie către o variabilă discretă se exprimă prin

P(Xn=x)� P(X=x). Un şir de v.a. discrete poate totuşi să conveargă în repartiţie către o variabilă

continuă.

Page 108: Carte Elemente de teoria probabilitatilor

108 Eroare! Legătură incorectă.

e) Se poate arăta că dacă (Xn) este un şir de variabile de densităţi fn şi X o variabilă de densitate f,

atunci :

XX repn ⎯→⎯ implică : fn(x)� f(x)

f) Convergenţa în probabilitate antrenează convergenţa în repartiţie.

g) Convergenţa în repartiţie este strâns legată de convergenţa funcţiilor caracteristice, aşa cum

precizează teorema Levy-Cramer-Dugue (fără demonstraţie) : Dacă XX repn ⎯→⎯ , atunci

� n(t)� � (t) uniform în toate intervalele finite [-u,u].

Dacă şirul (� n(t)) converge către o funcţie � a cărei parte reală este continuă în origine, atunci �

este o funcţie caracteristică iar şirul (Xn) converge în repartiţie către o variabilă X cu funcţia caracteristică

� .

Implicaţia diferitelor tipuri de convergenţe se poate rezuma în următoarea schemă :

( )( ) ( ) ( )XXXX

XXXX rep

nP

nTn

nr

⎯→⎯⇒⎯→⎯⇒⎭⎬⎫

⎯→⎯⎯→⎯μ

8.3. Legea numerelor mari. Legi limită

În practică, o serie de fenomene prezintă o anumită regularitate, aşa numita stabilitate

statistică, care se manifestă cu atât mai pregnant cu cât numărul elementelor este mai

mare. Această stabilitate statistică stă la baza aplicării calculului probabilităţilor, în sensul

că acesta se aplică numai pentru fenomenele stabile statistic.

Stabilitatea statistică se manifestă prin aceea că şirul (fn) al frecvenţelor relative se

grupează în jurul unei valori care este tocmai probabilitatea de apariţie a fenomenului

studiat. Studiul frecvenţelor este una din problemele de bază ale teoriei probabilităţilor, în

care am văzut că există diferite moduri de convergenţă ale frecvenţelor :

1) Dacă există constanta p a.î. pflim nn=

∞→, spunem că şirul (fn) tinde în mod sigur

către p, sau (fn)� p în sensul analizei matematice. Evident că pflim nn=

∞→ implică :

(� )* >0, (� )N(* ), a.î. (� )n>N(* ) să avem : � fn-p� <* .

2) Între (fn), n N* şi p există uneori o relaţie deosebită de cea din analiza

matematică, specifică teoriei probabilităţilor şi anume : inegalitatea � fn-p� <*

este un fenomen aleator, deci are o anumită probabilitate. Dacă

( ) 1pfPlim nn=ε<−

∞→, spunem că (fn) tinde în probabilitate către p.

3) Convergenţa tare (puternică) introdusă de Cantelli, cere ca probabilitatea

evenimentelor :

Page 109: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 109

� fn-p� <* , � fn+1-p� <* , …, � fn+k-p� <*

să tindă către 1 când n tinde la infinit, adică :

( ) k,0i)(,1pfPlim inn=∀=ε<−+∞→

(8.9)

4) În teoria probabilităţilor şi statistică se consideră că o v.a. este determinată dacă i

se cunosc momentele de orice ordin (principiul momentelor).

Asupra unei v.a. X, care schematic se poate reprezenta printr-o urnă Bernoulli, se pot

da mai multe teoreme, toate grupate în aşa-zisa lege a numerelor mari (teorema lui

Bernoulli), care stabileşte legătura dintre frecvenţă ca variabilă aleatoare şi probabilitate :

Teorema lui Bernoulli : Fie # numărul de apariţii ale unui eveniment A în n

experienţe independente (sau probe) şi p probabilitatea de realizare a lui A în fiecare

experienţă. Dacă n

f nα

= este frecvenţa relativă, atunci şirul (fn)n N converge în

probabilitate către p, adică :

( ) 0)(,1pfPlim nn>ε∀=ε<−

∞→ (8.10)

Demonstraţie :

Se porneşte de la inegalitatea lui Cebîşev şi se ţine seama că pentru evenimentul A

(cazul lui Bernoulli) avem �2=npq :

( ) ( ) 22222

2

n npq1

nnpq1

n1nnpPp

nPpfP

ε−=

ε−=

εσ

−≥ε<−α=⎟⎟⎠

⎞⎜⎜⎝

⎛ε<−

α=ε<−

Dar, ( ) 1pfPnpq1 n2 ≤ε<−≤ε

− , ne arată că are loc relaţia (8.10).

Teorema lui Poisson, reprezintă o generalizare a teoremei lui Bernoulli :

Fie şirul evenimentelor independente (An) cu probabilităţile teoretice pn (n=1,2,…).

Presupunem că există n

pplimp n1

n

++=

∞→

L .

Dacă fn este frecvenţa de apariţie a evenimentului Un

1iiA

=

în n probe, atunci fn

converge în probabilitate către p

Demonstraţie :

Page 110: Carte Elemente de teoria probabilitatilor

110 Eroare! Legătură incorectă.

Considerând v.a. cu tabloul kkkk

k p1q,qp01:X −=⎟

⎠⎞⎜

⎝⎛ , atunci

nXX

Y n1n

++=

L

este tot o v.a. iar fn este frecvenţa relativă a lui Yn

∑ ∑∑ ==⎟⎠

⎞⎜⎝

⎛=

n

1

n

1kk

n

1kn p

n1)X(M

n1XM

n1)Y(M

Notând cu # numărul de apariţii a lui Yn, avem :

∑−α

=−n

1knn p

n1

n)Y(Mf

( ) ( )

2nn112

n

1kk2

n

1n2

n

1

2kk2

n

1

2kk

2n

1k

n

1kkn

)qpqp(n1qp

n1

)X(Dn1pX

n1pX

n1p

n1X)Y(D

σ=++==

==−=⎥⎦⎤

⎢⎣⎡ −=⎟

⎞⎜⎝

⎛−=

∑∑∑∑ ∑=

L

( ) 22nn11

n nqpqp

1pfPε++

−≥ε<−L

(Cebîşev)

Deoarece pk+qk=1, pk� 0, qk� 0, rezultă :

41qp kk ≤ şi 22222

nn11

n41

n4n

nqpqp

ε=

ε≤

ε++L

Deci :

( ) 1pfPn411 n2 ≤ε<−≤ε

− şi trecând la limită :

( ) 1pfPlim nn=ε<−

∞→, (8.11)

adică (fn) converge în probabilitate către p.

Teorema lui Cantelli (fără demonstraţie), arată că există şi convergenţă tare a şirului

(fn) către p. Astfel, fie şirul (An) de evenimente independente cu probabilităţile p1, p2, …,

pn, … Presupunem că n

pplimp n1

n

++=

∞→

L . În aceste condiţii, avem :

( ) ( )( ) ( ) Nn 1pfPlim,

,1pfPlim,1pfPlim

knn

1nnnn

∈∀=ε<−

=ε<−=ε<−

+∞→

+∞→∞→

K

K

(8.12)

Un exemplu de convergenţă tare, datorat lui Octav Onicescu şi Gh. Mihoc este

următorul :

Fie o urnă cu m bile albe şi m bile negre. Se fac extracţii, înlocuind de fiecare dată

bila extrasă printr-o bilă de cealaltă culoare.

Page 111: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 111

Notând cu fn frecvenţa relativă a numărului de bile albe ieşite în n extracţii, avem

21flim nn

=∞→

.

Soluţie :

Fie # numărul de bile albe ieşite în n extracţii. Avem n

f nα

= . Numărul bilelor albe

rămase în urnă după cele n extracţii va fi : (m-# )+(n-# )=m+n-2# .

Avem :

0� m+n-2# � 2m,

de unde :

-m� n-2# � m,

sau :

n2mf

21

n2m

n ≤−≤− ,

adică :

n2m

21f n ≤−

Cum :

0n2

mlimn

=∞→

,

rezultă :

21flim nn

=∞→

.

Observaţie :

În legătură cu teoremele prezentate se impun următoarele precizări :

a) Teorema lui Bernoulli nu demonstrează că inegalitatea � fn-p� <* este satisfăcută pentru n

suficient de mare, ci numai că această inegalitate are şansă să fie realizată experimental. Această

şansă există deoarece P(� fn-p� <* ) este foarte apropiată de 1.

b) Legea numerelor mari nu este o proprietate a fiecărui şir de variabile aleatoare (nu constituie o

proprietate caracteristică oricăror şiruri de v.a.). Markov a dat un exemplu clasic în care această

lege nu mai acţionează.

Exemplu (Markov) :

Page 112: Carte Elemente de teoria probabilitatilor

112 Eroare! Legătură incorectă.

Se dă o urnă cu două bile, una albă şi una neagră. După fiecare extracţie o bilă extrasă este înlocuită

prin două bile de aceeaşi culoare. După n extracţii, putem extrage 0, 1, 2, …, n bile albe cu probabilităţile

Pn(0), Pn(1), …, Pn(n).

Avem :

)1k(P1nkn)1k(P

1nk)k(P 1n1nn −

+−

+−+

= −−

Dacă presupunem n1)1k(P 1n =−− , rezultă : ( ) n,0k

1n1)k(Pn =∀+

= , de unde pentru frecvenţa

avem tabloul :

⎟⎟

⎜⎜

+++ 1n1

1n1

1n1

n10L

L

Frecvenţele având aceeaşi probabilitate, nu poate fi vorba de nici o convergenţă.

În acest caz nu putem face o previziune asupra frecvenţelor relative după un număr mare de experienţe

şi deci este inutil să facem o statistică a modurilor experimentale de realizare a acestei experienţe.

Teorema lui Cebîşev : Fie n variabile aleatoare X1, …, Xn. Dacă :

a) n,1k,X k = sunt independente în totalitatea lor

b) ( ) ( ) n,1k,mXM k =∀=

c) ( ) ( ) n,1k,cXD k =∀< , c-constantă,

atunci :

1mXn1lim

n

1kn

=⎟⎟⎠

⎞⎜⎜⎝

⎛ε<−∑∞→

(8.13)

Demonstraţie :

Notăm cu ∑=n

1kX

n1X şi avem :

( ) mnmn1m

n1XM

n1)X(M

n

1

n

1k =⋅=== ∑∑

nc

nnc)X(D

n1)X(D 2

n

1k2 =≤= ∑

Aplicăm inegalitatea lui Cebîşev :

( ) 2

)X(D1)X(MXPε

−≥ε<− , adică :

Page 113: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 113

2

n

1k n

c1mXn1P

ε−≥⎟⎟

⎞⎜⎜⎝

⎛ε<−∑ , de unde :

1mXn1Plim

n

1kn

=⎟⎟⎠

⎞⎜⎜⎝

⎛ε<−∑∞→

Observaţie :

Teorema lui Cebîşev generalizează teorema lui Bernoulli şi scoate în evidenţă esenţa numerelor mari

care constă în faptul că dacă mărimile ataşate unei colectivităţi de volum mare conţin erori, acestea devin

neglijabile atunci când numărul lor este mare. Ne aflăm în situaţia practică de a considera o singură

variabilă şi anume media aritmetică a acestor erori.

Teorema lui Markov (fără demonstraţie) : Fie (Xn) un şir de v.a. independente două

câte două. Dacă :

a) M(Xk)=Mk şi D(Xk)=Dk, k N sunt finite,

b) ( ) ∑ =∃∞→

n

1kn

MMn1lim , finită şi

c) 0Dn1lim

n

1

2kn

=∑∞→,

atunci şirul (Yn) cu termenul general ∑=n

1kn X

n1Y converge în probabilitate către M :

MY Pn ⎯→⎯ .

8.3.1. Problema limită centrală (teorema Moivre-Laplace)

În cazul distribuţiei binomiale, când volumul selecţiei este foarte mare (n� � ),

aceasta poate fi aproximată de distribuţia normală. Acest lucru este riguros enunţat în

teorema Moivre-Laplace (care apare ca o particularizare a teoremei Laplace-Leapunov

cunoscută sub numele de problema limită centrală), adică :

( )

),m;x(fe2

1qpClim 2mx

21

xnxxnn

2

2

σ=πσ

= σ

−⋅−

∞→,

(8.14)

unde f este densitatea repartiţiei normale N(m,�2).

Demonstraţie : Utilizăm funcţiile caracteristice. Pentru distribuţia binomială, avem :

� X(t)=(peit+q)n. Dacă în locul v.a. X considerăm v.a. normată :

Page 114: Carte Elemente de teoria probabilitatilor

114 Eroare! Legătură incorectă.

,npqnp

npqX

npqnpXmXZ −=

−=

σ−

=

atunci :

n

npqtpi

npqiqti

n

npqitp

npqit)p1(

n

npqtpn

npqit

npqitnp

XZ

qepeqepe

eqpeenpqt)t(

⎟⎟

⎜⎜

⎛+=⎟

⎜⎜

⎛+=

=⎟⎟

⎜⎜

⎟⎟

⎜⎜

⎛+=⎟

⎟⎠

⎞⎜⎜⎝

⎛ϕ=ϕ

−−−

−−

(8.15)

Ţinând seama că :

2

2ix R

!2x

!1xi1e +−+= cu 0Rlim 20x

=→

2

2ix R

!2x

!1xi1e ′+−−=− cu 0Rlim 20x

=′→

Relaţia (8.15), după calcule, devine :

22

n2n

22

2

Z RR,n2

t1RRn2

t1)t( ′+=θ⎟⎟⎠

⎞⎜⎜⎝

⎛θ+−=⎟⎟

⎞⎜⎜⎝

⎛′++−=ϕ

Deci :

,en2

t1lim)t(lim 2t

n2t

n

n2t

12

nZn

2

2

2 −

⎟⎟⎠

⎞⎜⎜⎝

⎛−θ

−θ

∞→∞→=

⎥⎥⎥

⎢⎢⎢

⎟⎟⎠

⎞⎜⎜⎝

⎛−θ+=ϕ

care este tocmai funcţia caracteristică a distribuţiei N(x;0,1).

Revenind la variabila X=�Z+m, obţinem :

2t

itmitm2t

itmZmZX

2222

e21ee

21e)t()t()t(

σ−

σ−

+σπ

=⋅π

=σϕ=ϕ=ϕ

care este funcţia caracteristică a distribuţiei normale. Observaţie :

Distribuţia binomială se consideră bine aproximată de distribuţia normală dacă �2=npq>20 deşi în

practică se ia doar npq� 3, ceea ce corespunde unor valori pentru n>80 respectiv în practică n� 12.

Exemplu : Probabilitatea ca într-o unitate economică consumul de energie electrică să

fie depăşit într-o zi este p=0,3 (deci q=0,7). Să se calculeze probabilitatea ca din cele 10

zile ale unei decade fixate, consumul să fie depăşit în 4 zile.

Soluţie :

Page 115: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 115

Numărul de zile în care consumul este depăşit determină o v.a. binomială X, cu

tabloul de distribuţie :

( ) ( ) 1,2,3m;7,03,0Ck:X 2

10,0kk10kk

10=σ=⎟

⎠⎞

⎜⎝⎛

=

Folosind teorema Moivre-Laplace, avem :

2153,0449,1312,0

449,1)1,0;7,0(N)1,0;z(Ne

21e

21)4k(P 2,4

)34(2

)m4( 2

2

2

≅≅=σ

=πσ

=πσ

==−

−σ

−−

şi 7,0449,11mkz ≅=

σ−

= .

Observând că 2001,0)7,0()3,0(C)4k(P 64410 ==== K , se constată o abatere egală

cu : 0,2153-0,2001=0,0152.

Dacă s-ar considera 3 decade (o lună de zile) s-ar obţine o abatere egală cu 0,0007.

8.3.2. Teorema limită centrală a lui Leapunov (fără demonstraţie)

Fie (Xn) un şir de v.a. independente. Presupunem că există M(Xk)=Mk, D(Xk)=Dk>0,

M[� Xk-Mk�3]=H, k N şi notăm :

∑∑∑ ====n

1

3kn

n

n*n

n

1

2kn

n

1kn HL,

SYY,DS,XY

şi cu Fn*(x) funcţia de repartiţie a variabilei aleatoare Yn

*.

Dacă este verificată condiţia lui Leapunov,

0SL

limn

n

n=

∞→

(8.16)

Atunci :

R∈∀π

= ∫∞−

∞→x)(,due

21)x(Flim

x2

u*nn

2

(10.9)

Convergenţa către repartiţia Poisson. Fie Xn1, Xn2, …, Xnk, … un şir de v.a.

independente care iau valori întregi nenegative. Să notăm :

P(Xnk=h)=pnk(h); k=1, 2, …, kn ; n N, h N*

∑∑=

=

==nk

1knkn

2hnknk XY;H)h(p

şi să presupunem că sunt îndeplinite condiţiile :

Page 116: Carte Elemente de teoria probabilitatilor

116 Eroare! Legătură incorectă.

a) ∑=

∞→=

nk

1knkn

0)1(plim

b) ( ) 0)0(p1maxlim nkkk1n n

=⎥⎦⎤

⎢⎣⎡ −

≤≤∞→

c) ∑=

∞→=

nk

1knkn

0Hlim

Funcţia de repartiţie a v.a. Yn converge către funcţia de repartiţie a unei v.a.

repartizată Poisson, cu valoarea medie � . (Se demonstrează că funcţia generatoare a v.a.

Yn converge către funcţia generatoare G(z)=e� (z-1) corespunzătoare repartiţiei Poisson).

8.4. Probleme rezolvate

1) Să se arate că nu totdeauna limita unui şir de funcţii de repartiţie este tot o funcţie

de repartiţie.

Soluţie :

Fie Xn~U(-n,n), n� 1 (uniforme pe (-n,n)). Notăm cu fn densitatea de repartiţie a lui

Xn şi cu Fn funcţia sa de repartiţie. Vom calcula limFn(x).

Ştim că ⎪⎩

⎪⎨⎧

−∉

−∈=)n,n(x,0

)n,n(x,n21

)x(f , deci :

⎪⎪⎩

⎪⎪⎨

>

−∈+

=

−≤

= ∫−

nx,1

]n,n(x,n2

nxdtn21

nx,0

)x(Fx

nn

Atunci ( ) R∈∀=∞→

x,21)x(Flim nn

, dar ( ) R∈∀= x,21)x(F nu este o funcţie de

repartiţie.

2) Fie şirul de v.a. (Xn)n� 1 unde : ⎟⎟

⎜⎜

⎛−

n1

n11

n0:X n şi variabila X=0 (aproape sigur).

Să se arate că şirul (Xn) converge în repartiţie la X şi să se studieze convergenţa

şirului momentelor (Mk(Xn))k� 1.

Soluţie :

Fie Fn funcţia de repartiţie a lui Xn. Ea are forma :

Page 117: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 117

⎪⎩

⎪⎨

>

∈−

=

nx,1

]n,0(x,n11

0x,0

)x(Fn

Deci : ⎩⎨⎧

>≤==

∞→ 0x,10x,0)x(Flim)x(F nn

, este tocmai funcţia de repartiţie a v.a. X=0

(a.s), deci (Xn) converge în repartiţie la X.

Apoi, avem : ⎟⎟

⎜⎜

−n1

n11

n0X

k

kn

şi deci : .1k)(,nn1n)X(M 1kk

nk ≥∀== − Mai observăm că :

⎪⎩

⎪⎨⎧

≥+∞=

=== −

∞→

∞→

∞→ 2k,nlim1k,11lim

)X(Mlim 1k

n

nnkn

în timp ce Mk(X)=0, .k)( N∈∀

3) Un post de transformare trebuie să alimenteze o reţea electrică cu 20000 becuri.

Probabilitatea conectării unui bec într-o seară de iarnă (perioada de vârf în

consumul de energie electrică) este de 0,65. Să se facă analiza economică

necesară proiectării postului de transformare.

Soluţie :

Se pot considera variante diferite :

a) Determinarea capacităţii astfel ca toate cele 20000 de becuri să aibă asigurat în

orice moment consumul de energie electrică.

b) Determinarea capacităţii astfel încât cu o probabilitate dată, suficient de mare, să

se asigure energia aferentă consumului obişnuit.

Notăm cu X v.a. ce reprezintă numărul de becuri ce pot fi conectate în diferite seri ale

iernii. Distribuţia lui X poate fi considerată binomială, cu parametrii : n=2000 şi p=0,65.

Atunci, avem :

M(X)=m=np=13000 şi 67npq)X(D ≅==σ

Folosim inegalitatea lui Cebîşev :

( ) 2

2

113000XPεσ

−≥ε<− ,

în care presupunem * =k �.

Page 118: Carte Elemente de teoria probabilitatilor

118 Eroare! Legătură incorectă.

Dacă k=3, rezultă : * =3 � =201 şi ( ) 89,09820113000XP ≅≥<− .

Aceasta, ne spune că pentru o capacitate corespunzătoare la 13201 becuri medii, cu o

probabilitate de cel puţin 89% consumul asigurat va fi normal.

Dacă k=4, rezultă : * =4 � =268 şi ( ) 94,0161526813000XP ≅≥<− , adică pentru o

capacitate corespunzătoare în medie la 13268 de becuri cu o probabilitate de cel puţin

94% consumul asigurat va fi corespunzător.

Determinarea capacităţii postului de transformare se poate face însă şi astfel încât, cu

probabilitatea foarte bună de 0,999, consumul asigurat să fie normal. Numărul n în acest

caz fiind mare, putem folosi aproximarea prin distribuţia normală.

Calculăm valoarea x0 pentru care are loc evenimentul X<x0 cu probabilitatea cerută :

999,0mx

21)xX(P 0

0 =⎟⎠

⎞⎜⎝

⎛σ−

Φ+=< , sau :

999,0)20(21

=Φ+ unde 6713000x

z 00

−= . Deci & (20)=0,499.

Din tabele, pentru & (20)=0,499 rezultă z0=3,09, de unde :

x0=3,09� 67+13000=13207. Acest număr este numit „coeficient de simultaneitate” şi

dimensionarea postului de transformare se recomandă să se facă pentru acest număr de

consumatori.

Pentru numărul de becuri n=2000, rămâne capacitatea corespunzătoare la : 20000-

13207=6793 de becuri, nefolosită cu probabilitatea 0,999.

4) Într-un magazin sunt serviţi zilnic n=15000 potenţiali cumpărători ai unui articol

perisabil. Din datele statistice, probabilitatea ca un client să cumpere articolul

respectiv într-o zi este p=0,85. Care este probabilitatea ca numărul celor ce vor

cumpăra marfa să fie cuprins în intervalul (12600,12900) ?

Soluţie :

Notăm cu X v.a. care reprezintă numărul de cumpărători ai articolului respectiv într-o

zi. Deoarece p este constantă, X are o distribuţie binomială şi pentru că n este mare,

această distribuţie se poate aproxima prin distribuţia normală.

Avem :

m=np=12750 şi 44npq ≅=σ .

Faţă de media m, intervalul (12600,12900) este simetric :

Page 119: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 119

12750-150=12600 şi 12750+150=12900, deci :

12600<X<12900 - -150<X-12750<150.

Putem aplica inegalitatea lui Cebîşev, cu * =150, adică :

( ) ( ) 914,0086,0115012750XP1mXP 2

2

=−≥<−⇔εσ

−≥ε<−

Prin aproximare cu distribuţia normală, obţinem :

( )

( ) ( ) 998,0499,024,3244

150215012750XP

:adică,2mXP

=⋅=Φ=⎟⎠⎞

⎜⎝⎛Φ=<−

⎟⎠⎞

⎜⎝⎛

σε

Φ=ε<−

Acest rezultat este mai avantajos decât cel obţinut prin inegalitatea lui Cebîşev, cu

alte cuvinte coeficientul de siguranţă este cuprins în intervalul (0,914;0,998) sau între

91,4% şi 99,8%.

5) Fie (Xn,Yn) un şir de v.a. independente, cu valori în R2, identic realizabile. Dacă :

n,1i,c)X(D,)X(Ma0 ii =<∞<=< , şi

n,1i,d)Y(D,)Y(Mb0 ii =<∞<=< ,

să se arate că variabila :

n1

n1

YYXX

Z++++

=K

K converge aproape sigur către a/b.

Soluţie :

Putem scrie pe Z astfel :

n1

n1

YYn

nXX

Z++

⋅++

=K

K

Din legea numerelor mari (teorema lui Cebîşev) rezultă :

an

XX .s.an1 ⎯→⎯++K

şi ,bn

YY .s.an1 ⎯→⎯++K

deci : baZ .s.a⎯→⎯

Page 120: Carte Elemente de teoria probabilitatilor

120 Eroare! Legătură incorectă.

Capitolul 9 Procese stochastic. Elemente de teoria fiabilităţii.

9.1. Noţiunea de proces stochastic

În aplicaţiile teoriei probabilităţilor, deseori întâlnim şi variabile aleatoare care depind

de unul sau mai mulţi parametri. De exemplu, tensiunea la anodul unei lămpi cu

incandescenţă, la un moment dat, este o v.a. depinzând de timp. Numeroase exemple se

întâlnesc în teoria fiabilităţii privind caracteristicile unor aparate sau elemente în stare de

funcţionare.

Teoria proceselor stochastice se ocupă de studiul familiilor de v.a. definite pe un

acelaşi câmp de probabilitate {E,K,P}. Notăm cu E mulţimea tuturor v.a. cu valori reale,

definite pe E, iar cu T o mulţime oarecare.

Definiţia 1 : Fie E={⌧ � ⌧ :E� R} şi T arbitrară. Se numeşte proces stochastic (sau

aleator), cu mulţimea de parametri T, o aplicaţie ⌧ :T� E, unde ⌧ (t)=⌧ t E, t T.

Deci, un proces stochastic este o funcţie ⌧ (e,t), e E şi t T şi se mai notează

{⌧ t(e)}t T, punându-se în evidenţă că el nu reprezintă altceva decât o familie de variabile

aleatoare. Dacă T/ N se foloseşte termenul de lanţ în loc de proces. Lanţul este aşadar un

şir de v.a. {⌧ n(e)}n N.

Pentru fiecare t T, ⌧ t(e) este o v.a. definită pe câmpul {E,K,P} iar pentru fiecare

realizare e E , ⌧ (e,*)reprezintă o funcţie definită pe T, numită traiectoria procesului,

corespunzătoare realizării e.

Admitem că variabilele aleatoare din ⌧ descriu starea unui anumit sistem şi că

mulţimea parametrilor T reprezintă timpul. În acest fel, un proces stochastic reflectă

evoluţia în timp a unui sistem dat. Mulţimea T se poate considera fie (-� ,� ), fie [0,� ),

fie un segment [0,1]. În toate aceste cazuri, vom avea un proces stochastic cu timp

continuu.

Dacă T constă numai dintr-o mulţime numărabilă de elemente, cum ar fi Z sau N,

termenul de proces se înlocuieşte cu cel de lanţ, iar notaţia folosită este cea indicială (ca

la şiruri) : …, ⌧ -n,…, ⌧ -1, ⌧ 0, ⌧ 1, …, ⌧ n ,…(n Z) respectiv ⌧ 1, ⌧ 2 , …, ⌧ n ,…(n

N).

Vom nota cu B, �-algebra mulţimilor boreliene din R, adică cea mai mică �-algebră ce

conţine familia tuturor intervalelor din R. Fie X mulţimea v.a. {⌧ t(e)}, ale unui proces

Page 121: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 121

stochastic. Vom numi elementele x X, stări, iar X mulţimea stărilor procesului

stochastic considerat.

Evoluţia unui proces stochastic, descrisă în termeni probabilistici, presupune atât

cunoaşterea probabilităţii tuturor evenimentelor de forma : „la momentul t, procesul se

găseşte într-o stare ⌧ t(e), care aparţine mulţimii A0 B”, cât şi probabilitatea de a avea

simultan un număr oarecare de astfel de evenimente pentru diverse momente ti (1� i� n)

şi diverse mulţimi Ai B. Cu alte cuvinte, înseamnă a se da probabilităţile :

( )nt1t A)e(,,A)e(Pn1

∈ξ∈ξ K pentru orice n N, orice ti T (1� i� n) şi orice Ai B.

Cunoaşterea acestor probabilităţi revine la cunoaşterea funcţiilor de repartiţie n-

dimensionale :

( ) ( ) ( ) Rx,Tt,Nn, x,,xPx,,xF iint1tn1tt n1n1∈∈∈∀<ξ<ξ= KKK (9.1)

Dacă observăm procesul aleator la momentul t0, putem considera că cunoaştem

„trecutul” său pentru t� t0 şi ceea ce nu ştim şi încercăm să prevedem este „viitorul” său.

În mod firesc, vom fi conduşi la probabilităţi condiţionate, de forma :

( ), n.,2,1i,A)e(Pitt K=ξ∈ξ (9.2)

unde t1<t2<…<tn<t sunt bine determinate dacă cunoaştem probabilităţile :

( )nt1t A,,APn1

∈ξ∈ξ K .

Întâlnim adesea, în natură şi în viaţa social-economică, procese care sunt astfel încât

cunoaşterea unei stări a sistemului la un moment oarecare t0 nu determină încă în mod

unic stările acestuia în următoarele momente de timp, ci determină probabilitatea ca

sistemul să ajungă într-una din stările unei mulţimi de stări a sistemului.

Criteriul cel mai important în clasificarea proceselor stochastice, se referă la felul

cum sunt legate între ele variabilele aleatoare ⌧ t atunci când t parcurge mulţimea

parametrilor T. Cea mai importantă clasă de procese stochastice, teoretic şi practic, o

reprezintă procesele Markov. Dacă probabilităţile condiţionate (9.2) verifică condiţia :

( ) ( ) , A)e(Pn.,2,1i,A)e(P ttt i∈ξ==ξ∈ξ K (9.3)

aproape sigur pentru orice n N, orice t1<…<tn<t şi orice A B, obţinerea unui caz

particular foarte important de proces aleator, când probabilităţile condiţionate se reduc la

cele absolute, adică cunoaşterea trecutului procesului nu influenţează cu nimic viitorul

său.

Page 122: Carte Elemente de teoria probabilitatilor

122 Eroare! Legătură incorectă.

Definiţia 2 : Un proces Markov este un proces aleator care verifică proprietatea lui

Markov : (� )n N şi (� )t1<t2<…<tn<t, avem :

( ) ( ), A)e(Pn.,2,1i,A)e(Pni tttt ξ∈ξ==ξ∈ξ K aproape sigur (9.4)

La baza noţiunii de proces Markov stă deci imaginea pe care o avem despre un sistem

dinamic fără postacţiune, adică un sistem a cărei evoluţie în viitor (la momentul t) nu

depinde decât de starea sa precedentă (la momentul tn) fără a depinde de ceea ce s-a

petrecut cu el în trecut (momentele t1, t2, …, tn-1).

De exemplu, în mecanică, cunoaşterea poziţiei unei particule nu este suficientă pentru

a determina comportarea sa viitoare, chiar dacă se cunoaşte sistemul de forţe ce

acţionează asupra ei. În schimb, dacă prin starea particulei înţelegem nu numai poziţia ei

ci şi viteza sa, atunci evoluţia ei este complet determinată.

În acest sens, orice proces stochastic se poate transforma într-un proces de tip

markovian, complicând suficient stările, astfel încât ele să înglobeze, la orice moment,

întreaga istorie a procesului.

9.2. Elemente de teoria fiabilităţii

Teoria fiabilităţii (teoria siguranţei în funcţionare) are ca scop aflarea legilor de

apariţie a defecţiunilor sistemelor (echipamente sau utilaje). Fiabilitatea unui sistem este

probabilitatea ca acestea să-şi îndeplinească funcţiile cu anumite performanţe şi fără

defecţiuni, într-un anumit interval de timp şi în condiţii de exploatare date.

Prin calitatea sistemului, se înţelege mulţimea proprietăţilor ce definesc gradul de

utilitate în exploatare şi, atunci, fiabilitatea sistemului este capacitatea sa de a-şi

conserva calitatea în condiţii determinate de exploatare. Aici, noţiunii de sistem îi dăm

un sens foarte larg : întreprindere, instalaţii şi echipamente, aparatură industrială de

măsură şi control, sisteme de calcul, etc.

Problemele de teoria fiabilităţii se încadrează de cele mai multe ori în probleme cu

caracter economic. Cunoaşterea legii de îmbătrânire a unor utilaje şi deci a gradului lor de

uzură în timp este utilă pentru alegerea unor momente cât mai potrivite pentru înlocuirea

acestora.

Page 123: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 123

9.2.1. Timpul de funcţionare până la prima defecţiune.

O parte indivizibilă a unui sistem, considerată ca entitate de sine stătătoare, o vom

numi element. În cazul unor echipamente sau a unor elemente, perioada de timp de la

darea în funcţiune până la apariţia avariei coincide cu durata de viaţă a elementului

respectiv (de exemplu becurile care nu se mai pot repara).

Să considerăm ca moment iniţial momentul în care un element este pus în starea de

funcţionare şi să notăm cu ⌧ timpul de funcţionare până la apariţia defecţiunii. Prin timp

de funcţionare înţelegem perioada de funcţionare efectivă, fără a considera întreruperile

deliberate. ⌧ este o variabilă aleatoare a cărei funcţie de repartiţie va fi : F(t)=P(⌧ <t),

t>0.

Presupunem că F(t) este derivabilă oricare ar fi t>0 şi notăm F’(t)=� (t).

Probabilitatea ca elementul să fie în stare de funcţionare la momentul t (sau să funcţioneze

fără defecţiuni un timp mai lung decât t) este :

& (t)=P(⌧ >t)=1-F(t), t>0 (9.5)

unde & (t) este funcţia de siguranţă (continuă şi derivabilă în orice t>0, & (0)=1,

0)t(limt

=Φ∞→

).

Valoarea medie a timpului de funcţionare fără defectare este :

∫∫∞∞

Φ=ρ⋅=ξ=00

dt)t(dt)t(t)(Mm , (9.6)

iar dispersia lui ⌧ : 2

00

2 mdt)t(t2dt)t()mt()(D −Φ=ρ−=ξ ∫∫∞∞

(9.7)

În practică întâlnim adesea exemple de prevenire a avariilor. În acest caz se stabileşte

pe bază de calcule şi experienţă o limită de funcţionare t0 (de exemplu cazanele de la

instalaţia de încălzire la locomotive, vapoare, etc.). Dacă ⌧ ar fi durata de viaţă al unui

astfel de echipament, fără impunerea unei durate maxime de funcţionare, atunci adevărata

valoare a acestei durate va fi : ⌧ *=min(⌧ ,t0).

Dacă F* este funcţia de repartiţie a lui ⌧ * se vede că pentru orice t>0 avem :

⎩⎨⎧

>≤=<ξ=

0

0**

tt,1tt),t(F)t(P)t(F

(9.8)

⎩⎨⎧

>≤Φ=−=Φ

0

0**

tt,0tt),t()t(F1)t(

(9.9)

∫∫ Φ=Φ=00 t

0

t

0

** dt)t(dt)t(m (9.10)

Page 124: Carte Elemente de teoria probabilitatilor

124 Eroare! Legătură incorectă.

20

*t

0

mdt)t(t2)(D −Φ=ξ ∫ (9.11)

9.2.2. Funcţia risc de defectare.

Să considerăm evenimentele :

A - „elementul funcţionează fără să se defecteze până la momentul t”

B - „elementul nu se defectează între momentele t şi t+h”. Apoi :

)t()ht(

)t(P)ht(P

)A(P)BA(P)A/B(P

Φ+Φ

=>ξ

+>ξ=

∩= , (9.12)

adică : „dacă elementul nu se defectează până la momentul t, probabilitatea ca el să nu se

defecteze până la momentul (t+h) este P(B/A)”. Înseamnă că, în aceleaşi ipoteze,

probabilitatea ca el să se defecteze înainte de momentul t+h este :

)t()ht()t(

)t()ht(1)A/B(P1

Φ+Φ−Φ

+Φ−=− (9.13)

Dacă h este suficient de mic, atunci : & (t)-& (t+h)� -h� & ’(t) şi (13.9) devine :

( )ΦΦ′

−=λ⋅λ=ΦΦ′

−≈ ;h)t(h)t()t(A/BP , (9.14)

unde � (t) este funcţia risc de defectare.

În teoria mortalităţii această funcţie se numeşte funcţie de supravieţuire. Graficul

funcţiei empirice „risc de defectare”, obţinut prin prelucrarea datelor statistice este de

forma prezentată în fig. 9.1.

Fig.9.1.

Prima perioadă (I) din figură arată că riscul descreşte în timp, adică acesta este mai

mic după trecerea unui timp de la darea în exploatare. Aceasta este perioada rodajului.

� (t

)

0 I II III

t

Page 125: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 125

Perioada a II-a este perioada de funcţionare normală în care riscul se stabilizează şi nu

depinde de trecerea timpului. Ultima perioadă (III) este perioada de îmbătrânire a

echipamentului, în care sub influenţa unor factori fizici şi chimici – elementele se

degradează ireversibil şi riscul de defectare creşte cu trecerea timpului.

Dacă � (t)>0, din relaţia ce-l defineşte (vezi 9.14), rezultă :

0t,e)t( t >=Φ λ− , (9.15)

iar funcţia de repartiţie a perioadei de funcţionare fără defectare este :

0t,e1)t(1)t(F t >−=Φ−= λ− (9.16)

adică are o repartiţie exponenţială cu parametrul � .

Această lege de fiabilitate nu este universală. În practică întâlnim frecvent situaţii în

care datele experimentale nu concordă cu modelul de mai sus.

În teoria fiabilităţii apare frecvent repartiţia Weibull. Dacă ⌧ are o distribuţie

Weibull cu parametri � şi # , adică funcţia de repartiţie este :

0t,e1)t(F t >−=αμ− , (9.17)

atunci funcţia de siguranţă corespunzătoare este αμ−=Φ te)t( şi deci îi va corespunde

funcţia risc de defectare : � (t)=� # t# -1.

Repartiţia Weibull - depinzând de doi parametri - este o lege mai generală, ea putând

cuprinde un număr mult mai mare de cazuri concrete decât repartiţia exponenţială.

Dacă riscul de defectare (� ) este proporţional cu timpul, respectiv � (t)=2� t, � >0

(constant), atunci :

t2)t()t('

μ−=ΦΦ ; 1)0( =Φ şi

2te)t( μ−=Φ (9.18)

Deci suntem în cazul unei legi Weibull de parametrii � şi 2.

9.2.3. Siguranţa sistemelor cu elemente legate în serie

Considerăm un sistem format din elemente a căror siguranţă în funcţionare este

cunoscută şi presupunem că elementele se defectează independent unul de altul.

Aceste elemente sunt legate în serie fiabilistic dacă prin defectarea sistemului

înţelegem defectarea a unui element (oricare). Dacă sistemul este compus din n elemente

şi timpul potenţial de funcţionare fără defectare a fiecăruia din aceste elemente este

respectiv ⌧ 1, ⌧ 2,…,⌧ n iar ⌧ este timpul corespunzător sistemului, atunci : ⌧ =inf{⌧ 1,

⌧ 2,…,⌧ n}. În acest caz, dacă � este funcţia de siguranţă a sistemului şi

� k(k=1,2,…,n) sunt funcţiile de siguranţă ale elementelor, avem :

Page 126: Carte Elemente de teoria probabilitatilor

126 Eroare! Legătură incorectă.

)t()t()t(P)t(P)t,,t(P)t(P)t( n1n1n1 ΦΦ=>ξ>ξ=>ξ>ξ=>ξ=Φ KKK (13.15)

Logaritmând şi înmulţind cu (-1), obţinem :

)t(ln)t(ln)t(ln n1 Φ−−Φ−=Φ− K

Derivând în raport cu t, deducem :

∑λ=λ++λ=λn

1kn1 )t()t()t()t( K

(13.16)

Respectiv : Riscul de defectare a sistemului este egal cu suma riscurilor de defectare

a elementelor înseriate.

9.2.4. Siguranţa sistemelor cu elemente legate în paralel

Considerăm un sistem format din n elemente care se defectează independent unul de

altul. Vom presupune că sistemul se defectează numai dacă se defectează toate elementele

sale. Dacă păstrăm notaţiile de mai sus, putem scrie : ⌧ =sup{⌧ 1, ⌧ 2,…,⌧ n} şi

respectiv .

)t(F)t(F)t(P)t(P)t,,t(P)t(P)t(F n1n1n1 KKK =<ξ<ξ=<ξ<ξ=<ξ=

unde Fk(t) ,( k=1,2,…,n) reprezintă funcţiile de repartiţie ale lui ⌧ k.

Page 127: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 127

STATISTICĂ MATEMATICĂ

Capitolul 10 Teoria selecţiei. Teoria estimaţiei.

Ajustarea legilor de distribuţie.

10.1. Teoria selecţiei

10.1.1. Noţiuni introductive.

Statistica matematică este partea matematicii aplicate care se ocupă cu culegerea datelor,

analiza şi interpretarea probabilistică a acestora. Tehnicile care se folosesc scot în evidenţă

caracteristicile şi diferenţele dintre membrii unei colectivităţi (populaţii), adică ai mulţimii C,

sub aspectul parametrilor (proprietăţilor) care intervin.

Presupunem că studiem colectivitatea din punctul de vedere al unei singure proprietăţi.

Notăm cu N-volumul colectivităţii (numărul unităţilor care compun colectivitatea), care poate

fi şi infinit. Deoarece proprietatea ce se studiază diferă de la individ la individ, variaţia ei

fiind aleatoare, se va asimila proprietatea cu o variabilă aleatoare, x, teoretică, definită pe

colectivitatea C. Caracteristicile numerice ale variabilei x se vor numi caracteristici teoretice:

m=M(x) - media teoretică, D=σ2=D(x) - dispersia teoretică; Mr=M(xr) - momentul teoretic de

ordinul r, μr=M((x-m)r) - momentul centrat teoretic de ordinul r, deci sunt calculate ca în

teoria probabilităţilor.

Colectivitatea C poate fi studiată sau cercetată în întregime, de obicei sub formă de

recensământ, dar de cele mai multe ori se face o cercetare parţial-selectivă, când sunt

examinate numai anumite elemente ale colectivităţii, care formează o subcolectivitate

(subpopulaţie) S. Notăm cu n volumul subcolectivităţii, iar variabila aleatoare asociată

acesteia cu x* şi o numim variabilă empirică sau variabilă de selecţie.

Pentru ca informaţiile obţinute la cercetarea lui S să poată fi extinse şi asupra lui C este

necesar ca S să fie o subcolectivitate reprezentativă, adică în ea să se reflecte proprietăţile

generale ale colectivităţii C.

Constituirea lui S se face prin selecţie (sondaj), care este cu revenire (dacă după

examinare elementul revine în C) sau fără revenire (dacă elementul cercetat nu revine în C).

În primul caz, selecţia este repetată, de volum n, iar în cel de-al doilea caz avem o selecţie

nerepetată, de volum n.

Page 128: Carte Elemente de teoria probabilitatilor

128 Eroare! Legătură incorectă.

Observaţie: Dacă volumul N al colectivităţii C este mare dar finit, iar volumul n al subcolectivităţii S

este suficient de mic, deosebirea între cele două tipuri de selecţii este foarte mică iar în aplicaţii selecţiile

nerepetate se pot considera ca selecţii repetate. De aceea ne vom opri doar asupra selecţiilor repetate (cu

revenire). Pentru m şi D din cazul selecţiei repetate şi respectiv m1, D1 din cazul selecţiei nerepetate, există

relaţiile:

m=m1 (mediile sunt aceleaşi)

1-Nn-ND=D1 (relaţia dintre dispersii)

Dacă n<<N, atunci raportul 11-Nn-N

≈ şi în acest caz avem o „identitate” între rezultatele

din cadrul celor două tipuri de selecţii.

Selecţia poate fi simplă sau stratificată. Este simplă când se aplică unei colectivităţi

omogene formată din elemente care au caracteristica studiată în aceeaşi proporţie şi

stratificată dacă se aplică unei colectivităţi neomogene care se împarte în subcolectivităţi

omogene.

Notăm cu x1, ... ,xn valorile variabilei teoretice x pentru fiecare element ce formează S,

astfel încât variabila empirică x* va avea tabloul de distribuţie:

⎥⎥⎥⎥

⎢⎢⎢⎢

n1

n1

xx

:xn1

*

K

K

Dacă se face o nouă selecţie, datorită caracterului său aleator, variabila aleatoare

empirică x* poate să aibă alte valori ceea ce ne determină să considerăm valorile sale x1,

... ,xn ca fiind de fapt variabile aleatoare care sunt identice din punct de vedere

probabilistic, cu variabila teoretică x. Această afirmaţie ne permite să scriem egalităţile:

))m-M((x=))m-M((x , )M(x=)M(x , D(x)=)D(x , M(x)=)M(x rrj

rrjjj

Caracteristicile de selecţie sunt:

)m-x(n1)=x*D(Dxn

1)=x=M(m 2*j

n

1j=

*j

n

1j=

** , ∑∑ =

)m-x(n1=))m-xM((=x

n1=)M(x=M r*

j

n

1j=

r***r

rj

n

1j=

**r , r

∑∑ μ

Page 129: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 129

Observaţie: Variabila empirică x* se poate considera scrisă prin intermediul unui tablou de distribuţie

de forma:

,nn

xx:x

k1

k1*

⎟⎟⎠

⎞⎜⎜⎝

K

K

unde ( )n1,=i x i sunt valorile distincte ale variabilei teoretice x iar ( )n1,=i n i sunt frecvenţele

absolute cu care apar valorile xi în cazul unei selecţii de volum n. Deci n=n1+ ... +nk. În acest caz, pentru

caracteristicile de selecţie avem relaţiile :

n)m-x(n1=))m-xM((= , nxn

1=)xM(=M

, n)m-x(n1=)xD(=D , nxn

1=)xM(=m

ir*

i

k

1=i

r***ri

ri

k

1=i

**r

i2*

i

k

1=i

**ii

k

1=i

**

r ∑∑

∑∑

μ

Dacă variabila teoretică x este discretă respectiv continuă şi dacă :

- probabilităţile pi respectiv funcţia de densitate f depind de s parametri λ1, λ2, ... , λs ;

- se cunoaşte distribuţia în funcţie de parametri.;

atunci suntem în cazul unei legi specificate.

Cu ajutorul selecţiei se vor determina parametri ce caracterizează distribuţia.

10.1.2. Funcţia de repartiţie de selecţie

Considerăm variabila teoretică x, având funcţia de repartiţie F şi presupunem că am

efectuat o selecţie de volum n obţinând valorile x1, ... , xn.

Fie n(x0) numărul observaţiilor în care a apărut o valoare a lui x*<x0.

Se numeşte funcţie de repartiţie de selecţie funcţia ]1,0[:F*n →R , definită de relaţia :

( ) ( )00*n xn

n1xF =

Exemplu:

Să se determine Fn*(x0) în cazul unei selecţii de volum n=100 asupra unei variabile

aleatoare x cu tabloul de repartiţie:

⎥⎦

⎤⎢⎣

45101530

9610

Observăm că 100=45+10+15+30=n=n k

4

1∑ . Funcţia de repartiţie de selecţie :

Page 130: Carte Elemente de teoria probabilitatilor

130 Eroare! Legătură incorectă.

⎪⎪⎪⎪

⎪⎪⎪⎪

>

9x,1=100100

9x<6,550,=100

55

6x<1,0,45=10045

1x<0,0,3=10030

0x,0

=(x)F*100

Fie x o variabilă teoretică cu funcţia de repartiţie F(x). Efectuăm un sondaj de volum

n căruia îi corespunde funcţia de repartiţie de selecţie Fn*(x). Notăm cu

|F(x)-(x)F|sup=d *n

xn

R∈.

Are loc următoarea:

Teoremă : Dacă volumul selecţiei n� N atunci 0d P

n ⎯→⎯ , adică 1)0d(Plim nNn==

→,

(teorema lui Glivenko (1896-1940)).

Această teoremă este fundamentală în statistica matematică deoarece furnizează

justificarea teoretică a utilizării metodei selecţiei şi permite acceptarea principiului de

bază al teoriei selecţiei şi anume :

Variabila de selecţie converge în lege către variabila teoretică, iar caracteristicile

numerice ale variabilei de selecţie converg în probabilitate către caracteristicile analoage

ale variabilei teoretice.

10.2 Teoria estimaţiei

10.2.1. Estimatori punctuali.

1. Estimator consistent.

Fie x variabila aleatoare cu care s-a asimilat proprietatea cercetată la o colectivitate C şi

x* variabila de selecţie a cărei valori sunt variabile aleatoare x1, ..., xn. Presupunem că pentru

variabila teoretică se cere să se determine parametrul (caracteristica) λ .

Se numeşte estimator al parametrului � , o funcţie � *=� *(x1,…,xn) care depinde de

rezultatul selecţiei (adică de x1, …,xn) şi care aproximează parametrul � . În acest caz funcţia

Page 131: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 131

� * defineşte o statistică. Ea este în realitate o variabilă aleatoare pentru care avem îndeplinită

egalitatea :

( ) ( ) 0 ,1Plim *

Nn>ε∀=ε<λ−λ

→,

conform căreia � * converge în probabilitate către parametrul estimat � când volumul

selecţiei n tinde către N. Mai precis, spunem că � * este o funcţie de estimaţie consistentă sau

estimator consistent pentru parametrul � ,dacă

( ) ( ) 1Plim ,0 *

Nn=ε<λ−λ>ε∀

Pentru selecţia dată estimatorul λ* are o valoare determinată, notată λd

* şi numită

estimaţie consistentă, iar coeficientul de siguranţă cs=P(� λd*-λ� <ε) este probabilitatea

care fixează gradul de apropiere al estimaţiei consistente λd* faţă de parametrul estimat λ.

Se preferă acei estimatori λ* care conduc la coeficienţi de siguranţă cât mai apropiaţi de

unitate.

De exemplu, legea numerelor mari, a lui Bernoulli, arată că în cazul distribuţiei

binomiale, fn(A) este un estimator consistent pentru p=P(A) întrucât avem:

1=)|<p-fP(| lim nn

ε∞→

2. Estimator absolut corect. Estimator corect.

Fie λ* un estimator al parametrului λ.

Definiţia 1 : λ* este un estimator absolut corect dacă M(λ*)=λ şi D(λ*)� 0 când n� N. În

acest caz, orice valoare λ d*, a estimatorului λ*, estimează absolut corect parametrul λ .

Definiţia 2 : λ* este un estimator corect pentru λ dacă M(λ*)� λ şi D(λ*)� 0 când

n� N. În acest caz, orice valoare determinată λ d* estimează corect parametrul λ.

Definiţia 3 : Se numeşte distorsiunea (deplasarea) estimatorului λ* diferenţa: M(λ*)-

λ. Estimatorul λ* este nedeplasat dacă M(λ*)=λ. Deci un estimator absolut corect este

nedeplasat, pentru că are distorsiunea nulă.

Dacă M(λ*)-λ� a 0 când n� N, spunem că a este o eroare sistematică.

Teorema 1 : Orice estimator absolut corect este şi estimator consistent.

Page 132: Carte Elemente de teoria probabilitatilor

132 Eroare! Legătură incorectă.

Demonstraţie :

Avem M(λ*)=λ şi D(λ*)� 0 (n� N). Aplicăm inegalitatea lui Cebîşev variabilei λ* :

ελ≥ελλ 2

** )D(-1)|<-P(|

Prin trecere la limită obţinem :

1,=)|<-P(| lim *

nελλ

∞→

adică λ* este un estimator consistent.

Exemple :

1) Momentul de selecţie de ordinul r, Mr* este un estimator absolut corect al momentului

teoretic Mr.

Într-adevăr,

rrr

n

1j=

rj

n

1j=

rj

n

1j=

*r M=nM

n1=M

n1=)xM(

n1=xn

1M=)M(M ∑∑∑ ⎟⎟⎠

⎞⎜⎜⎝

şi folosind independenţa variabilelor :

0n

)xD(=)xnD(n1=)xD(

n1=)xD(

n

1=xn1D=)MD(

rr

2r

n

1j=2

rj

n

1j=2

rj

n

1j=

*r →⎟⎟

⎞⎜⎜⎝

⎛∑∑∑

când ∞→n .

În particular, media de selecţie xn1=m j

n

1j=

* ∑ este un estimator absolut corect al mediei

teoretice m.

2) Momentul centrat de selecţie μr* este un estimator corect al momentului centrat teoretic μr.

Observaţie:

Valorile μμ *22 1-n

n=~ şi μμ *3

3

3 2)-1)(n-(nn=~ estimează absolut corect momentele centrate

teoretice μ2 şi μ3.

Page 133: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 133

În particular, dispersia de selecţie )m-x(n1==D 2*

j

n

1

*2

* ∑μ este un estimator corect iar

)m-x(1-n

1=~=D~ 2*j

n

12 ∑μ este un estimator absolut corect (deci şi nedeplasat) pentru dispersia

teoretică D.

Teorema 2 (fără demonstraţie) : Dacă n este suficient de mare (n>30), Mr

* are o

distribuţie normală de medie Mr şi dispersie ( )2rr2 Mm

n1

În particular, xn1=M=m j

n

1

*1

* ∑ are o distribuţie normală de parametri m şi

Dn1=)M-(M

n1 2

12 .

3. Estimator eficient.

Fie de estimat parametrul λ şi considerăm funcţia de densitate de probabilitate f sau

funcţia de probabilitate (adică probabilităţile) în cazul discret, care depinde de λ, adică

f=f(x;λ).

După Fischer, expresia :

,ff

Mn);x(flnMn)(I22

⎟⎟⎠

⎞⎜⎜⎝

⎛⎟⎠

⎞⎜⎝

⎛ ′⋅=⎟

⎟⎠

⎞⎜⎜⎝

⎛⎟⎠⎞

⎜⎝⎛ λ

λ∂∂

⋅=λ λ

se numeşte cantitatea de informaţie a parametrului λ .

Conform unei teoreme, )I(

1)D( *

λ≥λ (mărginită inferior), cunoscută sub numele de

inegalitatea informaţiei (inegalitatea lui Rao-Cramér şi Frechet-Darmois).

Un estimator λ* se numeşte eficient dacă are cea mai mică dispersie, adică este soluţia

ecuaţiei )I(

1=)D( *

λλ . Înseamnă că estimatorul eficient λ* este cel mai bun în sensul că

realizează cea mai mică împrăştiere faţă de λ , deci: D(λ*)=D(λ*-λ) este minimă.

Prin definiţie, raportul :

)D()I(1=)e(

**

λ⋅λλ

Page 134: Carte Elemente de teoria probabilitatilor

134 Eroare! Legătură incorectă.

se numeşte eficienţa estimatorului λ*. Dacă λ* este estimator eficient atunci e(λ*)=1

(deoarece I(λ)�D(λ*)=1).

Estimatorul λ* se numeşte asimptotic eficient dacă 1=)e(lim *

∞→.

4. Estimatori de verosimilitate maximă

Fie x variabila teoretică având funcţia de probabilitate f(x;λ1, ..., λs). Notăm

n1,=j , )x=P(x=) ,;xf( js1j λλ K valorile funcţiei de probabilitate pentru variabilele xj.

Variabila de selecţie x*(x1, ... ,xn) reflectă variabila teoretică x şi această reflectare este

măsurată prin probabilitatea realizării tuturor evenimentelor x=xj, deci a intersecţiei

In

1=jj )x=(x . Această probabilitate, notată V(x1,... ,xn; λ1, ..., λs), se numeşte funcţia de

verosimilitate a selecţiei, deci :

) , ;f(x=)x=P(x=)x=(xP=) , ;x , ,xV( s1j

n

1j=j

n

1j=

n

1j=js1n1 λλ⎟⎟

⎞⎜⎜⎝

⎛λλ ∏∏ KKK I

Estimatorii λ1*,...,λs

* ai parametrilor λ1,...,λs sunt de verosimilitate maximă dacă

realizează maximul funcţiei V.

Astfel, ( )s1,=i *iλ se determină rezolvând sistemul de ecuaţii

0=V , 0,=V 0,=Vs21 λ∂

λ∂∂

λ∂∂

K

Observaţie : În calcule, în locul funcţiei V se poate utiliza funcţia ln V, care conduce la aceleaşi soluţii

pentru estimatorii de verosimilitate maximă, aşa încât se poate considera sistemul :

0=Vln , 0,=Vln 0,=Vlns21 λ∂

λ∂∂

λ∂∂

K

Au loc următoarele teoreme (fără demonstraţie) :

Teorema 1 : Un estimator eficient al unui parametru este şi de verosimilitate maximă.

Teorema 2 : Un estimator de verosimilitate maximă este şi estimator consistent.

Teorema 3 : Un estimator de verosimilitate maximă, pentru valori mari ale lui n este o

variabilă aleatoare normală cu m=λ şi D=1/I(λ).

Exemple :

Page 135: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 135

1) În cazul distribuţiei binomiale, să se determine estimatorii de verosimilitate

maximă, pentru probabilitatea p şi media np.

Avem :

)p-(1pC=p)f(x; x-nxxn ,

deci :

)p-(1pC=p) ; x , ,xV( jjjx-nxx

n

n

1j=n1 ∏K ,

astfel încât :

p)]-(1ln)x-(n+plnx+Cln[=Vln jjxn

n

1j=

j∑ .

Derivând, obţinem :

( ) 0=pn-xp)-p(1

1=np-xp)-p(1

1=p-1x-n

-px

=pVln 2

j

n

1

n

1j

n

1

jjn

1j=∑∑∑∑ ⎟⎟

⎞⎜⎜⎝

⎛⎟⎟⎠

⎞⎜⎜⎝

∂∂

De aici, 0=pn-x 2j

n

1∑ , de unde : *

j

n

1j=

m=xn1=np ∑ şi se constată astfel că media de

selecţie este un estimator de verosimilitate maximă pentru media distribuţiei binomiale.

2) Să se determine estimatorii de verosimilitate maximă ai parametrilor m şi σ2 din cazul

distribuţiei normale.

Ştim că :

,e2

1=)m,f(x; 2

2

2)m(x-

πσσ

astfel :

e 2)m-x(

)2(1=)m,;xf(=)m,; x, ,xV( 2

2j

n

1j=

-nnj

n

1j=n1 σπσ

σσ ∑∏K ,

deci :

)m-x(21-)(2ln

2n-ln-n=Vln 2

j

n

1j=2 ∑

σπσ

Obţinem sistemul de ecuaţii (de verosimilitate maximă) :

Page 136: Carte Elemente de teoria probabilitatilor

136 Eroare! Legătură incorectă.

⎪⎪⎩

⎪⎪⎨

σσσ∂∂

⋅σ∂

0=)m-x(1+n-=Vln

0=m)(-1)-x(22

1-=m

Vln

2j

n

1=j3

j

n

1=j2

De aici, deducem :

,n=)m-x(

0=m)-x(

22j

n

1j=

j

n

1j=

⎪⎪⎩

⎪⎪⎨

σ∑

cu soluţia :

)m-x(n1=xn

1=m 2*j

n

1=j

*2j

n

1=j

* , ∑∑ σ

care reprezintă estimatorii de verosimilitate maximă, ai mediei şi dispersiei din cazul

distribuţiei normale.

3) Să se estimeze proporţia de indivizi λ dintr-o colectivitate C care au o anumită

proprietate, folosind estimatorul λ* de verosimilitate maximă. Să se arate că λ* este şi

estimaţie eficientă.

Considerăm o selecţie de volum n şi asociem fiecărui individ j o variabilă aleatoare

⎥⎦

⎤⎢⎣

λλ-1

10:x j , care poate lua valoarea 1 sau 0, după cum individul are proprietatea sau nu.

Funcţia de probabilitate se poate scrie deci : )-(1=)f(x; x-1x λλλ unde {0,1}x ∈ .

Pentru selecţia cu variabilele x1, ..., xn avem astfel :

) x-(1x

=);x, ,xV( j

n

1

j

n

1 -nn1

∑λ⋅∑

λλK

şi prin logaritmare :

)-(1lnx-n+lnx=Vln j

n

1j

n

1

λ⎟⎟⎠

⎞⎜⎜⎝

⎛λ ∑∑ ,

iar ecuaţia verosimilităţii maxime va fi :

0=x-n-11-x

1=Vlnj

n

1j

n

1⎟⎟⎠

⎞⎜⎜⎝

⎛λλλ∂

∂ ∑∑

Page 137: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 137

având soluţia :

xn1= j

n

1

* ∑λ

Apoi,

)-(11

=1

+-11

=1

+)-(1-11-=

=)f(x;-1

x-1-x=)f(x;)f(x;ln=flnM

22

21

0=x

21

0=x

2

λλλλλ⎟

⎠⎞

⎜⎝⎛

λλ⎟

⎠⎞

⎜⎝⎛

λ

λ⎟⎠⎞

⎜⎝⎛

λλλ⋅⎟

⎠⎞

⎜⎝⎛

λ∂λ∂

⎟⎟⎠

⎞⎜⎜⎝

⎛⎟⎠⎞

⎜⎝⎛

λ∂∂

∑∑

deci :

)-(1n=)f(x;lnnM=)I(

2

λλ⎟⎟⎠

⎞⎜⎜⎝

⎛⎟⎠⎞

⎜⎝⎛

λ∂λ∂

λ

n)-(1=

n)-(1n=)-(

n1=)xD(

n

1xn

1D=)D(2

2n

1=j2j

n

12j

n

1

* = λλλλλλ⎟⎟

⎞⎜⎜⎝

⎛λ ∑∑∑

Astfel :

( ) 1,=

n)-(1

)-(1n

1=D)I(

1* λλ

⋅λλ

λ⋅λ

relaţie care demonstrează că λ* este un estimator eficient pentru parametrul λ .

10.2.2. Estimarea prin intervale de încredere

Presupunem că din colectivitatea C se efectuează o selecţie de volum n. Dacă funcţia de

probabilitate a variabilei teoretice x este f(x;λ), să se determine două funcţii de selecţie A(x1,

..., xn) şi B(x1, ..., xn) astfel încât: P(A� λ� B)=α (constantă).

Intervalul aleator [A,B] se numeşte interval de încredere pentru parametrul λ, iar

probabilitatea α este coeficientul de încredere. Cu cât [A,B] este mai mic şi α mai apropiat de

1 cu atât avem o indicaţie mai precisă asupra parametrului λ .

În locul intervalului [A,B] se poate considera un interval centrat, cu centrul în estimatorul

punctual λ~ al parametrului λ .

Page 138: Carte Elemente de teoria probabilitatilor

138 Eroare! Legătură incorectă.

Fie λ~ nedeplasat, adică λλ =)~M( , obţinut experimental pe baza selecţiei efectuate. Să

estimăm acum eroarea posibilă. Pentru aceasta, alegem o probabilitate α suficient de mare şi

determinăm valoarea ε aşa încât să avem :

αελλ =)|<-~P(|

sau :

)+~,-~(=I , =)+~<<-~P( ελελαελλελ α

Observaţie: Reţinem că λ este o mărime fixă (nealeatoare) în timp ce intervalul de încredere Iα este

aleator, determinat pe baza datelor experimentale, având centrul în λ~

(care este o valoare aleatoare) şi

lungimea 2ε.

Din această cauză se mai spune că α este probabilitatea ca Iα să conţină punctul λ.

Extremităţile intervalului Iα, adică ελ-~ şi ελ+~ se numesc limite de încredere.

Determinarea limitelor de încredere ελλ -~=1 şi ελλ +~=2 în cazul când legea de repartiţie

a variabilei λ~ este cunoscută se face uşor, determinând ε astfel ca αελλ =)|<-~P(| .

Problema se complică în cazul când legea de repartiţie a variabilei λ~ nu este cunoscută.

Pentru a evita aceste complicaţii se pot exprima parametrii necunoscuţi care-l determină pe ε

prin estimatorii lor punctuali.

1. Interval de încredere pentru valoarea medie.

Presupunem că variabila aleatoare teoretică x are m şi D necunoscute. Fie x1, ..., xn

valorile variabilei x*, de selecţie, obţinute prin efectuarea unei selecţii de volum n. Se cunosc

expresiile pentru estimatorii valorii medii şi dispersiei date de relaţiile :

,)m-x(1-n1=D~ ,xn

1=m 2*j

n

1=jj

n

1=j

* ∑∑

care sunt estimatori absolut corecţi (nedeplasaţi).

Se ştie că pentru n suficient de mare, m* are o lege normală ⎟⎠⎞

⎜⎝⎛

nDm,N . Presupunem m*

normal repartizată. Dacă se cunoaşte dispersia teoretică D atunci intervalul de încredere Iα

pentru media m=M(x), cu aproximaţie destul de bună este Iα=(m*-ε,m*+ε), unde ε este soluţia

ecuaţiei 2

= α⎟⎠⎞

⎜⎝⎛

σε

Φ , deci este de forma : ⎟⎠⎞

⎜⎝⎛ α

Φσε2

= 1- , Φ-1 fiind funcţia inversă a funcţiei

Page 139: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 139

integrale a lui Laplace, iar nD=σ . Dacă dispersia teoretică D nu se cunoaşte, atunci în

locul lui σ se poate lua nD~=~σ .

Observaţie :

Dacă volumul selecţiei n este relativ mic (n� 20), atunci pentru Iα se poate lua intervalul:

⎟⎠

⎞⎜⎝

⎛ σσαα

n

~t+m,

n

~t-m * *

unde tα se determină din ecuaţia P(� t� >tα)=1-α, corespunzătoare distribuţiei „t” (student) cu n-1 grade de

libertate, α fiind coeficientul de încredere, iar

)m-x(1-n1=D~=~ 2*

j

n

1j=∑σ

Exemple :

1) Să se determine intervalul de încredere, cu coeficient de încredere α=0,9973,

pentru media diametrului unui lot de produse normal repartizat, considerând că se face o

selecţie de n=9 produse pentru care se obţine m*=2mm şi σ=0,01mm.

Avem :

0,0299,=2,990,01=(0,4986)0,01=2

= 1-1- ⋅Φ⋅⎟⎠⎞

⎜⎝⎛ α

Φσε

Φ-1 obţinându-se din tabelul de funcţii Laplace existent în diverse cărţi de specialitate sau în

tabele matematice uzuale. Astfel: Iα=(2-0,0299;2+0,0299)=(1,9701;2,0299).

2) Să se rezolve problema de mai sus pentru α=0,8, în cazul în care diametrul nu urmează

o lege normală. Cum n=9 (volum mic) folosim intervalul de încredere precizat în observaţia

de mai sus. Astfel, δ=1-α=1-0,8=0,2 şi tα=1,397 (tabelat în anexe, în cărţi de specialitate)

corespunzător la n-1=8 grade de libertate. Cum 0,01=~σ 3, rezultă intervalul de încredere :

0047)(1,9953;2,=3

0,011,397+;23

0,011,397-2 ⎟⎠⎞

⎜⎝⎛ ⋅⋅

3) Dintr-o colectivitate C de volum N=100 piese, se face o selecţie de volum n=20,

obţinându-se după măsurători, datele din tabelul de mai jos :

Page 140: Carte Elemente de teoria probabilitatilor

140 Eroare! Legătură incorectă.

j 1 2 3 4 5 6 7 8 9 10 xj 10,5 10,8 11,2 10,9 10,4 10,6 10,9 11,0 10,3 10,8 j 11 12 13 14 15 16 17 18 19 20 xj 10,6 11,3 10,5 10,7 10,8 10,9 10,8 10,7 10,9 11,0

Să se afle estimarea m* a mediei m a colectivităţii precum şi Iα pentru α=0,8

corespunzător presupunând m* normal repartizată.

Avem :

0,06379=19

)(0,22+ +)(-0,28=)m-x(1-n

1=D~

10,78=20

11,0+ +10,5=xn1=m

222*

j

20

1

j

20

1

*

K

K

Astfel :

0,05647=20

0,06379=nD~=σ

deci :

0,07228=1,280,05647=(0,4)0,05647=2

= 1-1- ⋅Φ⋅⎟⎠⎞

⎜⎝⎛ α

Φσε

Rezultă :

10,85228)(10,70772;=0,07228)+,70,07228;10-(10,78=Iα

2. Interval de încredere pentru dispersie

Am văzut că pentru dispersia teoretică D se poate lua estimatorul absolut corect,

nedeplasat :

)m-x(1-n1=D~ 2*

j

n

1j=∑ , unde xn

1=m j

n

1j=

* ∑ este media de selecţie.

Estimatorul D~ este suma a n variabile aleatoare independente 1-n

)m-x( 2*j , deoarece

conţin aceeaşi variabilă m*. Se poate demonstra că atunci când n creşte această sumă converge spre legea normală (practic pentru n� 30). Se arată că D=)D~M( ceea ce arată că

Page 141: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 141

D~ este un estimator nedeplasat pentru D. De asemenea, D1-n2=)D~D( 2 , unde înlocuind

parametrul necunoscut D cu estimatorul său D~ avem : D~1-n2=)D~D( 2 .

Considerând egalitatea αε =)|<D-D~P(| transmisă pentru variabila normală D~ ,

obţinem )+D~ , -D~(=I εεα , unde : )m-x(1-n1=D~ 2*

j

n

1∑ iar ε este soluţia ecuaţiei

2=

D~

α⎟⎟⎠

⎞⎜⎜⎝

σ

εΦ , adică ⎟

⎠⎞

⎜⎝⎛ α

Φ⋅σε2

= 1-D~ unde D~

1-n2=D~ ⋅σ .

Observaţie : Dacă n este relativ mic (n� 20) intervalul de încredere pentru dispersia teoretică D este :

⎟⎟⎠

⎞⎜⎜⎝

χχD~1-n , D~1-n

2m

2M

unde : χ2M şi χ2

m sunt valorile variabilei χ2 cu (n-1) grade de libertate corespunzătoare probabilităţilor :

2+1=)>P(= 2

m2

χχδ şi 2-1=)>P(= 2

M2

χχδ

Exemple :

1) În condiţiile exemplului 3) din 10.2.1.1., să se determine intervalul de încredere pentru

dispersia teoretică D şi abaterea medie pătratică D corespunzătoare coeficientului de

încredere α=0,8.

Am văzut că 0,06379=D~ , iar 0,02069=D~192=D~σ . Deci, ε va fi :

ε=0,02069⋅φ-1(0,4)=0,02069⋅1,28=0,02648 şi intervalul de încredere pentru D este :

(0,06379-0,02648;0,06379+0,02648)=(0,03731;0,09027), iar pentru D (abaterea medie

pătratică) : (0,19316;0,30045).

2) Efectuând o selecţie de volum n=10 s-au obţinut caracteristicile estimatoare m*=8,6 şi

2,25=D~ . Să se determine intervalele de încredere pentru dispersia teoretică D şi abaterea

medie pătratică D cu coeficientul de încredere α=0,95.

Deoarece n este unic folosim observaţia de mai sus şi astfel :

0,025= , 0,975=2+1= Mm δ

αδ

Page 142: Carte Elemente de teoria probabilitatilor

142 Eroare! Legătură incorectă.

Din tabele, deducem 19,0= , 2,70= 2M

2m χχ , deci intervalul de încredere pentru D este

(1,066;7,50) iar pentru D este (1,032;2,739).

10.3 Ajustarea legilor de distribuţie. Metode empirice.

Fie o colectivitate � şi v.a. X care reprezintă caracteristica cercetată. X se consideră

determinată dacă este cunoscută atât mulţimea valorilor x ale argumentului, cât şi

densitatea de probabilitate f(x) sau probabilităţile pi, după cum X este continuă sau

discretă.

Construirea funcţiei densitate de probabilitate poate fi realizată în diverse moduri :

a) se construieşte schema probabilistică în care este încadrată caracteristica studiată

şi pe cale de raţionament se determină expresia analitică a lui f(x). Astfel de

distribuţii se numesc distribuţii teoretice.

b) Se înregistrează sub formă de frecvenţe valorile caracteristicii studiate pentru

fiecare valoare a argumentului, când variabila este continuă. Astfel de distribuţii

se obţin în urma unor experienţe, de aceea se numesc distribuţii empirice. O

distribuţie empirică, indiferent că exprimă o caracteristică discretă sau continuă,

nu poate fi decât discretă (sunt prezentate sub formă tabelară).

La o distribuţie empirică apelăm de fapt în una din următoarele situaţii :

- schema probabilistică teoretică în care se încadrează caracteristica studiată

constituie o ipoteză şi se urmăreşte verificarea ipotezei făcute, prin cercetarea

concordanţei dintre datele tabelate şi cele teoretice.

- cunoaşterea colectivităţii � în toată generalitatea ei este imposibilă sau nepractică,

fapt ce conduce la cercetarea caracteristicii ce determină v.a. X prin sondaje

(folosind eşantioane).

Încadrarea unei distribuţii empirice într-o schemă probabilistică cu distribuţie

teoretică răspunde în modul cel mai potrivit descoperirii legităţii de desfăşurare a

caracteristicii studiate. Odată cunoscut modelul matematic al legii respective, se pot

rezolva diverse probleme puse în practică.

Testele de ajustare au scopul de a verifica dacă un eşantion provine sau nu de la o

variabilă aleatoare de distribuţie cunoscută F0(x).

Dacă F(x) este funcţia de repartiţie a variabilei de selecţie (empirice), se va testa

ipoteza :

H0 : F(x)=F0(x) împotriva ipotezei H1 : F(x) F0(x)

Page 143: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 143

Astfel de teste sunt de exemplu : testul � 2 , testul Kolmogorov, testele Neyman-

Pearson etc.

Metode empirice uzuale

10.3.1. Forma histogramei.

Histograma ne poate conduce la eliminarea anumitor modele, de exemplu în cazul

când unele proprietăţi de simetrie nu sunt verificate. O formă simetrică ne conduce de

obicei la ipoteza de normalitate, însă legea lui Gauss-Laplace nu este singura ce are curba

densităţii sub formă de clopot. Mai întâlnim repartiţia Cauchy şi unele repartiţii Student

particulare.

O formă puternic asimetrică poate sugera folosirea legii lognormale, gamma, Weibull

sau beta care au curbe de densitate asemănătoare, cel puţin pentru anumite valori ale

parametrilor.

10.3.2. Verificarea unor proprietăţi matematice.

Se verifică pe eşantionul considerat dacă anumite proprietăţi sau relaţii privind

parametrii unui model sunt adevărate.

Astfel, pentru o lege Poisson, ştim că M(X)=D(X). Ne vom asigura pe un eşantion că

media empirică (de selecţie) diferă doar puţin de dispersia de selecţie modificată. O astfel

de constatare este numai o indicaţie privind caracterul legii (posibil Poisson) dar nu o

dovadă certă.

Veridicitatea unui model nu se poate dovedi prin mediile statistice.

Pentru o variabilă normală ştim că boltirea (coeficientul de aplatizare) este 3 iar

coeficientul de asimetrie este nul. Vom verifica dacă valorile empirice corespunzătoare se

abat de la valorile teoretice, utilizând tabelele cu valori.

10.3.3. Ajustarea grafică.

Pentru multe legi de probabilitate, o transformare funcţională simplă permite

reprezentarea curbei de repartiţie printr-o dreaptă.

Funcţia de repartiţie empirică a unui eşantion de talie (sau volum) N diferă puţin,

dacă N este mare, de funcţia de repartiţie teoretică F(x). Atunci, vom verifica dacă datele

sunt adecvate modelului, comparând funcţia de repartiţie empirică cu o dreaptă (trasată

prin puncte, pe o hârtie specială cu o scară funcţională).

Page 144: Carte Elemente de teoria probabilitatilor

144 Eroare! Legătură incorectă.

Spre exemplificare, vom considera câteva legi probabilistice uzuale .

1.Legea exponenţială negativă.

Dacă durata de viaţă X a unei componente este astfel încât :

P(X>x)=e-�x ,

atunci :

ln(1-F(x))=-�x.

Pentru un eşantion de talie n, vom reporta atunci, pentru fiecare valoare a timpului de

funcţionare x, procentajul de “supravieţuire” la data x, pe o scară logaritmică. Practic,

dacă valorile xi sunt ordonate crescător vom construi punctele de coordonate :

⎟⎟⎠

⎞⎜⎜⎝

⎛⎟⎠⎞

⎜⎝⎛ −

−n

1i1ln,x i , ]n,1[i ∈

care trebuie să fie aproximativ aliniate de-a lungul unei drepte a cărei pantă este o

estimare grafică a lui � .

2.Legea lui Weibull βλ−=> xe)xX(P ,

de unde :

ln(-ln(P(X>x))=ln�+� lnx

Aici, se vor reprezenta punctele :

⎟⎟⎠

⎞⎜⎜⎝

⎛⎟⎟⎠

⎞⎜⎜⎝

⎛⎟⎠⎞

⎜⎝⎛ −

−−n

1i1lnln,xln i

Panta dreptei obţinute, furnizează o estimare grafică a lui � iar ordonata sa la origine

o estimare a lui � .

3.Legea Gauss-Laplace

Pentru simplitate, vom considera legea normală normată N(0,1), notând UmX=

σ− .

Dacă observaţiile xi provin de la o variabilă normală N(m,�), atunci valorile

σ−

=mxu i

i constituie un eşantion al variabilei normate U. Dacă numărul observaţiilor

este mare, atunci funcţia de repartiţie empirică F* (a eşantionului) trebuie să difere puţin

de funcţia de repartiţie teoretică, aşa cum rezultă ea din tabele.

Notăm cu Fi valorile funcţiei de repartiţie empirice (adică numărul valorilor mai mici

ca xi împărţit la n). Acestor valori empirice le asociem valorile corespunzătoare ui* ale

v.a. normale normate obţinute din tabel. Atunci, dacă distribuţia este într-adevăr normală

Page 145: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 145

(gaussiană) şi dacă n este mare, ui* trebuie să difere puţin de

σ−

=mxu i

i şi trebuie deci

să existe o relaţie liniară între ui* şi xi. Graficul trasat prin punctele (ui

*,xi) trebuie să fie

aproape o dreaptă tăind axa Ox în m şi având panta σ1 . Această dreaptă se numeşte

dreapta lui Henry.

10.3.4. Aplicaţii

1) Legea unui procentaj. Se aleg independent şi cu întoarcere n indivizi ai unei

populaţii separate în două submulţimi A şi A în proporţii de p şi respectiv 1-p (de

exemplu piese rebut sau piese bune, etc.). Fie k numărul indivizilor din A,

obţinuţi în eşantion. Această v.a. ştim că urmează o lege binomială B(n,p). Notăm

cu F=k/n frecvenţa empirică a categoriei A. F este media aritmetică a n variabile

Bernoulli de parametri p, independente.

Avem :

M(F)=p şi n

)p1(p)F(D

−= ,

iar dacă n este mare, atunci :

⎟⎟⎠

⎞⎜⎜⎝

⎛ −n

)p1(p,pN~F ,

conform teoremei limită centrală.

Convergenţa lui F către p, cunoscută sub numele de teorema Moivre-Laplace este una

din primele aplicaţii ale legii numerelor mari.

Exemplu :

Pentru legea binomială, aproximarea gaussiană a lui F este valabilă dacă np şi n(1-p)

sunt superioare lui 5. Astfel, pentru un eşantion de 400 de piese rezultate în urma unei

prelucrări, în care 10% sunt piese cu defecte, ne putem aştepta să găsim în 95% din cazuri

un procentaj de defecte în eşantion cuprins între 400

90,010,096,1%10 ⋅± , adică

9,7%<F<10,3%.

2) Corelarea între m* şi D*. Fie X o caracteristică teoretică de medie m şi dispersie

D=�2 pentru care considerăm media de selecţie m* şi dispersia de selecţie D*. Să

determinăm cor(m*,D*).

Avem :

Page 146: Carte Elemente de teoria probabilitatilor

146 Eroare! Legătură incorectă.

( ) ( ) ⎥⎦

⎤⎢⎣

⎡⎟⎠⎞

⎜⎝⎛ −

−−= Dn

1nDmmMD,mcor ****

Fără a restrânge generalitatea, putem presupunem că m=0, deoarece cunoaştem

invarianţa corelaţiei la schimbarea prin translaţie a unuia din termeni :

( ) ( )

( )[ ] ( )[ ]⎟⎠

⎞⎜⎝

⎛−⎟

⎞⎜⎝

⎛=

=−⎥⎦

⎤⎢⎣

⎡=−⎥

⎤⎢⎣

⎡⎟⎠

⎞⎜⎝

⎛⎟⎠

⎞⎜⎝

⎛=

=⎥⎦

⎤⎢⎣

⎡⎟⎠

⎞⎜⎝

⎛−⎟

⎞⎜⎝

⎛==

∑∑

∑∑∑∑

∑∑

= =

n

1

3i3

n

1

3i2

3*n

1i

n

1j

2ji2

3*n

1

2j

n

1i2

*n

1

2j

n

1i

****

XMn1XM

n1

mMXXMn1mMXXM

n1

mXn1X

n1MD,mMD,mcor

2

deoarece M(XiXj)=0 pentru i j din cauza independenţei.

Deci :

( ) 32323**

n1n

n1

n1DmM μ

−=μ−μ=

Dacă n� � , observăm că m* şi D* sunt asimptotic necorelate şi dacă distribuţia este

simetrică, � 3=0, deci m* şi D* sunt asimptotic necorelate oricare ar fi n.

Page 147: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 147

ANEXE

Anexa 1. Distribuţia normală. Valorile funcţiei � (x) x 0 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09 0 0 0.003989 0.007978 0.011966 0.015953 0.019939 0.023922 0.027903 0.031881 0.035856 0.1 0.039828 0.043795 0.047758 0.051717 0.05567 0.059618 0.063559 0.067495 0.071424 0.075345 0.2 0.07926 0.083166 0.087064 0.090954 0.094835 0.098706 0.102568 0.10642 0.110261 0.114092 0.3 0.117911 0.12172 0.125516 0.1293 0.133072 0.136831 0.140576 0.144309 0.148027 0.151732 0.4 0.155422 0.159097 0.162757 0.166402 0.170031 0.173645 0.177242 0.180822 0.184386 0.187933 0.5 0.191462 0.194974 0.198468 0.201944 0.205401 0.20884 0.21226 0.215661 0.219043 0.222405 0.6 0.225747 0.229069 0.232371 0.235653 0.238914 0.242154 0.245373 0.248571 0.251748 0.254903 0.7 0.258036 0.261148 0.264238 0.267305 0.27035 0.273373 0.276373 0.27935 0.282305 0.285236 0.8 0.288145 0.29103 0.293892 0.296731 0.299546 0.302337 0.305105 0.30785 0.31057 0.313267 0.9 0.31594 0.318589 0.321214 0.323814 0.326391 0.328944 0.331472 0.333977 0.336457 0.338913 1 0.341345 0.343752 0.346136 0.348495 0.35083 0.353141 0.355428 0.35769 0.359929 0.362143 1.1 0.364334 0.3665 0.368643 0.370762 0.372857 0.374928 0.376976 0.379 0.381 0.382977 1.2 0.38493 0.386861 0.388768 0.390651 0.392512 0.39435 0.396165 0.397958 0.399727 0.401475 1.3 0.4032 0.404902 0.406582 0.408241 0.409877 0.411492 0.413085 0.414657 0.416207 0.417736 1.4 0.419243 0.42073 0.422196 0.423641 0.425066 0.426471 0.427855 0.429219 0.430563 0.431888 1.5 0.433193 0.434478 0.435745 0.436992 0.43822 0.439429 0.44062 0.441792 0.442947 0.444083 1.6 0.445201 0.446301 0.447384 0.448449 0.449497 0.450529 0.451543 0.45254 0.453521 0.454486 1.7 0.455435 0.456367 0.457284 0.458185 0.45907 0.459941 0.460796 0.461636 0.462462 0.463273 1.8 0.46407 0.464852 0.46562 0.466375 0.467116 0.467843 0.468557 0.469258 0.469946 0.470621 1.9 0.471283 0.471933 0.472571 0.473197 0.47381 0.474412 0.475002 0.475581 0.476148 0.476705 2 0.47725 0.477784 0.478308 0.478822 0.479325 0.479818 0.480301 0.480774 0.481237 0.481691 2.1 0.482136 0.482571 0.482997 0.483414 0.483823 0.484222 0.484614 0.484997 0.485371 0.485738 2.2 0.486097 0.486447 0.486791 0.487126 0.487455 0.487776 0.488089 0.488396 0.488696 0.488989 2.3 0.489276 0.489556 0.48983 0.490097 0.490358 0.490613 0.490863 0.491106 0.491344 0.491576 2.4 0.491802 0.492024 0.49224 0.492451 0.492656 0.492857 0.493053 0.493244 0.493431 0.493613 2.5 0.49379 0.493963 0.494132 0.494297 0.494457 0.494614 0.494766 0.494915 0.49506 0.495201 2.6 0.495339 0.495473 0.495604 0.495731 0.495855 0.495975 0.496093 0.496207 0.496319 0.496427 2.7 0.496533 0.496636 0.496736 0.496833 0.496928 0.49702 0.49711 0.497197 0.497282 0.497365 2.8 0.497445 0.497523 0.497599 0.497673 0.497744 0.497814 0.497882 0.497948 0.498012 0.498074 2.9 0.498134 0.498193 0.49825 0.498305 0.498359 0.498411 0.498462 0.498511 0.498559 0.498605 3 0.49865 0.498694 0.498736 0.498777 0.498817 0.498856 0.498893 0.49893 0.498965 0.498999 3.1 0.499032 0.499065 0.499096 0.499126 0.499155 0.499184 0.499211 0.499238 0.499264 0.499289 3.2 0.499313 0.499336 0.499359 0.499381 0.499402 0.499423 0.499443 0.499462 0.499481 0.499499 3.3 0.499517 0.499534 0.49955 0.499566 0.499581 0.499596 0.49961 0.499624 0.499638 0.499651 3.4 0.499663 0.499675 0.499687 0.499698 0.499709 0.49972 0.49973 0.49974 0.499749 0.499758 3.5 0.499767 0.499776 0.499784 0.499792 0.4998 0.499807 0.499815 0.499822 0.499828 0.499835 3.6 0.499841 0.499847 0.499853 0.499858 0.499864 0.499869 0.499874 0.499879 0.499883 0.499888 3.7 0.499892 0.499896 0.4999 0.499904 0.499908 0.499912 0.499915 0.499918 0.499922 0.499925 3.8 0.499928 0.499931 0.499933 0.499936 0.499938 0.499941 0.499943 0.499946 0.499948 0.49995 3.9 0.499952 0.499954 0.499956 0.499958 0.499959 0.499961 0.499963 0.499964 0.499966 0.499967 4 0.499968 0.49997 0.499971 0.499972 0.499973 0.499974 0.499975 0.499976 0.499977 0.499978 4.1 0.499979 0.49998 0.499981 0.499982 0.499983 0.499983 0.499984 0.499985 0.499985 0.499986 4.2 0.499987 0.499987 0.499988 0.499988 0.499989 0.499989 0.49999 0.49999 0.499991 0.499991 4.3 0.499991 0.499992 0.499992 0.499993 0.499993 0.499993 0.499993 0.499994 0.499994 0.499994 4.4 0.499995 0.499995 0.499995 0.499995 0.499996 0.499996 0.499996 0.499996 0.499996 0.499996 4.5 0.499997 0.499997 0.499997 0.499997 0.499997 0.499997 0.499997 0.499998 0.499998 0.499998

Page 148: Carte Elemente de teoria probabilitatilor

148 Eroare! Legătură incorectă.

Anexa 2. Funcţia � a lui Euler 0 0 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09 0 nu exista 99.4326 49.4422 32.785 24.461 19.4701 16.1457 13.7736 11.9966 10.6162 0.1 9.5135 8.6127 7.8633 7.2302 6.6887 6.2203 5.8113 5.4512 5.1318 4.8468 0.2 4.5908 4.3599 4.1505 3.9598 3.7855 3.6256 3.4785 3.3426 3.2169 3.1001 0.3 2.9916 2.8903 2.7958 2.7072 2.6242 2.5461 2.4727 2.4036 2.3383 2.2765 0.4 2.2182 2.1628 2.1104 2.0605 2.0132 1.9681 1.9252 1.8843 1.8453 1.8081 0.5 1.7725 1.7384 1.7058 1.6747 1.6448 1.6161 1.5886 1.5623 1.5369 1.5126 0.6 1.4892 1.4667 1.445 1.4242 1.4041 1.3848 1.3662 1.3482 1.3309 1.3142 0.7 1.2981 1.2825 1.2675 1.253 1.239 1.2254 1.2123 1.1997 1.1875 1.1757 0.8 1.1642 1.1532 1.1425 1.1322 1.1222 1.1125 1.1031 1.0941 1.0853 1.0768 0.9 1.0686 1.0607 1.053 1.0456 1.0384 1.0315 1.0247 1.0182 1.0119 1.0059 1 1 0.9943 0.9888 0.9835 0.9784 0.9735 0.9687 0.9642 0.9597 0.9555 1.1 0.9514 0.9474 0.9436 0.9399 0.9364 0.933 0.9298 0.9267 0.9237 0.9209 1.2 0.9182 0.9156 0.9131 0.9108 0.9085 0.9064 0.9044 0.9025 0.9007 0.899 1.3 0.8975 0.896 0.8946 0.8934 0.8922 0.8912 0.8902 0.8893 0.8885 0.8879 1.4 0.8873 0.8868 0.8864 0.886 0.8858 0.8857 0.8856 0.8856 0.8857 0.8859 1.5 0.8862 0.8866 0.887 0.8876 0.8882 0.8889 0.8896 0.8905 0.8914 0.8924 1.6 0.8935 0.8947 0.8959 0.8972 0.8986 0.9001 0.9017 0.9033 0.905 0.9068 1.7 0.9086 0.9106 0.9126 0.9147 0.9168 0.9191 0.9214 0.9238 0.9262 0.9288 1.8 0.9314 0.9341 0.9368 0.9397 0.9426 0.9456 0.9487 0.9518 0.9551 0.9584 1.9 0.9618 0.9652 0.9688 0.9724 0.9761 0.9799 0.9837 0.9877 0.9917 0.9958 2 1 1.0043 1.0086 1.0131 1.0176 1.0222 1.0269 1.0316 1.0365 1.0415 2.1 1.0465 1.0516 1.0568 1.0621 1.0675 1.073 1.0786 1.0842 1.09 1.0959 2.2 1.1018 1.1078 1.114 1.1202 1.1266 1.133 1.1395 1.1462 1.1529 1.1598 2.3 1.1667 1.1738 1.1809 1.1882 1.1956 1.2031 1.2107 1.2184 1.2262 1.2341 2.4 1.2422 1.2503 1.2586 1.267 1.2756 1.2842 1.293 1.3019 1.3109 1.3201 2.5 1.3293 1.3388 1.3483 1.358 1.3678 1.3777 1.3878 1.3981 1.4084 1.419 2.6 1.4296 1.4404 1.4514 1.4625 1.4738 1.4852 1.4968 1.5085 1.5204 1.5325 2.7 1.5447 1.5571 1.5696 1.5824 1.5953 1.6084 1.6216 1.6351 1.6487 1.6625 2.8 1.6765 1.6907 1.7051 1.7196 1.7344 1.7494 1.7646 1.7799 1.7955 1.8113 2.9 1.8274 1.8436 1.86 1.8767 1.8936 1.9108 1.9281 1.9457 1.9636 1.9817 3 2 2.0186 2.0374 2.0565 2.0759 2.0955 2.1153 2.1355 2.1559 2.1766 3.1 2.1976 2.2189 2.2405 2.2623 2.2845 2.3069 2.3297 2.3528 2.3762 2.3999 3.2 2.424 2.4483 2.4731 2.4981 2.5235 2.5493 2.5754 2.6018 2.6287 2.6559 3.3 2.6834 2.7114 2.7397 2.7685 2.7976 2.8272 2.8571 2.8875 2.9183 2.9495 3.4 2.9812 3.0133 3.0459 3.0789 3.1124 3.1463 3.1807 3.2156 3.251 3.2869 3.5 3.3234 3.3603 3.3977 3.4357 3.4742 3.5133 3.5529 3.593 3.6338 3.6751 3.6 3.717 3.7595 3.8027 3.8464 3.8908 3.9358 3.9814 4.0277 4.0747 4.1223 3.7 4.1707 4.2197 4.2694 4.3199 4.3711 4.423 4.4757 4.5291 4.5833 4.6384 3.8 4.6942 4.7508 4.8083 4.8666 4.9257 4.9857 5.0466 5.1084 5.1711 5.2348 3.9 5.2993 5.3648 5.4313 5.4988 5.5673 5.6368 5.7073 5.7788 5.8515 5.9252 4 6 6.0759 6.153 6.2312 6.3106 6.3912 6.473 6.556 6.6403 6.7258 4.1 6.8126 6.9008 6.9902 7.0811 7.1733 7.2669 7.3619 7.4584 7.5563 7.6557 4.2 7.7567 7.8592 7.9632 8.0689 8.1762 8.2851 8.3957 8.508 8.622 8.7378 4.3 8.8553 8.9747 9.096 9.2191 9.3441 9.471 9.6 9.7309 9.8639 9.9989 4.4 10.1361 10.2754 10.4169 10.5606 10.7065 10.8548 11.0053 11.1583 11.3136 11.4714 4.5 11.6317 11.7946 11.96 12.128 12.2987 12.472 12.6482 12.8271 13.0089 13.1936 4.6 13.3813 13.5719 13.7656 13.9624 14.1624 14.3655 14.5719 14.7817 14.9948 15.2114 4.7 15.4314 15.655 15.8822 16.1131 16.3478 16.5862 16.8285 17.0748 17.325 17.5794 4.8 17.8379 18.1006 18.3676 18.6389 18.9147 19.1951 19.48 19.7696 20.064 20.3632 4.9 20.6674 20.9766 21.2908 21.6103 21.9351 22.2652 22.6008 22.942 23.2889 23.6415 5 24 24.3645 24.735 25.1118 25.4948 25.8843 26.2802 26.6829 27.0922 27.5085 5.1 27.9318 28.3621 28.7998 29.2448 29.6973 30.1575 30.6255 31.1014 31.5854 32.0776 5.2 32.5781 33.0872 33.6049 34.1314 34.6669 35.2116 35.7656 36.329 36.9021 37.4851 5.3 38.078 38.6811 39.2945 39.9186 40.5533 41.1991 41.8559 42.5241 43.2038 43.8954 5.4 44.5988 45.3145 46.0426 46.7834 47.537 48.3038 49.0839 49.8776 50.6851 51.5068 5.5 52.3428 53.1934 54.059 54.9397 55.8359 56.7478 57.6758 58.62 59.581 60.5588 5.6 61.5539 62.5666 63.5972 64.646 65.7134 66.7997 67.9053 69.0305 70.1757 71.3413 5.7 72.5276 73.7351 74.9641 76.2151 77.4884 78.7845 80.1038 81.4467 82.8137 84.2052 5.8 85.6217 87.0637 88.5317 90.0261 91.5474 93.0961 94.6729 96.2781 97.9124 99.5762 5.9 101.2702 102.9949 104.7509 106.5388 108.3593 110.2128 112.1001 114.0218 115.9786 117.9711 6 120 122.066 124.1698 126.3122 128.4939 130.7156 132.978 135.2821 137.6286 140.0182

Page 149: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 149

Anexa 3. Distribuţia student. Valorile în funcţie de p (probabilitatea) şi

n (numărul de grade de libertate)

n/p 0.95 0.9 0.85 0.8 0.75 0.7 0.65 0.6 0.55

1 6.28 3.075 1.961 1.374 1 0.726 0.509 0.325 0.158

2 2.913 1.884 1.384 1.06 0.816 0.617 0.444 0.289 0.142

3 2.352 1.637 1.249 0.978 0.764 0.584 0.424 0.277 0.137

4 2.131 1.533 1.189 0.941 0.74 0.569 0.414 0.271 0.134

5 2.015 1.476 1.155 0.918 0.726 0.559 0.408 0.267 0.132

6 1.938 1.44 1.134 0.904 0.717 0.553 0.404 0.265 0.131

7 1.891 1.412 1.119 0.895 0.711 0.549 0.401 0.263 0.13

8 1.856 1.394 1.108 0.888 0.706 0.546 0.399 0.262 0.13

9 1.83 1.381 1.1 0.882 0.703 0.543 0.398 0.261 0.129

10 1.81 1.37 1.093 0.878 0.7 0.542 0.396 0.26 0.129

11 1.794 1.362 1.088 0.875 0.697 0.54 0.395 0.26 0.129

12 1.78 1.354 1.083 0.872 0.695 0.539 0.394 0.259 0.128

13 1.769 1.349 1.079 0.869 0.694 0.537 0.394 0.258 0.128

14 1.759 1.343 1.076 0.867 0.692 0.537 0.393 0.257 0.128

15 1.751 1.339 1.073 0.866 0.691 0.536 0.393 0.257 0.128

16 1.744 1.335 1.071 0.864 0.69 0.535 0.392 0.257 0.128

17 1.738 1.332 1.069 0.863 0.689 0.534 0.392 0.256 0.127

18 1.732 1.329 1.067 0.861 0.688 0.534 0.391 0.256 0.127

19 1.728 1.326 1.065 0.86 0.688 0.533 0.391 0.256 0.127

20 1.723 1.324 1.064 0.859 0.687 0.533 0.391 0.256 0.127

21 1.719 1.322 1.063 0.858 0.686 0.532 0.39 0.256 0.127

22 1.716 1.32 1.061 0.858 0.686 0.532 0.39 0.255 0.127

23 1.712 1.318 1.06 0.857 0.685 0.532 0.39 0.255 0.127

24 1.71 1.317 1.059 0.856 0.685 0.531 0.39 0.255 0.127

25 1.707 1.315 1.058 0.856 0.684 0.531 0.39 0.255 0.127

26 1.704 1.314 1.057 0.855 0.684 0.531 0.389 0.255 0.127

27 1.702 1.313 1.057 0.855 0.684 0.531 0.389 0.255 0.127

28 1.7 1.311 1.056 0.854 0.683 0.53 0.389 0.255 0.127

29 1.698 1.31 1.055 0.854 0.683 0.53 0.389 0.255 0.127

30 1.696 1.309 1.055 0.853 0.683 0.53 0.389 0.255 0.127

Page 150: Carte Elemente de teoria probabilitatilor

150 Eroare! Legătură incorectă.

Anexa 4. Lista programelor MathCad folosite pentru generarea valorilor

Pentru anexa 1 :

Pentru anexa 2 :

Pentru anexa 3 :

x ..0 9

y ..0 45

A ,y 1 x 1 cnorm x .y 10100

cnorm( )0 A ,0 x 1x

100A ,y 1 0

y10

x ..1 9

y ..0 60

A ,y 1 x 1 Γx .y 10

100A ,0 x 1

x100

A ,y 1 0y10

y ..1 60 A ,y 1 1 Γ.y 10

100

t 0.158

p ..,9 8 1 n ..1 30

A ,n 0 n A ,0 p 1 p20

A ,n p root ,d

0

t

x1 x2

n

n 12 ..1 p

10.n π Γ

n2

.2 Γn 1

2

t

Page 151: Carte Elemente de teoria probabilitatilor

Eroare! Legătură incorectă. 151

BIBLIOGRAFIE

1. Baron, T., Biji, E.,

Tovissi, L.

- Statistică teoretică şi economică, Editura Didactică şi

Pedagogică, Bucureşti, 1991.

2. Biji, M., Biji, E. - Statistică teoretică, Editura Didactică şi Pedagogică,

Bucureşti, 1976.

3. Ciucu, G., Craiu, V.,

Săcuiu, I.

- Culegere de probleme de teoria probabilităţilor,

Editura Tehnică, Bucureşti, 1966.

4. Ciucu, G., Craiu, V. - Introducere în teoria probabilităţilor şi statistică

matematică, Editura Didactică şi Pedagogică,

Bucureşti, 1971.

5. Ciucu, G., Craiu, V.,

Ştefănescu, A.

- Statistică matematică şi Cercetări operaţionale,

vol.III, Editura Didactică şi Pedagogică, Bucureşti,

1978.

6. Crstici, B, ş.a. - Matematici speciale, Editura Didactică şi Pedagogică,

Bucureşti, 1981.

7. Dani, E.,

Mureşan, A.

- Matematici aplicate în economie, Universitatea Cluj-

Napoca, 1988.

8. Cătuneanu, V.M - Bazele teoretice ale fiabilităţii, Editura Academiei,

Bucureşti, 1983

9. Gărlaşu, Şt. - Prelucrarea în timp real a semnalelor fizice, Editura

Scrisul Românesc, Craiova, 1978

10. Gârlaşu, Şt.,

Gillich, N.

- Fiabilitatea sistemelor, Universitatea „Eftimie

Murgu”, Reşiţa, 1994.

11. Gărlaşu, Şt.,

Popp, C., Ionel, S.

- Introducere în analiza spectrală şi de corelaţie 1982,

Editura Facla, Timişoara, 1982

12. Gillich, N.,

Praisach, V.

- Probabilităţi şi fiabilitate, Universitatea „Eftimie

Murgu”, Reşiţa, 1995.

13. Iliescu, D.V.,

Vodă, V.Gh.

– Statistică şi toleranţe, Editura Tehnică, Bucureşti,

1977.

14. Iosifescu, M., Mihoc,

Gh., Theodorescu, R.

- Teoria probabilităţilor şi statistică matematică,

Editura Academiei R.S.R., Bucureşti, 1965.

15. Iosifescu, M. - Lanţuri Marcov finite şi aplicaţii, Editura Tehnică,

Page 152: Carte Elemente de teoria probabilitatilor

152 Eroare! Legătură incorectă.

Bucureşti, 1977.

16. Mihoc, Gh., Muja,A.,

Diatcu, E.

- Bazele matematice ale teoriei fiabilităţii, Editura

Dacia, Cluj-napoca, 1976.

17. Mihoc, Gh., Urseanu,

V., Ursianu, E.

- Modele de analiză statistică, Editura Ştiinţifică şi

Enciclopedică, Bucureşti, 1982.

18. Popp, C. - Matematici pentru economişti, vol.III., Universitatea

„Eftimie Murgu”, Reşiţa, 1994.

19. Puiu, G., Nechita, E. - Calculul probabilităţilor şi elemente de statistică

matematică, (note de curs), Universitatea Bacău, 1996.

20. Trandafir, R. - Introducere în teoria probabilităţilor, Editura

Albatros, Bucureşti, 1979.

21. Velicescu, C – Fiabilitate în energetică, curs, Lito IPTV Timişoara,

1984.

22. Velicescu,C.,

Oprea, L.

– Fiabilitatea instalaţiilor electrice, culegere de

probleme, Lito UP Timişoara, 1996.