Teoria Probabilitatii

219
Ariadna Lucia Pletea Liliana Popa TEORIA PROBABILIT ˘ AT ¸ ILOR UNIVERSITATEA TEHNIC ˘ A ” GH. ASACHI”, IAS ¸I 1999

Transcript of Teoria Probabilitatii

Page 1: Teoria Probabilitatii

Ariadna Lucia Pletea Liliana Popa

TEORIA PROBABILITATILOR

UNIVERSITATEA TEHNICA ” GH. ASACHI”,

IASI 1999

Page 2: Teoria Probabilitatii
Page 3: Teoria Probabilitatii

Cuprins

Introducere 5

1 Camp de probabilitate 71.1 Camp finit de evenimente . . . . . . . . . . . . . . . . . . . . . . . . . . . 71.2 Camp finit de probabilitate . . . . . . . . . . . . . . . . . . . . . . . . . . 111.3 Metode de numarare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161.4 Moduri de selectare a elementelor . . . . . . . . . . . . . . . . . . . . . . . 171.5 Definitia axiomatica a probabilitatii . . . . . . . . . . . . . . . . . . . . . . 181.6 Formule probabilistice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201.7 Scheme clasice de probabilitate . . . . . . . . . . . . . . . . . . . . . . . . 261.8 Camp infinit de probabilitate . . . . . . . . . . . . . . . . . . . . . . . . . 291.9 Probleme propuse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

2 Variabile aleatoare discrete 432.1 Definitia si clasificarea variabilelor aleatoare . . . . . . . . . . . . . . . . . 432.2 Variabile aleatoare discrete simple . . . . . . . . . . . . . . . . . . . . . . . 442.3 Exemple de variabile aleatoare discrete simple . . . . . . . . . . . . . . . . 612.4 Variabile aleatoare discrete simple bidimensionale . . . . . . . . . . . . . . 652.5 Variabile aleatoare cu un numar infinit numarabil de valori . . . . . . . . . 682.6 Functia generatoare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 742.7 Probleme propuse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75

3 Variabile aleatoare continue 813.1 Functia de repartitie a unei variabile aleatoare unidimensionale . . . . . . . 813.2 Densitatea de probabilitate. Repartitia normala . . . . . . . . . . . . . . . 883.3 Functia de repartitie multidimensionala. Transformari . . . . . . . . . . . . 953.4 Valori caracteristice ale unei variabile aleatoare . . . . . . . . . . . . . . . 1083.5 Functia caracteristica a unei variabile aleatoare . . . . . . . . . . . . . . . 1173.6 Variabile aleatoare continue clasice si legaturile dintre ele . . . . . . . . . . 1263.7 Fiabilitate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143

4 Probleme la limita ın teoria probabilitatilor 1554.1 Convergenta ın probabilitate . . . . . . . . . . . . . . . . . . . . . . . . . . 1554.2 Legea numerelor mari (forma slaba) . . . . . . . . . . . . . . . . . . . . . . 1564.3 Aproximari pentru repartitii discrete . . . . . . . . . . . . . . . . . . . . . 161

3

Page 4: Teoria Probabilitatii

4.4 Convergenta ın repartitie. Teorema limita centrala . . . . . . . . . . . . . . 1644.5 Legatura dintre convergenta sirurilor functiilor de repartitie si convergenta

sirurilor functiilor caracteristice . . . . . . . . . . . . . . . . . . . . . . . . 1774.6 Convergenta aproape sigura . . . . . . . . . . . . . . . . . . . . . . . . . . 1814.7 Convergenta ın medie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1824.8 Probleme propuse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184

5 Procese stochastice 1875.1 Lanturi Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1875.2 Procese Markov continue. Procese Poisson . . . . . . . . . . . . . . . . . . 2005.3 Procese stochastice stationare . . . . . . . . . . . . . . . . . . . . . . . . . 206

Page 5: Teoria Probabilitatii

Introducere

Numeroase probleme practice din variate domenii de activitate, ca: ingineria electrica,radio, transmisia de date, calculatoare, teoria informatiei, fiabilitatea sistemelor si altele,conduc la studiul unor fenomene si procese aleatoare. Evaluarea sanselor lor de producereconstituie obiectul disciplinei teoria probabilitatilor.

Cursul de Teoria probabilitatilor are atat un caracter informativ, furnizand studenti-lor notiuni si rezultate fundamentale cu care vor opera ın cadrul specialitatilor lor, catsi formativ, acomodandu-i cu rationamente matematice, dintre care unele vor fi necesareprelucrarii pe calculator a datelor.

Cursul este alcatuit din cinci capitole.

Capitolul I, intitulat ”Camp de probabilitate” introduce notiunea de camp de pro-babilitate, cadru ın care se defineste axiomatic notiunea de probabilitate. Sunt trecuteın revista formule si scheme clasice de probabilitate. Elementele de teorie sunt ınsotitede exemple, dintre care unele cu referire la situatii tehnice privind controlul de calitate,transmiterea informatiei etc.

Cuprinde paragrafele: 1.Camp finit de evenimente; 2.Camp finit de probabilitate;3. Metode de numarare; 4.Moduri de selectare a elementelor; 5.Definitia axiomatica aprobabilitatii; 6.Formule probabilistice; 7.Scheme clasice de probabilitate; 8.Camp infinitde probabilitate.

Capitolul II, intitulat ”Variabile aleatoare discrete”cuprinde paragrafele 1.Definitiasi clasificarea variabilelor aleatoare; 2.Variabile aleatoare discrete simple; 3.Exemple devariabile aleatoare discrete simple; 4.Variabile aleatoare discrete simple bidimensionale;5.Variabile aleatoare cu un numar infinit numarabil de valori.

Este scos ın evidenta rolul distributiei Poisson, a evenimentelor rare ın numeroaseaplicatii tehnice.

Capitolul III, intitulat ”Variabile aleatoare continue”, cuprinde paragrafele: 1.Func-tia de repartitie a unei variabile aleatoare unidimnesionale; 2.Densitatea de probabi-litate.Repartitia normala;3.Functia de repartitie multidimensionala.Transformari; 4.Va-lori caracteristice ale unei variabile aleatoare. 5.Functia caracteristica a unei variabilealeatoare; 6.Variabile aleatoare continue clasice si legaturile dintre ele; 7.Fiabilitate.

Este scos ın evidenta rolul legii lui Gauss ın studiul erorilor accidentale de masurare.

Capitolul IV, intitulat ”Probleme la limita ın teoria probabilitatilor”, cuprinde para-grafele: 1.Convergenta ın probabilitate a sirurilor de variabile aleatoare; 2.Legea nu-merelor mari (forma slaba); 3.Aproximari pentru distributii discrete; 4.Convergenta ınrepartitie. Teorema limita centrala; 5.Legatura dintre convergenta functiilor de repartitie

Page 6: Teoria Probabilitatii

si convergenta functiilor caracteristice; 6.Convergenta aproape sigura; 7.Convergenta ınmedie.

Scopul acestui capitol este de a pune ın evidenta justificari teoretice ale apropie-rii dintre anumite concepte din teoria probabilitatlor si din statistica matematica si deasemenea, legaturile dintre diferitele tipuri de convergenta ın teoria probabilitatilor.

Capitolul V, intitulat ”Procese stochastice”, cuprinde paragrafele:1.Lanturi Markov;2.Procese Markov contiue. Procese Poisson; 3.Procese stochastice stationare.

Pentru ıntelegerea materialului din acest capitol, s-au dat numeroase exemple deimportanta practica din teoria asteptarii, teoria stocurilor si altele.

Capitolele I, II, IV au fost redactate de lector dr. Pletea Ariadna, iar Capitolele III siV de lector dr. Popa Liliana, care au colaborat pentru a obtine o forma cat mai unitarasi moderna a cursului.

Adresam pe aceasta cale vii multumiri comisiei de analiza a cursului, formata din prof.dr. Pavel Talpalaru, prof. dr. Stan Chirita si lector Gheorghe Florea pentru observatiileconstructive facute, cat si, anticipat, tuturor cititorilor, care vor contribui prin sugestii laımbunatatirea prezentului material.

Autoarele

Page 7: Teoria Probabilitatii

Capitolul 1

Camp de probabilitate

1.1 Camp finit de evenimente

In teoria probabilitatilor notiunile primare sunt: evenimentul si probabilitatea.

Teoria probabilitatilor studiaza experientele aleatoare, acele experiente care reprodusede mai multe ori se desfasoara de fiecare data ın mod diferit, rezultatul neputand fianticipat. Exemple de experiente aleatoare: aruncarea unui zar, tragerile la tinta, duratade functionare a unei masini etc.

Rezultatele posibile ale unei experiente aleatoare se numesc probe sau cazuri posibileale expeientei.

Experientele se pot realiza printr-un numar finit sau un numar infinit de probe.

Multimea rezultatelor (cazurilor) posibile ale unei experiente aleatoare formeaza spatiude selectie.

Notam simbolic spatiul de selectie cu E.

Definitia 1.1.1 Se numeste eveniment o submultime a spatiului de selectie.

Orice element a lui E, notat e, este un punct de selectie sau un rezultat posibil alexperientei.

In cele ce urmeaza vom presupune E finit.

Exemplul 1.1.1 Consideram experienta care consta ın aruncarea unui zar. Aceasta esteo experienta aleatoare. Multimea rezultatelor posibile ale experientei sunt 1, 2, 3, 4,5, 6. Deci spatiul de selectie este E = {1, 2, 3, 4, 5, 6}. Presupunem ca ne intereseazaevenimentul ca la o aruncare a zarului sa obtinem o fata cu un numar par de puncte.Daca aruncand zarul am obtinut fata cu cinci puncte, aceasta este o proba a experienteinoastre, dar evenimentul care ne interesa (o fata cu un numar par de puncte) nu s-arealizat. Daca proba experientei ar fi fata cu sase puncte, atunci evenimentul nostru s-arealizat.

Exemplul dat este al unei experiente cu un numar finit de probe. Se pot da exemple si deexperiente cu o infinitate de probe. Astfel, experienta tragerii la tinta. Exista o infinitatede probe care realizeaza evenimentul atingerii tintei.

7

Page 8: Teoria Probabilitatii

8 Camp de probabilitate

Notiunile de spatiu de selectie si de eveniment astfel introduse ne permit ca teoriamultimilor sa poata fi folosita ın studiul evenimentelor aleatoare. Traducem ın limbaj deevenimente notiuni si simboluri caracteristice teoriei multimilor.

1. Drept submultime a lui E se poate considera E. Cum indiferent de rezultatul e alexperientei, e ∈ E, rezulta ca odata cu e se realizeaza E. Evenimentul E se numesteeveniment cert (sau eveniment sigur).

De exemplu, la aruncarea zarului aparitia unei fete cu un numar de puncte mai micsau egal cu 6 este evenimentul sigur. Aparitia unei fete cu un numar mai mic sauegal cu 4 de puncte este un eveniment nesigur, dar posibil.

2. Drept submultime a lui E putem considera multimea vida ∅ care nu se realizeaza lanici o efectuare a experientei, motiv pentru care se numeste eveniment imposibil.

3. Fie evenimentul A, submultime a lui E. Evenimentul complementar lui A ın raportcu E, notat A, se numeste eveniment contrar evenimentului A. Acesta se realizeazadaca si numai daca nu se realizeaza evenimentul A.

In exemplul 1.1.1 evenimentul contrar evenimentului aparitiei unui numar par depuncte este evenimentul care consta ın aparitia unui numar impar de puncte. Astfel,A = {2, 4, 6} si A = {1, 3, 5}.

4. Fie evenimentele A,B ⊂ E. Evenimentul A implica evenimentul B (scris A ⊂ B)daca B se realizeaza prin toate probele lui A (si prin alte probe), adica daca (e ∈A)⇒ (e ∈ B).

5. Fie A,B ⊂ E doua evenimente. Evenimentul A∪B este evenimentul a carui realizareare loc daca se realizeaza sau A sau B.

6. Fie A,B ⊂ E. Prin evenimentul A∩B ıntelegem evenimentul care se realizeza dacase realizeaza atat A cat si B.

7. Fie A,B ⊂ E. Prin A \ B ıntelegem evenimentul care se realizeaza prin probe alelui A si B.

Definitia 1.1.2 Fie A ⊂ E,A 6= ∅. Evenimentul A se numeste eveniment elementardaca este implicat numai de el ınsusi si de evenimentul imposibil. Celelalte evenimentese numesc evenimente compuse.

Definitia 1.1.3 Fie A,B ⊂ E. Evenimentele A,B se numesc compatibile daca se potrealiza simultan, adica exista probe care realizeaza atat pe A cat si pe B (A∩B 6= ∅ ). Incaz contrar evenimentele se numesc incompatibile (A ∩B = ∅).

Observatia 1.1.1 Operatiile de reuniune si intersectie se extind pentru un numar finitde evenimente. Fie A1, A2, . . . , An ⊂ E. Avem

(. . . ((A1 ∪ A2) ∪ A3) ∪ . . . ∪ An) =n⋃i=1

Ai,

Page 9: Teoria Probabilitatii

Camp de probabilitate 9

adica evenimentul care se realizeaza daca cel putin un eveniment Ai se realizeaza si

(. . . ((A1 ∩ A2) ∩ A3) ∩ . . . ∩ An) =n⋂i=1

Ai

este evenimentul care se realizeaza daca toate evenimentele Ai, i = 1, n se realizeaza.

Mentionam cateva din proprietatile operatiilor introduse:

1. Daca A ⊂ B atunci A ∪B = B si A ∩B = A.

2. Oricare ar fi evenimentul A au loc relatiile

A ∪ A = A, A ∪ ∅ = A, A ∪ E = E, E ∪ ∅ = E,

A ∩ A = A, A ∩ ∅ = ∅, A ∩ E = A, E ∩ ∅ = ∅.

3. Daca A ⊂ C,B ⊂ C,A,B,C ⊂ E atunci A ∪B ⊂ C si A ∩B ⊂ C.

4. Daca A,B,C ⊂ E atunci

A ∪B = B ∪ A, A ∪ (B ∪ C) = (A ∪B) ∪ C, A ∩ (B ∪ C) = (A ∩B) ∪ (A ∩ C),

A ∩B = B ∩ A, A ∩ (B ∩ C) = (A ∩B) ∩ C, A ∪ (B ∩ C) = (A ∪B) ∩ (A ∪ C).

Constructia sistematica a unui camp finit de evenimente se poate face plecand de ladoua axiome, numite axiomele campului finit de evenimente.

Notam cu P(E) multimea partilor lui E.

Definitia 1.1.4 Perechea { E,K }, K 6= ∅, K ⊂ P(E), se numeste camp finit deevenimente daca:

a) ∀A ∈ K ⇒ A ∈ K;

b) ∀A,B ∈ K ⇒ A ∪B ∈ K.

Consecinte ale definitiei:

1. E ∈ K deoarece (∀A ∈ K ⇒ A ∈ K)⇒ (A ∪ A ∈ K)⇒ (E ∈ K).

2. ∅ ∈ K deoarece (E ∈ K ⇒ E ∈ K)⇒ (∅ = E ∈ K).

3. Daca A,B ∈ K ⇒ A \B ∈ K deoarece A \B = A ∩ B = A ∪B ∈ K.

4. Urmatorele proprietati sunt echivalente:

(∀A,B ∈ K ⇒ A ∪B ∈ K) si (∀A,B ∈ K ⇒ A ∩B ∈ K),

deoarece A ∩B = A ∪ B.

Page 10: Teoria Probabilitatii

10 Camp de probabilitate

5. Din Definitia 1.1.4 rezulta, folosind metoda inductiei matematice, ca

∀n > 2, Aj ∈ K, 1 6 j 6 n ⇒n⋃j=1

Aj ∈ K.

6. Din Consecinta 4 rezulta:

∀n > 2, Aj ∈ K, 1 6 j 6 n ⇒n⋂j=1

Aj ∈ K.

Intr-un camp finit de evenimente au loc urmatoarele proprietati:

P1. Doua evenimente elementare distincte sunt incompatibile.

Fie A1 si A2 doua evenimente elementare. Sa presupunem ca A1 ∩ A2 6= ∅, adicaA1 ∩A2 = B 6= ∅. Deci B ⊂ A1, B 6= ∅ si cum A1 si A2 sunt distincte, B 6= A1, deciA1 nu este eveniment elementar, ceea ce este fals.

P2. Intr-un camp finit de evenimente exista evenimente elementare.

Fie A1 un eveniment. Daca A1 este elementar, afirmatia este demonstrata. DacaA1 este eveniment compus exista A2 6= ∅, A2 6= A1 astfel ıncat A2 ⊂ A1. DacaA2 este eveniment elementar, afirmatia este demonstrata. Daca A2 este evenimentcompus se continua rationamentul anterior. Campul fiind finit, rezulta ca exista uneveniment elementar An 6= ∅ astfel ıncat

An ⊂ An−1 ⊂ . . . ⊂ A1.

P3. Fie { E,K } un camp finit de evenimente. Orice eveniment al acestui camp se poatescrie ca reuniune finita de evenimente elementare.

Fie B un eveniment compus (daca B este un eveniment elementar atunci afirmatiaeste demonstrata). Exista, conform proprietatii P2, un eveniment elementarA1∈ Ksi un eveniment B1 ∈ K astfel ınca B = A1 ∪ B1, B1 = B \ A1 cu A1 ∩ B1 = ∅.Daca B1 este eveniment elementar, afirmatia este demonstrata. Daca B1 nu esteeveniment elementar, exista evenimentul elementar A2 si un eveniment B2 ∈ Kastfel ıncat B1 = A2 ∪ B2 si deci B = A1 ∪ A2 ∪ B2 si rationamentul se continua.Deci

B = A1 ∪ A2 ∪ . . . Ak,unde Ai, i = 1, k sunt evenimente elementare.

P4. Reuniunea tuturor evenimentelor elementare ale lui K este E.

Intr-adevar, fieE = A1 ∪ A2 ∪ . . . ∪ As.

Presupunem ca ın campul finit de evenimente mai exista un eveniment elementarAn 6= Aj, j = 1, s. Atunci

An ∩ E = An = An ∩ (A1 ∪ . . . ∪ As) = (An ∩ A1) ∪ . . . ∪ (An ∩ As) = ∅conform P1.

Page 11: Teoria Probabilitatii

Camp de probabilitate 11

Nu de putine ori de un real folos ne va fi descompunerea unui eveniment ıntr-o reuniunede evenimente incompatibile doua cate doua.

Definitia 1.1.5 Fie { E,K } un camp finit de evenimente si A1, A2, . . . , An ∈ K.Spunem ca familia de evenimente A1, A2 . . . An formeaza un sistem complet de eveni-mente daca:

a) ∀Ai 6= ∅, i = 1, n;

b) Ai ∩ Aj = ∅, ∀i 6= j, i, j = 1, n;

c)n⋃i=1

Ai = E.

Observatia 1.1.2 Multimea tuturor evenimentelor elementare atasate unei experienteformeaza un sistem complet de evenimente.

Exemplul 1.1.2 Sa se verifice care din urmatoarele submultimi ale lui P(E) (P(E)multimea partilor lui E) sunt campuri finite de evenimente si, ın caz afirmativ, sa seprecizeze evenimentele elementare:

1. Daca E = {1, 2, 3} si K = {∅, {1}, {2, 3}, {1, 2, 3}}, atunci { E,K } este campfinit de evenimente deoarece satisface cele doua axiome ale Definitiei 1.1.4. Eveni-mentele elementare sunt {1} si {2,3}. Observam ca evenimentele elementare nu suntsubmultimi ale lui E formate dintr-un singur element nu este corecta. In exemplulprezentat un eveniment elementar este format dintr-un singur element, iar celalalteveniment este format din doua elemente.

2. Daca E = {1, 2, 3} si K = {∅, {1}, {2}, {3}, {1, 2}, {1, 3}, {2, 3}, {1, 2, 3}} = P(E)atunci { E,K } este un camp finit de evenimente. Evenimentele elementare sunt{1}, {2}, {3}.

3. Daca E = {1, 2, 3} si K = {{1}, {2}, {1, 3}, {1, 2, 3}} nu este un camp finit deevenimente deoarece, de exemplu {2} = {1, 3} /∈ K sau {1} ∪ {2} = {1, 2} /∈ K.

1.2 Camp finit de probabilitate

Fie o experienta si un eveniment A legat de aceasta. Repetam experienta de n oriın conditii identice. Notam cu m numarul de realizari ale evenimentului A. Rezulta can−m reprezinta numarul de nerealizari ale lui A.

Definitia 1.2.1 Numarul

fn =m

n

se numeste frecventa relativa a evenimentului A.

Observatia 1.2.1 Frecventa relativa variaza de la o experienta la alta, avand un caracterexperimental. Deoarece 0 6 m 6 n rezulta 0 6 fn 6 1, n ∈ IN .

Page 12: Teoria Probabilitatii

12 Camp de probabilitate

Observatia 1.2.2 Frecventa relativa fn depinde de n, numarul de repetari ale experi-mentului. Multe experiente prezinta o stabilitate a frecventelor relative ın sensul ca pemasura ce numarul n ia valori mari, frecventa relativa oscileaza ın jurul unei anumitevalori si se apropie din ce ın ce mai mult de aceasta valoare. Valoarea poate fi adeseaintuita.

De exemplu, daca ıntr-o urna sunt trei bile negre si una alba, la un numar mare deextractii ale unei bile din urna, cu repunerea bilei extrase ınapoi, sansele de extragereale unei bile negre sunt de trei ori mai mari decat cele ale unei bile albe si deci, pentruvalori mari ale lui n, ın cazul celor doua evenimente frecventele relative se vor stabilizaın jurul valorilor 3/4 si respectiv 1/4. Aceasta stabilitate a frecventelor relative, verifi-cata prin observatii si confirmata ın practica, este una din legile cele mai importante aleexperientelor aleatoare. Legea a fost formulata pentru prima data de Bernoulli ın teoremacare ıi poarta numele si este forma slaba a legii numerelor mari (Capitolul 4, Teorema4.2.2).

Definirea probabilitatii peste un camp finit de evenimente se poate face ın mod clasicsi axiomatic.

Definitia clasica a probabilitatii se poate folosi ın cazul ın care experienta aleatoareare un numar finit de cazuri posibile si toate egal probabile, adica la un numar mare deefectuari ale experientei, fiecare caz are aceeasi sansa de a se realiza.

Consideram, de exemplu, experienta care consta ın aruncarea unui zar pe o suprafataneteda. Daca zarul este perfect cubic si omogen, atunci fiecare din fete are aceeasi sansade a apare, frecventele relative ale fiecareia dintre ele variaza ın jurul lui 1/6. In cazul ıncare zarul nu ar fi omogen, atunci una sau mai multe fete ar fi favorizate.

Definitia 1.2.2 Fie o experienta si evenimentele legate de aceasta astfel ıncat toate eveni-mentele sa fie egal posibile. Fie evenimentul A legat de aceasta experienta. Numim pro-babilitatea evenimentului A numarul

P (A) =m

n

dat de raportul dintre numarul m al cazurilor favorabile realizarii evenimentului A sinumarul n al cazurilor egal posibile.

Mentionam ca orice proba care conduce la realizarea unui eveniment A reprezinta ”uncaz favorabil evenimentului A”.

Observatia 1.2.3 Definitia clasica a probabilitatii, formulata pentru prima data de La-place, este nesatisfacatoare din punct de vedere logic deoarece reduce definitia probabi-litatii la problema cazurilor egal posibile care nu a putut fi definita din punct de vederematematic, ci numai ilustrata.

In cazul zarului neomogen, definitia clasica a probabilitatii nu poate fi aplicata. Ri-guros vorbind, zarul neomogen si nesimetric este singurul caz real deoarece construireaunui zar perfect este imposibila.

Un alt incovenient al definitiei apare ın cazul ın care numarul cazurilor posibile esteinfinit deoarece ın aceasta situatie probabilitatea, calculata dupa definitia clasica, estefoarte mica sau egala cu zero.

Page 13: Teoria Probabilitatii

Camp de probabilitate 13

In sfarsit, definitia clasica a probabilitatii nu poate fi admisa deoarece nu pote fi apli-cata ın studiul fenomenelor sociale, neputandu-se determina numarul cazurilor posibile.

Observatia 1.2.4 Legatura existenta ıntre frecventa relativa unui eveniment si proba-bilitatea sa este profunda. De fapt atunci cand calculam probabilitatea unui evenimentne bazam pe frecventele relative.

Exemplul 1.2.1 Se arunca un zar de doua ori. Multimea rezultatelor posibile ale expe-rientei care consta ın perechile de numere ce apar pe zar ın cele doua aruncari este E ={11, 12, . . . , 16, 21, 22, . . . , 26, 31, . . . , 66} , |E| = 62 = 36, unde |E| noteaza numarul deelemente ale multimii E. Toate rezultatele posibile sunt echiprobabile, deci probabilitateaunui eveniment A, P (A), este egala cu numarul elementelor din multimea A ımpartit lanumarul elementelor din E. Presupunem ca vom pastra fata zarului ce contine un punctalba, iar celelalte fete le vom colora ın negru. Notam cu AN evenimentul ca la primaaruncare a zarului sa obtinem fata alba, iar la cea de-a doua aruncare o fata neagra azarului. Avem AN = {12, 13, 14, 15, 16}. Rezulta

P (AN) =5

36.

Analog, facand notatiile ın acelasi fel, avem:

P (AA) =1

36, P (NA) =

5

36, P (NN) =

25

36.

Presupunem ca au fost sterse numerele de pe fetele zarului si au ramas culorile. Multi-mea rezultatelor posibile, ın acest caz, este E = {AA,AN,NA,NN} cu probabilitatilecorespunzatoare. Observam ca ın acest ultim caz, evenimentele AA,AN,NA, NN suntelementare si formeaza un sistem complet de evenimente.

Proprietati ale probabilitatii:

P1. ∀A ∈ K : 0 6 P (A) 6 1;

P2. P (E) = 1;

P3. P (∅) = 0;

P4. ∀A,B ∈ K, A ∩B = ∅ : P (A ∪B) = P (A) + P (B);

P5. ∀A,B ∈ K, B ⊂ A : P (A \B) = P (A)− P (B);

P6. ∀A ∈ K : P (A) + P (A) = 1;

P7. ∀A,B ∈ K,B ⊂ A : P (B) 6 P (A).

Primele trei proprietati sunt evidente.Demonstram proprietatea P4. Daca din cele n cazuri posibile, m sunt favorabile lui

A si p favorabile lui B, atunci

P (A) =m

n, P (B) =

p

n.

Page 14: Teoria Probabilitatii

14 Camp de probabilitate

Daca A ∩ B = ∅, atunci numarul cazurilor favorabile lui A ∪ B este m + p, deci rezultaproprietatea P4.

Aceasta proprietate poate fi extinsa ın sensul ca daca A1, A2, . . . , An ∈ K, evenimenteincompatibile doua cate doua, adica Ai ∩ Aj = ∅,∀i 6= j, atunci

P (n⋃i=1

Ai) =n∑i=1

P (Ai).

Demonstratia rezulta utilizand metoda inductiei matematice.Demonstram proprietatea P5. Scriem A = (A \ B) ∪ B si atunci (A \ B) ∩ B = ∅,

deci, conform proprietatii P4,

P (A) = P ((A \B) ∪B) = P (A \B) + P (B)⇒ P (A \B) = P (A)− P (B).

Mai general, avem:

∀A,B ∈ K : P (A \B) = P (A)− P (A ∩B). (1.1)

Intr-adevar, scriem A = (A\B)∪ (A∩B). Deoarece (A\B)∩ (A∩B) = ∅ avem, conformproprietatii P4, P (A) = P (A \B) + P (A ∩B). Rezulta formula (1.1).

Proprietatea P6 se obtine din P4 punand B = A, folosind P2.Pentru a demonstra proprietatea P7 folosim P5. Daca B ⊂ A atunci P (A \ B) =

P (A)− P (B) > 0 si deoarece, conform P1, P (A \B) > 0 rezulta proprietatea dorita.

Definitia 1.2.3 Un sistem finit de evenimente { E, K } asociat unei experiente aleatoa-re cu un numar finit de cazuri egal posibile ımpreuna cu probabilitatile acestor evenimenteformeaza un camp finit de probabilitate notat { E,K, P }.

Odata introdusa notiunea de probabilitate, putem defini doua notiuni importante ınteoria probabilitatilor si anume notiunea de probabilitate conditionata si de independentaın probabilitate a evenimentelor.

Uneori trebuie sa calculam probabilitatea unui eveniment A legat de un evenimentB, ın ipoteza ca evenimentul B s-a realizat. Pentru aceasta restrangem multimea eveni-mentelor care realizeaza evenimentul A la cele care realizeaza si evenimentul B, decirestrangem E la B. Pentru ca aceasta restrictie sa aiba sens este necesar ca evenimentulB sa fie de probabilitate nenula.

Fie { E,K, P } un camp finit de probabilitate si A,B ∈ K,P (B) 6= 0.

Definitia 1.2.4 Numim probabilitatea evenimentului A conditionata de evenimentul B(notat PB(A) sau P (A|B)) probabilitatea de realizare a evenimentului A ın ipoteza caevenimentul B s-a realizat, probabilitate definita prin

P (A|B) =P (A ∩B)

P (B). (1.2)

Observatia 1.2.5 Fie m numarul cazurilor favorabile lui B, p numarul cazurilor favora-bile lui A si q favorabile lui A ∩ B. Din cele m cazuri favorabile lui B, q sunt favorabile

Page 15: Teoria Probabilitatii

Camp de probabilitate 15

si lui A sau, ceea ce este acelasi lucru, din cele p cazuri favorabile lui A, q sunt favorabilesi lui B. Avem

P (B) =m

n, P (A) =

p

n, P (A ∩B) =

q

n.

In ipoteza ca B s-a realizat, raman m cazuri posibile, din care q favorabile lui A. Deci

P (A|B) =q

m=

q

nm

n

=P (A ∩B)

P (B).

Aceasta ar putea constitui o ”justificare” a relatiei (1.2).

Observatia 1.2.6 Daca presupunem ca P (A) 6= 0, atunci

P (B|A) =P (A ∩B)

P (A). (1.3)

Observatia 1.2.7 Din relatiile (1.2) si (1.3) retinem

P (A ∩B) = P (B)P (A|B)

siP (A ∩B) = P (A)P (B|A).

Fie { E,K, P } un camp finit de probabilitate si A,B ∈ K.

Definitia 1.2.5 Evenimentele A si B sunt independente (ın probabilitate) daca proba-bilitatea ca unul sa se realizeze nu depinde de faptul ca celalalt s-a realizat sau nu, altfelspus

P (A ∩B) = P (A)P (B). (1.4)

Teorema 1.2.1 Evenimentele A si B cu P (A)P (B) 6= 0 sunt independente daca si numaidaca are loc una din relatiile:

a) P (B|A) = P (B);

b) P (A|B) = P (A);

c) P (B|A) = P (B);

d) P (A|B) = P (A).

Demonstratie. Aratam ca cele patru relatii sunt echivalente cu relatia (1.4) din definitie. Inacest fel se justifica si sensul Definitiei 1.2.5. Presupunem ca are loc a). Atunci, deoarece

P (B|A) =P (A ∩B)

P (A)

rezulta P (A ∩B) = P (A)P (B), adica (1.4).

Page 16: Teoria Probabilitatii

16 Camp de probabilitate

Reciproc, daca P (A ∩B) = P (A)P (B) si deoarece

P (B|A) =P (A ∩B)

P (A)=P (A)P (B)

P (A)= P (B)

rezulta a). Cum relatia (1.4) este simetrica ın A si B, rezulta ca (1.4) este echivalenta cub).

Demonstram caP (A ∩B) = P (A)P (B) (1.5)

este echivalenta cu (1.4). Intr-adevar, daca P (A ∩ B) = P (A)P (B) atunci deoareceA ∩B = B \ A avem P (B \ A) = P (A)P (B) sau

P (B)− P (A ∩B) = (1− P (A))P (B)

echivalent cuP (B)− P (A ∩B) = P (B)− P (A)P (B),

deci (1.4). Invers, presupunem (1.4) si luam ın locul lui A pe A. Vom avea P (A ∩ B) =P (A)P (B), adica (1.5). Deci c) este echivalent cu (1.5) care este echivalent cu (1.4),rezulta ca c) este echivalent cu (1.4). Echivalenta lui d) cu (1.4) rezulta ın mod analog.

Definitia 1.2.6 Date evenimentele A1, A2, . . . , An, vom spune ca sunt independente dacaprobabilitatea oricarei intersectii finite de evenimente este egala cu produsul probabilitati-lor evenimentelor intersectate, adica daca

P (Ai1 ∩ Ai2 ∩ . . . ∩ Aik) = P (Ai1)P (Ai2) . . . P (Aik)

oricare ar fi 1 6 i1 6 i2 6 . . . 6 ik 6 n.

Observatia 1.2.8 Din definitie rezulta ca daca trei evenimente sunt independete douacate doua nu rezulta ca sunt independente ın totalitatea lor. Exemplul lui S.N.Bernsteinne va ilustra acest lucru. Consideram un tetraedru omogen cu fetele colorate astfel: unaın alb, una ın negru, una ın rosu si a patra ın toate cele trei culori. Aruncand tetraedrulpe o masa el se aseaza pe una din fete; ne intereseaza probabilitatea aparitei fiecarei culorisi independenta evenimentelor corespunzatoare. Notam cu A1 evenimentul care consta ınaparitia culorii albe, A2 evenimentul care consta ın aparitia culorii negre si A3 evenimentulcare consta ın aparitia culorii rosii. Avem:

P (A1) = P (A2) = P (A3) =1

2

deoarece pentru fiecare culoare sunt patru cazuri posibile si doua favorabile (fata cuculorea respectiva si fata cu cele trei culori). Se constata ca

P (A1 ∩ A2) = P (A1 ∩ A3) = P (A2 ∩ A3) =1

4,

dar

P (A1 ∩ A2 ∩ A3) =1

46= P (A1)P (A2)P (A3) =

1

8.

Page 17: Teoria Probabilitatii

Camp de probabilitate 17

1.3 Metode de numarare

Calculul probabilitatilor conduce adesea la numararea diferitelor cazuri posibile. Capi-tolul din algebra referitor la permutari, aranjamente si combinari este foarte util ın aceastasituatie.

Principiul multiplicarii. Presupunem ca avem doua situatii A si B, situatia Ase poate realiza ın m moduri, iar situatia B ın k moduri. Numarul de moduri ın are sepoate realiza A si B este m× k.

Mai general, presupunem ca avem r > 2 situatii. In prima situatie putem face m1

alegeri, ın a doua m2,. . ., ın a r-a situatie mr alegeri, deci ın total m1 ×m2 × . . .×mr.

Exemplul 1.3.1 Care este numarul situatiilor care apar aruncand doua zaruri? Pentruprimul zar sunt 6 situatii, pentru al doilea 6 situatii, ın total 6× 6 situatii.

In continuare vom face distinctie ıntre o multime cu o ordine determinata de dispunerea elementelor sale, numita multime ordonata si o multime ın care nu ne intereseaza ordineaelementelor.

Permutari: Fie o multime A cu n elemente. Elementele acestei multimi se pot or-dona ın mai multe moduri. Fiecare multime ordonata care se formeaza cu cele n elementeale multimii A se numeste permutare a elementelor acelei multimi. Numarul permutarilorcu n elemente este n! = 1× 2× . . .× n.

Aranjamente: Fie o multime A cu n elemente. Submultimile ordonate ale lui A,avand fiecare cate k elemente, 0 6 k 6 n, se numesc aranjamente de n luate cate k.Numarul aranjamentelor de n luate cate k se noteaza

Akn = n(n− 1) . . . (n− k + 1).

Exemplul 1.3.2 In cate moduri este posibil sa facem un steag tricolor daca avem ladispozite panza de steag de cinci culori diferite ?

Doua steaguri tricolore care au aceleasi culori se deosebesc daca ordinea culorilor estediferita. Deci ne intereseaza cate submultmi de cate trei elemente se pot forma cu ele-mentele unei multimi de cinci elemente, ın submultmi interesandu-ne ordinea elementelor.Deci sunt A3

5 = 5× 4× 3 = 60.

Combinari: Fie o multime A cu n elemente. Submultimile lui A avand fiecare cate kelemente, 0 6 k 6 n, ın care nu ne intereseaza ordinea elementelor, se numesc combinaride n luate cate k. Numarul combinarilor de n luate cate k se noteaza

Ckn =

Aknk!.

Exemplul 1.3.3 Pentru un joc, cinci fete si trei baieti trebuie sa formeze doua echipede cate patru persoane. In cate moduri se pot forma echipele ?

In total sunt 8 copii cu ajutorul carora trebuie facute doua grupe a cate patru copii.Studiem ın cate moduri se poate forma o grupa de 4, cealalta formandu-se din copiiiramasi. Nu intereseaza numarul de fete sau de baieti din grupa si nici ordinea lor, cinumai numarul de grupe care se pot forma. Acest numar este

C45 + C3

5 × C13 + C2

5 × C23 + C1

5 × C33 = C4

8 = 70.

Page 18: Teoria Probabilitatii

18 Camp de probabilitate

1.4 Moduri de selectare a elementelor

Presupunem ca o urna contine m bile, marcate de la 1 la m, din care se extrag n bileın anumite conditii. Vom numara, ın fiecare situatie, numarul cazurilor posibile. Evidentn 6 m.

1. Selectare cu ıntoarcerea bilei extrase ın urna si ordonare.

Extragem n bile pe rand, fiecare bila fiind pusa ınapoi ın urna ınainte de urmatoreaextragere, ınsemnand numarul bilelor ın ordinea ın care apar (intereseaza ordineabilelor ın n-uplul extras). Conform principiului multiplicarii, ın care m1 = m2 =. . . = mn = m, numarul n-uplurilor este mn.

2. Selectare fara ıntoarcerea bilei ın urna si cu ordonare.

Procedam ca si ın cazul ıntai, dar dupa fiecare extragere bila obtinuta este pusa la oparte, aceasta operatie fiind echivalenta cu extragerea simultana din urna a n bile.Obtinem n-upluri (a1, a2, . . . , an). Regula de multiplicare se aplica astfel: pentru a1

avem m posibilitati, pentru a2 avem m−1 posibilitati,. . .,pentru an avem m−n+ 1posibilitati, ın total

m× (m− 1)× . . .× (m− n+ 1) = Anm.

Caz particular: daca m = n, atunci numarul cazurilor posibile este n!.

3. Selectare cu ıntoarcerea bilei ın urna si fara ordonare.

Extragem n bile, una dupa alta, fiecare fiind repusa ın urna ınainte de a realizaurmatoarea extragere. Nu tinem seama de ordinea bilelor ın multimea formata. Potexista si repetitii. Numarul cazurilor posibile este Cn

n+m−1, deoarece ar fi ca si cumam extrage simultan dintr-o urna care contine n + m − 1 bile (numerotate de la 1la m, unele din ele putandu-se repeta) n bile, fara sa ne intereseze ordinea. Dupaultima extragere secventiala ın urna vor ramane m− 1 bile.

4. Selectare fara ıntorcerea bilei si fara ordonare.

Bilele sunt extrase una dupa alta, fara a pune bila extrasa ınapoi; este acelasi lucrucu a spune ca extragem n bile dintr-o data si formam submultimi de n elemente, ıntotal Cn

m.

Caz particular: determinarea numarului de permutari a m elemente care se distingprin grupuri de culori, adica avem m1 elemente de culoarea c1, m2 elemente deculoarea c2 ,. . . , mr elemente de culoarea cr. Culorile sunt distincte, dar bilele deaceeasi culoare nu se disting ıntre ele.

m1 +m2 + . . .+mr = m.

Numarul cazurilor posibile : Cm1m moduri de alegere a pozitiilor bilelor de culoare c1,

Cm2m−m1

moduri de alegere a pozitiilor bilelor de culoare c2,. . . , Cmrm−m1−...−mr−1

moduri

Page 19: Teoria Probabilitatii

Camp de probabilitate 19

de alegere a pozitiilor bilelor de culoarea cm (de fapt m−m1−m2−. . .−mr−1 = mr siavem, de fapt, o singura posibilitate), ın total, tinand seama de regula multiplicarii,

Cm1m Cm2

m−m1. . . Cmr

m−m1−...−mr−1=

=m!

m1! (m−m1)!· (m−m1)!

m2! (m−m1 −m2)!. . .

(m−m1 − . . .−mr)!

(m−m1 − . . .mr)!mr−1!=

=m!

m1!m2! . . . mr!.

1.5 Definitia axiomatica a probabilitatii

Notiunile de probabilitate si de camp finit de probabilitate se pot prezenta si sub formaaxiomatica.

Definitia 1.5.1 Se numeste probabilitate (masura de probabilitate) o functie definita peun camp finit de evenimente { E,K } cu valori reale care satisface urmatoarele axiome:

a) P (A) > 0, ∀A ∈ K;

b) P (E) = 1;

c) P (A ∪B) = P (A) + P (B) ∀A,B ∈ K,A ∩B = ∅.Observatia 1.5.1 Axioma c) din definitie se extinde prin recurenta la orice numar finitde evenimente incompatibile doua cate doua, deci daca Ai ∩ Aj = ∅, i 6= j, i, j = 1, n,atunci

P (n⋃i=1

Ai) =n∑i=1

P (Ai).

Definitia clasica a probabilitatii satisface toate axiomele definitiei date si, de asemenea,oricare din proprietatile prezentate anterior pentru probabilitate poate fi obtinuta dindefinitia axiomatica. Intr-adevar,

P1. P (∅) = 0.

Deoarece E ∪ ∅ = E si E ∩ ∅ = ∅ rezulta ca P (E ∪ ∅) = P (E) + P (∅), adicaP (∅) = 0.

P2. P (A \B) = P (A)− P (A ∩B).

Deoarece (A\B)∪(A∩B) = A si (A\B)∩(A∩B) = ∅ rezulta P (A\B)+P (A∩B) =P (A).

P3. Pentru orice A,B ∈ K,A ⊂ B are loc relatia P (A) 6 P (B).

Intr-adevar, tinand seama de P2 si de faptul ca A ⊂ B avem

0 6 P (B \ A) = P (B)− P (B ∩ A) = P (B)− P (A).

Deci P (B)− P (A) > 0 sau P (B) > P (A).

Page 20: Teoria Probabilitatii

20 Camp de probabilitate

P4. Pentru orice A ∈ K are loc inegalitatea 06P (A)61.

Intr-adevar,∅⊂A⊂E si, folosind P3, avem P (∅) 6 P (A) 6 P (E) sau 0 6 P (A) 6 1.

Definitia 1.5.2 Se numeste camp finit de probabilitate un camp finit de evenimente{E,K} pe care am definit o probabilitate P . Se noteaza {E,K, P}.

Observatia 1.5.2 Definitiile probabilitatilor conditionate si a independentei evenimen-telor raman aceleasi si atunci cand construirea teoriei pobabilitatilor se realizeaza folosindmetoda axiomatica.

Observatia 1.5.3 Daca E este reuniune finita de evenimente elementare, fieE = {A1, A2, . . . , An}, atunci orice eveniment A ∈ K,A 6= ∅ pote fi scris ca o reuniunefinita de evenimente elementare, conform P3 din Capitolul 1.1, adica

A = Ai1 ∪ Ai2 ∪ . . . ∪ Aik ,unde Aij este un eveniment elementar, j = 1, k. Atunci conform Observatiei 1.5.1obtinem

P (A) = P (Ai1) + . . .+ P (Aik).

Deci pentru a cunoaste probabilitatea unui eveniment oarecare din K este suficient sacunoastem probabilitatea tuturor evenimentelor elementare care-l compun.

Probabilitatea unui astfel de eveniment A este suma probabilitatilor evenimentelor ele-mentare ce-l compun. Evident, probabilitatile evenimentelor elementare satisfac conditiile

P (Ai) > 0, i = 1, n, (1.6)

P (A1) + P (A2) + . . .+ P (An) = P (E) = 1. (1.7)

Deci, fiind date toate evenimentele elementare care compun E, familia K este perfectdeterminata si deci campul de probabilitate mai depinde de alegerea a n numere (proba-bilitatile evenimentelor elementare) care satisfac conditiile (1.6) si (1.7). In cazul parti-cular cand evenimentele elementare sunt echiprobabile

P (A1) = P (A2) = . . . = P (An) =1

n,

si daca A = Ai1 ∪ Ai2 ∪ . . . ∪ Ain , obtinem P (A) =k

n, deci ajungem astfel la definitia

clasica a probabilitatii.

Observatia 1.5.4 In definitia axiomatica a probabilitatii conditia pusa cazurilor posi-bile de a fi egal probabile este superflua. Un exemplu celebru, dat de D’Alembert, ilus-treaza aceasta. Se arunca doua monede simultan. Exista trei cazuri posibile care nu suntechiprobabile: A evenimentul ca pe ambele monede sa apara banul, B evenimentul ca peambele monede sa nu apara banul, C evenimentul ca pe una din monede sa apara banul,iar pe cealalta nu. Probabilitatile evenimentelor A,B,C nu sunt 1/3.

P (A) =1

4, P (B) =

1

4, P (C) =

1

2,

Page 21: Teoria Probabilitatii

Camp de probabilitate 21

deoarece evenimentul C este compus din doua situatii: pe una din monede sa apara banuliar pe cealata nu, si invers. Cele doua cazuri care compun evenimentul C ar fi evidentedaca monedele nu s-ar arunca simultan, ci una dupa alta. Cele doua monede pot finedistinse din punct de vedere fizic si deci cele trei cazuri prezentate de D’Alembert suntde fapt cele trei cazuri care se pot distinge.

1.6 Formule probabilistice

Probabilitatea unei reuniuni de evenimente. Daca {E,K, P} un camp finit deprobabilitate atunci oricare ar fi A,B ∈ K are loc relatia

P (A ∪B) = P (A) + P (B)− P (A ∩B). (1.8)

Facem observatia ca vom demonstra formulele folosind definitia axiomatica a probabili-tatii. Deoarece A ∪B = A ∪ (B \ A) si A ∩ (B \ A) = ∅, avem

P (A ∪B) = P (A ∪ (B \ A)) = P (A) + P (B \ A)

dar, conform proprietatii P2 din Capitolul 1.5,

P (B \ A) = P (B)− P (B ∩ A)

si deci rezulta (1.8).Relatia se poate extinde si ın cazul a n evenimente

P (n⋃i=1

Ai) =n∑i=1

P (Ai)−n∑

i,j=1,i<j

P (Ai ∩ Aj) + . . .+ (−1)n−1P (n⋂i=1

Ai). (1.9)

Demonstratia se face prin inductie matematica dupa n. Pentru n = 2 relatia estedemonstrata. Presupunem formula adevarata pentru n si o demonstram pentru n+ 1.

P (n+1⋃i=1

Ai) = P ((n⋃i=1

Ai) ∪ An+1) = P (n⋃i=1

Ai) + P (An+1)− P ((n⋃i=1

Ai) ∩ An+1) =

=n∑i=1

P (Ai)−n∑

i,j=1,i<j

P (Ai ∩ Aj) + . . .+(−1)n−1P (n⋂i=1

Ai)−n∑i=1

P (Ai⋂

An+1)+

+n+1∑

i,j=1, i<j

P (Ai ∩ Aj ∩ An+1) + . . .+(−1)nP (n+1⋂i=1

Ai) =n+1∑i=1

P (Ai)−

n+1∑i,j=1,i<j

P (Ai ∩ Aj) + . . .+∑

16i<j<k6n+1

P (Ai ∩ Aj ∩ Ak) + . . .+ (−1)n+1P (n+1⋂i=1

Ai).

Page 22: Teoria Probabilitatii

22 Camp de probabilitate

Probabilitatea unei intersectii. Fie {E,K, P} un camp finit de evenimente. Ori-care ar fi A,B ∈ K are loc relatia

P (A|B) =P (A ∩B)

P (B).

Relatia de mai sus rezulta din (1.2). Ea poate fi folosita pentru a calcula probabilitateaunei intersectii:

P (A ∩B) = P (B)P (A|B).

Cand folosim aceasta formula la rezolvarea unei probleme trebuie sa consideram eveni-mentele A si B ıntr-o ordine convenabil aleasa, dat fiind ca se poate utiliza, datoritaechivalentei demonstrate, relatia

P (A ∩B) = P (A)P (B|A).

Formula se poate extinde si ın cazul a n evenimente A1, A2, . . ., An, cu P (k⋂i=1

Ai) 6=0,

k = 2, n− 1, sub forma

P (n⋂i=1

Ai) = P (A1)P (A2|A1)P (A3|(A1 ∩ A2)) . . . P (An|(A1 ∩ A2 ∩ . . . ∩ An−1)). (1.10)

Intr-adevar, folosind definitia probabilitatii conditionate, obtinem

P (A1) = P (A1),

P (A2|A1) =P (A2 ∩ A1)

P (A1),

P (A3|(A1 ∩ A2)) =P (A1 ∩ A2 ∩ A3)

P (A1 ∩ A2),

. . .

P (An|(A1 ∩ A2 ∩ . . . ∩ An−1)) =P (A1 ∩ A2 ∩ . . . ∩ An)

P (A1 ∩ A2 ∩ . . . ∩ An−1).

Inmultind relatiile membru cu membru si facand simplificarile corespunzatoare, obtinem(1.10).

Observatia 1.6.1 Daca evenimentele A si B nu sunt independente, atunci din

P (A ∪B) = P (A) + P (B)− P (A ∩B),

0 6 P (A ∪B) 6 1,

rezultaP (A ∩B) > P (A) + P (B)− 1

Page 23: Teoria Probabilitatii

Camp de probabilitate 23

sau, notand p1 = P (A), p2 = P (B), p12 = P (A ∩ B) atunci p12 > p1 + p2 − 1. Aceastainegalitate poarta numele de inegalitatea lui Boole si da o margine inferioara pentruprobabilitatea intersectiei a doua evenimente. Se poate demonstra, mai general,

p12...n > p1 + p2 + . . .+ pn − (n− 1),

unde pi = P (Ai), i = 1, n, p12...n = P (n⋂i=1

Ai).

Formula probabilitatii totale. Fie {E,K, P} un camp finit de evenimente,{A1, A2, . . . , An}, Ai ∈ K, i = 1, n, un sistem complet de evenimente si B un evenimentoarecare, B ∈ K. Atunci

P (B) =n∑i=1

P (Ai)P (B|Ai). (1.11)

Intr-adevar, deoarece E =n⋃i=1

Ai putem scrie

B = B ∩ E = B ∩ (n⋃i=1

Ai) =n⋃i=1

(B ∩ Ai)

si cum pentru i 6= j, Ai ∩ Aj = ∅ atunci avem

P (B) =n∑i=1

P (B ∩ Ai) =n∑i=1

P (Ai)P (B|Ai).

Formula lui Bayes. Fie {E,K, P} un camp finit de evenimente si {A1, A2, . . . , An},Ai ∈ K, i = 1, n un sistem complet de evenimente si B un eveniment oarecare. Atunci

P (Ai|B) =P (B|Ai)P (Ai)n∑j=1

P (Aj)P (B|Aj). (1.12)

In conditiile date prin ipoteza are loc formula probabilitatii totale si tinand seama de(1.2) obtinem

P (Ai|B) =P (B ∩ Ai)P (B)

=P (B|Ai)P (Ai)n∑j=1

P (Aj)P (B|Aj)

Exemplul 1.6.1 Controlul de calitate.Presupunem ca ıntr-o cutie sunt 550 de piese, dincare 2% sunt defecte. Care este probabilitatea ca alegand 25 de piese, acestea sa continadoua piese defecte. Acesta este principiul testarii produselor prin selectii aleatoare.

Problema poate fi rezolvata ıntr-un caz general. Presupunem ca avem k piese defectedin m piese, k 6 m. Care este probabilitatea ca alegand n piese, dintre acestea j sa fiedefecte?

Page 24: Teoria Probabilitatii

24 Camp de probabilitate

Putem alege cele n piese dintre cele m(m > n), fara sa ne intereseze ordinea pieselor,ın Cn

m moduri. Cate din acestea vor contine j piese defecte? Putem alege cele j piesedefecte, din cele k, ın Cj

k moduri, iar celelalte n− j care nu sunt defecte ın Cn−jm−k moduri.

Probabilitatea cautata va fiCn−jm−kC

jk

Cnm

. (1.13)

In cazul nostru, m = 550, k = 11, n = 25, j = 2, astfel ıncat probabilitatea cautata va fi

C211C

23550

C25550

= 0, 12.

Daca ınsumam probabilitatile (1.13) dupa j, 0 6 j 6 n, rezultatul va fi 1, deoarece aufost luate ın considerare toate posibilitatile. Am demonstrat formula

k∑j=0

CjkC

n−jm−k = Cn

m

cu argumente probabilistice.

Exemplul 1.6.2 Daca se amestesca un pachet de carti, care este probabilitatea ca ceipatru asi sa apara unul dupa altul ?

Sunt 52 de carti dintre care patru asi. Un rezultat posibil al experientei este o ınsiruirede 52 de carti, adica o permutare a celor 52 de carti. Sunt 52! cazuri posibile. In cate dinaceste cazuri cei patru asi se gasesc unul dupa altul? Cei patru asi pot apare consecutivın 49× 4! moduri. Restul de 48 de carti se pot aranja ın 48! moduri. Folosind principiulmultiplicarii, numarul cazurilor favorabile va fi 4!× 49× 48!. Probabilitatea cautata va fi

49!× 4

52!= 0, 00003.

Exemplul 1.6.3 Urna U1 contine doua bile rosii si patru albe, urna U2 contine o bilarosie si doua albe iar urna U3 contine cinci bile rosii si patru bile albe. Fie Ai evenimentulde a extrage o bila dintr-o urna oarecare Ui, i = 1, 3. Presupunem ca probabilitateade a extrage o bila din urna Ui este P (A1) = 1/3, din U2 este P (A2) = 1/6 si dinU3, P (A3) = 1/2. Se cere probabilitatea de a extrage o bila rosie.

Fie R evenimentul de a extrage o bila rosie. Observam ca P (R) depinde ın primulrınd de urna din care s-a facut extragerea si apoi de structura urnei din care am facutextragerea, adica R este reuniunea evenimentelor disjuncte A1∩R,A2∩R,A3∩R. Facemobservatia ca A1, A2, A3 formeaza un sistem complet de evenimente. Astfel

P (R) = P (3⋃i=1

(Ai ∩R)) =3∑i=1

P (Ai ∩R) =3∑i=1

P (Ai)P (R|Ai) =4

9

Presupunem acum ca rezultatul experientei este o bila rosie, dar nu stim din ce urnaprovine. Dorim sa calculam probabilitatea ca bila rosie sa provina din urna U1, adicaP (A1|R). Conform formulei lui Bayes

P (A1|R) =P (A1)P (R|A1)

P (R)=

1

4.

Page 25: Teoria Probabilitatii

Camp de probabilitate 25

La fel

P (A2|R) =1

8P (A3|R) =

5

8.

Observam ca probabilitatile conditionate P (A1|R), P (A2|R), P (A3|R) s-au modificat fatade probabilitatile initiale P (A1), P (A2), P (A3) ıntr-un mod care confirma intuitia, adicadaca s-a extras o bila rosie, probabilitatea ca sa apartina urnei U3 este mai mare deoareceU3 are un procent mai ridicat de bile rosii si, de asemenea, probabilitatea de a selecta o bilarosie din U3 este mai mare decat din U2 sau U1. Adesea P (A1), P (A2), P (A3) se numescprobabilitati apriori, iar P (A1|R), P (A2|R), P (A3|R) se numesc probabilitati aposteriori.

Exemplul 1.6.4 Un canal transmite semnale sub forma de siruri formate din cifrele 0si 1. In canal pot apare perturbari care produc erori, astfel ıncat ın loc de 1 apare0 sau invers. Sa presupunem ca prin B1 si B2 ıntelegem evenimentele care constau ıntransmiterea cifrelor 1, respectiv 0, iar receptionarea cifrelor 1 si 0 le consideram ca fiindevenimentele aleatoare A1 si respectiv A2. Probabilitatile apriori pentru transmiterea lui1 sau 0 sunt

P (B1) = p P (B2) = 1− p = q

iar probabilitatea de a receptiona 0, daca s-a transmis 1, este egala cu q10, pe cand pro-babilitatea de a receptiona 1, daca s-a transmis 0, este q01. Sa calculam probabilitatileaposteriori P (Bj|Ak), j, k = 1, 2.

Conform formulei lui Bayes avem

P (Bj|Ak) =P (Ak|Bj)P (Bj)

P (B1)P (Ak|B1) + P (B2)P (Ak|B2), j, k = 1, 2.

Deoarece avem P (A2|B1) = q10, P (A1|B2) = q01 si notand p10 = 1− q10, p01 = 1− q01 sededuce

P (B1|A1) =pp10

pp10 + (1− p)(1− p01), P (B1|A2) =

p(1− p10)

p(1− p10) + (1− p)p01

,

P (B2|A1) =(1− p)(1− p10)

pp10 + (1− p)(1− p01), P (B2|A2) =

(1− p)p01

p(1− p10) + (1− p)p01

.

Sa observam ca

P (A1) = P (B1)P (A1|B1) + P (B2)P (A1|B2) = pp10 + (1− p)(1− p01),

iar

P (A2) = P (B1)P (A2|B1) + P (B2)P (A2|B2) = p(1− p10) + (1− p)p01 = 1− P (A1).

In particular, ın ipoteza ca este vorba de un canal simetric (q01 = q10 si deci p01 = p10),iar p = q = 1

2se deduce

P (A1) = pp10 + (1− p)(1− p10) =1

2, P (A2) = p(1− p10) + (1− p)p10 =

1

2

P (B1|A2) = P (B2|A1) = 1− p10, P (B1|A1) = P (B2|A2) = p10.

ceea ce era previzibil.

Page 26: Teoria Probabilitatii

26 Camp de probabilitate

Exemplul 1.6.5 Demonstram ca daca Ai, i ∈ I, I o multime finita de indici, {Ai}i∈Iformeaza un sistem complet de evenimente, atunci

P ((⋃i∈IAi)|A) =

∑i∈I

P (Ai|A). (1.14)

Pornind de la membrul ıntai

P ((⋃i∈IAi)|A) =

P ((⋃i∈IAi) ∩ A)

P (A)=

P (⋃i∈I

(Ai ∩ A))

P (A)

si tinand seama de

(Ai ∩ A) ∩ (Aj ∩ A) = ∅, ∀i, j ∈ I, i 6= j,

obtinem

P ((⋃i∈IAi)|A)) =

∑i∈I

P (Ai ∩ A)

P (A)=

∑i∈IP (Ai|A)P (A)

P (A)=∑i∈IP (Ai|A).

Exemplul 1.6.6 Fie I o multime finita de indici, {Ai}i∈I un sistem complet de eveni-mente si A,B doua evenimente oarecare. Atunci

P (⋃i∈I

(A ∩ Ai)|B) =∑i∈I

P (A|(Ai ∩B))P (Ai|B) (1.15)

Folosim formula (1.14) obtinem

P (⋃i∈I

(A ∩ Ai)|B) =∑i∈I

P ((A ∩ Ai)|B) =

∑i∈IP (A ∩ Ai ∩B)

P (B)=

=

∑i∈I

P (A|(Ai ∩B))P (Ai ∩B)

P (B)=

∑i∈I

P (A|(Ai ∩B))P (Ai|B)P (B)

P (B)=

=∑i∈I

P (A|(Ai ∩B))P (Ai|B).

1.7 Scheme clasice de probabilitate

Schema lui Poisson. Se dau n urne U1, U2, . . . , Un care contin bile albe si bile negreın proportii date, deci cunoastem probabilitatile pi, i = 1, n, cu care este extrasa o bilaalba din urna Ui. Se cere probabilitatea de a extrage k bile albe si n−k bile negre, atuncicand din fiecare urna se extrage cate o bila.

Page 27: Teoria Probabilitatii

Camp de probabilitate 27

Notam cu Ai evenimentul extragerii unei bile albe din urna Ui. Notam si Bk eveni-mentul care consta ın extragerea a k bile albe si n− k bile negre, adica

Bk = (A1 ∩ . . . ∩ Ak ∩ Ak+1 ∩ An) ∪ (A1 ∩ . . . ∩ Ak ∩ Ak+1 ∩ Ak+2 ∩ . . . ∩ An)

∪(A1 ∩ . . . ∩ An−k ∩ An−k+1 ∩ . . . ∩ An),

numarul parantezelor fiind Ckn. Un eveniment

Ai1 ∩ . . . ∩ Aik ∩ Aik+1∩ . . . ∩ Ain

se realizeaza, tinand seama ca evenimentele sunt independente, cu probabilitatea

pi1 . . . pikqik+1. . . qin

indicii i1, i2 . . . , in reprezentand o permutare a indicilor 1, 2, . . . , n , iar litera p apare dek ori cu indici diferiti, iar q de n− k ori cu indici care nu apar ın p . Se observa ca dupaaceiasi regula se calculeaza coeficientul lui xk din polinomul

P (x) = (p1x+ q1)(p2x+ q2) . . . (pnx+ qn).

Schema lui Poisson permite rezolvarea problemelor ın care se cere probabilitatea realizariide k ori a unor evenimente A1, A2, . . . , An atunci cand se repeta de n ori aceste experiente,presupuse independente, cand cunoastem P (Ai) = pi, i = 1, n.

Exemplul 1.7.1 Intr-un atelier sunt trei masini. Prima da 0,9 % rebut, a doua 1 % si atreia 1,3 %. Se ia la ıntamplare cate o piesa de la fiecare masina. Se cere probabilitateaca doua din piese sa fie bune si una rebut.

p1 = 0, 991, q1 = 0, 001, p2 = 0, 99,q2 = 0, 01, p3 = 0, 987, q3 = 0, 013,

.

P (x) = (0, 991x+ 0, 009)(0, 99x+ 0, 01)(0, 987x+ 0, 013).

Coeficientul lui x2 este

0, 991× 0, 99× 0, 013 + 0, 99× 0, 987× 0, 987× 0, 009 + 0, 991× 0, 987× 0, 01 = 0, 0313.

Schema lui Bernoulli. Presupunem ca ın schema lui Poisson urnele U1, U2, . . . , Unsunt identice. Atunci putem lua

p1 = p2 = . . . = pn = p, q1 = q2 = . . . = qn = q

Probabilitatea extragerii a k bile albe se va obtine calculand coeficientul lui xk din poli-nomul

P (x) = (px+ q)n,

adica va fiCknp

kqn−k.

Recunoastem ın aceasta expresie termenul general al ridicarii la puterea n a binomului px+q. Pentru acest motiv schema se mai numeste binomiala. Deoarece urnele sunt identice,

Page 28: Teoria Probabilitatii

28 Camp de probabilitate

putem considera ca toate extragerile se fac dintr-o singura urna, bila extrasa punandu-seın urna dupa fiecare extragere. Obtinem astfel schema lui Bernoulli. Probabilitatea de aextrage k bile albe din n extrageri dintr-o urna, punandu-se de fiecare data bila ınapoi,este

Pn,k = Cknp

kqn−k,

unde p este probabilitatea otinerii unei bile albe dintr-o singura extragere si q = 1 − p.Schema lui Bernoulli se mai numeste shema bilei revenite (ıntoarse).

Exemplul 1.7.2 Se arunca un zar de 5 ori. Se cere probabilitatea ca fata cu un punctsa apara exact de doua ori.

Avem:

p =1

6, q =

5

6, n = 5, k = 2,

P5,2 = C25(

1

6)2(

5

6)3 = 0, 16.

Schema lui Bernoulli cu mai multe stari. Fie o urna care contine bile de mculori c1, c2, . . . , cm iar pi probabilitatea ca la o extragere sa obtinem o bila de culoareaci. Probabilitatea ca ın n extrageri sa obtinem n1 bile de culoarea c1 , n2 bile de culoareac2 , . . . , nm bile de culoarea cm (n1 + n2 + . . .+ nm = n) este

n!

n1!n2! . . . nm!pn1

1 pn22 . . . pnmm .

Aceasta schema rezolva problemele ın care se cere probabilitatea ca ın n efectuari aleexperientei evenimentul Ai sa se realizeze de ni ori, A1, A2, . . . , Am fiind un sistem completde evenimente si P (Ai) = pi, i = 1,m. Presupunem ca ın cele n efectuari ale experienteis-au obtinut succesiv

A1 . . . A1︸ ︷︷ ︸n1

A2 . . . A2︸ ︷︷ ︸n2

. . . Am . . . Am︸ ︷︷ ︸nm

.

Acest eveniment se produce cu probabilitatea

p1 . . . p1︸ ︷︷ ︸n1

p2 . . . p2︸ ︷︷ ︸n2

. . . pm . . . pm︸ ︷︷ ︸nm

.

Acelasi rezultat ıl obtinem pentru orice alta ordine stabilita dinainte ın care Ai apare deni ori. Ramane sa vedem ın cate moduri putem scrie cele n simboluri, dintre care n1 egalecu A1, n2 cu A2, . . . , nm cu Am.

Cn1n C

n2n−n1

Cn3n−n1−n2

. . . Cnmn−n1−n2−...nm−1

=

=n!

n1! (n− n1)!

(n− n1)!

n2! (n− n1 − n2)!. . .

(n− n1 − . . . nm−1)!

nm! (n− n1 − . . .− nnm)!=

=n!

n1! . . . nm!.

Page 29: Teoria Probabilitatii

Camp de probabilitate 29

Exemplul 1.7.3 Se arunca un zar de 5 ori. Care este probabilitatea ca exact de douaori sa apara fata cu un punct si exact de 2 ori sa apara fata cu doua puncte?

Avem:n = 5, n1 = 2, n2 = 2, n3 = 1,

p1 =1

6, p2 =

1

6, p3 =

2

3,

P4,2,2,1 =5!

2!× 2!× 1!× (

1

6)2(

1

6)2(

2

3) =

5

324.

Schema hipergeometrica. O urna contine a bile albe si b bile negre. Din aceastaurna se extrag n bile (n 6 a + b) pe rand, fara a pune bila extrasa ınapoi ın urna (ceeace este echivalent cu a extrage n bile deodata). Se cere probabilitatea ca din cele nbile extrase, k sa fie albe (k 6 a) si n − k negre (n − k 6 b). Pentru a calcula acestaprobabilitate vom stabili numarul cazurilor posibile si numarul cazurlor favorabile.

Numarul cazurilor posibile este: Cna+b.

Numarul cazurilor favorabile: un grup de k bile albe dintr-un total de a bile albepoate fi luat ın Ck

a moduri; un grup de n− k bile negre din totalul de b bile negre poatefi obtinut ın Cn−k

b moduri. Un grup de k bile albe si n − k bile negre poate fi obtinut,conform principiului multiplicarii, ın Ck

aCn−kb moduri. Probabilitatea cautata este

CkaC

n−kb

Cna+b

.

Exemplul 1.7.4 La o tombola sunt 400 bilete dintre care 4 castigatoare. O persoanacumpara 10 bilete. Care este probabilitatea sa nu se gaseasca nici un bilet castigator?

Avema = 4, b = 396,

k = 0, n− k = 10, n = 10,

p =C0

4C10396

C10400

= 0, 903.

In general, daca urna contine ai bile de culoarea ci, i = 1,m, probabilitatea de a obtinen1 bile de culoarea c1 , n2 bile de culoarea c2, . . . , nm bile de culoarea cm cand facemn = n1 + n2 + . . .+ nm extractii, este egala cu

Cn1a1Cn2a2. . . Cnm

am

Cna1+a2+...+am

.

Exemplul 1.7.5 O urna contine 7 bile albe, 7 bile negre si 6 verzi. Se extrag 9 bile.Care este probabilitatea sa obtinem cate 3 de fiecare culoare?

Avema1 = 7, a2 = 7, a3 = 6,

n1 = 3, n2 = 3, n3 = 3,

p =C3

7C37C

36

C920

= 0, 145.

Page 30: Teoria Probabilitatii

30 Camp de probabilitate

1.8 Camp infinit de probabilitate

In numeroase cazuri practice nu este cu putinta sa evaluam numarul cazurilor egalposibile si al celor favorabile pentru determinarea probabilitatii evenimentului care neintereseaza. Asemenea situatii apar ın studiul fenomenelor economice si sociale, ın efec-tuarea controlului statistic al productiei etc. Deci definitia clasica a probabilitatii nu estesatisfacatoare cand multimea evenimentelor elementare este infinita.

In acest caz definim campul infinit de evenimente astfel :

Definitia 1.8.1 O multime de evenimente { E,K },K 6= ∅, se numeste camp infinit deevenimente daca :

a) ∀A ∈ K ⇒ A ∈ K;

b) (An)n∈IN∗ ⊂ K ⇒⋃n∈IN∗

An ∈ K.

Consecinte care rezultata din definitie :

C1. ∅ ∈ K si E ∈ K.

Intr-adevar, deoarece K 6= ∅ ⇒ ∃A ∈ K ⇒ A ∈ K → A ∪ A ∈ K ⇒ E ∈ KE ∈ K ⇒ E ∈ K ⇒ ∅ ∈ K.

C2. Orice reuniune finita de evenimente din K este ın K.

Intr-adevar, fie A1, A2, . . . , An ∈ K si luam Ai = ∅ pentru i > n. Conform b),∞⋃i=1

Ai =n⋃i=1

Ai ∈ K

C3. Orice intersectie (finita sau numarabita) de elemente din K este de asemenea ın K.

Fie I o multime de indici finita sau numarabila

⋂i∈IAi =

⋃i∈IAi ∈ K ⇒

⋂i∈IAi ∈ K

C4. Daca A,B ∈ K atunci A \B ∈ K (deoarece A \B = A ∩ B ∈ K).

C5. Daca (An)n∈IN∗ ⊂ K atunci

lim infn→∞

An ∈ K; lim supn→∞

An ∈ K.

Tinem seama de definitia limitei inferioare, respectiv superioare, de consecintele C2,C3 si obtinem

lim infn→∞

=∞⋃n=1

(∞⋂

k=n

Ak) ∈ K; lim supn→∞

=∞⋂n=1

(∞⋃

k=n

Ak) ∈ K.

Page 31: Teoria Probabilitatii

Camp de probabilitate 31

C6. Daca (An)n∈IN∗ ⊂ K, atunci limn→∞

An ∈ K, daca aceasta limita exista. In acest caz

limn→∞

An = lim infn→∞

An = lim supn→∞

An ∈ K.

Observatia 1.8.1 Intr-un camp infinit de evenimente sunt permise operatiile clasice cumultimi.

Pentru a introduce notiunea de probabilitate ın asemenea cazuri, definim notiunea demasura a unui eveniment al unui camp infinit de evenimente.

Definitia 1.8.2 Se numeste masura a unui eveniment A al campului infinit de eveni-mente { E,K } o functie

m : K −→ IR

care satisface urmatoarele axiome:

a) ∀A ∈ K : m(A) > 0;

b) m(∅) = 0;

c) m(⋃i∈IAi) =

∑i∈I

m(A) pentru (Ai)i∈I ⊂ K cu Ai ∩ Aj = ∅ i 6= j i, j ∈ I, iar I o

multime cel mult numarabila de indici.

Observatia 1.8.2 Axioma c) se numeste axioma aditivitatii complete a masurii m. Inaceasta axioma intervine o reuniune numarabila de evenimente, lucru despre care se poate

vorbi numai ın cazul ın care campul de evenimente este infinit. Introducem∞⋃i=1

Ai ca fiind

evenimentul care consta ın realizarea a cel putin unuia din evenimentele A1, A2, . . . , An, . . ..

Analog, evenimentul∞⋂i=1

Ai consta ın realizarea tuturor evenimentelor A1, A2, . . . , An . . ..

Acceptarea axiomei c) este justificata; ea reprezinta o extindere naturala a proprietatiicorespunzatoare din campurile finite de evenimente.

Observatia 1.8.3 Cand An+1 = An+2 = . . . = ∅ se obtine aditivitatea finita a masurii

m(n⋃i=1

Ai) =n∑i=1

m(Ai).

Observatia 1.8.4 Din multimea functiilor de evenimente care satisfac axiomele a)-c)intereseaza numai acelea pentru care m(E) <∞, E fiind evenimentul cert.

Propozitia 1.8.1 Dacam(E)<∞ atunci pentru orice eveniment A avem m(A) <∞.

Demonstratie. Deoarece A∪A = E, A∩A = ∅ ⇒ m(A∪A) = m(A)+m(A) = m(E) <∞.Dar m(A) > 0⇒ m(A) 6 m(E) <∞⇒ m(A) <∞.

Page 32: Teoria Probabilitatii

32 Camp de probabilitate

Definitia 1.8.3 Fie un camp infinit de evenimente { E,K }. Se numeste probabilitateaevenimentului A ∈ K, masura m(A) pentru care m(E) = 1

Definitia 1.8.4 Se numeste functie de probabilitate acea masura a evenimentelor defi-nita pe campul infinit de evenimente {E,K} care satisface proprietatea m(E)=1.

Definitia 1.8.5 Se numeste camp borelian (infinit) de probabilitate un camp infinit deevenimente { E,K } pe care s-a definit o functie de probabilitate P. Un camp infinit deprobabilitate se noteaza { E,K, P }.

Problema cum trebuie determinata probabilitatea unui eveniment nu poate fi rezolvataın general deoarece ea depinde ın mod esential de natura fenomenului studiat.

Exemplul 1.8.1 De exemplu, ne vom referi la probabilitatile geometrice. Fie E ⊂ IRn

un domeniu. Un punct M ∈ E, luat la ıntamplare, se numeste punct aleator. Fie osubmultime A ⊂ E. Prin masura lui A putem ıntelege lungimea, aria sau volumul lui A.Daca admitem ipoteza ca ın cazul ın care A,B ⊂ E si m(A) = m(B) ⇒ A = B suntechivalente din punct de vedere al ariei, indiferent de forma domeniilor A si B, putemscrie

P (M ∈ A) = km(A)

unde k este un factor constant. Pentru ıntreg domeniul E avem evenimentul sigur, deci

P (M ∈ E) = 1 = km(E)

de unde

k =1

m(E)

si deci obtinem probabilitatea

P (M ∈ A) =m(A)

m(K).

In cazul considerat, daca A nu are decat un numar finit de puncte, P (M ∈ A) = 0.

Exemplul 1.8.2 Vom arata cum se pote construi o functie de probabilitate pentru oricemultime numarabila E = {e1, e2, . . . , en, . . .}. Fiecarui punct ei ıi atasam un numar pisatisfacand conditiile

∀i ∈ IN∗ : pi > 0,∞∑i=1

pi = 1

Fie K = P(E) si A o submultime a lui E. Definim

P (A) =∑ei∈A

pi =∑ei∈A

P (ei)

Constatam imediat ca { E,K, P } este un camp infinit de probabilitate.

Dam un exemplu de camp de probabilitate.

Page 33: Teoria Probabilitatii

Camp de probabilitate 33

Exemplul 1.8.3 Fie B corpul borelian generat de multimea partilor deschise de pe axareala IR si o functie f definita pe E ∈ B cu valori ın IR, integrabila ın raport cu masuraLebesque [vezi 22] si care ındeplineste conditiile

f(x) > 0,

E

f(x)dx = 1.

Se verifica imediat ca { E,K, P } este un camp borelian de probabilitate, unde

K = {A ∩ E,A ∈ B},iar

P (A) =

E

f(x)χA(x)dx

pentru A ∈ K, unde

χA(e) =

{1, daca e ∈ A,0, daca e /∈ A,

In particular, daca f este continua, punem

P (A) =

A

f(x)dx.

Se demonstreaza ca P satisface toate axiomele probabilitatii. Astfel de functii se pot gasi.De exemplu

f(x) =1

π(1 + x2)sau f(x) =

1√2πe−

x2

2 .

In campurile infinite de probabilitate se pastreaza notiunile si proprietatile din cam-purile finite de probabilitate.

1. Probabilitatea conditionata se defineste plecand de la relatia

P (A|B) =P (A ∩B)

P (B), daca P (B) 6= 0.

Se poate demonstra ca tripletul { E,K, PB } este un camp borelian de probabilitate.Intr-adevar,

– P (A|B) > 0 deoarece P (A ∩B) > 0 si P (B) > 0.

– Daca A = E atunci, deoarece E ∩B = B, rezulta

P (E|B) =P (B)

P (B)= 1.

– Daca (Ai)i∈I ⊂ K este o familie cel mult numaarbila de evenimente incompati-bile doua cate doua, atunci si evenimentele (A∩Ai)i∈I sunt incompatibile douacate doua si

P (⋂i∈IAi|B) =

P (B ∩ (⋃i∈IAi))

P (B)=

P (⋃i∈I

(B ∩ Ai))

P (B)=

Page 34: Teoria Probabilitatii

34 Camp de probabilitate

=

∑i∈I

P (B ∩ Ai)

P (B)=∑i∈I

P (Ai|B).

2. Formula probabilitatii totale si formula lui Bayes raman valabile daca consideramsisteme complete de evenimente numarabile. Fie (Ai)i∈I ⊂ K o familie cel mult

numarabila de evenimente incompatibile doua cate doua cu⋃i∈IAi = E si P (Ai) 6=

0, i ∈ I, atunci

P (A) =∑i∈I

P (Ai)P (A|Ai)

si

P (Ai|A) =P (Ai)P (A|Ai)∑

j∈IP (Aj)P (A|Aj)

i ∈ I.

Definitia 1.8.6 Se spune ca evenimentele (An)n∈IN ⊂ K sunt independente daca oricenumar finit de evenimente din acest sir este independent.

Exista si proprietati noi ale functiei de probabilitate P cum ar fi urmatoarele:

Propozitia 1.8.2 Fie (An)n∈IN∗ ⊂ K si P o functie de probabilitate. Atunci

P (⋃n∈IN∗

An) 6∑n∈IN∗

P (An).

Demonstratie. Introducem un sir de evenimente din K ın felul urmator:

A′1 = A1

A′2 = A2 \ A1

A′n+1 = An+1 \ (n⋃j=1

Aj).

Evenimentele (A′n)n∈IN∗ prin modul ın care au fost construite sunt incompatibile douacate doua; ın plus A′n ⊆ An, n ∈ IN∗. Demonstram ca

⋃n∈IN∗

A′n =⋃n∈IN∗

An.

Evident⋃n∈IN∗

A′n ⊂⋃n∈IN∗

An.

Demonstram incluziunea contrara. Fie e ∈⋃n∈IN∗

An si n0 cel mai mic numar natural

n pentru care e ∈ An0 ; rezulta deci

e ∈ A′n0⊂⋃n∈IN∗

A′n,

Page 35: Teoria Probabilitatii

Camp de probabilitate 35

n∈IN∗An ⊂

⋃n∈IN∗

A′n

adica ceea ce trebuia de demonstrat. De aici rezulta ca

P (⋃n∈IN∗

An) = P (⋃n∈IN∗

A′n) =∑n∈IN∗

P (A′n) 6∑n∈IN∗

P (An)

datorita proprietatilor de aditivitate si monotonie a probabilitatii.

Propozitia 1.8.3 Inegalitatea lui Boole. Daca (Ai)i∈I ⊂ K este o multime cel mult nu-marabila de evenimente, atunci

P (⋂i∈IAi) > 1−

∑i∈I

P (Ai).

Demonstratie. Din relatiile lui De Morgan avem

⋂i∈IAi = (

⋃i∈IAi)

deci

P (⋂i∈IAi) = P (

⋃i∈IAi) = 1− P (

⋃i∈IAi)

darP (⋃i∈IAi) 6

∑i∈I

P (Ai)

si obtinem inegalitatea dorita.

Definitia 1.8.7 Un sir de evenimente (An)n∈IN∗ este ascendent (descendent) daca Aj ⊂(⊃)Ai pentru j < i, i, j ∈ IN∗, i 6= j.

Propozitia 1.8.4 Fie (An)n∈IN∗ un sir descendent de evenimente din K. Daca A =⋂n∈IN∗

An, atunci

limn→∞

P (An) = P (⋂n∈IN∗

An) = P (A).

Demonstratie. a) Consideram cazul ın care A = ∅. Trebuie sa aratam ca

limn→∞

P (An) = 0.

Deoarece (An)n∈IN∗ este un sir descendent, putem scrie

An = (An \ An+1) ∪ (An+1 \ An+2) ∪ . . .si deci An apare ca o reuniune de evenimente incompatibile, caci

(An+k \ An+k+1) ∩ (An+s \ An+s+1) = ∅

Page 36: Teoria Probabilitatii

36 Camp de probabilitate

daca k 6= s si obtinem

P (An) =∞∑i=n

P (Ai \ Ai+1) =∞∑i=n

(P (Ai)− P (Ai+1)),

iar seria ∞∑i=1

P (Ai \ Ai+1) = P (A1)

este convergenta, deci restul seriei converge la zero cand n→∞, deci limn→∞

P (An)=0.

b) Consideram cazul A 6= ∅. Vom introduce evenimentele Cn =An \ A, n∈ IN∗, carereduc acest caz la cazul precedent. Sirul (Cn)n∈IN∗ este un sir descendent si deoarece∞⋂n=1

Cn = ∅, rezulta, conform cazului a) ca

limn→∞

P (Cn) = 0

DarP (Cn) = P (An \ A) = P (An)− P (A)

si decilimn→∞

P (An) = P (A).

Propozitia 1.8.5 Fie (An)n∈IN∗ un sir ascendent de evenimente din K. Daca A =⋃n∈IN∗

An, atunci

limn→∞

P (An) = P (⋃n∈IN∗

An) = P (A).

Demonstratie. Trecem la evenimentele complementare; sirul (An)n∈IN∗ este descendent, ∪se transforma ın ∩ si se aplica propozitia 1.8.4.

Definitia 1.8.8 Fie (π) o proprietate descrisa de o propozitie formulata ıntr-un campborelian de probabilitate {E,K, P}. Daca toate evenimentele elementare care nu implicaproprietatea (π) formeaza un eveniment de probabilitate nula atunci vom spune ca (π)este adevarata aproape sigur.

Observatia 1.8.5 In campuri infinite de probabilitate pot exista evenimente diferite deevenimentul imposibil si care sa aiba probabilitatea nula.

Exemplul 1.8.4 Fie un ceas si presupunem ca acele sale se opresc la ıntamplare. Sa sedetermine probabilitatea ca minutarul sa se opreasca ın dreptul uneia din cele 12 cifre alecadranului este nula.

Aceata rezulta din observatia ca probabilitatea ca minutarul sa se opreasca ıntr-unsegment al circumferintei cadranului este proportionala cu lungimea acestuia. Ori cele 12cifre ale cadranului alcatuiesc o multime formata din 12 puncte ale circumferintei, fiecaredin acestea fiind asimilat cu un segment de o lungime nula. Evident, nu este exclus caminutarul sa se opreasca ın dreptul unei cifre. Proprietatea ”minutarul nu se opreste ındreptul unei cifre a cadranului ” este o proprietate aproape sigura.

Page 37: Teoria Probabilitatii

Camp de probabilitate 37

1.9 Probleme propuse

Problema 1.1 Se joaca un joc. Partida este considerata castigata de primul dintre ceidoi jucatori care castiga trei jocuri. Daca jocul se ıntrerupe la scorul de 2-1, cum trebuieımpartita miza?

Solutie. La prima vedere s-ar parea ca miza trebuie ımpartita ın trei parti egale sicastigatorul ia doua parti. Corect este ca miza sa fie ımpartita proportional cu probabi-litatea pe care o are fiecare jucator de a castiga partida, daca acesta ar fi continuat.

Sa presupunem ca se mai joaca doua jocuri (indiferent de rezultatul primului joc).Notam cu 1 daca jucatorul a castigat partida si cu 0 daca a piedut-o. Prin notatia (1,0) ıntelegem ca primul jucator a castigat prima partida iar al doilea nu a piedut a douapartida. Sunt urmatoarele posibilitati: (1, 1), (1, 0), (0, 1) si (0, 0), din care rezulta caprimul jucator, care conduce cu 2-1, are trei sanse si al doilea una singura. Miza trebuieımpartita ın patru parti egale si primul jucator ia trei parti, iar al doilea o parte.

Problema 1.2 Un student are de raspuns la n ıntrebari, carora trebuie sa le asociezeraspunsul corect dintre n raspunsuri indicate. Stabiliti probabilitatea ca studentul saraspunda la:

a) prima ıntrbare;b) primele doua ıntrebari;c) cel putin o ıntrebare.

Indicatie. a) numatul cazurilor posibile: n!, numarul cazurilor favirabile (n − 1)!,probabilitatea cautata: 1/n;

b) 1/(n− 2)!;c) daca notam cu Ai evenimentul ca studentul raspunde corect la ıntrebarea i, eveni-

mentul cautat este A1 ∪A2 ∪ . . .∪An. Folosind formula (1.9) obtinem: 1− 1/2! + 1/3!−. . .+ (−1)n−11/n!.

Problema 1.3 Evenimentul A consta ın aparitia cel putin o data a fetei 5 aruncandun zar de 4 ori, iar evenimentul B consta ın aparitia fetei 5 cel putin de doua ori, aruncandde 18 ori cate doua zaruri. Care din cele doua evenimente este cel mai probabil?

Indicatie. Se poate interpreta aparitia fetei 5 a unui zar ca o urna cu doua stari, una

”fata cu cu 5” cu probabilitatea q = 5/6. P (A) = (5

6)4

, P (A) = 1 − (5

6)4

. Deoarece

aruncarile sunt independete, ın loc sa aruncam de 18 ori cate doua zaruri, putem arunca36 de zaruri o singura data.

P (B) = (5

6)36 + 36

1

6(5

6)35.

Avem

P (B)

P (A)=

(5

6)35 41

6

(5

6)4

< 7(5

6)31 < 1.

Problema 1.4 Un calculator este format din n componente. Probabilitatea ca ocomponenta i sa se nu defecteze ın perioada de timp T este pi, i = 1, n. Componentele se

Page 38: Teoria Probabilitatii

38 Camp de probabilitate

defecteaza independent unele de celelalte. Sa se calculeze probabilitatea ca ın perioadade timp T calculaterul sa se defecteze. (Defectarea unei componente conduce la oprireacalculatorului.)

Solutie. Caculam probabilitatea evenimentului contrar, adica ın perioada de timp Tcalculatorul sa functioneze. Aceasta ınseamna ca toate componentele sa nu se defecteze,

iar probabilitatea acestui eveniment esten∏i=1

pi. Probabilitatea cautata va fi 1−n∏i=1

pi.

Problema 1.5 Un circuit electric are patru relee a caror functionare este egal prob-abila (functioneaza si se pot defecta independent unul de celalalt), montate dupa Figura1.1. Calculati probabilitatea ca ıntre punctele A si B sa nu circule curentul.

Solutie. Ntoam cu Ai evenimentul ”releul Ri este defect”. Curentul nu circula atuncicand se realizeaza evenimentul

((A1 ∪ A2) ∩ A4) ∪ A3 = (A1 ∩ A4) ∪ (A2 ∩ A4) ∪ A3.

Cum orice releu poate fi ın doua pozitii, ınchis sau deschis, rezulta ca numarul cazurilorposibile este 24 = 16.

Probabilitatea cautata este 2 · 4/16− 8/16− 3 · 2/16 + 1/16.

Problema 1.6 Trei mesaje sunt transmise pe un canal de comunicare, pe fiecare dintreele putand fi transmis cu o anumita exactitate. Transmiterea unui mesaj poate conducela unul din urmatoarele evenimente:

a) A1 = { mesajul este transmis ıntr-o forma corecta }.b) A2 = { mesajul este partial eronat }.c) A3 = { mesajul este complet eronat }.Probabilitatile evenimentelor A1, A2, A3 sunt date si anume egale cu p1, p2 si p3, (p1 +

p2 + p3 = 1). Considerand ca transmiterea corecta sau eronata a unui mesaj nu esteinfluentata de modul de transmitere a celorlalte (independenta evenimentelor), sa segaseasca probabilitatle urmatoarelor evenimente:

i) A = { toate mesajele sunt transmise corect }.ii) B = { cel putin un mesaj sa fie complet eronat }.iii) C = { cel putin doua mesaje sunt partial sau complet eronate }.

Solutie. Notam urmatoarele evenimente astfel:A11 = { primul mesaj transmis este corect },A12 = { al doilea mesaj transmis este corect },A13 = { al treilea mesaj transmis este corect },A21 = { primul mesaj transmis este partial eronat },A22 = { al doilea mesaj transmis este partial eronat },A23 = { al treilea mesaj transmis este partial eronat },A31 = { primul mesaj transmis este complet eronat },

Page 39: Teoria Probabilitatii

Camp de probabilitate 39

A32 = { al doilea mesaj transmis este complet eronat },A33 = { al treilea mesaj transmis este complet eronat }.Avem P (A11) = P (A12) = P (A13) = p1, P (A21) = P (A22) = P (A23) = p2, P (A31) =

P (A32) = P (A33) = p3. Evenimentul A ınseamna ca primul mesaj transmis este corectsi al doilea mesaj transmis este corect si al treilea mesaj transmis este corect, adicaA = A11 ∩ A12 ∩ A13 si deoarece evenimentele sunt independente (conform presupuneriifacute) avem P (A) = p3

1. Complementarul evenimentului B este: toate mesajele sunt saucorecte sau partial eronate, deci B = (A11∪A12)∩(A21∩A22)∪(A31∩A32). Probabilitateaacestui eveniment este (p1 + p2)3, iar P (B) = 1− (p1 + p2)3. Evenimentul C este compusdin reuniunea evenimentelor: (primul mesaj este corect si al doilea mesaj este partial saucomplet eronat si al treilea mesaj este partial sau complet eronat) sau (primul mesaj estepartial sau complet eronat si al doilea mesaj este corect si al treilea mesaj este partial saucomplet eronat) sau (primul mesaj este partial sau complet eronat si al doilea este partialsau complet eronat si al treilea mesaj este corect) sau (toate cele trei mesaje sunt partialsau complet eronate), adica C = (A11 ∩ ((A22 ∪A32)∩ (A23 ∪A33)))∩ ((A21 ∪A31)∩A12 ∩(A23 ∪A33))∩ ((A21 ∪A31)∩ (A22 ∪A32)∩A31)∪ ((A21 ∪A31)∩ (A22 ∪A32)∩ (A23 ∪A33)).Probabilitatea acestui eveniment este P (C) = 3(p2 + p3)2p1 + (p2 + p3)3.

Problema 1.7 Un mesaj important este transmis simultan pe n canale de comunicatiesi repetat pe fiecare canal de k ori pentru a usura receptionarea sa corecta. Probabili-tatea ca ın timpul transmisiei unui mesaj acesta sa fie eronat este p si nu depinde detransmiterea altor mesaje. Fiecare canal de comunicatie poate fi ”blocat” cu zgomotecu probabilitatea q; un canal ”blocat” nu poate transmite nici-un fel de mesaje. Sa secalculeze probabilitatea evenimentului

A = { un mesaj este transmis sub forma corecta macar odata }.Solutie. Introducem evenimentul:B = { un mesaj este transmis pe un canal de comunicatie fara nici o eroare macar

odata }.Pentru ca sa aiba loc evenimentul B mai ıntai canalul nu trebuie sa fie ”blocat” cu

zgomote si apoi macar unul din cele k mesaje transmise nu trebuie sa fie eronat (contrarevenumentului ca toate cele k mesaje transmise sunt eronate). Obtinem P(B)=(1−q)(1−pk).Probabilitatea evenimentului A, eveniment care ınseamna ca evenimentul B s-a produsmacar odata pe un canal, este P (A) = 1− (1− P (B))n = 1− (1− (1− q)(1− pk))n.

Problema 1.8 Un mesaj format din cifrele 0 si 1 este transmis. Fiecare simbol poatefi transmis eronat cu probabilitatea p (este schimbat ın contrarul sau cu probabilitatea q).Pentru siguranta, mesajul este transmis de doua ori; informatia este considerata corectadaca ambele mesaje coincid. Sa se calculeze probabilitatea ca mesajul sa nu fie corect, ınciuda faptului ca cele doua mesaje transmise sunt identice.

Solutie. Evenimentul ca mesajul sa nu fie corect este contrar evenimentului ca ambelemesaje sunt corecte. Probabilitatea ca un mesaj transmis sa fie corect este (1 − p)n,probabilitatea ca ambele mesaje sa fie corecte este (1 − p)2n, iar probabilitatea cautataeste 1− (1− p)2n.

Problema 1.9 Fie opt canale de transmitere a informatiei care functioneaza inde-pendent. Presupunem ca un canal este activ cu probabilitatea 1/3. Sa se calculezeprobabilitatea ca la un moment dat sa fie mai mult de sase canale active.

Page 40: Teoria Probabilitatii

40 Camp de probabilitate

Solutie. Pentru i = 1, . . . , 8 fie Ai evenimentul: ”canalul i este activ”. Numarulcanalelor active este egal cu numarul de realizari ale evenimentelor Ai, i = 1, . . . , 8, ın optexperiente Bernoulli cu p = 1/3. Atunci probabilitatea ca mai mult de sase canale sa fieactive este

P (k = 7) + P (k = 8) = C78(1/3)7(2/3) + C8

8(1/3)8 = 0, 0024 + 0, 00015 = 0, 00259

Problema 1.10 Un bloc de 100 de biti este transmis pe un canal de comunicatie binarcu probabilitatea de eroare pe bit 10−3. Sa se gaseaca probabilitatea ca blocul sa continatrei sau mai mult de trei erori.

R:1.5 · 10−4.

Problema 1.11 Un asamblor de calculatoare foloseste circuite din trei surse: A, Bsi C. Ele pot fi defecte cu probabilitatile de respectiv 0,001, 0,005 si 0,01. Daca se ia uncircuit la ıntımplare si se constata ca este defect, care este probabilitatea ca el sa provinade la sursa A sau B.

Solutie. Fie A1 evenimentul ca circuitul sa provina de la sursa A, A2 de la sursa Bsi A3 sa provina de la sursa C. Fie D evenimentul ca circuitul folosit sa fie defect, iarD|Ai, i = 1, 2, 3 evenimentul ca circuitul folosit sa fie defect stiind ca el provine de la sursaA, B si respectiv C. Avem

P (D|A1) = 0, 001, P (D|A2) = 0, 005, P (D|A3) = 0, 01

Folosind formula lui Bayes (1.12) obtinem

P (A1|D) = 1/16, P (A2|D) = 10/16.

Deoarece evenimentele A1|D si A2|D sunt incompatible, rezulta

P (A1 ∪ A2|D) = P (A1|D) + P (A2|D) = 11/16 = 0, 6875.

Problema 1.12 Multe sisteme de comunicatie pot fi modelate ın felul urmator: maiıntai utilizatorul introduce 0 sau 1 ın sistem si semnalul corespunzator este transmis; ınal doilea rand ia o decizie asupra a ceea ce s-a introdus ın sistem pe baza semnaluluireceptionat. Presupunem ca utilizatorul transmite 0 cu probabilitatea 1 − p si 1 cu pro-babilitatea p si ca cel ce receptioneaza ia o decizie eronata cu probabilitatea ε. Pentrui = 0, 1 fie Ai evenimentul ca la intrare s-a introdus i si Bi evenimentul ca decizia celuice receptioneaza a fost i. Sa se calculeze probabilitatile P (Ai ∩ Bj) pentru i = 0, 1 sij = 0, 1.

Presupunem ca probabilitatile ca la intrare sa se transmita 0 sau 1 sunt egale cu 1/2.Sa se calculeze probabilitatea evenimentului B1. Dar probabilitatea de a se fi transmis 0stiind ca s-a receptionat 1? Dar probabilitatea de a se fi transmis 1 stiind ca s-a receptionat1?

Solutie.

Page 41: Teoria Probabilitatii

Camp de probabilitate 41

Se obtin probabilitatile

P (A0 ∩B0) = (1− p)(1− ε)P (A0 ∩B1) = (1− p)εP (A1 ∩B0) = pεP (A1 ∩B1) = p(1− ε).

Evenimentele A1 siA2 formeaza un sistem complet de evenimente pentru spatiul de selectieE = {0, 1}. Pentru a calcula probabilitatea evenimentului B1 aplicam formula proba-bilitatii totale:

P (B1) = P (A0)P (B1|A0) + P (A1)P (B1|A1) = 1/2ε+ 1/2(1− ε) = 1/2.

Aplicand formula lui Bayes obtinem probabilitatile (pe care le-am mai numit posteori);

P (A0|B1) =P (B1|A0)P (A0)

P (B1)=ε/2

1/2= ε

P (A1|B1) =P (B1|A1)P (A1)

P (B1)=

(1− ε)/21/2

= 1− ε.

Daca ε este mai mic decat 1/2 atunci este mai probabil ca la intrare sa avem 1 decat 0daca la iesire s-a primit semnalul 1.

Problema 1.13 Un sistem consta dintr-o unitate centrala si trei unitati periferice.Sistemul functioneaza la capacitate optima daca unitatea centrala si doua unitati per-iferice functioneaza. Sa se calculeze probabilitatea ca sistemul sa functioneze la capacitateoptima presupunand ca defectarea unitatilor se face independent una de cealalta.

Solutie. Definim urmatorele evenimente: A-unitatea centrala functioneaza; Bi-unita-tea periferica i functioneaza, unde i = 1, 2, 3. Evenimentul F -doua sau mai multe unitatiperiferice functioneaza ınseamna ca toate trei unitatile periferice functioneaza sau exactdoua unitati periferice functioneaza. Astfel:

F = (B1 ∩B2 ∩ B3) ∪ (B1 ∩ B2 ∩B3) ∪ (B1 ∩B2 ∩B3)∪∪(B1 ∩B2 ∩B3).

Observam ca evenimentele de mai sus din paranteze sunt indepandente ıntre ele si deci

P (F ) = P (B1)P (B2)P (B3) + P (B1)P (B2)P (B3)++P (B1)P (B2)P (B3) + P (B1)P (B2)P (B3) == 3(1− a)2a+ (1− a)3

unde s-a presupus ca fiecare periferic se defecteaza cu probabilitatea egala cu a, astfel ıncatP (Bi) = 1 − a si P (Bi) = a. Evenimentul ”sistemul functioneaza la capacitate optima”este A ∩ F . Daca presupunem ca unitatea centrala se defecteaza cu probabilitatea p,atunci:

P (A ∩ F ) = P (A)P (F ) = (1− p)P (F ) = (1− p)3(1− a)2a+ (1− a)3.

Fie a = 10%, atunci toate cele trei periferice sunt functionale (1− a)3 = 72, 9% din timpiar doua sunt functionale si una defecta 3(1 − a)2a = 24, 3% din timp. Astfel doua sau

Page 42: Teoria Probabilitatii

42 Camp de probabilitate

mai multe, periferice functtioneaza 97, 2% din timp. Presupunem ca unitatea centrala nueste foarte buna, si anume p = 20%, atunci sistemul functioneaza la capacitate optimanumai 77, 8% din timp, aceasta datorita faptului ca unitatea centrala se defecteaza.

Presupunem ca s-a introdus ın sistem o a doua unitate centrala identica cu prima,adica p = 20% si sistemul functioneaza la capacitate optima daca macar una din cele douaunitati centrale functioneaza. Sa calculam cat la suta din timp functioneaza sistemul ınacest caz. Definim evenimentele Ai-unitatea centrala i = 1, 2 functioneaza. Evenimentul”sistemul functioneaza la capacitate optima” este, ın acest caz, (A1∩F )∪(A2∩F ). Atunci

P [(A1 ∩ F ) ∪ (A2 ∩ F )] = P (A1 ∩ F ) + P (A2 ∩ F )−−P [(A1 ∩ F ) ∩ (A2 ∩ F )] = P (A1)P (F ) + P (A2)P (F )− P (A1 ∩ A2 ∩ F ) == P (A1)P (F ) + P (A2)P (F )− P (A1)P (∩A2)P (∩F ) == 2(1− p)3(1− a)2a+ (1− a)3 − (1− p)23(1− a)2a+ (1− a)3 = 93, 3%

Aceasta a condus la o crestere de 15.5% a timpului de functionare fata de cazul ın caresistemul functiona cu o singura unitate centrala.

Problema 1.14 Un sistem de comunicatie transmite informatie bimara pe un canalcare introduce la transmiterea unui bit erori aleatoare cu probabilitatea ε = 10−3. Fiecarebit este transmis de trei ori si ın functie de semnalul majoritar receptionat se decideinformatia ca fiind cea transmisa. Sa se calculeze probabilitatea ca decizia luata sa fieincorecta.

Solutie. Cel ce receptioneaza va lua o decizie eronata daca canalul introduce douasau mai multe erori. Daca privim fiecare transmitere ca o experienta Bernoulli ın carerealizarea evenimentului corespunde introducerii unei erori, atunci probabilitatea de a seproduce doua sau mai multe erori ın trei experiente Bernoulli este

P [k > 2] = C23(0, 001)2(0, 999) + C3

3(0, 001)3 ≈ 3× 10−6

Problema 1.15 O informatie telegrafica consta din semnale ”liniute” si ”puncte”.In medie se deformeaza 2/5 din semnalele cu ”puncte” si ”liniute”. Este cunoscut casemnalele ”puncte” si ”liniute” se ıntalnesc ın raportul 5/3.

Sa se determine probabilitatea ca:a) primind un semnal consacrat, acesta sa fie ”punct” sib) probabilitatea ca el sa fie ”liniuta”.

Solutie. Notam cu A evenimentul de primire a semnalului ”punct”, iar prin B eveni-mentul de primire a semnalului ”liniuta”. Se pot considera urmatoarele ipoteze: H1 estetransmis semnalul ”punct”, H2 este transmis semnalul ”liniuta”. Avem

P (H1)

P (H2)=

5

3, P (H1) + P (H2) = 1.

deci

P (H1) =5

8, P (H2) =

3

8

Page 43: Teoria Probabilitatii

Camp de probabilitate 43

si

P (A|H1) =3

5, P (A|H2) =

1

3, P (B|H1) =

2

5, P (B|H2) =

2

3.

Folosind formula probabilitatii totale obtinem:

P (A) =5

8

3

5+

3

8

1

3=

1

2, P (B) =

5

8

2

5+

3

8

2

3=

1

2.

Avem cele doua probabilitati:

a) P (H1|A) =P (H1)P (A|H1)

P (A)=

3

4,

b) P (H2|B) =P (H2)P (B|H2)

P (B)=

1

2.

Page 44: Teoria Probabilitatii

44 Camp de probabilitate

Page 45: Teoria Probabilitatii

Capitolul 2

Variabile aleatoare discrete

2.1 Definitia si clasificarea variabilelor aleatoare

Una din notiunile fundamentele ale teoriei probabilitatilor este cea de variabila aleatoare.Teoria clasica a probabilitatilor opereaza, ın principal, cu evenimente, iar teoria modernaprefera, unde este posibil, sa studieze variabile aleatoare.

Fie { E,K,P } un camp borelian de probabilitate care a fost definit ın Capitolul 1.8.

Definitia 2.1.1 FunctiaX : E → IR

se numeste variabila aleatoare daca

∀x ∈ IR {e ∈ E | X(e) < x} ∈ K. (2.1)

Pentru simplitate, vom nota {e ∈ E | X(e) < x} = {X < x}.Observatia 2.1.1 Nu este obligatoriu X(E) = IR, deci X(E) ⊆ IR;X(E) reprezintamultimea valorilor variabilei aleatoare.

Dupa proprietatile multimii valorilor variabilei aleatoare, adica dupa proprietatile multi-mii X(E), clasificam variabile aleatoare astfel:

• variabile aleatoare de tip discret, daca X(E) este cel mult numarabila; daca X(E)este finita, variabila aleatoare se numeste discreta simpla, iar daca X(E) este in-finita, dar numarabila, variabila aleatoare se numeste discreta cu o infinitate devalori.

• variabile aleatoare de tip continuu, daca X(E) este o multime infinita de numerereale.

Exemple de variabile aleatoare discrete:

• variabile aleatoare ale carei valori reprezinta numarul de apeluri zilnice primite la ocentrala telefonica,

• variabila aleatoare ale carei valori reprezinta numarul de ruperi de fire la o masinade cusut,

45

Page 46: Teoria Probabilitatii

46 Variabile aleatoare discrete

• variabila aleatoare ale carei valori reprezinta numarul de puncte aparute pe o fataa zarului, la aruncarea unui zar.

Exemple de variabile aleatoare de tip continuu:

• timpul de functionare a unui aparat, pana la prima defectare,

• marimile erorilor comise la efectuarea masuratorilor,

• viteza unei particule, care se modifica ın functie de ciocnirile cu alte particule.

In fiecare din aceste exemple, unui fenomen, supus unor circumstante aleatoare, i seasociaza un numar real, deci se stabileste o corespondenta ıntre spatiul de selectie E conve-nabil ales si IR. In practica, de multe ori este dificil sa gasim valorile acestor corespondente,dar e posibil sa determinam ”cat de des” sunt luate ele. Astfel, ın ultimul exemplu, putemaprecia cu ce probabilitate viteza X a particulei este mai mica decat 0,1, deci putemcalcula P ({ e ∈ E | X(e) < 0, 1 }).Definitia 2.1.2 Functia

F : IR→ [0, 1]

definita prinF (x) = P ({ e ∈ E | X(e) < x}) (2.2)

se numeste functie de repartitie.

Determinarea pentru orice x ∈ IR a probabilitatii cu care X ia valori mai mici ca x,ınseamna definirea functiei de repartitie.

2.2 Variabile aleatoare discrete simple

Conditia (2.1) din Definitia 2.1.2 are loc ıntotdeauna ın cazul variabilelor aleatoare dis-crete, alegand eventual un camp borelian convenabil. In cest caz putem spune ca:

Definitia 2.2.1 Fie { E,K, P } un camp de probabilitate cu E cel mult numarabila.Se numeste variabila aleatoare orice aplicatie X definita pe multimea evenimentelor ele-mentare cu valori ın multimea numerelor reale IR.

Ilustram trecerea de la eveniment la variabila aleatoare.

Exemplul 2.2.1 Consideram o experienta si un eveniment A legat de aceasta. In loc deevenimentul A putem considera functia χA care ia valoarea 1 daca s-a realizat A si 0 dacas-a realizat A, adica daca A ⊂ E,A ∈ K:

χA : E → {0, 1}

χA(e) =

{1, daca e ∈ A0, daca e /∈ A.

Functia χA se numeste indicatoarea evenimentului A (variabila aleatoare a evenimentuluiA).

Page 47: Teoria Probabilitatii

Variabile aleatoare discrete 47

Aceasta idee poate fi extinsa ın sensul ca putem considera o experienta si legat deaceasta un sistem complet de evenimente (Ai)16i6n. Definim functia X pe acest sistemcomplet de evenimente convenind sa-i atribuim valoarea n− j ın cazul ın care s-a realizatevenimentul Aj, j = 1, n. Astfel, variabila aleatoare X s-a definit prin relatia:

X(e) =

{n− j, daca e ∈ Aj0, ın rest

pentru j = 1, n.

Fie tabelul

X :

(x1 x2 . . . xnp1 p2 . . . pn

)(2.3)

cu pi > 0, i = 1, n,n∑i=1

pi = 1. Numerele xi se numesc valorile variabilei aleatoare,

iar pi probabilitatile cu care variabila aleatoare ia aceste valori. Tabelul 2.3 se numestetabloul de repartitie al variabilei aleatoare X.

Facem conventia ca ın tabloul de repartitie sa se treaca valorile variabilei aleatoaredistincte, iar valorile luate cu probabilitatea 0 sa nu fie trecute.

Observatia 2.2.1 Fie xk o valoare a variabilei aleatoare X. Valorii xk ıi corespunde, ıngeneral, o multime de evenimente elementare. Rezolvand ecuatia xk = X(e) ın raportcu e obtinem e = X−1(xk), ın general, o functie multivoca, deci la un xk pot corespundemai multe valori ale lui e. Reuniunea acestora formeaza un eveniment Ak al campului(k 6 n). Deoarece valorile xk sunt diferite, evenimentele Ak sunt incompatibile doua catedoua si formeaza un sistem complet de evenimente. Observam ca

pk = P (Ak) = P ({e ∈ E | X(e) = xk})si

n∑

k=1

pk =n∑

k=1

P (Ak) = P (n⋃

k=1

Ak) = P (E) = 1.

Deci data o variabila aleatoare, putem sa-i atasam un sistem complet de evenimente.Reciproca afirmatiei este tocmai Exemplul 2.2.2.

Exemplul 2.2.2 Consideram experienta care consta ın aruncarea unui zar omogen. Fievariabila aleatoare X care ia ca valori numarul de puncte aparute pe fata zarului. Sa sescrie tabloul de repartitie al acestei variabile aleatoare.

Multimea evenimentelor elementare este {1, 2, 3, 4, 5, 6} si ea coincide, ın acest caz, cu E

X :

(1 2 3 4 5 61

6

1

6

1

6

1

6

1

6

1

6

).

Daca consideram evenimentele A si B legate de aceeasi experienta si anume A evenimentulcare consta ın obtinerea unui numar par de puncte, iar B evenimentul care consta ın

Page 48: Teoria Probabilitatii

48 Variabile aleatoare discrete

obtinerea un numar impar de puncte si definim variabila aleatoare Y care ia valoarea0 daca am obtinut un numar par de puncte si 1 daca am obtinut un numar impar depuncte, atunci A si B formeaza un sistem complet de evenimente si putem defini variabilaaleatoare Y astfel:

Y :

(0 11

2

1

2

).

Exemplul 2.2.3 Consideram o experienta care consta ın extragerea a trei bile, cate unadin fiecare din urnele U1, U2, U3 ce contin respectiv 2 bile albe si 3 negre, 3 bile albe si 5negre, 8 bile albe si 2 negre. Definim variabila aleatoare X care ia ca valori numarul dede bile albe obtinute la o extragere. Se cere tabloul de reparitie a lui X.

Notam cu Ai si Ai evenimentul de a extrage o bila alba, respectiv neagra din urnaUi, i = 1, 3. Variabila aleatoare X poate lua valorile 0, 1, 2, 3 dupa cum s-au extras respec-tiv 0, 1, 2, 3 bile albe. Observam ca evenimentele Ai sunt independente si incompatibiledoua cate doua. Atunci putem calcula

P ({X = 0}) = P (3⋂i=1

Ai) =3∏i=1

P (Ai) = 0, 075,

P ({X = 1}) = P ((A1 ∩ A2 ∩ A3) ∪ (A1 ∩ A2 ∩ A3) ∪ (A1 ∩ A2 ∩ A3)) =

= P (A1)P (A2)P (A3) + P (A1)P (A2)P (A2) + P (A1)P (A2)P (A3) =79

200= 0, 395,

P ({X = 2}) = P ((A1 ∩ A2 ∩ A3) ∪ (A1 ∩ A2 ∩ A3) ∪ (A1 ∩ A2 ∩ A3)) =

= P (A1)P (A2)P (A3) + P (A1)P (A2)P (A2) + P (A1)P (A2)P (A3) =41

100= 0, 41,

P ({X = 3}) = P (A1 ∩ A2 ∩ A3) = P (A1)P (A2)P (A3) =3

25= 0, 12,

Tabloul de repartitie este

X :

(0 1 2 3

0, 075 0, 395 0, 41 0, 12

).

De cele mai multe ori ın calcule este suficient sa cunoastem valorile pe care le ia ovariabila aleatoare si probabilitatile respective. Dar, ın general, cunoasterea acestor datenu este suficienta pentru determinarea completa a variabilei aleatoare, asa cum se vavedea ın exemplul urmator.

Exemplul 2.2.4 Consideram experienta care consta ın aruncarea unui zar. Legat deaceasta ne imaginam un joc: celui care arunca zarul i se acorda 1 punct daca apare unadin fetele cu 1 sau 2 puncte, 2 puncte daca apare una din fetele cu 3 sau 4 puncte, 3puncte daca apare una din fetele cu 5 sau 6 puncte. Daca notam cu X variabila aleatoare

Page 49: Teoria Probabilitatii

Variabile aleatoare discrete 49

care ia ca valori numarul de puncte obtinute de jucator la o aruncare a zarului, obtinemo variabila aleatoare avand repartitia:

X :

(1 2 31

3

1

3

1

3

).

Se considera alt joc ın care se acorda 1 punct daca apare una din fetele cu 1 sau 6 puncte,2 puncte daca apare una din fetele cu 2 sau 5 puncte, 3 puncte daca apare una din fetelecu 3 sau 4 puncte. Obtinem analog o variabila aleatoare Y cu repartitia

Y :

(1 2 31

3

1

3

1

3

).

Variabilele aleatoare discrete simple X si Y definite ın acest exemplu nu sunt egale, dar auacelasi tablou de repartitie. Intr-adevar, X(6) = 3 si Y (6) = 1. Experienta care constaın aruncarea zarului genereaza un camp de probabilitate. Pe multimea evenimentelorelementare ale lui E, X si Y sunt definite astfel:

X(1) = 1, X(2) = 1, X(3) = 2, X(4) = 2, X(5) = 3, X(6) = 3;

Y (1) = 1, Y (2) = 2, Y (3) = 3, Y (4) = 3, Y (5) = 2, Y (6) = 1.

Sa determinam sistemul complet de evenimente generat de fiecare din cele doua vari-abile aleatoare discrete simple. Variabila aleatoare discreta simpla X determina

A1 = {1, 2}, A2 = {3, 4}, A3 = {5, 6},iar variabila aleatoare discreta simpla Y determina

B1 = {1, 6}, B2 = {2, 5}, B3 = {3, 4}.Rezulta ca cele doua sisteme complete de evenimente sunt diferite si deci numai aparentvariabilele aleatoare discrete simple coincid.

Orice variabila aleatoare simpla data prin tabloul sau de repartitie se poate reprezentagrafic prin poligonul sau de repartitie: pe axa absciselor se trec valorile variabilei aleatoare,iar pe axa ordonatelor probabilitatile.

Pentru o variabila aleatoare discreta simpla se poate introduce functia de repartitiecare este o functie scara data de relata:

F (x) =

0, daca x 6 x1,p1, daca x1 < x 6 x2,p1 + p2, daca x2 < x 6 x3,. . .p1 + . . .+ pn−1, daca xn−1 < x 6 xn,1, daca xn < x.

In aceasta definitie am presupus, pentru simplitate, x1 < x2 < . . . < xn. Graficul acesteifunctii este prezentat ın Figura 2.1.

Page 50: Teoria Probabilitatii

50 Variabile aleatoare discrete

Vom insista mai mult asupra proprietatilor functiei de repartitie ın Capitolul 3. Sastudiem F ın unul din punctele de discontinuitate, fie x = x2. Pentru δ ∈ IR+ oricat demic, avem

F (x2 + δ) = P ({X < x2 + δ}) = p1 + p2

astfel ıncat limx↘x2

F (x) = p1 + p2. Mai mult

F (x2) = P ({X < x2}) = p1

siF (x2 − δ) = P ({X < x2 − δ}) = p1.

Rezulta ca functia de repartitie este continua la stanga. Functia de repartitie poate fiscrisa restrans cu ajutorul functiei unitate (treapta unitate)

u(x) =

{0, daca x 6 0,1, daca x > 0,

.

Functia generalizata delta δ(t) (distributia Dirac) este definita cu ajutorul functiei unitateastfel:

u(x) =

∫ x

∞δ(t) dt

si deci

F (x) = p1 u(x) + p2 u(x− x1) + . . .+ pn u(x− xn) =n∑

k=1

pk u(x− xk),

unde pk = P ({X < xk}). Putem introduce si ın cazul discret (pentru cazul continuu sepoate consulta Capitolul 3) functia densitate de probabilitate tinand seama de legaturadintre functia unitate si distributia Dirac. Astfel, tinand seama de faptul ca (vezi Capitolul3.2, Formula (3.9)):

F (x) =

∫ x

−∞f(t) dt

obtinem densitatea de probabilitate pentru variabile aleatoare discrete

f(x) =n∑

k=1

pkδ(x− xk).

Aceasta densitate de probabilitate este o functie generalizata (o distributie).

Operatii cu variabile aleatoare discrete simple.

Deoarece variabila aleatoare discreta simpla este o functie definita pe multimea eveni-mentelor elementare cu valori reale, putem vorbi de suma si produsul a doua variabilealeatoare discrete simple ca si la functii. Astfel, daca e este un eveniment elementar si Xsi Y sunt definite pe aceeasi multime de evenimente elementare, avem

(X + Y )(e) = X(e) + Y (e),

Page 51: Teoria Probabilitatii

Variabile aleatoare discrete 51

(XY )(e) = X(e)Y (e).

Daca Y (e) 6= 0 oricare ar fi evenimentul e, catulX

Yeste o noua variabila aleatoare definita

prin relatia

(X

Y)(e) =

X(e)

Y (e).

Produsul unei variabile aleatoare X cu o constanta reala c este o noua variabila aleatoarecX definita prin relatia

(cX)(e) = cX(e).

Acest produs poate fi interpretat si ca produsul lui X cu variabila aleatoare constantaidentic egala cu c (Y (e) = c, ∀e ∈ E). Daca X(e) > 0,∀e ∈ E, iar α ∈ IR fixat, definimXα ca o noua variabila aleatoare definita prin

(Xα(e) = (X(e))α.

In cazul ın care α ∈ IN se poate renunta la conditia X(e) > 0,∀e ∈ E, variabila aleatoarepoate fi interpretata ca produsul lui X cu el ınsusi. Fie variabilele aleatoare X si Y avandtabelele de repartitie

X :

(x1 x2 . . . xmp1 p2 . . . pm

),

Y :

(y1 y2 . . . ynq1 q2 . . . qn

).

Fie A1, A2, . . . , Am respectiv B1, B2, . . . , Bn sistemul complet de evenimente generat devariabila aleatoare X, respectiv Y . Avem, evident

P (Ai) = pi, i = 1,m,

P (Bj) = qj, j = 1, n.

Variabila aleatoare X + Y ia valoarea xi + yj pe submultimea Ai ∩ Bj, daca aceastaintersectie este nevida. Daca Ai∩Bj = ∅, variabila aleatoare X+Y ia valoarea xi + yj cuprobabilitatea zero si deci aceasta nu apare ın tabel. Daca notam P (Ai ∩ Bj) = pij, i =1,m, j = 1, n atunci tabelul de repartitie al variabilei aleatoare X + Y va fi

X + Y :

(x1 + y1 x1 + y2 . . . x1 + yn . . . xm + ynp11 p12 . . . p1n . . . pmn

).

Pentru produs vom avea

XY :

(x1y1 x1y2 . . . x1yn . . . xmynp11 p12 . . . p1n . . . pmn

).

In ambele cazuri tabelul de repartitie are cel mult mn coloane.

Page 52: Teoria Probabilitatii

52 Variabile aleatoare discrete

Observatia 2.2.2 In cazul particular Y = a = const.,deoarece

pij = P ({X = xi, Y = a}) = P ({(X = xi) ∩ E}) = P ({X = xi}) = pi

avem

a+X :

(a+ x1 a+ x2 . . . a+ xmp1 p2 . . . pm

),

si la fel

aX :

(ax1 ax2 . . . axmp1 p2 . . . pm

).

Observatia 2.2.3 Definitia sumei de variabile aleatoare discrete simple se poate extindela un numar finit de variabile aleatoare simple. De exemplu, daca

X :

(xipi

), i = 1,m, Y :

(yjqj

), j = 1, n, Z :

(zkrk

), k = 1, l,

atunci

X + Y + Z :

(xi + yj + zk

pijk

), i = 1,m, j = 1, n, k = 1, l.

Exemplul 2.2.5 Probabilitatea extragerii unei bile albe dintr-o urna este p. Din aceastaurna se fac doua extrageri, punandu-se bila ınapoi ın urna dupa extragere. Se consideravariabilele aleatoare X1 si X2, prima reprezentand numarul de bile albe obtinute la primaextragere si a doua numarul de bile albe de la a doua extragere. Sa se scrie tabloul derepartitie al variabilelor aleatoare discrete simple X1, X2, X1 +X2, X1X2.

Daca

X1 :

(0 1q p

), X2 :

(0 1q p

), q = 1− p,

atunci

X1 +X2 :

(0 1 2q2 2pq p2

),

deoarece

P ({X1 +X2 = 0}) = P ({X1 = 0, X2 = 0}) = P ({X1 = 0})P ({X2 = 0}) = q2,

P ({X1 +X2 = 1}) = P ({X1 = 1, X2 = 0} ∪ {X1 = 0, X2 = 1}) = 2pq,

P ({X1 +X2 = 2}) = P ({X1 = 1, X2 = 1}) = P ({X1 = 1})P ({X2 = 2}) = p2,

P ({X1 +X2 = 0}) = P ({X1 = 0, X2 = 0}) = q2.

La fel,

X1X2 :

(0 1

2pq + q2 p2

),

deoarece

P ({X1X2 = 0}) = P ({X1 = 0, X2 = 0} ∪ {X1 = 1, X2 = 0) ∪ {X1 = 0, X2 = 1})= 2pq + q2,

P ({X1X2 = 1}) = P ({X1 = 1, X2 = 1}) = p2.

Page 53: Teoria Probabilitatii

Variabile aleatoare discrete 53

Propozitia 2.2.1 Fiind date variabilele aleatoare

X :

(xipi

), i = 1,m; Y :

(yjqj

), j = 1, n,

iar pij probabilitatile definite de suma si produsul celor doua variabile aleatoare. Au locrelatiile:

pi =n∑j=1

pij, qj =m∑i=1

pij.

Demonstratie. Efectuand experienta careia ıi sunt asociate variabilele aleatoare, Y ia ınmod sigur una din valorile y1, y2, . . . , yn. Daca X ia valoarea xi, rezulta ca evenimentul{X = xi} se realizeaza ımpreuna cu unul din evenimentele {Y = y1}, . . . , {Y = yn}. Deci

{X = xi} = {X = xi} ∩ ({Y = y1} ∪ {Y = y2} ∪ . . . {Y = yn}) =

= ({X = xi} ∩ {Y = y1}) ∪ ({X = xi} ∩ {Y = y2}) ∪ . . . ∪ ({X = xi} ∩ {Y = yn}).De aici rezulta ca

pi = P ({X = xi}) =n∑j=1

P ({X = xi, Y = yj}) =n∑j=1

pij.

La fel se demonstreaza cea de-a doua relatie.

Observatia 2.2.4 Daca consideram si variabila aleatoare discreta simpla

Z :

(zkrk

), k = 1, l,

atunci pentru probabilitatile sumei (produsului) celor trei variabile aleatoare discrete sim-ple au loc relatiile

l∑

k=1

pijk = pij·;m∑i=1

pijk = p·jk;n∑j=1

= pi·k;

Independenta variabilelor aleatoare discrete simple.

Definitia 2.2.2 Doua variabile aleatoare se numesc independente daca probabilitatea cauna din variabile sa ia o valoare nu depinde de valoarea luata de cea de a doua variabilaaleatoare.

Observatia 2.2.5 Daca X si Y sunt astfel de variabile aleatoare atunci doua evenimentede forma {X = xi} si {Y = yj}, i = 1,m, j = 1, n, sunt independente.

In general, putem da definitia:

Page 54: Teoria Probabilitatii

54 Variabile aleatoare discrete

Definitia 2.2.3 Variabilele aleatoare discrete simple X, Y, Z, . . . sunt independente da-ca evenimentele {X = xi}, {Y = yj}, {Z = zk}, . . . i = 1,m, j = 1, n, k = 1, l suntindependente ın totalitatea lor.

Observatia 2.2.6 Daca variabilele aleatoare

X :

(xipi

), i = 1,m, Y :

(yjqj

), j = 1, n,

sunt independente, atunci

pij = P ({X = xi, Y = yj}) = P ({X = xi})P ({Y = yj}) = piqj.

La fel pentru trei variabile aleatoare discrete simple. In cazul acesta

X + Y :

(xi + yjpiqj

), i = 1,m, j = 1, n;

XY :

(xiyjpiqj

), i = 1,m, j = 1, n.

Exemplul 2.2.6 Suma a doua variabile aleatoare discrete simple independente X, Y,Z = X + Y , poate fi obtinuta astfel:

P ({Z = k}) = P ({X + Y = k}) =

=∑i

P ({X = i, Y = k − i}) =∑i

P ({X = i})P ({Y = k − i}),

sumarea referindu-se la toate valorile ıntregi ale lui X, mai mici decat k. Daca notam cup(i)=P ({X= i}), q(j) = P ({Y = j}), r(k) = P ({Z = k}), obtinem

r(k) =k∑i=0

p(i)q(k − i) =k∑j=0

p(k − j)q(j),

acestea reprezentand produsul de convolutie a lui p si q.

Propozitia 2.2.2 Variabilele aleatoare simple X si Y sunt independente daca si numaidaca evenimentele {x′ < X < x} si {y′ < Y < y} sunt independente, oricare ar fix, x′, y, y′ ∈ IR.

Demonstratie.Presupunem ca X si Y sunt independente. Deoarece

{x′ < X < x, y′ < Y < y} =⋃

x′<xi<x, y′<yj<y

{X = xi, Y = yj}

rezulta, datorita independentei,

P ({x′ < X < x, y′ < yj < y}) = P (⋃

x′<xi<x, y′<yj<y

{X = xi, Y = yj}) =

Page 55: Teoria Probabilitatii

Variabile aleatoare discrete 55

=∑

x′<xi<x;y′<yj<y

P ({X = xi, Y = yj}) =∑

x′<xi<x

P ({X = xi})∑

y′<yj<y

P ({Y = yj}) =

= P (⋃

x′<xi<x

{X = xi})P (⋃

y′<yj<y

{Y = yj}) = P ({x′ < X < x})P ({y′ < Y < y}).

Reciproc, presupunem ca evenimentele {x′ < X < x} si {y′ < Y < y} sunt independente,oricare ar fi x, x′, y, y′ ∈ IR. Atunci

{X = xi, Y = yj} = {xi−1 < X < xi+1, yj−1 < Y < yj+1}, i = 1,m, j = 1, n,

unde x0 = y0 = −∞, xn = yn =∞. Rezulta ca

P ({X = xi, Y = yj}) = P ({xi−1 < X < xi+1, yj−1 < Y < yj+1}) =

= P ({xi−1 < X < xi+1})P ({yj−1 < Y < yj+1}) = P ({X = xi})P ({Y = yj}).

Caracteristici numerice pentru variabile aleatoare discrete simple.

Definitia 2.2.4 Fie variabila aleatoare discreta simpla

X :

(x1 x2 . . . xmp1 p2 . . . pm

), pi > 0, i = 1,m,

m∑i=1

pi = 1. (2.4)

Vom numi media variabilei aleatoare discrete simple X numarul

M [X] = x1p1 + x2p2 + . . .+ xmpm =m∑i=1

xipi.

Denumirea de medie este ındreptatita daca tinem seama de sensul ei practic. Presupunemca am repetat de N ori o experienta care ne-a condus la variabila aleatoare X. Dacavaloarea x1 este luata de n1 ori, valoarea x2 de n2 ori,. . ., valoarea xm de nm ori, unden1 + n2 + . . .+ nm = N , atunci suma valorilor luate de variabila aleatoare X este n1x1 +n2x2 + . . .+ nmxm, iar media aritmetica a valorilor luate de X va fi

n1x1 + n2x2 + . . .+ nmxmN

=n1

Nx1 +

n2

Nx2 + . . .+

nmNxm.

Darn1

Nreprezinta raportul dintre numarul cazurilor ın care s-a luat valoarea x1 si numarul

total de experimentari, adica p1. La feln2

N= p2, . . . ,

nmN

= pm.

Media aritmetica a valorilor luate de X poate fi aproximata cu p1x1+p2x2+. . .+pmxm,adica media lui X. Media lui X ne arata la ce valoare putem sa ne asteptam pentru mediaaritmetica a unui mare numar de valori ale lui X, obtinute ın urma repetarii experienteidate.

Page 56: Teoria Probabilitatii

56 Variabile aleatoare discrete

Exemplul 2.2.7 Variabilele aleatoare discrete simple din Exemplul 2.2.5, X1 si X2,avand repartitiile:

X1, X2 :

(0 1q p

),

au valoarea medie

M [Xi] = 1p+ 0q = p, i = 1, 2,

iar

X1 +X2 :

(0 1 2q2 2pq p2

),

are media

M [X1 +X2] = 2pq + 2p2 = 2p.

Definitia 2.2.5 Se numeste moment initial de ordin k, k ∈ IN , al variabilei aleatoare Xmedia lui Xk. Notam

υk = Mk[X] = M [Xk].

Observatia 2.2.7 Momentul initial de ordin 1 al variabilei alearoare X este chiar mediavariabilei aleatoare.

Proprietati ale mediei.

1. Valoarea medie a unei constante este egala cu constanta,

X :

(c1

), M [X] = c.

2. Daca X este o variabila aleatoare simpla si a ∈ IR o constanta, atunci au loc relatiile:

M [a+X] = a+M [X], M [aX] = aM [X],

Intr-adevar, deoarece

a+X :

(a+ x1 a+ x2 . . . a+ xmp1 p2 . . . pm

),

M [a+X] =m∑i=1

(a+ xi)pi = a

m∑i=1

pi +m∑i=1

xipi = a+M [X];

aX :

(ax1 ax2 . . . axmp1 p2 . . . pm

),

M [aX] =m∑i=1

(axi)pi = a

m∑i=1

xipi = aM [X].

Page 57: Teoria Probabilitatii

Variabile aleatoare discrete 57

3. Valoarea medie a unei variabile aleatoare este cuprinsa ıntre cea mai mica si cea maimare dintre valorile posibile ale variabilei aleatoare. Fie a = min

ixi si A = max

ixi.

M [X] =m∑i=1

xipi > a

m∑i=1

pi = a,

M [X] =m∑i=1

xipi < A

m∑i=1

pi = A,

⇔ a < M [X] < A.

4. Valoarea medie a unei sume finite de variabile aleatoare este egala cu suma valorilormedii ale variabilelor aleatoare respective. Fie

X :

(x1 x2 . . . xmp1 p2 . . . pm

), Y :

(y1 y2 . . . ynq1 q2 . . . qn

),

X + Y :

(x1 + y1 x1 + y2 . . . xm + ynp11 p12 . . . pmn

).

Atunci

M [X + Y ] =m∑i=1

n∑j=1

(xi + yj)pij =

=m∑i=1

xi(n∑j=1

pij) +n∑j=1

yj(m∑i=1

pij) =m∑i=1

xipi +n∑j=1

yjqj = M [X] +M [Y ].

Demonstratia pentru suma unui numar finit de variabile aleatoare se face prininductie.

5. Valoarea medie a unui produs de variabile aleatoare independente este egala cuprodusul mediilor variabilelor considerate.

X :

(x1 x2 . . . xmp1 p2 . . . pm

), Y :

(y1 y2 . . . ynq1 q2 . . . qn

),

XY :

(x1y1 x1y2 . . . xmynp11 p12 . . . pmn

),

M [XY ] =m∑i=1

n∑j=1

xiyjpij.

Daca variabilele sunt independente, se produc simplificari importante deoarece putemscrie

pij = piqj

si atunci

M [XY ] =n∑j=1

x1yjp1qj +n∑j=1

x2yjp2qj + . . .+n∑j=1

xmyjpmqj =

= (m∑i=1

xipi)(n∑j=1

yjqj) = M [X]M [Y ].

Page 58: Teoria Probabilitatii

58 Variabile aleatoare discrete

6. Oricare ar fi variabila aleatoare X, are loc relatia√M [X2] > |M [X]|.

Consideram variabila aleatoare X avand tabloul (2.4) si fie Y = (X+a)2, a ∈ IR.Deoarece valorile lui Y sunt pozitive, rezulta ca M [Y ] > 0 si deci

M [Y ] =m∑i=1

(xi + a)2pi =m∑i=1

xipi + 2am∑i=1

xipi + a2 =

= M [X2] + 2aM [X] + a2 > 0 ∀a ∈ IR.Rezulta ∆ 6 0 si cum

∆ = (M [X])2 −M [X2] 6 0

obtinem inegalitatea dorita.

7. Inegalitatea lui Schwarz. Fie x si Y doua variabile aleatoare discrete simple. Are locinegalitatea

|M [XY ]| 6√M [X2]M [Y 2].

Demonstratia poate fi gasita ın Capitolul 3.4, Formula (3.42).

Definitia 2.2.6 Fie o variabila aleatoare X si o constanta a ∈ IR. Numim abaterea dela constanta a a variabilei aleatoare X variabila X − a.

Definitia 2.2.7 Se numeste moment centrat de ordin k raportat la constanta a a vari-abilei aleatoare X media variabilei (X − a)k.

Observatia 2.2.8 Pentru a = 0 obtinem momentul initial de ordin k.

Observatia 2.2.9 Pentru a = M [X] = m obtinem momentul centrat de ordin k alvariabilei aleatoare X.

Definitia 2.2.8 Variabila aleatoare X −M [X] se numeste abaterea de la medie a vari-abilei aleatoare X.

Propozitia 2.2.3 Valoarea medie a abaterii oricarei variabile aleatoare este nula.

M [X −M [X]] = M [X]−M [M [X]] = M [X]−M [X] = 0.

De multe ori la o variabila aleatoare ne intereseaza cat de mult se abat valorile variabileide la valoarea medie. Trebuie sa stabilim un indicator numeric al ımprastierii valorilorvariabilei aleatoare ın jurul valorii medii. Valoarea medie a abaterii de la medie nu poatecaracteriza aceasta ımprastiere deoarece este nula pentru orice variabila aleatoare. Aba-terile diferitelor valori, avand semne diferite, se compenseaza. Este firesc sa caracterizamımprastierea variabilei aleatoare X prin valoarea medie a abaterilor absolute | X−M [X] |pe care o numim abatere medie. Daca X are tabloul de repartitie

X :

(x1 x2 . . . xnp1 p2 . . . pn

),

Page 59: Teoria Probabilitatii

Variabile aleatoare discrete 59

atunci repartitia abaterii absolute este

( | x1 −m | | x2 −m | . . . | xn −m |p1 p2 . . . pn

),

unde m = M [X], iar abaterea medie este

p1 | x1 −m | +p2 | x2 −m | + . . .+ pn | xn −m | .

Se observa ca semnul expresiilor xi−m nu influenteaza valoarea abaterii medii. Folosireaabaterii medii este foarte incomoda ın calcule. Foarte comoda este ın schimb folosireaexpresiei

M [(X −m)2].

Definitia 2.2.9 Se numeste dispersie a variabilei aleatoare X momentul centrat de or-dinul al doilea al variabilei, notat

σ2 = D2[X] = M [(X −m)2], m = M [X].

Observatia 2.2.10 Demonstram o formula utila ın aplicatii si anume ca dispersia uneivariabile aleatoare este egala cu media patratului variabilei aleatoare minus patratul me-diei, adica

D2[X] = M [X2]− (M [X])2.

Intr-adevar,

D2[X] =n∑i=1

pi(xi −m)2 =

=n∑i=1

pixi − 2mn∑i=1

pixi +m2 = M [X2]− 2m2 +m2 = M [X2]− (M [X])2.

Aratam ca dispersia unei variabile aleatoare X este, ıntr-un anume sens, cea mai bunavaloare care caracterizeaza ımprastierea valorilor x1, x2, . . . , xn sau, cu alte cuvinte, M [X]este punctul cel mai potrivit fata de care trebuie sa masuram devierile acestor valori. Acestlucru rezulta din urmatoarea propozitie.

Propozitia 2.2.4 Daca X este o variabila aleatoare care ia valorile x1, x2, . . . , xn cuprobabilitatile p1, p2, . . . , pn, iar m este media, atunci

D2[X] =n∑i=1

pi(xi −m)2 6n∑i=1

pi(xi − x)2, ∀x ∈ IR.

Demonstratie. Putem scrie xi − x = (xi −m) + (m− x), i = 1, n.

n∑i=1

pi(xi − x)2 =n∑i=1

pi[(xi −m) + (m− x)]2 =

Page 60: Teoria Probabilitatii

60 Variabile aleatoare discrete

=n∑i=1

pi(xi −m)2 + 2(m− x)n∑i=1

pi(xi −m) + (m− x)2 =

=n∑i=1

pi(xi −m)2 + 2(m− x)(m−m) + (m− x)2 =

= D2[X] + (m− x)2 6 D2[X].

Proprietati ale dispersiei.

1. Dispersia unei constante este nula deoarece, tinand seama de proprietatile mediei,

D2[c] = M [c2]− (M [c])2 = 0.

2. Doua variabile aleatoare care difera printr-o constanta au dispersiile egale.

X :

(x1 x2 . . . xnp1 p2 . . . pn

),

Y = a+X :

(a+ x1 a+ x2 . . . a+ xnp1 p2 . . . pn

),

M [Y ] = M [X + a] = M [X] + a,

D2[Y ] =n∑i=1

(xi + a−M [Y ])2pi =

=n∑i=1

pi(xi + a−M [X]− a)2 =n∑i=1

pi(xi −M [X])2 = D2[X].

3. D2[aX] = a2D2[X] deoarece

D2[aX] =n∑i=1

pi(axi − am)2 =n∑i=1

pia2(xi −m)2 =

= a2

n∑i=1

pi(xi −m)2 = a2D2[X].

4. Daca variabilele aleatoare X1, X2, . . . , Xk sunt independente, atunci dispersia sumeieste egala cu suma dispersiilor.

D2[X1 +X2 + . . .+Xk] = D2[X1] +D2[X2] + . . .+D2[Xk].

Intr-adevar, fie

Y = X1 +X2 + . . .+Xk

Page 61: Teoria Probabilitatii

Variabile aleatoare discrete 61

atunci

D2[Y ] = M [Y 2]− (M [Y ])2 = M [(k∑i=1

Xi)2]− (M [

k∑i=1

Xi])2 =

= M [X21 +X2

2 + . . .+X2k + 2X1X2 + 2X1X3 + . . .+ 2Xk−1Xk]−

−(M [X1] +M [X2] + . . .+M [Xk])2 = M [X2

1 ] +M [X22 ] + . . .+M [X2

k ]+

+2M [X1X2] + 2M [X1X3] + . . .+ 2M [Xk−1Xk]− (M [X1])2−−(M [X2])2 − . . .− (M [Xk])

2 − 2M [X1]M [X2]− 2M [X1]M [X3]− . . .−−2M [Xk−1]M [Xk] = M [X2

1 ]− (M [X1])2 +M [X22 ]− (M [X2])2 + . . .+

+M [X2k ]− (M [Xk])

2 = D2[X1] +D2[X2] + . . .+D2[Xk],

folosind Proprietatea 5 a mediei.

Observatia 2.2.11 Proprietatea ramane adevarata ın conditii mai putin restrictive. Incursul demonstratiei s-a folosit faptul ca variabilele aleatoare Xi, i = 1, k sunt indepen-dente doua cate doua si nu ın totalitatea lor.

Mai general, combinand Proprietatile 3 si 4, avem

D2[k∑i=1

aiXi] =k∑i=1

a2D2[Xi]

In particular,D2[X − Y ] = D2[X] +D2[Y ].

De obicei, gradul de ımprastiere a valorilor unei variabile aleatoare X se exprima nu prindispersie, ci prin abaterea medie patratica, notata D[X] si definita prin relatia

σ = D[X] =√D2[X].

Aceasta are avantajul ca se exprima prin aceleasi unitati de masura ca si valorile variabileialeatoare X.

Proprietati ale abaterii medii patratice.

1. D[c] = 0, daca c = const., c ∈ IR.

2. D[a+X] = D[X].

3. D[aX] =| a | D[X].

Proprietatile de mai sus rezulta din proprietatile dispersiei.

Teorema 2.2.1 (Inegalitatea lui Cebasev). Fie X o variabila aleatoare care admite mediesi dispersie finite. Atunci, oricare ar fi ε > 0, are loc inegalitatea

P ({| X −m |< ε}) > 1− D2[X]

ε2, m = M [X]. (2.5)

Page 62: Teoria Probabilitatii

62 Variabile aleatoare discrete

Demonstratie. Facem observatia ca aceasta inegalitate da o margine inferioara pentruprobabilitatea ca abaterea absoluta a unei variabile aleatoare cu dispersia cunoscuta safie mai mica decat un numar dat.

Pentru demonstratie consideram repartitia variabilei aleatoare X,

X :

(x1 x2 . . . xnp1 p2 . . . pn

),

ın care presupunem ca am scris valorile ın ordine crescatoare, si deci asa vor fi scrise sivalorile | xi −m |, i = 1, n, adica

|x1 −m| 6 |x2 −m| 6 . . . 6 |xn −m|.

Daca luam un ε > 0 oarecare, unele din valorile |xi − m|, i = 1, n, vor fi mai mari sauegale cu ε, altele mai mici. Exista deci un l astfel ıncat

|x1 −m| 6 |x2 −m| 6 . . . 6 |xl −m| < ε 6 |xl+1 −m| 6 . . . 6 |xn −m|.

Aceste inegalitati se mai pot scrie

(x1 −m)2 6 (x2 −m)2 6 . . . 6 (xl −m)2 < ε2 6 (xl+1 −m)2 6 . . . 6 (xn −m)2.

Variabila aleatoare |X −m| are repartitia

( |x1 −m| |x2 −m| . . . |xl −m| |xl+1 −m| . . . |xn −m|p1 p2 . . . pl pl+1 . . . pn

)

si ia valoarea |xi−m| atunci cand X ia valoarea xi. Inegalitatea |X−m| < ε este verificataatunci cand |X − m| ia una din valorile |x1 − m|, |x2 − m|, . . . , |xl − m| adica atunci sinumai atunci cand X ia una din valorile x1, x2, . . . , xl. Putem scrie deci evenimentul(|X −m| < ε) ca o reuniune finita de evenimente incompatibile

{|X −m| < ε} = {X = x1} ∪ {X = x2} ∪ . . . ∪ {X = xl}.

de unde

P ({|X −m| < ε}) =l∑

i=1

pi = 1−n∑

i=l+1

pi.

Scriem acum dispersia variabilei aleatoare X

σ2 = (x1 −m)2p1 + . . .+ (xl −m)2pl + (xl+1 −m)2pl+1 + . . .+ (xn −m)2pn.

Vom transforma aceasta egalitate ın inegalitate prin micsorarea membrului drept.Aceasta minorare o realizam astfel: valorile (xi−m)2 care sunt mai mici ca ε2 le ınlocuimcu 0, iar cele care sunt mai mari sau egale cu ε2 le ınlocuim cu ε2. Atunci

σ2 > 0p1 + . . .+ 0pl + ε2pl+1 + . . .+ ε2pn = ε2n∑

i=l+1

pi

Page 63: Teoria Probabilitatii

Variabile aleatoare discrete 63

si deciσ2

ε2>

n∑

i=l+1

pi,

1− σ2

ε26 1−

n∑

i=l+1

pi = P ({|X −m|} < ε),

care este echivalenta cu Inegalitatea (2.5).Daca luam ε = kσ aceasta inegalitate se scrie

P ({|X −m| < kσ}) > 1− 1

k2

sau P ({m− kσ < X < m+ kσ}) > 1− 1

k2. De exemplu, pentru k = 3 obtinem

P ({m− 3σ < X < m+ 3σ}) > 1− 1

9=

8

9.

Deci, cu o probabilitate cuprinsa ıntre8

9si 1, orice variabila ia valori cuprinse ın intervalul

(m− 3σ,m+ 3σ).

Exemplul 2.2.8 Fie

X :

(0, 2 0, 3 0, 4 0, 50, 1 0, 2 0, 3 0, 4

).

Sa se estimeze probabilitatea P ({|X −m| < 0, 2}).Utilizam inegalitatea lui Cebasev cu

P ({|X −m| < 0, 2}) > 1− D2[X]

0, 22.

M [X] = 0, 4, M [x2] = 0, D2[X] = 0, 01. Inlocuim mai sus si obtinem:

P ({|X − 0, 4| < 0, 2}) > 0, 75.

2.3 Exemple de variabile aleatoare discrete simple

1. Repartitia Poisson.Fie X o variabila aleatoare care ia ca valori numarul de bile albe extrase din n urne

Ui, i = 1, n, care contine fiecare, ın proportii diferite, bile albe si negre. Probabilitatea dea extrage o bila alba din urna Ui este pi, iar o bila neagra este qi = 1−pi. Fie Xi, i = 1, n,variabilele aleatoare care iau valoarea 1 daca din urna Ui se extrage o bila alba si 0 dacadin aceeasi urna se extrage o bila neagra.

Xi :

(0 1qi pi

), i = 1, n,

Page 64: Teoria Probabilitatii

64 Variabile aleatoare discrete

M [Xi] = pi.

Cu notatiile introduse, putem scrie

X = X1 +X2 + . . .+Xn =n∑i=1

Xi,

M [X] = M [n∑i=1

Xi] =n∑i=1

M [Xi] =n∑i=1

pi,

D2[X] = D2[n∑i=1

Xi] =n∑i=1

D2[Xi],

deoarece variabilele aleatoare Xi, i = 1, n, sunt independente. Dar

D2[Xi] = M [X2i ]− (M [Xi])

2.

Deoarece

X2i :

(0 1qi pi

),

avemM [X2

i ] = pi,

deci

D2[Xi] = pi − p2i = piqi si D2[X] =

n∑i=1

piqi.

2. Repartitia Bernoulli.Este de fapt repartitia Poisson ın care structurile urnelor Ui, i = 1, n, sunt identice,

adica p1 = p2 = . . . = pn = p, q1 = q2 = . . . = qn = q. Variabila aleatoare corespunzatoareeste

X :

(0 1 2 . . . k . . . n

C0np

0qn C1np

1qn−1 C2np

2qn−2 . . . Cknp

kqn−k . . . Cnnp

nq0

).

Scriem, ın acest caz, X : Bi(n, p). Particularizand schema lui Poisson, obtinem

M [X] = np, D2[X] = npq.

De fapt variabila aleatoare binomiala descrie o experienta ın care un eveniment A serepeta independent de n ori si intereseaza de cate ori s-a realizat ın decursul celor nrepetari. Fie X numarul de realizari ale evenimentului A ın cele n efectuari. Deci X valua valorile 1, 2, 3, . . . n cu probabilitatile P ({X = k}) = Ck

npkqn−k. Figura 2.2 si 2.3 sunt

desenate densitatile de probabilitate generalizate pentru variabila aleatoare binomiala,pentru n = 24, (a) p = 0, 2 si respectiv (b) p = 0.5.

Remarcam ca P ({X = k}) este maxim cand kmax =[(n + 1)p

], unde

[x]

noteaza

partea ıntreaga a lui x. Daca (n + 1)p este ıntreg, atunci maximum este atins ın kmax sikmax − 1.

Page 65: Teoria Probabilitatii

Variabile aleatoare discrete 65

Variabila aleatoare binomiala apare ın aplicatii ın care sunt doua tipuri de situtii:realizari/nerealizari, bit corect/eronat, aparat bun/defect etc.

3. Repartitia hipergeometrica.Fie X variabila aleatoare care ia ca valori numarul de bile albe care se obtin extragand

n bile dintr-o urna care contine a bile albe si b bile negre (n 6 a+b). Tabloul de repartitieal variabilei aleatoare X este

X :

0 1 2 . . . k . . . min{n, a}C0aC

nb

Cna+b

C1aC

n−1b

Cna+b

C2aC

n−2b

Cna+b

. . .CkaC

n−kb

Cna+b

. . .C

min{n,a}a C

n−min{n,a}b

Cna+b

.

Calculam caracteristicile numerice ale variabilei aleatoare X. Avem

M [X] =

min{a,n}∑

k=1

kCkaC

n−kb

Cna+b

=1

Cna+b

k

kCkaC

n−kb = =

1

Cna+b

k

aCk−1a−1C

n−kb =

=a

Cna+b

Cn−1a+b−1 = a

n!(a+ b− n)!

(a+ b)!

(a+ b− 1)!

(n− 1)!(a+ b− n)!=

an

a+ b.

Pentru calculul dispersiei utilizam formula

D2[X] = M [X2]− (M [X])2.

Calculam mai ıntai

M [X2] =∑

k

k2CkaC

n−kb

Cna+b

=∑

k

k(k − 1)CkaC

n−kb

Cna+b

+∑

k

kCkaC

n−kb

Cna+b

;

k

k(k − 1)CkaC

n−kb

Cna+b

=1

Cna+b

k

a(a− 1)Ck−2a−2C

n−kb =

a(a− 1)

Cna+b

Cn−2a+b−2 =

= a(a− 1)n!(a+ b− n)!(a+ b− 2)!

(a+ b)!(n− 2)!(a+ b− n)!=

a(a− 1)n(n− 1)

(a+ b)(a+ b− 1).

De aici rezulta ca

M [X2] =a(a− 1)n(n− 1)

(a+ b)(a+ b− 1)+

an

a+ b=

an

a+ b((a− 1)(n− 1)

a+ b− 1+ 1),

D2[X] =an(an− n+ b)

(a+ b)(a+ b− 1)− a2n2

(a+ b)2=

abn(a+ b− n)

(a+ b)2(a+ b− 1).

si ın cazul schemei bilei neıntoarse, variabila aleatoare hipergeometrica poate fi scrisa subforma unei sume de variabile aleatoare. Sa notam cu X1 numarul de bile albe obtinute laprima extragere, cu X2 numarul de bile albe obtinute la a doua extragere etc. Tabloul derepartitie al variabilei X1 este

X1 :

(0 1q p

).

Page 66: Teoria Probabilitatii

66 Variabile aleatoare discrete

Vom arata ca si celelalte variabile aleatoare Xi, i = 2, n, au aceeasi repartitie. Pentruaceasta calculam probabilitatea obtinerii unei bile albe la extractia de ordin k, atuncicand se fac extrageri fara ıntoarcerea bilei. Numarul cazurilor posibile Aka+b. Numarulcazurilor favorabile coincide cu numarul de moduri ın care pot fi luate k bile astfel ıncatpe locul k sa fie o bila alba. O bila alba poate fi luata ın a moduri.

Celelalte k−1 locuri pot fi ocupate ın Ak−1a+b−1 moduri, ın total aAk−1

a+b−1 cazuri favorabile.Probabilitatea catata va fi deci

aAk−1a+b−1

Aka+b

=a(a+ b− 1)(a+ b− 2) . . . (a+ b− k + 1)

(a+ b)(a+ b− 1) . . . (a+ b− k + 1)=

a

a+ b= p.

Rezulta ca Xk are repartitia

Xk :

(0 1q p

).

Din relatiileX = X1 +X2 + . . .+Xn

siM [X1] = M [X2] = . . . = M [Xn] = p,

rezultaM [X] = np.

Ca si ın cazul repatitiei lui Bernoulli, X se scrie ca o suma de variabile aleatoare avandaceeasi repartitie (

0 1q p

).

Deosebirea este esentiala: ın cazul repartitiei hipergeometrice, variabilele aleatoare nusunt independente. Din aceasta cauza nu putem calcula dispersia variabilei aleatoare Xca suma dispersiilor variabilelor aleatoare Xi.

Teorema 2.3.1 Daca X este o variabila aleatoare repartizata hipergeometric cu parame-trii a+ b, a, n, pentru care

P ({X = k}) =CkaC

n−kb

Cna+b

,

atunci

lima+b→∞

CkaC

n−kb

Cna+b

= Cknp

kqn−k, (2.6)

unde p =a

a+ b, q = 1 − p si deci pentru valori mari ale lui a + b, o variabila alea-

toare repartizata hipergeometric poate fi aproximata cu o variabila repartizata binomiala

Bi(n,a

a+ b).

Demonstratie.

CkaC

n−kb

Cna+b

=a(a− 1) . . . (a− k + 1)

k!·

Page 67: Teoria Probabilitatii

Variabile aleatoare discrete 67

·b(b− 1) . . . (b− n+ k − 1)

(n− k)!· n!

(a+ b) . . . (a+ b− n+ 1)=

=n!

k!(n− k)!

a(a− 1) . . . (a− k + 1)b(b− 1) . . . (b− n+ k − 1)

(a+ b) . . . (a+ b− n+ 1)=

= Ckn

a

a+ b

a− 1

a+ b. . .

a− k + 1

a+ b

b

a+ b

b− 1

a+ b. . .

b− n+ k − 1

a+ b·

· (a+ b)n

(a+ b) . . . (a+ b− n+ 1)= Ck

np(p−1

a+ b) . . . (p− k − 1

a+ b)·

·q(q − 1

a+ b) . . . (q − n− k + 1

a+ b)

(a+ b)n

(a+ b) . . . (a+ b− n+ 1).

Trecand la limita obtinem (2.6).

Exemplul 2.3.1 Sa se arate ca daca X,Y sunt doua variabile aleatoare independente,X : Bi(n, p), Y : Bi(m, p) atunci X + Y : Bi(n+m, p).

P ({X + Y = k}) =k∑

l=0

P ({X = l, Y = k − l}) =k∑

l=0

C lnp

lqn−lCk−lm pk−lqm−k+l =

= (k∑

l=0

C lnC

k−lm )pkqn+m−k = Ck

m+npkqn+m−k.

2.4 Variabile aleatoare discrete simple bidimensiona-

le

In aplicatiile practice ale teoriei probabilitatilor se ıntalnesc adesea probleme ın carerezultatele nu pot fi descrise de o variabila aleatoare, ci de doua sau mai multe, eleformand un vector aleator.

De exemplu, ıntr-un anumit experiment ne intereseaza sa masuram atat viteza cat sidirectia particulelor atomice emise de o suprafata. Acestea sunt date de perechile (v, θ),unde θ este marimea unghiului orientat ın raport cu sistemul de referinta si v viteza.Acestea pot fi studiate ca un vector aleator.

Orice variabila aleatoare discreta simpla bidimensionala (X, Y ) se considera ca unvector aleator de componente X si Y .

Daca vectorul aleator (X, Y ) ia un numar finit de valori, se poate obtine urmatoarultablou numit repartitia bidimensionala sau tablou de repartitie bidimensional.

X \ Y y1 y2 . . . ynx1 p11 p12 . . . p1n p1·x2 p21 p22 . . . p2n p2....

......

......

...xm pm1 pm2 . . . pmn pm.

p.1 p.2 . . . p.n 1

Page 68: Teoria Probabilitatii

68 Variabile aleatoare discrete

Variabilele aleatoare :

X :

(xipi.

), i = 1,m, Y :

(yjp.j

), j = 1, n,

se numesc legi de probabilitate marginala pentru vectorul bidimensional (X, Y ).Din faptul ca evenimentele {e ∈ E | X(e) = xi, Y (e) = yj}, i = 1,m, j = 1, n,

formeaza un sistem complet de evenimente, rezulta ca

m∑i=1

n∑j=1

pij = 1,

unde

pij = P ({e ∈ E | X(e) = xi, Y (e) = yj}).Am notat

n∑

k=1

pik = pi., i = 1,m,m∑

k=1

pkj = p.j, j = 1, n,

cantitati care se numesc probabilitati marginale. Ca si ın cazul variabilelor aleatoareunidimensionale, rezulta ca

P ({X = xi}) =n∑j=1

pij = pi.,

P ({Y = yj}) =m∑i=1

pij = p.j.

Notam cu P ({xi|yj}) probabilitatea conditionata:

P ({xi|yj}) = P ({X = xi} | {Y = yj}) .

si atunci avem

P ({xi|yj}) =P ({X = xi}| ∩ {Y = yj})

P ({Y = yj}) =pijp.j. (2.7)

Analog:

P ({yj|xi}) =pijpi..

Daca ınmultim relatia (2.7) cu P ({Y = yj}) obtinem

P ({X = xi} ∩ {Y = yj}) = P ({xi|yj})P ({Y = yj}),

adica am exprimat pij ca un produs dintre o probabilitate conditionata si o probabilitatemarginala. Analog se obtine

P ({X = xi} ∩ {Y = yj}) = P ({yj|xi})P ({X = xi}),

Page 69: Teoria Probabilitatii

Variabile aleatoare discrete 69

Presupunem ca ne intereseaza ca Y sa ia valori ıntr-o regiune A,

P{Y ∈ A} =∑xi

∑yj∈A

P ({X = xi} ∩ {Y = yj}) =

=∑xi

∑yj∈A

P ({yj|xi})P{X = xi} =∑xi

P{X = xi}∑yj∈A

P ({yj|xi})(2.8)

Daca evenimentele {X = xi} si {Y = yj} sunt independente, deci variabilele aleatoareX si Y sunt independente, atunci pij = pi.p.j si reciproc.

Deoarece evenimentul

({Y = y1}|{X = xi}) ∪ ({Y = y2}|{X = xi}) ∪ . . . ({Y = yn}|{X = xi}) =

= E|{X = xi}rezulta ca

n∑j=1

P ({yj|xi) = 1}.

La felm∑i=1

P ({xi|yj) = 1}.

Observatie. Putem atasa vectorului aleator (X, Y ) tabloul de repartitie dat de legile deprobabilitate conditionata :

X|{Y = yj} :

(x1 x2 . . . xi . . . xmp1j

p.j

p2j

p.j. . .

pijp.j

. . .pmjp.j

),

si respectiv

Y |{X = xi} :

(y1 y2 . . . yi . . . ympi1pi.

pi2pi.

. . .pijpi.

. . .pinpi.

).

Deci avem n legi conditionate ale variabilei aleatoare X corespunzatoare celor n valoriale variabilei aleatoare Y si respectiv m legi de probabilitate ale variabilei aleatoare Yconditionate de cele m valori ale lui X.

Exemplul 2.4.1 Numarul bitilor, N , dintr-un mesaj transmisi corect este o variabilaaleatoare care urmeaza o repartitie geometrica cu parametrul p. Presupunem ca mesa-jul este ımpartit ın pachete de maximum M biti lungime. Fie Q numarul pachetelorcomplete formate cu bitii unui mesaj si R numarul bitilor ramasi ın ultimul pachet carepoate fi incomplet. Sa se calculeze probabilitatea ca mesajul transmis sa contina q pachetecomplete, iar ultimul pachet sa contina r biti. Notam cu Y variabila aleatoare care ia cavalori numarul de pachete complete dintr-un mesaj si cu Z variabila aleatoare care ia cavalori numarul R de biti incompleti din ultimul pachet.

Page 70: Teoria Probabilitatii

70 Variabile aleatoare discrete

Daca mesajul are N biti, atunci numarul pachetelor complete din mesaj este catulQ a ımpartirii lui N la M , iar restul este numarul R al bitilor din ultimul pachet, N =MQ + R. Variabila aleatoare Y ia valorile 0, 1, 2, . . . iar variabila aleatoare Z ia valorile0, 1, 2, . . . ,M−1. Asociat acestui eveniment consideram variabila aleatoare bidimensionaa(Y, Z). Probabilitatea ca mesajul corect sa contina q pachete complete si ultimul pachetsa contina r biti este data de

P ({Y = q, Z = r}) = P ({X = N}) = pqM+r(1− p),

unde N = qM + r. Probabilitatea ca mesajul transmis sa contina q pachete complete

P ({Y = q}) = P ({X ∈ {qM, qM + 1, . . . , qM + (M − 1)}}) =

=M−1∑

k=0

pqM+k(1− p) = (1− p)pqM 1− pM1− p = (1− pM)(pM)q, q = 0, 1, . . . .

Observam ca variabila aleatoare Y urmeaza o repartitie geometrica cu parametrul pM .Probabilitatea ca ultimul pachet sa contina r biti este

P ({Z = r}) = P ({X ∈ {r,M + r, 2M + r, . . .}}) =∞∑q=0

(1− p)pqM+r =

=1− p

1− pM pr, r = 0, 1, 2, . . . ,M − 1

Observam ca variabila aleatoare Z urmeaza o repartitie geometrica trunchiata.Ne punem ıntrebarea daca sunt variabilele aleatoare Y si Z independente. Avem:

P ({Y = q})P ({Z = r}) = (1− pM)(pM)q1− p

1− pM pr =

=1− p

1− pM pr = P ({Y = q})P ({Z = r}), ∀q = 0, 1, . . . , r = 0, 1, . . . ,M − 1.

Variabilele aleatoare Y si Z sunt independente.

2.5 Variabile aleatoare cu un numar infinit numara-

bil de valori

Daca A1, A2, . . . , An, . . . constituie un sistem numarabil de evenimente care formeazadomeniul de definitie al unei astfel de variabile aleatoare cu P (An) = pn, n ∈ IN , atuncitabloul de repartitie al variabilei aleatoare este

X :

(x1 x2 . . . xn . . .p1 p2 . . . pn . . .

),

Ai = {e ∈ E,X(e) = xi}.

Page 71: Teoria Probabilitatii

Variabile aleatoare discrete 71

Un astfel de tabel trebuie sa aiba proprietatile:

pi > 0, ∀i ∈ IN ;∞∑i=1

pi = 1.

Operatiile cu variabile cu un numar infinit numarabil de valori se definesc ca si ın cazulvariabilelor aleatoare discrete simple. La fel se pune problema si ın cazul independenteivariabilelor aleatoare cu un numar infinit numarabil de valori.

Page 72: Teoria Probabilitatii

72 Variabile aleatoare discrete

Repartitia Poisson.Spunem ca variabila aleatoare X este repartizata Poisson cu paramatru λ, λ ∈ IR+,

daca tabloul sau de repartitie este

X :

(0 1 2 . . . k . . .

e−λ λ1!e−λ λ2

2!e−λ . . . λk

k!e−λ . . .

).

Folosim notatia

P (k;λ) =λk

k!e−λ.

Evident P (k;λ) > 0 si

∞∑

k=0

λk

k!e−λ = e−λ

∞∑

k=0

λk

k!= e−λeλ = 1.

In Figura 2.4 desenam densitatea de probabilitate generalizata pentru valorea lui λ = 9.Proprietati ale repartitiei Poisson.

P1. Media repartitiei Poisson este aceeasi cu dispersia repartitiei si egala cu λ.

Intr-adevar,

M [X] =∞∑

k=0

kλk

k!e−λ = λ

∞∑

k=1

kλk−1

(k − 1)!e−λ = λ.

Pentru calculul dispersiei folosim formula D2[x] = M [x2]− (M [X])2.

M [X2] =∞∑

k=1

k2λk

k!e−λ =

∞∑

k=2

(k2 − k)λk

k!e−λ +

∞∑

k=1

k2λk

k!e−λ =

= λ2

∞∑

k=2

k2 λk−2

(k − 2)!e−λ + λ = λ2 + λ

D2[X] = λ2 + λ− λ = λ.

P2. Suma a doua variabile aleatoare independente repartizate Poisson de parametrii λ1

si respectiv λ2 este o variabila aleatoare repartizata Poisson de parametru λ1 + λ2.

Intr-adevar{X1 +X2 = k} =

= {X1 = 0, X2 = k} ∪ {X1 = 1, X2 = k − 1} ∪ . . . ∪ {X1 = k,X2 = 0},deci

P ({X1 +X2 = k}) =k∑

k1=0

P ({X1 = k1, X2 = k − k1}) =

k∑

k1=0

P ({X1 = k1})P ({X2 = k − k1}) =k∑

k1

λk11

k1!e−λ1

λk−k12

(k − k1)!e−λ2 =

=e−(λ1+λ2)

k!

k∑

k1=0

k!

k1!(k − k1)!λk1

1 λk−k12 =

e−(λ1+λ2)

k!(λ1 + λ2)k.

Page 73: Teoria Probabilitatii

Variabile aleatoare discrete 73

P3. Repartitia Poisson se obtine ca un caz limita a repartitiei binomiale cand n → ∞si p scade astfel ıncat np = λ = const.(ın general, n > 30, p ∈ (0; 0, 1)).

Repartitia Poisson a aparut odata cu studiul variabilelor aleatoare cu un numarfoarte mare de valori. Exemple clasice de astfel de variabile aleatoare sunt celelegate de evenimentele care apar rar ıntr-un interval de timp, ca de exemplu:

- numarul de particule emise de o suprafata radioactiva ıntr-un interval de timp;

- numarul accidentelor dintr-o fabrica ın decurs de o saptamana;

- numarul masinilor care trec printr-un anumit loc ıntr-un interval de timp;

- numarul cererilor de I/O la o retea de calculatoare ıntr-un interval de timp.

Toate aceste procese se numesc Poisson si ele vor fi studiate ın Capitolul 5. Inaceste cazuri λ este proportionala cu durata intervalului de timp (adica λ = tw, w

coeficient de proportionalitate). Parametrul w =λ

tse mai numeste parametru de

intensitate, reprezentand media numarului de evenimente care se produc ın unitateade timp.

P4. Deoarece repartitia Poisson se ıntalneste ın cazul evenimentelor care se ıntımplarar (n mare, np = constant, rezulta p mic), ea mai poarta denumirea de legeaevenimentelor rare.

Observatia 2.5.1 Repartitia Poisson permite calculul probabilitatii ca un numar de par-ticule sa fie emise de o masa radioactiva intr-un interval de timp. Presupunem ca masaradioactiva contine n atomi. Intr-o perioada fixata de timp fiecare atom are o proba-bilitate p foarte mica de dezintegrare si emitere a particulei radioctive. Daca atomii sedezinegreaza independent unii de altii, atunci numarul emisiilor ıntr-un interval de timppoate fi privit ca efectuarea repetata de n ori a unui acelasi eveniment. De exemplu, unmicrogram de radiu contine aproximativ n = 1016 atomi si probabilitatea ca un atom sase dezintegreze ıntr-un interval de timp de o milisecunda este p = 10−15 (Rozanov, 1969).Astfel sunt ındeplinite conditiile din Proprietatea P3: n mare si p mic astfel ıncat numarulemisiilor urmaeza o variabila aleatoare repartizata Poisson.

Teorema 2.5.1 Daca X urmeaza o repartitie binomiala,

P ({X = k}) = Cknp

kqn−k,

atunci

limn→∞

Cknp

kqn−k =λk

k!e−λ,

unde np = λ = const.

Demonstratie.

limn→∞

Cknp

kqn−k = limn→∞

n(n− 1) . . . (n− k + 1)

k!(λ

n)k(1− λ

n)n−k =

Page 74: Teoria Probabilitatii

74 Variabile aleatoare discrete

=λk

k!limn→∞

n(n− 1) . . . (n− k + 1)

nk(1− λ

n)n−k =

λk

k!e−λ.

Pentru calculul probabilitatilor P (k, λ) s-au ıntocmit tabele pentru λ cuprins ıntre0, 1, . . . , 20. Aceste tabele dau probabilitatile ca evenimentele sa se realizeze de cel putinm ori.

P ({X > m}) =∞∑

k=m

λk

k!e−λ.

Teorema 2.5.1 ne permite sa aproximam probabilitatile unei repartitii binomiale.

Exemplul 2.5.1 Probabilitatea de eroare la transmiterea unui bit printr-o linie de comunicatieeste de 10−3. Sa se calculeze probabilitatea ca la transmiterea unui bloc de 1000 de bitisa avem cinci sau mai mult de cinci erori.

Transmiterea fiecarui bit reprezinta o experienta Bernoulli care se realizeaza daca s-aprodus o eroare la transmiterea bitului. Probabilitatea ca sa se produca k erori ın 1000de transmisii este data de probabilitatea calculata cu legea binomiala cu n = 1000 sip = 10−3. Legea Poisson cu parametrul λ = np = 1000 · 10−3 = 1 aproximeaza legeabinomiala. Astfel

P [N > 5] = 1− P [N < 5] = 1−4∑

k=0

λk

k!e−α = 1− e−1

{1 +

1

1!+

1

2!+

1

3!+

1

4!

}= 0, 00366

Exemplul 2.5.2 O fabrica produce becuri si da 2 % rebut. Sa se aproximeze probabili-tatea ca ıntr-o cutie de 100 de becuri sa obtinem cel mult trei becuri defecte?

Presupunand indepependenta, avem de-a face cu o variabila aleatoare repatizata bino-mial cu p = 0, 02 si n = 100. Daca dorim sa calculam probabilitatea cu ajutorul schemeibinomiale, dupa calcule laborioase obtinem

3∑

k=0

Ck100(0, 2)k(0, 98)100−k = 0, 859.

Daca aproximam X cu o variabila aleatoare repartizata Poisson, λ = 100× 0, 02 = 2,

3∑

k=0

2ke−2

k!= 0, 857.

Urmatorul exemplu justifica trecerea la limita si alegerea parametrului λ.

Exemplul 2.5.3 Un generator de particule emite particule ın unitatea de timp. Careeste probabilitatea ca ın intervalul t sa apara k impulsuri ?

Pentru n suficient de mare ımpartim [0, t] ın intervale de lungimet

n, ıncat ın fiecare

interval sa existe cel mult un impuls. Probabilitatea ca ıntr-un interval de timp de lungimet

nsa fie ınregistrat un impuls este ≈ w

t

n= p (se observa ca

wt

n−→ 0, pentru n→∞,

Page 75: Teoria Probabilitatii

Variabile aleatoare discrete 75

ceea ce justifica ınca o data denumirea de eveniment rar). Probabilitatea ca ın intervalul[0, t] sa fie ınregistrate k impulsuri este data de schema lui Bernoulli

Ckn(wt

n)k(1− wt

n)n−k −→ (wt)k

k!e−wt pentru n→∞ cu λ = wt.

Repartitia geometrica.Spre deosebire de variabila aleatoare binomiala care apare cand fixam un numar de

repetari ale unei experiente care poate consta ın realizarea sau nerealizarea evenimentuluiA si numaram numarul de realizari ale acestuia, ın cazul variabilei geometrice numaramnumarul m de efectuari ale experientei (experiente de tip Bernoulli, adica independentesi repetate ın aceleasi conditii) pana la prima realizare a evenimentului A. In acest cazvariabila aleatoare X ia valorile X = k, k = 1, 2, . . . ,m, . . . si avem

P ({X = k}) = pqk−1, q = 1− p, k = 1, 2, 3, . . . ,

unde P (A) = p este probabilitatea de realizare a evenimentului A.In acest caz

F (k) = P ({X < k}) =k−1∑j=1

pqj−1 = p

k−2∑

j′=0

pqj′= p

1− gk−1

1− q = 1− qk−1,

unde q = 1− p.Uneori ne intereseaza M ′ = M−1, numarul de repetari ale experientei pana la reusita

ei:P [M ′ = k] = P [M = k + 1] = (1− p)kp, k = 0, 1, 2, . . .

Variabila aleatoare X va lua valoarea 1 daca evenimentul se realizeaza ın cadrul primeiexperiente si deci P ({X = 1}) = p; X va lua valoarea 2 daca evenimentul A nu s-a realizatla prima experienta, dar se realizeaza la a doua experienta, P ({X = 2}) = P (A ∩ A) =P (A)P (A) = (1−p)p = qp. Analog, P ({X = 3}) = P (A∩A∩A) = P (A)P (A)P (A) = q2petc. Avem, evident

∞∑

k=1

P ({X = k}) =∞∑

k=1

pqk−1 = p1

1− q = 1.

Calculam media si dispersia variabilei aleatoare.

M [X] =∞∑

k=1

kpqk−1 = p

∞∑

k=1

kqk−1 = pd

dq(∞∑

k=1

qk) =

= pd

dq[q

1− q ] =p

(1− q)2=

1

p,

tinand seama de proprietatile seriilor de puteri pentru |q| < 1.

D2[X] = M [X2]− (M [X])2,

Page 76: Teoria Probabilitatii

76 Variabile aleatoare discrete

M [X2] =∞∑

k=1

k2pqk−1 = p

∞∑

k=1

k2qk−1 = pd

dq

∞∑

k=1

kqk =

= pd

dq[

q

(1− q)2] = p

2− pp3

=2− pp2

,

si deci

D2[X] =2− pp2− 1

p2=

q

p2.

In Figura 2.5 a) si b) desenam densitatea de probabilitate generalizata pentru diferitevalori ale lui p.

Exemplul 2.5.4 Calculatorul A transmite un mesaj calculatorului B printr-o linie tele-fonica. Mesajul este codat astfel ıncat B detecteaza cand se produc erori ın cursul transmi-terii mesajului. Daca B detecteaza o eroare cere calculatorului A retransmiterea mesaju-lui. Daca probabilitatea ca transmiterea mesajului sa fie eronata este q = 0, 1, care esteprobabilitatea ca mesajul sa necesite mai mult de doua transmisii.

Fiecare transmitere a mesajului urmeaza o repartitie binomiala cu probabilitatea camesajul sa fie corect p = 1 − q. Experientele se repeta pana cand prima transmisie estecorecta. Probabilitatea ca mesajul sa necesite mai mult de doua transmisii este

P ({X > 2}) = q2 = 10−2.

Exemplul 2.5.5 Fie N numarul de apeluri pe care le face un calculator spre un terminalpana cand terminalul are un mesaj gata de a fi transmis. Daca presupunem ca terminalulproduce mesaje care formeaza un sir de experiente care urmeaza legea binomiala, atunciN are o repartitie geometrica. Aflati media variabilei aleatoare care ia ca valori numarulde apeluri. Presupunem p = 0, 4.

M [X = N ] =∞∑

k=1

kpqk−1 =1

p= 2, 5

Aceasta nu este o valoare pe care o poate lua N . Afirmatia ”N este egala cu 2.5 ın medie”nu are sens. Sensul afirmatiei este ca media aritmetica a unui numar mare de experienteva fi aproape de 2.5.

Repartitia binomiala cu exponent negativ.Se spune ca variabila aleatoare X are repartitie binomiala cu exponent negativ, cu

parametrii m si p, (m = 1, 2, . . . , 0 < p < 1), daca X poate lua valorile m,m+1,m+2, . . .iar

P ({X = k}) = Cm−1k−1 p

mqk−m, q = 1− p.Acesta repartitie apare ın modele de tipul urmator: sa presupunem ca s-a efectuat

un numar de observatii independente, ın cursul fiecarei observatii evenimentul A (deexemplu nefunctionarea unui subansamblu al unui aparat) poate sa se produca cu proba-bilitatea p. Observatiile continua pana cand evenimentul se produce de m ori si se cautaprobabilitatea pentru ca aceasta sa se produca exact ın decursul a k observatii (k > m).

Page 77: Teoria Probabilitatii

Variabile aleatoare discrete 77

Evenimentul {X = k} se scrie ca intersectie a doua evenimente: ın primele k−1 observatiievenimentul A se produce de m− 1 ori si ın observatia k se produce evenimentul A. Dinschema lui Bernoulli se deduce ca probabilitatea primului eveniment este Cm−1

k−1 pmqk−m

iar probabilitatea celui de-al doilea eveniment este egala cu p. Deci

P ({X = k}) = pCm−1k−1 p

m−1qk−m = Cm−1k−1 p

mqk−m.

Numele acestei repartitii provine din faptul ca probabilitatea cautata este coeficientın dezvoltarea ın serie a lui

(1

p− q

p)−m = pm(1− q)−m = pm

∞∑

k=m

Cm−1k−1 q

k−m =∞∑

k=m

Cm−1k−1 p

mqk−m.

Observam ca definirea acestei variabile aleatoare este corecta deoarece P ({X = k}) >0 si

∞∑

k=m

Cm−1k−1 p

mqk−m = 1.

Pentru a calcula media tinem seama ca (1− x)−m =∞∑

k=m

Cm−1k−1 x

k−m si deci

xm

(1− x)m=

∞∑

k=m

Cm−1k−1 x

k daca |x| < 1, (2.9)

∞∑

k=m

Cm−1k−1 x

k−1 =d

dx(

xm

(1− x)m) =

mxm−1

(1− x)m+1daca |x| < 1,

adica

M [X] =∞∑

k=m

kCm−1k−1 p

mqk−m = pmq−m+1

∞∑

k=m

kCm−1k−1 q

k−1 = pmq−m+1mqm−1

pm+1=m

p,

M [X] =m

p.

Pentru calculul dispersiei folosim

M [X2] =∞∑

k=m

k2Cm−1k−1 p

mqk−m = pmq−m+1

∞∑

k=m

k2qk−1.

Pentru a calcula ultima suma ınmultim (2.9) cu x si derivam

∞∑

k=m

k2Cm−1k−1 x

k−1 =d

dx[

mxm

(1− x)m+1] =

mxm−1(m+ x)

(1− x)m+2,

deci

M [X2] =m(m+ q)

p2,

iarD2[X] =

mq

p2.

Page 78: Teoria Probabilitatii

78 Variabile aleatoare discrete

2.6 Functia generatoare

In problemele ın care apar variabile aleatoare nenegative se utilizeaa functia genera-toare a variabilei aleatoare X, GX(z) care se defineste prin relatia

GX(z) =∞∑

k=0

pkzk, (2.10)

unde P ({X = k}) = pk, k = 0, 1, 2, . . .. Deci cunoscand probabilitatile pk putem deter-

mina functia generatoare. Deoarece∞∑

k=0

pk = 1, seria de puteri (2.10) converge pentru

|z| 6 1. Pentru |z| < 1 seria de puteri se poate deriva terman cu termen si obtinem:

G(j)X (z) =

∞∑

k=j

n(n− 1) . . . (n− j + 1)pjz(n−k) =

∞∑

k=j

Cjnj!pjz

(n−k).

Daca ın relatia de mai sus facem z = 0 obtinem

G(j)X (0) = j!pj sau pj =

1

j!G

(j)X (0).

Aceasta ne arata ca putem determina toate probabilitatile pk cu ajutorul functiei genera-toare. Din acesta cauza G

(j)X se numeste functie generatoare. In particular, punand z = 1

ın G′X si ın G′′X obtinem:

M [X] = G′X(1), M [X2] = G′X(1) +G′′X(1).

Exemplul 2.6.1 Functia generatoare pentru variabila aleatoare Poisson cu parametru λeste data de

GX(z) =∞∑

k=0

λk

k!e−λzk = e−λ

∞∑

k=0

(λz)k

k!= e−λeλz = eλ(z−1).

Primele doua derivate ale lui GX(z) sunt date de

G′X(z) = λeλ(z−1); G′′X(z) = λ2eλ(z−1).

De aici rezulta media si dispersia variabilei aletoare Poisson

M [X] = λD2[X] = λ2 + λ− λ2 = λ.

Page 79: Teoria Probabilitatii

Variabile aleatoare discrete 79

2.7 Probleme propuse

Problema 2.1 Se defineste variabila aleatoare

X :

( −1 0 11/3 1/3 1/3

).

Sa se scrie tabloul de repartitie al variabilelor aleatoare X2, X +X2, X +X3.

Indicatie. P ({X2 = 0}) = P ({X = 0}) = 1/3, P ({X2 = 1}) = P ({X = 1} ∪ {X =−1}) = 1/3 + 1/3 = 2/3.

X2 :

(0 1

1/3 2/3

).

X +X2 :

( −1 0 1 20 1/3 0 2/3

).

X +X3 :

( −2 −1 0 1 21/3 0 1/3 0 1/3

).

Problema 2.2 Fie

X :

(0 1 2 3 4

0, 15 0, 45 0, 20 0, 15 0, 05

).

Sa secalculeze:a) valoarea medie a variabilei aleatoare X si momentul initial de ordin 2;b) dispersia;c) momentul centrat de ordin 3.

Indicatie.

a) M [X] =5∑1

xipi = 1, 5, M [X2] =5∑1

x2i pi = 3, 4.

b) Notam m = M [X] = 1, 5, D2[X] = M [(X −m)2].

X −m :

( −1, 5 −0, 5 0, 5 1, 5 2, 50, 15 0, 45 0, 20 0, 15 0, 05

).

X −m :

(0, 25 2, 25 6, 250, 65 0, 30 0, 05

).

D2[X] = M [(X −m)2] = 1, 15 sau D2[X] = M [X2]− (M(X))2.

b) M [(X −m)3] =5∑1

(xi −m)3pi,

(X −m)3 :

((−1, 5)3 (−0, 5)3 (0, 5)3 (1, 5)3 (2, 5)3

0, 15 0, 45 0, 20 0, 15 0, 05

).

astfel ıncat M [(X −m)3] = 0, 75.

Problema 2.3 Fie X o variabila aleatoare repartizata binomial.

Page 80: Teoria Probabilitatii

80 Variabile aleatoare discrete

a. Sa se atate capkpk−1

=(n− k + 1)p

kq= 1 +

(n+ 1)p− kkq

b. Sa se atate ca a. implica:(1) P ({X = k}) este maxima pentru kmax = [(n+1)p], unde[x] este partea ıntreaga a lui x; (2) daca (n + 1)p este un ıntreg, atunci maximumeste atins ın kmax si kmax − 1.

Indicatie. b. Impunem conditiile pk/pk−1 > 1, pk+1/pk < 1.

Problema 2.4 Fie X o variabila aleatoare repartizata geometric. Sa se calculezeP ({X > k}) si P ({Xeste un numar par}).

Indicatie. P ({X > k}) = 1− P ({X < k})− P ({X = k}) = 1− (1− qk−1)pqk−1 = qk;

P( ∞∑

k=1

{X = 2k}) =∞∑

k=1

P ({X = 2k}) =∞∑

k=1

pq2k−1 =p

1− q2=

1

1 + q.

Problema 2.5 Sa se arate ca variabila aleatoare geometrica are proprietatea de pier-dere a memoriei

P ({X > k + j|X > j}) = P ({X > k}), ∀j, k > 0

In ce sens are loc pierdera memoriei?

Indicatie. P ({X > k + j}|{X > j}) =P((X > k + j) ∩ (X > j)

)

P ({X > j}) = qk. Pierderea

memoriei are loc ın sensul ca probabilitatea realizarii unui eveniment, legat de o experi-enta Bernoulli, dupa k + j − 1 nerealizari, stiind ca nu s-a realizat dupa j efectuari aleexperientei, depinde numai de k.

Problema 2.6 Fie X o variabila aleatoare repartizata geometric. Sa se calculezeP ({X = k |X 6 m}).

Indicatie. qk−1p/(1− qm), 1 6 k 6 m.

Problema 2.7Fie X o variabila aleatoare repartizata binomial.

a. Sa se atate capkpk−1

=(n− k + 1)p

kq= 1 +

(n+ 1)p− kkq

b. Sa se atate ca a. implica:(1) P ({X = k}) este maxima pentru kmax = [(n+1)p], unde[x] este partea ıntreaga a lui x; (2) daca (n + 1)p este un ıntreg, atunci maximumeste atins ın kmax si kmax − 1.

Indicatie. b. Impunem conditiile pk/pk−1 > 1, pk+1/pk < 1.

Problema 2.4 Fie X o variabila aleatoare repartizata geometric. Sa se calculezeP ({X > k}) si P ({Xeste un numar par}).

Indicatie. P ({X > k}) = 1− P ({X < k})− P ({X = k}) = 1− (1− qk−1)pqk−1 = qk;

P( ∞∑

k=1

{X = 2k}) =∞∑

k=1

P ({X = 2k}) =∞∑

k=1

pq2k−1 =p

1− q2=

1

1 + q.

Page 81: Teoria Probabilitatii

Variabile aleatoare discrete 81

Problema 2.8 Comparati aproximatia obtinuta cu variabila Poisson cu probabilitateabinomiala pentru k = 0, 1, 2, 3 si n = 19, p = 0, 1; n = 20, p = 0, 05; n = 100, p = 0, 01.

Problema 2.9 Fie X o variabila aleatoare repartizata Poisson. Sa se arate ca pentruλ < 1, P ({X = k}) este maxim ın k = 0; pentru λ > 1, P ({X = k}) este maximum pentru[λ]; daca λ este ıntreg pozitiv, P ({X = k}) este maximum pentru λ = k si k = λ− 1.

Problema 2.10 Calculati media si dispersia unei variabile aleatoare discrete care iavalorile {1, 2, . . . , n} cu aceeasi probabilitate.

Indicatie. P ({X = k}) =1

n, k = 1, 2, ..., n..

Problema 2.11 Sa se calculeze probabilitatile marginale pentru urmatorii vectorialeatori bidimensionali:

X \ Y −1 0 1-1 1/6 0 1/60 0 1/3 01 1/6 0 1/6

X \ Y −1 0 1-1 1/9 1/9 1/90 1/9 1/9 1/91 1/9 1/9 1/9

X \ Y −1 0 1-1 0 0 1/30 0 1/3 01 1/3 0 0

Sa se calculeze probabilitatile evenimentelor A = {X 6 0}, B = {x 6 Y } si C ={X = −Y }.

Indicatie. In toate cazurile P ({X = −1}) = P ({X = 0}) = P ({X = 1}) = 1/3,P ({Y = −1}) = P ({Y = 0}) = P ({Y = 1}) = 1/3.

Problema 2.12 Un mesaj necesita X unitati de timp pentru a fi transmis, unde Xeste o variabila aleatoare repartizata geometric cu pj = (1 − α)αj−1, j = 1, 2, . . .. Unsingur nou mesaj este transmis ıntr-o unitate de timp cu probabilitatea p si nici un mesajcu probabilitatea 1− p. Fie K numarul de mesaje noi care apar de-a lungul transmiteriiunui singur mesaj. Sa se calculeze probabilitatea P ({X = k}). Sa se calculeze M [X] siD2[X].

Indicatie. P ({X = k}) =(1− α)

α(1− α(1− p))(pα

1− α(1− p))k.

Problema 2.13 Numarul total de defecte care apar la un circuit urmeaza o distributiePoisson cu parametrul λ. Presupunem ca fiecare defect apare ıntr-o anumita regiune Rcu probabilitatea p si ca aparitia unui defect este independenta de aparitia altor defecte.Sa se determine probabilitatea ca numarul de defecte Y care apar ın regiunea R sa fie j.

Indicatie. Folosind ecuatia (2.8) avem

P ({Y = j}) =∞∑

k=0

P ({Y = j/X = k})P ({X = k}).

Page 82: Teoria Probabilitatii

82 Variabile aleatoare discrete

Defectele care apar ın fiecare moment pot fi considerate ca experiente Bernoulli care serealizeaza cu succes daca defectul este ın regiunea R. Daca numarul total de defecte esteX = k, atunci numarul de defecte care apar ın regiunea R urmeaza o repartitie Bernoullide parametrii k si p:

P ({Y = j|X = k}) = Cjkp

j(1− p)k−j, 0 6 j 6 k.

Atunci

P ({Y = j}) =∞∑

k=j

k!

j!(k − j)!pj(1− p)k−j λ

k

k!e−λ =

=(λp)je−λ

j!

∞∑

k=j

((1− p)λ)k−j

(k − j)! =(λp)je−λ

j!e(1−p)λ =

(λp)j

j!e−λp.

Astfel Y este o variabila aleatoare repartizata Poisson cu media λp.

Page 83: Teoria Probabilitatii

Capitolul 3

Variabile aleatoare continue

3.1 Functia de repartitie a unei variabile aleatoare

unidimensionale

In cele ce urmeaza {E,K, P} este un camp borelian de probabilitate, notiune care afost definita ın Capitolul 1.8.

Definitia 3.1.1 Functia X : E→IR se numeste variabila aleatoare daca

∀x ∈ IR, {e ∈ E|X(e) < x} ∈ K. (3.1)

Pentru simplificare vom nota {X < x} = {e ∈ E|X(e) < x}. Aceasta conditie are loctotdeauna ın cazul unei variabile aleatoare discrete (alegand eventual un camp borelianconvenabil). Din definitie si din proprietatile lui K (de a fi ınchis la complementara,reuniuni si intersectii numarabile), fiecare din multimile

{X 6 x}, {X > x}, {X > x}, {a 6 X < b},{a < X 6 b}, {a < X < b}, {a 6 X 6 b}, ∀x, a, b ∈ IR, (3.2)

apartine lui K, daca (3.1) are loc si reciproc, apartenenta la K a oricarei multimi (3.2)implica (3.1). Pentru exemplificare, sa demonstram ca pentru orice x ∈ IR, urmatoareledoua afirmatii sunt echivalente:

i. {X < x} ∈ K;ii.{X 6 x} ∈ K.Sa demonstram (i)⇒ (ii). Putem scrie

{X 6 x} =∞⋂n=1

{X < x+ 1/n}.

Din (i) avem {X < x + 1/n} ∈ K si din faptul ca familia K este ınchisa la intersectiinumarabile, rezulta ca {X 6 x} ∈ K.

Pentru implicatia (ii)⇒ (i), observam ca

{X < x} =∞⋃n=1

{X 6 x− 1/n},

83

Page 84: Teoria Probabilitatii

84 Variabile aleatoare continue

iar {X 6 x − 1/n} ∈ K. Echivalenta {X < x} ∈ K ⇔ {X > x} ∈ K, ∀x ∈ R, rezultadin faptul ca {X 6 x} = {X > x} si axioma a) din definitia campului borelian.

Exemplul 3.1.1 Daca E = IR, iar K este cel mai mic corp borelian ce contine toateintervalele (a, b), ∀a, b ∈ IR, elementele lui K se numesc multimi boreliene. Orice functief : IR → IR continua este o variabila aleatoare, deoarece contraimaginea unei multimideschise este o multime deschisa. Se poate demonstra ca acest rezultat se pastreaza si ıncazul multimilor boreliene (contraimaginea unei multimi boreliene este boreliana).

Urmatoarele propozitii ne arata ca operatiile uzuale cu functii, aplicate variabilelor alea-toare, au ca rezultat tot variabile aleatoare.

Propozitia 3.1.1 Fie X o variabila aleatoare si c ∈ IR, atunci urmatoarele functii:

1. X + c;

2. cX;

3. |X|;4. X2;

5. 1/X;

sunt variabile aleatoare.

Demonstratie. Vom transforma convenabil relatia (3.1) ın fiecare caz si vom folosi faptulca X este variabila aleatoare.

1.{X + c < x} = {X < x− c} ∈ K, ∀x ∈ IR.

2.{cX < x} =

{ {X > x/c}, daca c < 0{X < x/c}, daca c > 0

∈ K.

Daca c = 0, afirmatia este imediata.3.{|X| < x} = {X < x} ∩ {X > −x} ∈ K.4.{X2 < x} = {|X| < √x} ∈ K, ∀x > 0.

5.{ 1

X< x} =

{X < 0} ∩ {X > 1/x}, daca x < 0{X < 0}, daca x = 0{X < 0} ∪ {X > 1/x}, daca x > 0

∈ K.

Propozitia 3.1.2 Daca X si Y sunt variabile aleatoare, atunci:

1. X − Y ;

2. X + Y ;

3. XY ;

4. X/Y ;

5. max(X, Y );

Page 85: Teoria Probabilitatii

Variabile aleatoare continue 85

6. min(X,Y );

sunt variabile aleatoare.

Demonstratie. Toate afirmatiile 2-6, decurg din prima. Sa demonstram 1. Folosindnumarabilitatea multimii Q si faptul ca ıntre doua numere reale exista cel putin un numarrational putem scrie:

{X − Y < x} = {X < Y + x} =

( ∞⋃n=1

({X < rn} ∩ {rn − x < Y }))∈ K,

unde rn ∈ Q.Pentru 2, observam ca X + Y = X − (−Y ), iar pentru XY , afirmatia rezulta din

identitatea XY =1

4[(X + Y )2 − (X − Y )2].

4 este o consecinta a afirmatiei precedente si a Propozitiei 3.1.1.Ultimele doua afirmatii rezulta din egalitatile:

max(X,Y ) =1

2(X + Y + |X − Y |),

min(X, Y ) =1

2(X + Y − |X − Y |).

Definitia 3.1.2 {Xi}, i ∈ I este o familie de variabile aleatoare independente, dacapentru orice J ⊂ I, J finita si orice familie {Bj}, j ∈ J de multimi boreliene (veziExemplul 3.1.1) are loc:

P ({⋂j∈J

X−1j (Bj)}) =

∏j∈J

P ({X−1j (Bj)}).

Propozitia 3.1.3 Fie {Xi} , i ∈ I o familie de variabile aleatoare independente sifi : IR→ IR o familie de functii continue. Atunci familia {fi ◦Xi} constituie o familie devariabile aleatoare independente.

Demonstratie. Pentru orice J ⊂ I finita, are loc:

P ({⋂j∈J

(fj ◦Xj)−1(Bj)}) = P ({

⋂j∈J

X−1j ◦ f−1

j (Bj)}) =∏j∈J

P ({X−1j (f−1

j (Bj))}).

Deoarece fj este o functie continua, contraimaginea unei multimi boreliene este de aseme-nea boreliana, iar afirmatia rezulta din faptul ca Xj este variabila aleatoare.

Definitia 3.1.3 Functia F : IR→ [0, 1], definita prin

F (x) = P ({X < x}) (3.3)

se numeste functia de repartitie a variabilei aleatoare X.

Page 86: Teoria Probabilitatii

86 Variabile aleatoare continue

Daca se particularizeaza definitia ın cazul unei variabile aleatoare discrete, se obtinefunctia ın scara data ın Capitolul 2.2.

Propozitia 3.1.4 Urmatoarele afirmatii sunt adevarate:

1. Daca x1 < x2, atunci F (x1) 6 F (x2), ∀x1, x2 ∈ IR;

2. F (x− 0) = F (x), ∀x ∈ IR (F este continua la stanga);

3. limx→−∞

F (x) = 0;

4. limx→+∞

F (x) = 1;

Demonstratie.1. Observam ca {X < x2} = {X < x1} ∪ {x1 6 X < x2}, iar cele doua evenimente

sunt incompatibile. Aplicand probabilitatea peste ultima relatie, gasim

F (x2) = P ({X < x2}) = F (x1) + P ({x1 6 X < x2}) > F (x1),

deoarece din definitie, P ({x1 6 X < x2}) > 0.2. Fie xn un sir crescator la x. Avem:

{X < x} = {X < x1} ∪ (∞⋃n=1

{xn 6 X < xn+1}).

Aplicand probabilitatea, gasim

F (x) = F (x1) +∞∑n=1

(F (xn+1)− F (xn))

deci seria precedenta este convergenta si are ca suma limita sirului de sume partiale.

F (x) = F (x1) + limn→∞

(F (x2)− F (x1) + F (x3)− F (x2) + . . .+ F (xn+1)− F (xn)) =

= limn→∞

F (xn+1) = F (x− 0).

3. Daca xn este un sir descrescator la −∞, atunci

{X < x} = {x1 6 X < x} ∪ (∞⋃n=1

{Xn+1 6 X < xn}).

Aplicand probabilitatea, rezulta

F (x) = F (x)− F (x1) +∞∑n=1

(F (xn)− F (xn+1)),

de unde limn→∞

F (xn+1) = 0.

Page 87: Teoria Probabilitatii

Variabile aleatoare continue 87

4. Se constata ca

{X 6∞} = {X < x1} ∪ (∞⋃n=1

{xn 6 X < xn+1}),

unde xn este un sir crescator la +∞. Procedand ca mai sus, gasim 1 = limn→∞

F (xn).

Observatie. Daca x1 < x2, atunci

P ({x1 6 X < x2}) = F (x2)− F (x1).

Afirmatia rezulta folosind demonstratia punctului 1.Folosind relatia dintre probabilitatea unui eveniment si cea a evenimentului contrar,

mai rezultaP ({X > x}) = 1− F (x).

Observatie. Se poate demonstra ca, reciproc, orice functie F : IR→ IR avand proprietatile1-4, este functia de repartitie a unei variabile aleatoare, pe un anumit camp de pro-babilitate, de aceea vom spune ca aceste proprietati reprezinta o caracterizare a functieide repartitie. De exemplu putem lua E = (0, 1) si K corpul borelian generat de inter-valele deschise ale lui E, iar P masura Lebesgue [ 22 ] pentru care vom schita modul deconstructie. Notam cu

D = {⋃i∈I

(ai, bi)|(ai, bi) ∩ (aj, bj) = ∅, I ⊆ IN}, ∀ai, bi ∈ (0, 1).

Elementele lui D se numesc multimi deschise. Definim aplicatia

P0 : D → [0, 1],

P0(⋃i∈I

(ai, bi)) =∑i∈I

(bi − ai), ∀ai, bi ∈ (0, 1).

Se observa ca daca I are un singur element, conditia de mai sus devine:

P0(a, b) = b− a, ∀a, b ∈ (0, 1)

formula care da lungimea intervalului (a, b); deci masura Lebesgue a unei reuniuni nu-marabile de intervale disjuncte este suma lungimilor lor. Seria din membrul al doilea aresirul sumelor partiale sn marginit. Intr-adevar, ordonand intervalele din sirul sumelorpartiale, putem presupune 0 6 a1 < a2 < . . . an si bn 6 1. Atunci

sn =n∑i=1

(bi − ai) 6n∑i=1

(bi − ai) +n−1∑i=1

(ai+1 − bi) = bn − a1 6 1− 0 = 1.

Fie K cel mai mic corp borelian (se poate arata ca exista), care contine D, pe care ılnotam K; aplicatia P0 poate fi prelungita la o probabilitate pe K, astfel ıncat sa aiba loc∀D ∈ D, P (D) = P0(D).

Page 88: Teoria Probabilitatii

88 Variabile aleatoare continue

Fie F o functie care satisface conditiile propozitiei precedente; pentru simplificaresa presupunem ca F este strict monotona si continua (deci este inversabila) si notamX = F−1. Atunci F este functia de repartitie a variabilei aleatoare X. Intr-adevar,

P ({y ∈ (0, 1)|X(y) < x}) = P ({y ∈ (0, 1)|F−1(y) < x}) =

= P0({y ∈ (0, 1)|y < F (x)}) = F (x)− 0 = F (x),

unde P este masura Lebesgue introdusa anterior.

Propozitia 3.1.5 Pentru orice variabila aleatoare X, are loc

P ({X = x}) = F (x+ 0)− F (x).

Demonstratie. Fie x1 > x2 > . . . xn > xn+1 > . . . un sir convergent la x. Atunci are loc

{X > x} = {X = x} ∪ {X > x1} ∪ (∞⋃n=1

{xn+1 6 X < xn}).

Aplicand probabilitatea, gasim

1− F (x) = P ({X = x}) + 1− F (x1) + limn→∞

(F (x1)− F (x2) + . . .+ F (xn)− F (xn+1)) =

= P ({X = x}) + 1− limn→∞

F (xn) = P ({X = x}) + 1− F (x+ 0).

Deci afirmatia este adevarata.

Din propozitia precedenta deducem ca urmatoarele afirmatii sunt echivalente:i. P ({X = x}) = 0;ii. F este continua ın x.

Propozitia 3.1.6 O functie de repartitie are o multime cel mult numarabila de punctede discontinuitate de prima speta.

Demonstratie. Fiind monotona, functia de repartitie F nu poate avea decat discontinuitatide prima speta (deci ın orice punct x ∈ R, exista F (x − 0) = F (x) si F (x + 0) finite).Deoarece 0 6 F (x) 6 1, F nu poate avea un salt mai mare ca 1/2, cel mult trei salturicuprinse ıntre 1/4 si 1/2, iar ın general cel mult 2n − 1 salturi cuprinse ıntre 1

2nsi 1

2n−1 .Renumerotand, obtinem multimea salturilor cel mult numarabila.

O variabila aleatoare cu functie de repartitie continua va fi numita variabila aleatoarecontinua. Daca X este o variabila aleatoare continua, iar A este o multime cel multnumarabila, atunci probabilitatea ca X sa ia valori ın A este nula, adica

P ({e ∈ E|X(e) ∈ A}) = P ({X−1(A)}) = 0.

Definitia 3.1.4 Fie X o variabila aleatoare cu functia de repartitie F si q ∈ IN∗; nu-merele ci, i = 1, . . . q − 1 definite prin

F (ci) 6i

q, F (ci + 0) > i

q

se numesc q-cvantile .

Page 89: Teoria Probabilitatii

Variabile aleatoare continue 89

q-cvantilele sunt unic determinate daca F este continua si strict crescatoare ca solutii aleecuatiei

F (ci) =i

q, i = 1 . . . q − 1.

Pentru q = 2 se obtine mediana, pe care o vom nota me si care se caracterizeaza prin

F (me) 61

2, F (me + 0) > 1

2, (3.4)

iar ın cazul continuitatii lui F ,

F (me) =1

2.

Pentru q = 4 se obtin cvartilele, pentru q = 10,decilele etc.

Functia de repartitie conditionata.

In campul de probabiliatate {E,K, P} consideram A ∈ K, cu proprietatea P (A) 6= 0.Reamintim ca ın Capitolul 1.2 s-a definit notiunea de probabilitate conditionata prinformula

P (B|A) = PA(B) =P (A ∩B)

P (A), ∀B ∈ K.

Definitia 3.1.5 Data o variabila aleatoare X, numim functie de repartitie conditionatade evenimentul A, functia data de

F (x|A) = P ({X < x}|A) =P ({X < x} ∩ A)

P (A).

Toate proprietatile functiei de repartitie se pastreaza; mentionam

F (+∞|A) = 1; F (−∞|A) = 0.

Sa demonstram urmatoarea formula

P ({a 6 X < b}|A) = F (b|A)− F (a|A). (3.5)

Intr-adevar, daca a < b avem {X < a} ⊂ {X < b} si

P ({a 6 X < b}|A) =P ({a 6 X < b} ∩ A)

P (A)=P (({X < b} ∩ A) \ ({X < a} ∩ A))

P (A)=

=P ({X < b} ∩ A)− P ({X < a} ∩ A)

P (A)= F (b|A)− F (a|A).

Ne intereseaza ın continuare, pentru numeroasele aplicatii practice, unele cazuri particu-lare ale evenimentului A.

1. Daca A = {X < a} si F (a) = P ({X < a}) 6= 0, atunci

F (x|A) =P ({X < x} ∩ {X < a})

P ({X < a}) =

F (x)

F (a), daca x 6 a

1, daca x > a.

Page 90: Teoria Probabilitatii

90 Variabile aleatoare continue

Deci obtinem

F (x|{X < a}) =

F (x)

F (a), daca x 6 a

1, daca x > a.(3.6)

In Figura 3.1 sunt ilustrate cele doua functii.

2. Fie A = {a 6 X < b} astfel ca P (A) = F (b)− F (a) 6= 0. Deducem imediat ca

F (x|{a 6 X < b}) =

0, daca x 6 a,F (x)− F (a)

F (b)− F (a), daca a < x 6 b,

1, daca x > b.

(3.7)

Demonstram urmatoarea formula, care se dovedeste utila ın aplicatii. In ipotezele prece-dente are loc

P (A|{a 6 X < b}) =(F (b|A)− F (a|A))P (A)

F (b)− F (a). (3.8)

Aceasta rezulta imediat

P (A|{a 6 X < b}) =P (A ∩ {a 6 X < b})P ({a 6 X < b}) =

=P ({a 6 X < b}|A)P (A)

F (b)− F (a)=

(F (b|A)− F (a|A))P (A)

F (b)− F (a).

In ultima relatie s-a folosit (3.5).

3.2 Densitatea de probabilitate. Repartitia normala

Fie {E,K, P} un camp borelian de probabilitate. Consideram o clasa de variabilealeatoare X pentru care exista o functie f : IR → IR+ cu un numar finit de puncte dediscontinuitate de prima speta, ce satisface relatia

F (x) =

∫ x

−∞f(t)dt, (3.9)

unde F (x) este functia de repartitie a variabilei X.Functia f se numeste densitate de probabilitate.Daca f este continua ın x ∈ IR, atunci F este derivabila ın x si

F ′(x) = f(x).

Acest lucru rezulta imediat daca se aplica teorema de medie ın integrala Riemann sicontinuitatea lui f . Intr-adevar,

lim∆x→0

F (x+ ∆x)− F (x)

∆x= lim

∆x→0

∫ x+∆x

xf(t)dt

∆x= f(x).

Page 91: Teoria Probabilitatii

Variabile aleatoare continue 91

Daca a, b ∈ IR si F este continua, atunci

P ({a 6 X < b}) =∫ baf(x)dx.

Daca ın relatia (3.9) trecem la limita pentru x tinzand la∞ si folosim faptul ca limx→∞

F (x) = 1,

deducem ∫ +∞

−∞f(t)dt = 1. (3.10)

Reciproc, daca o functie f : IR → IR+, cu un numar finit de puncte de discontinuitatede prima speta, satisface (3.10), atunci ea este integrabila pe orice interval de forma(−∞, x), ∀x ∈ IR, deoarece

∫ x

−∞f(x)dt 6

∫ +∞

−∞f(t)dt = 1

si functia F : IR→ IR, definita prin

F (x) =

∫ x

−∞f(t)dt,

satisface conditiile propozitiei (3.1.4), deci este o functie de repartitie, daca tinem contde observatia facuta dupa aceasta propozitie.

Repartitia uniforma. Vom nota cu X : U(a, b) o variabila aleatoare uniform repar-tizata pe intervalul (a, b), ∀a, b ∈ IR, daca densitatea de probabilitate este data de

f(x) =

{ 1

b− a, daca a 6 x 6 b

0, ın rest.

Se constata imediat ca este ındeplinita conditia (3.10). Functia de repartitie este data de

F (x) =

∫ x

−∞f(t)dt =

0, daca x 6 a,x− ab− a , daca a < x 6 b,

1, daca x > b.

Graficele celor doua functii sunt reprezentate ın figurile 3.2 si 3.3.

Exemplul 3.2.1 Daca efectuam masuratori de precizie, iar rezultatul este cuprins ıntrek si k + 1 unitati, convenind sa-l aproximam cu k + 1/2, comitem o eroare care poate fipresupusa uniform repartizata pe intervalul (−1/2, 1/2), deci are densitatea

f(x) =

{1, daca x ∈ [−1/2, 1/2],0, ın rest.

Page 92: Teoria Probabilitatii

92 Variabile aleatoare continue

Repartitia normala. Variabila aleatoare X este distribuita normal cu parametriim ∈ IR, σ > 0 si vom nota X : N(m,σ2), daca are densitatea de probabilitate

f(x) =1√2πσ

e−(x−m)2

2σ2 , ∀x ∈ IR. (3.11)

Observam ca f(x) > 0. Pentru calculul integralei din conditia (3.10) facem schimbarea

de variabila y =x−mσ

si obtinem

∫ ∞−∞

f(x)dx =1√2πσ

∫ ∞−∞

e−(x−m)2

2σ2 dx =1√2π

∫ ∞−∞

e−y2

2 dy = 1.

Pentru calculul ultimei integrale vezi Anexa 3.Daca m = 0 si σ = 1, repartitia se mai numeste normata si are densitatea

f(x) =1√2πe−x2

2 . (3.12)

Graficul este cunoscut sub numele de ”clopotul lui Gauss”. Se constata ca acesta estesimetric fata de dreapta x = m, pentru x = m functia f are maxim egal cu f(m) = 1√

2πσ,

iar punctele m± σ sunt puncte de inflexiune. Pentru σ constant si m variabil, graficul setransleaza corespunzator. Daca m este constant, iar σ variabil se constata ca punctul demaxim variaza invers proportional ın raport cu σ. In Figura 3.4 se poate constata cumvariaza densitatea ın functie de σ. Functia de repartitie F are graficul dat de Figura 3.5

si se poate determina numeric, daca se cunosc valorile functiei lui Laplace , care sedefineste prin

Φ(z) =1√2π

∫ z

0

e−x2

2 dx, ∀z ∈ IR.

Se verifica usor ca Φ(−z) = −Φ(z) , ceea ce permite tabelarea functiei doar pentru valoripozitive. Mai observam ca are loc relatia

limz→∞

1√2π

∫ z

0

e−x2

2 dx =1

2. (3.13)

Sa exprimam functia de repartitie cu ajutorul functiei lui Laplace. In integrala F (x) =∫ x−∞ f(t)dt facem schimbarea de variabila

t−mσ

= u si obtinem

F (x) =1√2πσ

∫ x−mσ

−∞e−u2

2 σdu =

=1√2π

(

∫ 0

−∞e−u2

2 du+

∫ x−mσ

0

e−u2

2 du) =1

2+ Φ(

x−mσ

).

In ultima egalitate s-a folosit relatia (3.13). Se obtine astfel formula

F (x) =1

2+ Φ(

x−mσ

). (3.14)

Page 93: Teoria Probabilitatii

Variabile aleatoare continue 93

Din (3.14), folosind faptul ca P ({a 6 X < b}) = F (b)− F (a), deducem

P ({a 6 X < b}) = Φ(b−mσ

)− Φ(a−mσ

).

Probabilitatea ca abaterea fata de m, notata |X −m| sa nu depaseasca ε > 0, este datade

P ({|X −m| < ε}) = 2Φ(ε

σ).

Regula celor 3σ. O variabila normal repartizata X : N(m,σ2) ia valori semnificative ınintervalul (m−3σ,m+3σ). Intr-adevar, P ({|X−m| > 3σ}) = 1−P ({|X−m| < 3σ}) =1− 2Φ(3) = 0, 0027, valoare care ın unele situatii poate fi neglijata.

Exemplul 3.2.2 Durata de functionare a unei baterii este o variabila aleatoare, no-tata X, repartizata normal N(m,σ2), unde m = 120 zile reprezinta timpul mediu defunctionare, iar σ = 10 zile reprezinta abaterea fata de medie (aceste notiuni vor fi intro-duse si studiate si ın cazul continuu ın Capitolul 3.4). Determinati

a. probabilitatea ca bateria sa functioneze cel putin 100 de zile;b. probabilitatea ca bateria sa functioneze ıntre 100 si 150 de zile;c. intervalul de timp ın care se poate presupune ca bateria functioneaza aproape sigur.

a. P ({X > 100}) = 1 − P ({X < 100}) = 1 − F (100) = 1 − (12

+ Φ(100−12010

)) =12

+ Φ(2) = 0, 97725;b. P ({100 6 X 6 150}) = Φ(150−120

10)− Φ(100−120

10) = Φ(3) + Φ(2) = 0, 9759;

c. Aplicınd regula celor 3σ, gasim intervalul cautat de forma |X − m| < 3σ, decibateria functioneaza aproape sigur ıntre 90 si 150 zile.

Exemplul 3.2.3 Repartitia erorilor accidentale de masurare. Alte tipuri de erori decat celedatorate aproximarilor (ın cazul masuratorilor de precizie) sunt cele accidentale. Notam cuX eroarea comisa la efectuarea unei masuratori, care este o variabila aleatoare. Daca val-oarea exacta a marimii este r, prin efectuarea a n masuratori obtinem valorile r1, r2, . . . , rnaproximative si erorilor ek = r − rk, k = 1, . . . n. Sa determinam o functie derivabila, f ,care sa fie densitatea de probabilitate a variabilei X. Probabilitatea ca eroarea sa fiecuprinsa ın intervalul [ek, ek +hk], k = 1, . . . , n, cu hk suficient de mic poate fi aproximatacu f(ek)hk, iar ın cele n masuratori independente este produsul

p(r) = h1f(e1)h2f(e2) . . . hnf(hn) = h1h2 . . . hnf(r − r1) . . . f(r − rn).

Legea numerelor mari (care va fi studiata amanuntit ın Capitolul 4) ne permite sa luamca valoare cea mai probabila media aritmetica, notata

r =1

n(r1 + . . . rn).

Deci r este un punct de maxim pentru p(r). Notam cu g(r) = f(r− r1) . . . f(r− rn). Dinconditia p′(r) = 0, rezulta g′(r) = 0. Are loc

g′(r)g(r)

=

n∑i=1

f(r − r1) . . . f(r − ri−1)f ′(r − ri)f(r − ri+1) . . . f(r − rn)

f(r − r1) . . . f(r − rn)=

Page 94: Teoria Probabilitatii

94 Variabile aleatoare continue

=n∑i=1

f ′(r − ri)f(r − ri) .

Din definitia mediei, rezulta (r − r1) + . . . + (r − rn) = 0, decin∑

k=1

(r − rk) = 0. Putem

atunci scrie

0 =g′(r)g(r)

=n∑

k=1

f ′(r − rk)f(r − rk) − c

n∑

k=1

(r − rk) =n∑

k=1

(f ′(r − rk)f(r − rk) − c(r − rk)

).

Punem conditia ca termenul general al sumei sa se anuleze. Aceasta conduce la ecuatiadiferentiala

f ′(x)

f(x)= cx

cu solutia f(x) = kecx2

2 . Sa determinam constantele k si c, astfel ca f(x) sa fie o densitate

de probabilitate. Punand conditia (3.10), gasim c < 0, k > 0. Daca notam σ2 = −1

c,

gasim k =1√2πσ si

f(x) =1√2πσ

e− x2

2σ2 .

Deci erorile accidentale de masurare se repartizeaza dupa legea N(0, σ2). Constantah = 1√

2πσse numeste precizia masuratorii.

Exemplul 3.2.4 O variabila aleatoare X este repartizata normal N(0, σ2). Dat uninterval (α, β), cu α < 0, β > 0, sa determinam valoarea σ, astfel ca probabilitateaP ({X ∈ (α, β)}) sa fie maxima. Are loc evident

P ({α < X < β}) = Φ(β

σ)− Φ(

α

σ) =

1√2π

(∫ βσ

0

e−t2

2 dt−∫ α

σ

0

e−t2

2 dt

).

Anulam derivata ın raport cu σ a integralei cu parametru si gasim

1√2π

(e−

β2

2σ2 (−β2

σ2)− e− α2

2σ2 (− α2

2σ2)

)= 0.

Deducem

σ =

√β2 − α2

2(ln β − ln |α|) .

In practica apar des situatii ın care o variabila aleatoare continua este suma dintreo variabila aleatoare discreta si o variabila aleatoare continua. Ca aplicatie a formuleiprobabilitatii totale se poate deduce densitatea de probabilitate.

Page 95: Teoria Probabilitatii

Variabile aleatoare continue 95

Exemplul 3.2.5 Fie X o variabila aleatoare discreta care are repartitia:

X :

(xipi

), i = 1, . . . n

si Y o variabila aleatoare continua care are densitatea de probabilitate f(x). Sa deter-minam densitatea de probabilitate a variabilei aleatoare Z = X + Y , daca X si Y suntindependente. Consideram sistemul complet de evenimente Ai = {X = xi}, i = 1, . . . nsi sa exprimam functia de repartitie a variabilei aleatoare Z.

FZ(x) = P ({X + Y < x}) = P

(n⋃i=1

({X + Y < x} ∩ Ai))

=

=n∑i=1

P ({Y + xi < x})P (Ai) =n∑i=1

piP ({Y < x− xi}).

Prin derivare gasim

fZ(x) =n∑i=1

pifY (x− xi).

Exemplul 3.2.6 O variabila aleatoare continua are densitatea de probabilitate f1(x) cuprobabilitatea p1 si densitatea de probabilitate f2(x) cu probabilitatea p2, cu p1 + p2 =1. Gasiti expresia densitatii de probabilitate si a functiei de repartitie a variabilei X.Consideram sistemul complet de evenimente Ai, i = 1, 2, unde evenimentul Ai reprezintafaptul ca X are densitatea de probabilitate fi. Atunci functia de repartitie este data de

F (x) = P ({X < x}) = P (A1)P ({X < x}|A1) + P (A2)P ({X < x}|A2) =

= p1F1(x) + p2F2(x).

Functia de densitate este atunci

f(x) = p1f1(x) + p2f2(x).

Densitati de probabilitate conditionate. Fie X o variabila aleatoare continua si

A ∈ K, cu probabilitatea P (A) 6= 0. Presupunem ca X are densitatea de probabilitate f ,atunci densitatea de probabilitate a lui X, conditionata de A este data ın punctele ei decontinuitate de derivata functiei de repartitie conditionata

f(x|A) = F ′(x|A).

1. Daca A = {X < a}, prin derivarea formulei (3.6) se obtine

f(x|A) =

f(x)

F (a), daca x 6 a,

0, daca x > a.(3.15)

2. Daca A = {a 6 X < b} prin derivarea relatiei (3.7) gasim

f(x|{a 6 X < b} =

f(x)

F (b)− F (a), daca a < x 6 b,

0, ın rest.(3.16)

Page 96: Teoria Probabilitatii

96 Variabile aleatoare continue

Exemplul 3.2.7 Fie X : N(m,σ2). Sa determinam f(x|{|X −m| 6 kσ}). Observam caP ({|X −m| 6 kσ}) = 2Φ(k) si ınlocuim ın (3.16). Deci

f(x|{|X −m| 6 kσ}) =

1√2πσ2Φ(k)

e−(x−m)2

2σ2 , daca |x−m| 6 kσ

0, ın rest

.

Exemplul 3.2.8 Fie T variabila aleatoare care da timpul de functionare pana la primadefectare. Sa determinam F (x|{T > t}) si f(x|{T > t}). Observam ca P ({T > t}) =1− F (t), probabilitate care va fi definita ca functie de fiabilitate ın Capitolul 3.7. Gasim

F (x|{T > t}) =

F (x)− F (t)

1− F (t), daca x > t,

0, daca x < t.

f(x|{T > t}) =f(x)

1− F (t)=

f(x)∫ +∞

t

f(x)dx

, x > t.

Formula probabilitatii totale. Formula lui Bayes.

Vom da versiunea continua a formulelor prezentate ın Capitolul 1.6. Consideramevenimentul {X = x} unde X este o variabila aleatoare continua, deci admite functie derepartitie continua. Atunci avem P ({X = x}) = 0. In unele situatii putem totusi definiP (A|{X = x}), ın sensul existentei urmatoarei limite

P (A|{X = x}) = lim∆x→0

P (A|{x 6 X < x+ ∆x}) =

= lim∆x→0

(F (x+ ∆x|A)− F (x|A))P (A)

F (x+ ∆x)− F (x)=f(x|A)P (A)

f(x).

In sirul de egalitati s-a folosit formula (3.8). Daca integram pe IR relatia

P (A|{X = x})f(x) = f(x|A)P (A)

obtinem ∫ +∞

−∞P (A|{X = x})f(x)dx =

∫ +∞

−∞f(x|A)P (A)dx =

= P (A)(F (+∞|A)− F (−∞|A)) = P (A).

Relatia obtinuta se numeste formula probabilitatii totale ın cazul continuu si este

P (A) =

∫ +∞

−∞P (A|{X = x})f(x)dx. (3.17)

Formula lui Bayes ın cazul continuu este

f(x|A) =P (A|{X = x})f(x)∫ +∞

−∞ P (A|{X = x})f(x)dx.

Page 97: Teoria Probabilitatii

Variabile aleatoare continue 97

Exemplul 3.2.9 Densitatea de probabilitate a defectarii unei valve radio ın momentuldeschiderii este q(v). Voltajul V este aleator si are repartitie N(m,σ2). Sa gasim pro-babilitatea evenimentului A, care semnifica faptul ca la momentul deschiderii valva s-adefectat. Vom folosi formula (3.17)

P (A) =

∫ +∞

−∞q(v)f(v)dv =

1√2πσ

∫ +∞

−∞q(v)e−

(v−m)2

2σ2 dv.

3.3 Functia de repartitie multidimensionala. Trans-

formari

Fie {E,K, P} un camp borelian de probabilitate si X1, . . . , Xn, variabile aleatoare.

Definitia 3.3.1 Functia notata (X1, . . . , Xn) : E → IRn, definita prin

(X1, . . . , Xn)(e) = (X1(e), . . . , Xn(e)),

se numeste variabila aleatoare n-dimensionala.

Pentru (x1, . . . , xn) ∈ IRn, notam

{X1 < x1, X2 < x2, . . . , Xn < xn} =n⋂i=1

{Xi < xi}

si observam ca acesta este un element al lui K.

Definitia 3.3.2 Functia F : IRn → IR, definita prin

F (x1, x2, . . . , xn) = P ({X1 < x1, . . . , Xn < xn}),

se numeste functie de repartitie n dimensionala.

Fara a intra ın detalii de demonstratie, amintim ca pentru functia de repartitie n-dimen-sionala au loc proprietatile:

1. F este nedescrescatoare ın fiecare argument;2. F este continua la stanga ın fiecare argument;3. F (+∞, . . . ,+∞) = 1;4. Pentru orice k = 1, . . . n, are loc

limxk→−∞

F (x1, . . . , xk, . . . , xn) = 0, ∀x1 . . . , xk−1, xk+1 . . . , xn ∈ IR.

Numai satisfacerea acestor proprietati, nu implica faptul ca F este functie de repartitie,pentru o variabila aleatoare n-dimensionala. Pentru ai, bi i = 1, . . . n se poate arata ca

P ({a1 6 X1 < b1, . . . , an 6 Xn < bn}) =

Page 98: Teoria Probabilitatii

98 Variabile aleatoare continue

= F (b1, . . . , bn)−n∑i=1

pi +n∑i<j

pij −n∑

i<j<k

pijk + . . .+ (−1)nF (a1, . . . an), (3.18)

unde pij...k = F (c1, c2, . . . , cn) , ci = ai, cj = aj, . . . , ck = ak, restul valorilor fiind cs = bs.Sa exemplificam ın cazul n = 2. Pentru aceasta evaluam

P ({a1 6 X1 < b1, a2 6 X2 < b2}) = P ({X1 < b1, X2 < b2})−−P ({X1 < a1, X2 < b2})− P ({X1 < b1, X2 < a2}) + P ({X1 < a1, X2 < a2}) =

= F (b1, b2)− F (a1, b2)− F (b1, a2) + F (a1, a2),

a caror justificare este usor de constatat ın Figura 3.6.

Vom da un exemplu de functie F care satisface proprietatile 1-4, dar nu este functiede repartitie.

Exemplul 3.3.1 Sa definim

F (x1, x2) =

{0, daca x1 6 0 sau x1 + x2 6 1 sau x2 6 0,1, ın rest.

Aceasta va satisface conditiile 1-4, dar daca ın formula precedenta luam a1 = a2 = 12, b1 =

b2 = 1, gasim F (1, 1) − F (1, 12) − F (1

2, 1) + F (1

2, 1

2) < 0, care nu poate fi probabilitatea

unui eveniment.

Pentru ca F , o functie ce satisface conditiile 1-4, sa fie functie de repartitie mai trebuieındeplinita conditia ∀ai, bi ∈ IR, i = 1, . . . n, membrul al doilea al formulei (3.18) estepozitiv.

La fel ca ın cazul unidimensional, vom considera o clasa de variabile aleatoare pen-tru care exista o functie pozitiva si continua cu exceptia unui numar finit de punctef(x1, . . . , xn), astfel ca

F (x1, . . . , xn) =

∫ x1

−∞. . .

∫ xn

−∞f(y1, . . . , yn)dy1 . . . dyn.

Vom numi aceasta functie densitate de probabilitate n-dimensionala. Daca functia derepartitie este continua, variabila aleatoare va fi numita continua . Densitatea de proba-bilitate se caracterizeaza prin

∫ ∞−∞

. . .

∫ ∞∞

f(y1, . . . , yn)dy1 . . . dyn = 1. (3.19)

Mai observam ca ın punctele de continuitate ale functiei f are loc

f(x1, . . . , xn) =∂nF (x1, . . . , xn)

∂x1 . . . ∂xn.

Daca variabila aleatoare n-dimensionala are densitate de probabilitate, probabilitatea dinformula (3.18) poate fi calculata astfel:

P ({a1 6 X1 < b1, . . . , an 6 Xn < bn}) =

∫ b1

a1

dx1 . . .

∫ bn

an

f(x1, . . . , xn)dxn.

Page 99: Teoria Probabilitatii

Variabile aleatoare continue 99

In general, daca D ⊂ IRn este un domeniu arbitrar, probabilitatea ca variabila aleatoaren-dimensionala sa ia valori ın D este data de formula

P ({(x1, . . . , xn) ∈ D}) =

∫. . .

D

f(x1, . . . , xn)dx1 . . . dxn.

Definitia 3.3.3 Functiile definite de formulele

FXi(xi) =

∫ xi

−∞du

∫ ∞−∞

. . .

∫ ∞−∞

f(x1, . . . , xi−1, u, xi+1, . . . , xn)dx1 . . . dxn

se numesc functii marginale de repartitie , iar derivatele lor, date de formulele

fXi(xi) = F ′Xi(xi) =

=

∫ ∞−∞

. . .

∫ ∞−∞

f(x1, . . . , xi−1, xi, xi+1, . . . , xn)dx1 . . . dxi−1dxi+1 . . . dxn

se numesc densitati marginale de probabilitate.

In particular pentru n = 2, alegand notatii mai convenabile, densitatile marginale sifunctiile marginale de repartitie, sunt date de formulele:

FX(x) =

∫ x

−∞du

∫ ∞−∞

f(u, v)dv, FY (y) =

∫ y

−∞dv

∫ ∞−∞

f(u, v)du,

fX(x) =

∫ ∞−∞

f(x, v)dv, fY (y) =

∫ ∞−∞

f(u, y)du.

Fie (X1, . . . , Xn) o variabila aleatoare continua. Variabilele aleatoareXi sunt independentedaca si numai daca ∀xi1 , . . . , xik ∈ IR, k = 1, . . . , n, are loc

P ({Xi1 < xi1 , . . . , Xik < xik}) = P ({Xi1 < xi1}) . . . P ({Xik < xik}).

Aceasta afirmatie se deduce imediat din Propozitia 3.1.3. In particular pentru n = 2,conditia revine la

F (x, y) = FX(x)FY (y).

Daca variabilele considerate au densitati de probabilitate, conditia de mai sus este echiva-lenta cu

f(x, y) = fX(x)fY (y). (3.20)

Exemplul 3.3.2 Repartitia uniforma n-dimensionala are densitatea de probabilitate datade

f(x1, . . . , xn) =

{k, daca (x1, . . . , xn) ∈ D0, ın rest

,

unde D este un domeniu din IRn, marginit, iar k este astfel ales ıncat sa aiba loc (3.19),deci

k =1∫

. . .∫Ddx1 . . . dxn

.

Page 100: Teoria Probabilitatii

100 Variabile aleatoare continue

In particular pentru n = 2 si D = [a, b]× [c, d], avem

f(x, y) =

1

(b− a)(d− c) , daca (x, y) ∈ D,0, ın rest.

Sa determinam densitatile marginale.

fX(x) =

∫ ∞−∞

f(x, v)dv =

∫ d

c

1

(b− a)(d− c)dv =

{ 1

b− a, ∀x ∈ [a, b]

0, ın rest

si analog,

fY (y) =

1

d− c, ∀x ∈ [c, d],

0, ın rest

Deci variabilele aleatoare marginale X si Y cu densitatile marginale fX , respectiv fY suntindependente, deoarece este satisfacuta (3.20).

Transformari de variabile aleatoare.

Fie (X1, . . . , Xn) o variabila aleatoare pe campul borelian {E,K, P}. Consideram otransformare inversabila ıntre doua domenii ∆, D ⊂ IRn, deci o functie vectoriala de maimulte variabile

x1 = φ1(y1, . . . , yn)...

xn = φn(y1, . . . , yn)

(x1, . . . , xn) ∈ D, (y1, . . . , yn) ∈ ∆

si care satisface conditiile:1. φ1, . . . , φn sunt functii reale de clasa C1(∆);

2. J(y1, . . . , yn) =D(φ1, . . . , φn)

D(y1, . . . , yn)=

∣∣∣∣∣∣∣∣∣∣

∂φ1

∂y1

. . .∂φ1

∂yn... . . .

...∂φn∂y1

. . .∂φn∂yn

∣∣∣∣∣∣∣∣∣∣

6= 0 pe ∆.

In aceste conditii, compunerea dintre (X1, . . . , Xn) si inversa transformarii este toto variabila aleatoare, pe care o notam (Y1, . . . , Yn). Presupunem ca ambele variabilealeatoare au densitati de probabilitate, pe care le notamfX1...Xn si fY1...Yn . Folosind schim-barea de variabile ın integrala multipla, obtinem

∫. . .

D

fX1...Xn(x1, . . . , xn)dx1 . . . dxn =

=

∫. . .

fX1...Xn(φ1(y1, . . . , yn), . . . , φn(y1, . . . , yn)|J(y1, . . . , yn)|dy1 . . . dyn, (3.21)

Page 101: Teoria Probabilitatii

Variabile aleatoare continue 101

care se interpreteaza astfel: probabilitatea ca variabila aleatoare (X1, . . . , Xn) sa ia valoriın domeniul D, coincide cu probabilitatea ca (Y1, . . . , Yn) sa ia valori ın domeniul ∆.Atunci densitatea de probabilitate pentru variabila aleatoare (Y1, . . . , Yn) este data de

fY1...Yn(y1, . . . , yn) =

= fX1...Xn(φ1(y1, . . . , yn), . . . , φn(y1, . . . , yn)|J(y1, . . . , yn)|. (3.22)

Caz particular. Pentru n = 1, consideram transformarea x = φ(y) unde φ este declasa C1(D), D ⊂ IR, inversabila. Formula precedenta devine

fY (y) = fX(φ(y))

∣∣∣∣dφ

dy

∣∣∣∣ . (3.23)

Exemplul 3.3.3 Daca X este o variabila aleatoare si facem transformarea Y = aX + b,unde a, b ∈ IR, a 6= 0, atunci folosind relatia (3.23) gasim

fY (y) = fX

(y − ba

)1

|a| .

In particular, daca X : N(m,σ2), sa determinam densitatea de probabilitate a variabileialeatoare Y = aX + b, a 6= 0, ınlocuind mai sus

fY (y) =1√2πσ

e−( y−ba−m)2

2σ21

|a| =

=1√

2π|a|σe− (y−(am+b))2

2a2σ2 .

deci Y este o variabila repartizata N(am+b, a2σ2). Deci prin transformarea liniara a uneivariabile aleatoare normale se obtine tot o variabila normala. De aici se deduce imediatca, daca X : N(m,σ2)

X −mσ

: N(0, 1).

Uneori este comod sa gasim densitatea de probabilitate calculand functia de repartitie avariabilei aleatoare obtinute prin transformare, ca ın urmatorul exemplu.

Exemplul 3.3.4 Daca X : N(m,σ2) sa determinam densitatea variabilei aleatoare eX .Notam Y = eX . Pentru y > 0, sa calculam

FY = P ({Y < y}) = P ({eX < y}) = P ({X < ln y}).

Prin derivare gasim

fY (y) = F ′Y (y) = F ′X(ln y) =1√2πσ

e−(ln y−m)2

2σ2 .

Aceasta repartitie se numeste lognormala.

Page 102: Teoria Probabilitatii

102 Variabile aleatoare continue

Exemplul 3.3.5 Erorile de masurare pentru doua marimi sunt X, Y independente sirepartizate uniform pe (0, 1). Sa determinam densitatile marginale ale sumei si diferenteierorilor. Vom particulariza cazul general (facand o schimbare convenabila de notatii sumasi diferenta erorilor sunt variabile aleatoare definite prin

U = X + Y

V = X − Y.Inversa transformarii este

x = φ1(u, v) =1

2(u+ v)

y = φ2(u, v) =1

2(u− v)

iar iacobianul J(u, v) = −12; reprezentam ın Figurile 3.7 si 3.8 domeniile D si ∆. Din

ipoteza de independenta rezulta

fXY (x, y) = fX(x)fY (y).

Deci fUV (u, v) = 1| − 1/2|, daca (u, v) ∈ ∆ si 0 ın rest. Densitatea marginala este datade

fU(u) =

∫ ∞−∞

fUV (u, v)dv.

Pentru calculul ei distingem cazurile

1. 0 6 u 6 1, fU(u) =

∫ u

−u

dv

2= u;

2. 1 6 u 6 2, fU(u) =

∫ 2−u

u−2

dv

2= 2− u.

Deci

fU(u) =

u, daca 0 6 u 6 1,2− u, daca 1 6 u 6 2,0, ın rest.

si analog

fV (v) =

v + 1

2, daca − 1 6 v 6 0,

−v + 1

2, daca 0 6 v 6 1,

0, ın rest.

Exemplul 3.3.6 Un dispozitiv are doua componete ale caror durate de viata sunt vari-abile aleatoare independente, notate X si Y , cu densitatile

fX(x) =

{ 1

x2, daca x > 1,

0, ın restfY (y) =

1

y2, daca y > 1,

0, ın rest.

Page 103: Teoria Probabilitatii

Variabile aleatoare continue 103

O masura pentru calitatea functionarii dispozitivului este U =√XY . Sa determinam

densitatea de probabilitate a lui U . Facem schimbarea de variabile

{U =

√XY

V = X

definita pe domeniul D cu inversa {x = v

y = u2

v

definita pe domeniul ∆ si avand iacobianul J(u, v) = −2u

v. Din conditia de independenta

fXY (x, y) =

{1

x2y2 , daca x, y > 1,

0, ın rest,

iar

fUV (u, v) =2

u3v.

Reprezentam grafic cele doua domenii.

Densitatea marginala este

fU(u) =

∫ ∞−∞

fUV (u, v)dv =

∫ u2

1

2

u3vdv = 4

lnu

u3, ∀u > 1.

Exemplul 3.3.7 (Limitatorul). Fie functia

g(x) =

−b, daca x 6 −b,x, daca − b < x 6 b,b, daca x > b.

Sa determinam functia de repartitie a variabilei aleatoare Y = g(X), unde X este ovariabila aleatoare cu functia de repartitie FX .

Daca y 6 −b evenimentul g(X) < y nu se realizeaza pentru nici un x, deci FY (y) = 0.Daca −b < y 6 b, FY (y) = FX(y).Daca b < y, FY (y) = 1.

Exemplul 3.3.8 Repartitia normala n-dimensionala. Consideram functia definita de

f(x1, . . . , xn) =

√detA

(2π)n/2e−1/2(X−M)tA(X−M), (3.24)

unde A = (aij)i,j=1...n este o matrice simetrica, deci A = At si care are proprietatea caforma patratica

(X −M)tA(X −M) =∑i

∑j

aij(xi −mi)(xj −mj)

Page 104: Teoria Probabilitatii

104 Variabile aleatoare continue

este pozitiv definita. X si M reprezinta:

X =

x1...xn

, M =

m1...mn

.

Presupunem pentru ınceput ca m1 = . . . = mn = 0. Reamintim ca ın acest caz exista omatrice ortogonala H (cu proprietatea HH t = In, unde In este matricea unitate), pentrucare forma patratica are forma canonica

X tAX =n∑i=1

λiy2i ,

unde λi sunt valorile proprii ale lui A, care ın cazul nostru sunt strict pozitive. Dupa cumstim detA = λ1 . . . λn. Sa verificam satisfacerea conditiei (3.19). Facem schimbarea devariabile X = HY si observam ca determinantul functional

∣∣∣∣D(x1, . . . , xn)

D(y1, . . . , yn)

∣∣∣∣ = detH = 1

deoarece H este o matrice ortogonala. Avem atunci

∫. . .

IRne

− 12

n∑i=1

aijxixjdx1 . . . dxn =

=

∫. . .

IRne

− 12

n∑i=1

λiy2i

detHdy1 . . . dyn =n∏i=1

∫ ∞−∞

e−12λiy

2i dyi.

Facem ın ultima integrala substitutia yi = zi√λi

si gasim

∫ ∞−∞

e−12λiy

2i dyi =

1√λi

∫ ∞∞

e−z2i2 dzi =

√2π√λi.

Efectuand calculele obtinem

n∏i=1

√2π

λi=

(2π)n2√

λ1 . . . ln=

(2π)n2√

detA.

Daca revenim la cazul general, prin substitutia X −M = Y , situatia se reduce la satis-facerea conditiei m1 = . . . = mn = 0.

Semnificatia coeficientilor matricei A si unele proprietati vor fi studiate ın Capitolul 3.5.Vom da cazuri particulare ale legii normale.

Variabila aleatoare normala bidimensionala.

Page 105: Teoria Probabilitatii

Variabile aleatoare continue 105

Daca variabilele marginale X, Y sunt independente, atunci densitatea de probabilitatebidimensionala are o forma foarte simpla

f(x, y) =1

2πσxσye− 1

2

�(x−mx)2

σ2x

+(y−my)2

σ2y

�. (3.25)

Daca D = [a, b]× [c, d] ⊂ IR2, atunci

P ({(X,Y ) ∈ D}) =

(Φ(b−mx

σx)− Φ(

a−mx

σx)

)(Φ(d−my

σy)− Φ(

c−my

σy)

).

Sa consideram un domeniu Dk delimitat de elipsa de egala probabilitate, adica elipsa ınale carei puncte densitatea de probabilitate este constanta k > 0. Elipsa are ecuatia(x−mx)2

σ2x

+ (y−my)2

σ2y

= k2. Observam ca semiaxele elipsei sunt a = kσx, b = kσy. Atunci are

loc

P ({(X,Y ) ∈ Dk}) = 1− e− k2

2 (3.26)

Aceasta rezulta imediat daca facem ın integrala dubla schimbarea de variabile de forma{x−mx = ρσx cos θy −my = ρσy sin θ

0 < ρ 6 k, θ ∈ [0, 2π).

Dupa efectuarea calculelor obtinem

∫ ∫

Dk

f(x, y)dxdy =σxσy

2πσxσy

∫ 2π

0

∫ k

0

e−ρ2

2 ρdρ,

de unde (3.26).

Exemplul 3.3.9 Repartitia Rayleigh Daca σx = σy = σ si mx = my = 0, distanta R

a unui ”punct aleator” (X,Y ) la origine are repartitia Rayleigh. Inlocuind ın (3.25),densitatea de probabilitate are forma

f(x, y) =1

2πσ2e−

12x2+y2

σ2 .

Facem schimbarea de variabile{x = r cos θy = r sin θ

r > 0 θ ∈ [0, 2π)

si densitatea de probabilitate a variabilei (R,Θ) este

fRΘ(r, θ) =r

2πσ2e−

r2

2σ2 ,

iar densitatea marginala a variabilei R este

f(r) =r

σ2e−

r2

2σ2 .

Page 106: Teoria Probabilitatii

106 Variabile aleatoare continue

Variabila aleatoare normala tridimensionala.

Daca variabilele marginale X, Y, Z sunt independente, densitatea de probabilitate este

f(x, y, z) =1

(2π)32σxσyσz

e− 1

2

�(x−mx)2

σ2x

+(y−my)2

σ2y

+(z−mz)2

σ2z

�.

La fel ca ın cazul bidimensional probabilitatea ca variabila (X, Y, Z) sa ia valori ıntr-un elipsoid Dk, pe a carui suprafata densitatea ia valori constante, elipsoid de egalaprobabilitate, este

P ({(X, Y, Z) ∈ DK}) = 2Φ(k)−√

2

πke−

k2

2 .

Elipsoidul are semiaxele a = kσx, b = kσy c = kσz.

Operatii cu variabile aleatoare continue.

Vom deduce formule de calcul pentru densitatile de probabilitate ale sumei, dife-rentei, produsului si catului de variabile aleatoare continue. Vom alege de fiecare datatransformari convenabile si vom utiliza formula (3.22).

Suma de variabile aleatoare continue.

Fie (X, Y ) o variabila aleatoare continua cu densitatea de probabilitate fXY . Con-sideram transformarea: {

u = x+ yv = x

,

care admite inversa {x = vy = u− v

si iacobianul J(u, v) = −1. Din (3.22) deducem ca densitatea de probabilitate a variabileialeatoare (U, V ) este fUV (u, v) = fXY (v, u− v)| − 1|. Luand densitatea marginala, gasim

fU(u) =

∫ ∞−∞

fXY (v, u− v)dv. (3.27)

Daca X si Y sunt independente fXY (v, u− v) = fX(v)fY (u− v) si densitatea sumei esteprodusul de convolutie al densitatilor fX , fY , adica

fU(u) =

∫ ∞−∞

fX(v)fY (u− v)dv. (3.28)

Exemplul 3.3.10 Sa determinam suma de variabile aleatoare independente repartizateuniform pe intervalul (a, b). Densitatea de probabilitate are valoarea 1

b−a pe intervalul[a, b] si 0 ın rest. Vom folosi (3.28).

fX+Y (x) =

∫ +∞

−∞f(y)f(x− y)dy =

1

b− a∫ x−b

x−af(x− y)dy.

Page 107: Teoria Probabilitatii

Variabile aleatoare continue 107

In ultima integrala facem schimbarea de variabila x− y = t, si obtinem

fX+Y (x) =1

b− a∫ x−a

x−bf(t)dt.

Comparınd x− a si x− b cu a si b obtinem

fX+Y =

0, x < 2ax−2a

(b−a)2 , 2a > x < a+ b2b−x

(b−a)2 , a+ b 6 x < 2b

0, x > 2b

.

Graficul densitatii de probabilitate este dat de Figura 3.11.

Diferenta de variabile aleatoare continue.

Consideram transformarea {u = x− yv = x

cu inversa {x = vy = v − u ,

iar fUV (u, v) = fXY (v, v − u). Densitatea marginala a diferentei este

fU(u) =

∫ ∞−∞

fXY (v, v − u)dv,

iar ın caz de independenta

fU(u) =

∫ ∞−∞

fX(v)fY (v − u)dv. (3.29)

Produs de variabile aleatoare.

Consideram transformarea {u = xyv = x

,

cu inversa {x = vy = u

v

si iacobianul J(u, v) = 1v. Densitatea de probabilitate este

fUV (u, v) = fXY (v,u

v)

1

|v| .

Deducem

fU(u) =

∫ ∞−∞

fXY (v,u

v)dv

|v| ,

Page 108: Teoria Probabilitatii

108 Variabile aleatoare continue

iar ın caz de independenta

fU(u) =

∫ ∞−∞

fX(v)fV

(uv

) dv|v| . (3.30)

Catul a doua variabile aleatoare continue.

Consideram transformarea {u = x

y

v = y

cu inversa {x = uvy = v

si iacobianul J(u, v) = v. Se obtine densitatea de probabilitate

fU(u) =

∫ ∞−∞

fXY (uv, v)|v|dv,

care ın caz de independenta devine

fU(u) =

∫ ∞−∞

fX(uv)fY (v)|v|dv. (3.31)

Probabilitati si functii de repartitie conditionate.

Daca X,Y sunt variabile aleatoare discrete, notiunile de probabilitati conditionateau fost definite prin ın Capitolul 2.4. Fie X este o variabila aleatoare discreta, iar Y ovariabila aleatoare continua; definim functia de repartitie a lui Y conditionata de X prin

FY (y|xk) =P ({Y < y,X = xk})

P ({X = xk})

daca P ({X = xk}) > 0. Daca functia de repartitie conditionata este derivabila, definimdensitatea de probabilitate prin formula

fY (y|xk) =d

dyFY (y|xk).

Pentru A ∈ K , are loc

P ({Y ∈ A|X = xk}) =

A

fY (y|xk)dy.

In cazul ın care X, Y sunt independente, se obtin imediat

FY (y|x) = FY (y); fY (y|x) = fY (y).

Page 109: Teoria Probabilitatii

Variabile aleatoare continue 109

Exemplul 3.3.11 Intr-un canal de comunicatie intrarea este o variabila X, care poatelua valorile +1 volt , −1 volt cu aceeasi probabilitate. Iesirea Y = X + N unde N este”zgomotul” ce poate fi considerat o variabila aleatoare repartizata uniform pe intervalul(−2, 2). Sa determinam probabilitatea P ({X = 1, Y < 0}).

Folosind formula probabilitatilor conditionate, avem

P ({X = 1, Y < y}) = P ({Y < y}|{X = 1})P ({X = 1}) = FY (y|1)P ({X = 1}).Functia de repartitie a lui Y conditionata de {X = 1} este

FY (y|1) = P ({N + 1 < y}) = P ({N < y − 1}) = FN(y − 1),

unde FN este functia de repartitie a variabilei uniforme, care are expresia

FN(x) =

0, x 6 −2,x+2

4, −2 6 x 6 2,

1, 2 < x.

Deci FY (y|1) = P ({Y < y|X = 1}) = y+14, −1 6 y 6 3, iar probabilitatea cautata este

astfel P ({X = 1}|{Y < 0)}) = 14

12

= 18.

Fie (X, Y ) o variabila aleatoare bidimensionala continua cu densitatea de probabilitatefXY continua si fX 6= 0 densitatea marginala continua. Definim functia de repartitie avariabilei Y conditionata de {X = x} prin limita urmatoare, daca exista

FY (y|x) = limh→0

P ({Y < y, x 6 X < x+ h})P ({x 6 X < x+ h}) =

∫ y−∞∫ x+h

xfXY (x′, y′)dx′dy′

∫ x+h

xfX(x′)dx′

.

Folosind teoreme de medie pentru cele doua integrale, gasim

FY (y|x) =

∫ y−∞ fXY (x, y′)dy′

fX(x).

Prin derivare obtinem densitatea de probabilitate

fY (y|x) =fXY (x, y)

fX(x). (3.32)

Daca X,Y sunt independente, au loc

fY (y|x) = fY (y), FY (y|x) = FY (y).

Analog se deduce

FX(x|y) =

∫ x−∞ fXY (x′, y)dx′

fY (y).

Prin derivare obtinem densitatea de probabilitate conditionata

fX(x|y) =fXY (x, y)

fY (y).

Page 110: Teoria Probabilitatii

110 Variabile aleatoare continue

Exemplul 3.3.12 Fie variabila aleatoare (X, Y ) cu densitatea

fXY (x, y) =

{2e−xe−y, 0 6 y 6 x < +∞,0, ın rest.

Sa determinam densitatile de probabilitate conditionata. Pentru ınceput aflam densitatilemarginale

fX(x) =

∫ x

0

2e−xe−ydy = 2e−x(1− e−x), 0 6 x < +∞si

fY (y) =

∫ +∞

y

2e−xe−ydx = 2e−2y, 0 6 y < +∞.

Folosind formulele precedente, avem

fX(x|y) =2e−xe−y

2e−2y= e−(x−y), y 6 x

si

fY (y|x) =2e−xe−y

2e−x(1− e−x) =e−y

1− e−x , 0 6 y 6 x.

Formula probabilitatii totale si formula lui Bayes se pot generaliza si ın acest caz. Relatia(3.32) poate fi scrisa sub forma

fXY (x, y) = fY (y|x)fX(x)

si aplicand definitia probabilitatii marginale, obtinem formula probabilitatii totale:

fY (y) =

∫ +∞

−∞fY (y|x)fX(x)dx

si formula lui Bayes

fY (y|x) =fX(x|y)fY (y)

fX(x).

In practica intervin si alte tipuri de probabilitati conditionate. Lasam ca exercitii,stabilirea urmatoarelor formule. Daca evenimentul ce conditioneaza este {X < x} siFX(x) 6= 0 avem

FY (y|{X < x}) =FXY (x, y)

FX(x),

fY (y|{X < x}) =

∫ x−∞ fXY (x′, y)dx′∫ +∞

−∞∫ x−∞ fXY (x′, y′)dx′dy′

.

Daca evenimentul care conditioneaza este {x1 6 X < x2} si FX(x1) 6= FX(x2) avem

FY (y|{x1 6 X < x2}) =FXY (x2, y)− FXY (x1, y)

FX(x2)− FX(x1),

fY (y|{x1 6 X < x2}) =

∫ x2

x1fXY (x, y)dx

FX(x2)− FX(x1).

Page 111: Teoria Probabilitatii

Variabile aleatoare continue 111

3.4 Valori caracteristice ale unei variabile aleatoare

Medii si momente.

Definitia 3.4.1 Daca X este o variabila aleatoare avand functia de repartitie F (x), nu-mim medie, numarul dat de

M [X] =

∫ ∞−∞

xdF (x). (3.33)

Integrala din (3.33) este de tip Riemann-Stieltjes (vezi Anexa 1). Daca X are densitate deprobabilitate continua f(x), atunci integrala din definitie se reduce la o integrala Riemannsi avem

M [X] =

∫ ∞−∞

xf(x)dx (3.34)

Sa observam ca integrala improprie din definitie s-ar putea sa nu fie convergenta. Deexemplu, variabila aleatoare repartizata Cauchy, cu densitatea de probabilitate

f(x) =1

π(1 + x2), x ∈ IR

nu are medie, deoarece integrala (3.34) este divergenta. Reamintim ca o variabila aleatoareeste continua, daca are functia de repartitie continua. Mai general, daca F are c1, . . . , cnpuncte de discontinuitate (evident de prima speta), media se obtine exprimand integralaStieltjes (vezi Anexa 1) ca o suma dintre o integrala Riemann si o suma de salturi.

M [X] =

∫ ∞−∞

f(x)dF (x) =

∫ ∞−∞

xf(x)dx+n∑

k=1

ck(F (ck + 0)− F (ck − 0)).

Exemplul 3.4.1 Sa determinam media variabilei aleatoare repartizate normal N(m,σ2).Facem ın integrala schimbarea de variabila y = x−m√

2σsi obtinem

M [X] =

∫ ∞−∞

xf(x)dx =1√2πσ

∫ ∞−∞

(m+√

2σy)e−y2√

2σdy =

=m√π

∫ ∞∞

e−y2

dy +

√2

πσ

∫ ∞∞

(−1

2e−y

2

)′dy = m,

deoarece ultima integrala este 0.

Daca X are media m si admite densitate de probabilitate nesimetrica, cele doua ariideterminate de x = m pot fi neegale. Astfel daca X reprezinta o caracteristica numericastudiata ıntr-o colectivitate statistica, are ınteles afirmatia ca majoritatea indivizilor aucaracteristica X mai mica decat media.

Regasim si ın cazul continuu aceleasi proprietati pentru medie, pe care le-am ıntalnitın cazul discret.

Page 112: Teoria Probabilitatii

112 Variabile aleatoare continue

Propozitia 3.4.1 Daca X si Y sunt variabile aleatoare ce au medii, atunci X + Y aremedie si

M [X + Y ] = M [X] +M [Y ]. (3.35)

Demonstratie. Vom demonstra aceasta propozitie ın cazul particular ın care X si Y audensitati de probabilitate fX , respectiv fY . Folosind densitatea de probabilitate a sumei,(3.27), avem

M [X + Y ] =

∫ ∞−∞

xdx

∫ ∞−∞

fXY (y, x− y)dy =

∫ ∞−∞

dy

∫ ∞−∞

xfXY (y, x− y)dx.

Ultima egalitate se datoreaza posibilitatii de a schimba ordinea de integrare. In ultimaintegrala facem schimbarea de variabila x− y = z si obtinem

M [X + Y ] =

∫ ∞−∞

dy

∫ ∞−∞

(y + z)fXY (y, z)dz =

∫ ∞−∞

ydy

∫ ∞−∞

fXY (y, z)dz+

+

∫ ∞−∞

zdz

∫ ∞−∞

fXY (y, z)dy =

∫ ∞−∞

yfY (y)dy +

∫ ∞−∞

zfX(z)dz = M [X] +M [Y ].

Proprietatea se poate extinde pentru un numar finit de variabile aleatoare.

Propozitia 3.4.2 Daca X si Y sunt variabile aleatoare independente ce admit medii,atunci produsul XY are medie si

M [XY ] = M [X]M [Y ]. (3.36)

Demonstratie. Vom folosi formula care defineste densitatea produsului de variabile alea-toare (3.30), presupunand ca X si Y au densitati de probabilitate fX , fY .

M [XY ]) =

∫ ∞−∞

xdx

∫ ∞−∞

fX(y)fY

(x

y

)dy

|y| .

In ultima integrala facem schimbarea x = yz si inversam ordinea de integrare. Gasim

M [XY ] =

∫ ∞−∞

dy

∫ ∞−∞

xfX(y)fY

(x

y

)dx

|y| =

∫ ∞−∞

dy

∫ ∞−∞

yzfX(y)fY (z)dz =

= M [X]M [Y ].

Daca o variabila aleatoare nu are medie, alte caracteristici numerice care studiaza”tendinta centrala” sunt modul si mediana. Mediana a fost definita de (3.4) si ea e-xista pentru orice variabila aleatoare. De exemplu, ın cazul repartitiei Cauchy, datoritasimetriei fata de axa Oy, mediana este me = 0, iar ın cazul repartitei normale este m.

Definitia 3.4.2 mo se numeste modul pentru variabila aleatoare X cu densitatea de pro-babilitate f(x), daca este un punct de maxim pentru f(x).

Page 113: Teoria Probabilitatii

Variabile aleatoare continue 113

O variabila aleatoare poate fi unimodala, bimodala etc, dupa cum densitatea de pro-babilitate are unul sau mai multe puncte de maxim local.

Media unei transformari de variabila aleatoare.

Daca X este o variabila aleatoare, iar y = Ψ(x) este o tansformare de clasa C1,inversabila, media variabilei Y = Ψ(X) daca exista, este data de formula

M [Y ] =

∫ +∞

−∞Ψ(x)fX(x)dx. (3.37)

Aceasta rezulta daca facem ın integrala care defineste media

M [Y ] =

∫ +∞

−∞yfY (y)dy

schimbarea de variabila si aplicam relatia (3.23), unde Φ este transformarea inversa.

Exemplul 3.4.2 Daca X : U(0, 2π), sa determinam media variabilei Y = cosX. Apli-cand formula (3.37), avem

M [Y ] =

∫ 2π

0

cosx1

2πdx = 0.

Reamintim ca daca X este o variabila aleatoare, numarul νk = M [Xk], k ∈ IN (dacaexista), se numeste moment initial de ordin k. Momentul initial de ordin k se calculeazadupa formula

νk =

∫ ∞−∞

xkf(x)dx, (3.38)

daca variabila aleatoare X are densitatea de probabilitate f . Aceasta formula rezultadaca aplicam (3.37) variabilei Ψ(x) = Xk. Observam ca ν1 = M [X].

Momentul centrat de ordin k se defineste prin µk = M [(X −M [X])k]. Daca X aredensitatea de probabilitate f , atunci folosind din nou (3.37), momentul centrat are ex-presia

µk =

∫ ∞−∞

(x− ν1)kf(x)dx.

Intre momentele initiale si cele centrate au loc relatiile urmatoare, care se demonstreazafara dificultate:

µk =k∑i=0

(−1)iC ikνk−iν

i1; νk =

k∑i=0

Cikµk−iν

i1. (3.39)

Reamintim ca µ2 se numeste dispersie sau varianta si se noteaza D2[X], iar D[X] senumeste abaterea medie patratica. Aceste caracteristici au aceleasi proprietati ca ın cazuldiscret, demonstratia lor nefiind dificila.

Page 114: Teoria Probabilitatii

114 Variabile aleatoare continue

Exemplul 3.4.3 Sa calculam momentele centrate ale repartitiei normale N(m,σ2). A-vem

µk =1

σ√

∫ ∞−∞

(x−m)ke−(x−m)2

2σ2 dx,

ın care facem schimbarea de variabila x−m =√

2σy , deci

µk =(σ√

2)k√π

∫ ∞−∞

yke−y2

dy.

Daca integram prin parti obtinem

µk =(σ√

2)k√π

(−1

2e−y

2

yk−1∣∣+∞−∞ +

k − 1

2

∫ ∞−∞

yk−2e−y2

dy

)=

=(k − 1)(σ

√2)k

2√π

∫ ∞−∞

yk−2e−y2

dy = (k − 1)σ2µk−2,

deoarece prima expresie se anuleaza la limita. Deducem din relatia de recurenta prece-denta {

µ2k+1 = 0µ2k = (k − 1)!!σ2k .

In particular, pentru k = 2, obtinem D2[X] = σ2. Regasim, si ın cazul variabileloraleatoare continue, inegalitatea lui Cebasev, cu ajutorul careia putem aprecia gradul deımprastiere a valorilor variabilei; inegalitatea va constitui un important instrument delucru ın cazul Legii numerelor mari (Capitolul 4).

Propozitia 3.4.3 (Inegalitatea lui Cebasev) Daca variabila aleatoare X este continua cumedia m si dispersia σ2, atunci are loc

P ({|X −m| < ε}) > 1− σ2

ε2, ∀ε > 0, (3.40)

sau echivalent

P ({|X −m| > ε}) < σ2

ε2∀ε > 0.

Demonstratie. Dispersia este data de

σ2 =

∫ ∞−∞

(x−m)2f(x)dx =

∫ m−ε

−∞(x−m)2f(x)dx+

∫ m+ε

m−ε(x−m)2f(x)dx+

+

∫ +∞

m+ε

(x−m)2f(x)dx.

Din faptul ca x 6∈ (m− ε,m+ ε), rezulta (x−m)2 > ε2 si dispersia poate fi minorata prin

σ2 > ε2(∫ m−ε

−∞f(x)dx+

∫ ∞m+ε

f(x)dx

)=

Page 115: Teoria Probabilitatii

Variabile aleatoare continue 115

= ε2(

1−∫ m+ε

m−εf(x)dx

),

deoarece∫∞−∞ f(x)dx = 1. Ultima paranteza se poate scrie

σ2 > ε2(1− P ({|X −m| < ε})),

care este echivalenta cu relatia (3.40). .

Exemplul 3.4.4 Timpul mediu de raspuns al unui calculator este de 15 secunde pentruo anumita operatie, cu abaterea medie patratica 3 secunde. Estimati probabilitatea catimpul de raspuns sa se abata cu mai putin de 5 secunde fata de medie. Vom folosiinegalitatea lui Cebasev. Avem

P ({|X − 15| > 5}) 6 9

25= 0, 36.

Reamintim ca momentul absolut de ordin k pentru o variabila aleatoare se defineste prinformula βk = M [|X|k]. Daca X are densitatea de probabilitate f , atunci momentulabsolut este dat de formula

βk =

∫ ∞−∞|x|kfX(x)dx.

Observam ca existenta momentelor absolute de ordin k, antreneaza existenta momentelorinitiale de ordin k, deoarece

∣∣∣∣∫ ∞−∞

xkf(x)dx

∣∣∣∣ 6∫ ∞−∞|x|kf(x) <∞,

iar din presupunerea facuta, a doua integrala este convergenta. De asemenea, daca existamoment absolut de ordin k, exista momente absolute de orice ordin l 6 k. Intr-adevar,

∫ ∞−∞|x|lf(x)dx =

|x|61

|x|lf(x)dx+

|x|>1

|x|lf(x)dx 6

6∫

|x|61

|x|lf(x)dx+

|x|>1

|x|kf(x)dx.

Prima integrala este finita datorita domeniului de integrare, iar a doua din presupunereafacuta.

Inegalitatea lui Cebasev poate fi generalizata pentru momente absolute de orice ordink ∈ IN , ın sensul urmator: daca variabila aleatoare X are moment absolut de ordin k,atunci

P ({|X −m| < ε}) > 1− M [|X −m|k]εk

,∀ε > 0, (3.41)

sau echivalent

P ({|X −m| > ε}) < M [|X −m|k]εk

.

Page 116: Teoria Probabilitatii

116 Variabile aleatoare continue

Propozitia 3.4.4 (Inegalitatea lui Schwarz) Daca variabilele aleatoare X si Y au mo-mente absolute de ordin 2, atunci XY are moment absolut de ordin 2 si

β2(XY ) 6√β2(x)β2(y). (3.42)

Demonstratie. Pentru orice λ ∈ IR, inegalitatea M [(|X| + λ|Y |)2] > 0 este evidenta.Efectuand calculele avem

M [(X + λY )2] = λ2M [X2] + 2λM [|XY |] +M [Y 2] > 0,

si folosind semnul functiei de gradul al doilea, inegalitatea precedenta este adevarata dacadiscriminantul ∆ 6 0, ceea ce revine la

M [|XY |2] 6M [X2]M [Y 2].

De unde, dupa extragerea radicalului gasim (3.42).Obseram ca, ın aceleasi ipoteze, rezulta si

|M [XY ]| 6√M [X2]M [Y 2].

Definitia 3.4.3 Fie X si Y doua variabile aleatoare pentru care exista momentele ab-solute de ordinul al doilea. Numarul definit de

Cov[X, Y ] = M [(X −M [X])(Y −M [Y ])]

se numeste covarianta variabilelor X si Y , iar numarul dat de formula

ρ[X,Y ] =Cov[X, Y ]

D[X]D[Y ], (3.43)

daca D[X] 6= 0, D[Y ] 6= 0, se numeste coeficient de corelatie. Variabilele aleatoare X siY se numesc necorelate daca

M [XY ] = M [X]M [Y ].

Observam ca daca X si Y sunt independente, din Propozitia 3.4.2 rezulta ca sunt necore-late. Se pot da exemple care sa ilustreze ca reciproca afirmatiei precedente nu esteadevarata, adica pot exista variabile aleatoare necorelate fara ca ele sa fie independente.Daca X si Y sunt variabile aleatoare continue care admit momente absolute de ordinul aldoilea, dispersia sumei se calculeaza dupa formula

D2(X + Y ) = D2(X) +D2(Y ) + 2Cov[X, Y ].

Aceasta formula se generalizeaza usor ın cazul a n variabile. Din formula (3.43) rezultaimediat ca

ρ[X,X] = 1,

iarρ[X, Y ] = 0 daca si numai daca X si Y sunt necorelate.

Page 117: Teoria Probabilitatii

Variabile aleatoare continue 117

Propozitia 3.4.5 Pentru oricare doua variabile X si Y , care admit coeficient de corela-tie, este satisfacuta inegalitatea

|ρ[X, Y ]| 6 1. (3.44)

Demonstratie. Consideram variabilele aleatoare X ′ = X−M [X]D[X]

, Y ′ = Y−M [Y ]D[Y ]

si le aplicaminegalitatea lui Schwarz. Rezulta

|M [X ′Y ′]| 6√M [X ′2]M [Y ′2].

Ramane sa observam ca

ρ[X,Y ] = M [X ′, Y ′] =M [(X −M(X))(Y −M(Y ))]

D[X]D[Y ]

si ca M [X ′2] = D2[X]D2[X]

= 1. Dupa efectuarea ınlocuirilor, se obtine formula(3.44).

Propozitia 3.4.6 Pentru oricare doua variabile aleatoare, ce admit coeficient de corela-tie, urmatoarele afirmatii sunt echivalente:

1. |ρ[X, Y ]| = 1;2. exista a, b ∈ IR, nesimultan nule si c ∈ IR , astfel ıncat relatia aX + bY + c = 0 are

loc aproape sigur (adica P ({aX + bY + c = 0}) = 1).

Vom schita demonstratia. Intr-un sens afirmatia este imediata; anume daca are locaX+bY +c = 0 aproape sigur si presupunem b 6= 0, gasim m,n ∈ IR astfel ca Y = mX+n.Observam imediat ca

ρ[X, Y ] =

{1, daca m > 0−1, daca m < 0.

Reciproc, daca X ′ = X−M [X]D[X]

, Y ′ = Y−M [Y ]D[Y ]

, atunci sunt evidente urmatoarele relatii

ρ[X, Y ] = M [X ′Y ′] = 1 si M [(X ′±Y ′)2] = 0. Intr-un cadru mai general decat cel prezen-tat ın acest curs (vezi [22]), se poate arata ca din ultima egalitate rezulta ca X ′ ± Y ′ = 0aproape sigur, deci:

X −M [X]

D[X]= ±Y −M [Y ]

D[Y ].

Schimband eventual notatiile, din ultima egalitate deducem 2.Notiunea de moment poate fi extinsa la variabile aleatoare multidimensionale.

Definitia 3.4.4 Daca (X1, . . . , Xn) este o variabila aleatoare n-dimensionala cu densita-tea de probabilitate fX1...Xn, numim moment initial de ordinul (k1 . . . kn) numarul

νk1...kn = M [Xk11 , . . . , X

knn ] =

∫. . .

IRnxk1

1 . . . , xknn fX1...Xn(x1, . . . xn)dx1 . . . dxn.

Definitia 3.4.5 Daca X si Y sunt doua variabile aleatoare n-dimensionale, matricea deelemente

Cov[XiYj], i = 1, . . . n, j = 1, . . . n.

se numeste matricea de covarianta.

Page 118: Teoria Probabilitatii

118 Variabile aleatoare continue

Medii conditionate.

Daca X este o variabila aleatoare cu densitatea de probabilitate f si A ∈ K, definimmedia lui X conditionata de A

M [x|A] =

∫ +∞

−∞xf(x|A)dx (3.45)

unde f(x|A) este densitatea de probabilitate a lui X conditionata de A.

Exemplul 3.4.5 Fie T variabila aleatoare care da timpul de functionare pana la primadefectare. Sa determinam media lui T , conditionata de faptul ca sistemul a functionatpana la momentul t. Folosind un rationament asemanator cu cel pentru deducerea formulei(3.15), deducem

f(x|{T 6 t}) =f(x)∫ +∞

tf(x)dx

, x 6 t.

Atunci cu ajutorul relatiei (3.45), obtinem

M [T |{T 6 t}] =

∫ +∞t

xf(x)dx∫ +∞t

f(x)dx.

Daca X si Y sunt doua variabile aleatoare cu densitatile de probabilitate fX , fY definimmediile conditionate prin formulele

M [Y |x] =

∫ +∞

−∞yfY (y|x)dy

M [X|y] =

∫ +∞

−∞xfX(x|y)dx,

daca exista. Se poate arata ca mediile conditionate sunt de fapt variabile aleatoare, careadmit la randul lor medie, ce se exprima prin formulele integrale ale mediei totale.

M [Y ] =

∫ +∞

−∞M [Y |x]fX(x)dx

M [X] =

∫ +∞

−∞M [X|y]fY (y)dy.

Sa deducem prima egalitate.∫ +∞

−∞M [Y |x]fX(x)dx =

∫ +∞

−∞fX(x)dx

∫ +∞

−∞yfY (y|x)dy =

=

∫ +∞

−∞ydy

∫ +∞

−∞fY (y|x)fX(x)dx.

Daca folosim (3.32) si densitatea de probabilitate marginala, deducem ca ultima formulareprezinta chiar M [Y ].

Page 119: Teoria Probabilitatii

Variabile aleatoare continue 119

Exemplul 3.4.6 Numarul de ”clienti” care ajunge la ”o statie de deservire” ıntr-uninterval de timp t este o variabila aleatoare Poisson cu parametrul βt. Timpul necesardeservirii fiecaruia este o variabila exponentiala, T , cu parametrul α, deci are densitateade probabilitate

f(t) =

{αe−αt, daca t > 00, daca t < 0

(α > 0).

Sa determinam repartitia variabilei N , care da numarul de clienti ce ajung ın timpul T aldeservirii unui client, media si dispersia, ın ipoteza ca sosirile clientilor sunt independentede timpul de deservire. Aplicam formula probabilitatii totale

P ({N = k}) =

∫ +∞

−∞P ({N = k}|{T = t})fT (t)dt =

∫ +∞

0

(βt)k

k!e−βtαe−αtdt =

=αβk

k!

∫ +∞

0

tke−(α+β)tdt.

Facand schimbarea de variabile r = (α + β)t sirul de egalitati poate fi continuat,

αβk

k!(α + β)k+1

∫ +∞

0

rke−rdr =αβk

(α + β)k+1=

α

α + β

α + β

)k.

Deci N este o variabila aleatoare geometrica. Daca se produce {T = t}, variabilaconditionata este Poisson, cu paramertul βt. Rezulta ca media si dispersia au aceeasivaloare si anume βt. Pentru calculul mediei lui N putem folosi formula mediei totale

M [N ] =

∫ +∞

0

M [N |t]fT (t)dt =

∫ +∞

0

βtfT (t)dt = βM [T ].

M [N2] =

∫ +∞

0

M [N2|t]fT (t)dt =

∫ +∞

0

(βt+ β2t2)fT (t)dt = βM [T ] + β2M [T 2].

Sa mai observam ca T fiind variabila exponentiala M [T ] = 1α, D2[T ] = 1

α2 . Deci

M [N ] = βαD2[N ] = β2

α2 + βα

.

3.5 Functia caracteristica a unei variabile aleatoare

In acest capitol am vazut ca densitatea de probabilitate a sumei de variabile aleatoareindependente este produsul de convolutie al densitatilor de probabilitate, dar analitic esteuneori dificil de aplicat acest rezultat. Un instrument mai comod este functia caracte-ristica, pe care o vom utiliza si la determinarea momentelor unei variabile aleatoare.

Fie X o variabila aleatoare continua avand densitatea de probabilitate fX .

Page 120: Teoria Probabilitatii

120 Variabile aleatoare continue

Definitia 3.5.1 Numim functie caracteristica asociata variabilei aleatoare X, functiaϕ : IR→ C, definita prin

ϕ(t) = M [eitX ] =

∫ ∞−∞

eitxfX(x)dx.

Tinand cont ca eiy = cos y + i sin y cu y ∈ IR , eitX reprezinta o variabila aleatoarebidimensionala cu componentele (cos tX, sin tX). Deoarece |eitx| = 1, functia caracteris-tica exista pentru orice variabila aleatoare ce admite densitate de probabilitate. Vommai nota ϕX(t), pentru a pune ın evidenta carei variabile aleatoare i se asociaza functiacaracteristica. Definitia functiei caracteristice reprezinta transformata Fourier aplicatafunctiei absolut integrabile fX ; o formula de inversare va fi formulata ın prezenta conditieisuplimentare de absoluta integrabilitate a functiei caracteristice, ın Teorema 5.3 din acestcapitol.

Propozitia 3.5.1 Urmatoarele afirmatii sunt adevarate :1. ϕ(0) = 1;2. |ϕ(t)| 6 1;3. ϕ(−t) = ϕ(t);4. ϕ(t) este uniform continua pe IR.

Demonstratie.1. si 2. sunt evidente.

3. Sa calculam

ϕ(−t) =

∫ ∞−∞

e−itxϕ(x)dx =

∫ ∞−∞

eitxf(x)dx =

∫ ∞−∞

eitxf(x)dx = ϕ(t).

4. Pentru a arata ca ϕ este uniform continua, sa calculam:

|ϕ(t+ h)− ϕ(t)| =∣∣∣∣∫ ∞−∞

eitx(eihx − 1)f(x)dx

∣∣∣∣ 6∫ ∞−∞|eihx − 1|f(x)dx.

Deoarece∫∞−∞ f(x)dx = 1, pentru orice ε > 0, exista A suficient de mare astfel ıncat

|x|>Af(x)dx < ε/4,

iar din continuitatea exponentialei exista h suficient de mic ıncat |eihx− 1| < ε/2. Atunciputem scrie

|ϕ(t+ h)− ϕ(t)| 6∫ A

−A|eihx − 1|f(x)dx+

|x|>Af(x)dx < ε.

Observatie. Urmatoarele afirmatii sunt echivalente : o functie caracteristica estereala; f(−x) = f(x); F (x) = 1 − F (−x), unde F si f sunt functiile de repartitie,respectiv de densitate de probabilitate. Egalitatile dintre functiile precedente au loc ın

Page 121: Teoria Probabilitatii

Variabile aleatoare continue 121

cazul cel mai general cu exceptia unei multimi de probabilitate nula (deci aproape sigur).Demonstram afirmatia ın cazul ın care f este continua. Aratam, mai ıntai, ca ultimeledoua afirmatii sunt echivalente. Avem

F ′(x) = (1− F (−x))′ ⇒ f(x) = f(−x).

Reciproc, daca f(x) = f(−x)

F (x) =∫ x−∞ f(t)dt = 1− ∫∞

xf(t)dt = 1 +

∫ −∞−x f(−u)du =

= 1− ∫ −x−∞ f(u)du = 1− F (−x).

In ce priveste echivalenta primelor doua relatii se observa imediat ca

f(x) = f(−x) =⇒ ϕ(t) =

∫ ∞−∞

eitxf(x)dx =

∫ ∞−∞

e−itxf(x)dx = ϕ(−t) = ϕ(t).

Se poate arata, ın prezenta unor rezultate suplimentare si care nu sunt cuprinse ın acestcurs, ca din faptul ca ϕ este reala, rezulta f(x) = f(−x).

Propozitia 3.5.2 1. Daca Y = aX + b, cu a, b ∈ IR, atunci ϕY (t) = eitbϕX(at);2. Daca X si Y sunt independente, atunci ϕX+Y = ϕXϕY .

Demonstratie.1. ϕY (t) = M [eity] = M

[eit(aX+b)

]= eitbM

[eitaX

]= eitbϕX(at).

2. ϕX+Y (t) = M(eit(X+Y )

)= M

(eitXeitY

)= ϕX(t)ϕY (t).

Cunoasterea functiei caracteristice permite calculul momentelor initiale, dupa cumrezulta din urmatoarea teorema.

Teorema 3.5.1 Daca o variabila aleatoare admite moment absolut de ordin n, n ∈ IN ,atunci functia caracteristica este de n ori derivabila si are loc :

νk =ϕ(k)(0)

ik, k = 1, . . . n.

Demonstratie. Derivam formal de k ori sub integrala cu parametru din definitia functieicaracteristice. Gasim dupa majorari

ϕ(k)(t) = ik∫ ∞−∞

xkeitxf(x)dx,

iar ∣∣∣∣∫ ∞−∞

xkeitxf(x)dx

∣∣∣∣ 6 βk 6 βn, ∀k = 1, . . . n,

deci derivatele exista. Daca ın formula de derivare luam t = 0, gasim

ϕ(k)(0) = ikνk.

Page 122: Teoria Probabilitatii

122 Variabile aleatoare continue

Teorema 3.5.2 Daca X este o variabila aleatoare continua care admite momente ab-solute de orice ordin, atunci functia caracteristica admite dezvoltare ın serie de puteri deforma

ϕ(t) =∞∑

k=0

(it)k

k!νk.

Demonstratie. Inlocuim ın definitia functiei caracteristice dezvoltatea ın serie a expo-nentialei si gasim

ϕ(t) =

∫ ∞−∞

eitxϕ(x)dx =

∫ ∞−∞

(1 +

itx

1!+ . . .+

(itx)n−1

(n− 1)!+

(itx)n

n!eixθ)f(x)dx =

= ν0 +it

1!ν1 + . . .+

(it)n−1

(n− 1)!νn−1 +Rn.

Majorand restul obtinem

|Rn| =∣∣∣∣(it)n

n!

∫ ∞−∞

xneitθf(x)dx

∣∣∣∣ 6|t|nn!

∫ ∞−∞|x|nf(x)dx <∞.

Se observa ca limn→∞

Rn = 0, deci afirmatia este adevarata.

Teorema 3.5.3 (Formula de inversiune) Fie X o variabila aleatoare avand ϕ si F , res-pectiv, functia caracteristica si functia de repartitie. Daca x1, x2, cu x1 < x2 sunt punctede continuitate ale lui F , atunci are loc

F (x2)− F (x1) = limc→∞

1

∫ c

−c

e−itx1 − e−itx2

itϕ(t)dt. (3.46)

Demonstratie. Observam ca pentru c ∈ IR, functia de sub integrala este continua, daca odefinim ın t = 0 prin

limt→0

e−itx1 − e−itx2

it= (x2 − x1)ϕ(0).

De asemenea, functia are un majorant integrabil, deci integrala

Ic =1

∫ c

−c

e−itx1 − e−itx2

itϕ(t)dt

este convergenta. Consideram cazul particular ın care X are densitate de probabilitate fsi ınlocuim ın integrala precedenta pe ϕ

Ic =1

∫ c

−c

∫ ∞−∞

e−itx1 − e−itx2

iteitzf(z)dzdt.

Prin schimbarea ordinii de integrare (posibila deoarece ın raport cu z avem absolutaconvergenta, iar ın raport cu t integrarea se face pe interval finit), gasim

Ic =1

∫ ∞−∞

(∫ c

−c

eit(z−x1) − eit(z−x2)

itdt

)f(z)dz =

Page 123: Teoria Probabilitatii

Variabile aleatoare continue 123

=1

∫ ∞−∞

(∫ 0

−c

eit(z−x1) − eit(z−x2)

itdt+

∫ c

0

eit(z−x1) − eit(z−x2)

itdt

)f(z)dz.

In prima integrala facand schimbarea t→ −t, obtinem

Ic =1

∫ ∞−∞

(∫ c

0

−e−it(z−x1) + e−it(z−x2) + eit(z−x1) − eit(z−x2)

itdt

)f(z)dz =

=1

π

∫ ∞−∞

∫ c

0

(sin t(z − x)

t− sin t(z − x2

t

)dtf(z)dz

Alegem un δ > 0 astfel ıncat x1 + δ < x2 − δ si descompunem integrala pe domeniile :

(−∞, x1 − δ), (x1 − δ, x1 + δ), (x1 + δ, x2 − δ), (x2 − δ, x2 + δ), (x2 + δ,∞).

Reamintim formula lui Dirichlet [10] :

limc→∞

1

π

∫ c

0

sinαt

tdt =

{1/2, daca α > 0−1/2, daca α < 0

unde limita este uniforma ın raport cu α. Pe intervalul (−∞, x1 − δ), avem z − x2 <z − x1 < −δ < 0, deci

1

π

∫ c

0

(sin t(z − x1)

t− sin t(z − x2)

t

)dt→ 0, daca c→∞

si cum integrala este uniform marginita ın raport cu c, putem comuta integrala cu limitasi obtinem

∫ x1−δ

−∞

1

π

∫ c

0

(sin t(z − x1)

t− sin t(z − x2)

t

)dtf(z)dz → 0, daca c→∞ (3.47)

si analog

∫ ∞x2+δ

1

π

∫ c

0

(sin t(z − x1)

t− sin t(z − x2)

t

)dtf(z)dz → 0, pentru c→∞. (3.48)

Pe intervalul (x1 + δ, x2 − δ) folosind formula lui Dirichlet si convergenta uniforma ınraport cu α, deducem

limc→∞

∫ x2−δ

x1+δ

1

π

∫ c

0

(sin t(z − x1)

t− sin t(z − x2)

t

)dtf(z)dz =

=

∫ x2−δ

x1+δ

(sin t(z − x1)

t− sin t(z − x2)

t

)dtf(z)dz = F (x2 − δ)− F (x1 + δ). (3.49)

Pe intervalele (x1− δ, x1 + δ) si (x2− δ, x2 + δ), integralele pot fi majorate respectiv, dacafolosim din nou formula lui Dirichlet, cu

2(F (x1 + δ)− F (x1 − δ)),2(F (x2 + δ)− F (x2 − δ)). (3.50)

Page 124: Teoria Probabilitatii

124 Variabile aleatoare continue

Pentru orice ε > 0, din (3.47) si (3.48) exista cε astfel ıncat ∀c > cε are loc

∣∣∣∣1

π

∫ ∞−∞

(∫ c

0

(sin t(z − x1)

t− sin t(z − x2)

t

))f(z)dz

∣∣∣∣ 6

6 ε/3 + ε/3 + F (x2 − δ)− F (x1 + δ)/3 + 2(F (x1 + δ)−−F (x1 − δ) + F (x2 + δ)− F (x2 − δ)).

In inegalitatea de mai sus au intervenit si relatiile (3.49) si (3.50). Deoarece x1 si x2 suntpuncte de continuitate pentru F

limδ→0

(F (x1 + δ)− F (x1 − δ)) = limδ→0

(F (x2 + δ)− F (x2 − δ)) = 0.

Trecand apoi la limita pentru c→∞ , gasim formula (3.46 ).

Aceasta teorema ne permite sa stabilim o corespondenta biunivoca ıntre functiile derepartitie si cele caracteristice, dupa cum rezulta din urmatoarea teorema.

Teorema 3.5.4 (Teorema de unicitate) Functia de repartitie este unic determinata defunctia sa caracteristica.

Demonstratie. In teorema precedenta facem pe x1 sa tinda la ∞, x1 ramanand punct decontinuitate. Deoarece lim

x1→−∞F (x1) = 0, gasim

F (x2) = limx1→−∞

limc→∞

∫ c

−c

e−itx1 − e−itx2

itϕ(t)dt

∀x1, x2 puncte de continuitate ale lui F .

Teorema 3.5.5 Daca functia caracteristica este absolut integrabila pe IR, adica

∫ ∞−∞|ϕ(t)|dt <∞,

atunci F are derivata simetrica pe IR, deci ∀x ∈ IR , exista

limh→0

F (x+ h)− F (x− h)

2h= F ′s(x),

siF ′s(x) = f(x)

ın orice punct de continuitate a lui f .

Demonstratie. Pentru orice doua puncte de continuitate ale lui F , are loc din formula deinversiune

F (x2)− F (x1) =1

∫ ∞−∞

e−itx1 − e−itx2

itϕ(t)dt,

Page 125: Teoria Probabilitatii

Variabile aleatoare continue 125

deoarece folosind ipoteza, functia din membrul al doilea este integrabila. Presupunand cax1 = x− h, x2 = x+ h, atunci :

F (x+ h)− F (x− h) = 2h1

∫ ∞−∞

sin th

the−itxϕ(t)dt.

Deoarece ∣∣∣∣sin th

th

∣∣∣∣ 6 1,

avem ∣∣∣∣e−itxsin th

thϕ(t)

∣∣∣∣ 6 |ϕ(t)|, ∀h ∈ IR,

si

limh→0

e−itxsin th

th= e−itx.

Intr-un cadru mult mai general decat cel prezent, se poate demonstra un criteriu deconvergenta dominata a lui Lebesgue [22], ın baza caruia putem trece la limita sub inte-grala si gasim

F ′s = limh→0

F (x+ h)− F (x− h)

2h=

1

∫ ∞−∞

e−itxϕ(t)dt. (3.51)

Sa demonstram ca F ′s este continua; ıntr-adevar

|F ′s(x+ h)− Fs(x)| 6 1

∫ ∞−∞

2

∣∣∣∣sinth

2

∣∣∣∣ |ϕ(t)|dt =

=1

π

|t|6A

∣∣∣∣sinth

2

∣∣∣∣ |ϕ(t)|dt+1

π

|t|>A

∣∣∣∣sinth

2

∣∣∣∣ |ϕ(t)|dt.

Pentru ε > 0 putem alege A suficient de mare ıncat

1

π

|t|>A|ϕ(t)dt < ε/2.

Prima integrala poate fi facuta < ε/2, daca alegem h suficient de mic, deci

|F ′s(x+ h)− F ′s(x)| < ε,

de unde rezulta continuitatea. Reamintim ca ın orice punct de continuitate pentru f ,are loc F ′(x) = f(x), de unde afirmatia teoremei, deoarece derivata simetrica coincide cuderivata.

Relatia (3.51) constituie formula de inversare, care exprima densitatea de probabilitatecu ajutorul functiei caracteristice. Vom demonstra ın continuare teorema lui Bochner,care da o descriere completa a functiilor caracteristice, acest rezultat fiindu-ne necesar lastudiul proceselor stochastice stationare.

Page 126: Teoria Probabilitatii

126 Variabile aleatoare continue

Definitia 3.5.2 Functia ϕ : IR → IR, continua, se numeste pozitiv definita pe IR, daca∀t1, . . . , tn ∈ IR si z1, . . . , zn ∈ C, ∀n ∈ IN , are loc

n∑

k=1

n∑j=1

ϕ(tj − tk)zjzk > 0.

Cateva proprietati decurg imediat din definitie.1. ϕ(0) > 0.Intr-adevar pentru n = 1, t1 = 0, z1 = 1, afirmatia este evidenta.2. ϕ(−t) = ϕ(t), ∀t ∈ IR.Aceasta rezulta daca luam n = 2, t1 = 0, t2 = t, z1, z2 ∈ C.

0 62∑

k=1

2∑j=1

ϕ(tk − tj)zkzj = ϕ(0− 0)z1z1 + ϕ(0− t)z1z2 + ϕ(t− 0)z2z1 + ϕ(t− t)z2z2 =

= ϕ(0)(|z1|2 + |z2|2) + ϕ(−t)z1z2 + ϕ(t)z1z2,

si deci ϕ(−t)z1z2 + ϕ(t)z1z2 ∈ IR. Daca luam

ϕ(−t) = α1 + iβ1 , ϕ(t) = α2 + iβ2,z1z2 = γ + iδ , z1z2 = γ − iδ,

rezulta α1δ + β1γ − α2δ + β2γ = 0, ∀γ, δ, deci obtinem α1 = α2 si β1 + β2 = 0.3. |ϕ(t)| 6 ϕ(0).In inegalitatea de la punctul precedent, fie z1 = ϕ(t), z2 = −|ϕ(t)|, atunci deducem

2ϕ(0)|ϕ(t)|2 − |ϕ(t)|2|ϕ(t)| − |ϕ(t)|2|ϕ(t)| > 0,

De unde, daca |ϕ(t)| 6= 0 rezulta ϕ(0) > |ϕ(t)|, iar daca |ϕ(t)| = 0, din prima proprietatededucem din nou afirmatia.

Teorema 3.5.6 (Bochner-Hincin) O functie ϕ(t) continua, cu conditiaϕ(0) = 1 este o functie caracteristica, daca si numai daca este pozitiv definita.

Demonstratie. Daca ϕ este functie caracteristica pentru o variabila aleatoare cu densitateade probabilitate f , are loc

ϕ(t) =

∫ ∞−∞

eitxf(x)dx.

Sa demonstram ca este pozitiv definita. Avem

n∑

k=1

n∑j=1

ϕ(tj − tk)zjzk =n∑

k=1

n∑j=1

(∫ ∞−∞

eix(tk−tj)f(x)dxzkzj

)=

=

∫ ∞−∞

n∑

k=1

n∑j=1

eix(tk−tj)f(x)zkzjdx =

∫ ∞−∞

(n∑

k=1

eitkxzk

)(n∑j=1

e−itjxzj

)f(x)dx =

Page 127: Teoria Probabilitatii

Variabile aleatoare continue 127

=

∫ ∞−∞

∣∣∣∣∣n∑

k=1

eitkxzk

∣∣∣∣∣

2

f(x)dx > 0.

Reciproc. Pentru Z > 0, consideram functia

pZ(x) =1

2πZ

∫ Z

0

∫ Z

0

ϕ(u− v)e−iuxeivxdudv.

Daca scriem integrala dubla ca limita a sumelor Riemann corespunzatoare si folosimpozitiva definire a lui ϕ, rezulta ca pZ > 0. Facem ın integrala dubla schimbarea devariabile {

t = u− vz = u

cu inversa {u = zv = z − t.

Domeniul [0, Z] × [0, Z] din Figura 3.12 este dus ın domeniul reprezentat ın figura 3.13.Se obtine imediat

pZ(x) =1

∫ Z

−Z

(1− |t|

Z

)ϕ(t)e−itxdt.

Sa demonstram ca pZ(x) este integrabila pe R. Vom reface ın acest scop o demonstratiedatorata lui Yu Linnik, pe acest caz particular. Notam

G(x) =

∫ x

−xpZ(z)dz

si ınlocuim pZ , dupa care schimbam ordinea de integrare. Obtinem

G(x) =1

∫ x

−x

∫ Z

−Z

(1− |t|

Z

)ϕ(t)e−itzdtdz.

Introducand functia

p(t) =

{ (1− |t|

Z

)ϕ(t), |t| 6 Z

0, |t| > Z,

deducem

G(x) =1

∫ Z

−Zp(t)

∫ x

−xe−itxdzdt =

1

π

∫ Z

−Zp(t)

sin tx

tdt.

Datorita faptului ca pZ > 0, rezulta ca G este nedescrescatoare. Pentru asigurarea inte-grabilitatii este suficient sa aratam ca G este marginita. Introducem functia auxiliara

G1(u) =1

u

∫ 2u

u

G(x)dx

si observam ca

G1(u) > G(u)

u

∫ 2u

u

dx = G(u).

Page 128: Teoria Probabilitatii

128 Variabile aleatoare continue

Deoarece G1 majoreaza G, pentru marginirea lui G este suficient sa aratam marginirealui G1. Sa calculam

G1(u) =1

πu

∫ 2u

u

∫ Z

−Zp(t)

sin tx

tdtdx =

1

πu

∫ Z

−Zp(t)− cos tx

t2∣∣2uu dt =

=1

πu

∫ Z

−Zp(t)

1

t2(cos ut− cos2ut)dt =

=2

πu

∫ Z

−Zp(t)

(sinut)2

t2dt− 2

πu

∫ Z

−Zp(t)

(sin ut2

)2

t2dt.

Fie M = sup |p(t)|. Atunci

2

πu

∫ Z

−Zp(t)

(sinut)2

t2dt 6 2M

∫ ∞−∞

(sinut)2

u2t2udt,

iar2

u

∫ Z

−Zp(t)

(sin ut2

)2

t2dt 6 M

π

∫ ∞−∞

(sin v)2

v2dv.

Integralele din membrul al doilea sunt convergente. Deci marginirea este asigurata. Seconstata ca

pZ(x) =1

∫ ∞−∞

p(t)e−itxdt

adica 12πpZ este transformata Fourier a functiei p. Folosind formula de inversiune pentru

functia p continua (vezi [10]), rezulta ca

1

(1− |t|

Z

)ϕ(t) =

1

∫ ∞−∞

pZ(x)eitxdx,∀|t| 6 Z.

In particular, pentru t = 0, ∫ ∞−∞

pZ(x)dx = ϕ(0) = 1,

iar functia pZ fiind continua si integrabila pe IR, constituie o densitate de probabilitatepentru o variabila aleatoare, care are functia caracteristica asociata p. Observam capentru Z →∞, functia p(t) converge uniform la ϕ, pe fiecare interval marginit. De aici,folosind convergenta ın repartitie Capitolul 4, rezulta ca ϕ este o functie caracteristica.

3.6 Variabile aleatoare continue clasice si legaturile

dintre ele

Vom enumera principalele repartitii continue si vom studia proprietatile lor. Uninstrument important pentru aceasta este functia caracteristica, ce a fost studiata anterior.Pentru ınceput vom calcula functia caracteristica a repartitiei normale N(m,σ2), data de(3.11).

Page 129: Teoria Probabilitatii

Variabile aleatoare continue 129

Propozitia 3.6.1 Functia caracteristica a repartitiei normale este

ϕ(t) = eimt− t2σ2

2 . (3.52)

.

Demonstratie. Reamintim ca densitatea de probabilitate a repartitiei normale este

f(x) =1√2πσ

e−(x−m)2

2σ2

pe care o ınlocuim ın expresia functiei caracteristice. Facem schimbarea de variabilax−m =

√2σy si obtinem

ϕ(t) =1√2πσ

∫ ∞−∞

eitxe−(x−m)2

2σ2 dx =1√π

∫ ∞−∞

eitm−y2+ity

√2σdy =

=eitm−

t2σ2

2√π

∫ ∞−∞

e−(y− tσ2i)2dy = eimt− t2σ2

2 .

In particular, daca X este o variabila repartizata N(0, 1), functia sa caracteristica este

ϕ(t) = e−t2

2 .

Folosind Propozitia 3.5.2 determinam comod repartitia sumei de variabile aleatoare nor-male.

Teorema 3.6.1 Daca Xk : N(mk, σ2k), k = 1, . . . n, sunt variabile aleatoare independente,

atunci variabila aleatoare X1 + . . .+Xn este repartizata N(n∑

k=1

mk,

n∑

k=1

σ2k).

Demonstratie. Functia caracteristica a sumei este produsul functiilor caracteristice

ϕX1+...+Xn(t) =n∏

k=1

eimkt− t2σ2k

2 =

= e

it

n∑

k=1

mk −

t2n∑

k=1

σ2k

2

,

care corespunde ın mod unic variabilei repartizate N(n∑

k=1

mk,

n∑

k=1

σ2k).

Page 130: Teoria Probabilitatii

130 Variabile aleatoare continue

Propozitia 3.6.2 Daca Xk, k = 1, . . . n, sunt variabile aleatoare independente repartizatenormal N(m,σ2), atunci media lor aritmetica

1

n

n∑

k=1

Xk

este repartizata N(m,σ2

n).

Demonstratie. Din Teorema 3.6.1 suma este repartizata N(nm, nσ2). Sa calculam functiade repartitie a variabilei aleatoare notata

X =1

n

n∑

k=1

Xk.

Avem

FX = P ({X < x}) = P ({n∑

k=1

Xk < nx}).

Prin derivare gasim densitatea de probabilitate

fX(x) =1√

2πnσe−

(nx−nm)2

2nσ2 n =1√

2π σ√n

e− (x−m)2

2σ2

n ,

de unde afirmatia propozitiei.

Sa definim functia caracteristica ın cazul multidimensional. Daca variabila aleatoaren-dimensionala are densitatea de probabilitate fX1...Xn , atunci functia caracteristica este

ϕ(t1, . . . , tn) =

∫. . .

IRne

−in∑

k=1

tkxkf(x1, . . . , xn)dx1 . . . dxn.

Relatia poate fi pusa sub forma

ϕ(t1, . . . , tn) =

∫. . .

IRne−iT

tXf(x1, . . . , xn)dx1 . . . dxn,

unde X =

x1...xn

si T =

t1...tn

. Sa determinam functia caracteristica pentru

variabila aleatoare normala n-dimensionala, mai ıntai pentru cazul m1 = . . . = mn = 0.Reamintim ca densitatea de probabilitate este data de (3.24)

f(x) =

√detA

(2π)n2

e−12XtAX .

Page 131: Teoria Probabilitatii

Variabile aleatoare continue 131

Daca ınlocuim ın expresia functiei caracteristice, obtinem

ϕ(t1, . . . , tn) =

√detA

(2π)2n

∫. . .

IRneiT

tX− 12XtAXdx1 . . . dxn.

Facem transformarea ortogonala X = HY , pentru care forma patratica de la exponentare forma canonica

∑j=1 ljy

2j , cu lj > 0 (aceste transformari au fost explicate ın detaliu

la repartitia normala n-dimensionala ın 3.3 ). Notam U = H−1T = H tT . Atunci, seobserva ca

T tX = (HU)tHY = U tH tHY = U tY.

Cu aceasta functia caracteristica devine

ϕ(t1, . . . , tn) =

√detA

(2π)2n

∫ ∫

IRne

iUtY− 12

n∑j=1

ljy2j

dy1 . . . yn =

=

√detA

(2π)2n

n∏j=1

∫ ∞−∞

eiujyj−12λjy

2j dyj.

Ultima integrala ınmultita cu|lj |√2π

reprezinta functia caracteristica pentru o variabila

aleatoare repartizata N(0, 1lj

), deci folosind (3.52), avem

ϕ(t1, . . . , tn) = e− 1

2

Pnj=1

u2jlj .

Reamintim ca matricea formei patratice se modifica dupa legea

H tAH =

l1 0 . . . 00 l2 . . . 00 0 . . . ln

,

unde lj > 0, sunt valorile proprii ale matricei A. Prin inversare gasim

H−1A−1H =

1l1

0 . . . 0

0 1l2

. . . 0

0 0 . . . 1ln

,

deci ın ultima integrala recunoastem ca exponentul este urmatorul produs de matrice

n∑j=1

u2j

lj= U t(H−1A−1H)U =

= T tH(H−1A−1H)H−1T = T tA−1T

(s-a folosit faptul ca U = H tT ). Gasim forma finala

ϕ(t1, . . . , tn) = e−12T tA−1T .

Page 132: Teoria Probabilitatii

132 Variabile aleatoare continue

Se demonstreaza ca daca vectorul M 6= 0, atunci printr-o schimbare de variabile, functiacaracteristica devine

ϕ(t1, . . . , tn) = eiTtM− 1

2T tA−1T .

Generalizand la cazul n-dimensional Teorema 3.5.1, se poate demonstra ca derivatelepartiale ale lui ϕ ın raport cu ti genereaza momentele variabilelor aleatoare marginale.Astfel

M [Xh] =1

i

(∂ϕ

∂th

)(0, . . . , 0),

M [XhXk] =1

i2

(∂2ϕ

∂th∂tk

)(0, . . . , 0).

Sa determinam momentele variabilei aleatoare normale n-dimensionale, mai ıntai ın cazulm1 = . . . = mn = 0.

M [Xh] =1

i

(∂ϕ

∂th

)(0, . . . , 0) =

(ie−

12T tA−1T

n∑

k=1

a−1hk tk

)(0, . . . , 0) = 0,

M [XhXk] =1

i2

(∂ϕ

∂th∂tk

)(0, . . . , 0) =

=

(i2e−

12T tA−1T

n∑

h=1

a−1hk th

n∑

k=1

a−1hk tk + a−1

hk e− 1

2T tA−1T

)(0, . . . , 0) = a−1

hk .

Daca (m1, . . . ,mn) 6= (0, . . . , 0),

M [Xh] =1

i

(∂ϕ

∂th

)(0, . . . , 0) =

(mh + i

n∑

k=1

a−1hk tk

)ϕ(t1, . . . , tn)(0, . . . , 0) = mh,

M [XhXk] =1

i2

(∂2ϕ

∂th∂tk

)(0, . . . , 0) =

=

((mh + i

n∑

k=1

a−1hk tk)(mk + i

n∑

h=1

a−1hk tk)

)ϕ(t1, . . . , tn)+

+a−1hkϕ(t1, . . . , tn)(0, . . . , 0) = mhmk + a−1

hk .

Se obtin imediat egalitatileM [(Xh −mh)] = 0,

M [(Xh −mh)2] = M [(X2

h)]−m2h = a−1

hh ,

Cov[Xh, Xk] = M [(Xh −mh)(Xk −mk)] = M [XhXk]−mhmk = a−1hk .

Deci A−1 este matricea de covarianta a variabilei normale n-dimensionale. Pe baza acesteiobservatii ın cazul 2-dimensional, repartitia normala poate fi scrisa sub o forma maicomoda. Notam:

M [X1] = m1, M [X2] = m2

D2(X1) = σ21, D2(X2) = σ2

2

Page 133: Teoria Probabilitatii

Variabile aleatoare continue 133

Cov[X1, X2] = ρσ1σ2

si gasim

A−1 =

(σ2

1 ρσ1σ2

ρσ1σ2 σ22,

)

de unde, prin inversare, gasim

A =1

(1− ρ2)σ21σ

22

(σ2

2 −ρσ1σ2

−ρσ1σ2 σ21

)

De aceea densitatea de probabilitate se poate scrie:

f(x1, x2) =1

2πσ1σ2

√1− ρ2

e− 1

2(1−ρ2)

((x1−m1)2

σ21− 2ρ(x1−m1)(x2−m2)

σ1σ2+ (x2−m2)2

σ22

). (3.53)

Exemplul 3.6.1 Variabila aleatoare (X, Y, Z) este normal repartizata si are matricea decovarianta

1 0, 2 0, 30, 2 1 0, 40, 3 0, 4 1

.

Sa determinam densitatea de probabilitate a variabilei aleatoare marginale (X,Z). Ob-servam pentru aceasta ca matricea de covarianta este

(1 0, 3

0, 3 1

).

Deci mX = mZ = 0, ρ = 0, 3, σ1 = σ2 = 1 si ınlocuind ın (3.53), obtinem densitatea deprobabilitate cautata.

Vom enunta un rezultat care stabileste legatura dintre convergenta functiilor caracteristicesi cele de repartitie, de mare utilitate practica. Demonstratia acestui rezultat se gasestede exemplu ın [10] si este facuta ıntr-un cadru mai general.

Teorema 3.6.2 Daca sirul de functii caracteristice ϕn converge pentru orice t la ϕ(t) =

e−t2

2 , atunci sirul functiilor de repartitie corespunzatoare Fn satisface:

limn→∞

Fn(x) =1

∫ x

−∞e−

u2

2 =1

2+ Φ(x).

Reamintim ca 12

+ Φ(x) este functia de repartitie a variabilei aleatoare normale normate.

Repartitia χ2 (”hi patrat”). Functia f : IR→ IR, definita prin

f(x) =1

2n2 σnΓ(n

2)xn2−1e−

x2σ2 , 0 6 x <∞, n ∈ IN, σ > 0

Page 134: Teoria Probabilitatii

134 Variabile aleatoare continue

este o densitate de probabilitate. Prin substitutia y = x2σ2 integrala

∫∞0f(x)dx se reduce

la 2n2 σnΓ(n

2). Pentru functia Γ si proprietatile ei, vezi Anexa 3. Aceasta repartitie a fost

descoperita de Helmert si pusa ın valoare de Pearson. n se numeste numar de grade delibertate. Vom nota X : H(n, σ). Functia caracteristica este data de

ϕ(t) = (1− 2σ2ti)−n2 .

Intr-adevar, calculam integrala ϕ(t) =∫∞−∞ f(x)eitxdx si obtinem

ϕ(t) =1

2n2 σnΓ(n

2)

∫ ∞0

eitx−x

2σ2 xn2−1dx =

=1

2n2 σnΓ(n

2)

∫ ∞0

xn2−1e−

x2σ2 (1−2σ2ti)dx.

In ultima integrala facem schimbarea x2σ2 (1 − 2σ2ti) = y; atunci integrala precedenta

devine (2σ2

1− 2σ2ti

)n2∫ ∞

0

yn2−1e−ydy =

2n2 σn

(1− 2σ2ti)n2

Γ(n

2),

de unde se obtine imediat afirmatia. Pentru calculul momentelor, vom deriva functiacaracteristica. Avem

ϕ′(t) = inσ2(1− 2σ2ti)−n2−1,

ϕ′′(t) = i2n(n+ 2)σ4(1− 2σ2ti)−n2−2,

...

ϕ(k)(t) = ikn(n+ 2) . . . (n+ 2k − 2)σ2k(1− 2σ2ti)−n2−k.

Folosind apoi Teorema 3.5.1, gasim

ν1 =1

iϕ′(0) = nσ2,

ν2 =1

i2ϕ′′(0) = n(n+ 2)σ4,

...

νk =1

ikϕ(k)(0) = n(n+ 2) . . . (n+ 2k − 2)σ2k.

Urmatoarea teorema este un important instrument de lucru ın statistica matematica.

Teorema 3.6.3 Daca X1, . . . , Xn sunt variabile aleatoare independente, repartizateN(0, σ2), atunci variabila aleatoare

n∑

k=1

X2k

este repartizata H(n, σ).

Page 135: Teoria Probabilitatii

Variabile aleatoare continue 135

Demonstratie . Sa determinam pentru ınceput functia caracteristica a variabilei aleatoareX2k , k = 1 . . . n. Pentru aceasta sa-i determinam mai ıntai densitatea de probabilitate.

Avem

FX2k(x) = P ({X2

k < x}) = P ({−√x < Xk <√x}) =

2√2πσ

∫ √x0

e−y2

2σ2 dy, x > 0.

Prin derivare, gasim

fX2k(x) =

1√2πσ√xe−

x2σ2 , x > 0,

care se constata a fi o densitate de probabilitate pentru o variabila aleatoare H(1, σ), deciare functia caracteristica data de

ϕk(t) = (1− 2σ2ti)−12 .

Folosind acum faptul ca functia caracteristica a sumei este produsul functiilor caracte-ristice, obtinem

ϕ(t) =n∏

k=1

(1− 2σ2ti)−12 = (1− 2σ2ti)−

n2 ,

care este functia caracteristica a unei variabile aleatoare H(n, σ).

Folosind din nou functia caracteristica a sumei, se poate demonstra urmatoarea teo-rema.

Teorema 3.6.4 Daca Xi : H(ni, σ), i = 1, 2, atunci

X1 +X2 : H(n1 + n2, σ).

In practica intereseaza determinarea unor probabilitati de forma P ({X > δ}), undeX : H(n, 1), deoarece se verifica imediat ca daca X : H(n, σ), atunci variabila aleatoare

X

σ2: H(n, 1).

Exista tabele ıntocmite pentru diferite valori ale lui δ si ale numarului de grade de libertaten, care au ca rezultate ariile din Figura 3.14.

Cand numarul de grade de libertate este foarte mare, se foloseste comportarea la limitaa sirului de variabile aleatoare repartizate χ2.

Teorema 3.6.5 Daca X : H(n, σ), atunci variabila aleatoare

X − nσ2

√2nσ2

este asimptotic normala N(0, 1), pentru n→∞.

Page 136: Teoria Probabilitatii

136 Variabile aleatoare continue

Demonstratie . Sirul functiilor caracteristice este

ϕn(t) = e−it√

n2 (1− 2σ2i

t√2πσ2

)−n2 = e−it

√n2 (1−

√2

nit)−

n2 .

Calculam limita lui |ϕn(t)| = (1+2t2

n)−

n2 , pentru n→∞ si gasim e−

t2

2 . Functia ϕn(t) poatefi scrisa sub forma (cos t

√n2−i sin t

√n2)(cos n

2θn−i sin n

2θn)ρn, unde (cos θn+i sin θn)ρn =

1−√

2nit. Pentru n suficient de mare,

θn = − arctan

√2

nt.

Deci argumentul numarului complex ϕn(t) poate fi luat de forma

yn = −t√n

2+n

2arctan t

√2

n.

Notand x =√

2n, avem de calculat

limx→0

arctan tx− txx2

care este 0. Deci limn→∞

ϕn(t) = e−t2

2 .

Aceasta teorema permite ca la un numar mare de grade de libertate sa se foloseascatabelele functiei lui Laplace. In teoria selectiei, ne intereseaza sa determinam repartitiadispersiei (privita ca variabila aleatoare) a unei selectii provenind dintr-o colectivitate gu-vernata de variabila aleatoare normala. In acest scop sunt necesare urmatoarele rezultate.

Teorema 3.6.6 Fie Xk, k = 1, . . . n, variabile aleatoare independente repartizate N(0,1),iar

lj(X1, . . . Xn) =n∑

k=1

ajkXk, ajk ∈ IR, j = 1, . . . s, s ∈ IN, s < n,

variabile aleatoare independente de tip N(0, 1). Atunci variabila aleatoare

Q =n∑

k=1

X2k −

s∑j=1

l2j , s < n,

este repartizata H(n− s, 1).

Demonstratie. Variabilele aleatoare li si lj cu i 6= j, sunt independente, deci

M [lilj] = M [li]M [lj] = M [n∑

k=1

aikXk]M [n∑

k=1

ajkXk] = 0,

Page 137: Teoria Probabilitatii

Variabile aleatoare continue 137

deoarece media este aditiva si M [Xk] = 0. Pe de alta parte

M [lilj] = M [n∑

k=1

aikajkX2k +

n∑

l,m=1

ailajmXmXl] =

=n∑

k=1

aikajkM [X2k ] =

n∑

k=1

aikajk,

deoarece M [XmXl] = M [Xm]M [xl] = 0. Analog, M [l2i ] =n∑

k=1

a2ik = 1, ∀i = 1, . . . , s.

Sistemul celor s vectori (a11, . . . , an1), . . . , (as1, . . . , asn) este ortogonal si poate fi decicompletat la o baza ortonormata. Notam matricea corespunzatoare cu A = (aij) i, j =1, . . . , s, care este deci ortogonala si au loc prin urmare

n∑

k=1

a2jk = 1,

n∑

k=1

aikajk = 0, ∀i, j = 1, . . . , n.

Introducem notatiile

lr(x1, . . . , xn) =n∑

k=1

arkxk, r = s+ 1, . . . , n,

si fie L matricea coloana cu componentele li, i = 1, . . . n. Atunci are loc

L = AX,

unde X este vectorul n-dimensional cu componentele xi. Un simplu calcul ne arata ca

n∑

k=1

l2k(x1, . . . , xn) =n∑

k=1

X2k .

Deci

Q =n∑

k=1

X2k −

s∑j=1

l2j =n∑

k=s+1

l2k(x1, . . . , xn).

Mai observam ca variabila aleatoare n-dimensionala L obtinuta printr-o transformareortogonala asupra lui X, variabila aleatoare cu componentele Xi, i = 1 . . . n, indepen-dente, are componentele independente; rezulta ca variabilele ls+1, . . . , ln sunt indepen-dente, repartizate N(0, 1). Afirmatia rezulta din Teorema 3.6.3.

Teorema 3.6.7 (Cochran) Daca Qi(x1, . . . , xn), i = 1, . . . s, sunt forme patratice respec-tiv de rangurile r1, . . . , rs, si X1, . . . , Xn sunt variabile aleatoare independente, repartizateN(0, 1), astfel ıncat

s∑i=1

Qi(X1, . . . , Xn) =n∑j=1

X2j ,

atunci conditia necesara si suficienta ca Qi sa fie variabile aleatoare independente este ca

r1 + . . .+ rs = n.

Page 138: Teoria Probabilitatii

138 Variabile aleatoare continue

Demonstratie. Pentru ınceput sa presupunem ca Qi sunt independente. Daca Qi esteo forma patratica de rang ri, atunci poate fi scrisa ca suma de ri patrate de variabilealeatoare normale normate, deci din Teorema 3.6.3 fiecare Qi este repartizata H(ri, 1), iarsuma lor este repartizata H(

∑si=1 ri, 1), deoarece din ipoteza Qi sunt independente. Pe

de alta parte,n∑j=1

X2j : H(n, 1). Ramane sa observam ca functia de repartitie este unica,

decis∑j=1

rj = n.

Reciproc. Daca Qi(X1, . . . , Xn) sunt forme patratice si r1 + . . . rn = n exista o matriceortogonala A astfel ıncat

s∑i=1

Qi(x1, . . . , xn) =n∑

k=1

l2k,

unde L =

l1...ln

= AX. Fiecare forma patratica Qi este suma de ri patrate li, reparti-

zate N(0, 1) (obtinute printr-o transformare ortogonala de variabile normal repartizate),deci Qi sunt repartizate H(ri, 1) . Se verifica usor ca sunt si independente.

Repartitia Student. Spunem ca variabila aleatoare X este repartizata Student cun grade de libertate, daca are densitatea de probabilitate

f(x) =Γ(n+1

2)√

πnΓ(n2)

(1 +

x2

n

)−n+12

, ∀x ∈ IR

Vom nota X : S(n). Sa verificam mai ıntai ca f este o densitate de probabilitate. Ob-servam ca din paritatea functiei

∫ ∞−∞

f(x)dx = 2

∫ ∞0

f(x)dx.

Facem schimbarea de variabila x =√ny, dupa care gasim

∫ ∞0

(1 +

x2

n

)−n+12

dx =√n

∫ ∞0

(1 + y2)−n+1

2 dy.

In ultima integrala substitutia y2

1+y2 = t, ne duce la functia Beta vezi Anexa 3. Intr-adevar,

dy = 12t−

12 (1− t)− 3

2dt, si

∫ ∞−∞

f(x)dx =2Γ(n+1

2)√

πnΓ(n2)

√n

∫ 1

0

(1− t)n+12

1

2t−

12 (1− t)− 3

2dt =

=Γ(n+1

2)

Γ(12)Γ(n

2)B(

n

2, 1) = 1.

Page 139: Teoria Probabilitatii

Variabile aleatoare continue 139

Momentele repartitiei Student. Functia f fiind para, media este 0, deci momenteleinitiale coincid cu cele centrate, iar toate cele de ordin impar sunt nule.

µ2k = ν2k =

∫ ∞−∞

x2kf(x)dx =Γ(n+1

2)√

πnΓ(n2)

∫ ∞−∞

x2k

(1 +

x2

n

)−n+12

dx.

Folosind substitutia x =√ny, reducem, ca mai ınainte, la o integrala Beta si obtinem

µ2k =nk√π

Γ(k + 12)Γ(n

2− k)

Γ(n2)

, dacan

2− k > 0.

Folosind proprietatile functiei Γ

Γ(n

2) = (

n

2− 1) . . . (

n

2− k)Γ(

n

2− k),

Γ(k +1

2) = (k − 1

2) . . .

1

2Γ(

1

2),

Gasim

µ2k =nk1.3. . . . (2k + 1)

(n− 2)(n− 4) . . . (n− 2k).

Un caz particular ıl constituie n = 1, cand regasim repartitia Cauchy. Urmatorul rezultatde comportare la limita a unui sir de variabile aleatoare repartizate Student este utilizatmult ın statistica.

Teorema 3.6.8 Daca f este densitatea de probabilitate a variabilei aleatoare repartizateStudent, atunci

limn→∞

f(x) =1√2πe−

x2

2 .

Demonstratie. Vom folosi formula lui Legendre (vezi [10]). Pentru orice a > 0 are loc

Γ(a)Γ(a+1

2) =

√π

22a−1Γ(2a).

Pentru a arata ca

limn→∞

Γ(n+12

)√nΓ(n

2)

=1√2,

vom analiza separat cazurile n par si n impar. Reamintim formula lui Wallis

π = limn→∞

22n(n!)4

n((2n)!)2.

Daca n = 2k, luam ın formula lui Legendre a = k si obtinem

Γ(k + 12)√

2kΓ(k)=

√πΓ(2k)

22k+1Γ2(k)√

2k=

√π(2k − 1)!

22k−1√

2k((k − 1)!)2=

Page 140: Teoria Probabilitatii

140 Variabile aleatoare continue

=

√π(2k)!k2

22k−1√

2k(k!)22k.

Din formula lui Wallis, ultimul sir are aceeasi comportare la limita cu sirul

√π22kk2

22k−1√

2k√πk2k

care, pentru k →∞, tinde evident la 1√2. Daca n = 2k + 1, folosind din nou formula lui

Wallis, obtinemΓ(k + 1)√

2k + 1Γ(k + 12)

=k!22k−1(k − 1)!√(2k + 1)πΓ(2k)

=

=22k−12k(k!)2

√(2k + 1)π(2k)!

→ 1√2

, pentru k →∞.

Deci pentru un numar mare de grade de libertate, se utilizeaza tabelele legii normale.

Pentru repartitia Student exista tabele care determina, pentru n = 1, . . . 30, valorileP ({|X| > δ}) = α, adica ariile hasurate din figura 3.15. De asemenea exista tabele pentrucalculul functiei de repartitie

F (x) =

∫ x

−∞f(t)dt,

adica de determinare a ariilor din Figura 3.16, pentru x > 0. Pentru x < 0, se folosescaceleasi tabele, dar tinem seama de

F (−x) =

∫ −x−∞

f(t)dt = −∫ x

−∞f(−t)dt =

∫ ∞x

f(t)dt = 1− F (x).

Teorema 3.6.9 Fie X si Y variabile aleatoare independente repartizateN(0, σ2) si H(n, σ) respectiv; atunci variabila aleatoare

X√Y

n

este repartizata S(n).

Demonstratie. Variabila aleatoare bidimensionla (X,Y ) are densitatea

f(x, y) =1√

π2n+1

2 σn+1Γ(n2)yn2−1e−

x2+y

2σ2 −∞ < x <∞, 0 6 y <∞.

Facem schimbarea

u(x, y) = xsy

n

v(x, y) = y

.

Page 141: Teoria Probabilitatii

Variabile aleatoare continue 141

Atunci densitatea de probabilitate a variabilei (U, V ) devine

g(u, v) =1√

πn2n+1

2 σn+1Γ(n2)vn−1

2 e−(u

2n +1)v

2σ2 .

Densitatea marginala a lui U este

∫ ∞0

g(u, v)dv =1

√πn2

n+ 1

2 σn+1Γ(n

2)

∫ ∞0

v

n− 1

2 e−(u

2n +1)v

2σ2 dv =

1

√πn2

n+ 1

2 σn+1Γ(n

2)

Γ(n+ 1

2)

1 +u2

n2σ2

n+ 1

2

=Γ(n+ 1

2)

√πnΓ(

n

2)

(1 +

u2

n

)−n+ 1

2,

aceasta datorita schimbarii de variabila(u2

n+ 1)v

2σ2= t.

Consecinta. Daca variabilele aleatoare independente X1, . . . , Xn+1 sunt repartizateN(0, σ2), atunci variabila aleatoare

Xn+1√X2

1 + . . .+X2n

n

: S(n).

Demonstratia este imediata, daca se foloseste faptul ca X21 + . . . + X2

n este repartizataH(n, σ).

Teorema 3.6.10 Fie X1, . . . , Xn variabile aleatoare independente repartizate

N(0, σ) si X =X1 + . . . Xn

n. Atunci variabila aleatoare

y =√n(n+ 1)

X√√√√n∑j=1

(Xj −X)2

este repartizata S(n− 1).

Demonstratie. Alegem aij ∈ IR astfel ıncat matricea

A =

a11 . . . a1n

a21 . . . a2n

. . .a(n−1)1 . . . a(n−1)n

1√n

. . . 1√n

Page 142: Teoria Probabilitatii

142 Variabile aleatoare continue

sa fie ortogonala si consideram transformarea

y1

y2...yn

= A

x1

x2...xn

.

Dupa cum am vazut mai ınainte, variabilele aleatoare Yj, j = 1, . . . n, sunt independentesi repartizate N(0, σ). Avem de asemenea

Y 21 + . . .+ Y 2

n = X21 + . . .+X2

n

si daca ınmultim ultima linie a matricei A cu X

X =yn√n.

Deci

Y 21 + . . .+ Y 2

n−1 =n∑j=1

X2j − nX

2=

n∑j=1

(Xj −X)2.

Atunci variabila aleatoare cautata poate fi scrisa sub forma

Y =√n(n− 1)

Xn∑j=1

(Xj −X)2

=Yn√

Y 21 + . . .+ Y 2

n−1

n− 1

,

iar din consecinta precedenta aceasta este repartizata S(n− 1).Se poate arata ca variabila aleatoare

Xn√X2

1 + . . .+X2n

n

este de asemenea repartizata S(n− 1).

Repartitia Snedecor. Are densitatea de probabilitate data de

f(x) =

(n1

n2

)n12 Γ

(n1+n2

2

)

Γ(n1

2

)Γ(n2

2

)xn12−1

(1 +

n1

n2

x

)−n1+n22

, 0 6 x <∞,

unde n1, n2 ∈ IN se numesc grade de libertate. Vom nota o variabila aleatoare repartizataSnedecor prin S(n1, n2). Prin schimbarea de variabila

n1

n2

x

1 +n1

n2

x= y,

Page 143: Teoria Probabilitatii

Variabile aleatoare continue 143

integrala∫∞−∞ f(x)dx este redusa la o integrala Beta si folosind proprietatile functiei Beta

(Anexa 3) deducem imediat ca functia de mai sus este o densitate de probabilitate. Mo-mentele initiale ale repartitiei Snedecor se obtin prin calcul direct

νk =

(n1

n2

)n12 Γ

(n1+n2

2

)

Γ(n1

2

)Γ(n2

2

)∫ ∞

0

xkxn12−1

(1 +

n1

n2

x

)−n1+n22

dx =

=

(n2

n1

)k Γ(k + n1

2)Γ(n2

2− k)

Γ(n1

2

)Γ(n2

2

) ,

daca facem aceeasi schimbare de variabila ca mai sus.Tinand cont de proprietatile functieiGama, gasim

νk =

(n2

n1

)kn1(n1 + 2) . . . (n1 + 2k − 2)

(n2 − 2)(n2 − 4) . . . (n2 − 2k), k <

n2

2.

In particular gasim

ν1 =n2

n2 − 2

ν2 =n2

2

n1

n1 + 2

(n2 − 2)(n2 − 4)

ν3 =n3

2

n21

(n1 + 2)(n1 + 4

(n2 − 2)(n2 − 4)(n2 − 6).

(3.54)

Teorema 3.6.11 Fie X1, X2 doua variabile aleatoare independente, care sunt repartizateS(n1, n2). Atunci variabila aleatoare

n2X1

n1X2

: S(n1, n2).

Demonstratie. Notam cu U variabila din enunt si determinam functia de repartitie

FU(x) = P ({U < x}) = P

{X1

X2

<n1

n2

x

},

iar prin derivare gasim

fU(x) =n1

n2

fU(n1

n2

x).

Mai departe vom folosi formula care da densitatea catului de variabile aleatoare (3.31)

fU(x) =1

2

n1 + n2

2 Γ(n1

2

)Γ(n2

2

)

∫ ∞0

e−z

2 z

n2

2− 1

e−xz

2 (xz)

n1

2− 1

zdz,

care prin substitutiaz(1 + x)

2= t, devine

fU(x) =1

2

n1 + n2

2 Γ(n1

2

)Γ(n2

2

)xn1

2− 1

∫ ∞0

e−t(

2t

1 + x

)n1 + n2

2− 1

2

1 + xdt =

Page 144: Teoria Probabilitatii

144 Variabile aleatoare continue

=

Γ

(n1 + n2

2

)

Γ(n1

2

)Γ(n2

2

)xn1

2− 1

(1 + x)−n1 + n2

2 .

Daca facem schimbarea de variabila x =n1

n2

y, se obtine densitatea de probabilitate Sne-

decor.

Consecinta. Daca variabilele aleatoare independente Xj, j = 1, n1, Yk, k = 1, n2,sunt repartizate N(0, σ), atunci variabile aleatoare

n2

n1

X21 + . . . X2

n1

Y 21 + . . .+ Y 2

n2

este repartizata S(n1, n2). Daca variabila aleatoare X este repartizata S(n1, n2), variabila

aleatoare1

2lnX are densitatea de probabilitate

f(x) = 2

(n1

n2

)n12 Γ

(n1+n2

2

)

Γ(n1

2

)Γ(n2

2

)en1x

(1 +

n1

n2

e2x

)−n1+n22

. (3.55)

O variabila aleatoare avand aceasta densitate se numeste Fisher.

Repartitia Gama. Se verifica imediat ca functia

f(x) =1

Γ(m)e−xxm−1, x > 0, m > 0,

este o densitate de probabilitate. Momentele initiale de ordin k sunt

νk =1

Γ(m)

∫ ∞0

e−xxm−1+kdx =Γ(m+ k)

Γ(m)= m(m+ 1) . . . (m+ k − 1).

Momentele centrate, dupa particularizarea formulelor (3.39), sunt

µ2 = ν2 − ν21 = m(m+ 1)−m2 = m,

µ3 = ν3 − 3ν2ν1 + 2ν31 = 2m.

Functia caracteristica este data de

ϕ(t) = (1− it)−m,care se obtine din

ϕ(t) =1

Γ(m)

∫ ∞0

eitxe−xxm−1dx =1

Γ(m)

∫ ∞0

e(it−1)xxm−1dx,

prin substitutia (it− 1)x = y.Folosind produsul functiilor caracteristice se deduce usor ca daca Xi este repartizata

Gama cu parametrul mi, i = 1, 2, atunci suma este repartizata Gama cu parametrulm1 +m2.

Page 145: Teoria Probabilitatii

Variabile aleatoare continue 145

Exemplul 3.6.2 Repartitia Erlang Sa determinam repartitia sumei de n variabile alea-toare independente, repartizate exponential, cu parametrul λ. Functia caracteristica arepartitiei exponentiale este

ϕ(t) =λ

λ− it .Sumei de variabile exponentiale ıi corespunde functia caracteristica

ϕn(t) =

λ− it)n

,

iar aceasta corespunde variabilei aleatoare cu densitatea de probabilitate

f(x) =λe−λx(λx)n−1

(n− 1)!, x > 0.

Sa determinam functia de repartictie a variabilei Erlang.

F (x) =λn−1

(n− 1)!

∫ x

0

yn−1λe−λydy.

Integram prin parti si avem

F (x) =λn−1

(n− 1)!

(−yn−1eλy|x0 +

∫ x

0

(n− 1)yn−2e−λydy)

=

= − (λx)n−1

(n− 1)!e−λx +

λn−2

(n− 2)!

∫ x

0

yn−2λe−λydy.

Repetınd integrarea prin parti, gasim

F (x) = 1−n−1∑

k=0

(λx)k

k!eλx.

Recunoastem ın suma precedenta primii n termeni ai unei repartitii Poisson. Legaturadintre aceste doua repartitii va fi evidentiata la procese Poisson.

Repartitia Beta. Este definita prin densitatea de probabilitate

f(x) =xm−1(1− x)n−1

B(m,n), 0 6 x 6 1, m > 0, n > 0.

Momentele sunt date de

νk =m(m+ 1) . . . (m+ k − 1)

(m+ n)(m+ n+ 1) . . . (m+ n+ k − 1).

In particular avem

ν1 =m

m+ n, ν2 =

m(m+ 1)

(m+ n)(m+ n+ 1),

µ2 = ν2 − ν21 =

mn

(m+ n)2(m+ n+ 1).

Page 146: Teoria Probabilitatii

146 Variabile aleatoare continue

3.7 Fiabilitate

In sensul cel mai larg , fiabilitatea reprezinta proprietatea unui dispozitiv de a-siındeplini functia specifica ın conditii de exploatare date. O analiza completa a fiabilitatiine pune ın evidenta:

-fiabilitatea precalculata, care se evalueaza pornind de la conceptia dispozitivului si acomponentelor sale;

-fiabilitate tehnica (nominala) determinata ın urma ıncercarilor ın conditii de fabrica;-fiabilitate de exploatare, determinata de conditiile reale de exploatare, cu luarea ın

considerare a actiunii complexe a tuturor factorilor ce influenteaza functionarea.Fiabilitatea poate fi exprimata cantitativ prin parametrii de fiabilitate. Determinarea

lor se face ın practica ın urma prelucrarii statistice a datelor. Cel mai frecvent utilizataeste probabilitatea functionarii fara defectiune ıntr-un interval de timp. Intervalul de timpın care sistemul functioneaza fara defectiuni este o variabila aleatoare pe care o notam cuT .

Definitia 3.7.1 Numim functie de fiabilitate sau reliabilitate functia R : IR+ → [0, 1]definita prin

R(t) = P ({T > t}).Observam ca 1 − R(t) este functia de repartitie, care ın sensul fiabilitatii masoara pro-babilitatea ca pana la momentul t sa apara o defectiune. Functia F (t) = 1−R(t) se mainumeste functie de nesiguranta. In stransa legatura cu proprietatile functiei F (t), putemenunta pe cele ale lui R.

1. R(0) = 1;2. lim

t→∞R(t) = 0;

3. t1 < t2 =⇒ R(t1) > R(t2);4. Daca f este densitatea de probabilitate pentru variabila T ,

f(t) = −R′(t).In Figura 3.17 sunt reprezentate cele doua functii.

Observam ca la momentul initial functia de fiabilitate este maxima, iar nesigurantaminima si daca t→∞ se produce fenomenul invers. Vom presupune ca se poate preciza ofunctie, numita rata de defectare si notata r, cu proprietatea ca r(t)∆t este probabilitateaca ın intervalul (t, t+ ∆t) sa apara o defectiune, daca pana la momentul t, dispozitivul afunctionat . Conditia din definitie este o probabilitate conditionata :

r(t)∆t = P ({t 6 T < t+ ∆}| {T > t}) =P ({t 6 T < t+ ∆t})

P ({T > t}) =

=F (t+ ∆t)− F (t)

R(t)= −R(t+ ∆t)−R(t)

R(t).

In ultima relatie ımpartim prin ∆t si trecem la limita pentru ∆t→ 0. Daca aceasta limitaexista, gasim ecuatia diferentiala

−R′(t)

R(t)= r(t),

Page 147: Teoria Probabilitatii

Variabile aleatoare continue 147

cu conditia initialaR(0) = 1,

care are ca solutie

R(t) = e−R t0 r(s)ds. (3.56)

Exemplul 3.7.1 Rata de defectare a unui utilaj este r(t) = 0, 1. Cu ce probabilitatedispozitivul functioneaza cel putin 10 ore ? Inlocuim ın (3.56) r(t) = 0, 1 si observam cadispozitivul functioneaza cel putin 10 ore este evenimentul {T > 10}, deci

R(10) = e−∫ t

0

0, 1ds= e−1 = 0, 368

In practica sunt utilizate o parte din repartitiile continue prezentate anterior, dar si altelespecifice.

Repartitia exponentiala. are densitatea de probabilitate

f(t) =

µe−µt, daca t > 0,

0, daca t < 0,(µ > 0).

Se verifica imediat ca f este o densitate de probabilitate. Functia de fiabilitate este

R(t) =

∫ ∞t

f(s)ds = eµt,

iar rata de defectare

r(t) = −R′(t)

R(t)= µ

este deci constanta. Aceasta repartitie este utilizata pentru dispozitive care ”nu ımba-tranesc”.

Repartitia Weibull. Are densitatea de probabilitate

f(t) =

λαtα−1e−λtα, daca t > 0,

0, daca t < 0(λ, α ∈ R+).

Functia de fiabilitate esteR(t) = e−λt

α

,

iar rata de defectarer(t) = λαtα−1.

Pentru α = 1 se regaseste repartitia exponentiala, iar pentru α = 2 se obtine repartitiaRayleigh. Faptul ca rata este o functie polinomiala, face sa modeleze mai bine diferitelesituatii practice; de aceea repartitia Weibull este des utilizata.

Page 148: Teoria Probabilitatii

148 Variabile aleatoare continue

Pentru diferite valori ale lui α, ın Figura 3.18 sunt reprezentari grafice ale densitatiide probabilitate, iar ın Figura 3.19 si 3.20 ale ratelor si functiilor de fiabilitate.

In general variatia defectiunilor unui dispozitiv se poate ımparti ın trei perioade.1. perioada initiala ın care apar defectiuni datorate erorilor de fabricatie si se face

rodajul (copilaria);2. perioada de functionare care ıncepe dupa rodaj, cand numarul defectiunilor scade,

ramanand practic constant (maturitatea), pentru care se poate utiliza distributia expo-nentiala;

3. perioada ın care intensitatea de defectare creste continuu, datorita uzurii (batra-netea).

Componentele unui dispozitiv pot fi legate ”ın serie”, sau ”ın paralel”. Vom analizamodul de determinare a fiabilitatii pentru fiecare situatie ın parte.

Legare ın serie. Spunem ca un dispozitiv are n componente legate ın serie, dacadefectarea uneia, atrage nefunctionarea ıntregului sistem. Convenim sa vizualizam prinschema de la Figura 3.21.

Presupunem ca fiecare componenta Ci, i = 1, . . . n, se poate defecta indiferent decelelalte, cu rata de defectare ri si functia de fiabilitate Ri. Daca T , respectiv Ti, i =1, . . . , n semnifica timpul de functionare pana la prima defectare a sistemului, respectiv acomponentei Ci, atunci evident

{T > t} =n⋂i=1

{Ti > t}

si aplicand probabilitatea pentru evenimente independente gasim

R(t) =n∏i=1

Ri(t) =n∏i=1

e

−∫ t

0

n∑i=1

ri(s)ds

=

= e

−∫ t

0

n∑i=1

ri(s)ds

.

Deci rata de defectare este

r(t) =n∑i=1

ri(t).

Observam ca T = min{T1, . . . , Tn}.

Legare ın paralel. Un dispozitiv are n componente legate ın paralel, daca acestapoate functiona, chiar daca una din componente se defecteaza.

Sistemul nu functioneaza daca fiecare din componente nu functioneaza; presupunemca acestea se pot defecta independent una de alta. Atunci obtinem

{T < t} =n⋂i=1

{Ti < t}

Page 149: Teoria Probabilitatii

Variabile aleatoare continue 149

si daca aplicam probabilitatea

1−R(t) =n∏i=1

(1−Ri(t)) .

Observam ca T = max{T1, . . . , Tn}. In acest caz nu putem gasi o expresie simpla a rateide defectare a sistemului. In practica aceste moduri de alcatuire apar combinat.

Reprezentam acest lucru ın Figura 3.22.

Exemplul 3.7.2 In schema alaturata componentele Ci functioneaza independent, cuaceeasi functie de fiabilitate.

Sa determinam functia de fiabilitate a sistemului. Dispozitivul functioneaza la mo-mentul t, daca

{T > t} = ({T1 > t} ∩ {T3 > t}) ∪ ({T1 > t} ∩ {T4 > t})∪

∪ ({T2 > t} ∩ {T4 > t}) .Calculam acum probabilitatea acestei reuniuni, folosind independenta

R(t) = R1(t)R3(t) +R1R4(t) +R2(t)R4(t)−R1(t)R3(t)R4(t)−

−R1(t)R2(t)R4(t)−R1(t)R2(t)R3(t)R4(t) +R1(t)R2(t)R3(t)R4(t) =

= 3R21(t)− 2R3

1(t).

Page 150: Teoria Probabilitatii

150 Variabile aleatoare continue

PROBLEME PROPUSE

Problema 3.1 O variabila aleatoare X are repartitia data de ”legea triunghiuluidreptunghic” pe intervalul (0, a), a > 0 (vezi Figura 3.24). Gasiti :

a. densitatea de probabilitate;

b. functia de repartitie;

c. probabilitatea ca variabila aleatoare X sa ia valori ın intervalul (a/2, a);

d. media si dispersia.

Solutie a. Scriem dreapta cu taieturile (a, 0) si (a/2, 0) si gasim

f(x) =

2

a(1− x

a), x ∈ (0, a),

0, x /∈ (0, a) ;

b. F (x) =

0, x 6 0,

x

a(2− x

a), 0 < x 6 a,

1, x > 0.

c. P ({X ∈ (a

2, a)}) = F (a)− F (

a

2) =

1

4;

d. M [X] =a

3, D2[X] =

a2

18.

Problema 3.2 Determinati functia de repartitie a variabilei aleatoare X, repartizataCauchy, deci cu densitatea de probabilitate f(x) = 1

π(1+x2), x ∈ IR.

R: F (x) = 1π

arctan x+ 12.

Problema 3.3 O variabila aleatoare X are repartitia Simpson sau ”legea triunghiuluiisoscel” pe un interval (−a, a), a > 0.

Gasiti

a. densitatea de probabilitate;

b. functia de repartitie.

R: Graficul este dat de Figura 3.25

a. f(x) =

1

a(1− x

a), 0 < x < a,

1

a(1 +

x

a), −a < x < 0,

0, |x| > a.

;

Page 151: Teoria Probabilitatii

Variabile aleatoare continue 151

b. F (x) =

0, x 6 0,

1

a(x+ a) +

1

2a2(x2 − a2), −a < x 6 0,

1

2+

1

a(x− x2

2a), 0 6 x < a

1, x > a.

Problema 3.4 Determinati media si dispersia variabilei aleatoare exponentiale, avanddensitatea de probabilitate

f(x) =

λe−λx, x > 0,

0, x < 0.

R: M [X] =1

λ, D2[X] =

1

λ2.

Problema 3.5 Determinati media si dispersia repartitiei Laplace, cu densitatea de

probabilitate f(x) =λ

2e−λ|x|, λ > 0, ∀x ∈ IR.

R: M [X] = 0, D2[X] =2

λ2.

Problema 3.6 Determinati media si dispersia variabilei aleatoare repartizata uniformpe intervalul (a, b).

R: M [X] =a+ b

2, D2[X] =

(a− b)2

12.

Problema 3.7 O variabila aleatoare este repartizata normal N(m,σ2). Sa aproximamX pe un interval (α, β) cu legea uniforma, daca m,σ raman constanti.

Solutie. Folosim problema precedenta si egalam mediile si abaterile medii patratice

α + β

2= m,

β − α2√

3= σ

de unde α = m− σ√3, β = m+ σ√

3.

Problema 3.8 O variabila aleatoare X : N(m,σ2) poate avea parametrii m = 2, σ = 2cu probabilitatea 0,4 sau m = 2, σ = 1 cu probabilitatea 0,6 determinati densitatea deprobabilitate.

Solutie . Folosim generalizarea formulei probabilitatii totale, din 3.2. Avem

f(x) =0, 4

2√

2πe−

(x−2)2

8 +0, 6√

2πe−

(x−2)2

2 .

Problema 3.9 Intr-o sectie se produc articole care corespund calitativ, daca satisfac oanumita proprietate masurabila printr-o caracteristica numerica. Se observa unele deviatii

Page 152: Teoria Probabilitatii

152 Variabile aleatoare continue

de la normele impuse, care sunt repartizate normal, cu media m = 0 si abaterea σ. Lacontrolul de calitate se elimina acele produse ale caror deviatii depasesc marimea ∆.Determinati probabilitatea evenimentului A ” un articol este respins”.

R : P (A) = P ({|X| > ∆}) = 1− 2Φ(∆σ

).

Problema 3.10 Fie α, a > 0 si n ∈ IN . Determinati a si α astfel ca functia

fn(x) = axne−α2x2

, x > 0

sa fie o densitate de probabilitate pentru o variabila aleatoare cu media m.

Solutie. Punem conditiile

∫ +∞

0

axne−α2x2

dx = 1,

∫ +∞

0

axn+1e−α2x2

dx = m

si gasim

a =2αn+1

Γ(n+12

), α =

1

m

Γ(n+22

)

Γ(n+12

).

Problema 3.11 Un mesaj este asteptat printr-un canal de comunicatie. MomentulT la care mesajul este primit este aleator si are functia de densitate f(t). La un momentdat τ , se observa ca mesajul nu a ajuns ınca. Determinati densitatea de probabilitate φa timpului care ramane pana la receptionarea mesajului, Θ.

Solutie . Fie A evenimentul ”mesajul nu a fost receptionat pana la momentul τ”.Folosind formula lui Bayes, gasim

fA(t) =f(t)

P (A)=

f(t)

1− ∫ τ0f(t)dt

, t > τ,

0, t < τ.

Deoarece Θ = T − τ , rezulta

φ(t) =

f(t)

1− ∫ τ0f(t)dt

, t > 0,

0, t < 0.

Problema 3.12 Un sistem de comunicatie accepta un voltaj pozitiv V la intrare, iarla iesire un voltaj Y = αV +N , unde α = 10−2, iar N este o variabila aleatoare normalacu m = 0, σ = 2. Ce valoare trebuie sa ia V , astfel ca la iesire voltajul sa fie pozitiv cusiguranta 1− ε, ε = 10−6.

Solutie . Punem conditia ca P ({Y < 0}) = 10−6 si gasim

P ({Y < 0}) = P ({αV +N < 0}) = P ({N < −αV }) =1

2− Φ

(αV

σ

).

Page 153: Teoria Probabilitatii

Variabile aleatoare continue 153

De aici gasim ca V = 950, 6.

Problema 3.13 Legea evenimentelor rare ın plan. Un semnal luminos se poate producealeator cu densitatea λ, pe cadranul unui osciloscop. Gasiti repartitia R, care da distantade la semnal, la cel mai apropiat ”vecin”, media si dispersia.

Solutie . Evenimentul {R < r} ınseamna ca cel putin un semnal se produce ın in-teriorul discului de raza r. Numarul mediu de aparitii ın acest disc este πr2λ, deciP ({R < r}) = 1 − P ({R > r}) = 1 − e−πr2λ, r > 0, daca generalizam rationamentul dela legea Poisson. Densitatea de probablitate, este f(r) = 2πλre−πr

2λ, r > 0. Aceastarepartitie este repartitia Rayleigh.

M [R] =1

2√λ, D2[R] =

(4− π)

4πλ.

Analog se poate deduce repartitia evenimentelor rare ın spatiu, care are densitatea deprobabilitate f(r) = 4πr2λe−λ

43πr3, r > 0, unde r este raza unei sfere alese convenabil.

Problema 3.14 In timpul functionarii unui calculator, defectiunile pot aparea lamomente aleatoare. Timpul T ın care acesta functioneaza fara defectiuni, urmeaza o legeexponentiala cu parametru ν, adica φ(t) = νe−νt, ν > 0. Daca o defectiune apare esteimediat ındepartata ıntr-un interval de timp t0, dupa care calculatorul functioneaza dinnou. Notam cu Z intervalul de timp ıntre doua defectiuni. Aflati P ({Z > 2t0}).

Solutie. Avem Z = T + t0 si functia de repartitie este

F (t) = P ({Z < t}) = P ({T < t− t0}) = FT (t− t0).

Prin derivare

F ′(t) = fT (t− t0) =

{νe−ν(t−t0), t > t0

0, t < 0.

Atunci P ({Z > 2t0}) = e−νt0 .

Problema 3.15 Timpul T ıntre doua defectiuni ale unui calculator, urmeaza o legeexponentiala cu parametru λ. Rezolvarea unei anumite probleme necesita functionareafara defectiuni a componentelor pentru un timp τ ; daca o defectiune apare ın timpulrezolvarii, problema poate fi reluata. Fie Θ variabila aleatoare care reprezinta intervalulde timp ın care problema va fi rezolvata. Sa determinam repartitia si media variabileialeatoare Θ.

Solutie. Daca problema a fost rezolvata ın intervalul τ , ınseamna ca T > τ si R(τ) =P ({T > τ}) = e−τλ, pe care o notam p. Evenimentul contrar se produce cu probabilitatea1− p. Daca problema a fost rezolvata ın intervalul ((n− 1)τ, nτ), aceasta ınseamna ca ausurvenit defectiuni ale calculatorului ın intervalele (0, τ), (τ, 2τ), . . . ((n− 2)τ, (n− 1)τ)si aceasta se ıntampla cu probabilitatea p(1− p)n−1. Variabila cautata este

Θ :

(nτ

p(1− p)n−1

)

care are mediaτ

p.

Problema 3.16 Durata vietii unui circuit integrat normal este data de o lege ex-ponentiala cu rata α, iar a unui circuit rebut 1000α. Probabilitatea de a extrage un

Page 154: Teoria Probabilitatii

154 Variabile aleatoare continue

circuit integrat normal dintr-un lot este p. Gasiti probabilitatea ca alegınd un circuit laıntamplare, acesta sa functioneze dupa t secunde. Presupunem ca fiecare este testat tsecunde. Pentru ce valoare a lui t, 99% dintre circuite sunt bune.

Solutie . Fie B evenimentul de a ”alege un circuit normal”, R de a ”alege un circuitrebut”, iar C de a ”alege un circuit care sa functioneze dupa t secunde”. Are loc, dacafolosim formula probabilitatii totale

P (C) = pe−αt + (1− p)e−1000αt.

Calculam PC(B) cu formula lui Bayes si din conditia PC(B) = 0, 99, avem

t =1

999αln

(1− p)99

p.

Problema 3.17 Variabila aleatoare (X, Y ) are densitatea de probabilitate f(x, y). Ex-primati probabilitatile urmatoarelor evenimente: 1.{X > Y }, 2.{X > |Y |}3.{|X| > Y } 4.{Y −X > 1}.

Solutie 1. P ({X > Y }) =

∫ +∞

−∞dy

∫ +∞

y

f(x, y)dx;

2. P ({X > |Y |}) =

∫ +∞

0

dx

∫ x

−xf(x, y)dy;

3. P ({|X| > Y }) =

∫ 0

−∞dx

∫ −x−∞

f(x, y)dy +

∫ +∞

0

dx

∫ x

−∞f(x, y)dy;

4. P ({Y −X > 1}) =

∫ +∞

−∞dx

∫ +∞

x+1

f(x, y)dxdy.

Domeniile de integrare sunt reprezentate mai jos.

Problema 3.18 Variabila aleatoareX are repartitia exponentiala cu densitatea f(x) =λe−λx, x > 0. Sa determinam conditiile ın care variabila aleatoare Y = eX are medie sidispersie.

Solutie. M [Y ] =

∫ +∞

0

exλe−λxdx = λ

∫ +∞

0

e−(λ−1)xdx. Pentru λ > 1, exista media

egala cuλ

λ− 1. Pentru λ 6 1, integrala din definitia mediei este divergenta. Pentru

λ > 2, M [Y 2] =λ

λ− 2si deci exista dispersie, iar daca λ 6 2 aceasta nu exista.

Problema 3.19 Variabila aleatoare X are densitatea de probabilitate

f(x) =1

2cosx, x ∈ (−π

2,π

2);

calculati media si dispersia variabilelor aleatoare X si Y = | sinX|.

Solutie. M [X] = 0, D2[X] =π2

4−2, M [Y ] =

1

2

∫ π2

−π2

| sinx| cosxdx =1

2, D2[Y ] =

1

12.

Problema 3.20 Variabilele aleatoare X si Y au repartitii exponentiale

f1(x) = λe−λx, x > 0; f2(x) = µe−µy, y > 0.

Page 155: Teoria Probabilitatii

Variabile aleatoare continue 155

Determinati densitatea de probabilitate f(x, y) si functia de repartitie F (x, y) pentruvariabila aleatoare bidimensionala (X,Y ), daca X, Y sunt independente.

Solutie.

f(x, y) =

0 x 6 0 sau y 6 0,

λµe−(λx+µy), x > 0 si y > 0;

F (x, y) =

0, x 6 0 sau y 6 0,

(1− e−λx)(1− e−µy), x > 0 si y > 0.

Problema 3.21 Variabila aleatoare (X, Y ) este repartizata constant ın patratul delatura a, pe care ıl notam D si nula ın afara. Determinati f(x, y) si F (x, y), functiile dedensitate marginale f1(x), f2(y). Stabiliti daca X si Y sunt independente.

Solutie.

f(x, y) =

1

a2, (x, y) ∈ D,

0, (x, y) /∈ D;

F (x, y) =

0, x 6 0 sau y 6 0,

xy

a2, 0 6 x 6 a, si 0 6 y 6 a,

y

a, x > a si 0 < y 6 a,

x

a, 0 < x 6 a si y > a,

1, x > 0 si y > a;

fX(x) =

1

a, x ∈ (0, a),

0, x /∈ (0, a);

fY (y) =

1

a, y ∈ (0, a)

0, y /∈ (0, a).

Problema 3.22 Functia f(x, y) este constanta ın interiorul unui cerc de raza r sinula ın afara. Determinati raza r astfel ca f(x, y) sa fie o densitate de probabilitate pen-tru o variabila aleatoare bidimensionala (X, Y ), fX(x), fY (y), fX(x|y), fY (y|x). CalculatiCov[X,Y ].

Solutie. Cautam densitatea de probabilitate de forma

f(x, y) =

{h, x2 + y2 < r2,0, x2 + y2 > r2.

Page 156: Teoria Probabilitatii

156 Variabile aleatoare continue

Punem conditia ca 1 =∫ ∫

f(x, y)dxdy = hπr2. Deci r =√

1πh

.

fX(x) =

{2h√r2 − x2, |x| < r,

0, |x| > r;fY (y) =

{2h√r2 − y2, |y| < r,

0, |y| > r;

fX(x|y) =f(x, y)

fY (y)=

1

2√r2 − y2

, |x| <√r2 − y2,

0, |x| >√r2 − y2;

fY (y|x) =f(x, y)

fX(x)=

1

2√r2 − x2

, |y| < √r2 − x2,

0, |y| > √r2 − x2.

Avem imediat M [X] = M [Y ] = 0, D[X] = D[Y ] = r2. M [XY ] =

∫ ∫xyf(x, y)dxdy = 0.

Deci Cov[X, Y ] = 0.

Problema 3.23 O variabila aleatoare are densitatea de probabilitate constanta ınpatratul D din Figura 3.30.

Gasiti f(x, y), fX(x), fY (y), fX(x|y), fY (y|x) si stabiliti daca sunt independente; darcorelate ?

Solutie.

f(x, y) =

{ 1

2, (x, y) ∈ D,

0, (x, y) /∈ D;fX(x) =

{1− |x|, |x| < 1,0, |x| > 1.

Analog

fY (y) =

{1− |y|, |y| < 1,0, |y| > 1,

care sunt repartizate Simpson.

fX(x|y) =f(x, y)

fY (y)=

1

2(1− |y|) , |x| < 1− |y|0, |x| > 1− |y|;

fX(x|y) =f(x, y)

fX(x)=

1

2(1− |x|) , |y| < 1− |x|0, |y| > 1− |x|.

X si Y nu sunt independente, dar nici corelate. M [X] = M [Y ] = 0, iar M [XY ] =∫ +∞−∞

∫ +∞−∞ xyf(x, y)dxdy = 0. Cov[X,Y ] = 0.

Problema 3.24 Variabila aleatoare (X, Y ) este uniform repartizata ın interiorul unuicerc de raza r = 1 cu interiorul D. Gasiti media si dispersia variabilei Z = XY .

Solutie. M [XY ] =1

π

∫ ∫

D

xydxdy = 0; D2[XY ] =1

π

∫ ∫

D

x2y2dxdy =1

8.

Problema 3.25 O variabila aleatoare (X, Y ) este uniform repartizata ıntr-un patratde latura 1. Gasiti media si dispersia variabilei XY .

Page 157: Teoria Probabilitatii

Variabile aleatoare continue 157

Solutie. Pentru ca X si Y sunt independente M [XY ] = M(X)M(Y ) =1

4; D2[XY ] =

1

144.

Problema 3.26 Variabilele X si Y sunt legate prin Y = 2− 3X si mx = −1, D2X = 4.

Gasiti my, D2Y , Cov[X,Y ], ρ[X, Y ].

R: M [Y ] = M [2 − 3X] = 2 − 3(−1) = 5;D2[Y ] = (−3)24 = 36. Din M [X2] =D2[X] + M2[X], deducem M [X2] = 5 Cov[X, Y ] = M [X(2 − 3X]) + 1 × 5 = −12

ρ[X, Y ] =−12

D[X]D[Y ]= −1.

Problema 3.27 Variabilele aleatoare X, Y, Z au mediile mx,my,mz si matricea decovarianta

D[X] Cov[X,Y ] Cov[X,Z]

Cov[X,Y ] D[Y ] Cov[Y, Z]

Cov[X,Z] Cov[Y, Z] D[Z]

.

Gasiti media si dispersia variabilei U = aX − bY + cZ − d, a, b, c, d ∈ IR.

R: M [U ] = a mx − b my + c mz − d, D2[U ] = a2 D[X] + b2 D[Y ] + c2 D2[Z] −2 a b Cov[X,Y ] + 2 a c Cov[X,Z]− 2 b c Cov[Y, Z].

Problema 3.28 X, Y sunt variabile aleatoare independente X : N(1, 4), Y : U(0, 2).Gasiti M [X + Y ], M [XY ], M [X2], M [X − Y 2], D2[X + Y ], D2[X − Y ].

R: M [X + Y ] = 2, M [XY ] = M [X]M [Y ] = 1, M [X2] = 5, M [X − Y 2] =

−1

3, D2[(X + Y )] = D2[(X − Y )] =

13

3.

Problema 3.29 Densitatea de probabilitate a unei variabile aleatoare bidimensionalenormale este

f(x, y) =1

1, 6πe−

11.28((x−2)2−1,2(x−2)(y+3)+(y+3)2).

Calculati covarianta variabilelor marginale.

R: Cov[X,Y ] = 0, 6.

Problema 3.30 Un voltmetru ınregistreaza cea mai mare dintre doua tensiuni V1, V2.Variabilele V1, V2 sunt independente si au aceeasi densitate f(v). Gasiti media variabileiV = max{V1, V2}.

Solutie. m =

∫ +∞

−∞x1dv1

∫ v1

−∞f(v2)dv2 +

∫ +∞

−∞v2f(v2)dv2

∫ v2

−∞f(v1)dx1.

Page 158: Teoria Probabilitatii

158 Variabile aleatoare continue

Page 159: Teoria Probabilitatii

Capitolul 4

Probleme la limita ın teoriaprobabilitatilor

Baza teoretica a statisticii matematice, care confera garantii asupra valabilitatii stu-diului statistic al fenomenelor aleatoare, se sprijina pe proprietatile de convergenta alesirurilor de variabile aleatoare. Prezentam principalele tipuri de convergenta si uneleproprietati ale sirurilor de variabile aleatoare referitoare la acestea.

4.1 Convergenta ın probabilitate

Fie { E,K, P } un camp de probabilitate, {Xn}n∈IN un sir de variabile aleatoare, Xo variabila aleatoare, toate definite pe {E,K, P}.Definitia 4.1.1 Sirul {Xn}n∈IN converge ın probabilitate catre X (vom folosi notatia

{Xn} prob−→ X) daca

∀ε > 0 : limn→∞

P ({e ∈ E | |Xn(e)−X(e) | > ε}) = 0 (4.1)

sau, echivalent,

∀ε > 0 : limn→∞

P ({e ∈ E | |Xn(e)−X(e) | 6 ε}) = 1. (4.2)

Observatia 4.1.1 Se poate defini si convergenta ın probabilitate a sirului de variabilealeatoare {Xn}n∈IN catre constanta c deoarece orice constanta este un caz particular devariabila aleatoare.

Proprietati ale convergentei ın probabilitate.

Propozitia 4.1.1 Limita unui sir de variabile aleatoare convergent ın probabilitate esteunica aproape sigur.

Demonstratie. Aratam ca daca exista doua variabile aleatoare X si Y astfel ıncat {Xn} prob−→X, {Xn} prob−→ Y atunci P ({X 6= Y }) = 0. Fie

ε < | X − Y | = | X −Xn +Xn − Y | 6 | X −Xn |+ | Xn − Y |

159

Page 160: Teoria Probabilitatii

160 Probleme la limita

de aici rezulta

{ | X − Y | > ε} ⊆ { | X −Xn | > ε

2} ∪ { | Xn − Y | > ε

2},

deci

P ({ | X − Y | > ε} 6 P ({ | X −Xn | > ε

2})+

+P ({ | Xn −X | > ε

2}).

Deoarece {Xn} prob−→ X si {Xn} prob−→ Y rezulta, trecand la limita,

0 6 P ({ | X − Y | > ε}) 6 limn→∞

P ({ | X −Xn | > ε

2})+

+ limn→∞

P ({ | Xn − Y | > ε

2}) = 0

deci P ({| X − Y | > ε}) = 0.

Propozitia 4.1.2 Daca {Xn} prob−→ X, {Yn} prob−→ Y si a, b ∈ IR atunci {aXn + bYn} prob−→aX + bY .

Demonstratie. Fie ε > 0. Urmand un rationament analog cu cel folosit ın proprietateaprecedenta, putem scrie

P ({|(aXn + bYn)− (aX + bY )| > ε}) = P ({|a(Xn −X) + b(Yn − Y )| > ε}) 6

6 P ({|a||Xn −X| > ε

2}) + P ({|b||Yn − Y | > ε

2}).

Tinand seama ca {Xn} prob−→ X si {Yn} prob−→ Y si trecand la limita obtinem

limn→∞

P ({|(aXn − bYn)− (aX + bY )| > ε}) = 0

adica {aXn + bYn} prob−→ aX + bY .

4.2 Legea numerelor mari (forma slaba)

Un tip de probleme la limita, bazat pe notiunea de convergenta ın probabilitate, cusemnificatie de maxima importanta asupra legaturii dintre conceptele de baza ale teorieiprobabilitatii si notiunile empirice, este cel cunoscut sub denumirea de legea numerelormari. Aceasta este un ansamblu de rezultate privind convergenta catre 1 a probabilitatilorunui sir de evenimente depinzand de un numar crescand de factori aleatori.

Page 161: Teoria Probabilitatii

Probleme la limita 161

Teorema 4.2.1 Fie (Yn)n∈IN un sir de variabile aleatoare admitand valori medii si dis-persii finite si fie

M [Yn] = Mn <∞, D2[Yn] = σ2n <∞.

Daca exista o constanta M astfel ıncat

limn→∞

Mn = M si limn→∞

σ2n = 0, (4.3)

atunci{Yn} prob−→M.

Demonstratie. Observam ca pentru orice ε > 0

{|Yn −M | > ε} ⊆ {|Yn −Mn| > ε

2} ∪ {|Mn −M | > ε

2}.

Putem scrie

P ({|Yn −M | > ε}) 6 P ({|Yn −Mn| > ε

2}) + P ({|Mn −M | > ε

2}). (4.4)

Aplicand inegalitatea lui Cebasev variabilei aleatoare Yn obtinem

P ({|Yn −Mn| > ε}) 6 D2[Yn]

ε2=σ2n

ε2. (4.5)

Deorece limn→∞

Mn = M rezulta ca ∀ε > 0, ∃ N(ε) ∈ IN astfel ıncat ∀n > N(ε) inegalitatea

|Mn −M | > ε

2devine imposibila, adica

∀n > N(ε) : P ({|Mn −M | > ε}) = 0.

Trecand la limita ın (4.4), tinand seama de (4.5) si de ipotezele (4.3) rezulta

limn→∞

P ({|Yn −M | > ε}) = 0.

Teorema 4.2.2 (forma slaba a teoremei lui Jacob Bernoulli)

Prima formulare: Daca A un eveniment caracterizat prin P (A) = p 6= 0 siSnn

frecventa

relativa de realizare a evenimentului A ın primele n probe ale unui sir infinit de probeindependente, atunci

∀ε > 0 : limn→∞

P ({|Snn− p| > ε}) = 0

sau, echivalent,

∀ε > 0 : limn→∞

P ({|Snn− p| 6 ε}) = 1.

A doua formulare: Daca {Xn}n∈IN un sir de variabile aleatoare independente astfel

ıncat Xn :Bi(n, p), n∈ IN , atunci sirul de variabile aleatoare { 1

n

n∑

k=1

Xk}n∈IN converge ın

probabilitate catre p, adica { 1

n

n∑

k=1

Xk} prob−→ p.

Page 162: Teoria Probabilitatii

162 Probleme la limita

Demonstratie. Demonstram teorema lui Bernoulli sub cea de-a doua forma. Notam

Yn =1

n

n∑

k=1

Xk

si tinem seama ca

M [Yn] =1

n

n∑

k=1

M [Xk] =1

nnp = p, D2[Yn] =

1

n2

n∑

k=1

D2[Xk] =npq

n2=pq

n,

deci limn→∞

M [Yn] = p si limn→∞

D2[Yn] = 0, ceea ce arata ca ipotezele Teoremei 4.2.1 sunt

satisfacute, deci { 1

n

n∑

k=1

Xk} prob−→ p.

Observatii.

1. Prima formulare a teoremei lui Bernoulli constituie justificarea teoretica a apropieriifacute ıntre conceptele de frecventa relativa si probabilitate a unui eveniment. Eaexprima faptul ca pentru siruri foarte mari de probe orice diferenta sensibila ıntrefrecventa relativa a unui eveniment si probabilitatea sa devine foarte improbabila.Deci convergenta frecventelor relative catre probabilitatea evenimentului nu trebuieınteleasa ca o convergenta numerica obisnuita; nu rezulta din teorema de mai sussi nici nu este intuitiv acceptabila ideea ca odata cu cresterea numarului de probevalorile frecventelor relative sunt, obligatoriu, mai apropiate de probabilitate.

2. Cele doua formulari decurg una din cealalta daca tinem seama ca frecventa absolutade realizare a lui A ın n probe. Fie Xn o variabila aleatoare repartizata Bi(n, p).

Daca notam Sn =n∑

k=1

Xk, atunciSnn

=1

n

n∑

k=1

Xk si deci

limn→∞

P ({|Snn− p| > ε}) = 0

ceea ce nu ınseamna altceva decat ca

{ 1

n

n∑

k=1

Xk} prob−→ p.

3. Rezultatul teoremei constituie justificarea teoretica a definitiei notiunii de estima-tie a unui parametru al unei repartitii, notiune de mare importanta ın statisticamatematica.

Teorema 4.2.3 (Cebasev) Daca (Xn)n∈IN este un sir de variabile aleatoare independentedoua cate doua, avand dispersiile marginite de o aceeasi constanta

D2[Xn] 6 c2, n ∈ IN,

Page 163: Teoria Probabilitatii

Probleme la limita 163

atunci

∀ε > 0 : limn→∞

P ({| 1n

n∑

k=1

Xk − 1

n

n∑

k=1

M [Xk]| > ε}) = 0

sau, echivalent,

∀ε > 0 : limn→∞

P ({| 1n

n∑

k=1

Xk − 1

n

n∑

k=1

M [Xk]| 6 ε}) = 1,

adica are loc convergenta ın probabilitate a sirul de variabile aleatoare,

{ 1

n

n∑

k=1

(Xk −M [Xk])} prob−→ 0.

Demonstratie. Daca Yn =1

n

n∑

k=1

(Xk −M [Xk]) atunci

M [Yn] = M [1

n

n∑

k=1

(Xk −M [Xk])] =1

n

n∑

k=1

M [Xk]− 1

n

n∑

k=1

M [Xk] = 0

si deoarece variabilele aleatoareXn sunt independente doua cate doua, rezulta (Xk −M [Xk])sunt independente doua cate doua si deci

D2[Yn] = D2[1

n

n∑

k=1

(Xk −M [Xk])] =1

n2

n∑

k=1

D2[Xk −M [Xk]] =1

n

n∑

k=1

D2[Xk].

Aplicand inegalitatea lui Cebasev variabilei aleatoare Yn si tinand seama de ipotezeleproblemei, putem scrie

P ({| 1n

n∑

k=1

Xk − 1

n

n∑

k=1

M [Xk]| > ε}) 6 1

n2ε2

n∑

k=1

D2[Xk] <nc2

n2ε2=

c2

nε2

si deci

limn→∞

P ({| 1n

n∑

k=1

Xk − 1

n

n∑

k=1

M [Xk]| > ε}) 6 limn→∞

c2

nε2= 0.

Teorema 4.2.4 (Markov) Daca variabilele aleatoare X1, X2, . . . , Xn, . . . au proprietateaca:

D2[n∑i=1

Xi]

n2→ 0, n→∞,

atunci are loc legea numerelor mari.

Page 164: Teoria Probabilitatii

164 Probleme la limita

Demonstratie. Trebuie demonstrat ca sirul {Xn}n∈IN verifica relatia:

∀ε > 0 : limn→∞

P ({| 1n

n∑

k=1

Xk − 1

n

n∑

k=1

M [Xk]| 6 ε}) = 1.

Aplicam inegalitatea lui Cebasev pentru variabilele aleatoare:

Y =n∑i=1

Xi/n, D2[Y ] = D2[

n∑i=1

Xi/n] =1

n2D2[

n∑i=1

Xi]→ 0, n→∞.

Deci D2[Y ] <∞ si atunci are loc inegalitatea lui Cebasev:

P (|Y −M [Y ]| 6 ε) > 1− 1

ε2

1

n2D2[

n∑i=1

Xi].

Dar1

n2D2[

n∑i=1

Xi] → 0, daca n → ∞. Trecand la limita ın inegalitatea precedenta,

obtinem afirmatia teoremei.

Observatia 4.2.1 In cazul particular cand variabilele aleatoare sunt independente, condi-tia din enunt se scrie:

n∑i=1

D2[Xi]

n→ 0, n→∞.

Teorema 4.2.5 (Hincin) Daca {Xn}n∈IN este un sir de variabile aleatoare independentedoua cate doua urmand aceeasi repartitie si avand dispersii finite, atunci

limn→∞

P ({| 1n

n∑

k=1

Xk −M | > ε}) = 0.

unde M = M [Xn], n ∈ IN.Demonstratie. Daca variabila aleatoare {Xn}n∈IN urmeaza aceeasi repartitie, rezultaD2[Xn] = σ2, n ∈ IN , ceea ce implica satisfacerea ipotezelor Teoremei lui Cebasev.

Observatie. Acest rezultat fundamenteaza teoretic procesul uzual de aproximare amediei caracteristicii studiate a unei populatii statistice prin media atitmetica a valorilorobservate. Intr-adevar, daca X1, X2, . . . Xn, . . . sunt privite ca valori potentiale ale uneivariabile aleatoare X obtinute printr-un sir de probe independente, atunci teorema arataca media aritmetica a acestora converge catre M = M [X].

Ca un caz particular al teoremei lui Cebasev se obtine teorema lui Poisson.

Teorema 4.2.6 (Poisson) Fie A un eveniment a carui probabilitate de realizare variazape parcursul unui sir de probe independente, astfel ıncat la proba de rang k, P (A) =

pk, k = 1, 2, . . . si fieSnn

frecventa de realizare a evenimentului A ın primele n probe.

Atunci

limn→∞

P ({ | Snn− p1 + p2 + . . .+ pn

n| > ε}) = 0.

Page 165: Teoria Probabilitatii

Probleme la limita 165

Demonstratie. Definim, pentru fiecare k = 1, 2, . . . n, . . . variabila aleatoare Xk ce iavalorile 1 sau 0 dupa cum A se realizeaza sau nu ın proba de rang k. In consecinta, Xk

este definita

Xk :

(0 1

1− pk pk

).

Notand cu Sn numarul de realizari ale lui A ın primele n probe, se constata

fn(A) =Snn

=1

n

n∑

k=1

Xk.

Deoarece X1, X2, . . . Xn, . . . sunt variabile aleatoare independente si deoarece

M [Xk] = pk, D2[Xk] = M [X2k ]−M [Xk]

2 = pk − p2k = pk(1− pk) 6 1

4,

rezulta ca sirul {Xn}n∈IN verifica ipotezele Teoremei lui Cebasev si deci

limn→∞

P ({ |Snn− p1 + p2 + . . .+ pn

n| > ε}) =

= limn→∞

P ({ | 1n

n∑

k=1

Xk − 1

n

n∑

k=1

M [Xk] | > ε)} = 0.

4.3 Aproximari pentru repartitii discrete

Reamintim ca o variabila aleatoare binomiala care ia n valori pote fi scrisa ca o sumade n variabile aleatoare X1, X2, . . . Xn,

Xk :

(0 1

1− p p

), k = 1, n.

Atunci Y =n∑

k=1

Xk este o variabila aleatoare repartizata binomial, Bi(n; p). Am vazut ca

o variabila aleatoare binomiala, Bi(n; p), pentru valori mari ale lui n poate fi aproximatacu o variabila aleatoare Poisson, daca p este suficient de mic astfel ıncat np = λ =constant. Vom arata ca o variabila aleatoare binomiala, Bi(n; p) poate fi aproximata cuo variabila aleatoare repartizata normal pentru orice valoare fixata a lui p si pentru nsuficient de mare.

De exemplu, aruncam un ban de 100 de ori. Ne intereseaza probabilitatea ca saobtinem fata care contine banul de 50 de ori. Raspunsul

p = C50100

1

2100=

100!

50!50!

1

2100

este nesatisfacator deoarece nu ne da nici o idee asupra marimii probabilitatii. Nu putemstabili daca aceasta probabilitate este ın jurul lui 1/2 sau 1/10 sau 1/50. Dificultateaapare ın calculul lui n! pentru n suficient de mare.

Page 166: Teoria Probabilitatii

166 Probleme la limita

Problema care se pune este de a gasi o alta functie h(n) care sa constituie o bunaaproximare ın pentru n! (o buna aproximare ın sensul ca n! si h(n) sa creasca aproape la

fel de repede odata cu n, sau |n!− h(n)| sa fie mic cand n creste sau limn→∞

n!

h(n)= 1).

Definitia 4.3.1 Fie f, g : IR → IR. Spunem ca f si g sunt asimptotic egale si notamf ∼ g daca

limn→∞

f(n)

g(n)= 1.

Relatia ”f si g sunt asimptotic egale ” este o relatie de echivalenta pe multimea functiilorneidentic nule. Proprietatile de reflexivitate, simetrie si tranzitivitate rezulta imediat.

De exemplu, un polinom ın variabila n este asimptotic egal cu termenul sau dominant.In cele ce urmeaza vom ıncerca sa gasim o functie h(n) astfel ıncat

limn→∞

n!

h(n)= 1.

Expresia unei astfel de functii este sugerata de formula lui Stirling (vezi Anexa 2)

h(n) = (n

e)n√n√

2π.

Pare mai neplacut sa calculam h(n) decat n!, dar este mult mai usor deoarece puterilesunt mai lesne de calculat. Sa aplicam ın cazul exemplului dat

p = C50100

1

200=

100!

50!50!

1

2100,

p ∼ (100e

)100√

100√

(50e

)100 50 2π

1

2100= (

100

50)100 10

50√

1

2100=

2100

5√

1

2100=

=1

5√

2π= 0, 0797884 ≈ 0, 08.

Teorema 4.3.1 (teorema locala Moivre-Laplace).Presupunem 0 < p < 1 si q = 1− p iar

xn,k =k − np√npq

, 0 6 k 6 n. (4.6)

Daca M o constanta pozitiva arbitrara fixata, atunci pentru acei k pentru care

|xn,k| 6M

avem

Cknp

kqn−k ∼ 1√2πnpq

e−x2n,k

2 . (4.7)

(Convergenta este ın raport cu n si este uniforma relativ la k.)

Page 167: Teoria Probabilitatii

Probleme la limita 167

Demonstratie. Din

xn,k =k − np√npq

rezulta k = np+√npq xn,k, adica n− k = nq −√npqxn,k. Deoarece |xn,k| 6M avem

k

np= 1 +

√npq

npxn,k → 1 si deci k ∼ np,

n− knq

= 1−√npq

nqxn,k → 1 si deci n− k ∼ nq.

(4.8)

Folosind formula lui Stirling putem scrie

Cknp

kqn−k ∼ (ne)n√n√

(ke)k√k√

2π(n−ke

)n−k√n− k√2π

pkqn−k ∼√

n

k(n− k)

1√2π

ϕ(n, k),

unde

ϕ(n, k) =nn

kn(n− k)n−kpkqn−k = (

np

k)k(

nq

n− k )n−k.

Deoarece k ∼ np si n− k ∼ nq rezulta ca

Cknp

kqn−k ∼ 1√2πnpq

ϕ(n, k).

Demonstram ın continuare ca

ϕ(n, k) ∼ e−x2n,k

2 .

Folosim dezvoltarea ın serie Taylor a lui ln(1 + x)

ln(1 + x) = x− x2

2+ . . .+ (−1)n−1x

n

n+ . . . pentru |x| < 1

si obtinem

ln(np

k)k = k ln(

np

k) ∼ k ln(

k −√npqxn,kk

) = k ln(1−√npqxn,k

k) =

= k(−√npq

kxn,k − npq

2k2x2n,k − . . .),

ln(nq

n− k )n−k = (n− k) ln(nq

n− k ) ∼ (n− k) ln(n− k +

√npqxn,k

n− k ) =

= (n− k) ln(1 +

√npqxn,k

n− k ) = (n− k)(

√npq

n− kxn,k −npq

2(n− k)2x2n,k + . . .),

deoarece

|√npq

kxn,k| < 1 si |

√npq

n− kxn,k| < 1 (4.9)

sunt safisfacute pentru n suficient de mare pentru care |xn,k| < M . Deci

lnϕ(n, k) = ln(np

k)k + ln(

nq

n− q )n−k ∼ k(−√npq

kxn,k − npq

2k2x2n,k − . . .)+

Page 168: Teoria Probabilitatii

168 Probleme la limita

+(n− k)(

√npq

n− kxn,k −npq

2(n− k)2x2n,k + . . .) =

= (−√npqxn,k − npq

2kx2n,k − . . .) + (

√npqxn,k − npq

2(n− k)x2n,k + . . .) =

=npq

2x2n,k(−

1

k− 1

n− k ) + . . . = − n2pq

2k(n− k)x2n,k + . . .

Justificam de ce neglijam termenii din dezvoltare de grad mai mare decat doi pentrun→∞. Cand n este suficient de mare, cele doua cantitati din (4.9) sunt mai mici decat2/3 si prin urmare Lema A2.1 din Anexa 2 este aplicabila si contributia acestora la celedoua serii este marginita de

k|√npq

kxn,k|3 = (n− k)|

√npq

(n− k)xn,k|3.

Deoarece pq < 1 si |xk| 6M aceasta nu depaseste

n23

k2M3 +

n32

(n− k)2M3,

care ın mod evident tinde la zero cand n → ∞ datorita relatiilor (4.8). Astfel, folosindaceste relatii, rezulta

lnϕ(n, k) ∼ n2pq

2npnqxn,k = −x

2n,k

2.

Aceasta este echivalenta cu

ϕ(n, k) ∼ e−x2n,k

2

si de aici rezulta (4.7).

Observatia 4.3.1 Aproximarea este utilizata daca n este suficient de mare astfel ıncatnp > 5 si n(1− p) > 5.

4.4 Convergenta ın repartitie. Teorema limita cen-

trala

Unele probleme ın teoria probabilitatilor impun studierea unor sume cu un numarfoarte mare de variabile aleatoare. Teorema limita centrala stabileste conditiile ın carerepartitia limita a sumelor considerate este normala.

Teorema 4.4.1 (Moivre-Laplace) Fie A un eveniment care are probabilitatea de realizarep = P (A) ıntr-un sir de probe independente. Daca Sn este numarul de realizari ale lui Aın n probe, atunci oricare ar fi a si b, a < b,

limn→∞

P ({a 6 Sn − np√npq

6 b}) =1√2π

∫ b

a

e−x2

2 dx. (4.10)

Page 169: Teoria Probabilitatii

Probleme la limita 169

Demonstratie. Fie k o valoare posibila a lui Sn astfel ıncat Sn = k ınseamna

Sn − np√npq

= xn,k

conform relatiei (4.6). Atunci probabilitatea evenimentului din dreapta formulei (4.10)este ∑

a<xn,k<b

P ({Sn = k}) =∑

a<xn,k<b

Cknp

kqn−k.

Tinand seama de faptul ca

xn,k+1 − xn,k =k + 1− np√

npq− k − np√

npq=

1√npq

,

obtinem ∑

a<xn,k<b

P ({Sn = k}) ∼ 1

K∑

a<xn,k<b

e−x2

2 (xn,k+1 − xn,k). (4.11)

Corespondenta dintre k si xn,k este bijectiva si atunci cand k variaza de la 0 la n, xn,k

variaza ın intervalul [−√np

q,

√nq

p], nu continuu, cu pasul xn,k+1− xn,k =

1√npq

. Pentru

n suficient de mare intervalul va contine [a, b) iar punctele xn,k vor fi ın interiorul lui [a, b),

ımpartindu-l ın intervale echidistante de lungime1√npq

. Presupunem ca cea mai mica si

cea mai mare valoare a lui k ce satisfac conditiile a 6 xn,k < b sunt, respectiv, j si l sideci vom avea

xj−1 < a < xj < xj+1 < . . . < xl−1 < xl < b < xl+1,

si suma din (4.11) se poate scrie

l∑

k=j

ϕ(xn,k)(xn,k+1 − xn,k),

unde

ϕ(x) =1

Ke−x2

2

Aceasta este suma Riemann pentru integrala definita∫ baϕ(x)dx. Facand n→∞, di-

vizarea devine din ce ın ce mai fina si suma converge la integrala data. Ramane dedeterminat constanta K. In formula

limn→∞

P ({a 6 Sn − np√npq

6 b}) =1√2π

∫ b

a

e−x2

2 dx (4.12)

facem a = −b si atunci

limn→∞

P (−b < Sn − np√npq

6 b) =1

K∫ b

−be−x2

2 dx. (4.13)

Page 170: Teoria Probabilitatii

170 Probleme la limita

Daca notam

X =Sn − np√

npq,

atunci

M [X] = 0, D2[X] = 1

si obtinem

P (|Sn − np√npq

| 6 b) > 1− 1

b2. (4.14)

Combinand relatiile (4.13) si (4.14) obtinem relatia

1− 1

b26 1

K∫ b

−be−x2

2 6 1

si facand b→∞ obtinem

K =

∫ ∞−∞

e−x2

2 dx =√

2π,

deci constanta K din formula lui Stirling este√

2π.

Inainte de a da o noua formulare teoremei Moivre-Laplace, introducem notiunea deconvergenta ın repartitie.

Definitia 4.4.1 Fie {Xn}n∈IN un sir de variabile aleatoare si {Fn}n∈IN sirul functiilorde repartitie corespunzatoare. Daca sirul functiilor de repartitie {Fn}n∈IN converge catreo functie de repartitie F ın fiecare punct de continuitate x0 al functiei de repartitie Fcorspunzatoare variabilei aleatoare X, adica daca

limn→∞

Fn(x0) = F (x0)

aatunci spunem ca sirul {Xn}n∈IN converge ın repartitie catre X si se noteaza

{Xn} rep−→ X.

Observatii.

1. Deoarece pot exista mai multe variabile aleatoare care au aceeasi functie de repartitie,rezulta din definitie ca limita unui sir de variabile aleatoare convergent ın repartitienu este unica.

2. Un exemplu de astfel de convergenta este urmatorul: daca {Xn}n∈IN este un sirde variabile aleatoare repartizata Bi(n, λ

n), atunci {Xn}n∈IN converge ın repartitie

catre variabila aleatoare X repartizata Poisson de parametru λ. (Legatura ıntrerepartitia binomiala si repartitia Poisson).

Urmatoarele rezultate stabilesc legatura ıntre cele doua moduri de convergenta.

Teorema 4.4.2 Daca {Xn} prob−→ X, atunci {Xn} rep−→ X.

Page 171: Teoria Probabilitatii

Probleme la limita 171

Demonstratie. Din definitia convergentei ın probabilitate, {Xn} prob−→ X, rezulta ca

∀ε > 0 : limn→∞

P ({|Xn −X| > ε}) = 0.

Fie Fn functia de repartitie a variabilei aleatoare Xn, F functia de repartitie a lui X six0 un punct de continuitate a lui F . Atunci

∀ε > 0 ∃δ > 0 : |F (x0 + δ)− F (x0 − δ)| 6 ε.

Din

F (x0 − δ) = P ({X < x0 − δ}) = P ({X < x0 − δ} ∩ ({Xn < x0} ∪ {Xn > x0})) =

= P ({X < x0 − δ} ∩ {Xn < x0}) + P ({X < x0 − δ} ∩ {Xn > x0}) 66 P ({Xn < x0}) + P ({|Xn −X| > δ}) = Fn(x0) + P ({|Xn −X| > δ}) = 0,

si tinand seama ca {Xn} prob−→ X, adica

limn→∞

P ({|Xn −X| > δ}) = 0,

rezultaF (x0 − δ) 6 lim

n→∞Fn(x0).

AnalogF (x0 + δ) > lim

n→∞Fn(x).

Rezultalimn→∞

Fn(x0) = F (x0).

Observatie. Reciproca acestei teoreme nu este adevarata. Ilustram aceasta printr-unexemplu. Fie variabila aleatoare

X :

(0 11

2

1

2

)

si variabila aleatoare Y = 1 − X. Variabilele aleatoare X si Y au aceeasi functie derepartitie. ıntr-adevar,

Y :

(0 11

2

1

2

)

FX(x) = FY (x) =

0 daca x 6 01

2daca 0 < x 6 1

1 daca x > 1

si |Y −X| = |1− 2X| = 1 indiferent de valoarea variabilei aleatoare X. Definim sirul devariabile aleatoare {Xn}n∈IN unde Xn = Y . Rezulta ca {Xn}n∈IN converge ın repartitiecatre X. Deoarece |Xn −X| = 1 rezulta ca {Xn}n∈IN nu converge ın probabilitate catreX. Exista totusi un caz particular ın care se poate stabili si legatura inversa.

Page 172: Teoria Probabilitatii

172 Probleme la limita

Teorema 4.4.3 Daca C este o constanta reala si daca {Xn} rep−→ C, atunci {Xn} prob−→ C.

Demonstratie. Punand X = C am definit o variabila aleatoare a carei repartitie este

C :

(c1

).

Deci functia de repartite a variabilei aleatoare X este

F (x) =

{0, daca x 6 c,1, daca x > c.

Fie ε > 0. Atunci

P ({| Xn − c | > ε}) = 1− P ({c− ε < Xn < c+ ε}) =

= 1− P ({Xn < c+ ε}) + P ({Xn < c− ε+ 0}) 6 1− Fn(c+ ε) + Fn(c− ε+ 0)

Punctul x = c este punct de discontinuitate pentru F si

F (c+ α)− F (c− α) = 1,

deciP ({|Xn − c| > ε}) 6 F (c+ α)− F (c− α)− Fn(c+ ε) + Fn(c− ε+ 0).

Dar c + ε si c − ε + 0 sunt puncte de continuitate ale lui F si, prin ipoteza, limn→∞

Fn(x)

= F (x) pentru orice punct de continuitate x a lui F , deci

limn→∞

Fn(c+ ε) = F (c+ ε),

limn→∞

Fn(c− ε+ 0) = F (c− ε+ 0) = F (c− ε),si deci

limn→∞

P ({|Xn − C| > ε}) = 0

ceea ce exprima convergenta ın probabilitate a lui Xn catre C.

Vom da acum o formulare mai generala a teoremei Moivre-Laplace. Notam cu

Sn = X1 +X2 + . . .+Xn, n > 1,

unde Xj, j = 1, n, sunt variabile aleatoare independente Bernoulli. Stim ca

M [Xj] = p, D2[Sn] = npq, j = 1, n,

si pentru orice n,M [Sn] = np, D2[Sn] = npq.

Notam

X∗j =Xj −M [Xj]

D[Xj], S∗n =

Sn −M [Sn]

D[Sn]=

1√n

n∑j=1

X∗j . (4.15)

Page 173: Teoria Probabilitatii

Probleme la limita 173

S∗n este o variabila aleatoare si se numeste variabila aleatoare normalizata. Avem pentrufiecare j si n

M [X∗j ] = 0, D2[X∗j ] = 1.

M [S∗n] = 0, D2[S∗n] = 1.

Transformarea liniara care duce Xj ın X∗j sau Sn ın S∗n are ca scop aducerea lor la ovariabila aleatoare cu media 0 si dispersia 1. Fiecare S∗n este o variabila aleatoare care iaca valori

xn,k =k − np√npq

.

Aceasta este tocmai xn,k din Teorema Moivre-Laplace si

P ({S∗n = xn,k}) = Cknp

kqn−k, 0 6 k 6 n.

Daca utilizam functia de repartitie corespunzatoare

P ({S∗n < x}) = Fn(x),

iar daca F este functia de repartitie normala standard, atunci teorema Moivre-Laplace sepoate scrie sub o forma mai eleganta si anume

limn→∞

Fn(x) = F (x).

Observatie. Teorema poate fi extinsa ın urmatorul sens: fie {Xn}n∈IN un sir devariabile aleatoare independente avand aceeasi repartitie care nu trebuie sa fie specificata.Trebuie, ın schimb, ca M [Xj] = m < ∞ si D2[Xj] = σ2 < ∞. Teorema lui Laplace areloc si ın aceste conditii.

Teorema 4.4.4 Pentru sumele Sn ın conditiile generalizate de mai sus si pentru a < bare loc

limn→∞

P ({a < Sn − nmσ√n6 b}) =

1√2π

∫ b

a

e−x2

2 dx. (4.16)

Exista ınsa o situatie ın care teorema limita centrala are o demonstratie banala. Estecazul ın care variabilele aleatoare {Xn}n∈IN sunt normale si independente. Atunci Sn =X1 + X2 + . . . + Xn este tot o variabila aleatoare normala cu media nm si dispersia nσ2

conform Teoremei 3.6.2.

Exemplul 4.4.1 Determinarea volumului unei selectii bernoulliene care sa permita apli-carea legii numerelor mari.

Legea numerelor mari (Teorema 4.2.2) afirma ca

limn→∞

P ({|fn(A)− p| > ε}) = 0,

unde fn(A) este frecventa relativa de realizare a evenimentului A ın primele n probeindependente.

fn(A) =k

n=Snn

unde Sn = X1 +X2 + . . .+Xn, Xi : Bi(n, p), i = 1, n,

Page 174: Teoria Probabilitatii

174 Probleme la limita

M [Snn

] = p, D2[Snn

] =pq

n,

P ({|Snn− p|}) > 1− D2[Sn

n]

ε2= 1− pq

nε2,

P ({|Snn− p| > ε}) < pq

nε2< δ,

δ fiind dat, relatia ne permite sa determinam o margine inferioara pentru volumul selectiein, deoarece

pq

nε2< δ implica n >

pq

δε2si max

p

pq

δε2=

1

4δε2,

adica

n >1

4δε2.

Aceasta margine inferioara este mai mult decat este necesar pentru a putea aplica TeoremaMoivre-Laplace.

P ({|Snn− p| > ε}) = P ({|Sn − np

n| > ε}) =

= P ({|Sn − np√npq

| > ε

√n

pq}) = 1− P ({|Sn − np√

npq| 6 ε

√n

pq}) =

= 1− [F (ε

√n

pq)− F (−ε

√n

pq)] = 1− 0, 5− Φ(ε

√n

pq) + 0, 5− Φ(ε

√n

pq)

= 1− 2Φ(ε

√n

pq) < δ

Notam z = ε

√n

pq; problema este sa se determine z astfel ıncat 1 − 2Φ(z) < δ adica

Φ(z) =1− δ

2. Determinam z0 din relatia Φ(z0) =

1− δ2

si n astfel ıncat ε

√n

pq= z.

Rezulta n =z2pq

ε2si deci max

z2pq

ε2=

z2

4ε2, adica

n > z2

4ε2.

Intr-adevar, daca luam ε = 0, 02 si δ = 0, 05 obtinem, conform Legii numerelor mari

n >1

4× 0, 05× (0, 02)2= 125000.

Folosind Teorema lui Moivre-Laplace, Φ(z) =1− 0, 05

2= 0, 475, adica z > 1, 96 si deci

n >(1, 96)2

4(0, 02)2= 2401.

Page 175: Teoria Probabilitatii

Probleme la limita 175

Exemplul 4.4.2 O tensiune constanta, dar necunoscuta, trebuie sa fie masurata. Fieca-re masuratoare Xj se face cu o eroare Nj fata de valoarea exacta v. Eroarea Nj are mediaegala cu zero si dispersia egala cu 1 microvolt.

Xj = v +Nj

Presupunem ca eroarea este o variabila aleatoare independenta. Cate masuratori suntnecesare ca media masuratorilor sa fie cu cel mult ε = 1 mai mare decat valoarea exactacu o probabilitate de 0,99?

Fiecare masuratoare Xj are v si dispersia 1, astfel ıncat folosind legea numerelor mariobtinem:

1− 1

nε2= 1− 1

n= 0, 99.

Aceasta implica n = 100. Astfel daca repetam masuratorarea de 100 de ori si calculammedia ın mod normal ın 99% din situatii media obtinuta va diferi cu cel mult 1 microvoltde valoarea exacta.

Exemplul 4.4.3 Pentru a estima probabilitatea unui eveniment A, se efectueaza un sirde experiente Bernoulli si se observa frecventa relativa a evenimentului A. De cate oritrebuie repetat evenimentul A astfel ıncat cu o probabilitate de 0, 95 frecventa relativa sadifere de p = P (A) cu 0, 01?

Fiind experiente Bernoulli, media m = p si dispersia D2[X] = p(1 − p). Evident cap(1− p) 6 1/4 pentru 0 6 p 6 1. Atunci rezulta

P (|fn(A)− p| > ε) 6 D2[X]

nε26 1

4nε2.

Pentru ε = 0, 01 obtinem

1− 0, 95 =1

4nε2

Rezolvam si obtinem n = 50000. Aceasta evaluare s-a obtinut utilizand inegalitatea luiCebasev care da niste evaluari destul de grosiere. Vom obtine o alta evaluare utilizand

Teorema Moivre-Laplace. Deoarece fn(A) =Snn

obtinem:

P ({|Snn− p| < ε}) = P ({|Sn − np

n| < ε}) = 1− 2Φ(ε

√n

p(1− p))

Aceasta probabilitate nu poate fi calculata deoarece p este necunoscut. Mai mult, deoarecep(1 − p) 6 1/4pentru 0 6 p 6 1, avem

√p(1− p) 6 1/2, deci Φ(x) descreste cand

argumentul creste.P (|fn(A)− p| > ε) < 1− 2Φ(2ε

√n)

Vrem ca probabilitatea de mai sus sa fie egala cu 0,95. Aceasta implica Φ(2ε√n) =

(1 − 0, 95)/2 = 0, 25. Din tabele obtinem 2ε√n = 1, 95. Rezolvand, obtinem n =

(0, 98)2/ε2 = 9506.

Page 176: Teoria Probabilitatii

176 Probleme la limita

Exemplul 4.4.4 Sa se determine numarul minim de aruncari ale unei monede care saasigure cel putin cu o probabilitate de 0,9 ca diferenta dintre frecventa relativa obtinutasi probabilitatea de aparitie a unei fete sa fie mai mica ın valoare absoluta decat 0,2.

Folosind Teorema 4.2.2 obtinem,

P ({|fn(A)− 1

2| < 0, 2}) > 0, 9. (4.17)

Conform Exemplului 4.4.4 avem ε = 0, 2, δ = 1− 0, 9 = 0, 1 si deci

n >1

4δε2=

1

4× 0, 1× (0, 2)2= 62, 5, n > 63.

Cel putin 63 de aruncari asigura

P ({|S63

63− 1

2| < 0, 2}) > 0, 9.

Putem determina intervalul ın care variaza frecventa relativa astfel ıncat (4.17) sa fiesatisfacuta si deci frecventa absoluta pentru un anumit n 6 63,

|kn− 1

2| < 0, 2 ⇐⇒ 0, 3 <

k

n< 0, 7 ⇐⇒ n× 0, 3 < k < n× 0, 7.

Daca n = 63 rezulta 18 < k < 44. Deci din 63 aruncari, numarul aruncarilor reusite estecuprins ıntre 18 si 44, atunci (4.17) este satisfacuta, adica am determinat intervalul ıncare se situeaza numarul cazurilor favorabile aparitiei unei aceleiasi fete, aceasta avandloc cu probabilitatea de cel putin 0,9.

Exemplul 4.4.5 Un zar se arunca de 1200 de ori. Sa se determine probabilitatea minimaca numarul de aparitii ale fetei cu i puncte, i fixat, sa fie cuprins ıntre 150 si 250. Darıntre 100 si 250 ?

Constatam ca p =1

6si n = 1200. Deci

| k

1200− 1

6| < ε ⇐⇒ 1

6− ε < k

1200<

1

6+ ε

echivalent cu200− 1200× ε < k < 200 + 1200× ε.

Sa cercetam daca aceasta situatie este compatibila cu datele problemei, adica daca sis-temul {

200− 1200ε = 150,200 + 1200ε = 250,

are solutie. Se obtine ε =50

1200=

1

24. ın al doilea caz, sistemul devine

{200− 1200ε = 100,200 + 1200ε = 250,

Page 177: Teoria Probabilitatii

Probleme la limita 177

si este incompatibil, obtinand, din fiecare ecuatie, ε1 =1

12si ε2 =

1

24. Pentru ε1 =

1

12

obtinem intervalul (100, 300), iar pentru ε2 =1

24obtinem intervalul (150, 250). Cum

P ({100 <Sn

1200< 250}) > P ({150 <

Sn1200

< 250}) > 1− 1

24,

alegem ε =1

24si deci

δ =1

4ε2n=

1

4 1242 1200

= 0.12.

Deci, cu probabilitatea de cel putin 0,88, numarul de aparitii ale unei fete a zarului cui puncte este ın intervalul (150, 250) daca aruncam zarul de 1200 ori. Pe de alta parte,tinand seama de regula celor 3σ de la repartitia normala,

P ({−3 <Sn − np√

npq6 3}) = 0, 9973,

ceea ce ınseamna ca probabilitatea ca numarul de aparitii ale unei fete a zarului sa fie ınintervalul (161, 239) este de 0.9973. Se poate calcula exact probabilitatea ca numarul deaparitii ale unei fete sa fie cuprins ıntre 100 si 250. Deorece np = 200 si

√npq = 12, 91

obtinemP ({100 < Sn < 250}) = P ({−100 < Sn − np < 50}) =

= P ({− 100

12, 91<Sn − np√

npq<

50

12, 91}) =

= P ({−7, 75 <Sn − np√

npq< 3, 873}) = F (3, 873)− F (−7, 75)

si tinand seama de Relatia (3.14) din Capitolul 3,

P ({100 < Sn < 250}) = Φ(3, 873) + Φ(7, 75) =

= 0, 499946 + 0, 499997 = 0, 9999943,

rezultat ın concordanta cu cel anterior.

Exemplul 4.4.6 Sa se calculeze probabilitatea opririi simultane a trei masini din zececare lucreaza independent ıntr-o fabrica ın cazul ın care probabilitatea defectarii uneimasini este p = 0, 2.

Numarul de masini defecte este o variabila aleatoare cu repartitie binomiala:

X :

(k

Ckn(0, 2)k(0, 8)10−k

), k = 1, 10

Se cere probabilitateaP10,3 = C3

10(0, 2)3(0, 8)7 = 0, 2.

Page 178: Teoria Probabilitatii

178 Probleme la limita

Folosind Teorema 4.3.1 putem aproxima

x10,3 =3− 10

3√101

212

= −0, 21

si obtinem

C310(0, 2)3(0, 8)7 ∼ 1√

2π 12

1210e−

(0,21)2

2 ≈ 0, 246.

Diferenta 0,246-0,2=0,046 este considerata ca o aproximatie cu eroare mare. (Am vazutca aplicam formula daca np > 5 si nq > 5, dar ın cazul acesta np = 10× 0, 2 = 2 < 5.)

Daca am avea 25 de masini si calculam probabilitatea opririi simultane a opt masini(observam ca np = 25× 0, 2 = 5 si nq = 25× 0.8 = 20 > 5), atunci

P25,8 = C825(0, 2)8(0, 8)17 = 0, 06234.

Conform Teoremei 4.3.1

x25,8 =8− 25× 0, 2√25× 0, 2× 0, 8

= 1, 5,

C825(0, 2)8(0, 8)17 ∼ 1√

2π × 0, 2× 0, 8e−

(1,5)2

2 = 0, 06475.

Diferenta0, 06475− 0, 06234 = 0, 00241

de ordinul miimilor este considerata satisfacatoare din punct de vedere practic.

Exemplul 4.4.7 O centrala electrica trebuie sa deserveasca o retea de 10000 de becurimedii. Probabilitatea aprinderii unui bec ıntr-o noapte de iarna, care constituie perioadade varf a consumului de energie electrica, este de 0,7. Sa se faca analiza economicanecesara proiectarii centralei.

Pentru a determina capacitatea centralei pot fi adoptate criterii diferite:

• sa construim centrala astfel ıncat ın orice moment cele 10000 de becuri sa functio-neze;

• sa se determine capacitatea centralei astfel ıncat cu o probabilitate suficient de mare,consumul obisnuit sa fie asigurat cu energia necesara bunei functionari.

Fie X o variabila aleatoare care ia ca valori numarul de becuri care pot fi aprinse ıntr-onoapte. Aceasta variabila aleatoare are o repartitie binomiala cu

n = 10000, p = 0, 7, M [X] = np = 7000,

D2[X] = npq = 2100, D[X] = 45, 83 ≈ 46,

Page 179: Teoria Probabilitatii

Probleme la limita 179

P ({|X −M [X]| 6 k × 46}) > 1− 2100

k22100= 1− 1

k2=k2 − 1

k2.

Pentru k = 2 obtinem

P ({|X − 700| 6}) > 3

4= 0, 75.

Daca centrala se construieste pentru o capacitate de 7092 becuri atunci, cu o probabilitatede cel putin 0,75, functionarea ei este normala. Rezultatul nu este convenabil. La fel,

k = 3, P ({|X − 7000| 6 138}) > 8

9= 0, 89;

k = 4, P ({|X − 7000| 6 184}) > 15

16= 0, 94.

Daca construim centrala pentru o capacitate de 7184 becuri medii atunci, cu probabilitateade cel putin 0,94, functionarea va fi normala.

Sa determinam capacitatea centralei astfel ıncat cu o probabilitate de0,99 functionarea sa fie normala. Folosim Teorema Moivre-Laplace cu a = −∞.

P ({Sn − np√npq

6 b}) = 0, 999 = F (b) = 0, 5 + Φ(b)

0, 5 + Φ(b) = 0, 999⇐⇒ Φ(b) = 0, 499⇐⇒ b = 3, 09

Sn − 10000× 0, 7√10000× 0, 7× 0, 3

6 3, 09

Sn = 7142 se numeste coeficient de simultaneitate si este indicat sa se faca constructiacentralei pentru el. Daca centrala se construieste pentru 10000 de becuri medii, cu oprobabilitate de 0.99, un numar de 10000-7142=2858 becuri raman nefolosite.

Exemplul 4.4.8 O fabrica are ın stoc 1660 tone dintr-o materie prima. stiind ca zilnic seconsuma ın medie 13,33 t cu abaterea 1,2 t, cu ce probabilitate aceasta cantitate ajungepentru 4 luni.

Notam cu Xi variabila aleatoare care ia ca valori consumul zilei i, i = 1, 120. Avem

M [Xi] = 13, 33, D[Xi] = 1, 2.

In 120 de zile se consuma X =120∑i−1

Xi. Ne aflam ın cazul general ın care nu se cunoaste

repartitia variabilei aleatoare Xi. Sa determinam P ({X < 1660}).

M [X] = nm = 120× 13, 33 = 1599, 6, D[X] =√nσ2 =

√nσ = 13, 1,

P ({X < 1660}) = P ({X − 1599, 6

13, 1<

1660− 1599, 6

13, 1}) = 0, 5 + Φ(4, 6) = 0, 999.

Se poate deci presupune ca aproape sigur cantitatea de materie prima este suficienta.

Page 180: Teoria Probabilitatii

180 Probleme la limita

Exemplul 4.4.9 O sursa radioactiva este modelata dupa o lege Poisson si emite 30particule/ora. Care este probabilitatea ca ın 10 minute sa fie emise cel mult 10 particule?

Notam X =10∑i=1

Xi, unde Xi sunt variabile aleatoare repartizate Poisson si indepen-

dente. Din conditiile

λ = M [X] =10∑i=1

M [Xi] = nM [Xi]

si deci M [Xi] =λ

nsi

λ = D2[X] =10∑i=1

D2[Xi] = nD2[Xi],

adica D2[Xi] =λ

n, unde λ este parametrul repartitiei Poisson ce trebuie determinat din

conditia λ = 3016

= 5 particule/10 minute. Dupa (4.16)

P ({X 6 10}) = P ({X − nλn√

n√

λn

6 10− λ√λ}) = 0, 5 + Φ(

10− 5√5

) = 0, 98713.

Exemplul 4.4.10 Fie {Xn}n∈IN un sir de variabile aleatoare independente

Xn :

( −√n 0√n

1

n1− 2

n

1

n

), P ({X1 = 0}) = 1, n = 2, 3 . . . .

Sa se arate ca {Xn}n∈IN se supune Legii numerelor mari.

Verificam conditiile Teoremei 4.2.1.

M [Xn] = 0, D2[Xn] = M [X2n]− (M [Xn])2,

X2n :

(0 1

1− 2

n

2

n

), M [X2

n] = 2, D2[Xn] = 2

Conform Teoremei 4.2.1, {Xn} prob−→ 0. Daca notam

Yn =1

n

n∑

k=1

Xk,

atunci

M [Yn] = 0, D2[Yn] =1

n2

n∑

k=1

D2[Xk] =2(n− 1)

n2+

1

n2=

2n− 1

n2→ 0

decilimn→∞

P ({|Yn −M [Yn]| < ε}) = 1 ⇐⇒ {Yn} prob−→ 0.

Page 181: Teoria Probabilitatii

Probleme la limita 181

4.5 Legatura dintre convergenta sirurilor functiilor

de repartitie si convergenta sirurilor functiilor ca-

racteristice

Teorema 4.5.1 Fie Fn un sir de functii de repartitie si F o functie de repartitie. DacaFn → F ın orice punct de continuitate a lui F , rezulta ca pentru orice f : IR → IRcontinua si marginita are loc

limn→∞

IR

f(x)dFn(x) =

IR

f(x)dF (x)

Demonstratie. Fie M = supx∈IR|f(x)| si fie a, b puncte de continuitate ale lui F ıncat

F (a) 6 ε si 1− F (b) 6 ε.

Deoarece pe un interval ınchis [a, b] orice functie continua este si uniform continua, alegempunctele de continuitate ale lui F , xk cu 0 6 k 6 s astfel ıncat

a = x0 < x1 < . . . < xs = b

si|f(x)− f(xk)| 6 ε, ∀x ∈ [xk, xk+1], 0 6 k 6 s− 1.

Introducem functia auxiliara de salturi fε definita astfel:

fε(x) =

{f(xk), daca xk 6 x < xk+1,0, daca x < x0, x > xs,

0 6 k 6 s− 1.

Are loc, evident,|f(x)− fε(x)| < ε, ∀x ∈ [a, b].

Pentru orice functie de repartitie G are loc

IR

fε(x)dg(x) =s−1∑

k=0

f(xk)(G(xk+1)−G(xk)).

Deoarece ın x = xk, 0 6 k 6 s, F este continua, limn→∞

Fn(x) = F (x) si deci

limn→∞

IR

fε(x)dFn(x) = limn→∞

s−1∑

k=0

f(xk)(Fn(xk+1)− F (xk)) =

=s−1∑

k=0

f(xk)(F (xk+1)− F (xk)) =

IR

fε(x)dF (x),

deci

limn→∞

IR

fε(x)dFn(x) =

IR

fεdF (x). (4.18)

Page 182: Teoria Probabilitatii

182 Probleme la limita

De asemenea avem∫

IR

|f(x)− fε(x)|dF (x) =

∫ a

∞|f(x)− fε(x)|dF (x)+

+

∫ b

a

|f(x)− fε(x)|dF (x) +

∫ ∞b

|f(x)− fε(x)|dF (x) 6

6∫ a

−∞|f(x)|dF (x) +

∫ b

a

|f(x)− fε(x)|dF (x) +

∫ ∞b

|f(x)|dF (x) 6

6M

∫ a

−∞dF (x) +

∫ b

a

|f(x)− fε(x)|dF (x) +M

∫ ∞b

dF (x) =

= MF (a) + ε(F (b)− F (a)) +M(1− F (b)).

Daca tinem seama de (4.18), gasim∫

IR

|f(x)− fε(x)|dF (x) 6 (2M + 1)ε. (4.19)

Din convergenta ın repartitie, pentru n suficient de mare, avem

|Fn(a)− F (a)| < ε

2Msi |Fn(b)− F (b)| < ε

2M.

Facand acelasi rationament ca mai sus gasim evaluarea∫

IR

|f(x)− fε(x)|dFn(x) 6 (2M + 1)ε. (4.20)

Din (4.18), (4.19) si (4.20) avem

|∫

IR

f(x)dFn(x)−∫

IR

f(x)dF (x)| 6∫

IR

|f(x)− fε(x)|dFn(x) +

IR

|f(x)−

−fε(x)|dF (x) + |∫

IR

fε(x)dFn(x)−∫

IR

f(x)dF (x)| 6 (4M + 3)ε.

Deoarece ε este arbitrar, rezulta teorema.

Mentionam ca si implicatia inversa este adevarata.

Teorema 4.5.2 Daca Fn este un sir de functii de repartitie, atunci exista un subsir Fnkconvergent la o functie nedescrescatoare ın punctele sale de continuitate.

Demonstratie. Fie (xn)n∈IN∗ o multime numarabila arbitrara de numere reale, densa ınIR, de exemplu multimea numerelor rationale. Deoarece sirul {Fn(x1}n∈IN∗ ∈ [0, 1] (fiindmarginit), din teorema lui Bolzano- Weierstrass exista un subsir convergent {F 1

n(x1}n∈IN∗ .Analog, din sirul marginit {F 2

n(x2)} extragem un subsir convergent {F 2n(x2)}n∈IN∗ etc.

Rezulta ca sirul diagonal {F nn }n∈IN) (cu exceptia eventual a unui numar finit de ter-

meni) este continut ın toate subsirurile {F kn}n∈IN∗,k∈IN∗ si deci converge , oricare ar fi

x ∈ Q. Introducem

F (x)def= lim

k→∞Fnk(x).

Page 183: Teoria Probabilitatii

Probleme la limita 183

F este, evident, nedescrescatoare si marginita pe Q si poate fi extinsa la IR cu pastrareaproprietatilor

F (x) = supy<x,y∈Q

F (y).

Sa demonstram ca {Fnk} → F ın punctele sale de continuitate. Fie x0 un punct decontinuitate a lui F si sa alegem η > 0 ıncat pentru |x− x0| < η sa avem

|F (x)− F (x0)| < ε.

Introducem functiile auxiliare

f1(x) =

1, daca x 6 x0 − η,x0 − xη

, daca x0 − η 6 x 6 x0,

0, daca x > x0,

f2(x) =

1, daca x 6 x0,

1− x0 − xη

, daca x0 6 x 6 x0 + η,

0, daca x > x0 + η.

Avem, evident,∫

IR

f1(x)dF (x) >∫ x0−η

−∞dF (x) = F (x0 − η) > F (x0)− ε,

IR

f2(x)dF (x) 6∫ x0+η

−∞dF (x) = F (x0 + η) 6 F (x0) + ε,

si analog pentru Fnk ∫

IR

f1(x)dFnk(x) 6∫ x

−∞dFnk(x) = Fnk(x0),

IR

f2(x)dFnk(x) >∫ x

−∞dFnk(x) = Fnk(x0).

Pentru n suficient de mare, conform teoremei 4.4.1,

|∫

IR

f1(x)dFnk(x)−∫

IR

f1(x)dF (x)| < ε,

|∫

IR

f2(x)dFnk(x)−∫

IR

f2(x)dF (x)| < ε.

Din ultimele sase relatii deducem

F (x0)− 2ε 6 Fnk(x0) 6 F (x0) + 2ε.

Deoarece ε > 0 este arbitrara rezulta

limn→∞

Fn(x0) = F (x0).

Page 184: Teoria Probabilitatii

184 Probleme la limita

Teorema 4.5.3 Daca sirul {Fn} de functii de repartitie converge ın repartitie catre func-tia F ın toate punctele de continuitate ale lui F , atunci sirul {ϕn} al functiilor caracteris-tice corespunzatoare converge (uniform pe orice interval marginit) la functia caracteristicaϕ corespunzatoare lui F .

Demonstratie. Deoarece

ϕn(t) =

IR

eitxdFn(x) si ϕ(t) =

IR

eitxdF (x)

si functia eitx este continua si marginita pe IR. Conform Teoremei 4.5.2 rezulta

limn→∞

ϕn(t) = ϕ(t)

(se poate demonstra si convergenta uniforma).

Teorema 4.5.4 Daca sirul {ϕn}n∈IN∗ de functii caracteristice converge pentru orice t ∈ IRla ϕ continua pe IR, atunci sirul {Fn}n∈N∗ de functii de repartitie corespunzatoare con-verge catre o functie de repartitie F ; ın plus, ϕ este functia caracteristica corespunzatoarelui F .

Demonstratie. Din Teorema 4.5.1 exista un subsir {Fnk}k∈IN∗ care converge la o functieF nedescrescatoare, continua la stanga ın toate punctele de continuitate ale lui F . Sademonstram ca F este o functie de repartitie. Presupunem, prin absurd, ca

F (−∞) > 0 F (+∞) < 1

siδ = F (+∞)− F (−∞) < 1.

Fie ε > 0 ales arbitrar astfel ıncat ε < 1 − δ. Deoarece ϕn → ϕ si ϕn(0) = 1, rezulta caϕ(0) = 1 si deoarece ϕ este continua pe IR putem lua τ > 0 suficient de mic ıncat

1

2τ|∫ τ

−τϕ(t)dt| > 1− ε

2> δ +

ε

2. (4.21)

De asemenea putem alege x0 >4τε

daca K > 0 suficient de mare, ıncat

δk = Fnk(x0)− Fnk(−x0) =

|x|<x0

dFnk(x) < δ +ε

4, daca k > K

ceea ce este posibil deoarece Fnk este o functie de repartitie. Deoarece ϕnk este o functiecaracteristica, ∫ τ

−τϕnk(t)dt =

IR

[

∫ τ

−τeitxdt]dFnk(x).

Dar |∫ τ

−τeitxdt| 6 2τ deoarece |eitx| = 1, iar pe de alta parte, calculand efectiv aceasta

integrala, ∫ τ

−τeitx =

1

ixeitx|τ−τ =

1

ix[eiτx − e−iτx] =

2

xsin(τx).

Page 185: Teoria Probabilitatii

Probleme la limita 185

Deci, pentru |x| > x0, tinand seama de faptul ca | sin(τx) 6 1 avem

∫ τ

−τeitxdt <

2

x0

.

Deci

|∫ τ

−τϕnkx(t)dt| 6 |

|x|6x0

[

∫ τ

−τeitxdt]dFnk(x)|+

+|∫

x>x0

[

∫ τ

−τeitxdt]dFnk(x)| < 2τδk +

2

x0

.

Impartind prin 2τ

1

2τ|∫ τ

−τϕnk(t)dt| < δk +

1

τx0

< δ +ε

4+

1

τ

τε

4< δ +

ε

2,

ceea ce contrazice (4.21). Din teorema 4.5.3,

limk→∞

IR

eitxdFnk(x) =

IR

eitxdF (x) = ϕ(t).

Ramane sa demonstram ca {Fn} converge ın repartitie catre F . Sa presupunem contrariul;atunci exista un subsir {Fnk} care converge ın repartitie catre F ∗ 6= F , dar F ∗ esteo functie de repartitie cu aceeasi functie caracteristica, deci din Teorema de unicitateCap.III, Teorema 3.5.4 rezulta F ∗ ≡ F .

4.6 Convergenta aproape sigura

Deoarece variabilele aleatoare sunt functii definite pe spatiul de selectie (cu proprietatisuplimentare) putem vorbi de covergenta punctuala a unui sir de variabile aleatoare{Xn}n∈IN catre variabila aleatoare X, ıntelegand prin aceasta ca sirul numeric de variabilealeatoare {Xn(e)}n∈IN , e ∈ E converge catre X(e).

Definitia 4.6.1 Sirul de variabile aleatoare {Xn}n∈IN converge aproape sigur catre vari-abila aleatoare X (notat {Xn}n∈IN a.s.−→ X) daca multimea evenimentelor ın care {Xn}n∈INconverge punctual la X formeaza un eveniment de probabilitate 1,

P ({Xn → X}) = 1, (4.22)

echivalent cuP ({Xn → X}) = 0.

Observatia 4.6.1 Convergenta aproape sigura se mai numeste convergenta tare.

Teorema 4.6.1 Daca pentru orice r ∈ IN∗ are loc

∞∑n=1

P ({|Xn −X| > 1

r}) <∞ (4.23)

atunci {Xn}n∈IN a.s.−→ X.

Page 186: Teoria Probabilitatii

186 Probleme la limita

Demonstratie. Fie Arn = {e ∈ E, |Xn −X| > 1r} si Br

n =∞⋃

k=1

Arn+k. Din faptul ca

P (Brn) 6

∞∑

k=1

P (Arn+k) =∞∑

l=n+1

P ({|Xl −X| > 1

r})

si cum seria din (4.23) este convergenta, rezulta ca restul seriei converge la zero si deci

limn→∞

P (Brn) = 0. (4.24)

FieBr = B1⋃B2⋃B3⋃. . . si cum P (B) 6

∞∑r=1

P (Br) rezulta, conform (4.24) ca P (B) =

0, unde de fapt B este multimea evenimentelor pentru care Xn nu converge la X.

Se poate demonstra ca daca {Xn}n∈IN a.s.−→ X atunci {Xn}n∈IN prob−→ X si deci

{Xn}n∈IN rep−→ X.Un alt rezultat, datorat lui E. Borel, face parte din legea numerelor mari (forma tare)

si reformuleaza, ıntr-o maniera ıntarita, afirmatia continuta ın teorema lui Bernoulli.

Teorema 4.6.2 (Borel) Fie A un eveniment care are probabilitatea de realizare p = P (A)

ıntr-un sir de probe independente si fieSnn

frecventa relativa de realizare a evenimentului

A din n probe. Atunci are loc convergenta aproape sigura a sirului frecventelor relativeSnn

catre p.

Snn

a.s.−→ p.

Demonstratie. Conform Teoremei 4.5.1 este suficient sa aratam ca seria

∞∑n=1

P ({|Snn− p| > 1

r}) (4.25)

este convergenta, oricare ar fi r ∈ IN∗. Pentru aceasta vom observa, ca si la inegalitatealui Cebasev, ca putem stabili urmatoarea inegalitate pentru orice variabila aleatoare Xpentru care exista M [(X −M [X])4]

P ({|X −M [X]| > ε}) 6 1

ε4M [(X −M [X])4].

4.7 Convergenta ın medie

Definitia 4.7.1 Sirul de variabile aleatoare {Xn}n∈IN converge ın medie de ordinul rcatre variabila aleatoare X daca exista momente absolute M [|Xn|r], n ∈ IN si M [|X|r] sidaca

limn→∞

M [|Xn −X|r] = 0,

si scriem {Xn}n∈IN r−→ X

Page 187: Teoria Probabilitatii

Probleme la limita 187

Teorema 4.7.1 Daca sirul de variabile aleatoare {Xn}n∈IN converge ın medie de ordinulr catre variabila aeatoare X atunci converge ın probabilitate catre X.

Demonstrate. Folosim inegalitatea analoga inegalitatii lui Cebasev, dar pentru momentulcentrat de ordin r, Relatia (3.41):

P ({|Xn −X| > ε}) 6 M [|Xn −X|r]εr

rezulta ca deoarece are loc (4.22) atunci

limn→∞

P ({|Xn −X| > ε}) = 0.

Observatie. Daca r = 2 convergenta ın medie de ordinul doi se numeste convergentaın medie patratica.

Concluzie.

{Xn}n∈IN a.s.−→ X

{Xn}n∈IN r−→ X=⇒ {Xn}n∈IN prob−→ X =⇒ {Xn}n∈IN rep−→ X .

Page 188: Teoria Probabilitatii

188 Probleme la limita

4.8 Probleme propuse

Problema 4.1 Se dau variabilele aleatoare independente X1, X2, . . . , Xn, . . ., unde Xn iavalorile −na, 0, na, a ∈ IR+ cu probabilitatile:

a) p1 = 1/2n2, p2 = 1− 1/n2, p3 = 1/2n2,b) p1 = 1/2n, p2 = 1− 1/2n−1, p3 = 1/2n.Satisfac aceste siruri {Xn}n∈IN legea numerelor mari?

Solutie. a)

Xn :

( −na 0 na1/2n2 1− 1/n2 1/2n2

), n = 1, 2, . . . ,

M [Xn] = 0, M [X2] = a2, D2[X] = M [X2] = a2 <∞.Sirul {Xn}n∈IN satisface legea numerelor mari, folosind Teorema lui Cebasev.

b)

Xn :

( −na 0 na1/2n 1− 1/2n−1 1/2n

), n = 1, 2, . . . ,

M [Xn] = 0, M [X2] = n2a2/2n−1, D2[X] = M [X2]− (M [X])2 = n2a2/2n−1 <∞.Intrucat D2[Xn] nu este constanta nu se poate aplica Teorema lui Cebasev. Se aplicaTeorema lui Hincin.

Problema 4.2 Fie sirul de variabile aleatoare independente {Xn}n∈nn. Xn ia valorile:−n,−(n− 1), . . . ,−1, 0, 1, . . . , n− 1, n cu probabilitatile:

P (|Xn| = k) =1

3k3, k = 1, n, P (Xn = 0) = 1− 2

3(1 +

1

23+

1

33+ . . .+

1

n3).

Se aplica sirului {Xn}n∈nn legea numerelor mari?

Solutie. Tabloul de repartitie al variabilei aleatoare Xn este:

Xn :

( −n . . . −1 0 1 2 . . . n1

3n3 . . . 13

1− 23(1 + 1

23 + 133 + . . .+ 1

n3 ) 13

1323 . . . 1

3n3

)

M [Xn] = 0, n = 1, n

D2[Xn] = M [X2n] =

n∑

k=1

k2 1

3k3=

2

3

n∑

k=1

1

k<

2

3(1 + ln n).

Pentru majorare am utilizat egalitatea:

1 +1

2+

1

3+ . . .+

1

n= ln n+ C + εn, lim

n→∞εn = 0

iar C este constanta lui Euler cu C ≈ 0.577. Vom aplica Teorema lui Markov:

1

n2D2[

n∑i=1

Xi] =

n∑i=1

D2[Xi]

n2<

1

n2

2n

3(1 + ln n),

Page 189: Teoria Probabilitatii

Probleme la limita 189

1

n2D2[

n∑i=1

Xi] <2

3n(1 + lnn)→ 0, n→∞.

Deci sirului {Xn}n∈IN i se poate aplica legea numerelor mari.

Problema 4.3 Se da sirul de variabile aletoare independente {Xn}n∈IN cu M [X] =0, D2[X] = na, a =const., a < 1. Se aplica sirului dat legea numerelor mari?

Indicatie. Se aplica Teorema lui Markov.

Problema 4.4 Se da sirul de variabile aleatoare {Xn}n∈IN∗ independente: Xn iavalorile −√n, 0,

√n cu probabilitatile 1/n, 1− 2/n, 1/n respectiv. Se aplica acestui sir

legea numerelor mari?

Indicatie. Da, ıntrucat se poate aplica teorema lui Cebasev. Trebuie verificata conditiaD2[Xn] < c.

Problema 4.5 Probabilitatea ca o dioda sa se defecteze ınainte de 1000 ore defunctionare este de 0,45. Daca 1000 de diode sunt testate, care este probabilitatea casa se defecteze un numar de diode cuprins ıntre 4450 si 4515 ınainte de a functiona 1000de ore?

Indicatie. p = 0, 45, q = 0, 55, n = 104, np = 4500, σ2 = npq = 2475, a =−0, 4020, b = 0, 3015. Utilizand (4.12) si legatura cu functia lui Laplace, obtinem

P ({−0, 4020 6 Sn − 4500√2475

6 0, 3015}) = Φ(0, 3015) + Φ(0, 4020) = 0, 275.

Problema 4.6 Probabiliatea ca un rezistor sa nu fie la limita de toleranta este 0,1.S-au cumpaarat 1000 de rezistoare. Care este probabilitatea ca mai mult de 100 rezistoaresa nu fie la limita de toleranta?

Indicatie. P ({1, 0541 6 Sn − 100√90

6 94, 9}) = 0, 0778

Problema 4.7 In cazul unui semnal luminos dirijat spre un detector fotoelectric,numarul k de electroni emisi urmeaza o repartitie Poisson cu media λ = 150. Un semnaleste detectat daca emite mai mult de 140 de electroni. Care este probabilitatea ca semnalulsa fie pierdut?

Indicatie. Aceasta probabilitate este p =140∑

k=0

(150)ke−k

k!. Fie X variabila aleatoare care

ia ca valori numarul de electroni emisi. Calculam

P ({X 6 140}) = P ({X − 150√150

6 140− 150√150

}) = 0, 5− Φ(0, 8165) = 0, 209.

Problema 4.8 Presupunem ca numarul particulelor emise de o masa ın t secunde esteo variabila aleatoare Poisson cu media λt. Folosind inegalitatea lui Cebasev sa se obtinao margine pentru probabilitatea ca |N(t)/t− λ| sa nu depaseasca ε.

Indicatie. P (|N(t)/t− λ| > ε) 6 λε2t

Page 190: Teoria Probabilitatii

190 Probleme la limita

Problema 4.9 Numarul mesajelor care sosesc la un canal de comunicatie este ovariabila aleatoare Poisson cu media de 10 mesaje/secunda. Folosind teorema limitacentrala sa se estimeze probabilitatea ca mai mult de 650 de mesaje sa ajunga ıntr-unminut.

Indicatie. Se utilizeaza Exercitiul 4.4.9.

Page 191: Teoria Probabilitatii

Capitolul 5

Procese stochastice

In studiul unor probleme fizice sau tehnologice apar fenomene care se desfasoara ıntimp si care se numesc procese. Sa dam cateva exemple.

1. In modelul atomului de hidrogen, datorat lui Bohr, electronul se poate plasa peuna din orbitele admisibile; la un moment dat t, definim variabila aleatoare X(t), care iavaloarea i, daca electronul se gaseste pe orbita i.

2. Numarul de impulsuri care se produc ın intervalul (0, t) la o centrala telefonica esteo variabila aleatoare pe care o notam X(t).

3. Daca miscarea unei particule depinde de circumstante ıntamplatoare, de exemplude ciocnirea cu alte particule, atunci ın fiecare moment t, viteza V (t) sau pozitia X(t)sunt variabile aleatoare.

4. Un semnal aleator este o unda electrica, sonora etc. ce traverseaza un anumit mediula un moment dat si pe care ıl notam cu X(t). Un semnal poate fi conditional deterministdaca se cunoaste expresia analitica a undei; de exemplu X(t) = sin(ωt+φ) , unde φ esteo variabila aleatoare.

In fiecare din exemplele precedente se pune ın evidenta o familie de variabile aleatoare{X(t)}, cu t ∈ T, T ⊂ IR, care defineste un proces stochastic.

5.1 Lanturi Markov

Fie {E,K, P} un camp borelian de probabilitate.

Definitia 5.1.1 Familia de variabile aleatoare X(t) : E → IR, unde t ∈ T ⊂ IR, senumeste proces stochastic. Daca T = IN procesul se numeste lant.

Ne ocupam ın detaliu de lanturi cu un numar finit de valori. Fie S o multime finita,ale carei elemente le numim stari, numerotate ıntr-un mod bine-definit si care reprezintamultimea tuturor valorilor pe care le pot lua variabilele aleatoare X(n). Vom nota X(n) =Xn.

Presupunem cunoscute probabilitatile

pi = P ({X0 = i}), ∀i ∈ S,

191

Page 192: Teoria Probabilitatii

192 Procese stochastice

pe care le vom numi probabilitati initiale ale lantului. Evident∑i∈S

pi = 1.

Definitia 5.1.2 Lantul {Xn}, n ∈ IN se numeste lant Markov daca are loc

P ({Xn+1 = in+1}|{Xn = in, . . . , X0 = i0}) = P ({Xn+1 = in+1}|{Xn = in}). (5.1)

Egalitatea (5.1) este cunoscuta sub numele de proprietatea Markov si se interpreteazaintuitiv prin aceea ca lantul pastreaza asupra trecutului amintirea cea mai recenta, decitrecutul este ın ıntregime rezumat ın starea din ultimul moment cunoscut.

Se poate demonstra echivalenta dintre conditia (5.1) si relatia :

∀ t0 < t1 < . . . tn < tn+1 ∈ IR,P ({Xtn+1 = in+1}|{Xtn = in, . . . , Xt0 = i0}) = P ({Xtn+1 = in+1}|{Xtn = in}). (5.2)

Relatia (5.2) corespunde situatiei ın care schimbarea starilor nu se face la momente echidis-tante de timp.

Propozitia 5.1.1 Daca {Xn}, n ∈ IN este un lant Markov, are loc urmatoarea formulade calcul:

P ({Xn = in, . . . , X0 = i0}) = pi0

n∏t=1

P ({Xt = it}|{Xt−1 = it−1}). (5.3)

Demonstratie. Vom folosi probabilitatea unei intersectii.

P ({Xn = in, . . . , X0 = i0}) = P ({X0 = i0} ∩ {X1 = i1} ∩ . . . ∩ {Xn = in}) =

= P ({X0 = i0})P ({X1 = i1}|{X0 = i0})P ({X2 = i2}|{X1 = i1, X0 = i0}) . . .P ({Xn = in}|{Xn−1 = in−1, . . . , X0 = i0}) =

= P ({X0 = i0})P ({X1 = i1}|{X0 = i0})P ({X2 = i2}|{X1 = i1}) . . .. . . P ({Xn = in}|{Xn−1 = in−1}).

Ultima relatie s-a obtinut folosind proprietatea Markov; scrisa condensat este de faptrelatia (5.3).

Definitia 5.1.3 Probabilitatile date de formula

p(t, it−1, it) = P ({Xt = it}|{Xt−1 = it−1}), t = 1, . . . n,

se numesc probabilitati de trecere.

Definitia 5.1.4 Un lant Markov se numeste omogen daca p(t, it−1, it) nu depinde explicitde t, deci are loc

p(t, it−1, it) = p(it−1, it)

In caz contrar, procesul se numeste neomogen.

Page 193: Teoria Probabilitatii

Procese stochastice 193

Vom nota aceste probabilitati cu pit−1,it . Pentru un lant Markov omogen, relatia (5.3)devine

P ({Xt = it, . . . X0 = i0}) = pi0

n∏t=1

pit−1,it . (5.4)

In cazul unui lant Markov omogen, vom introduce notatia

pij = P ({Xt+1 = j}|{Xt = i}), i, j ∈ S. (5.5)

Matricea P = (pi,j) se numeste matrice de trecere.

Propozitia 5.1.2 Matricea de trecere a unui lant Markov omogen satisface relatiile :

pij > 0, ∀i, j ∈ S∑j∈S

pij = 1, ∀i ∈ S .

Demonstratie. Prima afirmatie este evidenta. Pentru a doua sa observam ca evenimentul

sigur E =⋃j∈S{Xt+1 = j} si ca

1 = P

((⋃j∈S{Xt+1 = j}

)|{Xt = i}

)=∑j∈S

P ({Xt+1 = j}|{Xt = i}) =∑j∈S

pij.

O matrice ce satisface aceste doua proprietati se numeste stochastica. Se poate usordemonstra ca produsul a doua matrice stochastice este o matrice stochastica. Un lantMarkov este caracterizat de probabilitatile initiale si de trecere. Am vazut ca daca secunosc probabilitatile initiale si de trecere se pot determina pentru orice n, probabilitatilecare caracterizeaza un lant stochastic, adica

P ({Xt = it, Xt−1 = it−1, . . . , X0 = i0}), t = 0, 1, . . . , n.

Reciproc, se poate demonstra ca daca pi, i ∈ S, este un sir cu proprietatile

pi > 0 ,∑i∈S

pi = 1

si (pij), i, j ∈ S, este o matrice cu proprietatile :

pij > 0 ,∑j∈S

pij = 1,

atunci exista un corp borelian si un lant Markov omogen, cu multimea starilor S, cu piprobabilitati initiale si pij probabilitati de trecere.

Page 194: Teoria Probabilitatii

194 Procese stochastice

Exemplul 5.1.1 Doua urne au urmatoarea componenta :

Ua are 4 bile albe si 6 bile negre

Un are 5 bile albe si 5 bile negre

Alegem la ıntamplare o urna si din ea o bila, pe care o punem ınapoi ın urna; daca bila estealba extragem urmatoarea bila din Ua, iar daca e neagra din Un si continuam procedeul.Este un exemplu de lant Markov omogen, cu probabilitatile initiale p1 = p2 = 1

2, deoarece

alegerea urnelor este egal probabila; definim starile

S1 se extrage o bila din urna Ua

S2 se extrage o bila din urna Un

si ilustram prin urmatoarea diagrama:

Matricea de trecere este

P =

(0, 4 0, 60, 5 0, 5

).

Exemplul 5.1.2 Intr-o urna sunt a bile albe si b bile negre. Se efectueaza un sir infinitde extrageri astfel ıncat dupa fiecare extragere se pun ınapoi doua bile de aceeasi culoarecu cea extrasa. Fie Xk numarul de bile la momentul k. Definim probabilitatile de trecere

P ({Xk+1 = j}|{Xk = i}) =

1− i

a+ b+ k, daca j = i,

i

a+ b+ k, daca j = i+ 1,

0, daca j 6= i, i+ 1.

Numarul de bile din urna la momentul k+1 depinde numai de numarul de bile din urnaaflate la momentul k, nefiind necesar ıntreg istoricul. Probabilitatile de trecere depindefectiv de momentul ın care s-a desfasurat extractia, deci e un lant Markov neomogen.

Dat un lant Markov omogen, ne propunem sa determinam probabilitatile

P ({Xn+m = j}|{Xm = i}), n ∈ IN,pe care le numim probabilitati de trecere dupa n pasi. Definim prin recurenta p

(n)ij , dupa

formulele

p(1)ij = pij

p(n+1)ij =

k∈Sp

(n)ik p

(1)kj n ∈ IN∗. (5.6)

Sub forma matriceala, relatiile (5.6) devin:

P (n) = P × . . .× P = P n.

Page 195: Teoria Probabilitatii

Procese stochastice 195

Propozitia 5.1.3 Pentru orice n ∈ IN are loc

p(n)ij = P ({Xn+m = j}|{Xm = i}), m ∈ IN. (5.7)

Demonstratie. Vom demonstra prin inductie. Observam ca pentru n = 1, gasim definitiaprobabilitatilor de trecere date de (5.5). Presupunem ca (5.7) are loc pentru n ∈ IN si sadeterminam

P ({Xn+1+m = j}|{Xm = i}) =∑

k∈SP ({Xn+m+1 = j,Xn+m = k}|{Xm = i}),

aceasta deoarece {Xn+m = k}, k ∈ S, formeaza un sistem complet de evenimente si areloc formula probabilitatii totale (vezi Exemplul 6.6, Capitolul 1). Aplicand ın continuareformula probabilitatii conditionate si proprietatea Markov, ultimul membru este

k∈SP ({Xn+1+m = j,Xn+m = k}|{Xm = i}) =

=∑

k∈S

P ({Xn+m+1 = j} ∩ {Xn+m = k} ∩ {Xm = i})P ({Xm = i}) =

=∑

k∈S

P ({Xn+m+1 = j} ∩ {Xn+m = k} ∩ {Xm = i})P ({Xn+m = k} ∩ {Xm = i}) ·

P ({Xn+m = k} ∩ {Xm = i})P ({Xm = i}) =

=∑

k∈SP ({Xn+m+1 = j}|{Xn+m = k,Xm = i})P ({Xn+m = k}|{Xm = i})

=∑

k∈SP ({Xn+m+1 = j}|{Xn+m = k})P ({Xn+m = k}|{Xm = i}) =

=∑

k∈Sp1kj P ({Xn+m = k}|{Xm = i}).

Folosind ipoteza inductiva ultimul membru este

k∈Sp

(n)ik p

(1)kj = p

(n+1)ij .

Deci afirmatia este dovedita.Daca ıntr-un lant Markov omogen se cunosc probabilitatile initiale si matricea de

trecere, atunci probabilitatea ca la momentul n ∈ IN sistemul sa se afle ın starea i, i ∈ S,probabilitate pe care o vom nota pi(n), este data de formula

pi(n) =∑j∈S

pj(n− 1)pji. (5.8)

Page 196: Teoria Probabilitatii

196 Procese stochastice

Intr-adevar, la momentul n

pi(n) = P ({Xn = i}) = P

({Xn = i} ∩

(⋃j∈S{Xn−1 = j}

))=

= P

(⋃j∈S

({Xn = i} ∩ {Xn−1 = j}))

=∑j∈S

P ({Xn−1 = j})P ({Xn = i}|{Xn−1 = j})

=∑j∈S

pj(n− 1)pji.

Exemplul 5.1.3 Un calculator poate fi privit ca un sistem S care se poate afla ıntr-unadin urmatoarele stari:

S1 calculatorul functioneaza normal;

S2 calculatorul prezinta unele dereglari, dar poate executa programe;

S3 calculatorul prezinta unele dereglari si rezolva un numar limitat de probleme;

S4 calculatorul nu functioneaza.

La momentul initial calculatorul functioneaza, deci se afla ın starea S1 cu probabili-tatea 1 si se poate presupune ca el trece ın celelalte stari cu probabilitatile indicate deurmatoarea schema

Deci matricea de trecere este

P =

0, 3 0, 4 0, 1 0, 20 0, 2 0, 5 0, 30 0 0, 4 0, 60 0 0 1

.

Sa determinam probabilitatile starilor la momentul n = 2. Deoarece la momentul initialcalculatorul functioneaza, probabilitatile initiale sunt

p1 = 1, p2 = p3 = p4 = 0.

Folosind (5.8) gasim

p1(1) = 0, 3; p2(1) = 0, 4; p3(1) = 0, 1; p4(1) = 0, 2

si

p1(2) = 0, 09; p2(2) = 0, 2; p3(2) = 0, 27; p4(2) = 0, 44.

Propozitia 5.1.4 Pentru orice m,n ∈ IN are loc

p(m+n)ij =

k∈Sp

(n)ik p

(m)kj . (5.9)

Page 197: Teoria Probabilitatii

Procese stochastice 197

Demonstratie. Demonstram prin inductie dupa m. Pentru m = 1 regasim (5.7). Inlocuindm cu m+ 1, sa evaluam

p(n+m+1)ij =

k∈Sp

(n+m)ik p

(1)kj =

k∈S

(∑

l∈Sp

(n)il p

(m)lk

)p

(1)kj =

=∑

l∈Sp

(n)il

k∈Sp

(m)lk p

(1)kj =

l∈Sp

(n)il p

(m+1)lj .

Relatia (5.9) se numeste relatia Chapman-Kolmogorov. Matriceal ea se scrie

P (m+n) = P (m)P (n).

Cu ajutorul matricei de trecere putem exprima probabilitatea aparitiei unor stari lamomente nesuccesive.

Exemplul 5.1.4 Daca avem un lant Markov omogen cu matricea de trecere P , sa deter-minam

P ({X10 = l, X8 = k,X5 = j}|{X1 = i}).Folosind formula probabilitatii unei intersectii si proprietatea Markov, avem

P ({X10 = l, X8 = k,X5 = j,X1 = i})P ({X1 = i}) =

=P ({X1 = i})P ({X5 = j}|{X1 = i})P ({X8 = k}|{X5 = j})P ({X10 = l}|{X8 = k})

P ({X1 = i}) =

= p(4)ij p

(3)jk p

(2)kl .

Page 198: Teoria Probabilitatii

198 Procese stochastice

Exemple de lanturi Markov omogene.

Exemplul 5.1.5 Mers la ıntamplare pe segmentul [0, l] [11].

a. cu bariere absorbante; o particula se deplaseaza pe o axa orientata ocupand doarpunctele de abscisa 0, 1, . . . l. La fiecare moment particula ramane imobila daca se aflaıntr-unul din punctele 0 sau l si face un pas la dreapta cu probabilitatea p sau la stangacu probabilitatea q. Matricea de trecere este

P =

1 0 0 . . . 0 0 0q 0 p . . . 0 0 0. . . . . . . . . . . . . . . . . . . . .0 0 0 . . . q 0 p0 0 0 . . . 0 0 1

.

b. cu bariere reflectante; daca particula ajunge ın 0 sau l, este ”reflectata” ın 1,respectiv l − 1. Matricea de trecere este

P =

0 1 0 . . . 0 0 0q 0 p . . . 0 0 0. . . . . . . . . . . . . . . . . . . . .0 0 0 . . . q 0 p0 0 0 . . . 0 1 0

.

Exemplul 5.1.6 Un model din teoria asteptarii [11].

O ”statie” de deservire poate servi clientii la momentele 0, 1, 2, . . .. Numarul de clienticare sosesc ın intervalul (n, n + 1) este o variabila aleatoare notata Xn. Presupunem caXn sunt variabile aleatoare independente si identic repartizate

Xn :

(kpk

)+∞

k=0

,

∞∑

k=0

pk = 1

si ca exista un loc de asteptare pentru cel mult m clienti, numar ın care se include siclientul care este servit. Clientii care ajung ın statie si gasesc m clienti, pleaca fara a fiserviti.

Fie Yn numarul de clienti prezenti la momentul n, ın care se include si clientul care esteservit. Yn este un lant Markov cu starile 0, 1, . . .m. Yn+1 este egal cu numarul clientilorla momentul n, mai putin cel servit la momentul n (daca exista) plus numarul clientilorcare sosesc ın intervalul (n, n+ 1), daca rezultatul nu depaseste m si este egal cu m ın cazcontrar. Deci

Yn+1 =

Yn − 1 +Xn, daca 1 6 Yn 6 m, 0 6 Xn 6 m+ 1− Yn,Xn, daca Yn = 0, 0 6 Xn 6 m− 1,m, ın rest.

Page 199: Teoria Probabilitatii

Procese stochastice 199

Deoarece Yn+1 depinde doar de Yn, iar variabilele aleatoare Xn si Yn sunt independente,rezulta ca Yn este un lant Markov. Sa determinam matricea de trecere. Notam cu pm =pm + pm−1 + . . .

p0j = P ({Yn+1 = j}|{Yn = 0)}

=

{P ({Xn = j}) = pj, daca 0 6 j 6 m− 1,P ({Xn > m}) = pm, daca j = m;

pij = P ({Yn+1 = j}|{Yn = i}) =

=

P ({Xn = j + 1− i}) = pj−i+1, daca i− 1 6 j 6 m− 1,P ({Xn > m+ 1− i}) = pm+1−i, daca j = m,0, ın rest.

Rezulta matricea

p0 p1 p2 . . . pm−1 pmp0 p1 p2 . . . pm−1 pm0 p0 p1 . . . pm−2 pm−1...

......

......

...0 0 0 . . . p1 p2

0 0 0 . . . p0 p1

.

Exemplul 5.1.7 Un model din teoria stocurilor. [11]

O marfa este stocata pentru a putea satisface cererile ıntamplatoare. Completareaeventuala a stocului se face la momentele 0, 1, 2, . . ., iar cererea ın intervalul (n, n + 1)este o variabila aleatoare Xn, cu repartitia

Xn :

(kpk

)∞

k=0

,

∞∑

k=0

pk = 1.

Presupunem ca Xn sunt independente. Daca la un moment oarecare n > 0 cantitateade marfa stocata nu este mai mare decat m unitati, atunci se procura instantaneu ocantitate de marfa care ridica stocul la M unitati, M ∈ IN . Daca ınsa cantitatea demarfa depaseste m unitati, atunci nu se ıntreprinde nimic. Fie Yn stocul imediat ınaintede reımprospatarea eventuala de la momentul n. Observam ca

Yn+1 =

{max{Yn −Xn, 0}, daca m < Yn 6M,max{M −Xn, 0}, daca Yn 6 m.

Se arata ca Yn este un lant Markov cu matricea de trecere

pM pM−1 . . . pM−m pM−m−1 pM−m−2 . . . p0

pM pM−1 . . . pM−m pM−m−1 pM−m−2 . . . p0...

......

......

......

...pM pM−1 . . . pM−m pM−m−1 pM−m−2 . . . p0

pm+1 pm . . . p1 p0 0 . . . 0pm+2 pm+1 . . . p2 p1 p0 . . . 0

......

......

......

......

pM pM−1 . . . pM−m pM−m−1 pM−m−2 . . . p0

.

Page 200: Teoria Probabilitatii

200 Procese stochastice

(Matricea are primele m linii identice). S-a folosit notatia pl = pl + pl+1 + . . . , dacam < l 6M .

Dat un lant Markov omogen ne intereseaza comportarea la limita a probabilitatilor detrecere peste n pasi p

(n)ij .

Definitia 5.1.5 Daca pentru orice i, j ∈ S sirul p(n)ij n ∈ IN este convergent independent

de i, lantul Xn se numeste ergodic.

Teorema 5.1.1 (Teorema de ergodicitate). Fie (Xn), n ∈ IN , un lant Markov cu ma-tricea de trecere P = (pij), i, j ∈ S. Urmatoarele afirmatii sunt echivalente:

1. exista s ∈ IN∗ si o stare j0 ∈ S astfel ıncat p(s)ij0> 0 ∀i ∈ S;

2. exista limn→∞

p(n)ij = p∞j , j ∈ S, ∀i ∈ S.

Demonstratie.2. =⇒ 1. Afirmatia este imediata; observam ca

∑j∈S

p∞j = limn→∞

∑j∈S

p(n)ij = 1.

Exista deci j0 ∈ S astfel ıncat p∞j0 > 0, deci de la un rang s termenii sirului

p(s)ij0> 0, ∀i ∈ S.

1. =⇒ 2. Pentru orice j ∈ S sa consideram sirurile

p(n)j = max

i∈Sp

(n)ij , p(n)

j= min

i∈Sp

(n)ij . (5.10)

Aratam ca p(n)j este necrescator; ıntr-adevar folosind (5.6)

p(n+1)ij =

l∈Sp

(1)il p

(n)lj 6 p

(n)j

l∈Sp

(1)il = p

(n)j , ∀i ∈ S,

deci

p(n+1)j 6 p

(n)j .

Analog rezulta ca p(n)j

este nedescrescator, deci

p(n+1)

j> p(n)

j.

Deoarece cele doua siruri sunt si marginite (1 > p(n)j > p(n)

j> 0) ele sunt convergente; sa

notam

p∞j = limn→∞

p(n)j , p∞

j= lim

n→∞p(n)

j.

Page 201: Teoria Probabilitatii

Procese stochastice 201

Ramane sa mai aratam ca p∞j

= p∞j . Pentru aceasta sa demonstram ca

limn→∞

maxi,l∈S|p(n)ij − p(n)

lj | = 0.

Folosind relatia (5.6), pentru n > s, cu s dat din ipoteza 1

p(n)ij =

∑r∈S

p(s)ir p

(n−s)rj ,

rezultap

(n)ij − p(n)

lj =∑r∈S

(p(s)ir − p(s)

lr )p(n−s)rj =

∑r∈S

uil(r)p(n−s)rj ,

unde am introdus notatia uil = p(s)ir − p(s)

lr . Sa notam cu S+ multimea acelor stari din Spentru care uil(r) > 0 si cu S− multimea acelor stari din S pentru care uil(r) < 0. Avemevident S = S+ ∪ S−. Deoarece

∑r∈S

p(s)ir =

∑r∈S

p(s)lr = 1,

rezulta ca ∑r∈S

uil(r) =∑

r∈S+

uil(r) +∑

r∈S−uil(r) = 0,

deci ∑

r∈S+

uil =∑

r∈S−|uil(r)|.

Sa demonstram ca are loc ∑

r∈S+

uil(r) < 1. (5.11)

Presupunem ca starea j0 din ipoteza 1 apartine lui S+; atunci

r∈S+

uil(r) =∑

r∈S+

(p(s)ir − p(s)

lr ) =∑

r∈S+

p(s)ir −

r∈S+

p(s)lr 6

6 1−∑

r∈S+

p(s)lr 6 1− p(s)

lj0< 1

deoarece 0 < p(s)lj06∑

r∈S+

p(s)lr . Aceeasi evaluare se obtine dupa un rationament analog ın

cazul ın care j0 ∈ S−. Deoarece (5.11) are loc pentru orice i, l ∈ S, rezulta

u = supi,l∈S

r∈S+

uil(r) < 1.

Revenim la suma ce trebuia majorata si folosim (5.10)

p(n)ij − p(n)

lj =∑

r∈S+

uil(r)p(n−s)rj −

r∈S−|uil(r)|p(n−s)

rj 6

Page 202: Teoria Probabilitatii

202 Procese stochastice

6∑

r∈S+

uil(r)p(n−s)j −

r∈S−uil(r)p

(n−s)j

6 u(p(n−s)j − p(n−s)

j).

Cum inegalitatea are loc pentru orice i, l ∈ S, rezulta ca

p(n)j − p(n)

j6 u(p

(n−s)j − p(n−s)

j).

Aplicand aceasta inegalitate de [ns] ori, unde [ ], semnifica partea ıntreaga a numarului n

s,

deducem casupi,l∈S|p(n)ij − p(n)

lj | = |pj − pj| 6 u[ns]

iarlimn→∞

u[ns] = 0.

De aici rezulta capj = p

j= lim

n→∞p

(n)ij

si aceasta limita o notam p∞j .Importanta acestei teoreme este ınsemnata, deoarece pe baza ei putem analiza stabi-

litatea ın timp a unor procese aleatoare.

Exemplul 5.1.8 Consideram urmatorul proces Markov: multimea starilor are 3 elementesi daca la un moment dat este luata o anumita stare, la momentul urmator se trece ınoricare din celelalte doua cu aceeasi probabilitate. Matricea de trecere este evident

P =

0 12

12

12

0 12

12

12

0

.

Observam ca

P 2 =

12

14

14

14

12

14

14

14

12

satisface conditia 1 din teorema precedenta, pe care o vom numi conditie de ergodicitate.Fiind matrice simetrica ea admite valorile proprii reale λ1 = 1, λ2,3 = −1

2si forma

diagonala

D =

1 0 00 −1

20

0 0 −12

.

Fie S matricea ortogonala de schimbare de baza, care are forma

S =

1√3

1√2

1√6

1√3− 1√

21√6

1√3

0 2√6

.

Page 203: Teoria Probabilitatii

Procese stochastice 203

Ridicand la puterea n matricea P = SDSt, rezulta

limn→∞

P n =

13

13

13

13

13

13

13

13

13

.

Mai sus s-a folosit faptul ca Dn are pe diagonala puterea a n -a a elementelor de pediagonala lui D. Deci dupa un numar foarte mare de pasi se poate presupune ca fiecarestare este luata cu aceleasi sanse.

Exemplul 5.1.9 Fie un lant Markov cu doua stari si diagrama asociata ın Figura 5.3.

Obsevam ca matricea de tranzitie este de forma

(1− α αβ 1− β

).

Sa studiem comportarea la limita a matricei de tranzitie. Putem scrie

P =1

α + β

(β αβ α

)+

1− α− βα + β

(α −α−β β

).

Se constata usor ca

P n =1

α + β

(β αβ α

)+

(1− α− β)n

α + β

(α −α−β β

).

Matricea de tranzitie dupa n pasi tinde pentru n→ +∞ la

1

α + β

(β αβ α

).

Daca cele doua stari sunt luate initial cu probabilitatile p0, 1− p0, se constata ca pentrun→ +∞ probabilitatile de stare sunt β

α+β, αα+β

. Deci dupa un numar foarte mare de pasiprobabilitatile nu depind de starea initiala.

Daca analizam mersul la ıntamplare cu bariere absorbante, pentru l = 2, gasim

P =

1 0 0q 0 p0 0 1

iar P n = P, ∀n ∈ IN . Observam ca nu este ın deplinita conditia de ergodicitate; sepoate totusi aprecia ca la un numar foarte mare de pasi particula ramane imobila, fiindabsorbita de bariere.

Page 204: Teoria Probabilitatii

204 Procese stochastice

5.2 Procese Markov continue. Procese Poisson

Procese Poisson.

In unele situatii practice, facand observatii asupra unui eveniment aleator ne poateinteresa de cate ori s-a produs acesta ıntr-un interval de timp ; de exemplu numarul deimpulsuri care apar la o centrala telefonica ıntr-un interval de timp, numarul de ”clienti”care solicita un produs ıntr-o ”statie de deservire”, numarul de vehicule care traverseazaun pod, etc. Pentru orice t ∈ IR, notam cu X(t) numarul de produceri ale evenimentuluiın intervalul (0, t); evident variabila aleatoare X(t) ia valori ın IN . Facem urmatoarelepresupuneri:

1. observatiile ıncep la momentul initial t = 0, deci X(0) = 0;2. pentru orice momente de timp 0 < t1 < t2 < t3 < t4, variabilele aleatoare X(t2)−

X(t1) si X(t4)−X(t3) sunt independente (proces cu cresteri independente);3. repartitia variabilei aleatoare X(t + s) − X(t), t > 0, s > 0, depinde doar de s,

lungimea intervalului si nu de t;4. probabilitatea ca un singur eveniment sa se produca ın intervalul (t, t+ ∆t), pentru

∆t suficient de mic este aproximativ proportionala cu lungimea intervalului, deci de formaλ∆t + o(∆t). Probabilitatea ca mai mult de un eveniment sa se produca ın intervalul(t, t+ ∆t) este o(∆t).(Prin o(∆t)s-a notat o cantitate ce depinde doar de ∆t ce satisface

lim∆t→0

o(∆t)

∆t= 0.) Notam pk(t) = P ({X(t) = k}). Fie ∆t suficient de mic; la momentul

t+ ∆t, X(t) ia valoarea k ın urmatoarele doua moduri:a. X(t) = k si nici un eveniment nu se produce ın intervalul (t, t+ ∆t);b. X(t) = k − 1 si un eveniment se produce ın (t, t+ ∆t).Deoarece din ipoteza 2, variabilele aleatoare X(t + ∆t)−X(t) si X(t) sunt indepen-

dente, probabilitatea evenimentului dat de a este pk(t)(1− λ∆t), iar cea a evenimentuluidat de b este pk−1(t)λ∆t si cum evenimentele de la a si b sunt independente

pk(t+ ∆t) = pk(t)(1− λ∆t) + pk−1(t)λ∆t.

Relatia se scrie sub forma echivalenta

pk(t+ ∆t)− pk(t)∆t

= −λpk(t) + λpk−1(t) k = 1, 2, 3 . . .

Cand ∆t→ 0, gasim ecuatia diferentiala

p′k(t) = −λpk(t) + λpk−1(t). (5.12)

Pentru k = 0, p−1(t) = 0 si ecuatia (5.12) devine

p′0(t) = −λp0(t)

cu solutia evidenta p0(t) = Ae−λt. Din ipoteza 1 avem conditia initiala X(0) = 0, caredetermina ın mod unic solutia

p0(t) = e−λt.

Page 205: Teoria Probabilitatii

Procese stochastice 205

Pentru k = 1, ecuatia (5.12) devine

p′1(t) = −λp1(t) + λe−λt,

care este o ecuatie liniara cu solutia

p1(t) = λte−λt.

Procedand recursiv ın acest mod, gasim

pk(t) =(λt)k

k!e−λt, k = 0, 1, 2. . . .

Constatam ca pentru fiecare t ∈ IR, X(t) este o variabila aleatoare repartizata Poissoncu parametru λt.

Matricea de tranzitie cu un pas.

pij(t) = P ({j − i evenimente au loc ın t secunde}) =(λt)j−i

(j − i)!e−λt, j > i.

Matricea P este

P (t) =

e−λt λte−λt (λt)2e−λt2!

. . .

0 e−λt λte−λt . . .. . . . . . . . . . . .

.

Intervalul aleator dintre doua evenimente succesive ıntr-un procesPoisson.

Daca ın cadrul unui proces Poisson un eveniment se produce la momentul t, iarurmatorul la momentul t+ τ , τ este o variabila aleatoare. Sa-i determinam densitatea deprobabilitate. Pentru aceasta determinam mai ıntai functia de repartitie. Avem

P ({τ > x}) = e−λx.

{τ > x} exprima faptul ca nici un eveniment nu are loc ın intervalul (t, t+x). Deci functiade repartitie este 1 − λe−λx, x > 0, iar prin derivare gasim f(x) = λe−λx, x > 0, careeste repartitia exponentiala. Aceasta densitate caracterizeaza intervalul aleator de timpdintre doua produceri succesive de evenimente ale unui proces Poisson. Sa observam ca

P ({τ > t+ t0}|{τ > t0}) =P ({τ > t0 + t})P ({τ > t0}) =

=

λ

∫ ∞t0+t

e−λsds

λ

∫ ∞t0

e−λsds= e−λt = P ({τ > t}),

ceea ce semnifica faptul ca procesul Poisson este un proces Markov. Observam ca pro-babilitatea ca ın intervalul (0, t) sa se produca exact un eveniment este λte−λt, deoareceeste urmata o lege Poisson cu parametrul λt.

Page 206: Teoria Probabilitatii

206 Procese stochastice

Exemplul 5.2.1 Impulsurile care se receptioneaza la o statie se primesc cu rata de 15pe minut. Sa determinam probabilitatea ca ıntr-un minut sa se receptioneze 5 impulsuriastfel: 3 impulsuri sa ajunga ın primele 10 secunde si 2 impulsuri ın ultimile 15 secunde.Obtinem λ = 15

60= 1

4si

P ({X(10) = 3, X(60)−X(45) = 2}) = P ({X(10) = 3})P ({X(60)−X(45) = 2}) =

= P ({X(10) = 3})P ({X(60− 45) = 2}) =104

3e−

104

3!

154

2e−

154

2!.

Momentul de producere al unui eveniment ıntr-un proces Poisson.

Ne intereseaza, pe de alta parte, urmatorul eveniment: stiind ca ın intervalul (0, t) s-aprodus exact un eveniment, ce densitate de probabilitate are momentul de producere, pecare ıl notam cu s, 0 6 s 6 t. s este o variabila aleatoare continua a carei densitate deprobabilitate o notam cu g. Sa determinam functia de repartitie.

F (s) = P ({X(s) = 1}|{X(t) = 1}) =P ({X(s) = 1, X(t) = 1})

P ({X(t) = 1}) =

P ({X(s) = 1, X(t)−X(s) = 0})P ({X(t) = 1}) =

P ({X(s) = 1, X(t− s) = 0}P{X(t) = 1}) =

e−λsλse−λ(t−s)

e−λt(λt)=s

t.

Densitatea de probabilitate este atunci

g(s) =1

t, 0 6 s 6 t,

care este densitatea de probabilitate a repartitiei uniforme; deci producerea ın intervalul(0, t) a unui singur eveniment se face dupa legea uniforma.

Exemplul 5.2.2 Doi clienti ajung la o statie ıntr-o perioada de doua minute. Sa de-terminam probabilitatea ca ambii sa ajunga ın primul minut. Timpii fiind repartizatiuniform si independent, rezulta ca probabilitatea este 1

4.

Timpul la care s-a produs evenimentul n ıntr-un proces Poisson.

Aparitia unui ”client” la o ”statie de deservire” este supus legii Poisson cu parametrulλ. Daca statia se ınchide dupa aparitia clientului n sa determinam densitatea de pro-babilitate pentru timpul T ın care statia ramane deschisa. Fie Ti timpul dintre sosireaclientului i − 1 si a clientului i (T1 este timpul de la deschidere pana la sosirea primuluiclient). Avem deci

T = T1 + . . .+ Tn,

unde {T < t} semnifica faptul ca statia s-a ınchis pana la momentul t, deci au aparut celputin n clienti, iar probabilitatea este data de legea Poisson cu parametrul λt

P ({T < t}) =∞∑

k=n

(λt)k

k!e−λt.

Page 207: Teoria Probabilitatii

Procese stochastice 207

Prin derivare gasim

fT (t) =∞∑

k=n

(λk

(λt)k−1

k!− λ(λt)k

k!

)e−λt =

λ(λt)n−1

(n− 1)!e−λt

care este o densitate de probabilitate pentru variabila numita repartitia Erlang.

Exemplul 5.2.3 Numarul de semnale emise de un radar este un proces Poisson cuparametrul λ. Daca n semnale au fost observate ın intervalul (0, t) sa determinam pro-babilitatea evenimentului {k particule au fost emise ın (0, τ)} cu τ < t.

P ({k semnale emise ın (0, τ) | n semnale emise ın (0, t)}) =

=P ({k semnale emise ın (0, τ) si n− k semnale emise ın (τ, t)})

P ({n semnale emise ın (0, t)}) =

=

e−λτ (λτ)k

k!e−λ(t−τ)(λ(t−τ))n−k

(n−k)!

e−λt (λt)n

n!

= Ckn

(τt

)k (1− τ

t

)n−k.

Exemplul 5.2.4 Semnalul telegrafic aleator.Fie T (t) un proces care ia starile ±1 cu aceeasi probabilitate la momentul initial. T (t)

ısi schimba polaritatea odata cu sosirea unui semnal dintr-un proces Poisson cu parametrulα. Reprezentam o traiectorie ın Figura 5.4.

Sa calculam probabilitatile evenimentelor {T (t) = ±1}.Ne ocupam pentru ınceput de evenimentul {T (t) = 1}. Folosind formula probabilitatii

totale avem

P ({T (t) = 1}) = P ({T (t) = 1}|{T (0) = 1})P ({T (0) = 1})+

+P ({T (t) = 1}|{T (0) = −1})P ({T (0) = −1}).Calculam probabilitatile conditionate. Notam cu A = { ın intervalul (0, t) se produce unnumar par de schimbari } si cu B = { ın intervalul (0, t) se produce un numar impar deschimbari }

P ({T (t) = 1}|{T (0) = 1}) = P (A) =+∞∑j=0

(λt)2j

(2j)!eλt =

e−λt

2(eλt + e−λt) =

=1

2(1 + e−2λt).

P ({T (t) = 1}|{T (0) = −1}) = P (B) =1

2(1− e−2λt).

Deoarece P ({T (0) = 1}) = P ({T (0) = −1}) = 12, rezulta dupa ınlocuiri ca evenimentele

{T (t) = ±1} au probabilitatea 12.

Page 208: Teoria Probabilitatii

208 Procese stochastice

Procese de nastere-moarte.

Vom modela ın continuare urmatoarea situatie practica ce apare ın teoria asteptarii.Consideram un sistem format dintr-un ”fir de asteptare” formata din n ”clienti” si opersoana care serveste. Spunem ca sistemul se afla ın starea Sn daca sunt n ”clienti” lacoada, inclusiv cel servit (daca exista). Din starea Sn sunt posibile doar doua tranzitii:

- la starea Sn−1 daca un client a fost servit si paraseste coada;- la starea Sn+1 daca un client este ınca servit ın timp ce un nou client se aseaza la

coada.Consideram un proces care descrie comportarea cozii ın timp. La momentul t, daca

sistemul precedent se afla ın starea Sn, vom nota X(t) = n. Se obtine astfel un procesMarkov. Facem urmatoarele ipoteze:

1. Daca sistemul este ın starea Sn, poate realiza tranzitii la Sn−1 sau la Sn+1, n > 1(de la S0 este posibila doar S1).

2. Probabilitatea unei tranzitii Sn → Sn+1 ıntr-un interval scurt ∆t este αn∆t pa-rametrul αn se numeste parametru de ”nastere”si facem ipoteza ca depinde de stareaSn.

3. Probabilitatea unei tranzitii Sn → Sn−1 ıntr-un interval de lungime ∆t este βn∆tparametru βn se numeste parametru de ”moarte”.

Probabilitatea ca ın intervalul (t, t + ∆t) sa aiba loc mai mult de o tranzitie este 0.Sistemul se afla ın starea Sn la momentul t+ ∆t ın urmatoarele situatii:

a. La momentul t se afla ın starea Sn si nici o tranzitie nu are loc ın intervalul (t, t+∆t)cu probabilitatea (1− αn∆t)(1− βn∆t), care poate fi aproximata cu 1− αn∆t− βn∆t.

b. Fiind ın starea Sn−1 la momentul t are loc o tranzitie la starea Sn ın intervalul(t, t+ ∆t) cu probabilitatea αn−1∆t.

c. La momentul t sistemul se afla ın starea Sn+1 si o tranzitie la starea Sn are loc ın(t, t+ ∆t) cu probabilitatea βn+1∆t.

Notam Pn(t) = P ({ X(t) se afla ın starea Sn }) si facem ipoteza ca ca Pn(t) este ofunctie derivabila cu derivata continua. Atunci

Pn(t+ ∆t) = Pn(t)(1− αn∆t− βn∆t) + αn−1∆tPn−1(t) + βn+1∆tPn+1(t), n > 1,

P0(t+ ∆t) = P0(t)(1− α0∆t) + β1∆tP1(t).

Impartind prin ∆t

Pn(t+ ∆t)− Pn(t)

∆t= −(αn + βn)Pn(t) + αn−1Pn−1(t) + βn+1Pn+1(t), n > 1,

P0(t+ ∆t)− P0

∆t∆t = −α0P0(t) + β1P1(t).

Daca ∆t→ 0, obtinem

P ′n(t) = −(αn + βn)Pn(t) + αn−1Pn−1(t) + βn+1Pn+1(t), n > 1,

P ′0(t) = −α0P0(t) + β1P1(t).

Page 209: Teoria Probabilitatii

Procese stochastice 209

Vom da solutii pentru aceste ecuatii diferentiale ın cazul ın care Pn(t) nu depinde de t; ınacest caz sistemul precedent devine

{(αn + βn)Pn = αn−1Pn−1 + βn+1Pn+1, n > 1,α0P0 = β1P1,

si se rezolva prin recurenta. Se obtine solutia

P1 =α0

β1

P0

P2 =α0 α1

β1 β2

P0

...

Pn =α0 α1 . . . αn−1

β1 β2 . . . βnP0

.

Deoarece sistemul trebuie sa se afle ıntr-o stare, suma probabilitatilor precedente trebuiesa fie 1, deci

P0

(1 +

α0

β1

+α0α1

β1β2

+ . . .

)= 1.

Exemplul 5.2.5 Intr-o ”statie” sosesc ”clienti” dupa legea Poisson cu parametrul λ, iartimpul de servire este o lege exponentiala cu parametrul pozitiv µ, 0 < λ < µ. Daca esteaglomeratie se formeaza o coada, iar starea sistemului la momentul X(t) este un procesde nastere -moarte cu parametrii αn = λ si βn = µ. Particularizand ecuatiile precedentesi notand ρ = λ

µgasim

P1 =λ

µP0

P2 =

µ

)2

P0 = ρ2P0

...

Pn =

µ

)nP0 = ρnP0

.

Punem conditia

P0(1 + ρ+ ρ2 + . . .) = P01

1− ρ = 1, ρ < 1.

De aici rezulta P0 = 1 − ρ. Deducem Pn = (1 − ρ)ρn, pentru n = 0, 1, . . ., care este re-partitia geometrica.Sa particularizam aceasta situatie. Pentru a evita aglomeratia dintr-ostatie de deservire, clientii asezati la coada ar trebui sa nu depaseasca numarul 5, cuprobabilitatea 0,99. Sosirile au loc dupa o lege Poisson cu parametrul λ = 1, 5 clienti peminut. Daca deservirea se face dupa o lege exponentiala, cat de repede trebuiesc acestiaserviti ? Sa determinam deci µ.

Probabilitatea ca cel putin 5 clienti sa fie la coada este

p =∞∑n=5

(1− ρ)ρn = ρ5; ρ =λ

µ.

Page 210: Teoria Probabilitatii

210 Procese stochastice

Pentru ca aceasta probabilitate sa fie 1-0,99 =0,01, punem conditia

ρ5 6 0, 1

de unde gasim µ > 9, 12. Deci ar trebui serviti cel putin 10 clienti ın medie pe minutpentru a evita aglomeratia.

5.3 Procese stochastice stationare

In unele situatii starile precedente ale unui sistem exercita un puternic efect asuprastarilor viitoare. In general daca procesele au fost considerate fara postactiune (proceseMarkov), se pot face unele corectari ın alegerea starilor. De exemplu, daca consideramo schimbare ın pozitia unei particule ın procesul de difuzie, considerat ca proces farapostactiune, aceasta ınseamna ca se neglijeaza inertia particulei. Situatia se poate corectaintroducand ın conceptul de stare si viteza particulei, alaturi de coordonatele pozitiei.In cazul cel mai general Hincin a izolat o clasa importanta de procese stochastice cupostactiune, numite procese stationare. Acestea se ıntalnesc ın fenomenele acustice, teoriasemnalelor etc.

Fie {X(t)}, t > 0, un proces stochastic.

Definitia 5.3.1 Numim functie de repartitie n−dimensionala functia data prin formula

F (x1, . . . , xn, t1, . . . , tn) = P ({X(t1) < x1, . . . , X(tn) < xn})

pentru orice t1, . . . , tn, n ∈ IN .

Presupunem ca functia de repartitie n-dimensionala satisface urmatoarele doua conditii:-conditia de simetrie

F (xi1 , . . . , xin , ti1 , . . . , tin) = F (x1, . . . , xn, t1, . . . , tn), (5.13)

pentru orice permutare i1, . . . , in a multimii 1, . . . , n,-conditia de compatibilitate; daca m < n

F (x1, . . . , xm, t1, t2, . . . , tm) =

= F (x1, . . . , xm,∞, . . . ,∞, t1, . . . , tm, tm+1, . . . , tn),m+ 1 6 j 6 n. (5.14)

Kolmogorov a demonstrat ca aceste functii de repartitie caracterizeaza complet un processtochastic, ın sensul ca data o familie de functii ce verifica conditiile 1-4, din Capitolul 3.3si satisface (5.13), (5.14), exista un camp borelian de probabilitate si un proces stochasticcare admite aceste functii, ca functii de repartitie n-dimensionale (vezi [9]). Prin analogiecu cazul variabilelor aleatoare n-dimensionale, se poate introduce notiunea de densitatede probabilitate, care se va nota f(x1, . . . , xm, t1, t2, . . . , tm). Daca procesul este cu valoridiscrete, analogul ıl constituie

p(x1, . . . , xm, t1, t2, . . . , tm) = P ({X1(t1) = x1, X2(t2) = x2, . . . , Xn(tn) = xn})

Page 211: Teoria Probabilitatii

Procese stochastice 211

Exemplul 5.3.1 Fie Xn un lant de variabile aleatoare identic, independent repartizate,cu p = 1

2, atunci

P ({X1(t1) = x1, X2(t2) = x2, . . . , Xn(tn) = xn}) = 2−n.

Valori caracteristice ale unui proces.

Fie X(t) un proces aleator. Media mX(t) este definita prin

mX(t) = M [X(t)] =

∫ +∞

−∞xf(x, t)dx,

unde f(x, t) este densitatea de probabilitate a variabilei X(t). Autocorelatia RX(t1, t2)este definita prin

RX(t1, t2) = M [X(t1)X(t2)] =

∫ +∞

−∞

∫ +∞

−∞xyf(x, y, t1, t2)dxdy,

unde f(x, y, t1, t2) este densitatea de probabilitate de dimensiune doi a procesului. AutocovariantaCovX(t1, t2) este definita drept covarianta variabilelor X(t1) si X(t2),

CovX(t1, t2) = M [(X(t1)−mX(t1))(X(t2)−mX(t2))].

Legatura dintre cele doua functii este imediata si consta ın

CovX(t1, t2) = RX(t1, t2)−mX(t1)mX(t2).

Dispersia (varianta) lui X(t) este data de formula

D2[X(t)] = M [(X(t)−mX(t))2] = CovX(t, t).

Coeficientul de corelatie este definit de

ρX(t1, t2) =CovX(t1, t2)√

CovX(t1, t1)√CovX(t2, t2)

.

Exemplul 5.3.2 Fie X(t) = A cos 2πt, unde A este o variabila aleatoare. Sa determinamvalorile caracteristice.

mX(t) = M [A cos 2πt] = M [A] cos 2πt;

RX(t1, t2) = M [A cos 2πt1A cos 2πt2] = M [A2] cos 2πt1 cos 2πt2;

CovX(t1, t2) = RX(t1, t2)−mX(t1)mX(t2) = (M [A2]−M2[A]) cos 2πt1 cos 2πt2 =

= D2[A] cos 2πt1 cos 2πt2.

Page 212: Teoria Probabilitatii

212 Procese stochastice

Procese multiple.

Doua procese X(t), Y (t) se numesc independente daca ∀ k, j si orice alegere t1, . . . , tk sit′1, . . . t

′j, variabilele aleatoare multidimensionale (X(t1), . . . , X(tk)) si

(Y (t′1), . . . Y (t′j)) sunt independente. Corelatia ıncrucisata RXY (t1, t2) este definita prin

RXY (t1, t2) = M [X(t1)Y (t2)].

Procesele X(t) si Y (t) se numesc ortogonale daca

RXY (t1, t2) = 0, ∀t1, t2.Covarianta ıncrucisata CovXY (t1, t2) este definita prin

CovXY (t1, t2) = M [(X(t1)−mX(t1))(Y (t2)−mY (t2))] = RXY (t1, t2)−mX(t1)mY (t2).

Procesele se numesc necorelate daca

CovXY (t1, t2) = 0, ∀t1, t2.Exemplul 5.3.3 Fie X(t) = cos(ωt + Θ) si Y (t) = sin(ωt + Θ) unde Θ este o variabilaaleatoare repartizata uniform pe [−π,+π]. Sa determinam covarianta ıncrucisata. Aratamca media procesului X(t) este 0.

mX(t) = M [cos(ωt+ θ)] =1

∫ π

−πcos(ωt+ x)dx = 0.

Analog rezulta ca media procesului Y (t) este 0.

RXY (t1, t2) = M [cos(ωt1 + Θ) sin(ωt2 + Θ)] =

= M [−1

2sin(ω(t1 − t2)) +

1

2sin(ω(t1 + t2) + 2Θ)] = −1

2sin(ω(t1 − t2))

deoarece M [sin(ω(t1 + t2) + 2Θ)] = 0.

Definitia 5.3.2 Procesul X(t) se numeste stationar ın sens restrans daca ∀t1, . . . , tn∈ IR+, n ∈ IN, u ∈ IR+ are loc

F (x1, . . . xn, t1 + u, . . . , tn + u) = F (x1, . . . , xn, t1, . . . , tn). (5.15)

Relatia (5.15) se interpreteaza astfel: functiile de repartitie n-dimensionale nu depind decresterea timpului. Daca ın (5.15) dam lui n valoarea 2, gasim ca functiile de repartitiebidimensionale depind numai de diferenta t2− t1. Deoarece ın practica lucrul cu functiilede repartitie este dificil se pune problema ınlocuirii lor cu alte caracteristici si anume cumomentele. Daca X(t) are dispersie finita si X(t) este stationar ın sens restrans gasim:

1.M [X(t+ u)] = M [X(t)] = M [X(0 + t)] = M [X(0)] = m;2.D2[X(t+ u)] = D2[X(t)] = D2[X(0)] = σ2;3.M [(X(t+ u)X(t))] = M [(X(u)X(0))].Ca o prima consecinta a acestor proprietati, observam ca ın cazul proceselor stationare

putem presupune m = 0 si σ = 1, ceea ce revine la considerarea procesului normalizat,

adicaX(t)−m

σ.

Page 213: Teoria Probabilitatii

Procese stochastice 213

Definitia 5.3.3 Procesul X(t) este stationar ın sens larg daca au loc conditiile 1-3.

Definitia 5.3.4 Numim functie de corelatie a unui proces stationar ın sens larg coefi-cientul de corelatie al variabilelor aleatoare X(t) si X(t+ u).

Deci functia de corelatie are expresia

R(u) =M [X(t+ u)−M [X(t+ u)]]M [X(t)−M [X(t)]]√

D2[X(t)]D2[X(t+ u)].

Daca facem ipoteza m = 0 si σ = 1 din conditia de a fi stationar rezulta ca functia decorelatie depinde doar de u si are expresia

R(u) = M [(X(u)X(0))].

Definitia 5.3.5 Un proces stationar se numeste continuu daca are loc

M(X(t+ u)−X(t))2 → 0, pentru u→ 0.

Propozitia 5.3.1 Daca X(t) este un proces continuu, atunci au loc:1. P ({ |X(t+ u)−X(t) | > ε})→ 0, daca u→ 0;2. lim

u→0R(u) = 1;

3. R(u) este continua.

Demonstratie.1. Din inegalitatea lui Cebasev , rezulta

P ({|X(t+ u)−X(t)| > ε}) = P ({|X(t+ u)−X(t)−M [(X(t+ u)−X(t))]| > ε}) 6

6 D2[(X(t+ u)−X(t))]

ε,

care din definitia continuitatii tinde la 0, daca u→ 0.2. Se observa imediat ca

M(X(t+ u)−X(t))2 = 2(1−R(u))→ 0, daca u→ 0,

de unde afirmatia 2.3. Folosind inegalitatea lui Cauchy are loc

|R(u+ ∆u)−R(u)| = |M [(X(u+ ∆u)X(0))]−M [(X(u)X(0))]| =

= |M [(X(0)(X(u+ ∆u)−X(u))]| 6√M [X2(0)]M [(X(u+ ∆u)−X(u))2]→ 0,

daca ∆u→ 0.

Teorema 5.3.1 (Teorema lui Hincin) Functia reala R(u) este o functie de corelatie pentruun proces stationar continuu daca si numai daca exista o functie de repartitie F (x) astfelıncat

R(u) =

∫ ∞−∞

cosux dF (x).

Page 214: Teoria Probabilitatii

214 Procese stochastice

Demonstratie. Sa presupunem mai ıntai caR(u) este o functie de corelatie pentru un processtationar continuu. Din proprietatea precedenta R(u) rezulta continua si marginita. Saaratam ca este si pozitiv definita. Pentru orice numere reale u1, u2, . . . , un din IR siη1, . . . , ηn ∈ C unde n ∈ IN , are loc

0 6M |n∑

k=1

ηkX2(uk)| = M

(n∑i=1

n∑j=1

ηiηjX(ui)X(uj)

)=

=n∑i=1

n∑j=1

R(ui − uj)ηiηj.

Deoarece R(0) = 1 din teorema Bochner-Hincin are loc reprezentarea

R(u) =

∫ ∞−∞

eiuxdF (x),

unde F este o functie de repartitie. Deoarece R este o functie reala, rezulta afirmatia.

Reciproc, sa aratam ca daca

R(u) =

∫ ∞−∞

cosux dF (x),

exista un proces stationar X(t) cu functia de corelatie R(u). Fie n ∈ IN , t1, t2, . . . , tn sivariabila aleatoare n-dimensionala normal repartizata X(t1), . . . X(tn) cu

M [X(t1)] = . . . = M [X(tn)] = 0,

D2[(X(t1))] = . . . = D2[(X(tn))] = 1,

avand functiile de corelatie

R(ti − tj) = M [X(ti)X(tj)].

Deoarece forma patratican∑i=1

n∑j=1

R(ti − tj)uiuj

este pozitiv definita, se pot defini functiile de densitate

fn(u1, . . . , un, t1, . . . , tn) = Ane

−n∑i=1

n∑j=1

R(ti − tj)uiuj, An ∈ IR.

Se verifica usor ca functiile de repartitie asociate satisfac conditiile de simetrie si compa-tibilitate, deci definesc un proces stochastic, care rezulta stationar.

Page 215: Teoria Probabilitatii

Procese stochastice 215

Exemplul 5.3.4 Consideram procesul de forma

Z(t) = X(t) cosλt+ Y (t) sinλt, λ ∈ IR,unde X(t), Y (t) sunt procese necorelate, deci M [XY ] = M [X)M [Y ] ce satisfac

M [X] = M [Y ] = 0, D2[X] = D2[Y ] = 1.

Sa aratam ca Z(t) este un proces stationar. Pentru aceasta sa calculam functia de corelatie

R(u) = M [X(t+ u)X(t)] =

= M [X cosλ(t+ u) + Y sinλ(t+ u))(X cosλt+ Y sinλt)] =

= M [(X2 cosλt cosλ(t+ u) +XY (sinλ(t+ u) cosλt+ cosλ(t+ u) sinλt)+

+Y 2 sinλt sinλ(t+ u)] = cosλ(t+ u) cosλt+ sinλt sinλ(t+ u) = cosλu.

Alegem

f(x) =

0, x 6 −λ12, −λ < x 6 λ

1, x > λ.

Avem atunci

cosλu =

∫ ∞−∞

cosuxdF (x) =

∫ λ

−λcosuxdF (x),

de unde ın virtutea teoremei rezulta ca procesul este stationar.

Exemplul 5.3.5 Consideram procesul

X(t) =n∑

k=1

bkZk(t),

unden∑

k=1

b2k = 1, iar Zk(t) = Xk(t) cosλkt+Yk sinλkt, λk ∈ IR. Xk(t), Yk(t) sunt preocese

ce satisfacM [Xk] = M [Yk] = 0, D2[Xk] = D2[Yk] = 1, k = 1, n

M [XiXj] = M [YiYj] = 0, i 6= j, M [XiYj] = 0, i, j = 1, n.

Calculand functia de corelatie, gasim

R(u) =n∑

k=1

b2k cosλku,

de unde rezulta ca procesul este stationar, asociat functiei de repartitie F care are salturide marimea 1

2b2k ın punctele ±λk.

In literatura de specialitate F se numeste spectru; daca F este functie de salturi, procesulse numeste cu spectru discret. Slutsky a demonstrat ca orice proces cu spectru discreteste reprezentabil sub forma celui din exemplul precedent.

Page 216: Teoria Probabilitatii

216 Procese stochastice

PROBLEME PROPUSE

Problema 4.1 Fie In procesul Bernoulli identic si independent repartizat. CalculatiP ({I1 = 1, I2 = 0, I3 = 0, I4 = 1}).

R: p2(1− p)2.

Problema 4.2 Fie Dn = 2In − 1 unde In este procesul din problema precedenta.Calculati media si dispersia.

Solutie mX(n) = M [2In−1] = 2M [In]−1 = 2p−1 D2[Dn] = D2[2In−1] = 22D2[In] =4p(1− p). Procesul reprezinta de fapt schimbarea pozitiei unei particule care se misca ınlinie dreapta facınd salturi de ±1 la fiecare unitate de timp.

Problema 4.3 Fie X un numar ales la ıntımplare din [0, 1] si fie dezvoltarea lui ın

baza 2, x =+∞∑n=1

bn2−n, bn ∈ {0, 1}. Definim Xn = bn, n ∈ IN . Calculati P ({X1 = 0}) si

P ({X1 = 0, X2 = 1}).Solutie. X1 = 0, daca 0 6 X 6 1

2, deci cu probabilitatea 1

2. Iar P ({X1 = 0, X2 = 1})

este 14, deoarece 1

46 X 6 1

2.

Problema 4.4 Un calculator este inspectat la momentele t1, t2, t3 si se poate afla ınuna din urmatoarele stari:

s1 functioneaza normal;s2 are un numar neglijabil de erori, care nu impiedica calculatorul sa functioneze;s3 are erori considerabile, dar rezolva limitat probleme;s4 nu functioneaza.La momentul initial calculatorul este ın starea s1 iar matricea de tranzitie este

P =

0, 5 0, 3 0, 2 00 0, 4 0, 4 0, 20 0 0, 3 0, 70 0 0 1

.

Asociati diagrama si aflati probabilitatile de stare dupa fiecare din cele trei inspectii.Solutie. Probabilitatile de stare initiala sunt (1, 0, 0, 0), deoarece initial calculatorul

functioneaza. Apoi

p1(1) = 0, 5, p2(1) = 0, 3, p3(1) = 0, 2, p4(1) = 0

p1(2) = 0, 25, p2(2) = 0, 27, p3(2) = 0, 28, p4(2) = 0, 2

p1(3) = 0, 125, p2(3) = 0, 183, p3(3) = 0, 242, p4(3) = 0, 450.

Page 217: Teoria Probabilitatii

Procese stochastice 217

Diagrama este urmatoare

Problema 4.5 O particula se deplaseaza aleator, sarind cate o unitate la dreapta saustanga, dupa diagrama de mai jos. Gasiti probabilitatea ca dupa patru pasi particula sanu fie mai departata cu o unitate fata de origine. Initial particula se afla ın origine.

R: Insumam probabilitatile, ca la momentul 4, particula sa se afle ın starile S−1, S0,sau S1 si gasim 0,693.

Problema 4.6 Fie X(t) = cos(ωt+ Θ) unde Θ este repartizata uniform pe (−π,+π).Sa determinam media, autocorelatia si autovarianta.

Solutie mX(t) = M [cos(ωt+ Θ)] = 12π

∫ +π

πcos(ωt+ x)dx = 0;

CovX(t1, t2) = RX(t1, t2) = M [cos(ωt1 + θ) cos(ωt2 + θ)] =1

∫ +π

π12

(cos(ω(t1 − t2)) + cos(ω(t1 + t2) + 2x)) dx = 12

cos(ω(t1 − t2)).

Problema 4.7 Fie Xn un lant de variabile normale independente, identic repartizate,cu media m si dispersia σ2. Determinati matricea de covarianta la momentele t1, . . . , tksi densitatea de probabilitate.

Solutie CX(ti, tj) = σ2δij unde δij =

{1 i = j0 i 6= j

f(x1, . . . , xk, X1, . . . , Xk) = fX(x1)fX(x2) . . . fX(xk) =

=1

(2πσ2)k/2e

k∑i=1

(xi −m)2

2σ2 .

Problema 4.8 Un proces Y (t) consta dintr-un semnal dorit X(t) la care se adaugazgomotul N(t), deci Y (t) = X(t) + N(t). Gasiti corelatia ıncrucisata dintre cele douaprocese, presupunınd ca X(t), N(t) sunt independente.

Solutie Folosind independenta variabilelor X(t) si N(t), gasim

RXY (t1, t2) = M [X(t1)Y (t2)] = M [X(t1)(X(t2) +N(t2))] =

= M [X(t1)X(t2)] +M [X(t1)N(t2)] =

= RXY (t1, t2) +M [X(t1)]M [N(t2)] = RXY (t1, t2) +mX(t1)mN(t2).

Problema 4.9 In ziua 0 exista 2 becuri noi de rezerva. Probabilitatea de a schimbaun bec este p, iar probabilitatea de a nu schimba este q = 1−p. Fie Yn numarul de becurinecesar la sfarsitul zilei n. Determinati matricea de tranzitie dupa un pas si dupa n pasi,probabilitatile de stare la momentul n si comportarea lor la limita.

Solutie Starile procesului sunt 2,1,0, iar diagrama corespunzatoare esteMatricea de tranzitie cu un pas este

P =

1 0 0p 1− p 00 p 1− p

iar probabilitatile de stare la momentul initial sunt 0, 0, 1. Dupa n pasi

Page 218: Teoria Probabilitatii

218 Index

p22(n) = P ({ nici un bec nou nu e necesar ın n zile}) = qn;p21(n) = P ({ un bec nou este necesar ın n zile}) = C1

npqn−1;

p20(n) = 1− p22(n)− p21(n);Matricea de tranzitie dupa n pasi este

P n =

1 0 01− qn qn 0

1− qn − npqn−1 npqn−1 qn

.

Trecınd la limita pe fiecare element al matricei gasim matricea

1 0 01 0 01 0 0

.

Probabilitatile de stare la momentul n sunt date de produsul

(0 0 1)

1 0 01− qn qn 0

1− qn − npqn−1 npqn−1 qn

iar la limita se obtine (1 0 0). Interpretarea evidenta este ca dupa un numar foarte marede pasi procesul devine ”stationar” si raman 0 becuri de rezerva.

Index

Page 219: Teoria Probabilitatii

Index

matricea de covarianta, 121repartitia Fisher , 148

coeficient de corelatie, 119corelatia variabilelor, 119

densitate de probabilitate, 91densitate de probabilitate n-dimensionala,

100densitate marginala de probabilitate, 101densitatea de probabilitate conditionata, 97

formula de inversiune, 125formula lui Bayes, 98, 113formula probabilitatii totale, 113formula probabilitatii totale, 98formulele integrale ale mediei totale, 121functia caracteristica a repartitiei Gama, 149functia caracteristica a repartitiei normale ,

132functia de repartitie, 85functie caracteristica, 123functie de fiabilitate, 150functie de repartitie n dimensionala, 99functie de repartitie conditionata, 89functie marginala de repartitie, 101functie pozitiv definita, 129functiei lui Laplace, 94

legare ın paralel, 154legare ın serie, 153

media, 114media conditionata, 121mediana, 89medii conditionate, 121modul, 115moment centrat de ordin k, 116moment pentru variabila aleatoare multidi-

mensionala, 120

momentele initiale, 147momentele initiale ale repartitiei Gama, 149momentele repartitiei Beta, 150momentele repartitiei Student, 142momentele variabilei aleatoare normale n-

dimensionale, 135

normala normata, 93

q-cvantile, 88

Repartitia Beta, 150repartitia Erlang, 149repartitia exponentiala, 152repartitia lognormala, 104repartitia normala, 93repartitia normala n-dimensionala, 106repartitia Rayleigh, 108repartitia Snedecor, 147repartitia Student , 142repartitia uniforma, 92repartitia uniforma n-dimensionala, 102repartitia Weibull, 152

teorema Bochner-Hincin, 129teorema lui Bochner, 128teorema lui Cochran, 141

variabila aleatoare, 83variabila aleatoare n-dimensionala, 99variabila aleatoare continua, 88variabile aleatoare independente, 85variabile necorelate, 119

219