Cap-06 (Transformari Liniare)

49

Click here to load reader

Transcript of Cap-06 (Transformari Liniare)

Page 1: Cap-06 (Transformari Liniare)

Capitolul 6

TRANSFORMĂRI LINIARE

Pe lângă noţiunea fundamentală de spaţiu vectorial, un alt concept de bază al algebrei liniare este cel de transformare liniară. Aceasta reprezintă purtătorul de informaţie al proprietăţii de liniaritate, de la un spaţiu vectorial la altul.

Utilizarea consistentă în geometrie a acestei noţiuni reclamă o tratare detaliată.

§1. Definiţie şi proprietăţi generale

Fie V şi W două spaţii vectoriale peste câmpul K.

1.1 Definiţie. Se numeşte transformare liniară (aplicaţie liniară, operator liniar sau morfism de spaţii vectoriale) o funcţie T: V W, care satisface proprietăţile:

1) T(x+y) = T(x) +T (y) , x, y V2) T(x) = T(x) , x V , K .

Pentru imaginea T(x) a unei transformări liniare T vom utiliza uneori şi scrierea Tx.

1.2 Corolar. Aplicaţia T: V W, este o transformare liniară dacă şi numai dacă

T(x+y) = T(x) + T (y) , x, y V, , K (1.1)

Demonstraţia este imediată, iar condiţia (1.1) arată că o aplicaţie T: V W este o transformare liniară dacă imaginea unei combinaţii liniare de vectori este egală cu combinaţia liniară a imaginilor acestora.

107

Page 2: Cap-06 (Transformari Liniare)

Exemple1° Aplicaţia T: Rn Rm , T (x) = AX, A M mn(R) , X = tx este o

transformare liniară. În particular, pentru n = m = 1 , aplicaţia definită prin T (x) = ax, a R, este liniară.

2° Dacă U V este un subspaţiu vectorial atunci aplicaţia T: U V, definită prin T(x) = x şi numită aplicaţia de incluziune, este o transformare liniară. În general, restricţia unei transformări liniare la o submulţime S V nu este o transformare liniară. Proprietatea de liniaritate se păstrează numai pentru subspaţii vectoriale.

3° Aplicaţia T: C1 (a, b) C0(a,b) , T (f ) = f este liniară.

4° Aplicaţia T: C0 (a, b) R, T(f) = este liniară.

5° Dacă T: V W este o transformare liniară bijectivă atunci T -1: W V este o transformare liniară.

Notăm cu L(V, W) mulţimea transformărilor liniare de la spaţiul vectorial V în spaţiul vectorial W.

Dacă definim pe mulţimea L(V, W) operaţiile:

(T1 + T 2) (x) = : T 1(x) + T 2(x), x V(T) (x) = : T (x) , x V, K

atunci L(V, W) capătă o structură de K-spaţiu vectorial.O transformare liniară bijectivă T: V W va fi numită izomorfism

de spaţii vectoriale.Dacă W = V, atunci aplicaţia liniară T: V V va fi numită

endomorfism al spaţiului vectorial V, iar mulţimea acestora va fi notată cu End(V). Pentru T1, T2 End(V), două endomorfisme ale spaţiului vectorial V , are sens compunerea acestora

(T 1 T 2)(x) = : T1(T 2(x)) , x V

operaţie pe care o vom numi produsul transformărilor T1 şi T2, notat pe scurt T 1T 2.

Un endomorfism bijectiv T: V V va fi numit automorfism al spaţiului vectorial V, iar mulţimea acestora va fi notată cu Aut(V).

Submulţimea automorfismelor unui spaţiu vectorial este parte stabilă în raport cu operaţia produs de endomorfism şi formează un subgrup GL(V) End(V), numit grupul liniar al spaţiului vectorial V.

Dacă W = K, atunci aplicaţia liniară T: V K, este numită formă liniară, iar mulţimea notată cu V* = L( V, K), a tuturor formelor liniare pe V,

108

Page 3: Cap-06 (Transformari Liniare)

este un K-spaţiu vectorial numit dualul spaţiului vectorial V.Dacă V este un spaţiu vectorial euclidian de dimensiune

finită atunci dualul sau V* are aceeaşi dimensiune şi se identifică cu V.1.3 Teoremă. Dacă T: V W este o transformare liniară oarecare,

atunci :a) T (0v) = 0w , T (-x) = - T(x), x Vb) Imaginea T (U) W, a unui subspaţiu vectorial

U V, este subspaţiu vectorialc) Contraimaginea T-1 (W ) V , a unui subspaţiu

vectorial W W , este un subspaţiu vectorial.d) Dacă vectorii x1, x2 ,..., xn V sunt liniar dependenţi

atunci şi vectorii T (x1), T (x2) ,..., T (xn) W sunt liniar dependenţi.

Demonstraţie. a) Înlocuind = 0 , respectiv =-1 în condiţia de omogenitate T (x) = T (x) , obţinem T (0v) = 0w şi respectiv T (-x) = - T (x).

În cele ce urmează vom renunţa la indicii vectorilor nuli ai celor două spaţii vectoriale.

b) Pentru u, v T (U) , x, y U astfel încât u = T (x) şi v = T (y). În ipoteza că U V este un subspaţiu vectorial, pentru x, y U, , K avem x + y U şi relaţia (1.1), obţinem

u + v = T (x) + T (y) = T(x + y) T (U).c) Dacă x, y T -1(W ) atunci T (x) , T (y) W şi pentru

, K avem T (x) + T(y) = T (x + y) W (W este subspaţiu vectorial), de unde rezultă x + y T -1(W ).

d) Aplicăm transformarea T relaţiei de dependenţă liniară 1x1 + 1x1 + ... + nxn = 0 şi obţinem, folosind a), relaţia de dependenţă liniară 1 T (x1) + 2 T (x2) + ... + n T (xn) = 0.1.4 Consecinţă. Dacă T: V W este o transformare liniară atunci :

a) Mulţimea Ker T = T -1{0} ={x V | T (x) = 0 } V numită nucleul transformării liniare T , este un subspaţiu vectorial.

b) Im T = T (V) W, numită imaginea transformării liniare T, este un subspaţiu vectorial.

c) Dacă T(x1), T(x2), ... , T(xn) W sunt liniar independenţi atunci şi vectorii x1, x2 ,..., xn V sunt liniar independenţi.

1.5 Teoremă. O transformare liniară T: V W este injectivă dacă şi numai dacă Ker T = {0}.

109

Page 4: Cap-06 (Transformari Liniare)

Demonstraţie. Injectivitatea transformării liniare T împreună cu proprietatea generală T (0) = 0 implică Ker T = {0}.Reciproc. Dacă Ker T = {0} şi T(x) = T(y), folosind proprietatea de liniaritate obţinem T (x - y) = 0 x – y Ker T , adică x = y şi deci T este injectivă.

Dimensiunea nucleului Ker T se numeşte defectul operatorului T .Dimensionarea imaginii Im T se numeşte rangul operatorului T .

1.6 Teoremă. (teorema rangului) Dacă spaţiul vectorial V este finit dimensional atunci şi spaţiul vectorial ImT este finit dimensional şi avem relaţia

dim Ker T+ dim Im T = dim V (1.2)

Demonstraţie. Să notăm cu n = dim V şi cu s = dim Ker T. Pentru s 1 să consdierăm o bază {e1, e2, ..., es} în Ker T şi să o completăm la o bază B = {e1, e2, ..., es, es+1, ..., en} a întregului spaţiu vectorial V . Vectorii es+1, es+2, ..., en reprezintă o bază a subspaţiului suplementar subspaţiului Ker T .

Pentru orice y Im T, există x = V, astfel încât y = T (x)

Întrucât T (e1) = T (e1) = ... = T (es) = 0, rezultă

y = T (x) = T (ei) = xs+1 T (es+1) + ... + xn T (en),

ceea ce înseamnă că T (es+1), T (es+2), ... , T (en) generează subspaţiul ImT.Demonstrăm că vectorii T(es+1),... ,T (en) sunt liniar independenţi.

În adevăr,s+1 T (es+1) + ... + n T (en) = 0 T (s+1 es+1 + ... + n en) = 0

de unde rezultă că s+1 es+1 + ... + n en Ker T . Cum subspaţiul Ker T are în comun cu subspaţiul suplementar numai vectorul nul, obţinem

s+1 es+1 + ... + n en = 0 s+1 = ... = n = 0,adică vectorii T (es+1) , ... , T (en), sunt liniar independenţi. Astfel, subspaţiul imagine Im T este finit dimensional şi în plus

dim Im T = n – s = dimV – dim Ker T .

Pentru s = 0 (K er T = {0} şi dim Ker T = 0), considerăm în spaţiul vectorial V baza B = {e1, e2, ..., en} şi urmând acelaşi raţionament obţinem că T (e1) , T (e2) , ... , T (en) reprezintă o bază a spaţiului Im T şi deci Im T = dim V, c.c.t.d.

110

Page 5: Cap-06 (Transformari Liniare)

Proprietatea de dependenţă liniară a unui sistem de vectori se păstrează printr-o transformare liniară, pe când proprietatea de independenţă liniară, în general, nu se conservă. Condiţiile în care liniara independentă a unui sistem de vectori se păstrează, sunt date în următoarea teoremă.

1.7 Teoremă. Dacă V este un spaţiu vectorial n-dimensional şi T : V W o transformare liniară, atunci următoarele afirmaţii sunt echivalente

1) T este injectivă2) Imaginea unui sistem de vectori liniar independenţi e1, e2, ..., ep V (p n) este un sistem de vectori T (e1), T (e2) , ... , T (ep), liniar independenţi.

Demonstraţie. 1) 2) Fie T o transformare liniară injectivă, vectorii e1, e2, ..., ep liniar independenţi şi T (e1), T (e2) , ... , T (ep) imaginile acestora.

Pentru i K, avem1 T (e1) + 2 T (e2) + ... + p T (ep) = 0

T (1e1 + 2e2 + ... + pep) = 0 1e1 + 2e2 + ... + pep K er T = {0} (T - injectivă) 1e1 + 2e2 + ... + pep = 0 1 = 2 = ... = p = 0,

deci vectorii T (e1), ... , T (ep) sunt liniar independenţi.2) 1) presupunem că există un vector x 0 pentru care

T (x) = 0. Dacă B = {e1, e2, ..., en} V este o bază, atunci xi K, nu toţi

nuli aşa încât x = . Întrucât T (e1), T (e2), ..., T (en) sunt liniar

independenţi, din relaţia T (x) = x1T (e1) + x2 T (e2) + ... + xn T (en) = 0 , rezultă x1 = x2 = ... = xn = 0 x = 0, contradicţie. Obţinem K er T = {0}, deci este injectivă.

1.8 Consecinţă. Dacă V şi W sunt două spaţii vectoriale finit dimensionale şi T: V W este o transformare liniară, atunci:1) Dacă T este injectivă şi {e1, e2, ..., en} este o bază în V atunci { T (e1), T (e2), ..., T (en)} este o bază în ImT .2) Două spaţii vectoriale izomorfe au aceeaşi

111

Page 6: Cap-06 (Transformari Liniare)

dimensiune.

Demonstraţia este imediată folosind rezultatele din teoremele 1.6 şi 1.7.

§2. Matricea unei transformări liniare

Fie V şi W două spaţii vectoriale peste corpul K.

2.1 Teoremă. Dacă B = {e1, e2, ..., en} este o bază în spaţiul vectorial V şi {w1, w2, ..., wn} sunt n vectori arbitrari din W atunci există o unică transformare liniară T: V W cu proprietatea T(ei) = wi , .

Demonstraţie. Fie x V un vector care se scrie în baza B sub forma

. Corespondenţa defineşte o aplicaţie T:

V W, cu proprietatea T(ei) = wi , . Această aplicaţie este liniară. În

adevăr, dacă este un alt vector oarecare din V, atunci combinaţia

liniară

x + y = , , K,

are imaginea prin T dată de

T (x + y)= = + = T (x) + T (y),

adică aplicaţia T este liniară.Să presupunem acum că T: V W cu proprietatea T (ei) = wi ,

. Atunci pentru orice x V , x = avem

T (x) = T = T (ei) = = T (ei) =

= T = T (x),

adică unicitatea transformării liniareT .În cazul în care { w1, w2, ..., wn } W sunt liniar independenţi atunci

transformarea liniară T definită în teorema 2.1 este injectivă.

112

Page 7: Cap-06 (Transformari Liniare)

Teorema 2.1 ne spune că o transformare liniară T : V W, dimV = n, este perfect determinată , dacă se cunosc imaginile acesteia {T (e1), T (e2), ...,T (en)} pe vectorii unei baze B = {e1, e2, ..., en} V.

Fie acum Vn şi Wm două K-spaţii vectoriale de dimensiune n şi respectiv m, şi T: V W o transformare liniară. Dacă B = {e1, e2, ..., en} este o bază fixată în Vn , iar B = {f1, f2, ..., fm} este o bază fixată în Wm atunci transformarea liniară T este unic determinată de valorile T (ej)Wm. Pentru j = asociem imaginii T (ej) n-upla (a1j, a2j, ..., amj), adică

T (ej) = , j = (2.1)

Coeficienţii aij K, i = , j = , definesc în mod unic matricea A = (aij) Mmn (K). Dacă considerăm în spaţiile vectoriale Vn şi Wm bazele B şi B fixate, atunci matricea A Mmn (K) determină în mod unic transformarea liniară T .

2.2 Definiţie. Matricea A Mmn (K) ale cărei elemente sunt date de relaţia (2.1) se numeşte matricea asociată transformării liniare T în raport cu perechea de baze B şi B .

2.3 Teoremă. Dacă x = are imaginea y = T (x) = ,

atunci

yi = , i = (2.2)

In adevăr,

T(x) = T = T (ej)= =

= = ,

din care rezultă relaţia (2.2)

113

Page 8: Cap-06 (Transformari Liniare)

Dacă notăm X = t(x1, x2, ..., xn), Y = t(y1, y2, ..., ym) atunci relaţia (2.2) se scrie matriceal sub forma

Y = AX (2.3)

Ecuaţiile (2.2) sau (2.3) se numesc ecuaţiile transformării liniare T în raport cu bazele considerate.

Observaţii 1° Dacă L (Vn, Wm) este mulţimea tuturor transformărilor liniare de

la Vn cu valori în Wm şi Mmn (K) este mulţimea tuturor matricelor de tipul m n, iar B şi B sunt două baze fixate în Vn şi respectiv Wm, atunci corespondenţa

: L (Vn, Wm) Mmn (K) , (T) = A,care asociază unei transformări liniare T matricea A, relativ la cele două baze fixate, este un izomorfism de spaţii vectoriale. În consecienţă dim L (Vn, Wm) = m n.

2° Izomorfismul are proprietăţile:- (T 1 T 2) = (T 1) (T 2), când T 1 T 2 are sens- T: Vn Vn este inversabil dacă şi numai dacă matricea asociată A, în raport cu o bază oarecare din Vn, este inversabilă.

Fie Vn un K-spaţiu vectorial şi T Eud(Vn). Considerând baze diferite

în Vn, endomorfismului T i se asociază matrice pătratice diferite. Se pune în mod natural întrebarea: când două matrice pătratice reprezintă acelaşi endomorfism? Răspunsul este dat de următoarea teoremă

2.4 Teoremă. Două matrice A, A Mn (K) relativ la bazele B, B Vn , reprezintă aceeaşi transformare liniară T : Vn Vn dacă şi numai dacă A = -1 A . Matricea fiind matricea de trecere de la baza B la baza B.

Demonstraţie. Fie B = {e1, e2, ..., en} şi B = {e1, e2, ..., en} două baze în Vn şi = (ij) matricea de trecere de la baza B la baza B ,

adică ej = , j = .

Dacă A = (aij) este matricea asociată lui T relativ la baza B, adică

T (ej) = , j = şi A = (aij) este matricea asociată lui T relativ

114

Page 9: Cap-06 (Transformari Liniare)

la baza B, adică T (ej) = , j = , atunci putem scrie

imaginile T (e’j) în două moduri:

T(ej) = = , respectiv

T(e’j) = T = T(ei)= =

Din cele două exprimări rezultă = A = A .

Cum matricea este nesingulară, rezultă relaţia A = -1A.

2.5 Definiţie. Două matrice A, B Mn (K) se numesc asemenea dacă există o matrice nesingulară C Mn (K) astfel încât are loc relaţia B = C-1 A C .

Observaţii 1° Relaţia de asemănare este o relaţie de echivalenţă pe mulţimea Mn

(K). Fiecare clasă de echivalenţă corespunde unui endomorfism T End(Vn) şi conţine toate matricele asociate lui T relativ la bazele spaţiului vectorial Vn.

2° Două matrice asemenea A şi B au acelaşi determinant

detB = det(C-1) detA detC = det A

Orice două matrice asemenea au acelaşi rang, număr ce reprezintă rangul endomorfismului T . În concluzie, rangul unui endomorfism nu depinde de alegerea bazei spaţiului vectorial V (rangul unui endomorfism este invariant la schimbarea bazei).

§3. Valori şi vectori proprii

Fie V un K-spaţiu vectorial n-dimensional şi T End(V) un endomorfism.

Dacă în spaţiul vectorial V considerăm diferite baze, atunci aceluiaşi endomorfism T End(V) îi va corespunde matrice diferite dar cu proprietatea de a fi asemenea. În aceste condiţii, ne interesează găsirea unei baze în V, în raport cu care matricea asociată endomorfismului T să aibă forma cea mai simplă, forma canonică, caz în care relaţiile ce definesc

115

Page 10: Cap-06 (Transformari Liniare)

endomorfismul T , yi = , vor avea cele mai simple exprimări. Vom

rezolva această problemă cu ajutorul valorilor şi vectorilor proprii ai endomorfismului T.

3.1 Definiţie. Fie V un K-spaţiu vectorial şi T End(V) un endomorfism.Un vector x V, x 0 se numeşte vector propriu al endomorfismului T : V V dacă există K astfel încât T(x) = x (3.1)Scalarul K se numeşte valoarea proprie a lui T corespunzătoare vectorului propriu x.

Mulţimea valorilor proprii ale endomorfismului T este numit spectrul operatorului T şi se notează cu (T).

Ecuaţia T (x) = x cu x 0 este echivalentă cu x Ker(T - I ) \{0}, unde I este endomorfismul identitate.

Dacă x este un vector propriu al lui T , atunci şi vectorul kx , k K \{0} este un vector propriu.

3.2 Teoremă. Dacă V este un K-spaţiu vectorial şi T End(V), atunci1) Fiecărui vector propriu al lui T îi corespunde o singură valoare proprie (T).2) Vectorii proprii ce corespunde la valori proprii distincte sunt linair independenţi.3) Mulţimea S = {x V | T x = x , (T)} V este un subspaţiu vectorial, invariant în raport cu T , adică T (S) S . Subspaţiul vectorial se numeşte subspaţiu propriu corespunzător valorii proprii (T).

Demonstraţie. 1) Considerăm x 0 un vector propriu corespunzător valorii proprii K. Dacă ar exista o altă valoare proprie K astfel încât T (x) = x atunci am avea x = x ( - )x = 0 = .

2) Fie x1, x2, ..., xp vectorii proprii corespunzători valorilor proprii distincte 1, 2, ..., p. Demonstrăm prin inducţie după p, liniar independenţa vectorilor proprii consideraţi. Pentru p = 1 şi x1 0, ca vector propriu, mulţimea {x1} este liniar independentă. Presupunând proprietatea adevărată pentru p-1, să arătăm că aceasta este adevărată pentru p vectori proprii. Aplicând endomorfismul T relaţiei k1x1 + k2x2 + ... + kpxp = 0 obţinem k11x1

+ k22x2 + ...+ kppxp = 0. Scăzând prima relaţie, amplificată cu p, din a doua relaţie, obţinem

116

Page 11: Cap-06 (Transformari Liniare)

k1( - p)x1 + ... + kp-1(p - p-1)xp-1 = 0Din ipoteza inductivă rezultă k1 = k1 = ... = kp-1 = 0, care înlocuite în

relaţia k1x1 +... + kp-1xp-1 + kpxp = 0 ne procură kpxp = 0 kp = 0 , deci x1, x2, ..., xp sunt liniar independenţi.

3) Pentru orice x, y S şi , K avem : T (x + y) = T (x) + T (y) = x + y = (x + y), adică S

este subspaţiu vectorial în V.Pentru x S , atunci T (x) = x S adică T (S) S.

3.3 Teoremă. Subspaţiile proprii , corespunzătoare la valori proprii distincte, 1 2 au în comun numai vectorul nul.

Demonstraţie. Fie 1, 2, (T), 1 2. Să presupunem existenţa unui vector nenul x , pentru care avem T (x)= 1x şi T (x)= 2x.

Obţinem (1 - 2)x = 0 1 = 2 , contradicţie. Rezultă că = {0}.

3.4 Definiţie. Matricea nenulă X Mn(K) se numeşte vector propriu al matricei A dacă K astfel încât AX = X. Scalarul K se numeşte valoare proprie a matricei A.

Ecuaţia matriceală AX = X poate fi scrisă sub forma (A - I )X = 0 şi este echivalentă cu sistemul de ecuaţii liniare şi omogene:

(3.2)

care admite soluţii diferite de soluţia banală dacă şi numai dacă

P() = det(A - I ) =

(3.3)

3.5 Definiţie. Polinomul P() = det(A - I ) se numeşte polinomul caracteristic al matricei A iar ecuaţia P() = 0 se numeşte ecuaţia caracteristică a matricei A .

Se poate demonstra că polinomul caracteristic are forma 117

Page 12: Cap-06 (Transformari Liniare)

P() = (-1)n [n - 1n-1 + ... + (-1)nn ] , (3.4)

unde i reprezintă suma minorilor principali de ordinul i ai matricei A.Observaţii

1° Soluţiile ecuaţiei caracteristice det(A - I ) = 0 sunt valorile proprii ale matricei A.

2° Dacă câmpul K este un câmp închis atunci toate rădăcinile ecuaţiei caracteristice sunt în corpul K şi deci vectorii proprii corespunzători se vor găsi în K-spaţiul vectorial Mn1(K).

În cazul în care K nu este închis, de exemplu K = R, ecuaţia caracteristică poate avea şi rădăcini complexe iar vectorii proprii corespunzători se vor găsi în complexificatul spaţiului vectorial real.

3o Pentru o matrice reală şi simetrică se poate demonstra că valorile proprii sunt reale.

4° Două matrice asemenea au acelaşi polinom caracteristic. În adevăr, dacă A şi A sunt asemenea, A = C-1AC cu C nesingulară, atunci

P () = det(A - I ) = det(C-1AC - I ) = det[C-1(A - I)C] = = det(C-1) det(A - I) detC= det(A - I) = P()

Dacă A Mn(K) şi P(x) = a0xn + a1xn-1 + ... + an K[X] atunci polinomul P(A) = a0An + a1An-1 + ... + anI se numeşte polinom de matrice.

3.6 Teoremă. (Hamilton – Cayley)Dacă P() este polinomul caractersitic al matricei A, atunci P(A) = 0.

Demonstraţie. Fie P() = det(A - I) = a0n + a1n-1 + ... + an. Prin construcţie reciproca matricei A - I este dată de

(A - I)* = Bn-1n-1 + Bn-2n-2 + ... + B1 + B0, Bi Mn(K)

şi satisface relaţia (A - I) (A - I)* = P() I , adică

(A - I) (Bn-1n-1 + Bn-2n-2 + ... + B1 + B0) = (a0n + a1n-1 + ... + an)I,

Identificând polinoamele în , obţinem

a0I = – Bn-1 An

118

Page 13: Cap-06 (Transformari Liniare)

a1I = A Bn-1 – Bn-2

a2I = A Bn-2 – Bn-3

...............................

An-1

An-2

an-1I = A B1 – B0

anI = A B0

A

a0An + a1An-1 + ... + a0I = 0 , c.c.t.d.

3.7 Consecinţă. Orice polinom în A Mn(K) de grad n poate fi exprimat printr-un polinom de grad n – 1.

3.8 Consecinţă. Inversa matricei A poate fi exprimată prin puteri ale matricei A, inferioare ordinului acesteia.

Să considerăm acum un K-spaţiu vectorial n-dimesional Vn , o bază B şi să notăm cu A Mn(K), matricea asociată endomorfismului T în această bază. Ecuaţia T x = x este echivalentă cu ecuaţia (A - I )X = 0.

Valorile proprii ale endomorfismului T, dacă există, sunt rădăcinile polinomului P() în câmpul K, iar vectorii proprii ai lui T vor fi soluţiile ecuaţiei matriceale (A - I )X = 0. Cum polinomul caracteristic este invariant faţă de o schimbare a bazei din Vn , înseamnă că P() depinde numai de endomorfismul Tşi nu de reprezentarea matriceală a lui T într-o anume bază. În consecienţă, se justifică denumirile de polinom caracteristic, respectiv ecuaţie caracteristică ale endomorfismului T, pentru polinomul caracteristic P()al matricei A, respectiv ecuaţia caracteristică (A - I )X = 0 a matricei A.

§4. Forma canonică a unui endomorfism

Fie endomorfismul T : Vn Vn definit pe K-spaţiul vectorial, n-dimensional Vn.

Dacă în spaţiul vectorial Vn considerăm bazele B şi B şi notăm cu A respectiv A matricele asociate ale endomorfismului T în raport cu aceste baze, atunci avem A = -1A, unde reprezintă matricea de trecere de la baza B la baza B . Cum matricea asociată unui endomorfism depinde de baza pe care o considerăm în spaţiul vectorial Vn, vom determina acea bază în raport cu care endomorfismul are cea mai simplă exprimare, adică matricea asociată în această bază să aibă formă diagonală.

4.1 Definiţie. Endomorfismul T: Vn Vn se numeşte diagonalizabil dacă

119

Page 14: Cap-06 (Transformari Liniare)

există o bază B = {e1, e2, ..., en} în spaţiul vectorial Vn

astfel încât matricea corespunzătoare lui T în această bază să aibă forma diagonală.

4.2 Teoremă. Un endomorfism T: Vn Vn este diagonalizabil dacă şi numai dacă există o bază a spaţiului vectorial Vn formată numai din vectori proprii corespunzători endomorfismului T.

Demonstraţie: Dacă T este diagonalizabil atunci există o bază B = {e1, e2, ..., en} în raport cu care matricea asociată A = (aij) are forma diagonală, adică aij = 0, i j. Acţiunea lui T pe elementele bazei B este dată de relaţiile T (ei) = aiiei , i = , ceea ce înseamnă că ei , i = sunt vectori proprii pentru T .Reciproc. Fie {v1, v2, ..., vn} o bază în Vn , formată numai din vectori proprii, adică T vi = ivi , i = .Din aceste relaţii rezultă că matricea asociată lui T în această bază este

D = .

în care scalarii i K nu sunt neapărat distincţi.În condiţiile teoremei precedente, matricele din clasa de asemănare

ce corespund endomorfismului diagonalizabil T , pentru diferite baze la care raportăm spaţiul vectorial Vn , se numesc diagonalizabile.

4.3 Consecinţă. Dacă endomorfismul T are n valori propri distincte, atunci vectorii proprii corespunzători determină o bază în Vn şi matricea asociată lui T în această bază este o matrice diagonală având pe diagonala principală valorile proprii ale lui T .

4.4 Consecinţă. Dacă A Mn(K) este diagonalizabilă atunci detA = 1 2 ... n.

O valoare proprie K , ca rădăcină a ecuaţiei caracteristice P() = 0, are un ordin de multiplicitate pe care îl vom numi multiplicitate algebrică, iar dimensiunea subspaţiului propriu corespunzător dimS

va fi numită multiplicitate geometrică a valorii proprii .

120

Page 15: Cap-06 (Transformari Liniare)

4.5 Teoremă. Dimensiunea unui subspaţiu propriu al endomorfismului T este cel mult egală cu ordinul de multiplicitate al valorii proprii corespunzătoare (multiplicitatea geometrică este cel mult egală cu multiplicitatea algebrică).

Demonstraţie: Fie 0 K o valoare proprie cu multiplicitatea algebrică m n , subspaţiul propriu corespunzător având dimensiunea

dim = p n şi = {e1, e2, ..., ep} o bază în .Dacă p = n, atunci avem n vectori proprii liniar independenţi, deci o

bază a spaţiului vectorial Vn în raport cu care matricea asociată endomorfismului T are forma diagonală, având pe diagonala principală valoarea proprie 0. În acest caz, polinomul caracteristic se scrie sub forma P() = (-1)n ( - 0)n , de unde rezultă că p = n.

Dacă p < n , completăm baza subspaţiului vectorial la o bază = {e1, e2, ..., ep, ep+1, ..., en} în Vn.

Acţiunea operatorului T pe elementele acestei baze este dată de

T (ei) = 0 ei , i = şi

T (ej) = , j =

În raport cu această bază , endomorfismul T este caracterizat de matricea

=

şi deci polinomul caracteristic al lui T are forma P() = (0 - )p Q() , adică (0 - )p divide P() , deci p m, c.c.t.d.

4.6 Teoremă. Un endomorfism T : Vn Vn este diagonalizabil dacă şi numai dacă polinomul caracteristic are toate rădăcinile în câmpul K şi dimensiunea fiecărui subspaţiu propriu este egală cu ordinul de multiplicitate al valorii proprii corespunzătoare.

121

Page 16: Cap-06 (Transformari Liniare)

Demonstraţie. Dacă T este diagonalizabil atunci există o bază B = {e1, e2, ..., en} Vn , formată numai din vectori proprii, în raport cu care matricea asociată are forma diagonală. În aceste condiţii polinomul caracteristic se scrie sub forma

P() = (-1)n ...

cu i K , valorile proprii ale lui T cu ordinele de multiplicitate mi ,

. Fără a restrânge generalitatea, admitem că primii mi vectori din

baza B = {e1, e2, ..., en} sunt vectorii proprii corepunzători valorii proprii 1

următorii m2 lui 2 etc. Rezultă că {e1, e2, ..., en} şi deci

m1 dim . Cum dim m1 (teorema 3.12) obţinem dim = m1 , şi analog pentru celelalte valori proprii.

Reciproc. Dacă i K şi dim = mi, cu , să

considerăm mulţimea B = {e1, e2, ..., , , ..., , ...}, convenind

ca primii m1 vectori să formeze o bază în , următorii m2 vectori să

formeze o bază în , ş.a.m.d.

Întrucât = {0} şi , rezultă că B este o bază în Vn , în

raport cu care matricea asociată lui T în această bază este de forma

A =

deci o matrice diagonală, adică endomorfismul T este diagonalizabil.

4.7 Consecinţă. Dacă T : Vn Vn este un endomorfism diagonalizabil, 122

Page 17: Cap-06 (Transformari Liniare)

atunci spaţiul vectorial Vn poate fi reprezentat sub forma

Vn = ... .

Practic, pentru diagonalizarea unui endomorfism T parcurgem următoarele etape:

1° Scriem matricea A , asociată endomorfismului T în raport cu o bază dată în spaţiul vectorial Vn.

2° Se rezolvă ecuaţia caracteristică det(A - I ) = 0, determinând valorile proprii 1, 2, ..., p cu multiplicităţile lor m1, m2, ..., mp.

3° Se aplică rezultatul teoremei 3.13 şi avem cazurile:I) Dacă i K , i = se determină dimensiunile

subspaţiilor proprii . Dimensiunea subspaţiului propriu , adică dimensiunea spaţiului vectorial al soluţiilor sistemului omogen (A - iI )X = 0, este dată de dim = n - rang(A - iI ). Dimensiunea

subspaţiului se poate afla prin determinarea efectivă a

subspaţiului .

a) dacă dim = mi , i = , atunci T este diagonalizabil . Matricea asociată lui T , în raport cu baza formată din vectori propri, este o matrice diagonală având pe diagonala principală valorile proprii scrise în ordine de atâtea ori cât le este ordinul de multiplicitate.

Putem verifica acest rezultat construind matricea T = {tv1, tv2, ..., tvn}, având drept coloane coordonatele vectorilor proprii (matricea diagonalizatoare) şi reprezintă matricea de trecere de la baza considerată iniţial la baza formată din vectori propri, bază în raport cu care T are ca matrice asociată matricea diagonală D, dată de

D = T-1 AT = .

b) dacă i K astfel încât dim < mi , atunci T nu este diagonalizabil. În paragraful următor vom analiza acest caz.

123

Page 18: Cap-06 (Transformari Liniare)

II) Dacă i K, atunci T nu este diagonalizabil. Problema diagonalizării lui T poate fi pusă dacă, K-spaţiul vectorial V va fi considerat peste o extensie a câmpului K.

Fie Vn un K-spaţiu vectorial şi T End(Vn) un endomorfism definit pe Vn.

Dacă A Mn(K) este matricea asociată endomorfismului T în raport cu o bază în Vn , atunci A poate fi diagonalizată dacă sunt indeplinite condiţiile teoremei 3.13.

În cazul în care valorile proprii corespunzătoare endomorfismului T sunt din câmpul K, i K , iar multiplicitatea geometrică este diferită de multiplicitatea algebrică dim < mi ,măcar pentru o valoare proprie i K , endomorfismul T nu este diagonalizabil, în schimb se poate determina o bază în spaţiul vectorial Vn în raport cu care endomorfismul T să aibă o formă canonică mai generală, numită forma Jordan.

Pentru K, matricele de forma :

(), , , ... , (3.5)

se numesc celule Jordan ataşate scalarului , de ordinul 1, 2, 3, ...,n .

4.7 Definiţie Endomorfismul T: Vn Vn se numeşte jordanizabil dacă există o bază în spaţiul vectorial Vn faţă de care matricea asociată este de forma

J = ,

unde Ji , i = , sunt celule Jordan de diferite ordine ataşate valorilor propri i .

O celulă Jordan de ordinul p ataşată valori proprii K , multiplă de ordinul m p , corespunde vectorilor liniar independenţi e1, e2, ..., ep care satisfac relaţiile:

T(e1) = e1

124

Page 19: Cap-06 (Transformari Liniare)

T(e2) = e2 + e1

T(e3) = e3 + e2 . . . . . . . . . . . . . . . . . . . .

T(ep) = ep + ep-1

Vectorul e1 este vector propriu iar vectorii e2, e3, ..., ep se numesc

vectori principali.Observaţii

1° Forma diagonală a unui endomorfism diagonalizabil este un caz particular de formă canonică Jordan, având toate celulele Jordan de ordinul unu.

2° Forma canonică jordan nu este unică. Ordinea pe diagonala principală a celulelor Jordan depinde de ordinea aleasă a vectorilor proprii şi principali din baza determinată.

3° Numărul celulelor Jordan, egal cu numărul vectorilor proprii liniar independenţi, precum şi ordinul acestora sunt unice.

Se poate demonstra următoarea teoremă :

4.8 Teoremă. (Jordan) Dacă endomorfismul T End(Vn) are toate valorile proprii în câmpul K, atunci există o bază în spaţiul vectorial Vn în raport cu care matricea lui T are forma Jordan.

Practic, pentru determinarea formei canonice Jordan a unui endomorfism, vom parcurge următoarele etape:

1° Scriem matricea A ,asociată endomorfismului T în raport cu o bază dată.2° Rezolvăm ecuaţia caracteristică det(A - I ) = 0 determinând valorile

proprii 1, 2, ..., p cu ordinele de multiplicitate m1, m2, ..., mp .3° Se determină subspaţiile proprii , pentru fiecare valoare proprie i.4° Se calculează numărul de celule Jordan, separat pentru fiecare valoare

proprie i , dat de dim = n – rang(A - I ). Adică, pentru fiecare valoare proprie, numărul vectorilor liniar independenţi ne dă numărul celulelor Jordan corespunzătoare.

5° Se determină vectori principali corespunzători acelor valori proprii pentru care dim < mi , numărul lor este dat de mi - dim . Dacă v

este un vector propriu oarecare din , vom impune condiţiile de compatibilitate şi vom rezolva succesiv sistemele de ecuaţii liniare (A - iI )X1 = v, ..., (A - iI )Xp = Xs

125

Page 20: Cap-06 (Transformari Liniare)

Ţinând cont de condiţiile de compatibilitate şi de forma generală a vectorilor proprii şi a celor principali, vom determina, dând valori particulare parametrilor, vectorii proprii liniar independenţi din şi vectorii principali asociaţi fiecăruia.

6° Scriem baza spaţiului vectorial Vn, reunind sistemele de mi , i = , vectori liniar independenţi formaţi din vectori proprii şi vectori principali.

Folosind matricea T având drept coloane coordonatele vectorilor bazei, construite din vectorii proprii şi vectorii principali asociaţi în această ordine, obţinem matricea J = T-1AT , forma canonică Jordan ce conţine pe diagonala principală celulele Jordan, dispuse în ordinea în care apar în baza construită din vectorii proprii şi vectorii principali asociaţi(dacă există).

Celulele Jordan au ordinul egal cu numărul de vectori din sistemul format dintr-un vector propriu şi vectori principali asociaţi.

§5. Transformări liniare pe spaţii vectoriale euclidiene

Proprietăţile transformărilor liniare definite pe un spaţiu vectorial oarecare sunt valabile şi în cazul particular al spaţiilor vectoriale euclidiene. Produsul scalar ce defineşte structura euclidiana ne permite introducerea unor clase particulare de transformări liniare.

5.1. Transformări ortogonale

Fie V şi W două R-spaţii vectoriale euclidiene. Fără a se produce confuzii vom nota produsele scalare pe cele două spaţii vectoriale cu acelaşi simbol < , > .

5.1 Definiţie. O transformare liniară T: V W se numeşte transformare liniară ortogonală dacă aceasta păstrează produsul scalar, adică

< T x, T y> = < x, y > (5.1)

Exemple. 1° Transformarea identică T: V V, T (x) = x , este o transformare

ortogonală.2° Transformarea T : V V, care asociază unui vector x V opusul

acestuia, T (x) = - x , este o transformare ortogonală.

126

Page 21: Cap-06 (Transformari Liniare)

5.2 Teoremă. Transformarea liniară T : V W este ortogonală dacă şi numai dacă păstrează norma, adică|| T x|| = || x || , x V (5.2)

Demonstraţie. Dacă T este ortogonală atunci < T x, T y> = < x, y >, care

pentru x = y devine < T x, T y> = < x, x> || T x||2 = ||x||2 || T x|| = ||x||.

Reciproc. Folosind relaţia <a, b> = , avem

< T x, T y > = [ || T x + T y ||2 - || T x - T y ||2 ] =

= =

= = <x, y> , c.c.t.d.

5.3 Consecinţă. O transformarea ortogonală T : V W este o transformare liniară injectivă.

Demonstraţie. Dacă T este o transformare ortogonală atunci || T x|| = || x || şi în ipoteza T x = 0 rezultă || x || = 0 x = 0 . Prin urmare, nucleul Ker T = {0}, adică T este injectivă.

Din consecinţa 4.3 rezultă că printr-o transformare ortogonală un sistem de vectori liniar independenţi este transformat într-un sistem de vectori liniar independenţi.

5.4 Consecinţă. O transformare ortogonală T: V V , păstrează distanţa euclidiană şi are ca punct fix originea T (0) = 0.

În adevăr, d(T x, T y) = || T x - T y || = || T (x - y)|| = ||x - y|| = d(x, y).Orice transformarea ortogonală T,diferită de transformarea identică, este injectivă ,T(0) = 0 şi este singurul punct fix. In caz contrar, tranaformarea Tcoincide cu transformarea identică.

Dacă W = V , T 1 şi T 2 sunt două transformări ortogonale pe V atunci compunerea lor este tot o transformare ortogonală.

Dacă T: V V este şi surjectivă, atunci T este inversabilă şi mai mult, T este o transformare ortogonală.

În aceste condiţii, mulţimea transformărilor ortogonale bijective ale spaţiului vectorial euclidian V, în raport cu operaţia de compunere (produs) a două transformări ortogonale, formează un grup, numit grupul ortogonal al spaţiului vectorial euclidian V notat cu GO(V) şi care reprezintă un subgrup al grupului liniar GL(V).

127

Page 22: Cap-06 (Transformari Liniare)

Să considerăm în spaţiile vectoriale euclidiene, finit dimensionale Vn

şi Vm, bazele ortonormate B = {e1, e2, …, en}, respectiv = {f1, f2, …, fn} şi transformarea liniară ortogonală T : Vn Wm.

În raport cu bazele ortonormate B şi transformarea liniară este caracterizată de matricea A Mmn(R), adică au loc relaţiile

(T ej) = , j =

Întrucât bazele B şi sunt ortonormate avem< e1, e2 > = δij , i, j = şi < fk, fh> =δ kh , k, h =

Să evaluăm produsele scalare ale imaginilor vectorilor bazei B,

< T (ei), T (ej)> = = =

= =

Cum T este o transformare ortogonală avem < T (ei), T (ej)> =δ ij

şi deci

, i, j =

(5.3)Relaţiile (5.3) pot fi scrise şi sub forma

tA A = In (5.3)

Reciproc. Dacă T este o transformare liniară, caracterizată, în raport cu bazele ortonormate B şi , de matricea A Mmn(R) care satisface condiţiile (4.3) , atunci T este o transformare ortogonală . În adevăr, fie x = (x1, x2, …, xn) şi y = (y1, y2, …, yn) doi vectori în spaţiul Vn. Să calculăm produsul scalar al imaginilor acestor vectori:

< T (x), T (y)> = < T , T > =

= < T (ei), T (ej)> = =

= = = = <x, y>,

adică < T (x), T (y)> = < x, y>, deci este o transformare ortogonală.Astfel , am demonstrat următoarea teoremă :

5.5 Teoremă. În raport cu bazele ortonormate B Vn şi Wm, 128

Page 23: Cap-06 (Transformari Liniare)

transformarea liniară T: Vn Wm este ortogonală dacă şi numai dacă matricea asociată satisface condiţia tA A = In.

5.6 Consecinţă. O transformare ortogonală T: Vn Vn este caracterizată în raport cu o bază ortonormată B Vn de o matrice ortogonală, A-1 = tA .

Întrucât det tA = detA, rezultă că dacă A este o matrice ortogonală atunci detA = 1.

Submulţimea matricelor ortogonale cu proprietatea detA = 1 formează un subgrup , notat cu SO(n; R) , al grupului matricelor ortogonale de ordinul n, numit grupul ortogonal special . O transformare ortogonală caracterizată de o matrice A SO(n; R) se mai numeşte rotaţie.

Observaţii 1° Cum o transformare ortogonală este injectivă, înseamnă că dacă

B Vn, este o bază, atunci imaginea acesteia, prin transformarea ortogonală T: Vn Wm , este o bază în Im T Wm. În consecinţă n m.

2° Orice transformare ortogonală între două spaţii vectoriale euclidiene de aceeaşi dimensiune este un izomorfism de spaţii vectoriale euclidiene.

3° Matricea asociată produsului a două transformări ortogonale T 1, T 2 : Vn Vn în raport cu o bază ortonormată, este dată de produsul matricelor asociate corespunzătoare transformărilor T1 şi T2 . Astfel, grupul ortogonal al spaţiului vectorial euclidian Vn, grupul GO(Vm), este izomorf cu grupul multiplicativ GO(n; R), al matricelor ortogonale de ordinul n.

5.2 Transformări liniare simetrice

Fie V şi W două R-spaţii vectoriale euclidiene şi T: V W o transformare liniară.

5.7 Definiţie. Transformarea liniară ortogonală tT : W V definită prin relaţia

< tTy, x>V = <y, T x>W , x V, y W (5.4)

se numeşte transpusa transformării liniare.

129

Page 24: Cap-06 (Transformari Liniare)

5.8 Definiţie. O transformarea liniară T : V V se numeşte simetrică (antisimetrică) dacă tT = T ( tT = - T )

Fie Vn un R-spaţiu vectorial euclidian finit dimensional şi B Vn

este o bază ortonormată. Dacă endomorfismul T : Vn Vn este caracterizat de matricea reală A Mn(R), se demonstrează uşor că unui endomorfism simetric (antisimetric), în raport cu o bază ortonormată, îi corespunde o matrice simetrică (antisimetrică).

5.9 Teoremă. Valorile proprii corespunzătoare unei transformări liniare simetrice T: Vn Vn , sunt reale.

Demonstraţie. Fie 0 o rădăcină oarecare a ecuaţiei caracteristice det(A-I ) = 0 şi X = t(x1, x2, …, xn) un vector propriu corespunzător valori proprii 0.

Notând cu matricea conjugată cu X şi înmulţind cu t ecuaţia (A-0I )X = 0, obţinem t AX = 0

t X . Întrucât A este simetrică, membrul întâi al acestei egalităţi este real,

deoarece = = tX A = t( tX A ) = t A X. De asemenea , tXX 0 este un număr real şi 0 este câtul a două numere reale, deci este real.

Fie acum un vector propriu v1 R corespunzător valorii proprii 1 R , S1 subspaţiul generat de v1 iar Vn-1 Vn complementul ortogonal al acestuia, Vn = S1 Vn-1.

5.10 Teoremă. Subspaţiul Vn-1 Vn este invariant la transformarea liniară simetrică T: Vn Vn.

Demonstraţie. Dacă v1 Vn este un vector propriu corespunzător valori proprii 1, atunci T v1 = 0 v 1 . Pentru v Vn-1 avem satisfăcută relaţia < v1, v > = 0. Să demonstrăm că T (v) Vn-1.

< v1, T v > = < T v1, v > = < , v1, v > = 1< v1, v > = 0.Pe baza acestui rezultat se poate demonstra fără dificultate

următoarea teoremă.

5.11 Teoremă. Multiplicitatea geometrică a unei valori proprii corespunzătoare endomorfismului T: Vn Vn este egală cu multiplicitatea algebrică .

5.12 Propoziţie. Subspaţiile vectoriale proprii ale unui endomorfism simetric T: Vn Vn , corespunzătoare la valori proprii

130

Page 25: Cap-06 (Transformari Liniare)

distincte, sunt ortogonale.

Demonstraţie. Fie , , subspaţiile proprii corespunzătoare valorilor proprii distincte i şi j care au multiplicităţile algebrice mi respectiv mj. Pentru v şi w , T (v) = iv , T (w) = jw din care obţinem < w, T (v) > = i < w, v> şi < T (w), v> = j < w, v> . Ţinând cont că T este simetrică ,avem (j - i) < w, v> = < T (w), v> - < w, T (v)> = 0 .Cum j i < w, v > = 0 . c.c.t.d.

5.13 Propoziţie. Într-un spaţiu vectorial euclidian Vn orice transformare liniară simetrică determină o bază ortonormată.

În adevăr, primii mi vectori aparţin subspaţiului propriu corespunzător rădăcini caracteristice i de multiplicitate mi ş.a.m.d. până la epuizarea valorilor proprii m1 + m2 + ... + mp = n.

În raport cu baza ortonormată formată din aceşti vectori propri, endomorfismul T:Vn Vn are forma canonică. Matricea asociată endomorfismului T în această bază este diagonală, având pe diagonala principală valorile proprii , scrise de atâtea ori cât le este multiplicitatea şi se exprimă în funcţie de matricea A asociată,corespunzătoare endomorfismului T în baza ortonormată B , prin relaţia D = t A , unde este matricea ortogonală de trecere de la baza B la baza formată din vectorii proprii.

5.3 Transformări izometrice pe spaţii punctuale euclidiene

Fie E=(E,V,) un spaţiu punctual euclidian ; E este mulţimea suport, V spaţul vectorial director iar este funcţia de structură afină.

5.14 Definiţie O corespondenţă bijectivă f : E E se numeşte transformare a mulţimii E sau permutare a mulţimii E.

Dacă E este înzestrată cu o anume structură geometrică, iar f satisface anumite condiţii referitoare la această structură,atunci f va fi numită transformare geometrică.

Notând cu (E ,) grupul transformărilor mulţimii E în raport cu operaţia de compunere a funcţiilor,iar G un subgrup al său, atunci perchea (E, G ) va fi numit spaţiu geometric sau spaţiu cu grup fundamental.

O submulţime de puncte F E va fi numită figură a spaţiului geomeric (E, G ) . Două figuri F1 ,F2 E se zic congruente dacă f G aşa încât f(F1) = F2.

O proprietate sau mărime referitoare la figurile spaţiului geometric

131

Page 26: Cap-06 (Transformari Liniare)

(E, G ) se numeşte geometrică dacă aceasta este invariantă la transformările grupului G .

Numim geometrie a spaţiului geometric (E, G ) teoria obţinută prin studiul noţiunilor, proprietăţilor şi mărimilor geometrice referitoare la figurile mulţimii E .

Dacă E = (E,V,) şi E’’ = (E’,V ,’) sunt două spaţii afine ,atunci o transformare afină t : EE este unic determinată de perechea de puncte AE, respectiv AE şi de o transformare liniară T : V V .

Să considerăm spaţiul punctual euclidian al vectorilor liberi E3 = (E3, V3 , ) şi R = ( O, ) un reper cartezian în acest spaţiu .

O transformare afină t : E3 E3 , f(M) = M’ realizează corespondenţa M(x1,x2,x3) M’(x1’,x2’,x3’) caracterizată de relaţiile:

xi = xj’ + , det.(aij) 0 (5,5)

sau sub formă matriceală

X = A X + , det.A 0 (5,5)’

O transformare afină poate fi interpretată şi ca o schimbare de repere afine. Mulţimea transformărilor afine formează un grup, în rapoort cu operaţia de compunere a aplicaţiilor, numit grupul afinităţilor.

Pentru studiul proprietăţilor geometrice ale figurilor unui spaţiu geometric,un interes deosebit îl prezintă acele transformări ale spaţiului care nu deformează aceste figuri. In acest sens ,vom prezenta câteva exemple de transformări afine, cu această proprietate .Exemple:

1. Aplicaţia so : E3E3 definită prin so(O) = O, OE3, fixat şi t(P) = P, cu proprietatea , este o transformare afină numită simetria de centru O . Transformarea liniară asociată T : V3 V3 este definită de relaţia T( ) = - .

2. Dacă d E3 este o dreaptă şi P un punct ce nu aparţine dreptei datunci există un singur punct P’ E3 cu proprietatea PP’ d şi mijlocul segmentului PP’ se află pe dreapta d .

Aplicaţia sd : E3 E3 , sd(P) = P’ , cu P’ definit mai sus , se numeşte simetrie axială . Dacă P0 este proiecţia ortogonală a punctului P pe dreapta d, atunci are loc combinaţia afină P’= 2P0 – P . Transformarea liniară asociată T : V3 V3 este dată de relaţia T ( ) = 2 .

3. Aplicaţia t : E3E3 dată de corespondenţa t(P) = P’ cu proprietatea , V3 un vector dat ,este o transformare afină pe E3 numită translaţia de vector .

Transformarea liniară asociată T : V3 V3 este dată de aplicaţia identică T ( ) = .

132

Page 27: Cap-06 (Transformari Liniare)

4. Fie E2 = (E2, V2 , ) spaţiul punctual euclidian bidimensional .Aplicaţia r0, : E2 E3 , r0, (P) = P’ , cu proprietăţile

(O,P’)= (O,P’) şi POP’ = se numeşte rotaţie de centru O şi unghi .Transformarea liniară asociată T : V2 V2 , T ( ) = ’ este caracterizată de o matrice ortogonală . In studiul geometriei spaţiului euclidian ne interesează acele transformări geometrice care conservă anumite proprietăţi ale figurilor spaţiului considerat. Cu alte cuvinte , vom considera anumite subgrupuri ale grupului afinităţilor spaţiului euclidian, care guvernează aceste transformări

5.15 Definiţie. Se numeşte izometrie pe spaţiul punctual euclidian E3 = (E3,V 3 , ) o aplicaţie f : E3 E3 cu proprietatea ( f(A),f(B) ) = (A,B) , A,B E3 (5,6)

Dacă considerăm reprezentantul vectorului în punctul A E3 , atunci ( 1) B E3, aşa încât şi, în plus avem (A,B) = = . Astfel, relaţia(5,6), pentru transformarea liniară T : V V , asociată lui f, este echivalentă cu

( ) = ( ) , (5,6)’

Dacă spaţiul punctual E3, este spaţiul geometriei euclidiene, atunci o izometrie f : E3 E3 este o aplicaţie bijectivă ,adică o transformare geometrică, numită transformare izometrică .

Submulţimea transformărilor izometrice,în raport cu operaţia de compunere a aplicaţiilor, formează un subgrup IzoE3 , numit grupul izometriilor .

5.16 Teoremă. O aplicaţie afină f : E E este o transformare izometrică dacă şi numai dacă aplicaţia liniară asociată T: V V este o transformare ortogonală .

Transformările geometrice date în exemplele precedente (simetria centrală,simetria axială, translaţia şi rotaţia ) sunt transformări izometrice.

5.17 Teoremă. Orice izometrie f : E E este produsul unei translaţii cu o izometrie cu un puinct fix , f = t g .

Fie planul euclidian PE = ( E2 , IzoE2 ), R = ( O, ) un reper cartezian ortonormat în spaţiul punctual euclidian E2 = (E2, V2 , ) şig : E2 E2 o izometrie cu O - punct fix .Fie punctul A(1,0) şi un punct oarecare M(x,y) având imaginile A’(a,b) şi respectiv M’(x’,y’) .

133

Page 28: Cap-06 (Transformari Liniare)

Impunănd condiţiile : (O,A’) = (O,A) , (O,M’) = (O,M) şi respectiv (A’,M’) = (A,M) obţinem sistemul de ecuaţii

(5.7)

Soluţia generală este

(5.8)

Reciproc, formulele (5.8) reprezintă o izometrie.In adevăr,dacă M1 şi M2 sunt două puncte oarecare iar imaginile acestora sunt M’1 şi respectiv M’2 atunci

(M’1,M’2)2 = (x’2 - x’1)2 +(y’2 - y’1)2 = = (a2+b2) (x2-x1)2 +(y2-y1)2 = (M1,M2)2 ,

adică , (M’1,M’2) = (M1,M2) .Punctele fixe ale aplicaţiei caracterizată de ecuaţiile (5.8) se obţin

luând în (5.8) x’ = x şi y’ = y ,adică

(5.9)

Sistemul (5.9) este un sistem de ecuaţii liniare şi omogene cu determinantul = ( +1) (1-a) .

Dacă = -1 sistemul (5.9) admite o infinitate de puncte fixe ,deci ecuaţiile (5.8) reprezintă o simetrie axială.

Dacă = 1 şi a 1 izometria (5.8) admite numai originea ca punct fix şi reprezintă o rotaţie ,iar pentru = 1 şi a = 1 aplicaţia (5.8) devine transformarea identică.

Ecuaţiile (5.8) pot fi scrise matriceal sub forma

(5.8)’

Matricea asociată A = , în condiţiile a2=b2=1,= 1,este

o matrice ortogonală ,ceea ce înseamnă că subgrupul izometriilor cu originea ca punct fix (centro –izometrii) definite pe planul euclidian este izomorf cu grupul ortogonal GO(2;R)

Pentru = 1 ( considerând aplicaţia identică ca fiind rotaţia de unghi = 0) matricea ortogonală A are proprietatea det.A=1 , ceea ce înseamnă că subgrupul rotaţiilor planului euclidian este izomorf cu subgrupul ortogonal special SO(2;R).

134

Page 29: Cap-06 (Transformari Liniare)

Compunând izometriile ,având originea ca punct fix , cu translaţiile care transformă originea în punctul (xo,yo) se obţin izometriile planului euclidian PE = ( E2 , IzoE2 ) ,caracterizate analitic de ecuaţiile :

(5.10)

Folosind funcţiile trigonometrice ,luând a = cos şi b = sin ,REcuaţiile (5,10) se scriu sub forma

(5.11)

Pentru =1 , transformările caracterizate de ecuaţiile

(5.12)

adică acele izometrii reprezentate de compunerea dintre o rotaţie şi o translaţie ( mişcări ale planului ), formează un subgrup numit grupul deplasărilor.

In spaţiul punctual euclidian tridimensional E3 = (E3,V 3 , ),izometriile T : E3 E3 , T(x1,x2,x3) = (y1,y2,y3) , sunt transformările caracterizate de ecuaţiile :

(5.13)

în care matricea A = (aij) , i,j = este o matrice ortogonală, iar punctul de coordonate (b1,b2,b3) ete translatatul originii reperului cartezian ortonormat R (O; ) din E3 .

Probleme

1. Să se studieze care dintre următoarele aplicaţii sunt transformări liniare?

T: R2 R2 , T(x1,x2) = (x1-x2,x1+x2)T: R2 R2, T(x1,x2) = (x1cos - x2sin , x1sin + x2cos), R T: R3 R3, T(x1,x2,x3) = (x1-2x2+3x3, 2x3 , x1+x2 )T: R2 R3, T(x1 x2) = (x1-x2,x1+x2,0)T: R2 R3, T(x1 x2) = (x1x2 ,x1,x2) .

2. Să se demonstreze că următoarele transformări sunt liniare ;a) T: V3 R , T( ) =

135

Page 30: Cap-06 (Transformari Liniare)

b) T: C(n)[0,1] C( o[0,1] , Tf = , i R

c) T: C[0,1] C( [0,1] , (Tf)(x) =

3. Să se determine transformările liniare T: R3 R3 ,T(vi) = wi ,undev1 = (1,1,0), v2 = (1,0,1), v3 = (0,1,1) iar w1 = (2,1,0),w2=(-1,0,1), w3=(1,1,1).

Determinaţi acele transformări pentru care T 3 = T .

4. Să se arate că transformarea T: R2 R3, T(x1 x2) = (x1-x,x1+x2,2x1+3x2) este injectibvă ,dar nu este surjectivă.

5. Se determine KerT şi ImT pentru transformarea T: R3 R4 ,T(x1,x2,x3) = ( -x1 + x2+x3,x1-x2+x3,2x3,x1-x2) şi să se verifice relaţia dim KerT + dim Im T = 3 .

6. Fie transformarea T: R3 R3 ,dată în baza canonică prin matricea

A =

a) Să se determine subspaţiul vectorial T-1(W) pentru subspaţiul W = { (x1,x2,x3)R3 ½x1+ x2+ x3 =0 }.

b) Determinaţi căte o bază în subspaţiile Ker T şi Im T .

7. Să se arate că aplicaţia T : V3 V3 , T( , V3 -fixat este liniară . Determinaţi Ker T , Im T şi verificaţi teorema rangului.

8. Pe spaţiul R3 considerăm proiecţiile Ti pe cele trei axe de coordonate

Să se demonstreze că R3 = şi , ij=1,2,3

9. Arătaţi că endomorfismul T : R3R3 dat de matricea

A= este nilpotent de indice 2 (T2 = 0 ).

O transformare cu această proprietate se numeşte structură tangentă.

10. Arătaţi că transformarea T : R2n R2n definită prin relaţiaT(x) =(xn+1,xn+2,…,x2n,-x1,-x2,…,xn) are proprietatea T2 = - Id.R2n .O transformare cu această proprietate se numeşte structură complexă.

136

Page 31: Cap-06 (Transformari Liniare)

11. Să se determine transformarea liniară care transformă punctul (x1,x2,x3) R3 în simetricul său faţă de planul x1 +x2 + x3 = 0 şi să se arate că transformarea astfel determinată este ortogonală.

12. Să se afle valorile şi vectorii proprii pentru endomorfismul T: R3 R3 caracterizat de matricea

A= , A= , A= , A= .

13. Să se studieze posibilitatea reducerii la formă canonică şi în caz afirmativ să se găsească matricea diagonalizatoare , pentru endomorfismele caracterizate de matricele:

A= , A= , A= , A= .

14. Să se determine forma canonică Jordan pentru matricele

A = , A = , A = .

15. Să se determine în spaţiul R4 o bază ortonormată în raport cu careendomorfismul T : R4 R4 , T(x) = (-x1 +x4,-x2,-x3-2x4, x1-2x3 +3x4) admite forma canonică .

16. Folosind teorema Hamilton-Cayley să se calculeze A-1 şi P(A), P(x) = x4 + x3 +x2 +x + 1, pentru matricele :

A = , A= , A= ,A = .

137