12/08/2016

FUENTES DE INFORMACION

TRANSFORMACIONES LINEALES


  • https://sites.google.com/site/sistemasalgebralineal/unidad-5---transformaciones-lineales/5-1-introduccion-a-las-transformaciones-lineales
  • http://www.matem.unam.mx/~rgomez/algebra/seccion_2.html
  • http://www.dcb.unam.mx/users/normapla/Guia%20TEMA%203%20(Transformaciones%20Lineales).pdf
  • http://mitecnologico.com/igestion/Main/IntroduccionALasTransformacionesLineales
  • http://mate.dm.uba.ar/~jeronimo/algebra_lineal/Capitulo3.pdf


ESPACIOS VECTORIALES


  • http://www.uco.es/geometria/documentos/Tema3Biologia_EspaciosVectoriales.pdf
  • http://www.ugr.es/~rcamino/docencia/geo1-03/g1tema1.pdf
  • http://mate.dm.uba.ar/~jeronimo/algebra_lineal/Capitulo1.pdf
  • http://www.matem.unam.mx/~rgomez/algebra/seccion_1.html


VECTORES CARACTERÍSTICOS


  • http://fcm.ens.uabc.mx/~matematicas/algebralineal/VI%20Valores%20y%20Vectores%20Propios/01%20propios.htm


VALORES Y VECTORES PROPIOS


El vector característico o propio   ῡ  de la matriz A de n x n es una matriz de n x 1   tal que   Aῡ = λ   donde λ es un valor escalar real que recibe el nombre de valor característico o propio.
  
La alternativa más obvia sería el vector característico cero.  Este último se descarta ya que la condición  Aῡ = λ  se cumpliría para cualquier valor de λ teniendo entonces un número infinito de soluciones para λ

Con la finalidad de encontrar el valor de λ, se analiza la expresión Aῡ=λ   de la cual λ se puede escribir como (λI) y, por lo tanto, 

λῡ =Aῡ  
λῡ -Aῡ=0
(λI) -A ῡ=0
(λI -A) ῡ=0

esta última representa un sistema homogéneo de n ecuaciones que tiene al menos la solución trivial.  La única manera de que tenga soluciones no triviales es que

det(λI -A)=0


La ecuación det(λI -A)=0 recibe el nombre de ecuación o polinomio característico de A.

 Se puede demostrar que det(λI -A) es un polinomio cuyo grado coincide con el tamaño de la matriz A; sea n. Se llama polinomio característico. Como mucho tiene n raíces distintas.

Ejemplo 
Sea A una matriz                        

Determinar sus valores y vectores propios.
La matriz identidad I multiplicada por λ para matrices 2x2 queda
   



La diferencia         



cuyo determinante se puede escribir



que es el polinomio característico.   Mediante factorizacion o por la fórmula general obtenemos sus raíces, o valores característicos,

λ1=3  ,    λ2=-2

Para encontrar los vectores propios de la matriz A se utiliza (λI -A) ῡ=0
  donde   es el vector propio:



Substituyendo λ1 se tiene



que representa el siguiente sistema homogéneo de ecuaciones lineales:

-x-y=0
6x+6y=0

cuya solución es x=-y   y  y es variable libre.   De modo que el vector propio que corresponde a λ1  es:




Si   y = 1



A manera de comprobación se puede verificar que Aῡ111.

El segundo vector propio se obtiene, de la misma manera, sustituyendo λ2, y  queda



de donde el vector 2 es


Si  y = 6



Se puede verificar que  Aῡ222.

CAMBIO DE BASE DE UNA TRANSFORMACIÓN LINEAL

Coordenadas de un vector en una base
Sea E un espacio vectorial sobre un campo F, E=(e1,...,en) una base en E. Dado a ∈ , existe una única tupla  (λ1, . . . , λn) ∈ F^n tal que

Los escalares λ1, . . . , λn son coordenadas de a en la base E, el vector (λ1, . . . , λn)^ T es el vector de coordenadas y se denota por xE.   

Matriz de cambio de base

Sean E = (e1, . . . , en), F = (f1, . . . , fn) bases en E. Entonces la matriz compuesta de las columnas (f1)F, . . . ,(fn)F se llama matriz del cambio de base de E por F y se denota por PE-->F. Las coordenadas de un vector a en dos bases E y F son relacionadas mediante la siguiente regla:

                                                                       xE = PE-->fXf

EJEMPLO
Sea A = (a1, a2, a3) una base en E y B = (b1, b2, b3), donde

                           b1 = 3a1 − 2a2 + 4a3, b2 = 4a1 + a2 + 5a3, b3 = 7a1 − a2 + 6a3.

 Consideremos la matriz del sistema B en base A:

                                            P A-->B= {(3,4,7) ; (-2,1.-1) ; (4,5,6)}

Como det(P A-->B) = −33, la matriz P A-->B es invertible, y por eso B es una base.

PROPIEDADES

Sean A, B, C bases en un espacio vectorial. Entonces:

  • P A→C = P A→B P B→C. 
  • P A→A = I. 
  • P B→A = P −1 A→B .









                                                          

MATRIZ DE UNA TRANSFORMACIÓN MATRICIAL

Si V y W son k-espacios vectoriales de dimensión n y  respectivamente, una transformación lineal f:V-->W queda univocamente determinada por los n vectores de W que son los valore de f en una base cualquiera de V. 

Además, fijada una base de W, estos n vectores quedan determinados por medio de sus vectores de coordenadas en k^m. Se define entonces una matriz asociada a f que contiene toda esta información.

Sean V y W dos k-espacios vectoriales de dimensión finita. Sean B1={V1,...,Vn} una base de V y B2={W1,...,Wn} una base de W. Sea f:V-->W una transformación lineal. Supongamos que (Vj)= Σ(i=1->m) αijWi (1<=j<=n).

Se llama matriz de f en las bases B1,B2, y se nota |f|B1B2, a la matriz en K^mxn definida por (|f|B1B2)ij=αij para cada 1<=i<=m, 1<=j<=n,

Ejemplo.

Sea f:R^3-->R^2, f(x1,x2,x3)=(x1+2(x2)-x3, x1+3(x2)), y sean B1 y B2 las bases canónicas de R^3 y R^2 respectivamente. Se tiene que:


                          f(1,0,0)=(1,1),    f(0,1,0)=(2,3),     f(0,0,1)=(-1,0)

Entonces |f|B1B2= {(1,2,-1) ; (1,3,0)}.

Observaciones 

Si consideramos una transformación lineal asociada a una matriz A ∈ K^n×m, fA:k^m-->k^n definida por fA(x)=Ax, entonces, a partir de la definición anterior, la matriz de fA en las bases canónicas E y E' de K^m y K^n respectivamente resulta ser |fA|EE'=A.

Sea V un K-espacio vectorial de dimensión n, y sean B1 y B2 bases de V. Entonces |idv|B1B2=C(B1,B2), la matriz de cambio de base de B1 a B2.

Mediante el uso de las matrices y de vectores de coordenadas, toda transformación lineal puede representarse como la multiplicación por una matriz fija,

Proposición

Sean V y W dos k-espacios vectoriales de dimensión finita, y sea f: V-->W una transformación lineal. Si B1 Y B2 son bases de V y W respectivamente, entonces para cada x  ∈ V,

                                                            |f|B1B2.(x)B1=(f(x))B2


















11/28/2016

COMPOSICIÓN DE TRANSFORMACIONES LINEALES

La composición de funciones usual puede realizarse, en particular, entre dos transformaciones lineales. El resultado es, en este caso, una nueva transformación lineal.

PROPOSICIÓN

Sean V, W y Z K-espacios vectoriales. Sean f : V → W y g : W → Z transformaciones lineales. Entonces g ◦ f : V → Z es una transformación lineal.

Demostración. Sean v, v0 ∈ V . Entonces

g ◦ f(v + v') = g ( f(v + v' ) ) = g ( f(v) + f(v' ) ) = g(f(v)) + g(f(v' )) = g ◦ f(v) + g ◦ f(v' ).

Análogamente, si λ ∈ K y v ∈ V , se tiene que
g ◦ f(λ · v) = g(f(λ · v)) = g(λ · f(v)) = λ · g(f(v)) = λ · (g ◦ f(v)).

Finalmente, analizamos las propiedades de la función inversa de una transformación lineal biyectiva (es decir, un isomorfismo).

PROPOSICIÓN

Sean V y W dos K-espacios vectoriales y sea f : V → W una transformación lineal. Si f es un isomorfismo, entonces f −1 : W → V es una transformación lineal (que resulta ser un isomorfismo).

Demostración. Sean w, w0 ∈ W. Como f es un isomorfismo, existen únicos v, v0 ∈ V tales que w = f(v) y w 0 = f(v 0 ). Entonces

f^−1 (w + w´) = f^−1 (f(v) + f(v')) = f ^−1 (f(v + v' )) = v + v' = f−1 (w) + f ^−1 (w' ).

Dados w ∈ W y λ ∈ K, existe un único v ∈ V tal que w = f(v). Entonces
f^−1 (λ · w) = f ^−1 (λ · f(v)) = f^ −1 (f(λ · v)) = λ · v = λ · (f ^−1 (w)).

Luego, f^ −1 es una transformación lineal. Es claro que es biyectiva.

NÚCLEO E IMAGEN DE UNA TRANSFORMACIÓN LINEAL

A una transformación lineal F:V-->W podemos asociarle un subespacio de V, llamado su núcleo, que de alguna manera mide el tamaño de la pre-imagen por f de un elemento de su imagen. En particular, conocer este subespacio nos permitirá determinar si f es inyectiva.

Sean V y W dos K-espacios vectoriales, y sea f : V --> W una transformación lineal. Se llama núcleo de f al conjunto Nu(f) = {v ∈ V / f(v) = 0} = f^ −1 ({0}).

Observamos que si f : V --> W es una transformación lineal, Nu(f) es un subespacio de V , puesto que es la pre-imagen por f del subespacio {0} ⊂ W.

EJEMPLO

Sea f : R 3 --> R 2 la transformación lineal definida por f(x1, x2, x3) = (x1, x2). Entonces 

                                     Nu(f) = {(x1, x2, x3) ∈ R 3 : f(x1, x2, x3) = 0}
                                     = {(x1, x2, x3) ∈ R 3 : x1 = x2 = 0} 
                                     = < (0, 0, 1) > . 

PROPOSICIÓN 

Sea f : V --> W una transformaci´on lineal. 
Entonces f es monomorfismo <==> Nu(f) = {0}

DEMOSTRACIÓN 


  • Si f es un monomorfismo, entonces es una función inyectiva. En particular, existe a lo sumo un elemento v ∈ V tal que f(v) = 0. Puesto que f(0) = 0, debe ser v = 0. Luego, Nu(f) = {0}
  • Sean v, v0 ∈ V . Supongamos que f(v) = f(v 0 ). Entonces f(v − v 0 ) = f(v) − f(v 0 ) = 0, con lo que v−v 0 ∈ Nu(f) y por lo tanto, la hipótesis Nu(f) = {0} implica que v−v 0 = 0, es decir, v = v 0 . Luego f es inyectiva.
 Otro conjunto importante asociado a una transformación lineal es su imagen. Recordamos que si f : V → W, su imagen se define como Im(f) = {w ∈ W / ∃ v ∈ V, f(v) = w}. De la Proposición se desprende que la imagen de una transformación lineal f : V → W resulta ser un subespacio de W.


EJEMPLO

Hallar la imagen de la transformación lineal f : R 3 → R 3 definida como f(x1, x2, x3) = (x1 − x2, −x1 + x2, 2x1 − 2x2 + x3). 

Por definición,
                                      Im(f) = {y ∈ R 3 / ∃ x ∈ R 3 , f(x) = y} 
                                       = {y ∈ R 3 / ∃ (x1, x2, x3) ∈ R 3 , (x1 − x2, x1 − x2, 2x1 − 2x2 + x3) = y}.
 Entonces, un elemento de y pertenece a Im(f) si y sólo si es de la forma 
  
                                      y = (x1 − x2, −x1 + x2, 2x1 − 2x2 + x3) 
                                       = (x1, −x1, 2x1) + (−x2, x2, −2x2) + (0, 0, x3) 
                                       = x1.(1, −1, 2) + x2.(−1, 1, −2) + x3.(0, 0, 1).

Luego, Im(f) = < (1, −1, 2),(−1, 1, −2),(0, 0, 1) > = < (1, −1, 2),(0, 0, 1) >.





EJEMPLOS DE TRANSFORMACIONES LINEALES

1.Sean V y W dos K-espacios vectoriales. Entonces 0:V-->W, definida por 0(x)=0w ∀ x ∈ V, es una transformación lineal.

2. Si V es un K-espacio vectorial, id : V --> V definida por id(x) = x es una transformación lineal.

3. Sea A ∈ Km×n. Entonces fA : Kn → Km definida por fA(x) = (A.xt ) t es una transformación lineal.

4. f : K[X] → K[X], f(P) = P 0 es una transformación lineal.

5. F : C(R) → R, donde C(R) = {f : R --> R | f es continua}, F(g) = R 1 0 g(x) dx es una transformación lineal.

Las transformaciones lineales respetan la estructura de K-espacio vectorial. Esto hace que en algunos casos se respete la estructura de subespacio, por ejemplo en las imágenes y pre-imágenes de subespacios por transformaciones lineales:

Sea f : V → W una transformación lineal. Entonces:

1. Si S es un subespacio de V , entonces f(S) es un subespacio de W. 

2. Si T es un subespacio de W, entonces f −1 (W) es un subespacio de V .

Demostración.

1. Sea S ⊆ V un subespacio y consideremos f(S) = {w ∈ W / ∃ s ∈ S, f(s) = w}.

(a) 0W ∈ f(S), puesto que f(0V ) = 0W y 0V ∈ S.

(b) Sean w, w0 ∈ f(S). Entonces existen s, s0 ∈ S tales que w = f(s) y w 0 = f(s 0 ). Luego w + w 0 = f(s) + f(s 0 ) = f(s + s 0 ) ∈ f(S), puesto que s + s 0 ∈ S. 

(c) Sean λ ∈ K y w ∈ f(S). Existe s ∈ S tal que w = f(s). Entonces λ·w = λ·f(s) = f(λ · s) ∈ f(S), puesto que λ · s ∈ S.

2. Sea T un subespacio de W y consideremos f ^−1 (T) = {v ∈ V / f(v) ∈ T}.

(a) 0V ∈ f^ −1 (T), puesto que f(0V ) = 0W ∈ T. 

(b) Sean v, v0 ∈ f^ −1 (T). Entonces f(v), f(v 0 ) ∈ T y, por lo tanto, f(v + v 0 ) = f(v) + f(v 0 ) ∈ T. Luego v + v 0 ∈ f^ −1 (T). 

(c) Sean λ ∈ K, v ∈ f ^−1 (T). Entonces f(v) ∈ T y, en consecuencia, f(λ·v) = λ·f(v) ∈ T. Luego λ · v ∈ f ^−1 (T).