12/08/2016

FUENTES DE INFORMACION

TRANSFORMACIONES LINEALES


  • https://sites.google.com/site/sistemasalgebralineal/unidad-5---transformaciones-lineales/5-1-introduccion-a-las-transformaciones-lineales
  • http://www.matem.unam.mx/~rgomez/algebra/seccion_2.html
  • http://www.dcb.unam.mx/users/normapla/Guia%20TEMA%203%20(Transformaciones%20Lineales).pdf
  • http://mitecnologico.com/igestion/Main/IntroduccionALasTransformacionesLineales
  • http://mate.dm.uba.ar/~jeronimo/algebra_lineal/Capitulo3.pdf


ESPACIOS VECTORIALES


  • http://www.uco.es/geometria/documentos/Tema3Biologia_EspaciosVectoriales.pdf
  • http://www.ugr.es/~rcamino/docencia/geo1-03/g1tema1.pdf
  • http://mate.dm.uba.ar/~jeronimo/algebra_lineal/Capitulo1.pdf
  • http://www.matem.unam.mx/~rgomez/algebra/seccion_1.html


VECTORES CARACTERÍSTICOS


  • http://fcm.ens.uabc.mx/~matematicas/algebralineal/VI%20Valores%20y%20Vectores%20Propios/01%20propios.htm


VALORES Y VECTORES PROPIOS


El vector característico o propio   ῡ  de la matriz A de n x n es una matriz de n x 1   tal que   Aῡ = λ   donde λ es un valor escalar real que recibe el nombre de valor característico o propio.
  
La alternativa más obvia sería el vector característico cero.  Este último se descarta ya que la condición  Aῡ = λ  se cumpliría para cualquier valor de λ teniendo entonces un número infinito de soluciones para λ

Con la finalidad de encontrar el valor de λ, se analiza la expresión Aῡ=λ   de la cual λ se puede escribir como (λI) y, por lo tanto, 

λῡ =Aῡ  
λῡ -Aῡ=0
(λI) -A ῡ=0
(λI -A) ῡ=0

esta última representa un sistema homogéneo de n ecuaciones que tiene al menos la solución trivial.  La única manera de que tenga soluciones no triviales es que

det(λI -A)=0


La ecuación det(λI -A)=0 recibe el nombre de ecuación o polinomio característico de A.

 Se puede demostrar que det(λI -A) es un polinomio cuyo grado coincide con el tamaño de la matriz A; sea n. Se llama polinomio característico. Como mucho tiene n raíces distintas.

Ejemplo 
Sea A una matriz                        

Determinar sus valores y vectores propios.
La matriz identidad I multiplicada por λ para matrices 2x2 queda
   



La diferencia         



cuyo determinante se puede escribir



que es el polinomio característico.   Mediante factorizacion o por la fórmula general obtenemos sus raíces, o valores característicos,

λ1=3  ,    λ2=-2

Para encontrar los vectores propios de la matriz A se utiliza (λI -A) ῡ=0
  donde   es el vector propio:



Substituyendo λ1 se tiene



que representa el siguiente sistema homogéneo de ecuaciones lineales:

-x-y=0
6x+6y=0

cuya solución es x=-y   y  y es variable libre.   De modo que el vector propio que corresponde a λ1  es:




Si   y = 1



A manera de comprobación se puede verificar que Aῡ111.

El segundo vector propio se obtiene, de la misma manera, sustituyendo λ2, y  queda



de donde el vector 2 es


Si  y = 6



Se puede verificar que  Aῡ222.

CAMBIO DE BASE DE UNA TRANSFORMACIÓN LINEAL

Coordenadas de un vector en una base
Sea E un espacio vectorial sobre un campo F, E=(e1,...,en) una base en E. Dado a ∈ , existe una única tupla  (λ1, . . . , λn) ∈ F^n tal que

Los escalares λ1, . . . , λn son coordenadas de a en la base E, el vector (λ1, . . . , λn)^ T es el vector de coordenadas y se denota por xE.   

Matriz de cambio de base

Sean E = (e1, . . . , en), F = (f1, . . . , fn) bases en E. Entonces la matriz compuesta de las columnas (f1)F, . . . ,(fn)F se llama matriz del cambio de base de E por F y se denota por PE-->F. Las coordenadas de un vector a en dos bases E y F son relacionadas mediante la siguiente regla:

                                                                       xE = PE-->fXf

EJEMPLO
Sea A = (a1, a2, a3) una base en E y B = (b1, b2, b3), donde

                           b1 = 3a1 − 2a2 + 4a3, b2 = 4a1 + a2 + 5a3, b3 = 7a1 − a2 + 6a3.

 Consideremos la matriz del sistema B en base A:

                                            P A-->B= {(3,4,7) ; (-2,1.-1) ; (4,5,6)}

Como det(P A-->B) = −33, la matriz P A-->B es invertible, y por eso B es una base.

PROPIEDADES

Sean A, B, C bases en un espacio vectorial. Entonces:

  • P A→C = P A→B P B→C. 
  • P A→A = I. 
  • P B→A = P −1 A→B .









                                                          

MATRIZ DE UNA TRANSFORMACIÓN MATRICIAL

Si V y W son k-espacios vectoriales de dimensión n y  respectivamente, una transformación lineal f:V-->W queda univocamente determinada por los n vectores de W que son los valore de f en una base cualquiera de V. 

Además, fijada una base de W, estos n vectores quedan determinados por medio de sus vectores de coordenadas en k^m. Se define entonces una matriz asociada a f que contiene toda esta información.

Sean V y W dos k-espacios vectoriales de dimensión finita. Sean B1={V1,...,Vn} una base de V y B2={W1,...,Wn} una base de W. Sea f:V-->W una transformación lineal. Supongamos que (Vj)= Σ(i=1->m) αijWi (1<=j<=n).

Se llama matriz de f en las bases B1,B2, y se nota |f|B1B2, a la matriz en K^mxn definida por (|f|B1B2)ij=αij para cada 1<=i<=m, 1<=j<=n,

Ejemplo.

Sea f:R^3-->R^2, f(x1,x2,x3)=(x1+2(x2)-x3, x1+3(x2)), y sean B1 y B2 las bases canónicas de R^3 y R^2 respectivamente. Se tiene que:


                          f(1,0,0)=(1,1),    f(0,1,0)=(2,3),     f(0,0,1)=(-1,0)

Entonces |f|B1B2= {(1,2,-1) ; (1,3,0)}.

Observaciones 

Si consideramos una transformación lineal asociada a una matriz A ∈ K^n×m, fA:k^m-->k^n definida por fA(x)=Ax, entonces, a partir de la definición anterior, la matriz de fA en las bases canónicas E y E' de K^m y K^n respectivamente resulta ser |fA|EE'=A.

Sea V un K-espacio vectorial de dimensión n, y sean B1 y B2 bases de V. Entonces |idv|B1B2=C(B1,B2), la matriz de cambio de base de B1 a B2.

Mediante el uso de las matrices y de vectores de coordenadas, toda transformación lineal puede representarse como la multiplicación por una matriz fija,

Proposición

Sean V y W dos k-espacios vectoriales de dimensión finita, y sea f: V-->W una transformación lineal. Si B1 Y B2 son bases de V y W respectivamente, entonces para cada x  ∈ V,

                                                            |f|B1B2.(x)B1=(f(x))B2


















11/28/2016

COMPOSICIÓN DE TRANSFORMACIONES LINEALES

La composición de funciones usual puede realizarse, en particular, entre dos transformaciones lineales. El resultado es, en este caso, una nueva transformación lineal.

PROPOSICIÓN

Sean V, W y Z K-espacios vectoriales. Sean f : V → W y g : W → Z transformaciones lineales. Entonces g ◦ f : V → Z es una transformación lineal.

Demostración. Sean v, v0 ∈ V . Entonces

g ◦ f(v + v') = g ( f(v + v' ) ) = g ( f(v) + f(v' ) ) = g(f(v)) + g(f(v' )) = g ◦ f(v) + g ◦ f(v' ).

Análogamente, si λ ∈ K y v ∈ V , se tiene que
g ◦ f(λ · v) = g(f(λ · v)) = g(λ · f(v)) = λ · g(f(v)) = λ · (g ◦ f(v)).

Finalmente, analizamos las propiedades de la función inversa de una transformación lineal biyectiva (es decir, un isomorfismo).

PROPOSICIÓN

Sean V y W dos K-espacios vectoriales y sea f : V → W una transformación lineal. Si f es un isomorfismo, entonces f −1 : W → V es una transformación lineal (que resulta ser un isomorfismo).

Demostración. Sean w, w0 ∈ W. Como f es un isomorfismo, existen únicos v, v0 ∈ V tales que w = f(v) y w 0 = f(v 0 ). Entonces

f^−1 (w + w´) = f^−1 (f(v) + f(v')) = f ^−1 (f(v + v' )) = v + v' = f−1 (w) + f ^−1 (w' ).

Dados w ∈ W y λ ∈ K, existe un único v ∈ V tal que w = f(v). Entonces
f^−1 (λ · w) = f ^−1 (λ · f(v)) = f^ −1 (f(λ · v)) = λ · v = λ · (f ^−1 (w)).

Luego, f^ −1 es una transformación lineal. Es claro que es biyectiva.

NÚCLEO E IMAGEN DE UNA TRANSFORMACIÓN LINEAL

A una transformación lineal F:V-->W podemos asociarle un subespacio de V, llamado su núcleo, que de alguna manera mide el tamaño de la pre-imagen por f de un elemento de su imagen. En particular, conocer este subespacio nos permitirá determinar si f es inyectiva.

Sean V y W dos K-espacios vectoriales, y sea f : V --> W una transformación lineal. Se llama núcleo de f al conjunto Nu(f) = {v ∈ V / f(v) = 0} = f^ −1 ({0}).

Observamos que si f : V --> W es una transformación lineal, Nu(f) es un subespacio de V , puesto que es la pre-imagen por f del subespacio {0} ⊂ W.

EJEMPLO

Sea f : R 3 --> R 2 la transformación lineal definida por f(x1, x2, x3) = (x1, x2). Entonces 

                                     Nu(f) = {(x1, x2, x3) ∈ R 3 : f(x1, x2, x3) = 0}
                                     = {(x1, x2, x3) ∈ R 3 : x1 = x2 = 0} 
                                     = < (0, 0, 1) > . 

PROPOSICIÓN 

Sea f : V --> W una transformaci´on lineal. 
Entonces f es monomorfismo <==> Nu(f) = {0}

DEMOSTRACIÓN 


  • Si f es un monomorfismo, entonces es una función inyectiva. En particular, existe a lo sumo un elemento v ∈ V tal que f(v) = 0. Puesto que f(0) = 0, debe ser v = 0. Luego, Nu(f) = {0}
  • Sean v, v0 ∈ V . Supongamos que f(v) = f(v 0 ). Entonces f(v − v 0 ) = f(v) − f(v 0 ) = 0, con lo que v−v 0 ∈ Nu(f) y por lo tanto, la hipótesis Nu(f) = {0} implica que v−v 0 = 0, es decir, v = v 0 . Luego f es inyectiva.
 Otro conjunto importante asociado a una transformación lineal es su imagen. Recordamos que si f : V → W, su imagen se define como Im(f) = {w ∈ W / ∃ v ∈ V, f(v) = w}. De la Proposición se desprende que la imagen de una transformación lineal f : V → W resulta ser un subespacio de W.


EJEMPLO

Hallar la imagen de la transformación lineal f : R 3 → R 3 definida como f(x1, x2, x3) = (x1 − x2, −x1 + x2, 2x1 − 2x2 + x3). 

Por definición,
                                      Im(f) = {y ∈ R 3 / ∃ x ∈ R 3 , f(x) = y} 
                                       = {y ∈ R 3 / ∃ (x1, x2, x3) ∈ R 3 , (x1 − x2, x1 − x2, 2x1 − 2x2 + x3) = y}.
 Entonces, un elemento de y pertenece a Im(f) si y sólo si es de la forma 
  
                                      y = (x1 − x2, −x1 + x2, 2x1 − 2x2 + x3) 
                                       = (x1, −x1, 2x1) + (−x2, x2, −2x2) + (0, 0, x3) 
                                       = x1.(1, −1, 2) + x2.(−1, 1, −2) + x3.(0, 0, 1).

Luego, Im(f) = < (1, −1, 2),(−1, 1, −2),(0, 0, 1) > = < (1, −1, 2),(0, 0, 1) >.





EJEMPLOS DE TRANSFORMACIONES LINEALES

1.Sean V y W dos K-espacios vectoriales. Entonces 0:V-->W, definida por 0(x)=0w ∀ x ∈ V, es una transformación lineal.

2. Si V es un K-espacio vectorial, id : V --> V definida por id(x) = x es una transformación lineal.

3. Sea A ∈ Km×n. Entonces fA : Kn → Km definida por fA(x) = (A.xt ) t es una transformación lineal.

4. f : K[X] → K[X], f(P) = P 0 es una transformación lineal.

5. F : C(R) → R, donde C(R) = {f : R --> R | f es continua}, F(g) = R 1 0 g(x) dx es una transformación lineal.

Las transformaciones lineales respetan la estructura de K-espacio vectorial. Esto hace que en algunos casos se respete la estructura de subespacio, por ejemplo en las imágenes y pre-imágenes de subespacios por transformaciones lineales:

Sea f : V → W una transformación lineal. Entonces:

1. Si S es un subespacio de V , entonces f(S) es un subespacio de W. 

2. Si T es un subespacio de W, entonces f −1 (W) es un subespacio de V .

Demostración.

1. Sea S ⊆ V un subespacio y consideremos f(S) = {w ∈ W / ∃ s ∈ S, f(s) = w}.

(a) 0W ∈ f(S), puesto que f(0V ) = 0W y 0V ∈ S.

(b) Sean w, w0 ∈ f(S). Entonces existen s, s0 ∈ S tales que w = f(s) y w 0 = f(s 0 ). Luego w + w 0 = f(s) + f(s 0 ) = f(s + s 0 ) ∈ f(S), puesto que s + s 0 ∈ S. 

(c) Sean λ ∈ K y w ∈ f(S). Existe s ∈ S tal que w = f(s). Entonces λ·w = λ·f(s) = f(λ · s) ∈ f(S), puesto que λ · s ∈ S.

2. Sea T un subespacio de W y consideremos f ^−1 (T) = {v ∈ V / f(v) ∈ T}.

(a) 0V ∈ f^ −1 (T), puesto que f(0V ) = 0W ∈ T. 

(b) Sean v, v0 ∈ f^ −1 (T). Entonces f(v), f(v 0 ) ∈ T y, por lo tanto, f(v + v 0 ) = f(v) + f(v 0 ) ∈ T. Luego v + v 0 ∈ f^ −1 (T). 

(c) Sean λ ∈ K, v ∈ f ^−1 (T). Entonces f(v) ∈ T y, en consecuencia, f(λ·v) = λ·f(v) ∈ T. Luego λ · v ∈ f ^−1 (T). 











11/27/2016

TRANSFORMACIONES LINEALES

En términos generales, una transformación es una función que permite transformar un vector que pertenece a un espacio vectorial (dominio) en otro vector que pertenece a otro espacio vectorial (codominio).

 Por esta razón, dicha función es una función vectorial de variable vectorial, es decir, depende de vectores, y es del tipo w = f(V ).

Una transformación se representa como T: V→W, donde V es el “dominio” y W el “codominio” de la transformación T.




ISOMORFISMO

TEOREMA: Los espacios vectoriales de la misma dimensión son isomorfos.

Es decir, todos los espacios vectoriales de la misma dimensión son, algebraicamente hablando, iguales. De esta manera, al estudiar un espacio vectorial cualquiera V, de dimensión n, se puede trabajar con vectores del espacio R^n y el resultado aplicarlo al espacio V.

Un espacio vectorial V es isomorfo con el espacio vectorial Rn si se establece una función biyectiva : n fV R --> entre ambos tal que ∀ ∈ uv V , y ∀ ∈ α R se cumple que:

                                                   f(u+v)=f(u)+f(v)

                                                      f(α*u)=α*f(u)

Cuando se tienen matrices o polinomios, es posible aplicar el concepto de “isomorfismo” si se requiere escribir estos vectores como los renglones de una matriz (por ejemplo, para transformar una matriz a su forma canónica escalonada), o bien, en otros casos, se puede utilizar el isomorfismo para facilitar las operaciones algebraicas.

En la siguiente tabla se proporcionan ejemplos de isomorfismos entre Rn y otros espacios vectoriales:


Para llevar a cabo el isomorfismo, los polinomios pueden ser de cualquier grado y las matrices de cualquier dimensión m×n.




MATRIZ DE TRANSICION

Sea el espacio vectorial V:

            A={U1,U2,U3}
      
            B={W1,W2,W3}

Si se escriben los vectores de la Base A como combinación lineal de los vectores de la Base B:

U1=a1w1+a2w2+a3w3 --> (U1)b=[a1 a2 a3]T

U2=b1w1+b2w2+b3w3 --> (U1)b=[b1 b2 b3]T

U3=c1w1+c2w2+c3w3 --> (U1)b=[c1 c2 c3]T

donde (U1)b, (U2)b, (U3)b  son los vectores de coordenadas de U1 ,U2 ,U3 en la Base B, respectivamente.

La matriz de transición de la Base A a la Base B, M a,b se forma con los vectores de coordenadas de las combinaciones lineales anteriores:

M a,b= {(a1,b1,c1); (a2,b2,c2); (a3, b3, c3)}

CARACTERÍSTICAS DE LA MATRIZ DE TRANSICIÓN: 


  • Sus columnas son vectores de coordenadas obtenidos a partir de la combinación lineal de una base respecto a otra.
  • Son matrices cuadradas (por ser combinaciones lineales entre bases). 
  • Siempre tienen inversa (por ser matrices cuadradas y cumplir det≠0). 


La matriz de transición permite el cambio de coordenadas de una base a otra; por tanto, con la matriz de transición es posible calcular el vector de coordenadas:

(V)b=M a,b (V)a --> vector de coordenadas de V en la base A.

Ademas puesto que la matriz de transición siempre tiene inversa, es posible calcular M b,a, a partir de la matriz M a,b, con tan solo determinar su inversa, es decir:

M b,a = (Ma,b)^-1

VECTOR DE COORDENADAS

Sea el espacio vectorial V:

               A={U1,U2,U3} ---> Base A
               B={W1,W2,W3} --->Base B

Todo vector VєV puede expresarse como combinación lineal de los vectores de las bases:

Para la base A: V=α1V1+α2V2+α3V3

Donde (V)a=[α1,α2,α3]T={α1;α2;α3} es el vector de coordenadas de V en la base A.

Para la Base B: V= β1W1+β2W2+β3W3

Donde (V)b=[β1,β2,β3]T={β1;β2;β3} es el vector de coordenadas de V en la base B.

A partir de una combinación lineal, es posible obtener el llamado vector de coordenadas está constituido por los escalares que intervienen en la combinación lineal referida a una determinada base.


  • El vector de coordenadas es un vector único referido a una base ordenada en particular.
  • El orden en el que aparecen los escalares en el vector de coordenadas, corresponde al orden que tienen los vectores base.

DEPENDENCIA LINEAL

Esta ecuación expresa al vector 0,como una combinacion lineal de los vectores V1,V2,...,Vn:

                α1V1+α2V2+...+αnVn=0

Donde α1,α2,...,αn son escalares y n indica un número finito de vectores.

En la ecuación de dependencia lineal se distinguen dos casos:

CASO I: Al menos un escalar en la ecuación de dependencia lineal es diferente de 0. Cuando esto ocurre, el conjunto se denomina LINEALMENTE DEPENDIENTE (LD).

CASO II: Todos los escalares en la ecuación de dependencia lineal son iguales a 0.Cuando esto ocurre, el conjunto se denomina LINEALMENTE INDEPENDIENTE (LI).



COMBINACIÓN LINEAL

Un vector w es una combinacion lineal de los vectores U1,U2,...,Un, si puede ser expresado como:

                                                         w=α1U1+α2U2+...+αnUn

donde α1,α2,...,αn son escalares y n indica un numero finito de vectores.






SUBESPACIOS VECTORIALES

Para que un subconjunto A sea un subespacio vectorial de V, deben cumplirse las siguientes dos condiciones:


  1. Cerradura para la suma: U+V є A
  2. Cerradura para la multiplicación: αU є A
es decir, que la suma entre vectores y el producto de un escalar  por un vector de como resultado otro vector que tenga la misma forma que los vectores del subcojunto A.

  • Las operaciones de adicion y multiplicacion por un escalar, en este caso generalmente  son las usuales.
  • El subconjunto {0} es un subespacio vectorial,
                    PROPIEDAD IMPORTANTE DE LOS SUBESPACIOS VECTORIALES

La intersección de dos subespacios vectoriales, también es un subespacio vectorial.

Ejemplo:

   A= {(a , 0);(0 , d)} | a,d  є R --> S.E.V

 B= {(a , b);(0 , d)} | a,b,d  є R --> S.E.V


 A∩B={(a , 0);(0 , d)} --> S.E.V







ESPACIO VECTORIAL

Es un conjunto constituido por un numero infinito de vectores, para los cuales se han definido las operaciones de adición y multiplicación por un escalar, y ademas están definidos sobre un determinado campo K.

Los vectores V1,V2,V3,...Vn pueden tener distintas formas, por ejemplo:

R^2:V = (X,Y) ----> Vector en dos dimensiones.

R^3:V = (X,Y,Z)--->Vector en tres dimensiones

M2:V = {(a , b);(c , d)}---> matriz cuadrada 2*2

P:V = ax^2+bx+c ---> polinomio de grado menor o igual a dos.

F:V = f(x) ---> función de cualquier forma
  • Operaciones de adición y multiplicación por un escalar para estos conjuntos generalmente no son las usuales.
  • En cada axioma se debe escribir si se cumple o no se cumple y al final del problema, si el conjunto es o no un espacio vectorial.
Para que un determinado conjunto sea un espacio vectorial, debe satisfacer los siguientes 10 axiomas:

        Sean V un determinado conjunto; y U,V,W vectores que є V.

    1.Cerradura para la suma:
    
            U+V є V

    2.Propiedad conmutativa de la suma:

            U+V=V+U

    3.Propiedad asociativa de la suma:

            U+(V+W) = (U+V)+W

    4.Existencia de vector neutro e:

            e+U=U ---> por la izquierda
            U+e=U ---> por la derecha

    5.Existencia de inversos aditivos Z:

            z+U=e ---> por la izquierda
            U+z=e ---> por la derecha

    6.Cerradura para la multiplicación:

            αU є V

    7.Propiedad distributiva de la multiplicación para la suma de       vectores:
             
            α(U+V)=αU+αV


    8.Propiedad distributiva de la multiplicación para la suma de       escalares:

            (α+β)U=αU+βU

         9.Propiedad asociativa de la multiplicación:

             α(βU)=(α+β)U

         10.Existencia de unidad:

             1*U=U