La composición de funciones usual puede realizarse, en particular, entre dos transformaciones
lineales. El resultado es, en este caso, una nueva transformación lineal.
PROPOSICIÓN
Sean V, W y Z K-espacios vectoriales. Sean f : V → W y g : W → Z
transformaciones lineales. Entonces g ◦ f : V → Z es una transformación lineal.
Demostración. Sean v, v0 ∈ V . Entonces
g ◦ f(v + v') = g ( f(v + v' ) ) = g ( f(v) + f(v' ) ) = g(f(v)) + g(f(v' )) = g ◦ f(v) + g ◦ f(v' ).
Análogamente, si λ ∈ K y v ∈ V , se tiene que
g ◦ f(λ · v) = g(f(λ · v)) = g(λ · f(v)) = λ · g(f(v)) = λ · (g ◦ f(v)).
Finalmente, analizamos las propiedades de la función inversa de una transformación lineal
biyectiva (es decir, un isomorfismo).
PROPOSICIÓN
Sean V y W dos K-espacios vectoriales y sea f : V → W una transformación
lineal. Si f es un isomorfismo, entonces f
−1
: W → V es una transformación lineal
(que resulta ser un isomorfismo).
Demostración. Sean w, w0 ∈ W. Como f es un isomorfismo, existen únicos v, v0 ∈ V tales
que w = f(v) y w
0 = f(v
0
). Entonces
f^−1
(w + w´) = f^−1
(f(v) + f(v')) = f ^−1
(f(v + v' )) = v + v' = f−1
(w) + f ^−1
(w' ).
Dados w ∈ W y λ ∈ K, existe un único v ∈ V tal que w = f(v). Entonces
f^−1
(λ · w) = f ^−1
(λ · f(v)) = f^ −1
(f(λ · v)) = λ · v = λ · (f ^−1
(w)).
Luego, f^ −1
es una transformación lineal. Es claro que es biyectiva.
11/28/2016
NÚCLEO E IMAGEN DE UNA TRANSFORMACIÓN LINEAL
A una transformación lineal F:V-->W podemos asociarle un subespacio de V, llamado su núcleo, que de alguna manera mide el tamaño de la pre-imagen por f de un elemento de su imagen. En particular, conocer este subespacio nos permitirá determinar si f es inyectiva.
Sean V y W dos K-espacios vectoriales, y sea f : V --> W una transformación
lineal. Se llama núcleo de f al conjunto Nu(f) = {v ∈ V / f(v) = 0} = f^ −1
({0}).
Observamos que si f : V --> W es una transformación lineal, Nu(f) es un subespacio de
V , puesto que es la pre-imagen por f del subespacio {0} ⊂ W.
EJEMPLO
Sea f : R
3 --> R
2
la transformación lineal definida por f(x1, x2, x3) = (x1, x2).
Entonces
Nu(f) = {(x1, x2, x3) ∈ R
3
: f(x1, x2, x3) = 0}
= {(x1, x2, x3) ∈ R
3
: x1 = x2 = 0}
= < (0, 0, 1) > .
PROPOSICIÓN
Sea f : V --> W una transformaci´on lineal.
Entonces
f es monomorfismo <==> Nu(f) = {0}
DEMOSTRACIÓN
- Si f es un monomorfismo, entonces es una función inyectiva. En particular, existe a lo sumo un elemento v ∈ V tal que f(v) = 0. Puesto que f(0) = 0, debe ser v = 0. Luego, Nu(f) = {0}
- Sean v, v0 ∈ V . Supongamos que f(v) = f(v 0 ). Entonces f(v − v 0 ) = f(v) − f(v 0 ) = 0, con lo que v−v 0 ∈ Nu(f) y por lo tanto, la hipótesis Nu(f) = {0} implica que v−v 0 = 0, es decir, v = v 0 . Luego f es inyectiva.
Otro conjunto importante asociado a una transformación lineal es su imagen. Recordamos
que si f : V → W, su imagen se define como Im(f) = {w ∈ W / ∃ v ∈ V, f(v) = w}. De la
Proposición se desprende que la imagen de una transformación lineal f : V → W resulta
ser un subespacio de W.
EJEMPLO
Hallar la imagen de la transformación lineal f : R
3 → R
3 definida como
f(x1, x2, x3) = (x1 − x2, −x1 + x2, 2x1 − 2x2 + x3).
Por definición,
Im(f) = {y ∈ R
3
/ ∃ x ∈ R
3
, f(x) = y}
= {y ∈ R
3
/ ∃ (x1, x2, x3) ∈ R
3
, (x1 − x2, x1 − x2, 2x1 − 2x2 + x3) = y}.
Entonces, un elemento de y pertenece a Im(f) si y sólo si es de la forma
y = (x1 − x2, −x1 + x2, 2x1 − 2x2 + x3)
= (x1, −x1, 2x1) + (−x2, x2, −2x2) + (0, 0, x3)
= x1.(1, −1, 2) + x2.(−1, 1, −2) + x3.(0, 0, 1).
EJEMPLOS DE TRANSFORMACIONES LINEALES
1.Sean V y W dos K-espacios vectoriales. Entonces 0:V-->W, definida por 0(x)=0w ∀ x ∈ V, es una transformación lineal.
2. Si V es un K-espacio vectorial, id : V --> V definida por id(x) = x es una transformación lineal.
3. Sea A ∈ Km×n. Entonces fA : Kn → Km definida por fA(x) = (A.xt ) t es una transformación lineal.
4. f : K[X] → K[X], f(P) = P 0 es una transformación lineal.
5. F : C(R) → R, donde C(R) = {f : R --> R | f es continua}, F(g) = R 1 0 g(x) dx es una transformación lineal.
Las transformaciones lineales respetan la estructura de K-espacio vectorial. Esto hace que en algunos casos se respete la estructura de subespacio, por ejemplo en las imágenes y pre-imágenes de subespacios por transformaciones lineales:
Sea f : V → W una transformación lineal. Entonces:
1. Si S es un subespacio de V , entonces f(S) es un subespacio de W.
2. Si T es un subespacio de W, entonces f −1 (W) es un subespacio de V .
Demostración.
1. Sea S ⊆ V un subespacio y consideremos f(S) = {w ∈ W / ∃ s ∈ S, f(s) = w}.
(a) 0W ∈ f(S), puesto que f(0V ) = 0W y 0V ∈ S.
(b) Sean w, w0 ∈ f(S). Entonces existen s, s0 ∈ S tales que w = f(s) y w 0 = f(s 0 ). Luego w + w 0 = f(s) + f(s 0 ) = f(s + s 0 ) ∈ f(S), puesto que s + s 0 ∈ S.
(c) Sean λ ∈ K y w ∈ f(S). Existe s ∈ S tal que w = f(s). Entonces λ·w = λ·f(s) = f(λ · s) ∈ f(S), puesto que λ · s ∈ S.
2. Sea T un subespacio de W y consideremos f ^−1 (T) = {v ∈ V / f(v) ∈ T}.
(a) 0V ∈ f^ −1 (T), puesto que f(0V ) = 0W ∈ T.
(b) Sean v, v0 ∈ f^ −1 (T). Entonces f(v), f(v 0 ) ∈ T y, por lo tanto, f(v + v 0 ) = f(v) + f(v 0 ) ∈ T. Luego v + v 0 ∈ f^ −1 (T).
(c) Sean λ ∈ K, v ∈ f ^−1 (T). Entonces f(v) ∈ T y, en consecuencia, f(λ·v) = λ·f(v) ∈ T. Luego λ · v ∈ f ^−1 (T).
2. Si V es un K-espacio vectorial, id : V --> V definida por id(x) = x es una transformación lineal.
3. Sea A ∈ Km×n. Entonces fA : Kn → Km definida por fA(x) = (A.xt ) t es una transformación lineal.
4. f : K[X] → K[X], f(P) = P 0 es una transformación lineal.
5. F : C(R) → R, donde C(R) = {f : R --> R | f es continua}, F(g) = R 1 0 g(x) dx es una transformación lineal.
Las transformaciones lineales respetan la estructura de K-espacio vectorial. Esto hace que en algunos casos se respete la estructura de subespacio, por ejemplo en las imágenes y pre-imágenes de subespacios por transformaciones lineales:
Sea f : V → W una transformación lineal. Entonces:
1. Si S es un subespacio de V , entonces f(S) es un subespacio de W.
2. Si T es un subespacio de W, entonces f −1 (W) es un subespacio de V .
Demostración.
1. Sea S ⊆ V un subespacio y consideremos f(S) = {w ∈ W / ∃ s ∈ S, f(s) = w}.
(a) 0W ∈ f(S), puesto que f(0V ) = 0W y 0V ∈ S.
(b) Sean w, w0 ∈ f(S). Entonces existen s, s0 ∈ S tales que w = f(s) y w 0 = f(s 0 ). Luego w + w 0 = f(s) + f(s 0 ) = f(s + s 0 ) ∈ f(S), puesto que s + s 0 ∈ S.
(c) Sean λ ∈ K y w ∈ f(S). Existe s ∈ S tal que w = f(s). Entonces λ·w = λ·f(s) = f(λ · s) ∈ f(S), puesto que λ · s ∈ S.
2. Sea T un subespacio de W y consideremos f ^−1 (T) = {v ∈ V / f(v) ∈ T}.
(a) 0V ∈ f^ −1 (T), puesto que f(0V ) = 0W ∈ T.
(b) Sean v, v0 ∈ f^ −1 (T). Entonces f(v), f(v 0 ) ∈ T y, por lo tanto, f(v + v 0 ) = f(v) + f(v 0 ) ∈ T. Luego v + v 0 ∈ f^ −1 (T).
(c) Sean λ ∈ K, v ∈ f ^−1 (T). Entonces f(v) ∈ T y, en consecuencia, f(λ·v) = λ·f(v) ∈ T. Luego λ · v ∈ f ^−1 (T).
11/27/2016
TRANSFORMACIONES LINEALES
En términos generales, una transformación es una
función que permite transformar un vector que
pertenece a un espacio vectorial (dominio) en
otro vector que pertenece a otro espacio vectorial
(codominio).
Por esta razón, dicha función es una función vectorial de variable vectorial, es decir, depende de vectores, y es del tipo w = f(V ).
Una transformación se representa como T: V→W, donde V es el “dominio” y W el “codominio” de la transformación T.
Por esta razón, dicha función es una función vectorial de variable vectorial, es decir, depende de vectores, y es del tipo w = f(V ).
Una transformación se representa como T: V→W, donde V es el “dominio” y W el “codominio” de la transformación T.
ISOMORFISMO
TEOREMA: Los espacios vectoriales de la
misma dimensión son isomorfos.
Es decir, todos los espacios vectoriales de la
misma dimensión son, algebraicamente hablando, iguales. De esta manera, al estudiar un
espacio vectorial cualquiera V, de dimensión n,
se puede trabajar con vectores del espacio R^n y
el resultado aplicarlo al espacio V.
Un espacio vectorial V es isomorfo con el
espacio vectorial Rn si se establece una función
biyectiva : n fV R --> entre ambos tal que
∀ ∈ uv V , y ∀ ∈ α R se cumple que:
f(u+v)=f(u)+f(v)
f(α*u)=α*f(u)
Cuando se tienen matrices o polinomios, es
posible aplicar el concepto de “isomorfismo” si
se requiere escribir estos vectores como los
renglones de una matriz (por ejemplo, para
transformar una matriz a su forma canónica
escalonada), o bien, en otros casos, se puede
utilizar el isomorfismo para facilitar las
operaciones algebraicas.
En la siguiente tabla se
proporcionan ejemplos de isomorfismos entre Rn
y otros espacios vectoriales:
Para llevar a cabo el isomorfismo, los polinomios
pueden ser de cualquier grado y las matrices de cualquier
dimensión m×n.
MATRIZ DE TRANSICION
Sea el espacio vectorial V:
A={U1,U2,U3}
B={W1,W2,W3}
Si se escriben los vectores de la Base A como
combinación lineal de los vectores de la Base B:
U1=a1w1+a2w2+a3w3 --> (U1)b=[a1 a2 a3]T
U2=b1w1+b2w2+b3w3 --> (U1)b=[b1 b2 b3]T
U3=c1w1+c2w2+c3w3 --> (U1)b=[c1 c2 c3]T
donde (U1)b, (U2)b, (U3)b son los vectores de
coordenadas de U1 ,U2 ,U3 en la Base B,
respectivamente.
La matriz de transición de la Base A a la Base B, M a,b se forma con los vectores de coordenadas
de las combinaciones lineales anteriores:
M a,b= {(a1,b1,c1); (a2,b2,c2); (a3, b3, c3)}
CARACTERÍSTICAS DE LA MATRIZ DE
TRANSICIÓN:
- Sus columnas son vectores de coordenadas obtenidos a partir de la combinación lineal de una base respecto a otra.
- Son matrices cuadradas (por ser combinaciones lineales entre bases).
- Siempre tienen inversa (por ser matrices cuadradas y cumplir det≠0).
La matriz de transición permite el cambio de
coordenadas de una base a otra; por tanto, con la
matriz de transición es posible calcular el vector
de coordenadas:
(V)b=M a,b (V)a --> vector de coordenadas de V en la base A.
Ademas puesto que la matriz de transición siempre tiene inversa, es posible calcular M b,a, a partir de la matriz M a,b, con tan solo determinar su inversa, es decir:
M b,a = (Ma,b)^-1
VECTOR DE COORDENADAS
Sea el espacio vectorial V:
A={U1,U2,U3} ---> Base A
B={W1,W2,W3} --->Base B
Todo vector VєV puede expresarse como combinación lineal de los vectores de las bases:
Para la base A: V=α1V1+α2V2+α3V3
Donde (V)a=[α1,α2,α3]T={α1;α2;α3} es el vector de coordenadas de V en la base A.
Para la Base B: V= β1W1+β2W2+β3W3
Donde (V)b=[β1,β2,β3]T={β1;β2;β3} es el vector de coordenadas de V en la base B.
A={U1,U2,U3} ---> Base A
B={W1,W2,W3} --->Base B
Todo vector VєV puede expresarse como combinación lineal de los vectores de las bases:
Para la base A: V=α1V1+α2V2+α3V3
Donde (V)a=[α1,α2,α3]T={α1;α2;α3} es el vector de coordenadas de V en la base A.
Para la Base B: V= β1W1+β2W2+β3W3
Donde (V)b=[β1,β2,β3]T={β1;β2;β3} es el vector de coordenadas de V en la base B.
A partir de una combinación lineal, es posible obtener el llamado vector de coordenadas está constituido por los escalares que intervienen en la combinación lineal referida a una determinada base.
- El vector de coordenadas es un vector único referido a una base ordenada en particular.
- El orden en el que aparecen los escalares en el vector de coordenadas, corresponde al orden que tienen los vectores base.
DEPENDENCIA LINEAL
Esta ecuación expresa al vector 0,como una combinacion lineal de los vectores V1,V2,...,Vn:
α1V1+α2V2+...+αnVn=0
Donde α1,α2,...,αn son escalares y n indica un número finito de vectores.
En la ecuación de dependencia lineal se distinguen dos casos:
CASO I: Al menos un escalar en la ecuación de dependencia lineal es diferente de 0. Cuando esto ocurre, el conjunto se denomina LINEALMENTE DEPENDIENTE (LD).
CASO II: Todos los escalares en la ecuación de dependencia lineal son iguales a 0.Cuando esto ocurre, el conjunto se denomina LINEALMENTE INDEPENDIENTE (LI).
COMBINACIÓN LINEAL
Un vector w es una combinacion lineal de los vectores U1,U2,...,Un, si puede ser expresado como:
w=α1U1+α2U2+...+αnUn
donde α1,α2,...,αn son escalares y n indica un numero finito de vectores.
w=α1U1+α2U2+...+αnUn
donde α1,α2,...,αn son escalares y n indica un numero finito de vectores.
SUBESPACIOS VECTORIALES
Para que un subconjunto A sea un subespacio vectorial de V, deben cumplirse las siguientes dos condiciones:
- Cerradura para la suma: U+V є A
- Cerradura para la multiplicación: αU є A
- Las operaciones de adicion y multiplicacion por un escalar, en este caso generalmente son las usuales.
- El subconjunto {0} es un subespacio vectorial,
PROPIEDAD IMPORTANTE DE LOS SUBESPACIOS VECTORIALES
La intersección de dos subespacios vectoriales, también es un subespacio vectorial.
Ejemplo:
A= {(a , 0);(0 , d)} | a,d є R --> S.E.V
B= {(a , b);(0 , d)} | a,b,d є R --> S.E.V
A∩B={(a , 0);(0 , d)} --> S.E.V
ESPACIO VECTORIAL
Es un conjunto constituido por un numero infinito de vectores, para los cuales se han definido las operaciones de adición y multiplicación por un escalar, y ademas están definidos sobre un determinado campo K.
Los vectores V1,V2,V3,...Vn pueden tener distintas formas, por ejemplo:
R^2:V = (X,Y) ----> Vector en dos dimensiones.
R^3:V = (X,Y,Z)--->Vector en tres dimensiones
M2:V = {(a , b);(c , d)}---> matriz cuadrada 2*2
P:V = ax^2+bx+c ---> polinomio de grado menor o igual a dos.
F:V = f(x) ---> función de cualquier forma
Los vectores V1,V2,V3,...Vn pueden tener distintas formas, por ejemplo:
R^2:V = (X,Y) ----> Vector en dos dimensiones.
R^3:V = (X,Y,Z)--->Vector en tres dimensiones
M2:V = {(a , b);(c , d)}---> matriz cuadrada 2*2
P:V = ax^2+bx+c ---> polinomio de grado menor o igual a dos.
F:V = f(x) ---> función de cualquier forma
- Operaciones de adición y multiplicación por un escalar para estos conjuntos generalmente no son las usuales.
- En cada axioma se debe escribir si se cumple o no se cumple y al final del problema, si el conjunto es o no un espacio vectorial.
Para que un determinado conjunto sea un espacio vectorial, debe satisfacer los siguientes 10 axiomas:
Sean V un determinado conjunto; y U,V,W vectores que є V.
1.Cerradura para la suma:
U+V є V
2.Propiedad conmutativa de la suma:
U+V=V+U
3.Propiedad asociativa de la suma:
U+(V+W) = (U+V)+W
4.Existencia de vector neutro e:
e+U=U ---> por la izquierda
U+e=U ---> por la derecha
5.Existencia de inversos aditivos Z:
z+U=e ---> por la izquierda
U+z=e ---> por la derecha
6.Cerradura para la multiplicación:
αU є V
7.Propiedad distributiva de la multiplicación para la suma de vectores:
α(U+V)=αU+αV
8.Propiedad distributiva de la multiplicación para la suma de escalares:
(α+β)U=αU+βU
9.Propiedad asociativa de la multiplicación:
α(βU)=(α+β)U
10.Existencia de unidad:
1*U=U
Suscribirse a:
Entradas (Atom)