Tareas
Sistemas de ecuaciones lineales y matrices, Parte 1
Definición. Sean K un campo y n un entero positivo. Una #ecuación@
lineal en el campo K con n incógnitas (o n indeterminadas, o variables)
es una igualdad de la forma:
a1x1 + · · · + anxn = c
donde tanto c como a1, . . . , an son elementos fijos en K.
Un #sistema@ de ecuaciones lineales sobre el campo K es un conjunto
de m ecuaciones lineales en K (con m un entero positivo). Un sistema de
m ecuaciones lineales con n incógnitas se escribe usualmente de la siguiente
manera:
a1,1x1 + ... + a1,nxn = c1
a2,1x1 + ... + a2,nxn = c2
⋮
am,1x1 + ... + am,nxn = cm
A los ai,j se les llama los #coeficientes@ del sistema, a los ci se les llama
los términos #constantes@ del sistema, y a los xi se les llama las #variables@, o incógnitas,
o indeterminadas del sistema. Una #solución@ del sistema anterior es una
sucesión s1, . . . , sn de elementos en K que satisface todas las ecuaciones del
sistema, es decir, que cumple
a1,1s1 + ... + a1,nsn = c1
a2,1s1 + ... + a2,nsn = c2
⋮
am,1s1 + ... + am,nsn = cm
El #conjunto@ solución del sistema es el conjunto de todas las soluciones del
sistema. El sistema se llama #consistente@ si tiene al menos una solución, y
se llama #inconsistente@ si no tiene ninguna solución. El sistema se llama
#homogéneo@ si ci = 0 para toda i.
Calcula el conjunto solución usando números reales (es decir, el campo es
K = R):
x1 + x2 = 7
x1 − x2 = 1
x1 debe ser #4@, y x2 debe ser #3@.
Definición. Sea K un campo, y sean n, m enteros positivos. Una #matriz@
con n renglones y m columnas (también llamada una matriz de n por m)
es una colección de n · m elementos de K, llamados las entradas (o los
elementos, o los coeficientes) de la matriz, en donde cada uno de los
n · m elementos se identifica por medio de dos índices. El primer índice es
el número de #renglón@, y toma valores enteros entre 1 y n; el segundo índice
es el número de #columna@, y toma valores enteros entre 1 y m. Si la matriz
se denota con la letra A, su entrada correspondiente al i-ésimo renglón y j-
ésima columna se denota Ai,j, o si no hay lugar a equivocaciones, se omite la
coma y queda Aij. A veces se usan letras mayúsculas para la matriz y letras
minúsculas para sus entradas, o sea que la matriz es A y sus entradas son
ai,j; a esta entrada también se le conoce como la entrada (i, j) de la matriz A.
El #renglón@ (o fila) i-ésimo de la matriz A es la sucesión
Ai1, Ai2, . . . , Aim. La
#columna@ j-ésima de la matriz A es la sucesión
A1j, A2j, . . . , Anj. Decimos que
dos matrices A y B tienen las mismas #dimensiones@ si el número de renglones
de A es igual al número de renglones de B, y el número de columnas de A
es igual al número de columnas de B.
Observación. Dos matrices A y B son iguales si y sólo si tienen el mismo
número de renglones, el mismo número de columnas, y además Aij = B#ij@ para
todos los posibles valores de i y j
Sea
a1,1x1 + ... + a1,nxn = c1
a2,1x1 + ... + a2,nxn = c2
⋮
am,1x1 + ... + am,nxn = cm
un sistema de m ecuaciones con n incógnitas. La matriz #asociada@ al sistema de ecuaciones dado arriba es la matriz con m renglones y n columna
cuyas entradas son los respectivos coeficientes del sistema, es decir, la matriz
A de dimensiones m por n cuya entrada (i,j) es ai,j.
La matriz #aumentada@ asociada al sistema de ecuaciones es la matriz con una columna
adicional, formada por los términos constantes del sistema de ecuaciones.
La matriz asociada al sistema
5x1 + 7x2 = 9
− x2 = 3
es
La matriz aumentada asociada a este sistema es
Definición. Sean A y B matrices con n renglones y m columnas, y
entradas en un campo K. La #suma@ de las matrices A y B , denotada
A + B, es la matriz de n renglones y m columnas cuya entrada (i,j) es igual
a Aij + Bij, es decir, la suma de las entradas (i,j) de A y B.
Definición. Sea A una matriz con n renglones y m columnas cuyas
entradas son elementos de un campo K, y sea a un escalar de K. La #multiplicación@ de la matriz A por el escalar a , denotada aA, es la matriz
con n renglones y m columnas cuya entrada (i, j) es a Aij, es decir, el escalar
a multiplicado por la entrada (i, j) de A.
3 | |
Σ i | = 1 + #2@ + 3 = #6@ |
i=1 | |
Ejemplo.
5 |
|
= |
#10@ | #-5@ | #20@ |
#15@ | #0@ | #5@ |
|
Notación. En lugar de escribir −1A, usualmente escribimos #-A@; en lugar
de A + (−B) escribimos #A-B@.
Teorema. La suma de matrices es #conmutativa@, es decir, que si A y
B son matrices con entradas en un campo K y con las mismas dimensiones,
entonces se pueden definir tanto A+B como B+A, y además A+B = B+A.
Demostración: La hipótesis sobre las dimensiones de A y B garantiza que
tanto A+B como B+A estén bien definidas y tienen las mismas dimensiones.
Resta demostrar que cada entrada (i, j) de A + B es igual a la respectiva
entrada (i, j) de B + A. Se tiene que
(A + B)i,j = A#i,j@ + Bi,j =
Bi,j + Ai,j = (B + #A@)i,j
Teorema. Sean n y m enteros positivos, y sea K un campo. Tenemos que
el conjunto de matrices de n por m con entradas en K tiene un único #neutro@
aditivo, es decir, existe una única matriz, denotada 0 y llamada la matriz
cero de n por m con entradas en K, tal que para cualquier matriz A de n por
m con entradas en K se tiene A +0 =A =0 + A. Más aún, para cualquier
matriz A de n por m con entradas en K se tiene que A +(-A)=0 =-A +A
(donde -A se definió anteriormente). A la matriz -A se le llama el #inverso@
#aditivo@ de la matriz A.
Definición. Sean K un campo, A una matriz de n por m, y B una matriz
de m por t. El #producto@ de las matrices A y B, denotado #AB@, es la matriz
de n por t cuya entrada i,j está dada por el producto punto del i-ésimo renglón de A por la j-ésima
columna de B, es decir
Observación. Note que para poder hacer el producto de las matrices
AB, es necesario que el número de #columnas@ de A sea igual al número de
#renglones@ de B; de lo contrario, su producto #no@ está bien definido. Al escribir
un producto de matrices AB, implícitamente se afirma que las dimensiones
de A y B son apropiadas para que su producto esté bien definido.
Definición. Sea A una matriz con entradas en un campo K. Decimos
que A es una matriz #cuadrada@ si tiene el mismo número de renglones que
de columnas.
Ejemplo. La matriz #identidad@ de n por n, que es la matriz que tiene
unos en la diagonal y ceros en las demás entradas, es una matriz cuadrada.
Definición. Sea A una matriz cuadrada. Entonces podemos definir el
producto AA, el cual denotamos A#2@
y lo llamamos el cuadrado de la matriz A.
Recursivamente definimos todas las potencias enteras positivas An+1 = A#n@A.
Por completez, definimos A1 = #A@.
Proposición. Sean A, B y C matrices con entradas en un campo K.
Supongamos que A es de n por m, y que tanto B como C son de m por t.
Tenemos entonces que las siguientes matrices están bien definidas, y además
A(B + C) = #AB+AC@
Es decir, el producto de matrices distribuye a la suma de matrices por la
derecha.
Teorema. Sean A, B y C matrices con entradas en el campo K. Supongamos que A es de n por m, B es de m por t, y C es de t por s. Entonces todos
los siguientes productos están bien definidos, y además se tiene la igualdad
A(BC) = #(AB)C@ Es decir, el producto de matrices es #asociativo@. Sin embargo,
el producto de matrices no es en general conmutativo, incluso si
está bien definido.
¿Falso o verdadero? Existen dos matrices A y B con entradas en un campo tales
que el producto AB está bien definido pero el producto BA no está definido.
f/v: #v@ Justificación: #H0@
¿Falso o verdadero? Existen dos matrices A y B con entradas en un campo tales
que tanto el producto AB como el producto BA están bien definidos, pero
que tienen distintas dimensiones.
f/v: #v@ Justificación: #H1@
¿Falso o verdadero? Existen dos matrices A y B con entradas en un campo tales
que tanto el producto AB como el producto BA están bien definidos y tienen
las mismas dimensiones, pero AB no es igual a BA. f/v
#v@ Justificación: #H2@
¿Falso o verdadero? Para toda matriz A, AA siempre está bien definido y es igual a A2. f/v
#f@ Justificación: #H3@
Sistemas de ecuaciones lineales y matrices, Parte 2
Ejemplo. El sistema sobre el campo R
x1 + x2 = 4
x1 − x2 = 2
se puede resolver por sustitución, es decir, despejando a x2 de la primera
ecuación y sustituyéndolo en la segunda. Así llegamos a que x1 = #3@ y
x2 = #1@ es la única solución del sistema, que por lo tanto es consistente.
El conjunto solución es {(3,1)}.
El conjunto solución del sistema (sobre el campo R)
x1 + 3x2 = #7@
es el conjunto {(7 − 3t, t) | t ∈ R}. Note que este conjunto es #infinito@,
pues para cada valor del parámetro t hay una solución distinta.
El sistema sobre el campo R
x1 + x2 = 4
x1 + x2 = 2
es #inconsistente@, puesto que el valor de x1 + x2 no puede ser igual a 4 y
a 2 al mismo tiempo.
Ejercicio. Sea I la matriz identidad de n por n con entradas en un
campo K, y sea m otro entero positivo. Entonces Im = #I@.
Ejercicio. Sea 0 la matriz cero de n por n con entradas en un campo
K, y sea m otro entero positivo. Entonces 0m = #0@.
¿Falso o Verdadero? Sea a1, . . . , an una sucesión arbitraria de números reales.
Existe un sistema sobre R de n ecuaciones con n incógnitas cuyo conjunto
solución es el conjunto {(a1, . . . , an)}. f/v: #v@ Justificación: #H0@
¿Falso o Verdadero? Sea A una matriz de n por n tal que A2 = I. Entonces A = I o A = -I . f/v: #f@ Justificación: #H1@
¿Falso o Verdadero? Sea A una matriz de n por n tal que A2 = A. Entonces A = I o A = 0. f/v: #f@ Justificación: #H2@
¿Falso o Verdadero? Sea A una matriz de n por n tal que A2 = 0. Entonces A = 0. f/v: #f@ Justificación: #H3@
Sistemas de ecuaciones lineales y matrices, Parte 3
¿Falso o verdadero? Existe un sistema sobre R cuyo conjunto solución es el
conjunto {(5 − 2t, 4 + t + r, t, r) | t, r ∈ R}. f/v: #v@ Justificación: #H0@
¿Falso o verdadero? Todo sistema inconsistente no constante tiene al menos dos incógnitas. f/v: #f@ Justificación: #H1@
¿Falso o verdadero? Todo sistema inconsistente tiene al menos dos ecuaciones. f/v: #f@ Justificación: #H2@
Todo sistema homogéneo es consistente. Demostración: #H3@
Todo sistema con una única ecuación y al menos una variable es consistente. Demostración: #H4@
Sistemas de ecuaciones lineales y matrices, Parte 4
¿Falso o verdadero? Sea A una matriz con entradas en un campo. Entonces A2
está definida si y sólo si A es una matriz cuadrada. f/v:#v@ Justificación: #H0@
Sean A y B matrices cuadradas del mismo tamaño. Entonces
AB = BA si y sólo si
- #H1@
- #H2@
- #H3@
- #H4@
- #H5@
- #H6@
- #H7@
- #H8@
Sistemas de ecuaciones lineales y matrices, Parte 5
¿Falso o verdadero? No existe una matriz A de dos por dos con entradas en Q tal
que A2 = −I. f/v:#f@ Justificación: #H0@
¿Falso o verdadero? Sean A y B matrices cuadradas del mismo tamaño. Entonces
(A + B)2 = A2 + 2AB + B2
f/v:#f@ Justificación: #H1@
La suma de matrices es asociativa, es decir, que
- #H2@
- #H3@
- #H4@
- #H5@
- #H6@
- #H7@
- #H8@
- #H9@
- #H10@
- #H11@
Matrices elementales y forma escalón reducida por renglones, Parte 1
Definición 72. Sea K un campo, y sea n un entero positivo. La matriz
identidad de tamaño n, denotada In o simplemente I (cuando es claro en
el contexto que todas las matrices son de n renglones y n columnas), es la
matriz con n renglones y n columnas cuya entrada (i, j) es #1@ si i = j, y #0@ si
i es distinto de j.
Ejemplos 73. La matriz identidad de 2 por 2 es
Definición 74. La matriz canónica de n renglones y n columnas de coordenadas (a, u), denotada Enau
(o simplemente Eau si es conocido el valor de
la n), es la matriz cuya entrada (i, j) es #1@ si el par ordenado (i, j) es igual al
par ordenado (a, u), y #0@ en cualquier otro caso.
Ejemplos 75. La matriz canónica de 2 por 2 de coordenadas (1,2) es
Ejemplo 86. Considere la matriz
Sumando 2 veces el segundo renglón al primer renglón de A nos da la
matriz
Intercambiando el primero y el segundo renglón de A nos da
Multiplicando el segundo renglón de A por -2 nos da
Definición 88. Sean A y B matrices de n por m. Decimos que A y B son
#equivalentes@ por renglones (o equivalentes por filas) si B se puede
obtener de A realizando un número finito de operaciones #elementales@ de renglones.
Ejemplo 89. Sea la matriz
Restando 3 veces el primer renglón al segundo nos da la matriz
Dividiendo el segundo renglón de A2 por 2 nos da
Intercambiando el primero y el segundo renglón de A3 nos da
Así, las matrices A1 y A4 son #equivalentes@ por renglones.
Definición 99. Decimos que un escalar del campo K es #nulo@ si es igual a
cero; decimos que un renglón de una matriz es nulo si todas sus entradas son
nulas, y que una #matriz@ es nula si es la matriz cero.
Definición 100. Una matriz A de n por m se dice que es #reducida@ por
renglones (o reducida por filas) si cumple las siguientes condiciones:
1. El primer elemento no nulo de cada renglón no nulo de A es #uno@.
2. Cada columna de A que tiene el primer elemento no nulo de algún
renglón, tiene todos sus otros elementos iguales a #cero@.
Ejemplos 101. La matriz cero es #reducida@ por renglones.
La matriz identidad es reducida por #renglones@.
Las matrices canónicas Eij son #reducidas@ por renglones.
La matriz sobre Q
#no@ es reducida por renglones, pues su primer renglón tiene como primera
entrada no nula un #-1@.
La matriz sobre Q
#no@ es reducida por renglones, pues su segunda columna tiene la primera
entrada no nula del segundo renglón, y su otra entrada es #2@.
Definición 104. Una matriz A de n por m se dice que es #escalón@ reducida
por renglones (o escalón reducida por filas) si cumple las siguientes
condiciones:
1. A es reducida por renglones.
2. Todos los renglones #nulos@ de A están debajo de todos los renglones no
nulos.
3. Dados dos renglones no nulos consecutivos de A, la primera entrada
no nula del renglón de abajo está en una columna estrictamente #mayor@
que la primera entrada no nula del renglón de arriba.
Ejemplos 105. La matriz cero es #escalón@ reducida por renglones.
La matriz identidad es escalón #reducida@ por renglones.
La matriz canónica Eij es escalón reducida por renglones si y sólo si
i = #1@, pues de lo contrario tendría un renglón nulo arriba de un renglón
no nulo.
La matriz sobre Q
#es@ escalón reducida por renglones.
Calcule la matriz equivalente por renglones que sea escalón reducida por renglones:
Calcule la matriz equivalente por renglones que sea escalón reducida por renglones:
Si la matriz está en forma escalón reducida por renglones, escribe la letra 's'; si no, escribe
la letra 'n'. #s@
Si la matriz está en forma escalón reducida por renglones, escribe la letra 's'; si no, escribe
la letra 'n'. #s@
Si la matriz está en forma escalón reducida por renglones, escribe la letra 's'; si no, escribe
la letra 'n'. #s@
Matrices elementales y forma escalón reducida por renglones, Parte 2
Definición 76. Una matriz #elemental@ es una matriz cuadrada que tenga
alguna de las siguientes formas:
Tipo I: I + aEij con algún a ∈ K, a ≠ 0, y i ≠ j;
Tipo II: I − Eii − Ejj + Eij + Eji, con i distinto de j;
Tipo III: I − Eii + aEii para algún a ∈ K, a distinto de 0.
Definición 85. Sea A una matriz de n por m. Una operación #elemental@
de renglones (o también llamada operación elemental de filas) de A es
una de las tres siguientes operaciones:
Tipo I: Reemplazar el renglón j-ésimo de A por la #suma@ del renglón j-ésimo
más a veces el renglón i-ésimo, con j ≠ i y a ≠ 0. Coloquialmente,
decimos que le sumamos al renglón j-ésimo a-veces el renglón i-ésimo.
Tipo II: Intercambiar los renglones i-ésimo y j-ésimo, con i ≠ #j@.
Tipo III: Reemplazar el renglón i-ésimo por a veces el renglón i-ésimo, con
a ≠ #0@. Coloquialmente, decimos que multiplicamos el renglón i-ésimo
por a.
Teorema 87. Sea R una matriz elemental de n por n de Tipo i, con i =
1, 2, 3. Entonces R se obtiene de realizar una única operación elemental de
renglón de Tipo i a la matriz #identidad@ I de n por n. Debido a esto, a la
operación elemental de renglón de arriba se le llama la operación elemental
de renglón asociada a la matriz elemental R. Inversamente, si
se realiza una operación elemental de renglón a I, se obtendrá una matriz
elemental del mismo tipo. Más aún, si A es una matriz de n por m, entonces
el producto #RA@ es igual al resultado de realizar a A la operación elemental
de renglón asociada a R.
Proposición 90. Sean A y B matrices de n por m con entradas en un
campo K. Entonces A y B son equivalentes por renglones si y sólo si existe
una matriz C de n por n tal que C es producto de matrices #elementales@ y
B = #CA@.
Proposición 91. La relación “ser equivalente por renglones a” es una relación
de equivalencia en el conjunto de todas las matrices n por m con entradas en
un campo K, es decir:
1) Toda matriz es equivalente por renglones a sí misma
2) Si A es equivalente por renglones a B entonces #B@ es equivalente por
renglones a #A@.
3) Si A es equivalente por renglones a B y B es equivalente por renglones
a C, entonces #A@ es equivalente por renglones a #C@.
Lema 102. Sea A una matriz de n por m con entradas en un campo K.
Entonces #existe@ una matriz reducida por renglones que es equivalente por
renglones a A.
Demostración: Daremos un algoritmo para llevar a la matriz A a una matriz
reducida por filas realizando operaciones elementales de renglones. Para cada
valor de i entre 1 y n (en ese orden) haga lo siguiente:
1. Si el renglón i-ésimo es nulo, ignórelo y pase al siguiente renglón.
2. Si el renglón i-ésimo #no@ es nulo, sea j la columna donde se encuentra
la primera entrada no nula del renglón.
3. Multiplique el renglón i-ésimo por el inverso multiplicativo de la entrada (i,j), para que dicha entrada se convierta en un uno. A esta entrada
se le conoce como un #pivote@.
4. Para cada k desde 1 hasta n (excepto k = i), reste un múltiplo apropiado del renglón i-ésimo al renglón k-ésimo para hacer #cero@ la entrada
(k,j).
Note que los pivotes van quedando en columnas diferentes, puesto que
cada vez que un pivote surge, éste hace cero a todas las entradas de su
columna. Al concluir el algoritmo, todo renglón no nulo tendrá como primer
elemento a un #pivote@, y todas las otras entradas en la columna del pivote
serán cero.
Observación 103. Una matriz puede ser equivalente por #renglones@ a dos
matrices reducidas por renglones diferentes.
Proposición 106. Sea A una matriz con entradas en un campo K. Entonces
#existe@ una matriz escalón reducida por renglones que es equivalente por renglones a A.
Demostración: Por el Lema 102, existe una matriz B que es reducida por
renglones y equivalente por renglones a A. Permutando renglones, podemos
mandar a todos los renglones #nulos@ de B hasta abajo. Finalmente, podemos
mandar al primer lugar al renglón que tenga su pivote en la columna #más@
chica, luego mandamos al segundo lugar al renglón que tenga su pivote en la
segunda columna más chica, y así sucesivamente hasta obtener una matriz
escalón reducida por renglones.
Observación 107. La matriz escalón reducida por renglones que se menciona en la Proposición 106 es única, y se llama la #forma@ escalón reducida
por renglones de la matriz A.
El procedimiento descrito en el Lema 102 junto con el reordenamiento de los
renglones de la demostración de la Proposición 106 se llama #eliminación@
Gaussiana.
Calcule la matriz equivalente por renglones que sea escalón reducida por renglones:
Matrices elementales y forma escalón reducida por renglones, Parte 3
Ejercicio 93. Sea A una matriz de n por n con entradas en un campo K,
y sea I la matriz identidad de n por n con entradas en K. Entonces A es
equivalente por renglones a I si y sólo si A = I. f/v: #f@ Justificación: #H0@
Ejercicio 94. Sea A una matriz. Realice primero una operación elemental
de renglones a A para obtener una matriz B, y luego realice otra operación
elemental de renglones a B para obtener una matriz C . Entonces C se puede
obtener de A haciendo una única operación elemental de renglones.
f/v: #f@ Justificación: #H1@
Ejercicio 111. Toda matriz escalón reducida por renglones es reducida por
renglones. f/v: #v@ Justificación: #H2@
Ejercicio 112. Toda matriz reducida por renglones es escalón reducida por
renglones. f/v: #f@ Justificación: #H3@
Ejercicio 113. Sean A y B matrices de iguales dimensiones. Si A y B son
equivalentes por renglones y ambas son reducidas por renglones, entonces
A = B. f/v: #f@ Justificación: #H4@
Matrices elementales y forma escalón reducida por renglones, Parte 4
Ejercicio 95. Sea A una matriz de n por m con entradas en un campo K,
y sea 0 la matriz cero de n por m con entradas en K. Demuestre que A es
equivalente por renglones a 0 si y sólo si A = 0. #H0@
Ejercicio 96. Demuestre que dos matrices canónicas Eij y Ekl de las mismas
dimensiones son equivalentes por renglones si y sólo si j = l. #H1@
Ejercicio 98. Sea A una matriz. Realice una operación elemental de renglones a A para obtener una matriz B. Demuestre que es posible hacer una
operación elemental a B para obtener A, y que dicha operación es del mismo
tipo que la que se hizo para llevar A a B. Coloquialmente decimos que las
operaciones elementales son invertibles.
Demostración:
Matrices elementales y forma escalón reducida por renglones, Parte 5
Si la matriz está en forma escalón reducida por renglones, escribe la letra 's'; si no, escribe
la letra 'n'. #s@
Si la matriz está en forma escalón reducida por renglones, escribe la letra 's'; si no, escribe
la letra 'n'. #s@
Si la matriz está en forma escalón reducida por renglones, escribe la letra 's'; si no, escribe
la letra 'n'. #n@
Si la matriz está en forma escalón reducida por renglones, escribe la letra 's'; si no, escribe
la letra 'n'. #n@
Si la matriz está en forma escalón reducida por renglones, escribe la letra 's'; si no, escribe
la letra 'n'. #n@
Si la matriz está en forma escalón reducida por renglones, escribe la letra 's'; si no, escribe
la letra 'n'. #s@
Matrices invertibles
Lema 117. Sea A una matriz invertible, y sean B un inverso derecho de A,
y C un inverso izquierdo de A. Entonces C #=@ B. Coloquialmente decimos que
A tiene un único inverso izquierdo y derecho, al cual llamamos el #inverso@
de la matriz A, y lo denotamos A-1.
Demostración: Considere las dos formas de asociar el producto #CAB@:
#C@ = CI = C(AB) = (CA)B = IB = #B@
Observación 118. Una matriz A es invertible si y sólo si A es cuadrada (es
decir, de n por n para algun entero positivo n) y existen matrices B y C
tales que AB = #I@ = CA, en cuyo caso forzosamente se sigue que B = C. Más
adelante veremos que para que una matriz cuadrada sea invertible basta que
tenga un inverso izquierdo o un inverso derecho (véase el Ejercicio 137).
Proposición 119. Sea A una matriz cuadrada. Si A es invertible, entonces
A−1
también es #invertible@ y (A−1)−1 = #A@. Es decir, el inverso del inverso de
A es A.
Demostración: Se sigue de que AA−1 = #I@ = A−1A.
Proposición 120. Sean A y B matrices n por n invertibles. Entonces AB
es invertible y (AB)−1 = B#-1@#A@−1.
Corolario 121. El producto de matrices invertibles es #invertible@.
Lema 122. Toda matriz elemental R es #invertible@, y su inversa es una matriz
elemental del mismo #tipo@.
Teorema 123. Sea A una matriz de n por n con entradas en un campo K.
Tenemos que son equivalentes las siguientes condiciones:
1) A es invertible.
2) A es #equivalente@ por renglones a la matriz identidad I de n por n.
3) A es un #producto@ de matrices elementales.
Demostración: 1) implica 2): Suponga que A es invertible. Sea B una matriz escalón reducida por renglones equivalente a A. Tenemos que existe una
matriz C que es producto de matrices elementales, tales que B = CA. Como
toda matriz elemental es invertible, su producto C también es #invertible@, por
lo que CA = B también es invertible. Como B es una matriz escalón reducida invertible,
no puede tener renglones #nulos@ y debe ser igual a la matriz
#identidad@ I.
2) implica 3): Suponga que A es equivalente por renglones a la matriz
identidad I de n por n. Tenemos que existe una matriz C que es producto de
matrices elementales, tales que I = CA. Como dijimos antes, C es invertible
y multiplicando por C-1
por la izquierda nos queda C-1 = #A@. Pero el inverso
de un producto es el producto de los inversos en el orden contrario, y como
el inverso de una matriz elemental es otra matriz elemental, tenemos que A
es producto de matrices elementales.
3) implica 1): Se sigue de que las matrices elementales son invertibles y
producto de invertibles es #invertible@.
Corolario 124. Sea A una matriz invertible de n por n. Si una sucesión de
operaciones elementales de renglón nos lleva de A a I, la misma sucesión de
operaciones elementales nos lleva de I a #A@#-1@
.
Demostración: Como A es equivalente por renglones a la matriz identidad
I de n por n, tenemos que existe una matriz C que es producto de matrices
elementales, tales que I = CA. Por el Lema 117 tenemos que A-1 = C, de
donde A#-1@ = C = CI.
Corolario 125. Sean A y B matrices de n por n. Entonces B es equivalente
por renglones a A si y sólo si existe una matriz invertible C tal que #B@ = CA.
Demostración: Para que B sea equivalente por renglones a A necesitamos
que exista una matriz C que sea producto de matrices elementales y tal que
B = CA. El resto se sigue de que una matriz es #invertible@ si y sólo si es
producto de matrices elementales.
Solución de sistemas de ecuaciones lineales
Notación 138. Sea A una matriz de n por m con entradas en un campo K.
El sistema homogéneo asociado a A normalmente se denota como
#AX@ = 0
donde X denota una matriz de m renglones y una columna (llamada usualmente vector columna) consistente de las indeterminadas del sistema de
ecuaciones, y 0 denota el vector columna nulo (es decir, cuyas entradas son
todas cero). Las soluciones del sistema son todos los posibles valores en el
campo K que se pueden asignar a las indeterminadas del vector columna X
que cumplan la ecuación matricial
AX = 0
La solución #trivial@ de un sistema homogéneo es el vector nulo 0 .
Teorema 139. Sean A y B matrices #equivalentes@ por renglones. Entonces
los sistemas homogéneos de ecuaciones lineales asociados a A y B tienen las
mismas #soluciones@.
Definición 140. Sea A una matriz escalón reducida por renglones. Decimos
que una variable xi es #libre@ en A si la i-ésima columna de A no contiene
ningún #pivote@.
Lema 141. Sea A una matriz de n por m escalón reducida por renglones.
Tenemos lo siguiente:
1) Si xi no es una variable libre, entonces xi aparece una única vez con
coeficiente no nulo en el sistema AX = 0, y dicho coeficiente es un #pivote@ de
A.
2) Todas las soluciones del sistema homogéneo AX = 0 se obtienen
asignando valores arbitrarios a las variables #libres@ y luego encontrando los valores
(que estarán determinados de forma única) de las variables #no@ libres.
3) El sistema AX = 0 tiene al menos una solución no trivial si y sólo si
A tiene al menos una variable #libre@.
Demostración: 1) Si xi no es libre, entonces la columna i-ésima tiene un
#pivote@, por lo que en esa columna la única entrada no nula es un uno. Note
que en esta columna aparecen los coeficientes de la variable xi
.
2) Si uno asigna valores arbitrarios a las variables libres, existe una única
forma de asignar valores a las variables no libres para satisfacer el sistema.
Inversamente, cualquier solución del sistema se
obtuvo asignando valores a las variables #libres@ y determinando los valores de
las variables no libres.
3) Si al menos hay una variable libre, se puede asignar a todas ellas el
valor 1 (o cualquier valor distinto de cero) y obtener una solución no trivial.
Si no hay variables libres, todas las variables están en una ecuación de la
forma xi = #0@, y por lo tanto la única solución del sistema es la trivial.
Teorema 142. Sea A una matriz de n por m con n < m (es decir, A tiene
estrictamente más #columnas@ que renglones). Entonces el sistema homogéneo
AX = 0 tiene al menos una solución #no@ trivial
Demostración: Por el Teorema 139, podemos suponer sin pérdida de generalidad
que A es una matriz escalón reducida por renglones. Note que el
número de pivotes de A es menor o igual a n; por hipótesis n < m, y m es
el número de indeterminadas. Así, A debe tener variables #libres@, pues no hay
suficientes pivotes para todas. El resto se sigue del Lema 141.
Proposición 143. Sea A una matriz de n por n. Entonces A es #equivalente@
por renglones a la matriz identidad si y sólo si el sistema de ecuaciones
AX = #0@ tiene solamente la solución trivial.
Demostración: Si A es equivalente por renglones a la matriz identidad I,
entonces AX = 0 y IX = 0 tienen el mismo conjunto de soluciones. Pero la
única solución del sistema IX = 0 es la trivial, pues el sistema es xi = 0 para
toda i, así que el sistema de ecuaciones AX = 0 tiene solamente la solución
trivial.
Suponga ahora que la única solución del sistema AX = 0 es la trivial, es
decir, X = 0. Sea B una matriz escalón reducida por renglones equivalente
por renglones a A. Tenemos que la única solución del sistema BX = 0 también
es la trivial. Sea m el número de pivotes de B. Por el Lema 141, B no puede
tener variables libres, es decir, toda variable xi tiene un #pivote@ en la columna
i-ésima, y al menos debe haber n pivotes (puesto que hay n variables), es
decir, m ≥ n. Por otro lado, no puede haber más pivotes que renglones, por
lo que m ≤ n. Juntando ambas desigualdades obtenemos que m = n. Esto
significa que el número de pivotes de B es igual al número de columnas de B.
Como la matriz B es cuadrada, la única posibilidad es que el i-ésimo pivote
aparezca en la i-ésima columna, ya que de lo contrario nos sobrarían pivotes
si dejáramos columnas sin pivote. El resultado de esto es que B es la matriz
identidad.
Notación 144. Un sistema no homogéneo de ecuaciones linealmente usualmente se denota
#AX@ = Y
donde X es el vector columna de indeterminadas, y #Y@ es el vector columna
de constantes.
Teorema 145. Sea A una matriz de n por n. Son equivalentes las siguientes
afirmaciones:
1) A es #invertible@.
2) El sistema homogéneo AX = 0 tiene solamente la solución trivial X =
#0@.
3) Para todo vector columna Y de n renglones, el sistema de ecuaciones
AX = Y tiene una #única@ solución, a saber, X = A-1Y.
Lema 146. Considere un sistema no homogéneo de ecuaciones lineales
AX = Y
Sea B una matriz invertible tal que el producto BA está bien definido.
Entonces el sistema AX = Y y el sistema (BA)X = BY tienen las #mismas@
soluciones.
Demostración: Si X es solución de AX = Y, multiplicando por la izquierda
por #B@ tenemos que B(AX) = BY. Ya que el producto de matrices es asociativo,
esto último nos queda (BA)X = BY, es decir, X es solución del sistema
(BA)X = BY. El regreso se obtiene aplicando el mismo argumento, ahora
multiplicando por la matriz inversa B#-1@.
Teorema 147. Considere un sistema no homogéneo de ecuaciones lineales
AX = Y
Suponga que la matriz A es escalón reducida por renglones.
Entonces el sistema es consistente si y sólo si no hay ninguna ecuación de la forma 0 = ci
con ci distinto de 0, es decir, si todos los renglones nulos de A están igualados a cero
en el sistema de ecuaciones. En este caso, todas las soluciones del sistema no
homogéneo AX = Y se obtienen asignando valores arbitrarios a las variables
#libres@ y luego encontrando los valores (que estarán determinados de forma
única) de las variables no libres.
Proposición 148. Considere un sistema no homogéneo de ecuaciones lineales
AX = Y
Sea X0 un vector columna que es #solución@ de dicho sistema. Entonces todas
las soluciones de este sistema son precisamente los vectores de la forma X0 +
X1 donde X1 es una solución arbitraria del sistema homogéneo AX1 = 0.
Espacios vectoriales
2.1. Definición de espacio vectorial y ejemplos.
Definición 164. Sea K un campo. Un espacio #vectorial@ sobre K, o
también llamado un K-espacio vectorial, consta de lo siguiente:
1. Un conjunto V , cuyos elementos se llaman #vectores@.
2. Una operación binaria en V , llamada adición de vectores (o suma
de vectores), denotada por #+@, y que cumple lo siguiente:
La suma es conmutativa, es decir, para todos v y u en V se tiene
v + u = #u+v@.
La suma es asociativa, es decir, para todos v, u y w en V se tiene
(v + u) + w = #v+(u+w)@.
Existe un único vector 0 en V tal que v+0 = #v@ para todo v en V .
A 0 se le llama el vector cero de V , o también el vector nulo
de V .
Para todo v en V existe un único vector −v, llamado el inverso
aditivo de v, tal que v + (−v) = #0@.
3. Una operación binaria de K × V en V , llamada la multiplicación
escalar, que a cada #escalar@ a en K y cada vector v en V les asocia
otro vector av en V , y que cumple:
Para todo v en V , 1v = #v@.
Para cualesquiera a, b en K, y cualquier v en V , (ab)v = #a(bv)@.
4. Además, pedimos que se cumplan las dos leyes distributivas:
Para todo a en K, y para cualesquiera v y u en V , a(v + u) =
#av+au@.
Para cualesquiera a, b en K, y cualquier v en V , (a+b)v = #av+bv@.
Notación 166. En lo sucesivo, K denotará un campo y V un K-espacio vectorial,
a menos que se diga lo contrario explícitamente. Además, escribiremos
#v-u@ en lugar de v + (−u).
Ejemplos 167. El campo K es un espacio #vectorial@ sobre sí mismo,
donde la suma y la multiplicación escalar son la suma y el producto
usuales de K. El vector cero es en este caso el cero de K, y los inversos
aditivos de los vectores son los inversos aditivos usuales en K.
Sea K un campo arbitrario y considere el producto cartesiano K2
= K×K de K consigo mismo. Defina en K2
la suma de dos parejas ordenadas
coordenada a coordenada, es decir, (a, b)+(c, d) = #(a+c,b+d)@. Con
esta suma, K2
satisface las primeras propiedades de un espacio vectorial
(el vector cero es #(0,0)@, y el inverso aditivo de (a, b) es (−a, −b)). Defina
la multiplicación escalar en K2
por medio de a(b, c) = #(ab,ac)@. Con esta
suma y multiplicación escalar, K2
es un K-espacio vectorial.
El ejemplo anterior se puede generalizar al conjunto Kn
de n-adas
de elementos de K, es decir, el producto cartesiano de n copias del
campo K, donde n es un entero positivo. Nuevamente la suma se define
coordenada a coordenada, y la multiplicación escalar se define de forma
análoga a como se hizo arriba, es decir, (a1, . . . , an) + (b1, . . . , bn) =
(a1 + b1, . . . , an + bn), y a(b1, . . . , bn) = (ab1, . . . , abn). Con esta suma y
multiplicación escalar, Kn
es un K-espacio vectorial.
Sean K un campo arbitrario, y sea Mn×m(K) el conjunto de todas las
#matrices@ de n por m con entradas en el campo K. Entonces Mn×m(K) es
un K-espacio vectorial, donde la suma y la multiplicación por escalares
son la suma usual de matrices y la multiplicación usual de un escalar
por una matriz.
Sean K un campo arbitrario, y sea K[x] el conjunto de todos los polinomios
con coeficientes en K, es decir, las expresiones de la forma
a0 + a1x + · · · + anxn, donde la x es una indeterminada. La suma es la
suma usual de polinomios, y la multiplicación por escalares también es
la usual.
Sea K un campo arbitrario, y sea V un conjunto cualquiera con un
único elemento, llamémoslo v. La única operación binaria que se puede
definir en V es v + v = v, y la única multiplicación escalar es av = v
para cualquier a en K. Con estas operaciones, el conjunto V es
un K-espacio vectorial, llamado el #espacio@ cero (o el espacio trivial, o el
espacio nulo). El único vector v de V es el vector cero, por lo que al
espacio cero usualmente lo denotamos V = {0}, o simplemente V = #0@.
Sea K un campo, y sea F un subconjunto de K que es cerrado bajo la
suma y el producto de K, y que también contiene los inversos aditivos
y multiplicativos de sus elementos no nulos, así como al cero y al uno
de K. Decimos entonces que F es un #subcampo@ de K, o que K es
una #extensión@ de F. En esta situación, todo espacio vectorial sobre K
es un espacio vectorial sobre F, donde la suma es la misma en ambos
casos, y la multiplicación de los escalares del subcampo F es la misma
que si se vieran como escalares en K. En particular, todo campo es
un espacio vectorial sobre cualquier subcampo, por ejemplo, C es un
R-espacio vectorial.
Proposición 168. Sea V un conjunto en donde se define una operación +
binaria conmutativa. Suponga que 0 y 0'
son elementos de V tales que para
cualquier v en V tenemos que v + 0 = v = v + 0'. Entonces 0 = 0'. En otras
palabras, en la definición de espacio vectorial basta pedir la existencia de un
vector cero, y la unicidad se sigue de las otras propiedades.
Demostración: Tenemos que
0' = 0' #+@ 0 = 0 + 0' = #0@
Proposición 169. Sea V un conjunto en donde se define una operación
+ binaria conmutativa y asociativa. Sea 0 un elemento de V tal que para
cualquier v en V se tenga que v + 0 = v. Suponga que v, u y w son tales que
v + u = 0 = v + w. Entonces u = #w@. Es decir, en la definición de espacio
vectorial basta pedir la existencia de inversos aditivos, y la unicidad se sigue
de las otras propiedades.
Demostración: Tenemos que #w@ = w + 0 = w + (v + u) = (w + v) + u =
u + (w + v) = u + (v + w) = u + 0 = #u@.
Observación 170. En la Proposición 169 no es necesario pedir que la operación
binaria sea #conmutativa@, pero la demostración se vuelve más larga.
Sin embargo, es muy importante en este caso que tanto el elemento neutro
como los inversos sean del mismo lado (en nuestro caso, del lado derecho).
Teorema 171. Sea V un K-espacio vectorial, y sea v un vector en V. Tenemos que
1. 0v = #0@ (compare con el Ejercicio 181)
2. (−1)v = #-v@
55
3. −(−v) = #v@
Demostración: 1. #0@v = (0 + 0)v = 0v + 0v. Sumando el inverso aditivo
de 0v a ambos lados obtenemos 0 = 0v + (−0v) = (0v + 0v) + (−0v) =
0v + [0v + (−0v)] = 0v + 0 = #0v@.
2. Basta demostrar que v + (−1)v = 0. Tenemos que v + (−1)v = 1v +
(−1)v = [1 + −(1)]v = 0v = #0@.
3. Note que −(−v) = (−1)(−v) = (−1)[(−1)v] = [(−1)(−1)]v = #1v@ = v.
Subespacios
Definición 186. Sea V un K-espacio vectorial, y sean v1, . . . , vn vectores en
V . Una #combinación@ #lineal@ de los vectores v1, . . . , vn sobre el campo K es
un vector de la forma a1v1+a2v2+...+anvn,
donde a1, . . . , an son escalares en K. Si n = 1,
llamamos al vector av un #múltiplo@ escalar del vector v. Por definición, la
combinación lineal #vacía@ (es decir, de una familia vacía de vectores) es el
vector cero.
Ejemplos 187. El vector (2, −5) de Q
es combinación lineal de los
vectores (1,0) y (0,1) sobre Q, pues (2, −5) = #2@(1, 0) + (−5)(0, 1).
El vector (0,0,1) de R
#no@ es combinación lineal sobre R de los vectores
(1,0,0) y (0,1,0), pues a(1, 0, 0) + b(0, 1, 0) = (a, b, 0) no es (0, 0, 1) para
ninguna a, b en R.
El vector (2i, 4) de C
es combinación lineal de los vectores (1,0) y (0,1)
sobre #C@, pero no sobre R.
El #vector@ cero es combinación lineal de cualesquiera vectores v1, . . . , vn,
pues siempre se pueden escoger escalares nulos.
Definición 188. Sea V un K-espacio vectorial, y sea C un subconjunto de
V . Decimos que C es #cerrado@ bajo sumas si para cualesquiera v y u en C ,
se tiene que #v+u@ también es un vector de C . Decimos que C es cerrado bajo
múltiplos #escalares@ sobre K si para cualquier vector v en C y cualquier
escalar a en K, el vector #av@ también está en C . Decimos que C es cerrado
bajo combinaciones lineales sobre K si cualquier combinación lineal de
vectores en C con escalares arbitrarios de K está en C.
Ejemplos 189. Sean V = K = Q. Entonces el subconjunto Z de los
enteros es un subconjunto de V cerrado bajo #sumas@ pero no es cerrado
bajo múltiplos escalares sobre Q, pues el uno está en Z, 1/2 está en
Q, y su producto escalar (1/2)1 = 1/2 no está en Z. Como Z no es
cerrado bajo múltiplos escalares sobre Q, en particular no es cerrado
bajo combinaciones lineales sobre Q.
Sean K = R, V = R2, y sea C el subconjunto de R2
que consta de la
unión de los ejes de las x y de las y, es decir, C = {(a, b) ∈ V | a =
0 o b = 0}. Entonces C es cerrado bajo múltiplos #escalares@ sobre R,
pero no es cerrado bajo #sumas@. En particular, C tampoco es cerrado
bajo combinaciones lineales sobre R.
Definición 190. Sea V un K-espacio vectorial, y sea S un subconjunto de
V . Decimos que S es un #subespacio@ vectorial de V sobre K (o simplemente
un subespacio de V ) si S es no vacío y para cualesquiera v y u en S y
cualquier escalar a en K, tenemos que av + u es un elemento de S. A veces
denotamos que S es un subespacio de V por S ≤ V, y si queremos indicar
que el campo es K, escribimos S ≤K V.
Ejemplos 191. Sean K un campo arbitrario, V = K2, y S = {(a, 0) |
a ∈ K}. Afirmamos que S es un #subespacio@ vectorial de V sobre K,
pues S es no vacío y para cualquier escalar a en K y cualesquiera
vectores (b, 0) y (c, 0) en S, tenemos que a(b, 0) + (c, 0) = (ab + c, 0) es
un vector de S.
Sean K un campo arbitrario, V = K2, y S = {(a, a) | a ∈ K}.
Afirmamos que S es un #subespacio@ vectorial de V sobre K, pues S es no
vacío y para cualquier escalar a en K y cualesquiera vectores (b, b) y
(c, c) en S, tenemos que a(b, b) + (c, c) = (ab + c, ab + c) es un vector
de S.
Sean K un campo arbitrario y V un K-espacio vectorial. Entonces V
mismo es un subespacio de V sobre K, pues V es no vacío (ya que
al menos tiene al vector cero), y es cerrado bajo sumas y múltiplos
escalares. A V se le llama el subespacio #total@ de V.
Sean K un campo arbitrario y V un K-espacio vectorial. Sea O = {0},
es decir, O es el subconjunto de V que consta únicamente del vector
cero. Entonces O es un subespacio de V sobre K, pues O es no vacío, y
para cualquier a en K se tiene a0+0 = 0. A O se le llama el subespacio
#trivial@ (o el subespacio cero, o el subespacio nulo) de V .
Sean K un campo arbitrario y A una matriz de n por m con entradas
en K. El conjunto de soluciones del sistema homogéneo AX = 0 es un
subespacio de Km
sobre K, pues es no vacío y si X1 y X2 son soluciones
de dicho sistema, entonces aX1 +X2 también es solución para cualquier
a en K, pues A(aX1+X2) = aAX1+AX2 = 0+0 = 0. A este subespacio
se le llama el espacio #solución@ del sistema de ecuaciones AX = 0, o
también el subespacio #nulo@ de la matriz A .
Teorema 192. Sea V un K-espacio vectorial, y sea S un subconjunto no
vacío de V. Las siguientes afirmaciones son equivalentes:
1. S es un subespacio de V sobre K.
2. S es #cerrado@ bajo sumas y múltiplos escalares sobre K.
3. S es cerrado bajo #combinaciones@ lineales sobre K.
4. S junto con la suma y la multiplicación escalar que hereda de V es un
K-espacio vectorial.
Proposición 193. Sean K un campo y V un K-espacio vectorial.
Sea {Si | i ∈ I} una familia de subespacios de V sobre K. Entonces la #intersección@
es un subespacio de V sobre K.
Demostración: Denotemos S a la intersección de todos los Si
. Sean v, u en
S, y sea a un escalar en K. Debemos demostrar que av + u es un elemento
de S. Como v y u están en S, se sigue que v y u están en Si para toda i ∈ I,
y como cada Si es un subespacio de V , tenemos que av + u es elemento de
Si para toda i en I, por lo que av + u está en la intersección S.
Definición 194. Sean V un K-espacio vectorial y C un subconjunto cualquiera
de V . El subespacio #generado@ por C sobre K es la intersección de todos
los subespacios de V que contienen a C . Dicho subespacio se denota usualmente
< C >. Si C = {v1, . . . , vn}, escribimos < v1, . . . , vn > en lugar de
< {v1, . . . , vn} >, y lo llamamos el subespacio generado por los vectores
v1, . . . , vn. Note que al menos V es un subespaci de V que contiene a C , por
lo que la intersección se toma sobre una familia no vacía y por tanto siempre
está bien definida.
Ejemplos 195. < V >= #V@.
< ∅ >= #0@.
V = Q2, < (1, 0) >= {(a, 0) | a ∈ Q}.
Proposición 196. Sean V un K-espacio vectorial y C un subconjunto no
vacío de V. Entonces < C > es el menor subespacio de V que contiene a
C, es decir, < C > es el único subespacio de V que contiene a C y que
está #contenido@ en cualquier otro subespacio de V que contenga a C. También
tenemos que < C > es precisamente el conjunto de todas las combinaciones
#lineales@ sobre K de los vectores de C.
Observación 197. El resultado anterior también es válido para el subconjunto #vacío@,
pero hay que lidiar con tecnicismos. Por una parte, el menor
subespacio de V que contiene al subconjunto vacío es el subespacio nulo,
que también es la intersección de todos los subespacios de V (pues todos
contienen al vacío). El problema surge al argumentar que el subespacio nulo
es el conjunto de todas las combinaciones lineales de vectores en el conjunto
vacío. La única combinación lineal posible es la combinación #vacía@, que por
definición es el vector cero.
Observación 198. A menos que se especifique lo contrario, la palabra sucesión significa sucesión finita.
Definición 199. Sean V un K-espacio vectorial y v1, . . . , vn una sucesión
de vectores en V tales que < v1, . . . , vn >= V. Decimos que v1, . . . , vn son
un conjunto de #generadores@ de V , o que v1, . . . , vn generan a V sobre el
campo K. Decimos que el espacio vectorial V es #finitamente@ generado
sobre el campo K si existe un subconjunto finito de V que genera a V .
Independencia lineal
Definición 216. Sea V un K-espacio vectorial, y sea C un subconjunto
de V . Decimos que C es #linealmente@ #dependiente@ (o simplemente dependiente)
sobre el campo K si existen vectores distintos v1, . . . , vn (con n
un entero positivo) en C y escalares a1, . . . , an en K tales que no todos los
ai son cero, pero a1v1 + a2v2 + · · · + anvn es igual al vector #cero@ de V . Si
C no es linealmente dependiente sobre K, decimos que C es linealmente
#independiente@ sobre K. Una sucesión finita v1, . . . , vn de vectores en V es
una sucesión linealmente independiente si todos los vectores son diferentes y
el conjunto {v1, . . . , vn} es linealmente independiente. Si la sucesión
no es linealmente independiente, se dice que es una sucesión linealmente
dependiente.
Ejemplos 217. Sea V un K-espacio vectorial cualquiera, con K un
campo arbitrario. Entonces el conjunto {0} es linealmente dependiente
sobre K, pues 10 = 0 y el escalar que se usó fue #1@ ≠ 0.
Sea V un K-espacio vectorial cualquiera, con K un campo arbitrario.
Entonces el conjunto {1} es linealmente independiente sobre K, pues si
tuviéramos un escalar a en K tal que a1 = 0, se seguiría que el escalar
a #=@ 0.
Sea V = R2
. El conjunto {(1, 0),(0, 1),(2, −3)} es linealmente #dependiente@ sobre R, pues
tenemos la siguiente combinación lineal con escalares
reales no todos nulos que da el vector cero:
−2(1, 0) + 3(0, 1) + 1(2, −3) = (0, 0)
Sea V = R2
. El conjunto {(1, 0),(0, 1)} es linealmente #independiente@
sobre R, pues dados cualesquiera escalares reales a y b, si (0, 0) =
a(1, 0) + b(0, 1) = (a, b), se seguiría que a = 0 y b = 0, es decir, los
escalares son todos nulos.
Sea V un K-espacio vectorial y v un vector no nulo en V . Entonces el
conjunto {v} es linealmente independiente sobre K, pues si av = 0 se
debe seguir por fuerza que #a@ es el escalar cero.
Observación 218. Sean V un K-espacio vectorial y v un vector no nulo en
V . Entonces la sucesión v1, v2 con v1 = v = v2 es linealmente #dependiente@,
pues los vectores no son todos diferentes. Sin embargo, vista como conjunto
las multiplicidades no cuentan, y el conjunto {v1, v2} = {v} es linealmente
#independiente@. Es decir, al hablar de la independencia lineal de los vectores
v1, . . . , vn es importante distinguir si es como #conjunto@ o como sucesión.
Esto normalmente queda implícito cuando se dice “el conjunto es linealmente
independiente” o “la sucesión es linealmente independiente”.
Proposición 219. Sea V un K-espacio vectorial, y sea C un subconjunto de
V. Las siguientes afirmaciones son equivalentes:
1. C es linealmente dependiente sobre K.
2. Existen n vectores distintos v1, . . . , vn en C (con n un entero positivo),
y n escalares a1, . . . , an en K, distintos todos de cero, tales que a1v1 +
· · · + anvn es el vector cero de V.
3. Existen n vectores distintos v1, . . . , vn en C (con n un entero positivo)
tales que vn es combinación lineal sobre K de v1, . . . , vn−1.
Demostración: 1) implica 2): Como C es linealmente #dependiente@, por definición
existen vectores distintos v1, . . . , vn (con n un entero positivo) en C y
escalares a1, . . . , an en K tales que no todos los ai son cero, pero a1v1+a2v2+
· · · + anvn es igual al vector cero de V . Supongamos que algunos de estos
escalares fueran igual a cero; sin pérdida de generalidad, podemos suponer
que son los últimos escalares, digamos 0 = am = · · · = an, donde m − 1 al
menos vale uno, pues existe al menos un escalar no nulo en la lista original.
Entonces los vectores v1 . . . , vm−1 de C y los escalares a1, . . . , am−1 son tales
que a1v1 + a2v2 + · · · + am−1vm−1 es el vector cero, y todos los escalares son
distintos de cero.
2) implica 3): Suponga que existen n vectores distintos v1, . . . , vn en C
(con n un entero positivo), y n escalares a1, . . . , an en K, distintos todos de
cero, tales que a1v1 +· · ·+anvn es el vector cero de V . Consideremos primero
un caso patológico, es decir, si n fuera igual a uno: tendríamos que a1v1 = #0@
con a1 ≠ 0, por lo que se sigue que v1 es el vector cero, que se puede escribir
como una combinación lineal vacía, es decir, v1 es combinación lineal de los
anteriores. Supongamos ahora que n es mayor que uno. Entonces podemos
despejar a vn para obtener vn = −(a1/an)v1 − · · · − (an−1/an)vn−1.
3) implica 1): Suponga que existen n vectores distintos v1, . . . , vn en C
(con n un entero positivo) tales que vn es #combinación@ lineal sobre K de
v1, . . . , vn−1, digamos a1v1 +· · ·+an−1vn−1 = vn (donde la combinación lineal
de la izquierda puede ser vacía). Pasando todo al mismo lado obtenemos
a1v1 + · · · + an−1vn−1 − vn = 0 donde al menos el escalar de vn es distinto de
cero.
Teorema 220. Sea V un K-espacio vectorial, y sea C un subconjunto de V.
Las siguientes afirmaciones son equivalentes:
1. C es linealmente independiente sobre K.
2. Para cualesquiera n vectores distintos v1, . . . , vn en C (con n un entero
positivo), y cualesquiera n escalares a1, . . . , an en K, si a1v1 +· · ·+anvn
es el vector cero de V, entonces todos los escalares ai son iguales a cero.
Es decir, la única forma de escribir al vector cero como combinación
lineal de vectores distintos en C es poniendo todos los escalares iguales
a cero.
3. Ningún vector v de C se puede escribir como combinación lineal de
otros vectores de C diferentes de v.
Demostración: 1) implica 2): Si 2) no se cumpliera, existirían n vectores
distintos v1, . . . , vn en C (con n un entero positivo), y n escalares a1, . . . , an
en K, tales que a1v1+· · ·+anvn es el vector #cero@ de V , y no todos los escalares
ai son iguales a cero, por lo que C sería linealmente dependiente sobre K.
2) implica 3): Si 3) no se cumpliera, existiría un vector v en C que se
puede escribir como combinación #lineal@ de n vectores v1, . . . , vn de C , con
vi ≠ v para toda i. Sin pérdida de generalidad, se puede suponer que todos
los vi son distintos entre sí (además de ser distintos a v), pues de lo contrario
se pueden agrupar los que sean iguales y sumar sus respectivos escalares. Es
decir, existirían v1, . . . , vn vectores distintos (y distintos a v), y escalares
a1, . . . , an en K tales que v = a1v1 + · · · + anvn. Restando v nos queda
0 = a1v1 + · · · + anvn − v, contradiciendo 2), pues al menos el vector v tiene
un escalar distinto de cero.
3) implica 1): Si C #no@ fuera linealemente independiente, existirían vectores
distintos v1, . . . , vn (con n un entero positivo) en C y escalares a1, . . . , an en
K tales que no todos los ai son cero, pero a1v1 + a2v2 + · · · + anvn es igual
al vector cero de V . Si n = 1, tendríamos que el vector cero está en C , y
se puede escribir como combinación lineal (vacía) de otros vectores distintos
en C . Suponga ahora que n es mayor que uno. Sin pérdida de generalidad
podemos suponer que el escalar an es diferente de cero. Despejando a vn nos
queda vn = −(a1/an)v1 − · · · − (an−1/an)vn−1, contradiciendo 3).
Bases y dimensión
Definición 237. Sea V un K-espacio vectorial, y sea B un subconjunto de
V . Decimos que B es una #base@ de V sobre K si B es linealmente
independiente sobre K y B genera a V sobre K.
Ejemplos 238. Sea K un campo cualquiera y sea V = K. Una #base@
de V sobre K es el conjunto {1}, pues ya se vio que es linealmente
independiente sobre K y genera a V sobre K.
Sea K un campo arbitrario y sea V = K2
. Una #base@ de V sobre K es
el conjunto {(1, 0),(0, 1)}. En efecto, el conjunto {(1, 0),(0, 1)} genera
a K2
, pues todo vector (a, b) en K2
es de la forma a(1, 0) + b(0, 1).
Además, el conjunto {(1, 0),(0, 1)} es linealmente independiente sobre
K, pues si a y b son escalares en K tales que a(1, 0)+b(0, 1) es el vector
cero, se sigue que (a, b) = (0, 0), es decir, a = 0 = b.
Sea K un campo arbitrario y sea V el K-espacio vectorial nulo, es decir,
V = {0}. El conjunto #vacío@ es una base de {0}, pues es linealmente
independiente (por vacuidad) y genera a {0}.
Sea K un campo arbitrario, y sea A una matriz cuadrada de n por
n con entradas en K. Si A es invertible, entonces las columnas de A
forman una #base@ de Mn×1(K) (el espacio de vectores columna de n
entradas sobre K). Sea Yi
la columna i-ésima de A. Las columnas de
A generan a Mn×1(K), pues dada Y en Mn×1(K) arbitraria, el sistema
AX = Y tiene una solución (de hecho, única), digamos (b1, . . . , bn), de
donde se tiene que b1Y1 + · · · + bnYn = Y. Para demostrar que las
columnas de A son linealmente independientes sobre K, suponga que
los escalares b1, . . . , bn de K son tales que b1Y1+· · ·+bnYn son el vector
columna cero. Entonces el vector columna X1 = (b1, . . . , bn) es solución
del sistema homogéneo AX1 = 0. Pero A es invertible, por lo que la
única solución de dicho sistema es la trivial, es decir, bi = 0 para toda
i.
Lema 239. Sea V un K-espacio vectorial. Suponga que V es finitamente
generado sobre K, es decir, existe una sucesión finita v1, . . . , vn de n vectores
de V que #generan@ a V sobre K. Entonces todo subconjunto linealmente
independiente de vectores de V es finito y tiene a lo más #n@ elementos.
Demostración: Basta demostrar que todo subconjunto de V con al menos
n+1 elementos es linealmente #dependiente@ sobre K.
Corolario 240. Sea V un K-espacio vectorial finitamente generado sobre K.
Entonces dos #bases@ cualesquiera de V tienen el #mismo@ número de elementos.
Demostración: El Lema 239 dice que todo conjunto finito de generadores
de V tiene igual o más elementos que todo subconjunto linealmente independiente de V .
En particular, todas las bases de V son finitas. Más aún,
como toda base es a la vez un conjunto finito de #generadores@ y un conjunto
linealmente #independiente@, intercambiando roles en dicho Lema vemos que
dos bases cualesquiera deben tener igual número de elementos.
Corolario 241. Sea V un K-espacio vectorial. Suponga que V tiene una
base con n elementos. Entonces cualquier subconjunto de V con más de n
vectores es linealmente #dependiente@, y ningún subconjunto de V con menos
de #n@ vectores puede generar a V.
Demostración: Si hubiera un conjunto linealmente independiente con más
de n vectores, éste tendría más elementos que la base, que es un conjunto
finito de generadores, contradiciendo el Lema 239. Si V tuviera un conjunto
de generadores con menos de n elementos, éste tendría menos elementos
que la #base@, que es un conjunto linealmente #independiente@, contradiciendo el
Lema 239.
Lema 242. Sea V un espacio vectorial y sea C un conjunto que genera a V.
Sea v un vector en C que es combinación lineal de otros vectores v1, . . . , vn
en C. Entonces el conjunto que se obtiene quitando el vector #v@ a C genera a
V.
Demostración: Sea u un vector cualquiera de V . Como C genera a V , u se
puede escribir como #combinación@ lineal de algunos vectores en C : si ninguno
de estos vectores es v, ya generamos a u como deseábamos; si no, en dicha
combinación lineal apareció el vector v con un escalar a. Reemplacemos av
por una combinación lineal de v1, . . . , vn.
Lema 243. Sea V un K-espacio vectorial, y sea C un subconjunto de V que
genera a V. Si C es linealmente #dependiente@, entonces existe un subconjunto
propio de C que genera a V.
Demostración: Como C es linealmente dependiente, existe un vector v en C
que es combinación lineal de otros vectores v1, . . . , vn en C . Por el Lema 242,
si le quitamos v al conjunto C seguimos teniendo un conjunto de generadores
de V . Este es un subconjunto #propio@ de C .
Teorema 244. Sea V un K-espacio vectorial finitamente generado, y sea C
un conjunto finito que genera a V sobre K. Entonces V tiene una #base@ sobre
K contenida en C (que por lo tanto es una base finita).
Demostración: Usaremos inducción sobre la cardinalidad del conjunto C
que genera a V . Si C tiene cardinalidad cero (es decir, C es el conjunto
vacío), entonces V es el espacio cero, y el vacío es una base de V . Suponga
ahora que el resultado es válido para todos los espacios vectoriales que tienen
un conjunto de generadores con menos elementos que C . Si C es linealmente
independiente sobre K, ya es una base sobre K. Si C es linealmente dependiente, por
el Lema 243 C tiene un subconjunto propio C2 que genera a V .
Por inducción, V tiene un subconjunto de C2 (y por lo tanto, subconjunto
de C ) que es una base de V sobre K.
Corolario 245. Sea V un K-espacio vectorial. Entonces V está finitamente
generado sobre K si y sólo si V tiene una #base@ finita sobre K.
Demostración: Si V está finitamente generado sobre K, por el resultado
anterior V tiene una base finita sobre K. Por otro lado, si V tiene una base
finita sobre K, entonces dicha base es un conjunto finito que genera a V
sobre K, y por lo tanto V está finitamente generado sobre K.
Definición 246. Sea V un K-espacio vectorial finitamente generado sobre
K. La #dimensión@ de V sobre K es la cardinalidad de cualquier #base@ de V
sobre K. Denotamos a la dimensión de V sobre K como dimK(V).
Observación 247. También es posible definir la dimensión de un espacio
vectorial que no está finitamente generado; de hecho, se define como la cardinalidad
de cualquier base del espacio, pero en este caso, se trata de un
número cardinal, no de un número entero. Para estos espacios se debe demostrar la
existencia de bases y que cualesquiera dos bases tienen el mismo
número de elementos, y las demostraciones usan herramientas poderosas de
teoría de conjuntos, como el Lema de #Zorn@ (véase [2] en la Bibliografía).
Lema 248. Sea V un K-espacio vectorial, y sean v1, . . . , vn una sucesión de
vectores linealmente independientes sobre K. Suponga que v es un vector de
V que no es combinación lineal de v1, . . . , vn sobre K. Entonces v1, . . . , vn,v
es una sucesión de vectores linealmente #independiente@ sobre K.
Demostración: Note primero que v no puede ser ninguno de los vectores
v1, . . . , vn. Supongamos que v1, . . . , vn,v no fueran linealmente independientes
sobre K. Entonces existen escalares a1, . . . , an,a en K tales que a1v1 + · · · +
anvn + av = 0. Si a = 0, tendríamos que los v1, . . . , vn son linealmente dependientes
sobre K, lo que es imposible, por lo que a ≠ 0. Entonces podemos
despejar a v y escribirlo como combinación lineal de v1, . . . , vn,
lo cual también es una contradicción.
Teorema 249. Sea V un K-espacio vectorial de dimensión finita, y sea C
un conjunto linealmente independiente sobre K. Entonces existe una #base@ de
V sobre K que contiene a C.
Demostración: Si C genera a V sobre K, entonces C es una base de V sobre
K. Si no, por el Lema anterior se le puede agregar un vector al conjunto
C y obtener un conjunto linealmente independiente sobre K. Este proceso
debe detenerse al llegar a la cardinalidad de una base de V , pues por el
Corolario 241, si C tiene más elementos que una #base@ de V sobre K, C no
es liealmente independiente sobre K.
Observación 250. El Teorema anterior dice que todo subconjunto linealmente
independiente de V puede extenderse a una base de V si V es de
dimensión finita. Este resultado también es válido para dimensión infinita.
Se demuestra primero que la familia de subconjuntos linealmente independientes
de V es inductiva, y por el Lema de Zorn, tiene un elemento #maximal@,
que por fuerza resulta ser una base de V .
Coordenadas con respecto a una base ordenada
Definición 270. Sea V un K-espacio vectorial de dimensión finita. Una
#base@ #ordenada@ de V es una sucesión de vectores β1, . . . , βn de V que es
linealmente independiente y genera a V .
Observación 271. La diferencia entre una base y una base ordenada es que
en la base ordenada establecemos un #orden@ en los vectores de la base.
Ejemplos 272. Una base ordenada de K2
es (1,0) y (0,1). Una base
ordenada distinta es (0,1) y (1,0). Note que estas dos bases ordenadas
forman el mismo #conjunto@.
La base ordenada #canónica@ de Kn
es e1, . . . , en en ese orden, donde ei
es el vector que tiene un uno en el lugar #i@ y cero en las demás entradas.
Otra posible base ordenada de R2
es (1,1) y (2,3). Como R2
es de
dimensión #2@, basta demostrar que dichos vectores #generan@ a R2
, para lo
que basta demostrar que generan a la base canónica. Note que (1, 0) =
3(1, 1) − (2, 3), y (0, 1) = (2, 3) − 2(1, 1).
Proposición 273. Sea V un K-espacio vectorial de dimensión finita, y sea
β1, . . . , βn una base ordenada de V. Entonces para cualquier vector v en V,
existen escalares #únicos@ a1, . . . , an en K tales que
v = a1β1 + · · · + anβn
El escalar ai se llama la i-ésima #coordenada@ con respecto a la base
ordenada β1, . . . , βn. El vector (a1, . . . , an) se llama el #vector@ de
#coordenadas@ de v con respecto a la base β1, . . . , βn, y se denota [v]β.
Dicho vector de coordenadas se considera usualmente como un vector columna,
aunque comúnmente se denote (a1, . . . , an).
Demostración: La #existencia@ de los escalares a1, . . . , an se sigue de que los
vectores β1, . . . , βn #generan@ a V . La #unicidad@ es consecuencia de que dichos
vectores sean linealmente #independientes@. En efecto, si ∑ aiβi =
∑ biβi
, restando nos queda que ∑ (ai − bi)βi es el vector cero; como los β1, . . . , βn son
linealmente independientes, se sigue que ai − bi #=@ 0 para toda i.
Matriz de cambio de base
Teorema 285. Sea V un K-espacio vectorial de dimensión n, y sean β =
β1, . . . , βn y γ = γ1, . . . , γn #bases@ ordenadas de V. Sea A la matriz de n por
n cuya columna i-ésima es el vector coordenada de γi con respecto a la base
β. Entonces A es invertible, y para todo v en V tenemos que
[v]β = A[v]γ y [v]γ = A-1[v]β
A la matriz A se le llama la matriz de #cambio@ de base de γ a β.
Demostración: Sea v un vector arbitrario en V . Sea X = (x1, . . . , xn) el
vector de #coordenadas@ de v con respecto a la base ordenada γ. Queremos
demostrar que #AX@ es el vector de coordenadas de v con respecto a la base β.
Por el Ejercicio 283, tenemos que
[v]β = [x1γ1 + · · · + xnγn]β
= x1[γ1]β + · · · + xn[γn]β
La última expresión es justamente el producto AX desglosado por columnas.
Procedamos a demostrar que la matriz A es #invertible@. Afirmamos que el
sistema homogéneo AX = #0@ tiene una solución única (la trivial). En efecto,
si X es solución de dicho sistema, el vector v cuyo vector de coordenadas con
respecto a la base γ es X cumple que [v]β = AX = 0. Por el Ejercicio 284, v
debe ser el vector #cero@, por lo que X también es el vector columna cero. Se
sigue que la matriz A debe ser invertible. Finalmente, de la ecuación [v]β =
A[v]γ obtenemos [v]γ = A-1
[v]β multiplicando por #A@#-1@
por la izquierda.
Cálculos relativos a subespacios
Definición 298. Sea K un campo y sea A una matriz de n por m con
entradas en K. El #espacio@ de renglones (o espacio de filas) de A es el
subespacio de K
m generado por los #renglones@ de A. El #rango@ de renglones
(o rango de filas) de A es la #dimensión@ del espacio de renglones de A.
Ejemplos 299. Sea I la matriz identidad de n por n con entradas en
un campo K. El espacio de renglones de I es #K@n
. El rango de renglones
de I es #n@.
Sea 0 la matriz cero de n por m con entradas en un campo K. El
#espacio@ de renglones de 0 es el subespacio cero de K
m. El rango de
renglones de 0 es cero.
Lema 300. Sea V un K-espacio vectorial y sean v1, . . . , vn vectores en V.
Sea a un escalar no nulo en K, y sean i ≠ j índices menores o iguales a n.
Tenemos que
< v1, . . . , vn > = < v1, . . . , vi−1, vj
, vi+1 . . . , vj−1, vi
, vj+1, . . . , vn >
= < v1, . . . , vi−1, avi
, vi+1 . . . , vn >
= < v1, . . . , vi−1, vi + avj
, vi+1 . . . , vn >
Demostración: En el primer caso se intercambiaron dos vectores, y el conjunto de
generadores es el mismo. En el segundo caso, note que avi es #múltiplo@
escalar de vi y viceversa. En el último caso, note que vi + avj es #combinación@
lineal de vi y vj
, y que vi es combinación lineal de vi + avj y vj
.
Corolario 301. Sea K un campo, y sea A una matriz de n por m con entradas
en K. Sea B una matriz invertible de n por n con entradas en K. Entonces
A y BA tienen el mismo #espacio@ de renglones.
Demostración: Como toda matriz invertible es producto de matrices elementales,
sin pérdida de generalidad podemos suponer que B es una matriz
#elemental@. El resto se sigue del Lema 300 aplicado a los renglones de A.
Proposición 302. Sea A una matriz no nula escalón reducida por renglones
de n por m con entradas en un campo K. Entonces los renglones no nulos de
A forman una #base@ del espacio de renglones de A.
Demostración: Los renglones de A generan al espacio de renglones de A,
y sólo los renglones no nulos son necesarios. Resta demostrar que dichos
renglones no nulos son linealmente #independientes@. Suponga que una combinación
lineal de los renglones no nulos de A es igual a cero. Entonces cada uno
de los escalares usados aparecen en las entradas donde viven los pivotes de A;
como dicha combinación lineal es cero, los escalares usados son todos iguales
a cero, por lo que los renglones de A son linealmente independientes.
Teorema 303. Sean n y m enteros positivos, y sea K un campo. Sea S n
subespacio de Kn
de dimensión menor o igual a m. Entonces existe una única
matriz de m por n #escalón@ reducida por renglones sobre K que tiene a S como
su espacio de renglones.
Demostración: Como S es de dimensión menor o igual a m, uno puede
escribir m generadores de S como renglones de una matriz, y luego llevarla a
su forma escalón reducida por renglones, sin cambiar el #espacio@ de renglones.
Supongamos ahora que dos matrices escalón reducidas por renglones tienen
el mismo espacio de renglones S. Note que todo vector no nulo de S tiene
su primera entrada no nula en alguna columna donde hay un pivote de su(s)
matriz(ces), por lo que las dos matrices escalón reducidas tienen pivotes en
las mismas columnas. Para que un renglón de una de estas matrices se escriba como
combinación lineal de los renglones de la otra matriz, se necesita
que el pivote correspondiente aparezca con un uno, y los demás pivotes con
cero, por lo que las dos matrices tienen los mismos renglones, y son por tanto
iguales.
Corolario 304. Sea K un campo, sea V = K
m y sean v1, . . . , vn vectores en
V. Sea S el subespacio de V generado por v1, . . . , vn, y sea A la matriz que se
obtiene poniendo a los v1, . . . , vn como renglones. Tenemos que:
1. La dimensión de S es el #rango@ por renglones de A.
2. Los vectores v1, . . . , vn son linealmente independientes sobre K si y sólo
si el rango por renglones de A es n, en cuyo caso los vectores v1, . . . , vn
forman una #base@ de S.
3. Una base “sencilla” de S se obtiene con los renglones no nulos de la
forma #escalón@ reducida por renglones de A.
4. Un vector v pertenece a S si y sólo si el rango por renglones de A es
igual al rango por renglones de A con un renglón extra igual al vector
#v@.
Demostración: Es inmediata del Teorema 303.
Corolario 305. Toda matriz de m por n con coeficientes en un campo K es
equivalente a una única matriz #escalón@ reducida por renglones.
Demostración: Este hecho se conocía desde antes, pero es consecuencia de
que un subespacio tiene una única matriz escalón reducida por renglones que
lo tiene como espacio de renglones.
Definición y ejemplos de transformación lineal
Definición 316. Sean V y W espacios vectoriales sobre un campo K, y
sea T : V −→ W una función. Decimos que T es una #transformación@
#lineal@ sobre K si para cualesquiera v y u en V y cualquier a en K se tiene
T(av + u) = #aT(v)+T(u)@.
Observación 317. Es equivalente pedir que para cualesquiera v y u en V y
cualquier a en K se tenga que T(#av+u@) = aT(v)+T(u), y pedir que T “abra
sumas y saque escalares”, es decir, T(v + u) = T(v) #+@ T(u) y T(av) = #aT(v)@.
También esto es equivalente con “preservar combinaciones lineales”, es decir,
T(∑ aivi) = ∑ aiT(vi).
Ejemplos 318. La función identidad de V en V es una transformación
#lineal@.
La función #constante@ cero de V en W es una transformación lineal,
llamada la tranformación cero.
La derivación es una transformación lineal en R[x].
Multiplicación por una matriz A de n por m por la izquierda es una
transformación lineal de Mm×t(K) en Mn×t(K), que manda a B en #AB@.
Multiplicación por una matriz A de t por n por la derecha es una
transformación lineal de Mm×t(K) en Mm×n(K), que manda a B en
#BA@.
Proposición 319. Sea T : V −→ W una transformación lineal. Entonces
T(0) = #0@.
Demostración: Tenemos que T(0) = T(00) = 0T(0) = 0.
Teorema 320. (Propiedad universal de las #bases@) Sean V y W K-espacios
vectoriales con V de dimensión finita. Sea β = β1, . . . , βn una base de V sobre
K, y sean w1, . . . , wn vectores cualesquiera en W. Entonces existe una única
transformación lineal T : V −→ W tal que T(βi) #=@ wi para toda i.
Demostración: Si existiera una tal transformación lineal T, por linealidad
tendríamos que T(∑ aiβi) = ∑ aiT(βi) = ∑ aiwi, lo que nos da la unicidad.
Además, si definimos T por esta fórmula, vemos que es una transformación
lineal, pues T(&sum aiβi+ &sum biβi) = T(∑ (ai+bi)βi) = ∑(ai+bi)wi) =
∑
aiwi+
biwi = T(
∑aiβi) + T(
∑biβi) es decir, T abre #sumas@. Por otro lado,
T(b
∑aiβi) = T(
∑baiβi) = ∑baiwi = b
∑aiwi = bT(
∑aiβi) es decir, T
saca #escalares@.
Núcleo e imagen de una transformación
lineal; Regla de la dimensión
Definición 328. Sea T : V −→ W una transformación lineal. El espacio
nulo de T (o #núcleo@, o kernel de T) es el conjunto
ker(T) = {v ∈ V | T(v) = #0@}.
Lema 329. Sea T : V −→ W una transformación lineal. Entonces el espacio
nulo de T es un #subespacio@ de V.
Demostración: Sabemos que T(0) = 0, por lo que #0@ ∈ ker(T). Sean v, u ∈
ker(T), y a ∈ K. Tenemos que T(av + u) = aT(v) + T(u) = a0 + 0 = 0, es
decir, #av+u@ ∈ ker(T).
Definición 330. La #nulidad@ de una transformación lineal T es la dimensión
de su espacio nulo.
Definición 331. Sea T : V −→ W una transformación lineal. La imagen
de T es el conjunto Im(T) = {#T(v)@ | v ∈ V}.
Lema 332. Sea T : V −→ W una transformación lineal. Entonces la imagen
de T es un #subespacio@ de W.
Demostración: Tenemos que 0 = T(0) ∈ Im(T). Sean T(v), T(u) ∈ Im(T),
y sea a ∈ K. Se tiene que aT(v) + T(u) = T(av + u) ∈ Im(T).
Definición 333. Sea T : V −→ W una transformación lineal. El #rango@ de
T es la dimensión de Im(T).
Ejemplos 334. Sea T : K2 −→ K2
dada por T(x, y) = (x, 0). El #núcleo@
de T es {(0, y) | y ∈ K}. La #nulidad@ de T es uno. La #imagen@ de T es
{(x, 0) | x ∈ K}. El #rango@ de T es uno.
Sea T : K3 −→ K3
dada por T(x, y, z) = (z, 0, 0). El #núcleo@ de T es
{(x, y, 0) | x, y ∈ K}. La nulidad de T es dos. La #imagen@ de T es
{(x, 0, 0) | x ∈ K}. El rango de T es uno.
Sea T : K3 −→ K3
dada por T(x, y, z) = (z, x, y). El núcleo de T es
{(0, 0, 0)}. La #nulidad@ de T es cero. La imagen de T es K3
. El #rango@
de T es tres.
Teorema 335. (Regla de la dimensión) Sea T : V −→ W una transformación lineal,
con V de dimensión finita. Entonces la #nulidad@ de T más el
#rango@ de T es igual a la #dimensión@ de V.
Demostración: Sea β1, . . . , βn base del núcleo de T (por lo que la nulidad
de T es n). Completemos esta base a una base β1, . . . , βn, γ1, . . . , γm de V .
Debemos demostrar que el rango de T es m. Afirmamos que T(γ1), . . . , T(γm)
es una base de la imagen de T, lo que demostraría que el rango de T es
m y completaríamos la demostración.
Definición 336. Sea A una matriz de n por m con entradas en un campo
K. El rango de #renglones@ de A (o rango de filas de A) es la dimensión del
subespacio de Km generado por los renglones de A. El #rango@ de columnas
de A es la dimensión del subespacio de Kn
generado por las columnas de A.
Observación 337. Usando técnicas de sistemas de ecuaciones y la Regla
de la dimensión, es posible demostrar que el rango de #renglones@ de una matriz es
igual a su #rango@ de columnas. Sin embargo, nosotros posponemos una
demostración de este hecho para más tarde. El lector interesado puede
demostrarlo estableciendo primero que las operaciones elementales de renglón
y de columna (¡defínalas!) no afectan los rangos de renglones ni de columnas,
y luego llegando a una forma “diagonal reducida” (donde aij = 0 si i ≠ j),
donde el resultado es claramente cierto.
Algebra de las transformaciones lineales
Definición 347. Sean T, U : V −→ W transformaciones lineales. Definimos
T + U como la función de V en W dada por (T + U)(v) = #T(v)+U(v)@.
Análogamente, si a es un escalar, definimos aT como la función de V en W
dada por (aT)(v) = #aT(v)@. El conjunto de todas las transformaciones lineales
sobre K de V en W se denota Homk(V, W).
Proposición 348. Sean T, U : V −→ W transformaciones lineales. Entonces T + U es
una transformación lineal. Si a es un escalar, entonces aT
es una transformación lineal. El conjunto Homk(V, W) con las operaciones
de suma y multiplicación escalar definidas anteriormente es un #espacio@ vectorial sobre K.
Demostración: Primero veamos que T + U es una transformación lineal.
T + U abre #sumas@: sean v, u ∈ V . Tenemos que (T + U)(v + u) = T(v + u) +
U(v + u) = [T(v) + T(u)] + [U(v) + U(u)] = T(v) + U(v) + T(u) + U(u) =
(T + U)(v) + (T + U)(u).
T + U saca #escalares@: (T + U)(av) = T(av) + U(av) = aT(v) + aU(v) =
a[T(v) + U(v)] = a[(T + U)(v)]; por lo tanto, T + U es una transformación
lineal.
Hagamos lo mismo con aT. aT #abre@ sumas: sean v, u ∈ V . Tenemos que
(aT)(v + u) = a[T(v + u)] = a[T(v) + T(u)] = aT(v) + aT(u) = (aT)(v) +
(aT)(u).
aT #saca@ escalares: (aT)(bv) = a[T(bv)] = a[bT(v)] = [ab]T(v) = [ba]T(v) =
b[aT(v)] = b[(aT)(v)]; por lo tanto, aT es una transformación lineal.
Finalmente, el hecho de que con estas operaciones de suma y multiplicación por
escalares Homk(V, W) sea un K-espacio vectorial, se sigue de
que las propiedades necesarias para Homk(V, W) se heredan de V y W. Por
ejemplo, T + U = U + T porque T(v) + U(v) = U(v) + T(v).
Definición 349. Sea V un K-espacio vectorial. Un #operador@ lineal sobre
V es una transformación lineal de V en #V@ .
Ejemplo 350. T : R2 −→ R2
dada por T(x, y) = (y, x) es un operador lineal
en #R@#2@.
Teorema 351. Sean TV −→ W y U : W −→ Z transformaciones lineales.
Entonces la #composición@ UT = U ◦T : V −→ Z es una transformación lineal.
Demostración: Tenemos que (UT)(v + u) = U(T(v + u)) = U[T(v) +
T(u)] = U(T(v)) + U(T(u)) = (UT)(v) + (UT)(u) = (UT)(v + u). Además,
(UT)(av) = U(T(av)) = U[aT(v)] = aU[T(v)] = a[(UT)(v)].
Definición 352. Sea T : V −→ W una transformación lineal. Decimos que
T es singular si T #no@ es inyectiva. Tenemos entonces que T es no singular
si y sólo si T es #inyectiva@.
Ejemplo 353. T : R2 −→ R2
dada por T(x, y) = (x, 0) es #singular@, pues
T(0, 1) = (0, 0) = T(0, 0).
Isomorfismos
Definición 362. Sea T : V −→ W una transformación lineal. Decimos que
T es un #isomorfismo@ (o invertible, o inversible) si T es #biyectiva@, es decir,
T es inyectiva y suprayectiva.
Ejemplos 363. Sea T : V −→ V la identidad. Entonces T es un
#isomorfismo@.
Sea T : R2 −→ R2
dada por T(x, y) = (y, x). Entonces T es un isomorfismo.
Teorema 364. Sean V y W K-espacios vectoriales de dimensión finita y
de igual dimensión, y sea T : V −→ W una transformación lineal. Son
equivalentes:
1) T es inyectiva.
2) T es suprayectiva.
3) T es un #isomorfismo@.
Demostración: Note que por el Ejercicio 345, T es inyectiva si y sólo si su
#núcleo@ es el subespacio nulo, es decir, T es inyectiva si y sólo si su nulidad
es cero. Por otro lado, T es suprayectiva si y sólo si su #imagen@ es W, lo cual
ocurre si y sólo si el rango de T es igual a la dimensión de W. El resto se
sigue de la regla de la #dimensión@ (Teorema 335).
Matriz asociada a una transformación lineal
Definición 374. Sean V y W K-espacios vectoriales de dimensión finita, y
sean β1, . . . , βn y γ1, . . . , γm bases de V y W respectivamente. Sea T : V −→
W una transformación lineal. La #matriz@ asociada a la transformación lineal
T con respecto a las #bases@ β y γ es la matriz de m por n cuya columna i-ésima
es el vector #coordenada@ de T(βi) con respecto a la base γ. Denotamos esta
matriz γ[T]β. Si V = W y β #=@ γ, denotamos esta matriz simplemente [T]β.
Ejemplo 375. Sea T : R3 −→ R2
dada por T(x, y, z) = (2y−z, 3x+5y+7z).
Considere las bases canónicas β = (1, 0, 0),(0, 1, 0),(0, 0, 1) de R3
y γ =(1, 0),(0, 1) de R2. La matriz asociada a T con respecto a estas bases es
γ[T]β =
Teorema 376. Sean V y W K-espacios vectoriales de dimensiones finitas
n y m respectivamente. Sea Homk(V, W) el conjunto de transformaciones
lineales de V en W, y sean β = β1, . . . , βn y γ = γ1, . . . , γm bases de V y W
respectivamente. Para cada T ∈ Homk(V, W), sea γ[T]β la matriz asociada
a T con respecto a las bases β y γ. Tenemos lo siguiente:
1. T es la función constante cero si y sólo si γ[T]β es la #matriz@ cero.
2. γ[T]β[v]β = [T(v)]γ y γ[T]β es la #única@ matriz con esta propiedad.
3. T es un isomorfismo si y sólo si γ[T]β es una matriz #invertible@.
4. La asignación T 7→ γ[T]β es un #isomorfismo@ de Homk(V, W) en Mm×n(K).
5. Si además V = W y β = γ, entonces T es la función #identidad@ si y
sólo si [T]β es la matriz identidad.
Demostración: Sea A = γ[T]β. Note que T es la función constante cero si y
sólo si T(βi) es cero para toda i, que es equivalente a que A sea la matriz
cero.
Note que la afirmación es clara para los elementos de la base β; el resultado
del Teorema se sigue tomando combinaciones lineales arbitrarias de dichos
vectores básicos.
Supongamos ahora que T es un isomorfismo. Por el Ejercicio 372, V y W
tienen la misma #dimensión@, y A es una matriz cuadrada. Además, el sistema
AX = 0 tiene sólo la solución trivial, pues si v ∈ V y X = [v]β, entonces
AX = [T(v)]γ, que es cero si y sólo si T(v) es cero, que sólo pasa si v es
cero, por lo que A es invertible. El mismo argumento a la inversa demuestra
que si A es cuadrada, entonces V y W tienen la misma dimensión, y si A es
invertible, entonces T es inyectiva, y por el Teorema 364, T es un isomorfismo.
La asignación T 7→ γ[T]β es una transformación #lineal@ porque los vectores
coordenadas con respecto a una base preservan combinaciones lineales. Es
inyectiva por la primera parte de este resultado. Es suprayectiva porque toda
matriz A se puede ver como la matriz asociada una transformación lineal T,
donde T está definida en la base β por T(βi) = ∑ Aj,iγj. Por lo tanto,
esta asignación T → γ[T]β es un isomorfismo de Homk(V, W) en Mm×n(K).
Finalmente, si V = W y β = γ, tenemos que T es la función identidad
si y sólo si T(βi) = βi para toda i, lo cual ocurre si y sólo si A es la matriz
identidad.
Semejanza de matrices
Definición 382. Sean A y B dos matrices de n por n con entradas en un
campo K. Decimos que A y B son #semejantes@ (o conjugadas) si existe
una matriz #invertible@ P tal que B = #P@ A#P@#-1@.
Ejemplo 383. Considere las matrices
A =
B =
P =
A y B son #semejantes@, pues B = P AP −1.
Proposición 384. Sea V un K-espacio vectorial de dimensión n, sean β =
β1, . . . , βn y γ = γ1, . . . , γn bases de V , y sea T una transformación lineal de
V en V . Entonces [T]β y [T]γ son matrices #semejantes@.
Demostración: Sea A la matriz de cambio de base de β a γ. Entonces tenemos que A−1
[T]γA = [T]β. Para ver esto, analicemos lo que le pasa a un
vector coordenada según beta con ambas expresiones. La expresión de la
izquierda primero convierte a las coordenas de un vector con respecto a beta
en coordenadas con respecto a gama (la A), luego lo manda a las coordenadas
de #T(v)@ con respecto a gama (la [T]γ), y finalmente lo convierte a
las coordenadas de T(v) con respecto a beta (la A−1). Esto mismo hace la expresión
de la derecha, de forma más directa.
Funcionales lineales, espacio dual y bases duales
Definición 389. Sea V un K-espacio vectorial. Un #funcional@ #lineal@ en V
es una transformación lineal de V en el #campo@ K. El espacio #dual@ de V ,
denotado #V@#*@, es el conjunto de todos los funcionales lineales en V .
Ejemplo 390. Sea V = R2
. Un #funcional@ lineal en V es la función T : R2 −→
R dada por T(x, y) = 2x − 5y.
Definición 391. Sea V un K-espacio vectorial de dimensión finita, y sea
β = β1, . . . , βn una base de V . La #base@ #dual@ de β, denotada β#*@, es la
sucesión β*1
, . . . , β*n
, donde β*i
es el funcional lineal en V dado por β*i
(a1β1 +
· · · + anβn) = #ai@.
Ejemplo 392. Sea V = R2, y sea β la base canónica. Entonces β*1
(x, y) = #x@,
y β*2
(x, y) = #y@.
Teorema 393. Sea V un K-espacio vectorial de dimensión finita, y sea β =
β1, . . . , βn una base de V . Entonces la base dual de β es una #base@ de V*.
Demostración: Sabemos que V*
= HomK(V, K) y que su dimensión es el
producto de la dimensión de V por la dimensión de k, que es n por uno
igual a #n@. Así, basta demostrar que la base dual β*1
, . . . , β*n
genera a V*. Sea
T ∈ V∗. Defina ai = T(βi). Entonces es claro que T = a1β*1
+ · · · + anβ*n,
pues en cada básico βi vemos que ambos funcionales lineales valen #ai@.
Transpuesta de una transformación lineal
Definición 398. Sea A una matriz de n por m con entradas en un campo
K. La matriz #transpuesta@ de A, denotada A#t@, es la matriz de #m@ por #n@
cuyas entradas están dadas por Ati,j = A#j,i@. Es decir, los renglones de At
son las columnas de A, y las columnas de At
son los renglones de A.
Ejemplo 399. Sea
A =
Entonces
At =
Definición 400. Sean V y W K-espacios vectoriales, y sea T : V −→ W
una transformación lineal. Entonces la función T*
: W* −→ V*
tal que
T*
(g) = #g@ ◦ #T@ para toda g en W*, se llama la #transpuesta@ (o adjunta) de
T. Algunos autores la denotan Tt
en lugar de T*.
Anillos conmutativos, funciones multilineales y funciones determinantes
Definición 407. Sea R un conjunto con dos operaciones binarias, llamadas
suma (o adición) y producto (o multiplicación), denotadas + y · respectivamente.
Decimos que R es un #anillo@ si cumple las siguientes propiedades,
llamadas los axiomas de anillo:
1. La suma es asociativa, es decir, para cualesquiera a,b y c en R se tiene
a + (b + c) = #(a+b)+c@.
2. La suma es conmutativa, es decir, para cualesquiera a y b en R se
tiene a + b = #b+a@.
3. La suma tiene un elemento neutro (llamado cero o neutro aditivo),
es decir, existe 0 en R único tal que para todo a en R se tiene a+0 = #a@.
4. La suma tiene inversos, es decir, para todo a en R existe un único
elemento b tal que a + b = #0@. A b se le llama el inverso aditivo de a,
y se le denota #-a@.
5. El producto es #asociativo@, es decir, para cualesquiera a,b y c en R se
tiene a · (b · c) = (a · b) · c.
6. El producto tiene un elemento neutro (llamado uno o neutro multiplicativo),
es decir, existe 1 en R único tal que para todo a en R se
tiene a · 1 = #a@.
7. El producto distribuye a la suma, es decir, para cualesquiera a,b y c
en R se tiene a·(#b+c@) = (a·b)+(a·c) y también que (#a+b@)·#c@ = a·c+b·c.
Si aparte se cumple que el producto es conmutativo, decimos que R es un
anillo #conmutativo@. Algunos autores dicen “anillo con uno” y “anillo conmutativo
con uno” para lo que nosotros llamamos “anillo” y “anillo conmutativo”.
Definición 409. Sea R un anillo conmutativo, y sea n un entero positivo.
Sea D una función que asigna a cada matriz A de n por n con entradas en D
un escalar D(A) en R. Se dice que D es #n-lineal@ si para cada i entre 1 y n,
D es una función lineal del i-ésimo renglón cuando los otros (n−1) renglones
se dejan fijos. Si además D cumple que D(A) = #0@ cuando dos renglones de A
son iguales, decimos que D es una función #alternante@ (o alternada). Si D
es una función n-lineal, alternante, y tal que D(I) = #1@ (donde I es la matriz
identidad), decimos que D es una función #determinante@.
Permutaciones, unicidad de los determinantes y
Teorema del producto para determinantes
Definición 415. Sea n un entero positivo. Una #permutación@ de n
(o simplemente una permutación) es una biyección del conjunto {1, . . . , n} en sí mismo.
El conjunto de todas las permutaciones de n se denota Sn, y se llama el
grupo #simétrico@ de grado n. Una #transposición@ es una permutación σ
tal que existen i, j ∈ {1, . . . , n} con
σ(k) igual a i si k = j, igual a
j si k = i, e igual a k en otro caso.
A la anterior transposición se le denota usualmente (i, j).
Notación 417. Sea n un entero mayor que uno, y sea A una matriz de n
por n con entradas en un anillo conmutativo R. Designemos por A(i|j) a la
matriz de n − 1 por n − 1 que se obtiene eliminando el #i@-ésimo renglón y la
#j@-ésima columna de A.
Proposición 418. Sea n un entero positivo, y sea D una función (n − 1)-
lineal alternante de las matrices n − 1 por n − 1. Para cualquier j entre 1 y
n, la función Dj definida para todas las matrices A de n por n con entradas
en R por la fórmula
Dj(A) = ∑(−1)i+1Ai,jD[A(i|j)]
es una función n-lineal alternada de las matrices de n por n con entradas en
R. Si D es una función #determinante@, también lo es Dj .
Demostración: Cada una de las partes de Dj es una función n-lineal de A,
por lo que Dj es n-lineal. Si A tiene dos renglones iguales, todas las D[A(i|j)]
serán cero menos dos, que se anulan mutuamente. Si D(In−1) es uno, también
lo es Dj (In).
Corolario 419. Para cualquier entero positivo n existe una función #determinante@ en
el conjunto de matrices n por n con entradas en un anillo conmutativo R.
Demostración: Para n igual a uno es claro. Las siguientes se construyen
recursivamente usando el resultado anterior.
Lema 420. Sea σ una permutación de n, y sea Iσ la matriz que se obtiene
permutando los renglones de la matriz identidad de n por n según σ. Sea
D una función determinante en las matrices n por n con entradas en un
anillo conmutativo R. Entonces D(Iσ) es igual a 1 o -1; dicho valor se llama
el #signo@ de la permutación σ, y se denota sgn(σ). Además, tenemos que el
signo de σ es uno si y sólo si σ puede escribirse como un producto de un
número par de transposiciones.
Demostración: Se sigue de que se pueden ir intercambiando los renglones
de Iσ para llevarla a la matriz identidad. Con cada cambio de renglones, el
signo de D(A) cambia.
Lema 421. Sea σ una permutación de n, y sea Iσ la matriz que se obtiene
permutando los renglones de la matriz identidad de n por n según σ. Sea D
una función n-lineal alternante en las matrices n por n con entradas en un
anillo conmutativo R. Entonces
D(Iσ) = [sgn(σ)]D(#I@)
Demostración: Es análoga a la demostración del Lema anterior, con la salvedad
de que al llegar a la identidad, D(I) puede no ser uno.
Lema 422. Sea R un anillo conmuntativo y sea n un entero positivo. Sea D
una función alternante n-lineal sobre las matrices n por n con entradas en
R. Entonces para cualquier matriz A de n por n con entradas en R tenemos
que
D(#A@) = ∑
σ∈Sn
[sgn(σ)]A1,σ(1) . . . An,σ(n)D(I)
Teorema 423. Sea R un anillo conmuntativo y sea n un entero positivo.
Existe exactamente una función #determinante@ det sobre el conjunto de las
matrices n por n sobre R, y está definida por
det(A) = ∑
σ∈Sn
[sgn(σ)]A1,σ(1) . . . An,σ(n)
Demostración: Se sigue del Lema 422 y de que la función determinante debe
valer uno en la matriz identidad.
Matriz adjunta y Regla de Cramer
Definición 428. Sean R un anillo conmutativo y n un entero mayor que
uno. Sea A una matriz de n por n con entradas en R, y sean i, j enteros entre
1 y n. El #cofactor@ (i, j) de A se define como el número (−1)i+j det(A(i|j)).
La #matriz@ de cofactores de A es la matriz cuya entrada (i, j) es el cofactor
(i, j) de A. La matriz adjunta de A, denotada adj(A), es la #transpuesta@ de
la matriz de cofactores de A.
Teorema 430. (Regla de Cramer) Sea A una matriz de n por n con entradas
en un campo K y tal que det(A) ≠ 0. Sean Y = (y1, . . . , yn). Considere el
sistema lineal no homogéneo
AX = Y
La única solución (x1, . . . , xn) de este sistema está dada por
xj =
det(Bj)/#det(A)@
donde Bj es la matriz de n por n que se obtiene de A remplazando la columna
#j@ de A por #Y@ .
Demostración: Se sigue del hecho de que X = A−1Y y del Ejercicio 436.
Tarea 1 Algebra Lineal I
Calcula la matriz aumentada asociada al sistema de ecuaciones sobre los reales:
x + y = 2
2x + y = 2
Encuentra la forma escalón reducida por renglones de dicha matriz aumentada:
Escribe el conjunto solución del sistema de ecuaciones lineales: si hay variables libres, usa las letras t,s,r en ese orden para los
parámetros.
Conjunto solución = {#(0,2)@}
Calcula la matriz aumentada asociada al sistema de ecuaciones sobre los reales:
x + y = 3
5x + y = 3
Encuentra la forma escalón reducida por renglones de dicha matriz aumentada:
Escribe el conjunto solución del sistema de ecuaciones lineales: si hay variables libres, usa las letras t,s,r en ese orden para los
parámetros.
Conjunto solución = {#(0,3)@}
Calcula la matriz aumentada asociada al sistema de ecuaciones sobre los reales:
x + y = -1
6x + y = -1
#1@ | #1@ | #-1@ |
#6@ | #1@ | #-1@ |
Encuentra la forma escalón reducida por renglones de dicha matriz aumentada:
Escribe el conjunto solución del sistema de ecuaciones lineales: si hay variables libres, usa las letras t,s,r en ese orden para los
parámetros.
Conjunto solución = {#(0,-1)@}
Calcula la matriz aumentada asociada al sistema de ecuaciones sobre los reales:
x + y = 4
5x + y = 20
Encuentra la forma escalón reducida por renglones de dicha matriz aumentada:
Escribe el conjunto solución del sistema de ecuaciones lineales: si hay variables libres, usa las letras t,s,r en ese orden para los
parámetros.
Conjunto solución = {#(4,0)@}
Calcula la matriz aumentada asociada al sistema de ecuaciones sobre los reales:
x + y = 4
2x + y = 5
Encuentra la forma escalón reducida por renglones de dicha matriz aumentada:
Escribe el conjunto solución del sistema de ecuaciones lineales: si hay variables libres, usa las letras t,s,r en ese orden para los
parámetros.
Conjunto solución = {#(1,3)@}
Calcula la matriz aumentada asociada al sistema de ecuaciones sobre los reales:
x + y = 3
x - y = 3
Encuentra la forma escalón reducida por renglones de dicha matriz aumentada:
Escribe el conjunto solución del sistema de ecuaciones lineales: si hay variables libres, usa las letras t,s,r en ese orden para los
parámetros.
Conjunto solución = {#(3,0)@}
Calcula la matriz aumentada asociada al sistema de ecuaciones sobre los reales:
x + y = 7
x - y = 7
Encuentra la forma escalón reducida por renglones de dicha matriz aumentada:
Escribe el conjunto solución del sistema de ecuaciones lineales: si hay variables libres, usa las letras t,s,r en ese orden para los
parámetros.
Conjunto solución = {#(7,0)@}
Calcula la matriz aumentada asociada al sistema de ecuaciones sobre los reales:
x + y - z = 7
x - y - z = 7
x + y + z = 7
#1@ | #1@ | #-1@ |
#7@ |
#1@ | #-1@ | #-1@ |
#7@ |
#1@ | #1@ | #1@ |
#7@ |
Encuentra la forma escalón reducida por renglones de dicha matriz aumentada:
#1@ | #0@ | #0@ |
#7@ |
#0@ | #1@ | #0@ |
#0@ |
#0@ | #0@ | #1@ |
#0@ |
Escribe el conjunto solución del sistema de ecuaciones lineales: si hay variables libres, usa las letras t,s,r en ese orden para los
parámetros.
Conjunto solución = {#(7,0,0)@}
Calcula la matriz aumentada asociada al sistema de ecuaciones sobre los reales:
x + y = 3
2x + 2y = 6
Encuentra la forma escalón reducida por renglones de dicha matriz aumentada:
Escribe el conjunto solución del sistema de ecuaciones lineales: si hay variables libres, usa las letras t,s,r en ese orden para los
parámetros.
Conjunto solución = {#(3-t,t)@}
La inversa de la matriz
está dada por:
La inversa de la matriz
está dada por:
La inversa de la matriz
está dada por:
La inversa de la matriz
está dada por:
La inversa de la matriz
está dada por:
La inversa de la matriz
está dada por:
La inversa de la matriz
está dada por:
¿Falso o verdadero? Sean A,B matrices. Si AB es invertible, entones A y B son invertibles. f/v: #v@
Justificación: #H0@
¿Falso o verdadero? Sean A,B matrices. Si AB no es invertible, entones ni A ni
B son invertibles. f/v: #f@
Justificación: #H1@
¿Falso o verdadero? Sean A,B matrices. Si AB = 0, entones A = 0 y B = 0. f/v: #f@
Justificación: #H1@
¿Falso o verdadero? Sean A,B matrices. Si AB = 0 y A es invertible, entonces B = 0. f/v: #v@
Justificación: #H2@
¿Falso o verdadero? Sean A,B matrices. Si AB = I entonces A = I o B = I. f/v: #f@
Justificación: #H3@
¿Falso o verdadero? Sea A una matriz tal que A2 = I. Entonces A = I. f/v: #f@
Justificación: #H4@
La única solución del sistema de ecuaciones lineales sobre los reales
2x + 3y = 7
5x + 6y = 16
está dada por el vector (#2@,#1@)
La única solución del sistema de ecuaciones lineales sobre los reales
2x + 3y = -2
5x + 6y = -5
está dada por el vector (#-1@,#0@)
La única solución del sistema de ecuaciones lineales sobre los reales
2x + 3y = 3
5x + 6y = 6
está dada por el vector (#0@,#1@)
La única solución del sistema de ecuaciones lineales sobre los reales
2x + 3y = 15
5x + 6y = 33
está dada por el vector (#3@,#3@)
La única solución del sistema de ecuaciones lineales sobre los reales
2x + 3y = 0
5x + 6y = 0
está dada por el vector (#0@,#0@)
La única solución del sistema de ecuaciones lineales sobre los reales
2x + 3y = 5
5x + 6y = 11
está dada por el vector (#1@,#1@)
La única solución del sistema de ecuaciones lineales sobre los reales
2x + 3y = -5
5x + 6y = -11
está dada por el vector (#-1@,#-1@)
Dada la matriz
su inversa es
Dada la matriz
su inversa es
Dada la matriz
su inversa es
Dada la matriz
su inversa es
¿Falso o verdadero? Sean A,B matrices. Si AB = A2, entonces A y B conmutan. f/v: #f@
Justificación: #H0@
¿Falso o verdadero? Sean A,B matrices, con A invertible. Si AB = A2, entonces A y B conmutan. f/v: #v@
Justificación: #H1@
¿Falso o verdadero? Sea A una matriz cuadrada. Si A2 = 0, entonces A no es invertible. f/v: #v@
Justificación: #H2@
¿Falso o verdadero? Sea A una matriz cuadrada. Si A2 = 0, entonces A = 0. f/v: #f@
Justificación: #H3@
¿Falso o verdadero? Sea A una matriz cuadrada. Si A2 = I (I es la identidad),
entonces A = I. f/v: #f@
Justificación: #H4@
Sea V un espacio vectorial de dimensión finita n, y sea W un subespacio vectorial de V.
Entonces la dimensión de W es menor o #igual@ a n. Más aún, la dimensión de #W@ es igual a n
si y solamente si W = V.
Demostración: Sea B una base de W. Entonces B es un conjunto linealmente #independiente@ que
genera a W. En particular, #B@ es un conjunto linealmente independiente en V, y se puede
extender a una #base@ C de V. Notamos que como #C@ contiene a B, la cardinalidad de B (que es la
dimensión de #W@) debe ser menor o #igual@ a la cardinalidad de #C@ (que es la dimensión de #V@).
Más aún, si la dimensión de W es #igual@ a la dimensión de V,
tenemos que #B@ contenido en C con C finito y de la misma cardinalidad de B implica que B = #C@.
Pero #B@ genera a W, y C genera a #V@, de donde se debe tener que #W@ = V.
Sea V un espacio vectorial de dimensión finita n, y sea W un subespacio vectorial de V.
Entonces la dimensión de W es #menor@ o igual a n. Más aún, la dimensión de W es igual a #n@
si y solamente si W = V.
Demostración: Sea B una base de W. Entonces B es un conjunto linealmente independiente que
#genera@ a W. En particular, B es un conjunto linealmente #independiente@ en V, y se puede
extender a una base C de #V@. Notamos que como C contiene a #B@, la cardinalidad de B (que es la
dimensión de #W@) debe ser #menor@ o igual a la cardinalidad de C (que es la dimensión de #V@).
Más aún, si la dimensión de W es igual a la dimensión de #V@,
tenemos que B contenido en #C@ con C finito y de la misma cardinalidad de #B@ implica que B #=@ C.
Pero B genera a #W@, y #C@ genera a V, de donde se debe tener que W = #V@.
Sea V un espacio vectorial de dimensión finita n, y sea W un subespacio vectorial de V.
Entonces la dimensión de W es menor o igual a #n@. Más aún, la dimensión de W es igual a n
si y solamente si W = #V@.
Demostración: Sea B una base de W. Entonces B es un conjunto linealmente independiente que
genera a #W@. En particular, B es un conjunto linealmente independiente en #V@, y se puede
extender a una base C de #V@. Notamos que como C contiene a #B@, la cardinalidad de B (que es la
dimensión de #W@) debe ser #menor@ o igual a la cardinalidad de C (que es la dimensión de #V@).
Más aún, si la dimensión de #W@ es igual a la dimensión de V,
tenemos que B contenido en C con #C@ finito y de la misma cardinalidad de B implica que #B@ = C.
Pero #B@ genera a #W@, y #C@ genera a V, de donde se debe tener que W = #V@.
Sea T de V en W una transformación lineal, y sean v,u en V. Entonces T(v) = T(#u@) si y solamente
si v - u está en el núcleo de #T@.
Demostración: Supongamos que #T(v)@ = T(u). Restando tenemos que 0 = T(v) - #T(u)@ = T(v-u), es decir,
#v-u@ está en el núcleo de T. Inversamente, si v - u está en el #núcleo@ de T, entonces #0@ = T(v-u) = T(v) - T(u);
sumando #T(u)@ tenemos que T(u) = T(v).
Sea T de V en W una transformación lineal, y sean v,u en V. Entonces T(#v@) = T(u) si y solamente
si v - #u@ está en el núcleo de T.
Demostración: Supongamos que T(v) #=@ T(u). Restando tenemos que #0@ = T(v) - T(u) = T(#v-u@), es decir,
v-u está en el #núcleo@ de T. Inversamente, si v - u está en el núcleo de #T@, entonces 0 = T(#v-u@) = T(v) - T(u);
sumando T(u) tenemos que #T(u)@ = T(v).
Sea T de V en W una transformación lineal, y sean v,u en V. Entonces T(v) = T(u) si y solamente
si v #-@ u está en el núcleo de T.
Demostración: Supongamos que T(v) = #T(u)@. Restando tenemos que 0 = #T(v)@ - T(u) = T(#v-u@), es decir,
v-u está en el núcleo de #T@. Inversamente, si #v-u@ está en el núcleo de T, entonces 0 = T(v-u) = #T(v)@ - #T(u)@;
sumando T(u) tenemos que T(u) = #T(v)@.
Calcula la matriz aumentada asociada al sistema de ecuaciones sobre los reales:
x + y = 3
2x + 2y = 6
Encuentra la forma escalón reducida por renglones de dicha matriz aumentada:
Escribe el conjunto solución del sistema de ecuaciones lineales: si hay variables libres, usa las letras t,s,r en ese orden para los
parámetros.
Conjunto solución = {#(3-t,t)@}
La inversa de la matriz
está dada por:
La inversa de la matriz
está dada por:
La inversa de la matriz
está dada por:
La inversa de la matriz
está dada por:
La inversa de la matriz
está dada por:
La inversa de la matriz
está dada por:
La inversa de la matriz
está dada por:
En R3, el conjunto de vectores (çd0Ç,0,0), (0,çd1Ç,0) y (0,0,çd2Ç) es
linealmente #independiente@, pues los únicos escalares reales a,b,c que cumplen
a(çd0Ç,0,0) + #b@(0,çd1Ç,0) + c(0,0,#çd2Ç@) = (0,0,0) son a=b=c=#0@.
En R3, el conjunto de vectores (çd0Ç,0,0), (0,çd1Ç,0) y (0,0,çd2Ç)
genera de R3, pues cualquier vector arbitrario (x,y,z) en R3
se puede escribir como (x,y,z) = #a@(çd0Ç,0,0) + b(0,çd1Ç,0) + c(0,0,#çd2Ç@)
con a = x/çd0Ç, b = #y@/#çd1Ç@ y c = #z@/çd2Ç .
Sea T de R2 en R2 una transformación lineal, tal que
T no es la transformación lineal 0, pero T2 = 0. Entonces existe una base
de R2 con respecto a la cual la matriz de T se ve como
Demostración: Sea K el núcleo de T. Sabemos que K es un subespacio de R#2@,
por lo que la dimensión de K debe ser 0, #1@ o 2. Si la dimensión de K fuera 2, entonces K sería
igual a #R@2, por lo que todo elemento de R2 iría a dar a #0@ bajo T,
de donde T sería la transformación lineal #0@, que es una contradicción con la hipótesis.
Si la dimensión de K fuera 0, eso significa que K es el espacio cero, por lo que T
sería #inyectiva@, de donde T2 también sería inyectiva, contradiciendo el hecho
de que T2 = #0@. Así, K debe tener dimensión #1@. Sea v un vector que genera a K.
Como T2 = #0@, tenemos que la imagen de T debe estar contenida en el #núcleo@ de T,
y por la regla de la dimensión, la dimensión de la #imagen@ de T más la dimensión del
núcleo de T es igual a la dimensión del dominio de T. Sabemos que el dominio de T es
R2, cuya dimensión es #2@, y que el núcleo de T es K, que tiene dimensión #1@, de
donde la imagen de T debe tener dimensión #1@. Pero la imagen de T tiene dimensión 1 y está
contenida en K, que también tiene dimensión #1@, por lo que la imagen de T es igual al #núcleo@ de T.
En particular, el vector v está en K y por tanto está en la #imagen@ de T, o sea que existe un vector
w en R2 tal que T(w) = #v@. Notamos que v es distinto de 0, por lo que w no está
en el #núcleo@ de T, o sea que w no está generado por v, así que
v, w son linealmente #independientes@, y por tanto forman una base de R2.
Procedamos a calcular la matriz asociada a T con respecto a la base v, w. Notamos que v está en el
#núcleo@ de T, así que T(v) = 0, y su vector de coordenadas es (0,0) con respecto a la base v,w, así que
la primera columna de la matriz asociada a T con respecto a la base v, w es una columna de ceros. Por otro lado,
T(w) = #v@, y como v es el primer básico, el vector de coordenadas de T(w) con respecto a la base v, w
es (#1@,0), que es la segunda columna de la matriz asociada a T con respecto a la base v, w. Esta es la
matriz que deseábamos obtener, lo que termina la demostración.
Sea T de R2 en R2 una transformación lineal, tal que
T no es la transformación lineal 0, pero T2 = 0. Entonces existe una base
de R2 con respecto a la cual la matriz de T se ve como
Demostración: Sea K el núcleo de T. Sabemos que K es un subespacio de R#2@,
por lo que la dimensión de K debe ser #0@, 1 o 2. Si la dimensión de K fuera 2, entonces K sería
igual a #R@2, por lo que todo elemento de R2 iría a dar a 0 bajo #T@,
de donde T sería la transformación lineal #0@, que es una contradicción con la hipótesis.
Si la dimensión de K fuera 0, eso significa que K es el espacio cero, por lo que T
sería #inyectiva@, de donde T2 también sería inyectiva, contradiciendo el hecho
de que T2 = 0. Así, K debe tener dimensión #1@. Sea v un vector que genera a K.
Como #T@2 = 0, tenemos que la #imagen@ de T debe estar contenida en el núcleo de T,
y por la regla de la dimensión, la dimensión de la imagen de T más la dimensión del
#núcleo@ de T es igual a la dimensión del dominio de T. Sabemos que el dominio de T es
R2, cuya dimensión es #2@, y que el núcleo de T es K, que tiene dimensión 1, de
donde la imagen de T debe tener dimensión #1@. Pero la imagen de T tiene dimensión 1 y está
contenida en K, que también tiene dimensión 1, por lo que la imagen de T es igual al #núcleo@ de T.
En particular, el vector v está en K y por tanto está en la imagen de T, o sea que existe un vector
w en R2 tal que T(#w@) = v. Notamos que v es distinto de 0, por lo que w no está
en el núcleo de T, es decir, w no está generado por v, así que
v, w son linealmente independientes, y por tanto forman una #base@ de R2.
Procedamos a calcular la matriz asociada a T con respecto a la base v, w. Notamos que v está en el
núcleo de T, así que T(v) = 0, y su vector de coordenadas es (#0@,#0@) con respecto a la base v,w, así que
la primera columna de la matriz asociada a T con respecto a la base v, w es una columna de ceros. Por otro lado,
T(w) = #v@, y como v es el primer básico, el vector de coordenadas de T(w) con respecto a la base v, w
es (#1@,#0@), que es la segunda columna de la matriz asociada a T con respecto a la base v, w. Esta es la
matriz que deseábamos obtener, lo que termina la demostración.
Sea T de R2 en R2 una transformación lineal, tal que
T no es la transformación lineal 0, pero T2 = 0. Entonces existe una base
de R2 con respecto a la cual la matriz de T se ve como
Demostración: Sea K el núcleo de T. Sabemos que K es un subespacio de R2,
por lo que la dimensión de K debe ser 0, 1 o #2@. Si la dimensión de K fuera 2, entonces K sería
igual a R2, por lo que todo elemento de R2 iría a dar a #0@ bajo T,
de donde T sería la transformación lineal #0@, que es una contradicción con la hipótesis.
Si la dimensión de K fuera 0, eso significa que K es el espacio cero, por lo que T
sería inyectiva, de donde T2 también sería #inyectiva@, contradiciendo el hecho
de que #T@2 = 0. Así, K debe tener dimensión #1@. Sea v un vector que genera a K.
Como T2 = 0, tenemos que la imagen de T debe estar contenida en el #núcleo@ de T,
y por la regla de la dimensión, la dimensión de la imagen de T más la dimensión del
núcleo de T es igual a la dimensión del #dominio@ de T. Sabemos que el dominio de T es
R2, cuya dimensión es #2@, y que el núcleo de T es K, que tiene dimensión #1@, de
donde la imagen de T debe tener dimensión #1@. Pero la imagen de T tiene dimensión 1 y está
contenida en K, que también tiene dimensión 1, por lo que la #imagen@ de T es igual al núcleo de T.
En particular, el vector v está en K y por tanto está en la imagen de T, o sea que existe un vector
w en R2 tal que #T@(w) = v. Notamos que v es distinto de 0, por lo que w
no está en el núcleo de T, de donde w no está generado por v, así que
v, w son #linealmente@ independientes, y por tanto forman una #base@ de R2.
Procedamos a calcular la matriz asociada a T con respecto a la base v, w. Notamos que v está en el
núcleo de T, así que T(v) = #0@, y su vector de coordenadas es (0,#0@) con respecto a la base v,w, así que
la primera columna de la matriz asociada a T con respecto a la base v, w es una columna de ceros. Por otro lado,
T(w) = #v@, y como v es el primer básico, el vector de coordenadas de T(w) con respecto a la base v, w
es (#1@,#0@), que es la segunda columna de la matriz asociada a T con respecto a la base v, w. Esta es la
matriz que deseábamos obtener, lo que termina la demostración.
Tarea 2 Algebra Lineal I
En R3, el conjunto de vectores (1,0,1), (0,1,0) y (çd0Ç,çd1Ç, çd0Ç) es
linealmente #dependiente@, pues (çd0Ç, çd1Ç, çd0Ç) = #çd0Ç@(1,0,1) + #çd1Ç@(0,1,0)
En R3, el conjunto de vectores (çd0Ç,0,0), (0,çd1Ç,0) y (0,0,çd2Ç) es
linealmente #independiente@, pues los únicos escalares reales a,b,c que cumplen
a(çd0Ç,0,0) + #b@(0,çd1Ç,0) + c(0,0,#çd2Ç@) = (0,0,0) son a=b=c=#0@.
En R3, el conjunto de vectores (çd0Ç,0,0), (0,çd1Ç,0) y (0,0,çd2Ç)
genera de R3, pues cualquier vector arbitrario (x,y,z) en R3
se puede escribir como (x,y,z) = #a@(çd0Ç,0,0) + b(0,çd1Ç,0) + c(0,0,#çd2Ç@)
con a = x/çd0Ç, b = #y@/#çd1Ç@ y c = #z@/çd2Ç .
Considera en R3 la base ordenada β = (1,-1,0), (0,1,0), (0,0,1).
El vector v = (2,1,7) se puede escribir (de manera única) como combinación lineal de
la base β como (2,1,7) = #2@(1,-1,0) + #3@(0,1,0) + #7@(0,0,1), por lo que el vector de
coordenadas de v con respecto a β es (#2@,#3@,#7@).
Considera en R3 la base ordenada β = (1,0,0), (0,1,0), (0,0,1).
El vector v = (2,1,7) se puede escribir (de manera única) como combinación lineal de
la base β como (2,1,7) = #2@(1,0,0) + #1@(0,1,0) + #7@(0,0,1), por lo que el vector de
coordenadas de v con respecto a β es (#2@,#1@,#7@).
Considera en R3 la base ordenada β = (0,0,1), (1,0,0), (0,1,0).
El vector v = (2,1,7) se puede escribir (de manera única) como combinación lineal de
la base β como (2,1,7) = #7@(0,0,1) + #2@(1,0,0) + #1@(0,1,0), por lo que el vector de
coordenadas de v con respecto a β es (#7@,#2@,#1@).
Considera en R2 las bases ordenadas β = (1,0), (0,1) y γ = (1,1), (0,1).
[γ1]β = (#1@,#1@),
[γ2]β = (#0@,#1@),
[β1]γ = (#1@,#-1@),
[β2]γ = (#0@,#1@).
La matriz de cambio de base de γ a β se obtiene poniendo los
vectores coordenadas de los [γi]β como columnas, es
decir:
Análogamente, la matriz de cambio de base de β a γ es:
Considera en R2 las bases ordenadas β = (1,2), (3,-1) y γ = (5,3), (-2,3).
[γ1]β = (#2@,#1@),
[γ2]β = (#1@,#-1@)
La matriz de cambio de base de γ a β se obtiene poniendo los
vectores coordenadas de los [γi]β como columnas, es
decir:
Considera el subespacio W de R3 generado por
los vectores (4,0,8), (4,1,11) y (8,1,19). Para encontrar una
base del subespacio W, primero escribimos los vectores como los #renglones@ de
una matriz para obtener
#4@ | #0@ |
#8@ |
#4@ | #1@ |
#11@ |
#8@ | #1@ |
#19@ |
Luego, haciendo eliminación gaussiana, llevamos esta matriz a su forma #escalón@ reducida
por renglones, que es
#1@ | #0@ |
#2@ |
#0@ | #1@ |
#3@ |
#0@ | #0@ |
#0@ |
Los renglones no nulos de esta forma escalón reducida por renglones forman una
#base@ sencilla del subespacio generado por los vectores originales. Es decir,
la base que nos queda es #(1,0,2)@, #(0,1,3)@. Por lo tanto, el subespacio W tiene dimensión #2@.
En R3, el conjunto de vectores (1,0,1), (0,1,0) y (çd0Ç,çd1Ç, çd0Ç) es
linealmente #dependiente@, pues (çd0Ç, çd1Ç, çd0Ç) = #çd0Ç@(1,0,1) + #çd1Ç@(0,1,0)
En R3, el conjunto de vectores (çd0Ç,0,0), (0,çd1Ç,0) y (0,0,çd2Ç) es
linealmente #independiente@, pues los únicos escalares reales a,b,c que cumplen
a(çd0Ç,0,0) + #b@(0,çd1Ç,0) + c(0,0,#çd2Ç@) = (0,0,0) son a=b=c=#0@.
En R3, el conjunto de vectores (çd0Ç,0,0), (0,çd1Ç,0) y (0,0,çd2Ç)
genera de R3, pues cualquier vector arbitrario (x,y,z) en R3
se puede escribir como (x,y,z) = #a@(çd0Ç,0,0) + b(0,çd1Ç,0) + c(0,0,#çd2Ç@)
con a = x/çd0Ç, b = #y@/#çd1Ç@ y c = #z@/çd2Ç .
Considera en R2 las bases ordenadas β = (1,0), (0,1) y γ = (1,1), (0,1).
[γ1]β = (#1@,#1@),
[γ2]β = (#0@,#1@),
[β1]γ = (#1@,#-1@),
[β2]γ = (#0@,#1@).
La matriz de cambio de base de γ a β se obtiene poniendo los
vectores coordenadas de los [γi]β como columnas, es
decir:
Análogamente, la matriz de cambio de base de β a γ es:
Considera en R2 las bases ordenadas β = (1,2), (3,-1) y γ = (5,3), (-2,3).
[γ1]β = (#2@,#1@),
[γ2]β = (#1@,#-1@)
La matriz de cambio de base de γ a β se obtiene poniendo los
vectores coordenadas de los [γi]β como columnas, es
decir:
Considera el subespacio W de R3 generado por
los vectores (4,0,8), (4,1,11) y (8,1,19). Para encontrar una
base del subespacio W, primero escribimos los vectores como los #renglones@ de
una matriz para obtener
#4@ | #0@ |
#8@ |
#4@ | #1@ |
#11@ |
#8@ | #1@ |
#19@ |
Luego, haciendo eliminación gaussiana, llevamos esta matriz a su forma #escalón@ reducida
por renglones, que es
#1@ | #0@ |
#2@ |
#0@ | #1@ |
#3@ |
#0@ | #0@ |
#0@ |
Los renglones no nulos de esta forma escalón reducida por renglones forman una
#base@ sencilla del subespacio generado por los vectores originales. Es decir,
la base que nos queda es #(1,0,2)@, #(0,1,3)@. Por lo tanto, el subespacio W tiene dimensión #2@.
¿Falso o verdadero? Justifica tu respuesta.
Sea V un espacio vectorial de dimensión n. Entonces todo conjunto con
n elementos es linealmente independiente. f/v: #f@ Justificación: #H0@
¿Falso o verdadero? Justifica tu respuesta.
Sea V un espacio vectorial de dimensión n. Entonces todo conjunto
linealmente independiente tiene
n elementos. f/v: #f@ Justificación: #H1@
¿Falso o verdadero? Justifica tu respuesta.
Sea V un espacio vectorial de dimensión n. Entonces todo conjunto
linealmente independiente tiene a lo más
n elementos. f/v: #v@ Justificación: #H2@
¿Falso o verdadero? Justifica tu respuesta.
Sea V un espacio vectorial de dimensión n. Entonces todo conjunto con
n elementos es linealmente dependiente. f/v: #f@ Justificación: #H3@
¿Falso o verdadero? Justifica tu respuesta.
Sea V un espacio vectorial de dimensión n. Entonces todo conjunto con
estrictamente menos de n elementos es linealmente independiente.
f/v: #f@ Justificación: #H4@
¿Falso o verdadero? Todo subconjunto de R2 con 2 vectores no nulos cuyas entradas son ceros y unos
es linealmente independiente.f/v: #v@
Justificación: #H0@
¿Falso o verdadero? Todo subconjunto de R3 con 3 vectores no nulos cuyas entradas son ceros y unos
es linealmente independiente.f/v: #f@
Justificación: #H1@
¿Falso o verdadero? Sea V un espacio vectorial y X un subconjunto de V linealmente independiente. Entonces existe una
base β de V tal que X está contenido en β . f/v: #v@
Justificación: #H2@
¿Falso o verdadero? Sea V un espacio vectorial y X un subconjunto de V que genera a V. Entonces existe una
base β de V tal que β está contenida en X . f/v: #v@
Justificación: #H3@
¿Falso o verdadero? Sean v,u,w vectores linealmente dependientes. Entonces cualquiera de ellos es combinación lineal
de los otros dos. f/v: #f@
Justificación: #H4@
Sean T de V en W, U de W en Z transformaciones lineales. Entonces la
composición UT es #0@ si y solamente si la imagen de T está contenida en el núcleo de U.
Demostración: Supongamos que #UT@ = 0, y sea v un vector en la #imagen@ de T. Por definición
de imagen, existe #w@ tal que v = T(w). Evaluando #U@ en ambos lados tenemos que
U(v) = #UT@(w) = 0, por lo que v está en el núcleo de #U@. Ahora supongamos que la #imagen@ de
T está contenida en el núcleo de U. Debemos demostrar que #UT@ es la transformación lineal 0.
Sea v en V. Tenemos que UT(#v@) = U(T(v)) = #0@, pues T(v) está en la #imagen@ de T, y por tanto T(v)
está en el #núcleo@ de U.
Sean T de V en W, U de W en Z transformaciones lineales. Entonces la
composición UT es 0 si y solamente si la #imagen@ de T está contenida en el núcleo de U.
Demostración: Supongamos que UT #=@ 0, y sea v un vector en la imagen de #T@. Por definición
de imagen, existe w tal que #v@ = T(w). Evaluando U en ambos lados tenemos que
#U(v)@ = UT(w) = 0, por lo que #v@ está en el núcleo de U. Ahora supongamos que la imagen de
#T@ está contenida en el núcleo de U. Debemos demostrar que UT es la transformación lineal #0@.
Sea v en V. Tenemos que UT(v) = #U@(T(v)) = 0, pues #T(v)@ está en la imagen de T, y por tanto T(v)
está en el núcleo de #U@.
Sean T de V en W, U de W en Z transformaciones lineales. Entonces la
composición UT es 0 si y solamente si la imagen de T está contenida en el #núcleo@ de U.
Demostración: Supongamos que UT = #0@, y sea v un vector en la #imagen@ de T. Por definición
de imagen, existe w tal que v = #T(w)@. Evaluando U en ambos lados tenemos que
U(v) = UT(w) = #0@, por lo que v está en el #núcleo@ de U. Ahora supongamos que la imagen de
T está contenida en el #núcleo@ de U. Debemos demostrar que UT es la transformación lineal #0@.
Sea v en V. Tenemos que UT(v) = U(#T(v)@) = 0, pues T(#v@) está en la imagen de #T@, y por tanto T(v)
está en el #núcleo@ de U.
Sea T de V en V una transformación lineal. Si la dimensión de V
es 3 y el rango de T es 2, entonces T2 no es la transformación 0.
Demostración: Si T#2@ = 0, entonces la #imagen@ de T debe estar contenida en el núcleo de T.
Como el núcleo de T es un subespacio de V, y V tiene dimensión #3@, el núcleo debe tener
dimensión #menor@ o igual a 3. Pero la #imagen@ tiene dimensión 2, y como el núcleo contiene
a la imagen, el #núcleo@ debe tener dimensión al menos 2. Pero la regla de la dimensión dice que
la dimensión de la #imagen@ más la dimensión del núcleo es la dimensión del dominio, que es #3@, lo
que no es posible, por lo que la imagen no puede estar contenida en el núcleo, y
T#2@ es distinta de 0.
Sea T de V en V una transformación lineal. Si la dimensión de V
es 3 y el rango de T es 2, entonces T2 no es la transformación 0.
Demostración: Si T2 = #0@, entonces la imagen de T debe estar contenida en el #núcleo@ de T.
Como el núcleo de T es un subespacio de V, y V tiene dimensión #3@, el núcleo debe tener
dimensión menor o #igual@ a 3. Pero la imagen tiene dimensión #2@, y como el núcleo contiene
a la #imagen@, el núcleo debe tener dimensión al menos 2. Pero la regla de la dimensión dice que
la dimensión de la imagen más la dimensión del #núcleo@ es la dimensión del dominio, que es #3@, lo
que no es posible, por lo que la #imagen@ no puede estar contenida en el núcleo, y
T2 es distinta de #0@.
Sea T de V en V una transformación lineal. Si la dimensión de V
es 3 y el rango de T es 2, entonces T2 no es la transformación 0.
Demostración: Si T2 #=@ 0, entonces la imagen de T debe estar contenida en el núcleo de #T@.
Como el núcleo de T es un subespacio de V, y V tiene dimensión #3#, el #núcleo@ debe tener
dimensión menor o igual a #3@. Pero la imagen tiene dimensión 2, y como el núcleo contiene
a la imagen, el núcleo debe tener dimensión al menos #2@. Pero la regla de la dimensión dice que
la dimensión de la imagen más la dimensión del núcleo es la dimensión del #dominio@, que es 3, lo
que no es posible, por lo que la imagen no puede estar contenida en el #núcleo@, y
#T@2 es distinta de 0.
En R3, el conjunto de vectores (çd0Ç,0,0), (0,çd1Ç,0) y (0,0,çd2Ç)
genera de R3, pues cualquier vector arbitrario (x,y,z) en R3
se puede escribir como (x,y,z) = #a@(çd0Ç,0,0) + b(0,çd1Ç,0) + c(0,0,#çd2Ç@)
con a = x/çd0Ç, b = #y@/#çd1Ç@ y c = #z@/çd2Ç .
Considera en R3 la base ordenada β = (1,-1,0), (0,1,0), (0,0,1).
El vector v = (2,1,7) se puede escribir (de manera única) como combinación lineal de
la base β como (2,1,7) = #2@(1,-1,0) + #3@(0,1,0) + #7@(0,0,1), por lo que el vector de
coordenadas de v con respecto a β es (#2@,#3@,#7@).
Sea V un espacio vectorial, y sean W,Z subespacios de V. Definimos W + Z como el conjunto
W + Z = { w + z | w ∈ W, z ∈ Z}. Tenemos que:
- W + Z es un subespacio vectorial de V
- W + Z contiene tanto a W como a Z, y está contenido en cualquier subespacio de V que contenga a W y Z
- dim(W + Z) + dim(W ∩ Z) = dim(W) + dim(Z)
Demostración:
- 0 = 0 + 0 ∈ W + #Z@. Sean w+z, w'+z' ∈ W + Z, y sea a un escalar. Tenemos que
a(w+z) + (w'+z') = #aw@ + az + w' + z' = aw + w' + az + #z'@ ∈ W + Z, pues aw + w' ∈ #W@, y az + z' ∈ Z.
- Todo elemento w en W se puede ver como w + #0@, con w ∈ W y 0 ∈ Z, por lo que #W@ está contenido en W + Z.
Análogamente se muestra que Z está contenido en W + Z. Sea X un subespacio de V que contiene a W y a Z. Queremos demostrar
que #X@ contiene a W + Z. Dado cualquier elemento w+z ∈ W + Z, vemos que w ∈ W ⊂ X, y z ∈ #Z@ ⊂ X,
y como X es un subespacio, se tiene que w+z ∈ X, así que W + Z ⊂ #X@
- Sea β = v1,...,vn una base de W ∩ Z. Podemos extender β a una #base@ de W,
agregando vectores w1,...,wm, es decir,
v1,...,vn,w1,...,w#m@ es una base de W.
Análogamente, podemos extender β a una base de Z agregando vectores z1,...,zt, de tal manera
que v1,...,vn,#z@1,...,zt es una base de Z.
Afirmamos que γ = v1,...,vn,w1,...,wm,z1,...,zt es una
base de W #+@ Z. Primero notamos que el subespacio generado por γ contiene a W (se genera con los v's y los w's),
y también contiene a #Z@ (lo generan los v's y los z's), así que por el inciso anterior, el subespacio generado por
γ contiene a #W@ + Z. Para demostrar que γ es base de W + Z basta demostrar que γ es un
conjunto linealmente #independiente@.
Sean a1,...,an,b1,...,bm,c1,...,ct escalares
tales que a1v1+...+anvn +
b1w1+...+bmwm + c1z1+...+ctzt = 0.
Queremos demostrar que todos estos escalares son iguales a #0@. Despejando a los últimos vectores nos queda
x = a1v1+...+anvn +
b1w1+...+bmwm = -c1z1-...-ctzt
El primer miembro de esta igualdad es un vector en W
(pues v1,...,vn,w1,...,wm es base de #W@). El segundo miembro de esa
igualdad está en #Z@ (pues los vectores z1,...,zt están en Z). Como ambos son el vector x,
tenemos que x está en W ∩ #Z@, por lo que x se puede escribir como combinación lineal de la base de
#W@ ∩ Z, que es β es decir, existen escalares d1,...,dn tales que
x = d1v1+...+dnvn. Pero también tenemos que
x = -c1z1-...-ctzt.
De aquí podemos deducir que 0 = d1v1+...+dnvn +
c1z1+...+ctzt.
Dado que
v1,...,vn,z1,...,zt es una base de #Z@, tenemos que
d1 = 0 = ... = dn y c1 = 0 = ... = ct, por lo que
el vector x debe ser igual a 0. Pero regresando a la definición original de x, vemos que
0 = x = a1v1+...+anvn +
b1w1+...+bmwm, y como los vectores
v1,...,vn,w1,...,wm son una base de #W@, todos los escalares
deben ser 0; es decir, hemos demostrado que los escalares a's, b's, c's y d's son todos iguales a #0@, con lo
que γ es base de W + Z. Como hemos construido bases explícitas de W + Z, W ∩ Z, W, y Z, podemos
calcular sus dimensiones, que son respectivamente n+m+t, #n@, n+m, n+#t@. La fórmula deseada consiste en verificar
que n+m+t + n = n+m + #n@+t.
Tarea 3 Algebra Lineal I
Sea T la función T:R2 --> R dada por
T(x,y) = çd0Çx + çd1Çy. Vemos que T((x,y)+(z,w)) = T(x+z,#y+w@) =
çd0Ç(#x+z@) + çd1Ç(y+w) = #çd0Ç@x + çd0Çz + çd1Çy + #çd1Ç@w =
çd0Ç#x@ + çd1Ç#y@ + çd0Çz + çd1Çw = T(x,y) + #T(z,w)@, así que
T abre #sumas@.
También tenemos que T(a(x,y)) = T(ax,#ay@) = çd0Ç(#ax@) + #çd1Ç@(ay) =
#a@(çd0Çx + çd1Çy) = a#T(x,y)@, es decir, T saca #escalares@.
Por lo tanto, T es una #transformación@ #lineal@.
Sea T la función T:R2 --> R dada por
T(x,y) = x2 + çd0Çy. Vemos que T(1,0) =
1 + 0 = #1@. También vemos que T(2,0) = 4 + 0 = #4@, pero
T(1,0) + T(1,0) = 1 + 1 = #2@ ≠ 4 = T(2,0), por lo que
T #no@ abre sumas, y por tanto T #no@ es una transformación lineal.
Sea T la transformación lineal T:R2 --> R dada por
T(x,y) = 2x - 4y. El núcleo de T es
ker(T) = {(x,y) | T(x,y) = #0@} = {(x,y) | 2x-4y = 0} = {(x,y) | x = 2y}
= {(2t,t) | t en R}, que es el subespacio de R2 generado por
el vector (#2@,1), por lo que la nulidad de T (es decir, la dimensión del núcleo de T) es #1@,
y por tanto T #no@ es inyectiva. Como el dominio de T es R2, que tiene dimensión #2@,
el rango de T debe ser 2-1 = #1@.
Sea T la transformación lineal T:R --> R2 dada por
T(x) = (2x, -3x). La imagen de T es
Im(T) = {T(x) | x en R} = {(2x,-3x)| x en R}, que es el
subespacio de R2 generado por (2,#-3@), por lo tanto el
rango de T es #1@. Como el dominio de T es R y tiene dimensión #1@,
la nulidad de T debe ser 1-1 = #0@, es decir, T es #inyectiva@.
Sea T la transformación lineal T:R2 --> R2 dada por
T(x,y) = (x+3y, 2y). Consideremos la base canónica β = (1,0), (0,1).
Con respecto a esta base, vemos que T(1,0) = #(1,0)@, T(0,1) = #(3,2)@, así que
la matriz asociada a T con respecto a la base β se obtiene colocando estos
vectores como columnas, es decir, la matriz
Sea A una matriz de n por n con entradas en un campo K. Si A es semejante a la matriz identidad I de n por n,
entonces A #=@ I.
Demostración: Como A es semejante a I, existe una matriz #invertible@ P tal que A = #P@IP#-1@ = (PI)P-1 =
PP-1 = #I@.
Sea V=R2. El espacio dual V* consta de todos los #funcionales@ lineales en R,
es decir, todas las transformaciones lineales de V en #R@. Sea β = β1 , β2 = (1,0), (0,1)
la base canónica de V. La base dual β* = β1*, β2*
está dada por:
β1*(1,0) = #1@, β1*(0,1) = #0@,
β2*(1,0) = #0@, β2*(0,1) = #1@,
así que β1*(x,y) = β1*(x(1,0)+y(0,1)) = #x@,
β2*(x,y) = β2*(x(1,0)+y(0,1)) = #y@.
El determinante de una matriz diagonal es el producto de las entradas de la #diagonal@, por lo que el determinante de
es igual a #çd0Ç@.
El determinante de una matriz triangular (#superior@ o inferior) es el producto de las entradas de la #diagonal@, por lo que el determinante de
es igual a #çd0Ç@.
El determinante de una matriz triangular (superior o #inferior@) es el producto de las entradas de la diagonal, por lo que el determinante de
es igual a #çd0Ç@.
Sea T la función T:R2 --> R dada por
T(x,y) = çd0Çx + çd1Çy. Vemos que T((x,y)+(z,w)) = T(x+z,#y+w@) =
çd0Ç(#x+z@) + çd1Ç(y+w) = #çd0Ç@x + çd0Çz + çd1Çy + #çd1Ç@w =
çd0Ç#x@ + çd1Ç#y@ + çd0Çz + çd1Çw = T(x,y) + #T(z,w)@, así que
T abre #sumas@.
También tenemos que T(a(x,y)) = T(ax,#ay@) = çd0Ç(#ax@) + #çd1Ç@(ay) =
#a@(çd0Çx + çd1Çy) = a#T(x,y)@, es decir, T saca #escalares@.
Por lo tanto, T es una #transformación@ #lineal@.
Sea T la transformación lineal T:R2 --> R dada por
T(x,y) = 2x - 4y. El núcleo de T es
ker(T) = {(x,y) | T(x,y) = #0@} = {(x,y) | 2x-4y = 0} = {(x,y) | x = 2y}
= {(2t,t) | t en R}, que es el subespacio de R2 generado por
el vector (#2@,1), por lo que la nulidad de T (es decir, la dimensión del núcleo de T) es #1@,
y por tanto T #no@ es inyectiva. Como el dominio de T es R2, que tiene dimensión #2@,
el rango de T debe ser 2-1 = #1@.
El determinante de una matriz diagonal es el producto de las entradas de la #diagonal@, por lo que el determinante de
es igual a #çd0Ç@.
¿Falso o verdadero? Justifica. Sean T,U:V-->V funciones tales que la composición UT es una transformación lineal.
Entonces T es una transformación lineal. f/v #f@ Justificación: #H0@
¿Falso o verdadero? Justifica. Sean T,U:V-->V funciones tales que la composición UT es una transformación lineal.
Entonces U es una transformación lineal. f/v #f@ Justificación: #H1@
¿Falso o verdadero? Justifica. Sean T,U:V-->V funciones tales que T y T+U
son transformaciones lineales.
Entonces U es una transformación lineal. f/v #v@ Justificación: #H2@
¿Falso o verdadero? Justifica. Sea T:V-->V una función tal que la composición T2 es
una transformación lineal.
Entonces T es una transformación lineal. f/v #f@ Justificación: #H3@
¿Falso o verdadero? Justifica. Sea T:V-->W una transformación lineal, y sea
β una base de V Entonces el conjunto {T(v) | v en β } es
una base de W. f/v #f@ Justificación: #H4@
¿Falso o verdadero? Justifica. Sean T,U:V-->V transformaciones lineales
tales que UT es inyectiva. Entonces T es inyectiva. f/v #v@ Justificación: #H5@
¿Falso o verdadero? Justifica. Sean T,U:V-->V transformaciones lineales
tales que UT es suprayectiva. Entonces U es suprayectiva. f/v #v@ Justificación: #H6@
¿Falso o verdadero? Justifica. Sea T:V-->W una transformación lineal. Si
T es inyectiva, entonces Ker(T) = 0. f/v #v@ Justificación: #H7@
¿Falso o verdadero? Justifica. Sea T:V-->W una transformación lineal. Si
T Ker(T) = 0, entonces es inyectiva. f/v #v@ Justificación: #H8@
¿Falso o verdadero? Sea T de V en W una transformación lineal y sea β una base de V.
Entonces un subconjunto de β es base del núcleo de T. f/v: #f@
Justificación: #H0@
¿Falso o verdadero? Sea T de V en W una transformación lineal y sea β una base de V.
Entonces {T(v) : v en β} es base de la imagen de T. f/v: #f@
Justificación: #H0@
¿Falso o verdadero? Sea T de V en W una transformación lineal. Si la dimensión de W es menor que
la dimensión de V, entonces T es suprayectiva. f/v: #f@
Justificación: #H1@
¿Falso o verdadero? Sea T de V en W una transformación lineal. Si la dimensión de V es menor que
la dimensión de W, entonces T es inyectiva. f/v: #f@
Justificación: #H2@
¿Falso o verdadero? Sean T de V en W, U de W en Z transformaciones lineales. Entonces la
composición UT es una transformación lineal.
f/v: #v@
Justificación: #H0@
¿Falso o verdadero? Sea T de V en V una transformación lineal. Si la dimensión de V
es 3 y el rango de T es 1, entonces T2 no es la transformación 0.
f/v: #f@
Justificación: #H1@
¿Falso o verdadero? Sean T de V en W, U de W en Z transformaciones lineales. Si T es suprayectiva,
entonces la imagen de UT es igual a la imagen de U.
f/v: #v@
Justificación: #H2@
¿Falso o verdadero? Sean T de V en W, U de W en Z transformaciones lineales. Si
la imagen de UT es igual a la imagen de U entonces T es suprayectiva.
f/v: #f@
Justificación: #H3@
¿Falso o verdadero? Sean T de V en W, U de W en Z transformaciones lineales. Si U es inyectiva,
entonces el núcleo de UT es igual al núcleo de T.
f/v: #v@
Justificación: #H4@
¿Falso o verdadero? Sean T de V en W, U de W en Z transformaciones lineales. Si
el núcleo de UT es igual al núcleo de T entonces U es inyectiva.
f/v: #f@
Justificación: #H3@
Sea T la función T:R2 --> R dada por
T(x,y) = çd0Çx + çd1Çy. Vemos que T((x,y)+(z,w)) = T(x+z,#y+w@) =
çd0Ç(#x+z@) + çd1Ç(y+w) = #çd0Ç@x + çd0Çz + çd1Çy + #çd1Ç@w =
çd0Ç#x@ + çd1Ç#y@ + çd0Çz + çd1Çw = T(x,y) + #T(z,w)@, así que
T abre #sumas@.
También tenemos que T(a(x,y)) = T(ax,#ay@) = çd0Ç(#ax@) + #çd1Ç@(ay) =
#a@(çd0Çx + çd1Çy) = a#T(x,y)@, es decir, T saca #escalares@.
Por lo tanto, T es una #transformación@ #lineal@.
Sea T la función T:R2 --> R dada por
T(x,y) = x2 + çd0Çy. Vemos que T(1,0) =
1 + 0 = #1@. También vemos que T(2,0) = 4 + 0 = #4@, pero
T(1,0) + T(1,0) = 1 + 1 = #2@ ≠ 4 = T(2,0), por lo que
T #no@ abre sumas, y por tanto T #no@ es una transformación lineal.
Sea T la transformación lineal T:R2 --> R dada por
T(x,y) = 2x - 4y. El núcleo de T es
ker(T) = {(x,y) | T(x,y) = #0@} = {(x,y) | 2x-4y = 0} = {(x,y) | x = 2y}
= {(2t,t) | t en R}, que es el subespacio de R2 generado por
el vector (#2@,1), por lo que la nulidad de T (es decir, la dimensión del núcleo de T) es #1@,
y por tanto T #no@ es inyectiva. Como el dominio de T es R2, que tiene dimensión #2@,
el rango de T debe ser 2-1 = #1@.
Sea T la transformación lineal T:R --> R2 dada por
T(x) = (2x, -3x). La imagen de T es
Im(T) = {T(x) | x en R} = {(2x,-3x)| x en R}, que es el
subespacio de R2 generado por (2,#-3@), por lo tanto el
rango de T es #1@. Como el dominio de T es R y tiene dimensión #1@,
la nulidad de T debe ser 1-1 = #0@, es decir, T es #inyectiva@.
Sea T la transformación lineal T:R2 --> R2 dada por
T(x,y) = (x+3y, 2y). Consideremos la base canónica β = (1,0), (0,1).
Con respecto a esta base, vemos que T(1,0) = #(1,0)@, T(0,1) = #(3,2)@, así que
la matriz asociada a T con respecto a la base β se obtiene colocando estos
vectores como columnas, es decir, la matriz
Sea A una matriz de n por n con entradas en un campo K. Si A es semejante a la matriz identidad I de n por n,
entonces A #=@ I.
Demostración: Como A es semejante a I, existe una matriz #invertible@ P tal que A = #P@IP#-1@ = (PI)P-1 =
PP-1 = #I@.
Sea V=R2. El espacio dual V* consta de todos los #funcionales@ lineales en R,
es decir, todas las transformaciones lineales de V en #R@. Sea β = β1 , β2 = (1,0), (0,1)
la base canónica de V. La base dual β* = β1*, β2*
está dada por:
β1*(1,0) = #1@, β1*(0,1) = #0@,
β2*(1,0) = #0@, β2*(0,1) = #1@,
así que β1*(x,y) = β1*(x(1,0)+y(0,1)) = #x@,
β2*(x,y) = β2*(x(1,0)+y(0,1)) = #y@.
El determinante de una matriz diagonal es el producto de las entradas de la #diagonal@, por lo que el determinante de
es igual a #çd0Ç@.
El determinante de una matriz triangular (#superior@ o inferior) es el producto de las entradas de la #diagonal@, por lo que el determinante de
es igual a #çd0Ç@.
El determinante de una matriz triangular (superior o #inferior@) es el producto de las entradas de la diagonal, por lo que el determinante de
es igual a #çd0Ç@.
Sea T una transformación lineal de R2 en R2. Si T3 = 0 entonces
T2 = 0.
Demostración: La imagen de T es un subespacio de R#2@. La dimensión de la imagen de T puede ser 0, #1@, o 2.
Si la imagen de T es de dimensión 0, entonces es el subespacio 0 y T = #0@, por lo que T2 = #0@. Si la
imagen de T fuera de dimensión 2, T sería suprayectiva, y por un teorema de la teoría, T sería un isomorfismo, y por lo
tanto T#3@ sería un isomorfismo, y no podría ser 0, lo que es una contradicción.
Podemos suponer que
la imagen de T tiene dimensión #1@, y que está generada por un vector v. En particular, T(v) está en la imagen de T,
por lo que existe un escalar a tal que T(v) = #a@v. Evaluando T en ambos lados obtenemos T2(v) = T(av) =
#a@T(v) = a(av) = a#2@v. Evaluando T una vez más tenemos que T#3@(v) = T(a2v) =
a2 T(v) = a2 (av) = a#3@ v. Pero T3 = #0@, por lo que a3v = 0;
como v es distinto de 0, debemos tener que a3 = 0, de donde a = #0@. Es decir, T(v) = av = #0@.
Ya podemos demostrar que T2 = 0. Sea w en V arbitrario. Vemos que T(w) está en la imagen de T, que
está generada por #v@, así que existe un escalar c tal que T(#w@) = cv. Evaluando T de nuevo tenemos que
T#2@(w) = T(cv) = cT(v) = c0 = #0@, así que T2 vale 0 en todos los vectores de R2.
¿Falso o verdadero? Sean V un espacio vectorial, W,X,Y subespacios de V. Si W + X = W + Y entonces X = Y.
f/v: #f@
Justificación: #H0@
¿Falso o verdadero? Sean V un espacio vectorial, W,X subespacios de V. Si W + X = W entonces X ⊆ W.
f/v: #v@
Justificación: #H1@
¿Falso o verdadero? Sean V un espacio vectorial, W,X subespacios de V. Si W + X = 0 entonces X = 0 = W.
f/v: #v@
Justificación: #H2@
¿Falso o verdadero? Sean V un espacio vectorial, W subespacio de V. Entonces W + V = V.
f/v: #v@
Justificación: #H3@
¿Falso o verdadero? Sean V un espacio vectorial, W subespacio de V. Entonces W + 0 = W.
f/v: #v@
Justificación: #H4@