Clicker Maestro Sesión actual

Independencia lineal

Asistencia: 2     Preguntas por hacer: 10  

Pregunta actual:  170   Considera en R2 las bases ordenadas β = (1,0), (0,1) y γ = (1,1), (0,1). [γ1]β = (#1@,#1@), [γ2]β = (#0@,#1@), [β1]γ = (#1@,#-1@), [β2]γ = (#0@,#1@).

La matriz de cambio de base de γ a β se obtiene poniendo los vectores coordenadas de los [γi]β como columnas, es decir:
   #1@       #0@   
   #1@       #1@   

Análogamente, la matriz de cambio de base de β a γ es:
   #1@       #0@   
   #-1@       #1@   

Faltan de contestar correctamente: 1 . Mariana  

 66 : 336 :: Definición 216. Sea V un K-espacio vectorial, y sea C un subconjunto de V . Decimos que C es #linealmente@ #dependiente@ (o simplemente dependiente) sobre el campo K si existen vectores distintos v1, . . . , vn (con n un entero positivo) en C y escalares a1, . . . , an en K tales que no todos los ai son cero, pero a1v1 + a2v2 + · · · + anvn es igual al vector #cero@ de V . Si C no es linealmente dependiente sobre K, decimos que C es linealmente #independiente@ sobre K. Una sucesión finita v1, . . . , vn de vectores en V es una sucesión linealmente independiente si todos los vectores son diferentes y el conjunto {v1, . . . , vn} es linealmente independiente. Si la sucesión no es linealmente independiente, se dice que es una sucesión linealmente dependiente.
 67 : 337 :: Ejemplos 217. Sea V un K-espacio vectorial cualquiera, con K un campo arbitrario. Entonces el conjunto {0} es linealmente dependiente sobre K, pues 10 = 0 y el escalar que se usó fue #1@ ≠ 0.
 68 : 338 :: Sea V un K-espacio vectorial cualquiera, con K un campo arbitrario. Entonces el conjunto {1} es linealmente independiente sobre K, pues si tuviéramos un escalar a en K tal que a1 = 0, se seguiría que el escalar a #=@ 0.
 69 : 339 :: Sea V = R2 . El conjunto {(1, 0),(0, 1),(2, −3)} es linealmente #dependiente@ sobre R, pues tenemos la siguiente combinación lineal con escalares reales no todos nulos que da el vector cero: −2(1, 0) + 3(0, 1) + 1(2, −3) = (0, 0)
 70 : 340 :: Sea V = R2 . El conjunto {(1, 0),(0, 1)} es linealmente #independiente@ sobre R, pues dados cualesquiera escalares reales a y b, si (0, 0) = a(1, 0) + b(0, 1) = (a, b), se seguiría que a = 0 y b = 0, es decir, los escalares son todos nulos.
 71 : 341 :: Sea V un K-espacio vectorial y v un vector no nulo en V . Entonces el conjunto {v} es linealmente independiente sobre K, pues si av = 0 se debe seguir por fuerza que #a@ es el escalar cero.
 72 : 342 :: Observación 218. Sean V un K-espacio vectorial y v un vector no nulo en V . Entonces la sucesión v1, v2 con v1 = v = v2 es linealmente #dependiente@, pues los vectores no son todos diferentes. Sin embargo, vista como conjunto las multiplicidades no cuentan, y el conjunto {v1, v2} = {v} es linealmente #independiente@. Es decir, al hablar de la independencia lineal de los vectores v1, . . . , vn es importante distinguir si es como #conjunto@ o como sucesión. Esto normalmente queda implícito cuando se dice “el conjunto es linealmente independiente” o “la sucesión es linealmente independiente”.
 73 : 343 :: Proposición 219. Sea V un K-espacio vectorial, y sea C un subconjunto de V. Las siguientes afirmaciones son equivalentes:
1. C es linealmente dependiente sobre K.
2. Existen n vectores distintos v1, . . . , vn en C (con n un entero positivo), y n escalares a1, . . . , an en K, distintos todos de cero, tales que a1v1 + · · · + anvn es el vector cero de V.
3. Existen n vectores distintos v1, . . . , vn en C (con n un entero positivo) tales que vn es combinación lineal sobre K de v1, . . . , vn−1.
Demostración: 1) implica 2): Como C es linealmente #dependiente@, por definición existen vectores distintos v1, . . . , vn (con n un entero positivo) en C y escalares a1, . . . , an en K tales que no todos los ai son cero, pero a1v1+a2v2+ · · · + anvn es igual al vector cero de V . Supongamos que algunos de estos escalares fueran igual a cero; sin pérdida de generalidad, podemos suponer que son los últimos escalares, digamos 0 = am = · · · = an, donde m − 1 al menos vale uno, pues existe al menos un escalar no nulo en la lista original. Entonces los vectores v1 . . . , vm−1 de C y los escalares a1, . . . , am−1 son tales que a1v1 + a2v2 + · · · + am−1vm−1 es el vector cero, y todos los escalares son distintos de cero.
2) implica 3): Suponga que existen n vectores distintos v1, . . . , vn en C (con n un entero positivo), y n escalares a1, . . . , an en K, distintos todos de cero, tales que a1v1 +· · ·+anvn es el vector cero de V . Consideremos primero un caso patológico, es decir, si n fuera igual a uno: tendríamos que a1v1 = #0@ con a1 ≠ 0, por lo que se sigue que v1 es el vector cero, que se puede escribir como una combinación lineal vacía, es decir, v1 es combinación lineal de los anteriores. Supongamos ahora que n es mayor que uno. Entonces podemos despejar a vn para obtener vn = −(a1/an)v1 − · · · − (an−1/an)vn−1.
3) implica 1): Suponga que existen n vectores distintos v1, . . . , vn en C (con n un entero positivo) tales que vn es #combinación@ lineal sobre K de v1, . . . , vn−1, digamos a1v1 +· · ·+an−1vn−1 = vn (donde la combinación lineal de la izquierda puede ser vacía). Pasando todo al mismo lado obtenemos a1v1 + · · · + an−1vn−1 − vn = 0 donde al menos el escalar de vn es distinto de cero.

 74 : 344 :: Teorema 220. Sea V un K-espacio vectorial, y sea C un subconjunto de V. Las siguientes afirmaciones son equivalentes:
1. C es linealmente independiente sobre K.
2. Para cualesquiera n vectores distintos v1, . . . , vn en C (con n un entero positivo), y cualesquiera n escalares a1, . . . , an en K, si a1v1 +· · ·+anvn es el vector cero de V, entonces todos los escalares ai son iguales a cero. Es decir, la única forma de escribir al vector cero como combinación lineal de vectores distintos en C es poniendo todos los escalares iguales a cero.
3. Ningún vector v de C se puede escribir como combinación lineal de otros vectores de C diferentes de v.
Demostración: 1) implica 2): Si 2) no se cumpliera, existirían n vectores distintos v1, . . . , vn en C (con n un entero positivo), y n escalares a1, . . . , an en K, tales que a1v1+· · ·+anvn es el vector #cero@ de V , y no todos los escalares ai son iguales a cero, por lo que C sería linealmente dependiente sobre K.
2) implica 3): Si 3) no se cumpliera, existiría un vector v en C que se puede escribir como combinación #lineal@ de n vectores v1, . . . , vn de C , con vi ≠ v para toda i. Sin pérdida de generalidad, se puede suponer que todos los vi son distintos entre sí (además de ser distintos a v), pues de lo contrario se pueden agrupar los que sean iguales y sumar sus respectivos escalares. Es decir, existirían v1, . . . , vn vectores distintos (y distintos a v), y escalares a1, . . . , an en K tales que v = a1v1 + · · · + anvn. Restando v nos queda 0 = a1v1 + · · · + anvn − v, contradiciendo 2), pues al menos el vector v tiene un escalar distinto de cero.
3) implica 1): Si C #no@ fuera linealemente independiente, existirían vectores distintos v1, . . . , vn (con n un entero positivo) en C y escalares a1, . . . , an en K tales que no todos los ai son cero, pero a1v1 + a2v2 + · · · + anvn es igual al vector cero de V . Si n = 1, tendríamos que el vector cero está en C , y se puede escribir como combinación lineal (vacía) de otros vectores distintos en C . Suponga ahora que n es mayor que uno. Sin pérdida de generalidad podemos suponer que el escalar an es diferente de cero. Despejando a vn nos queda vn = −(a1/an)v1 − · · · − (an−1/an)vn−1, contradiciendo 3).

 169 : 503 :: Considera en R2 las bases ordenadas β = (1,0), (0,1) y γ = (1,1), (0,1). [γ1]β = (#1@,#1@), [γ2]β = (#0@,#1@), [β1]γ = (#1@,#-1@), [β2]γ = (#0@,#1@).

La matriz de cambio de base de γ a β se obtiene poniendo los vectores coordenadas de los [γi]β como columnas, es decir:
   #1@       #0@   
   #1@       #1@   

Análogamente, la matriz de cambio de base de β a γ es:
   #1@       #0@   
   #-1@       #1@   


 170 : 503 :: Considera en R2 las bases ordenadas β = (1,0), (0,1) y γ = (1,1), (0,1). [γ1]β = (#1@,#1@), [γ2]β = (#0@,#1@), [β1]γ = (#1@,#-1@), [β2]γ = (#0@,#1@).

La matriz de cambio de base de γ a β se obtiene poniendo los vectores coordenadas de los [γi]β como columnas, es decir:
   #1@       #0@   
   #1@       #1@   

Análogamente, la matriz de cambio de base de β a γ es:
   #1@       #0@   
   #-1@       #1@   




Sesiones disponibles

Prueba
Eliminación gaussiana
Matrices invertibles
Solución de sistemas de ecuaciones lineales
Espacios vectoriales
Subespacios
Independencia lineal
Bases y dimension
Coordenadas con respecto a una base ordenada
Matriz de cambio de base
Cálculos relativos a subespacios
Transformaciones lineales: definición y ejemplos
Núcleo e imagen de una transformación lineal
Algebra de las transformaciones lineales
Isomorfismos
Matriz asociada a una transformación lineal
Semejanza de matrices
Funcionales lineales, espacio dual y bases duales
Transpuesta de una transformación lineal
Anillos conmutativos, funciones multilineales y funciones determinantes
Permutaciones, unicidad del determinante y Teorema del Producto para determinantes
Matriz adjunta y Regla de Cramer
Presentación de Clicker
Matrices

Tareas

Sistemas de ecuaciones lineales y matrices, Parte 1
Sistemas de ecuaciones lineales y matrices, Parte 2
Sistemas de ecuaciones lineales y matrices, Parte 3
Sistemas de ecuaciones lineales y matrices, Parte 4
Sistemas de ecuaciones lineales y matrices, Parte 5
Matrices elementales y forma escalón reducida por renglones, Parte 1
Matrices elementales y forma escalón reducida por renglones, Parte 2
Matrices elementales y forma escalón reducida por renglones, Parte 3
Matrices elementales y forma escalón reducida por renglones, Parte 4
Matrices elementales y forma escalón reducida por renglones, Parte 5
Matrices invertibles
Solución de sistemas de ecuaciones lineales
Espacios vectoriales
Subespacios
Independencia lineal
Bases y dimensión
Coordenadas con respecto a una base ordenada
Matriz de cambio de base
Cálculos relativos a subespacios
Definición y ejemplos de transformación lineal
Núcleo e imagen de una transformación lineal; Regla de la dimensión
Algebra de las transformaciones lineales
Isomorfismos
Matriz asociada a una transformación lineal
Semejanza de matrices
Funcionales lineales, espacio dual y bases duales
Transpuesta de una transformación lineal
Anillos conmutativos, funciones multilineales y funciones determinantes
Permutaciones, unicidad de los determinantes y Teorema del producto para determinantes
Matriz adjunta y Regla de Cramer
Tarea 1 Algebra Lineal I
Tarea 2 Algebra Lineal I
Tarea 3 Algebra Lineal I