Universidad Complutense de Madrid Manual de Álgebra Grado en F́ısica Curso 2020/2021 Prof. Piergiulio Tempesta Actualización: 27 de junio de 2021 Contents 1 Estructuras algebraicas 6 1.1 Notas históricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 1.2 Leyes de composición . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.3 Estructuras algebraicas . . . . . . . . . . . . . . . . . . . . . . . 8 1.3.1 Semigrupos, monoides, grupos . . . . . . . . . . . . . . . 8 1.3.2 Propiedades elementales de los grupos . . . . . . . . . . . 9 1.3.3 Subestructuras . . . . . . . . . . . . . . . . . . . . . . . . 10 1.4 Anillos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 1.5 Cuerpos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 1.6 Números Complejos . . . . . . . . . . . . . . . . . . . . . . . . . 13 1.6.1 Conjugación compleja . . . . . . . . . . . . . . . . . . . . 14 1.6.2 Módulo de un número complejo . . . . . . . . . . . . . . . 15 1.6.3 Argumento . . . . . . . . . . . . . . . . . . . . . . . . . . 16 1.7 Fórmula de de Moivre . . . . . . . . . . . . . . . . . . . . . . . . 17 1.8 Ráıces n-ésimas: caso general . . . . . . . . . . . . . . . . . . . . 18 1.9 Función exponencial compleja . . . . . . . . . . . . . . . . . . . . 19 1.10 Ráıces n-ésimas de la unidad . . . . . . . . . . . . . . . . . . . . 20 1.11 Polinomios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 1.11.1 Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . 20 1.11.2 Propiedades del grado . . . . . . . . . . . . . . . . . . . . 20 1.11.3 Ráıces de polinomios y completitud algebraica . . . . . . 21 1.12 Fórmulas de Cardano - Viète . . . . . . . . . . . . . . . . . . . . 23 1.13 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 1.13.1 Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . 23 1.13.2 Suma de matrices . . . . . . . . . . . . . . . . . . . . . . 25 1.13.3 Producto de una matriz por un escalar . . . . . . . . . . . 25 1.13.4 Producto de dos matrices . . . . . . . . . . . . . . . . . . 25 1.13.5 Propiedades del producto de matrices . . . . . . . . . . . 26 1.14 Matrices invertibles . . . . . . . . . . . . . . . . . . . . . . . . . . 27 1.15 Operaciones elementales . . . . . . . . . . . . . . . . . . . . . . . 29 1.15.1 Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . 29 1.15.2 Un algoritmo para invertir matrices . . . . . . . . . . . . 29 1.15.3 Matrices por bloques . . . . . . . . . . . . . . . . . . . . . 30 1.16 Reducción por filas . . . . . . . . . . . . . . . . . . . . . . . . . . 31 1 1.17 Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . 33 1.17.1 Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . 33 1.17.2 Método de Gauss-Jordan . . . . . . . . . . . . . . . . . . 34 1.18 Producto de matrices por bloques . . . . . . . . . . . . . . . . . . 35 2 Espacios Vectoriales 36 2.1 Espacios vectoriales: definición . . . . . . . . . . . . . . . . . . . 36 2.1.1 Ejemplos de espacios vectoriales . . . . . . . . . . . . . . 37 2.1.2 Propiedades elementales de los espacios vectoriales . . . . 37 2.1.3 Combinaciones lineales . . . . . . . . . . . . . . . . . . . . 38 2.2 Subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . 38 2.2.1 Criterios para subespacios . . . . . . . . . . . . . . . . . . 39 2.2.2 Suma e intersección de subespacios vectoriales . . . . . . 40 2.3 Dependencia e independencia lineal de un conjunto (finito) de vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 2.3.1 Propiedades elementales . . . . . . . . . . . . . . . . . . . 42 2.4 Bases de un espacio vectorial . . . . . . . . . . . . . . . . . . . . 44 2.5 Suma directa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 2.5.1 Definición . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 2.6 Identidad de Grassmann . . . . . . . . . . . . . . . . . . . . . . . 50 2.6.1 Otras propiedades de la suma directa de subespacios . . . 52 2.6.2 Bases adaptadas a una suma directa . . . . . . . . . . . . 52 2.7 Ecuaciones intŕınsecas de un subespacio vectorial . . . . . . . . . 52 2.8 Cambio de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54 3 Aplicaciones Lineales 57 3.1 Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 3.2 Criterio para aplicaciones lineales . . . . . . . . . . . . . . . . . . 58 3.3 Núcleo e imagen de una aplicación lineal . . . . . . . . . . . . . . 60 3.4 Composición de aplicaciones lineales . . . . . . . . . . . . . . . . 62 3.5 El teorema de las dimensiones . . . . . . . . . . . . . . . . . . . . 63 3.6 Teoremas de equivalencia . . . . . . . . . . . . . . . . . . . . . . 64 3.6.1 Primer teorema de equivalencia . . . . . . . . . . . . . . . 64 3.6.2 Segundo teorema de equivalencia . . . . . . . . . . . . . . 65 3.7 Matriz asociada a una aplicación lineal . . . . . . . . . . . . . . . 65 3.7.1 Aplicación lineal asociada a una matriz . . . . . . . . . . 66 3.7.2 Matriz asociada a la composición de aplicaciones . . . . . 68 3.7.3 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 3.8 Cambios de base y matrices asociadas a aplicaciones lineales . . . 69 3.9 Formas lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 3.9.1 Base dual . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 3.10 Aplicaciones multilineales . . . . . . . . . . . . . . . . . . . . . . 72 3.11 Aplicaciones alternadas . . . . . . . . . . . . . . . . . . . . . . . 73 3.12 Grupo de permutaciones . . . . . . . . . . . . . . . . . . . . . . . 75 3.13 Determinantes e invertibilidad . . . . . . . . . . . . . . . . . . . . 80 2 4 Autovalores y Autovectores 84 4.1 Definiciones y propiedades básicas . . . . . . . . . . . . . . . . . 84 4.2 Subespacios invariantes . . . . . . . . . . . . . . . . . . . . . . . 86 4.3 Ecuación caracteŕıstica . . . . . . . . . . . . . . . . . . . . . . . . 86 4.4 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89 4.5 Independencia lineal . . . . . . . . . . . . . . . . . . . . . . . . . 91 4.6 Multiplicidad algebraica y geométrica . . . . . . . . . . . . . . . 91 4.7 Diagonalización de un endomorfismo . . . . . . . . . . . . . . . . 92 4.7.1 Primer criterio de diagonalización . . . . . . . . . . . . . 93 4.7.2 Segundo criterio de diagonalización . . . . . . . . . . . . . 93 4.7.3 Tercer criterio de diagonalización . . . . . . . . . . . . . . 94 4.8 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 4.9 Teorema de Caley-Hamilton y polinomio mı́nimo . . . . . . . . . 98 5 Formas bilineales y cuadráticas. Productos escalares 100 5.1 Aplicaciones y formas bilineales . . . . . . . . . . . . . . . . . . . 100 5.2 Formas cuadráticas . . . . . . . . . . . . . . . . . . . . . . . . . . 105 5.2.1 Propiedades básicas . . . . . . . . . . . . . . . . . . . . . 105 5.2.2 Forma polar de una forma cuadrática . . . . . . . . . . . 107 5.2.3 Matriz asociada a Φ . . . . . . . . . . . . . . . . . . . . . 108 5.3 Vectores conjugados . . . . . . . . . . . . . . . . . . . . . . . . . 109 5.3.1 Propiedades de los vectores conjugados . . . . . . . . . . 109 5.3.2 Núcleo de una forma bilineal simétrica . . . . . . . . . . . 111 5.3.3 Conjugación respecto de una forma cuadrática . . . . . . 111 5.4 Clasificación de las formas cuadráticas reales . . . . . . . . . . . 112 5.5 Desigualdades de Schwarz y de Minkowski . . . . . . . . . . . . . 113 5.5.1 Desigualdad de Schwarz . . . . . . . . . . . . . . . . . . . 113 5.5.2 Desigualdad de Minkowski . . . . . . . . . . . . . . . . . . 114 5.6 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 5.7 Productos escalares . . . . . . . . . . . . . . . . . . . . . . . . . . 119 5.7.1 Definición . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 5.7.2 Norma asociada a un producto escalar . . . . . . . . . . . 119 5.7.3 Distancia inducida por una norma . . . . . . . . . . . . . 120 5.7.4 Ángulo entre vectores no nulos . . . . . . . . . . . . . . . 121 5.8 Bases ortogonales y ortonormales . . . . . . . . . . . . . . . . . . 123 5.8.1 Teorema de la independencia lineal . . . . . . . . . . . . . 124 5.8.2 Descomposición en coeficientes de Fourier . . . . . . . . . 124 5.9 Método de ortonormalización de Gram-Schmidt . . . . . . . . . . 126 5.9.1 Procedimiento general . . . . . . . . . . . . . . . . . . . . 126 5.9.2 Observaciones sobre el método . . . . . . . . . . . . . . . 128 5.9.3 Bases ortonormales . . . . . . . . . . . . . . . . . . . . . . 129 5.10 Complemento ortogonal . . . . . . . . . . . . . . . . . . . . . . . 129 5.11 Proyección ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . 132 5.12 Producto vectorial en R3 . . . . . . . . . . . . . . . . . . . . . . . 133 3 5.13 Formas sesquilineales y cuadráticas en espacios vectoriales com- plejos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134 5.13.1 Definición . . . . . . . . . . . . . . . . . . . . . . . . . . . 134 5.13.2 Teorema de los autovalores reales para matrices hermı́ticas 136 5.14 Productos escalares hermı́ticos . . . . . . . . . . . . . . . . . . . 137 5.14.1 Identidad de polarización . . . . . . . . . . . . . . . . . . 137 5.14.2 Desigualdad de Cauchy-Schwarz y triangular en un espa- cio hermı́tico . . . . . . . . . . . . . . . . . . . . . . . . . 138 5.14.3 Método de Gram-Schmidt en espacios hermı́ticos . . . . . 138 5.15 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139 6 Aplicaciones lineales entre espacios con producto escalar 141 6.1 Aplicación adjunta . . . . . . . . . . . . . . . . . . . . . . . . . . 141 6.2 Núcleo de f e imagen de la aplicación adjunta . . . . . . . . . . . 142 6.3 Representación matricial de la aplicación adjunta . . . . . . . . . 143 6.4 Operadores normales, autoadjuntos y unitarios . . . . . . . . . . 144 6.4.1 Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . 144 6.4.2 Propiedades generales . . . . . . . . . . . . . . . . . . . . 146 6.5 Teoŕıa espectral para operadores normales . . . . . . . . . . . . . 148 6.6 Teoŕıa espectral de los operadores autoadjuntos . . . . . . . . . . 150 6.7 Teoŕıa espectral para operadores unitarios . . . . . . . . . . . . . 150 6.8 Otras propiedades de los operadores unitarios . . . . . . . . . . . 151 6.9 Diagonalización simultanea de operadores normales que conmutan 152 6.10 Proyectores ortogonales en espacios hermı́ticos . . . . . . . . . . 152 6.10.1 Descomposición espectral . . . . . . . . . . . . . . . . . . 152 6.10.2 Cálculo de proyectores ortogonales . . . . . . . . . . . . . 154 6.11 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154 6.12 Operadores positivos . . . . . . . . . . . . . . . . . . . . . . . . . 158 6.13 Operadores simétricos en espacios vectoriales reales . . . . . . . . 158 6.13.1 Descomposición espectral de un operador simétrico . . . . 159 6.14 Complejización de un espacio vectorial real . . . . . . . . . . . . 159 6.14.1 Espacio complejificado . . . . . . . . . . . . . . . . . . . . 159 6.14.2 Complejización de un operador lineal . . . . . . . . . . . . 160 6.14.3 Complejización de un producto escalar real . . . . . . . . 160 6.15 Operadores ortogonales en espacios eucĺıdeos . . . . . . . . . . . 160 6.16 Diagonalización por bloques de un operador ortogonal . . . . . . 161 6.16.1 Consideraciones generales . . . . . . . . . . . . . . . . . . 161 6.16.2 Caso n = 2 . . . . . . . . . . . . . . . . . . . . . . . . . . 162 6.16.3 Caso n = 3 . . . . . . . . . . . . . . . . . . . . . . . . . . 164 6.17 Fórmula de Rodrigues . . . . . . . . . . . . . . . . . . . . . . . . 165 7 Diagonalización de formas cuadráticas reales 167 7.1 Reducción a forma diagonal . . . . . . . . . . . . . . . . . . . . . 167 7.2 Método de Gauss-Lagrange . . . . . . . . . . . . . . . . . . . . . 169 7.3 Ley de inercia de Sylvester . . . . . . . . . . . . . . . . . . . . . . 170 7.4 Diagonalización por congruencia de una forma cuadrática . . . . 173 4 7.4.1 Criterio de Sylvester . . . . . . . . . . . . . . . . . . . . . 176 7.5 Cónicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177 7.5.1 Secciones cónicas . . . . . . . . . . . . . . . . . . . . . . . 177 7.5.2 Ecuación general de una cónica . . . . . . . . . . . . . . . 178 7.6 Ecuación reducida de una cónica . . . . . . . . . . . . . . . . . . 179 7.7 Invariantes métricos de las cónicas . . . . . . . . . . . . . . . . . 180 7.8 Clasificación de las cónicas por invariantes . . . . . . . . . . . . . 181 7.8.1 Centro de simetŕıa de cónicas . . . . . . . . . . . . . . . . 181 7.8.2 Reducción a forma canónica. Caso I2 6= 0 . . . . . . . . . 181 7.8.3 Reducción a forma canónica. Caso I2 = 0 . . . . . . . . . 184 5 Chapter 1 Estructuras algebraicas En este caṕıtulo estudiaremos la noción de estructura algebraica, que juega un papel fundamental en matemática y en muchas ramas de la ciencia. Concep- tos como los de semigrupo, grupo, anillo, campo, espacio vectorial, categoŕıa, etc., permiten enfocar el estudio del álgebra en un sentido abstracto, y deducir propiedades comunes de clases muy amplias de objetos matemticos. 1.1 Notas históricas La palabra álgebra es de origen arabe. El primer tratado moderno de álgebra fue escrito en el ao 820 d.C. por Al-Khwarizmi (desde su nombre deriva la palabra moderna “algoritmo”). Sin embargo, el origen de la disciplina remonta a la civilización babilonesa, que ya poséıa nociones de ecuaciones algebraicas de I y II grado. Los antiguos griegos se enfocaron esencialmente en la resolución geomtrica de las ecuaciones algebraicas. Diofanto de Alexandra (III siglo a.C.) escribió un tratado, “Arithmetica”, sobre la resolución de dichas ecuaciones. A partir del siglo XIII, el estudio del Álgebra empieza a desarrollarse en Europa de forma sistemática. El más importante matemático de la edad me- dia, Leonardo Fibonacci (Pisa, 1170-1250), dio una significativa contribución al desarrollo del álgebra en su ”Liber Abaci” (1202). En particular, él introdujo varias sucesiones numéricas y resolvió las ecuaciones cúbicas. En la edad renacentista, la matemática en general, y el álgebra en particular, tuvieron un gran desarrollo con Nicola Tartaglia, Gerolamo Cardano, etc. Aśı, se organizaron desaf́ıos matemáticos y competiciones de álgebra en las principales plazas italianas. En el siglo XVII, la escuela francesa, con Franois Viète, Ren Descartes, Pierre Fermat, dio contribuciones fundamentales al desarrollo de una visión nueva de la geometŕıa, expresada a través de nociones algebraicas. Seŕıa imposible describir en pocas palabras los avances impresionantes de la matemática y en particular del álgebra obtenidos a partir del siglo XVIII, por 6 matemáticos como Gauss, Lagrange, Euler, etc. y posteriormente con Galois, Abel, Ruffini, Dedekind, Riemann, etc. Cabe destacar que, a pesar de que el álgebra se haya convertido, cada vez más, en una disciplina abstracta, sobre todo en el siglo XX (con la geometŕıa algebraica y la obra de Grothendieck y muchos más) y en la actualidad, sin embargo, paralelamente, su aplicabilidad en otras ramas de la ciencia no ha dejado de crecer. 1.2 Leyes de composición Denotaremos los conjuntos con letras latinas mayúsculas (A, B, C, . . . , X, . . . ). Los elementos de un conjunto se denotaráon con letras latinas minúsculas. Por definición, el conjunto de los números naturales incluye el cero: N = 0, 1, 2, . . . Dados dos conjuntos X e Y , su producto cartesiano es el conjunto de los pares ordenados de elementos de X e Y : X × Y = {(x, y) | x ∈ X, y ∈ Y } . Definición 1. Sea X un conjunto no vaćıo (no necesariamente numérico). Una ley de composición interna en X es una aplicación ⊥ : X ×X → X (a, b) ∈ X ×X → a⊥b ∈ X (1.1) El śımbolo ⊥ es utilizado para denotar una ley de composición arbitraria. Ejemplo 1.1. La suma + y la multiplicación · en N son leyes de composición internas: a dos nmeros naturales asocian otro natural. Observación Sea I = {1, 3, 5, . . .} ⊂ N el subconjunto de los números impares. El producto · : I × I → I es una ley de composición interna en I . Sin embargo, la suma + : I × I → N no es una ley de composición interna en I porque la suma de dos impares es un número par. Definición 2. Sea ⊥ una ley de composición interna en X. Diremos que la ley es asociativa si (a⊥b)⊥c = a⊥(b⊥c), ∀ a, b, c ∈ X . (1.2) En este caso, utilizaremos directamente el śımbolo a⊥b⊥c en el caso de com- posición de tres elementos. Diremos que la ley es conmutativa si a⊥b = b⊥a, ∀ a, b ∈ X . 7 Ejemplo 1.2. En R, la suma + y el producto · son leyes asociativas y conmu- tativas. 1.3 Estructuras algebraicas 1.3.1 Semigrupos, monoides, grupos Introducimos ahora la noción más sencilla de estructura algebraica: el magma. Definición 3. Un magma es un par (X,⊥), donde X es un conjunto no vaćıo, llamado el soporte de la estructura, y ⊥ es una ley de composición en X. Esta es la estructura más general en Álgebra. Sin embargo, necesitamos que la ley de composición posea más propiedades para que sea de mayor utili- dad en muchos contextos, matemáticos y fsicos. La propiedad más básica que usualmente se requiere es la asociatividad. Definición 4. Un semigrupo es un par (X,⊥), donde ⊥ : X×X → X es una ley de composición interna asociativa. Un semigrupo se dirá conmutativo si la ley de composición ⊥ es conmutativa. Ejemplo 1.3. Los ejemplos posiblemente más básicos de semigrupo son (N,+) y (N, ·), ambos conmutativos. Construiremos ahora estructuras cada vez más refinadas, pidiendo que la ley de composición satisfaga a más propiedades. Definición 5. Sea (X,⊥) un semigrupo. Un elemento e ∈ X se dirá elemento neutro de la ley ⊥ si ∀ x ∈ X : x⊥e = e⊥x = x . (1.3) En otra palabras, el elemento neutro deja invariado el elemento x ∈ X con el que se componga. Una propiedad interesante de e es su unicidad. Teorema 1. Si un semigrupo admite elemento neutro, este elemento es único. Demostración. Sea (X,⊥) un semigrupo y supongamos que existan e, e′ ele- mentos neutros de ⊥ en X. Entonces{ e⊥e′ = e′⊥e = e′ porque e es elemento neutro e⊥e′ = e′⊥e = e porque e′ es elemento neutro =⇒ e = e′ . Definición 6. Un semigrupo (X,⊥) dotado de elemento neutro de ⊥ se llamará monoide. Un monoide se dirá conmutativo si su ley de composición es conmutativa. Los ejemplos anteriores, es decir (N,+) y (N, ·) son también monoides (conmu- tativos). 8 Definición 7. Sea (X,⊥) un monoide. Diremos que un elemento x ∈ X admite un inverso en X, denotado con x−1, si x⊥x−1 = x−1⊥x = e . (1.4) Observamos que los monoides (N,+) y (N, ·) no admiten elementos invert- ibles (aparte el caso trivial de sus respectivos elementos neutros). Para que los elementos de N sean invertibles respecto de la suma, debemos extender este conjunto. El conjunto (Z,+) es un monoide conmutativo: para cada n ∈ Z el número −n es su inverso respecto de la suma. El conjunto de los números racionales (Q, ·) es un monoide conmutativo re- specto del producto. En general, no todos los elementos de un monoide son invertibles. Cuando esta propriedad se cumple, obtenemos una estructura alge- braica de gran relevancia teórica e aplicativa: la de grupo. Definición 8. Un grupo es un monoide (X,⊥) en el que todo elemento admite un inverso. Si la ley es conmutativa, el grupo se dirá conmutativo o abeliano (desde Niels Abel, matemático noruego (1802-1829)). En otras palabras, un grupo es un par (X,⊥) en que se cumple la propiedad asociativa, existe el elemento neutro y el inverso de cada elemento. 1.3.2 Propiedades elementales de los grupos La teoŕıa de grupos es una de las ramas más importantes de la matemática. Consideraremos en esta sección algunas propiedades sencillas pero fundamen- tales de la noción de grupo. Teorema 2. Sea (G,⊥) un grupo. El inverso de cada elemento de G es único. Demostración. Sea a ∈ G. Supongamos que a posea dos elementos inversos: ∃ a−1 ∈ G tal que a⊥a−1 = a−1⊥a = e , ∃ a′ ∈ G tal que a⊥a′ = a′⊥a = e . Entonces, a′⊥a⊥a−1 = a′⊥(a⊥a−1) = a′⊥e = a′ = =⇒ a′ = a−1 (a′⊥a)⊥a−1 = e⊥a−1 = a−1 Teorema 3. Sea (G,⊥) un grupo. Para todo a, b ∈ G: (a⊥b)−1 = b−1⊥a−1 . (1.5) 9 Demostración. Tenemos: (a⊥b)⊥(b−1⊥a−1) = a⊥(b⊥b−1)⊥a−1 = a⊥e⊥a−1 = a⊥a−1 = e . Ejemplos de grupos: (Z,+), (Q,+), (R,+), (R∗, ·), donde R∗ = R\{0} son grupos conmutativos. Sin embargo, (Z, ·) no es un grupo. Veremos en la sección 1.14 que el conjunto de las matrices invertibles con coeficientes en un cuerpo K es un grupo. 1.3.3 Subestructuras Una pregunta muy natural es la siguiente: si el par (X,⊥) representa una estruc- tura algebraica (semigrupo, monoide, grupo), entonces, dado un subconjunto A ⊂ X del soporte de la estructura, ¿ bajo qué condiciones (A,⊥) es per se una estructura algebraica ? En este caso, diremos que (A,⊥) es una subestructura de (X,⊥). Definición 9. Sea (X,⊥) un semigrupo, A ⊂ X, A 6= ∅. Diremos que A es estable respecto a la ley ⊥ si ∀ x, y ∈ A : x⊥y ∈ A . Es evidente que, si A es estable respecto de ⊥, entonces (A,⊥) es una sube- structura (precisamente, un sub-semigrupo) de X. El el caso de subconjuntos de un grupo, vale el siguiente teorema de caracterizacin Proposición 1. Sea (G,⊥) un grupo y H ⊂ G, H 6= ∅. Entonces H es un subgrupo de G ⇐⇒ ∀ a, b ∈ H: a⊥b−1 ∈ H. Demostración. Si H es un subgrupo y b ∈ H, entonces b−1 ∈ H. Además, la composición de dos elementos de H pertenece a H, en particular a⊥b−1 ∈ H ∀ a, b ∈ H. Viceversa, supongamos que a⊥b−1 ∈ H ∀ a, b ∈ H. Está claro que la ley ⊥, siendo asociativa en G, seguirá siendo asociativa para cada terna de elementos de H. También, eligiendo a = b, tenemos que b⊥b−1 = e ∈ H, es decir H contiene el elemento neutro (único) de G. Finalmente, eligiendo a = e, tenemos que ∀ b ∈ H, b−1 ∈ H, es decir todo elemento de H es invertible. Por tanto, H es un subgrupo de G. Bajo las hipótesis de la Proposición 1, si G es un grupo conmutativo, evi- dentemente H es un subgrupo conmutativo. 1.4 Anillos Dado un conjunto X 6= ∅, podemos también construir, con X como soporte, estructuras con más de una ley de composición. La más sencilla entre ellas es la de anillo. 10 Definición 10. Un anillo (A,+, ·), es un conjunto A 6= ∅ dotado de dos leyes de composición internas, llamadas por convenio suma y multiplicación, tales que: • (A,+) es un grupo conmutativo • la ley producto en A es asociativa: (a · b) · c = a · (b · c), ∀ a, b, c ∈ A y distributiva respecto de la suma: a · (b+ c) = a · b+ a · c, (a+ b) · c = a · c+ b · c, ∀ a, b, c ∈ A Por definición, en un anillo la primera ley (denotada simbolicamente como ”+”) es conmutativa. Si también la segunda lo es, diremos que el anillo (A,+, ·) es conmutativo. Si en el anillo (A,+, ·) el producto admite un elemento neutro, llamado por convenio unidad, entonces diremos que A es un anillo unitario1 Ejemplos muy relevantes de anillos son: (1) El anillo de los enteros (Z,+, ·), que es unitario y conmutativo (2) El anillo de los polinomios (R[x],+, ·) en la variable x, con coeficientes en R, que es conmutativo y unitario (3) El anillo, no conmutativo, y unitario, de las matrices Mn×m(A) cuyos ele- mentos pertenecen a un anillo A. 1.5 Cuerpos Cuando en un anillo unitario todos los elementos son invertibles también re- specto de la segunda ley de composición (salvo el ”cero” de la primera), tenemos una estructura algebraica fundamental: la de cuerpo. Definición 11. Un cuerpo es un conjunto K 6= ∅, dotado de dos leyes de composición internas, llamadas suma y producto, tales que: • (K,+) es un grupo conmutativo, con elemento neutro 0 • (K∗, ·) es un grupo, donde K∗ = K\{0} y 1 (6= 0) es el elemento neutro del producto • La suma es distributiva respecto del producto: (a+ b) · c = a · c+ b · c, a · (b+ c) = a · b+ a · c, ∀ a, b, c ∈ A 1Varios autores (como Bourbaki y Lang) piden la existencia de la unidad en un anillo, es decir, definen como anillo lo que para nosotros es un anillo unitario. 11 Si el producto es conmutativo, el cuerpo (K,+, ·) se dirá conmutativo. Por ej., (Q,+, ·), (R,+, ·), C,+, ·) son cuerpos conmutativos. Los cuater- niones (H,+, ·) forman un cuerpo no conmutativo. Resumen. Utilizando la notación + y · para las leyes de composicin: (X,+) semigrupo : + asociativa (X,+) monoide : + asociativa, ∃ e (G,+) grupo : + asociativa, ∃ e , ∃ x−1 (A,+, ·) anillo : (A,+) grupo conm., “ · ” asociativa y distributiva (A,+, ·) anillo unitario : (A,+) grupo conm., “ · ” asociativa y distributiva, ∃ “1” (K,+, ·) cuerpo : (K,+) grupo conm., (K∗, ·) grupo, “ · ” distributiva Las estructuras anteriores se dirán conmutativas si, en el caso de semigrupos, monoides y grupos, es conmutativa la ley +; en el caso de anillos y cuerpos, si lo es la ley · (la + lo es por definición). 12 1.6 Números Complejos Presentaremos la construcción rigurosa del cuerpo de los números complejos como estructura algebraica. Con más precisión, los complejos son pares de números reales, que se componen entre śı mediante dos leyes de composición internas espećıficas, como se detalla a continuación. Definición 12. El conjunto de los números complejos es el conjunto de los pares de números reales C := (R2,+, ·), dotado de dos leyes de composición internas definidas de la forma siguiente: + : R2 × R2 (x1, y1) + (x2, y2) = (x1 + x2, y1 + y2) · : R2 × R2 (x1, y1) · (x2, y2) = (x1x2 − y1y2, x1y2 + y1x2) El subconjunto de los pares (x, 0) ∈ C se identificará con R. Observamos que la suma de pares de reales es estándar, mientras que el producto está definido de forma tal que los complejos adquieren propiedades de cuerpo muy interesantes. Definición 13. Se define unidad imaginaria al par i := (0, 1) . (1.6) Esta definición nos permite reobtener las propiedades usuales de la unidad imaginaria. Proposición 2. La unidad imaginaria i ∈ C satisface a la ecuación i2 = −1 (1.7) Demostración. i2 = (0, 1) · (0, 1) = (−1, 0) = −1 . Sea z = (x, y) ∈ C. Valen las igualdades siguientes: (x, y) = (x, 0) + (0, y) = (x, 0) + (0, 1) · (y, 0) Por tanto, dado que (x, 0) = x ∀x ∈ R, tenemos la representación cartesiana de un número complejo: z = x+ iy . (1.8) Definición 14. Dado el número z = x + iy ∈ C, el número real x se dirá la parte real de z, y el número real y se dirá la parte imaginaria de z. 13 Utilizaremos las notaciones x = Re z, y = Im z. Dados dos números com- plejos z1 y z2, z1 = z2 ⇐⇒ { x1 = x2 y1 = y2 . En particular, z = 0 ⇐⇒ { x = 0 y = 0 . Determinemos el inverso de un número complejo. Sea z = a+ib, y queremos demostrar que ∃ z−1 = x + iy tal que zz−1 = 1 = z−1z. Estas relaciones son equivalentes a { ax− by = 1 ay + bx = 0 ⇐⇒ z−1 = a a2 + b2 − i b a2 + b2 . Utilizando la definición de C, es fácil demostrar el siguiente Teorema 4. El conjunto C es un cuerpo conmutativo. Precisamente, valen las propiedades siguientes: z1 + (z2 + z3) = (z1 + z2) + z3 ∀ z1, z2, z3 ∈ C z + 0 = z ∀ z ∈ C z + (−z) = 0 ∀ z ∈ C z1 + z2 = z2 + z1 ∀ z1, z2 ∈ C z1(z2z3) = (z1z2)z3 ∀ z1, z2, z3 ∈ C z · 1 = z ∀ z ∈ C z · z−1 = 1, ∀ z ∈ C, z 6= 0 z1z2 = z2z1 ∀ z1, z2 ∈ C z1(z2 + z3) = z1z2 + z1z3 ∀ z1, z2, z3 ∈ C (z1 + z2)z3 = z1z3 + z2z3 ∀ z1, z2, z3 ∈ C 1.6.1 Conjugación compleja Definición 15. Sea z = x + iy ∈ C. Se define complejo conjugado de z, y se denota con z̄, al número complejo z̄ = x− iy . (1.9) Proposición 3. Como consecuencia inmediata de la definición anterior, valen las propiedades siguientes: (1) (z̄) = z (2) z1 + z2 = z̄1 + z̄2 (3) z1z2 = z̄1 + z̄2 14 Además, Re z = 1 2 (z + z̄), Im z = 1 2i (z − z̄) (1.10) 1.6.2 Módulo de un número complejo Definición 16. Se define módulo del número complejo z = x+ iy a la función |·| : C→ R |z| = √ x2 + y2 . (1.11) Proposición 4. La función módulo satisface las propiedades siguientes: (1) |z1z2| = |z1| |z2| ∀ z1, z2 ∈ C (2) |z̄| = |z| ∀ z ∈ C (3) z · z̄ = |z|2 ∀ z ∈ C (4) |Re z| ≤ |z| , |Im z| ≤ |z| ∀ z ∈ C (5) |z1 + z2| ≤ |z1|+ |z2| (desigualdad triangular) ∀ z1, z2 ∈ C (6) ||z1| − |z2|| ≤ |z1 − z2| (7) z−1 = z̄ |z|2 , ∀ z ∈ C, z 6= 0 Demostración. (1) |z1z2| = √ (x1x2 − y1y2)2 + (x1y2 + x2y1)2 = √ x2 1x 2 2 + x2 1y 2 2 + y2 1x 2 2 + y2 1y 2 2 = √ x2 1 + y2 1 √ x2 2 + y2 2 = |z1| |z2| . (2) |z̄| = √ x2 + (−y)2 = |z| (3) zz̄ = (x+ iy)(x− iy) = x2 + y2 = |z|2 (4) |Re z| = |x| ≤ √ x2 + y2 = |z| . Análogamente se demuestra que |Im z| ≤ |z|. (5) |z1 + z2|2 = (z1 + z2)(z1 + z2) = |z1|2 + |z2|2 + (z1z̄2 + z̄1z2) = |z1|2 + |z2|2 + 2Re(z1z̄2) ≤ |z1|2 + |z2|2 + 2 |z1z̄2| = |z1|2 + |z2|2 + 2 |z1| |z2| = (|z1|+ |z2|)2 . (6) |z1| = |(z1 − z2) + z2| ≤ |z1 − z2|+ |z2| =⇒ |z1| − |z2| ≤ |z1 − z2| . 15 Cambiando z1 por z2, obtenemos la desigualdad |z2| − |z1| ≤ |z1 − z2|. Ambas desigualdades implican ||z1| − |z2|| ≤ |z1 − z2| . (7) Desde la relación z · z̄ = |z|2, deducimos que, si z 6= 0, z−1 = z̄ |z|2 . En particular, si |z| = 1, tenemos z̄ = z−1. 1.6.3 Argumento Sea C∗ = C\{0}, y z ∈ C∗. Existe θ ∈ R tal que podemos escribir z en la forma siguiente: z = |z| (cos θ + i sin θ) (1.12) La fórmula (1.12) es conocida como la representación polar o trigonométrica de un número complejo. Observamos que θ es el ángulo que el vector z forma con el eje real positivo. Claramente, añadiendo múltiplos de 2π a dicho ángulo, obtenemos una familia de ángulos que representan en la fórmula (1.12) el mismo número z. En otras palabras, θ está definido módulo un múltiplo de 2π. Definición 17. Sea z ∈ C∗. Llamaremos argumento de z, y lo denotaremos con arg(z) a cualquier θ ∈ R tal que z = |z| (cos θ + i sin θ) . En base a la definición anterior, a cada 0 6= z asociamos una familia infinita de argumentos. Por ejemplo z = i =⇒ θ ∈ {π 2 , π 2 ± 2π, . . . , } = {π 2 + 2kπ k ∈ Z } z = −1− i =⇒ θ ∈ { 5π 4 + 2kπ k ∈ Z } = { −3π 4 + 2kπ k ∈ Z } . Evidentemente, arg(z) no es una función. Para que lo sea, es decir para que θ sea único, es necesario elegir un cierto intervalo de valores reales, de longitud 2π, e imponer que θ pertenezca a dicho intervalo. Cuando escogemos semejante intervalo I, diremos que hemos tomado una determinación del argumento. De esta forma, podemos construir una función, denotada con argI : C∗ → I. T́ıpicos ejemplos de posibles elecciones de I son representados por los intervalos [0, 2π), (−π, π], −(π2 , 3π 2 ], etc. Definición 18. La función argI(z) es el único valor de arg(z) que pertenece al intervalo I. En particular, si I = (−π, π], la función Arg z := arg(−π,π](z), z ∈ C∗ (1.13) se dirá la determinación principal del argumento de z. Ejercicio 1.4. Arg(1) = 0, Arg(1 + i) = π/4, Arg(i) = π/2, Arg(−1) = π, Arg(−1− i) = −3π/4, Arg(−i) = −π/2, Arg(1− i) = −π/4 . 16 Observamos que Arg(z) : C∗ → (−π, π] es una función discontinua en el semieje R− ∪ {0}. La determinación arg[0,2π)(z) es discontinua en el semieje R+ ∪ {0}. Si tomamos un intervalo arbitrario, la determinación arg[α,α+2π) (y también arg(α,α+2π]) es discontinua en la semirrecta cerrada que forma un ángulo α con el eje real positivo. La representación polar de un número complejo se escribe comúnmente en la forma z = r(cos θ + i sin θ), r = |z| , θ = arg(z), z ∈ C∗ . Tenemos que z, w ∈ C∗, z = w ⇐⇒ (|z| = |w| , arg z = arg w mod 2π) Calculemos ahora el producto de dos complejos a través de su representación trigonométrica. Si z1, z2 ∈ C∗, tenemos: z1z2 = r1(cos θ1 + i sin θ1)r2(cos θ2 + i sin θ2) = r1r2[(cos θ1 cos θ2 − sin θ1 sin θ2) + i(cos θ1 cos θ2 + sin θ1 sin θ2)] = r1r2[cos(θ1 + θ2) + i sin(θ1 + θ2)] Deducimos inmediatamente que arg(z1z2) = arg z1 + arg z2 mod 2π Sin embargo, Arg(z1z2) 6= Arg(z1) +Arg(z2). Como contraejemplo, observamos que Arg(−i) = −π 2 6= Arg(−1) +Arg(i) = 3π 2 . Otras propiedades elementales del argumento son: (zz−1 = 1 =⇒) arg(z−1) = −arg z mod 2π (zz̄ = |z|2 =⇒) arg(z̄) = −arg z mod 2π arg(z1/z2) = argz1 − argz2 mod 2π validas para todo z, z1, z2 ∈ C∗. 1.7 Fórmula de de Moivre La representación polar es particularmente versatil a la hora de multiplicar entre śı dos números complejos. Teorema 5. Sea z ∈ C∗, z = r(cos θ + i sin θ). Entonces zn = rn(cosnθ + i sinnθ), n ∈ Z . (1.14) 17 Este teorema se puede demostrar por inducción (nótese que es válida también para cualquier n ∈ Z). Una consecuencia interesante de la fórmula de de Moivre es la posibilidad de calcular las funciones cosnθ y sinnθ en términos de cos θ y sin θ. Por ejemplo, para calcular cos 3θ y sin 3θ, observamos que (cos θ + i sin θ)3 = cos 3θ + i sin 3θ ⇐⇒ cos3 θ + 3i cos2 θ sin θ − 3 cos θ sin2 θ − i sin3 θ = cos 3θ + i sin 3θ . Identificando la parte real y la parte imaginaria de primero y segundo miembro, obtenemos { cos 3θ = cos3 θ − 3 cos θ sin2 θ sin 3θ = − sin3 θ + 3 cos2 θ sin θ . 1.8 Ráıces n-ésimas: caso general Resolvemos ahora el problema de determinar todas las ráıces de un número complejo. Sea z ∈ C∗, z = r(cos θ + i sin θ). Determinemos los números complejos w ∈ C, wn = z . (1.15) Sea w = ρ(cosϕ+ i sinϕ). La relación (1.15) implica ρn(cosnϕ+ i sinnϕ) = r(cos θ + i sin θ) =⇒ { ρn = r nϕ = θ + 2kπ, k ∈ Z . Evidentemente, tenemos que los n números wk = n √ r [ cos ( θ n + 2kπ n ) + i sin ( θ n + 2kπ n )] , k = 0, 1, . . . , n−1 (1.16) satisfacen la ecuación (1.15). Estos números se dirán las ráıces n-ésimas del número z. Observamos que en la fórmula (1.16) sólo aparecen las n ráıces distintas. Está claro que wk y wk+ln coinciden para todo l ∈ Z. Ejemplo 1.5. Calcular las ráıces cúbicas de i. Sea z = i, |z| = 1. Entonces wk = cos ( π 6 + 2kπ 3 ) + i sin ( π 6 + 2kπ 3 ) , k = 0, 1, 2 Tenemos: w0 = 1 2 ( √ 3 + i), w1 = 1 2 (− √ 3 + i), w2 = −i. Ejemplo 1.6. Calcular (−8i)1/3. Sea z = −8i: |z| = 8, arg z = θ = 3π 2 . Entonces, (−8i)1/3 = 2 [ cos ( π 2 + 2kπ 3 ) + i sin ( π 2 + 2kπ 3 )] , k = 0, 1, 2 . 18 Precisamente, tenemos w0 = 2i, w1 = 2 [ cos 7π 6 + i sin 7π 6 ] = − √ 3− i, w2 = 2 [ cos 11π 6 + i sin 11π 6 ] = √ 3− i . 1.9 Función exponencial compleja Definición 19. Sea z = x+ iy ∈ C. Definimos la exponencial compleja como ez = ex(cosy + i sin y) . (1.17) A partir de esta definición se puede demostrar también que valen las representa- ciones siguientes: ez = lim n→∞ (1 + z n )n, ez = ∞∑ n=0 zn n! como se verá en cursos superiores. Claramente, si z ∈ R, entonces la exponencial compleja se reduce a la expo- nencial real. Valen las propiedades siguientes: (i) ezew = ez+w (ii) e0 = 1 (iii) ez = ez̄ Una consecuencia inmediata es la célebre fórmula de Euler eiθ = cos θ + i sin θ (1.18) que nos permite introducir la representación exponencial de un número com- plejo: z = reiθ . (1.19) Tenemos las fundamentales relaciones e0 = 1, eiπ/2 = i, eiπ = −1, e3πi/2 = −i, e2πi = 1. También podemos escribir z = |z| eiarg z (1.20) Si z = reiθ, tenemos que zn = rneinθ. 19 1.10 Ráıces n-ésimas de la unidad Estudiemos ahora la ecuación zn = 1, z ∈ C∗ . (1.21) Aplicando la teoŕıa anterior, obtenemos inmediatamente zk = cos 2kπ n + i sin 2kπ n , k = 0, 1, . . . , n− 1 . (1.22) Las soluciones de la ecuación (1.21) por tanto son z0 = 1, z1 = e 2πi n , z2 = e 4πi n , . . . , zn−1 = e 2(n−1)πi n . Por ejemplo, para n = 3, tenemos que la ecuación z3 = 1 admite las tres soluciones z0 = 1, z1 = e 2πi 3 , z2 = e 4πi 3 . Interpretación geométrica. Las ráıces n-ésimas de 1 determinan un poĺıgono regular de n lados inscrito en el ćırculo de radio 1. 1.11 Polinomios 1.11.1 Definiciones Definición 20. Sea (A,+, ·) un anillo conmutativo unitario. Sea pn(x) := a0 + a1x+ a2x 2 + . . .+ anx n, a0, a1, . . . , an ∈ A, an 6= 0 (1.23) Diremos que pn(x) es un polinomio en x de grado n con coeficientes en el anillo A. El conjunto de todos los polinomios con coeficientes en A se denota con A[x]. Una constante a0 ∈ A ⇐⇒ polinomio de grado cero en A[x]. Si n es el grado de un polinomio p(x), el término anx n se llamará término dominante del polinomio. Si el coeficiente del término dominante es igual a 1, el polinomio se dirá mónico. 1.11.2 Propiedades del grado Sean P , Q ∈ A[x]. Valen las propiedades siguientes: (1) grad (P ·Q)= grad P + grad Q (2) grad (P +Q) ≤ máx (grad P , grad Q) . Ejemplo 1.7. Z[x] es el conjunto de todos los polinomios en x con coeficientes enteros. p(x) = 3x2 − 5x+ 1 ∈ Z[x], q(x) = 9x3 + 6x3 + 7x− 8 ∈ Z[x] Otros ejemplos son Q[x], R[x], C[x], etc. 20 Proposición 5. Sea (A,+, ·) un anillo. Entonces (A[x],+, ·) es también un anillo, respecto de las operaciones: (1) suma de polinomios: p(x) + q(x) := max(n,m)∑ k=0 (ak + bk)xk (2) producto de polinomios: p(x) · q(x) := n+m∑ k=0 ( ∑ i+j=k aibj ) xk donde p(x) = a0 +a1x+a2x 2 + . . .+anx n, q(x) = b0 +b1x+b2x 2 + . . .+bmx m ∈ A[x]. Además, en la expresión de la suma se asume que si max(n,m) = n, entonces bk = 0 para k > m; análogamente, si max(n,m) = m, tomaremos ak = 0 para k > n. Expĺıcitamente, tenemos (sea por ej. n > m): p(x) + q(x) := (a0 + b0) + (a1 + b1)x+ . . .+ (am + bm)xm + am+1x m+1 + anx n ; p(x) · q(x) = a0b0 + (a1b0 + a0b1)x+ (a2b0 + a1b1 + a0b2)x2 + . . .+ anbmx n+m . (A[x],+·): el anillo de los polinomios con coeficientes en el anillo conmutativo unitario A. 1.11.3 Ráıces de polinomios y completitud algebraica Sea K un cuerpo conmutativo, y p(x) ∈ K[x]: p(x) = a0 + a1x + . . . + anx n, ai ∈ K. Definición 21. Diremos que el escalar α ∈ K es una ráız de p(x) si p(α) = 0. El lema a continuación nos permitirá demostrar un resultado interesante de la teoŕıa de los polinomios. Lema 1. Para todo par de polinomios p(x), q(x) ∈ K[x], q(x) 6= 0, existen dos polinomios d(x), r(x) ∈ K[x], tales que p(x) = d(x)q(x) + r(x) con grad r(x) < grad q(x). Además, dichos polinomios son únicos. Teorema 6. Sea α ∈ K y p(x) ∈ K[x]. El escalar α es una ráız de p(x) ⇐⇒ p(x) = (x− α)d(x). 21 Demostración. Sea α una ráız de p(x). Como consecuencia del Lema 1, dados los polinomios p(x) y (x− α), existen sendos polinomios d(x) y r(x) tales que p(x) = (x− α)d(x) + r(x) con grad r(x) < grad q(x) = 1 =⇒ r(x) = const. Además, dado que 0 = p(α) = 0 + r(α) =⇒ r(α) = 0 aśı que p(x) = (x− α)d(x). El resultado siguiente establece que cada polinomio con coeficientes en C posee almenos una ráız en C. Por su relevancia es denominado Teorema funda- mental del álgebra. Teorema 7. Sea p(z) ∈ C[z]. Entonces ∃ z1 ∈ C tal que p(z1) = 0. Desde el Teorema fundamental del álgebra desciende el Teorema 8. Todo polinomio p(z) ∈ C[z] se factoriza como producto de factores de grado 1, es decir p(x) = a(z − z1)(z − z2) · . . . · (z − zn) (1.24) donde a ∈ C, y z1, . . ., zn son las ráıces de p(z). Demostración. Sea grad p(z) = n. Aplicando el teorema fundamental del álgebra y el Teorema 6, obtenemos p(z) = (z − z1)q(z), con grad q(z) = n− 1. Utilizando el mismo razonamiento a partir del polinomio q(z) aśı obtenido, y reiterando el procedimiento, obtenemos la factorización (1.24). En general, cada ráız en la factorización anterior tendrá su multiplicidad algebraica, es decir, si p(z) es un polinomio de grado N , en general p(z) = a(z − z1)n1 · . . . · (z − zk)nk , n1 + . . .+ nk = N . Diremos entonces que la ráız zi posee multiplicidad algebraica ni ≥ 1, i = 1, . . . , k. En particular, si n1 = . . . = nk = 1, diremos que las ráıces de p(z) son simples. Esta fundamental propiedad de factorización para los polinomios en C[z] también se expresa diciendo que el cuerpo C es algebraicamente cerrado. Sin embargo, ni Q ni R son algebraicamente cerrados. Como es bien conocido, la ecuación x2 = 2 no admite soluciones en Q, y la ecuación x2 + 1 = 0 no admite soluciones en R. Si un polinomio tiene coeficientes reales, sus eventuales ráıces complejas aparecen en pares {zk, z̄k}. 22 1.12 Fórmulas de Cardano - Viète Sea pn(z) := anz n + an−1z n−1 + . . .+ a2z 2 + a1z + a0, a0, . . . , an ∈ C, an 6= 0 . Como consecuencia del Teorema fundamental del álgebra, el polinomio tiene n ráıces (no necesariamente distintas) z1, . . . , zn. Problema. ¿Qué relación hay entre {a0, . . . , an} y {z1, . . . , zn} ? Consideremos algunos casos particulares. p1(z) = a1z + a0, z1 = −a0 a1 p2(z) = a2z 2 + a1z + a0 = a2(z − z1)(z − z2) = a2[z2 − z(z1 + z2) + z1z2] Por tanto, { z1 + z2 = −a1a0 , z1z2 = a0 a2 . p3(z) = a3z 3 + a2z 2 + a1z + a0 = a3(z − z1)(z − z2)(z − z3) =⇒ z1 + z2 + z3 = −a2a3 z1z2 + z1z3 + z2z3 = a1 a3 z1z2z3 = −a0a3 Caso general: sea pn(z) = anz n + an−1z n−1 + . . .+ a2z 2 + a1z + a0, an 6= 0. Tenemos entonces las fórmulas generales de Cardano-Viète, que relacionan las ráıces con los coeficientes del polinomio: z1 + z2 + . . .+ zn = −an−1 an (z1z2 + z1z3 + . . .+ z1zn) + (z2z3 + . . .+ z2zn) + . . .+ zn−1zn = an−2 an ... z1z2 · . . . · zn = (−1)n a0an 1.13 Matrices 1.13.1 Definiciones Definición 22. Una matriz es una colección de objetos, dispuestos en una forma rectangular, en filas y columnas. 23 Consideraremos siempre matrices formadas por escalares. Estos escalares se denominan los coeficientes de la matriz. Dada una matriz A, indicaremos con (A)ij ≡ aij el coeficiente situado en la fila i-ésima y en la columna j-ésima. El conjunto de todas las matrices con n filas y m columnas, con coeficientes en un cuerpo K se denota con el śımbolo Mn×m(K). Es decir A ∈Mn×m(K), A = a11 . . . a1m ... ... an1 . . . anm  , aij ∈ K . También se usan las notaciones A = (aij), A = {aij}, i = 1, . . . , n, j = 1, . . . ,m. Definición 23. Sea A ∈Mn×m(K), con coeficientes aij. La matriz transpuesta de A, denotada con At, es la matriz en Mm×n con coeficientes (At)ij tales que (At)ij := (A)ji, i = 1, . . . ,m, j = 1, . . . , n. En otras palabras, la matriz transpuesta de A se obtiene intercambiando las filas de A con sus columnas. Definición 24. Sea A ∈Mn(K). Si A = At, A se dice simétrica. Si A = −At, A se dice antisimétrica. Definición 25. Una matriz A ∈Mn×n(K) se dirá triangular superior si aij = 0 ∀ i > j, y triangular estrictamente superior si aij = 0 ∀ i ≥ j. Una matriz A ∈ Mn×n(K) se dirá triangular inferior si aij = 0 ∀ i < j y triangular estrictamente inferior si aij = 0 ∀ i ≤ j. Ejemplo 1.8. Las matrices T1 =  a11 a12 . . . . . . a1n 0 a22 . . . . . . a2n ... ... . . . . . . ... 0 0 . . . an−1,n−1 an−1,n 0 0 . . . 0 ann  , T2 =  a11 0 . . . . . . 0 a21 a22 . . . . . . 0 ... ... ... . . . ... an−1,1 an−1,2 . . . . . . 0 an,1 an,2 . . . an,n−1 ann  son, respectivamente, triangular superior y triangular inferior. Si la diagonal principal tambin se anula, sern triangulares en sentido estricto. Definición 26. Una matriz en la que los elementos de las diagonales descen- dientes son iguales se denomina matriz de Toeplitz, es decir aij = ai+1,j+1 := ai−j . Ejemplo 1.9. La matriz A =  a0 a−1 a−2 . . . . . . a−(n−1) a1 a0 a−1 . . . . . . ... a2 a1 a0 . . . . . . ... ... . . . . . . . . . a−1 a−2 ... . . . a1 a0 a−1 an−1 . . . . . . a2 a1 a0  24 es de Toeplitz. 1.13.2 Suma de matrices Sean A = (aij), B = (bij) ∈Mn×m(K). Definición 27. La aplicación + :Mn×m(K)×Mn×m(K)→Mn×m(K) (A,B)→ A+B, (A+B)ij := aij + bij se dirá suma de las matrices A y B. Dicho de otra forma, la matriz suma tiene como coeficientes la suma (en K) de los coeficientes que ocupan la misma posición en las matrices sumandas. Definición 28. La matriz tal que aij = 0 ∀ i, j se dirá matriz nula. 1.13.3 Producto de una matriz por un escalar Sea λ ∈ K, A = (aij) ∈Mn×m(K). Definición 29. La aplicación K×Mn×m(K)→Mn×m(K) (λ,A)→ λA, (λA)ij := λaij . se dirá producto del escalar λ por la matriz A. Evidentemente, el producto por un escalar consiste en multiplicar cada en- trada de la matriz A por el escalar λ. Nótese que la aplicación anterior es un ejemplo de ley de composición ex- terna. Si X es un conjunto no vaćıo, y K un cuerpo, una ley de composición externa es una aplicación ∗ : K×X → X. De forma más general, K puede ser remplazado por un conjunto no vaćıo arbi- trario. 1.13.4 Producto de dos matrices Definición 30. Sean A = (aij) ∈Mn×m, B = (bij) ∈Mm×k(K). Llamaremos producto de matrices a la aplicación · :Mn×m(K)×Mm×k(K)→Mn×k(K) (A,B)→ A ·B tal que cij = (A ·B)ij , cij := m∑ k=1 aikbkj . 25 Habitualmente omitiremos el · para denotar el producto de dos matrices. Expĺıcitamente, si A = (aij) ∈Mn×m(K), B = (bkl) ∈Mm×k(K), tenemos AB = a11 . . . a1m ... . . . ... an1 . . . anm   b11 . . . b1k ... . . . ... bm1 . . . bmk  = c11 . . . c1k ... . . . ... cn1 . . . cnk  donde cjl = aj1b1l+ . . .+ajmbml es el producto de la fila j-ésima por la columna l-ésima. 1.13.5 Propiedades del producto de matrices Teorema 9. Sean A ∈Mn×m(K), B ∈Mm×p(K), C ∈Mp×r(K). Entonces A(BC) = (AB)C . (1.25) Demostración. [A(BC)]ij = m∑ k=1 Aik(BC)kj = m∑ k=1 Aik ( p∑ l=1 BklClj ) = p∑ l=1 ( m∑ k=1 AikBkl ) Clj = p∑ l=1 (AB)ilClj = [(AB)C]ij . Teorema 10. Sean A ∈Mn×m(K), B,C ∈Mm×p(K). Entonces A(B + C) = AB +AC . (1.26) Demostración. [A(B + C)]ij = m∑ k=1 Aik(B + C)kj = m∑ k=1 Aik(Bkj + Ckj) = m∑ k=1 AikBkj + m∑ k=1 AikCkj = (AB)ij + (AC)ij . Teorema 11. Sean A,B ∈Mn(K). Entonces (AB)t = BtAt (1.27) Demostración. [(AB)t]ij = (AB)ji = n∑ k=1 AjkBki = n∑ k=1 (Bt)ik(At)kj = [BtAt]ij . 26 Observación El producto de matrices no es necesariamente conmutativo, es decir, en general AB 6= BA. Otras propiedades elementales. Si A,B ∈Mn(K), λ ∈ K, tenemos: (At)t = A (A+B)t = At +Bt (λA)t = λ(At) Observación La discusión anterior nos lleva a la conclusión que el conjunto( Mn(K),+, · ) es un anillo unitario: la matriz 1 =  1 0 . . . 0 0 1 . . . 0 ... . . . . . . 0 0 . . . . . . 1  se dirá matriz identidad deMn(K). En general, este anillo no es conmutativo. Una cuestión natural es averiguar las propiedades de invertibilidad en este anillo respecto del producto de matrices. 1.14 Matrices invertibles Definición 31. Sea A ∈ Mn(R). Se dice que A es invertible si existe otra matriz C ∈Mn(K) tal que AC = 1, CA = 1 . Diremos entonces que C es la matriz inversa de A, y la denotaremos con A−1. Proposición 6. La matriz inversa es única. Demostración. Esta propiedad es una consecuencia inmediata del Teorema 2. También podemos demostrarlo directamente. Supongamos que ∃ B ∈ Mn(K) tal que BA = AB = I. Entonces B = B 1 = B(AA−1) = (BA)A−1 = 1A−1 = A−1 . Por tanto, B = A−1, es decir, la inversa es única. Definición 32. Una matriz no invertible se dirá singular. Una matriz invertible se dirá regular o no singular. Consideremos ahora el caso sencillo n = 2. 27 Teorema 12. Sea A ∈ M2(K), A = ( a b c d ) . Si ad − bc 6= 0, entonces A es invertible, y A−1 = 1 ad− bc ( d −b −c a ) . (1.28) Demostración. Es suficiente comprobar con un cálculo directo que AA−1 = 1. El escalar ad− bc es el determinante de A, como veremos más adelante. Teorema 13. Sean A,B ∈Mn(K). (a) Si A es invertible, entonces A−1 es invertible, y (A−1)−1 = A . (1.29) (b) Si A y B son invertibles, también lo es AB, y (AB)−1 = B−1A−1 . (1.30) (c) Si A es invertible, también lo es At, y (At)−1 = (A−1)t . (1.31) Demostración. (a) Por definición, la matriz inversa de A−1 tiene que cumplir la propiedad (A−1)−1A−1 = A−1(A−1)−1 = A . Observamos que A cumple esta propiedad. Dado que la inversa de una matriz es única, deducimos inmediatamente que (A−1)−1 = A. (b) Es una consecuencia del Teorema 3 . También podemos observar directa- mente que (AB) ·B−1A−1 = A(BB−1)A−1 = AIA−1 = AA−1 = 1 . (c) Sea A invertible. Tenemos: 1 = (AA−1)t = (A−1)t ·At ⇐⇒ (At)−1 = (A−1)t . La discusión anterior nos permite enunciar el siguiente Teorema 14. El conjunto de todas las matrices invertibles de Mn(K) es un grupo respecto del producto de matrices. Definición 33. El grupo de las matrices invertibles de Mn(K) se denomina grupo lineal y se denota con GL(n,K). 28 1.15 Operaciones elementales 1.15.1 Definiciones Definición 34. Una operación elemental de filas consiste en una de las tres transformaciones siguientes: (1) Cambiar entre śı dos filas. (2) Multiplicar una fila por un escalar (no nulo) (3) Sumar una fila a otra fila. De manera análoga se definen las operaciones elementales de columnas. Definición 35. Se dice que dos matrices son equivalentes por filas (columnas) si existe una sucesión de operaciones elementales de filas (columnas) que convierte una matriz en la otra. Denotaremos con ef (A) a un conjunto de operaciones elementales de filas apli- cadas a una matriz A y con ec(A) a un conjunto de operaciones elementales de columnas. Observación Para indicar que dos matrices son equivalentes por filas utilizare- mos la notación A ∼f B. Sean A, B, C ∈Mn×m(K). Tenemos: A ∼f A A ∼f B =⇒ B ∼f A A ∼f B y B ∼f C =⇒ A ∼f C . Por tanto, siendo verificadas las propiedades reflexiva, simétrica y transitiva, ∼f es una relación de equivalencia. Lema 2. Sean A ∈Mn×m(K), B ∈Mm×k(K). Tenemos ef (AB) = ef (A) ·B , (1.32) ec(AB) = A · ec(B) , (1.33) ef (A) = ( ec(A t) )t , ec(A) = ( ef (At) )t . (1.34) 1.15.2 Un algoritmo para invertir matrices Teorema 15. Una matriz A ∈ Mn(K) es invertible si y sólo si es equivalente por filas a 1n. En este caso, cualquier sucesión de operaciones elementales de fila que reduzca A a 1n también transforma 1n en A−1. Demostración. Según el Lema 2, sabemos que ef (AB) = ef (A) ·B. Entonces, ef (1) = ef (AA−1) = (ef (A))A−1 Por tanto, deducimos la igualdad ef (1) = (ef (A))A−1, de donde se obtiene que, si ef (A) = 1, entonces A−1 = ef (1). 29 Dada una matriz A ∈Mn(K), tenemos entonces un simple algoritmo para determinar A−1. Introducimos la matriz (A | 1) =  a11 a12 a13 1 0 0 a21 a22 a23 0 1 0 a31 a32 a33 0 0 1  Si A es equivalente por filas a 1, entonces (A | 1) es equivalente por filas a (1 | A−1). De esta forma, construimos A−1. Si no consequimos reducir A a 1 mediante operaciones elementales, A no es invertible. Ejemplo 1.10. Sean f1, f2 la primera y la segunda fila de la matriz A.( 1 2 1 0 3 4 0 1 ) f2→f2−3f1−→ ( 1 2 1 0 0 −2 −3 1 ) f2→(−1/2)f2−→ ( 1 2 1 0 0 1 3 2 − 1 2 ) f1→f1−2f2−→ ( 1 0 −2 1 0 1 3 2 − 1 2 ) . 1.15.3 Matrices por bloques Cuando una matriz tiene una estructura por bloques, la discusión de sus even- tuales propiedades de invertibilidad se simplifica. Consideraremos dos casos sencillos. (a) Supongamos que una matriz F ∈Mn(K) tenga una estructura por bloques de la forma F = ( A B O C ) con A ∈ Mk(K), B ∈ Mk×(n−k)(K), C ∈ M(n−k)×(n−k), O ∈ M(n−k)×k(K). Supongamos que A y C sean invertibles. Entonces, F es invertible, y F−1 = ( A−1 −A−1BC−1 O C−1 ) Ejemplo 1.11. Sea F =  1 2 0 0 3 5 0 0 0 0 3 8 0 0 1 3  Ientificamos los bloques: A = ( 1 2 3 5 ) , det A = −1 C = ( 3 8 1 3 ) , det C = 1 . Entonces, A−1 = ( −5 2 3 −1 ) , C−1 = ( 3 −8 −1 3 ) 30 aśı que F−1 =  −5 2 0 0 3 −1 0 0 0 0 3 −8 0 0 −1 3  . (b) Sea ahora una matriz por bloques de la forma H = ( A O C B ) . Si A, B son invertibles, entonces H−1 = ( A−1 O −B−1CA−1 B−1 ) . 1.16 Reducción por filas Definición 36. Sea A ∈ Mn×m(K). Llamaremos pivote o entrada principal de una fila (columna) de A al primer elemento no nulo de dicha fila (columna), si es que hay alguno. Una columna que contiene a un pivote se llamará columna pivote. Definición 37. Diremos que una matriz rectangular está en forma escalonada por filas si satisface las tres propiedades siguientes: (1) Todas las filas distintas de cero están situadas arriba de cualquier fila integrada sólo por ceros. (2) El pivote de cada fila no nula está a la derecha del de la fila anterior. (3) Todas las entradas de una olumna situadas debajo de un pivote son ceros. Definición 38. Diremos que una matriz en forma escalonada está en su forma escalonada reducida si, aparte de las tres propiedades anteriores, se cumplen también las siguientes: (4) El pivote de cada fila (distinta de la fila nula) es igual a 1. (5) Cada pivote representa la única entrada distinta de cero en su columna. Reducir por filas significa transformar una matriz, mediante operaciones ele- mentales de fila, en una matriz escalonada. Ejemplo 1.12. La matriz F = 5 −4 3 1 0 1 −4 7 0 0 0 3/4  está en forma escalonada. La matriz R = 1 0 0 15 0 1 0 −3 0 0 1 2  31 está en forma escalonada reducida. Reduciendo una matriz se puede obtener más de una matriz en forma escalon- ada; sin embargo, la forma escalonada reducida es única. Teorema 16. Cada matriz es equivalente por filas a una única matriz escalon- ada reducida, llamada la forma normal de Hermite de la matriz. Consecuencia: Las entradas principales siempre están en las mismas posiciones en cualquier forma escalonada. Ejercicio 1.13. Sea la matriz A = 0 3 −6 6 3 −7 8 −5 3 −9 12 −9  Intercambiando filas, y procedendo con otras operaciones elementales, obten- emos su forma escalonada reducida:3 −9 12 −9 3 −7 8 −5 0 3 −6 6  f2→f2−f1−→ 3 −9 12 −9 0 2 −4 4 0 3 −6 6  f1,3→1/3 f1,3,f2→1/2 f2−→ 1 −3 4 −3 0 1 −2 2 0 1 −2 2  =⇒ 1 −3 4 −3 0 1 −2 2 0 0 0 0  f1→f1+3f2−→ 1 0 −2 3 0 1 −2 2 0 0 0 0  . Definición 39. Sea A ∈ Mn×m(K). Llamaremos rango por fila de A, y lo denotaremos con rf (A) al número de filas no nulas de su forma escalonada reducida por filas. Por tanto, rf (A) = n− cf (A) , (1.35) donde cf es el número de filas nulas (es decir, integradas por ceros) de A. Análogamente se introduce en rango por columnas: rc(A) = m− cc(A) , (1.36) siendo cc el número de columnas nulas de A. En realidad, las dos nociones de rango son equivalentes: Teorema 17. Sea A ∈Mn×m(K). Entonces rf (A) = rc(A) . (1.37) Por tanto, hablaremos del rango de A tout court, y lo denotaremos con r(A). Proposición 7. (a) Sea A ∈Mn×m(K). Entonces r(A) ≤ min{n,m} . (1.38) 32 (b) Sean A, B ∈Mn×m, 0 6= λ ∈ K . Entonces |r(A)− r(B)| ≤ r(A+B) ≤ r(A) + r(B) , r(λA) = r(A) . (c) Sean A ∈Mm×p(K), B ∈Mp×n(K). Entonces r(AB) ≤ min{r(A), r(B)} . (1.39) Proposición 8. Sea A ∈ Mn(K). Si A tiene alguna fila de ceros, entonces A es singular. Demostración. Por absurdo, supongamos que ∃ A−1 tal que AA−1 = 1. Por tanto r(AA−1) = r(1) = n, lo que es absurdo por que A contiene al menos una fila de ceros. Proposición 9. Sea A ∈ Mn(K). Si r(A) = n, entonces A es invertible, y A−1 = ef (1), donde ef (1) es el conjunto de operaciones elementales que llevan A a 1. 1.17 Sistemas de ecuaciones lineales 1.17.1 Definiciones Sea A ∈ Mm×n(K), B ∈ Mm×1(K), X = x1 ... xn  ∈ Mn×1(K). Un sistema de m ecuaciones lineales en las incógnitas x1, . . . , xn es un conjunto de ecuaciones de la forma  a11x1 + . . .+ a1nxn = b1 ... ... am1x1 + . . .+ amnxn = bm (1.40) que en forma matricial se puede escribir como AX = B (1.41) Definición 40. Un sistema de ecuaciones lineales AX = B se dirá compatible si admite soluciones. En particular, diremos que es compatible determinado si admite una única solución; en caso contrario, diremos que es compatible indeterminado. Un sistema que no admite soluciones se dirá incompatible. Si B = 0, diremos que el sistema es homogéneo. Observación Un sistema de la forma (1.40) homogéneo siempre es compatible, dado que admite por lo menos la solución nula. 33 1.17.2 Método de Gauss-Jordan La teoŕıa de las transformaciones elementales nos permite afirmar que AX = B ⇐⇒ ef (A)X = ef (B) . Entonces X es solución del sistema AX = B si y sólo si X es solución del sistema reducido mediante operaciones elementales. El método de Gauss-Jordan consiste en llevar A a una forma escalonada (posiblemente reducida) mediante operaciones elementales de fila, obteniendo la matriz ef (A). Introducimos la matriz ampliada del sistema (A|B) =  a11 . . . a1n b1 a21 . . . a2n b2 ... ... ... ... am1 . . . amn bm  Entonces, para resolver un sistema, ante todo llevamos A a una forma escalonada. Distinguimos varios casos. (1) Si r(A) = m (no hay filas de ceros), el rango del sistema es máximo y evidentemente r(A) = r(A|B). Sea r = r(A). Introducimos la cantidad k = n − m: es el número de parámetros libres. Observamos que k ≥ 0, dado que r ≤ min(m,n). Tenemos entonces r = m ≤ n. (1a) Si r = m = n, el sistema es compatible determinado. En este caso, ef (A) = 1 y X = ef (B) = A−1 ·B. (1b) Si r = m < n, despejemos las xi de la forma escalonada, dejando a la izquierda las m incógnitas independientes. El sistema es compatible, y depen- derá de k parámetros, es decir, es compatible indeterminado. (2) Si r(A) < m (hay m − r filas de ceros), el sistema es compatible ⇐⇒ [ef (B)]i = 0 ∀ i = r + 1, . . . , n. Esto es equivalente a pedir r(A) = r(A|B). En caso contrario, será incompatible. El número de parámetros libres es ahora k = n−r, y por tanto el sistema es compatible determinado si r = n, compatible indeterminado para r < n. Observamos que en todo caso r + k = n. Si B = 0, es decir el sistema es homogéneo, siempre será compatible, y será determinado si k = n− r = 0 o indeterminado si k > 0. La discusión anterior es equivalente al teorema fundamental de la teoŕıa de las ecuaciones lineales: Teorema 18 (Rouché-Frobenius-Capelli). Sea un sistema de m ecuaciones lin- eales con n incógnitas de la forma AX = B. 34 El sistema es compatible ⇐⇒ r(A) = r(A|B) = r En particular, el sistema es compatible determinado ⇐⇒ r = m, y es indeter- minado ⇐⇒ r < m. 1.18 Producto de matrices por bloques Sea A ∈ Mm×n(K), B ∈ Mn×p(K). Supongamos que A y B tengan una estructura por bloques: A =  A[11] . . . A[1r] ... · · · ... A[q1] . . . A[qr]  , B =  B[11] . . . B[1s] ... · · · ... B[r1] . . . B[rs]  (1.42) donde el bloque A[ij] tiene tamaño mi × nj , i = 1, . . . , q, j = 1, . . . , r, Bjv tiene tamaño nj × pv, v = 1, . . . , s. También tenemos m1 + . . .+mq = m, n1 + . . .+ nr = n, p1 + . . .+ ps = p. Definimos el producto por bloques de las matrices A y B de la forma siguiente: AB =  (AB)[11] . . . (AB)[1s] ... · · · ... (AB)[q1] . . . (AB)[qs]  (1.43) donde (AB)[iv] = r∑ k=1 A[ik] ·B[kv] . (1.44) Observación El producto de matrices trangulares superiores (o inferiores) por bloques sigue siendo triangular superior (inferior). 35 Chapter 2 Espacios Vectoriales 2.1 Espacios vectoriales: definición Definición 41. Sea V un conjunto no vaćıo, cuyos elementos denotaremos con v1,v2, . . ., y K un cuerpo conmutativo. Supongamos que en V sea definida una ley de composición interna, que llamaremos suma + : V × V −→ V (v1,v2) −→ v1 + v2 y de una ley de composición externa sobre K, que llamaremos producto por escalares · : K× V −→ V (λ,v) −→ λv . El conjunto (V,+, ·) se denomina espacio vectorial sobre K (o K-espacio vecto- rial) si las leyes de composición satisfacen los axiomas siguientes: (I) (V,+) es un grupo conmutativo: (I1) ∀ v1,v2,v3 ∈ V : v1 + (v2 + v3) = (v1 + v2) + v3 (2.1) (I2) ∃ 0 ∈ V t.q. ∀ v ∈ V : v + 0 = v (2.2) (I3) ∀ v ∈ V ∃ v′ ∈ V t.q. v + v′ = 0 (2.3) (I4) ∀ v1,v2 ∈ V : v1 + v2 = v2 + v1 (2.4) (II) La ley de composición externa satisface las propiedades siguientes: (II1) ∀ λ ∈ K, ∀ v1,v2 ∈ V : λ(v1 + v2) = λv1 + λv2 (2.5) (II2) ∀ λ, µ ∈ K, ∀ v ∈ V : (λ+ µ)v = λv + µv (2.6) (II3) ∀ λ, µ ∈ K, ∀v ∈ V : (λµ)v = λ(µv) (2.7) (II4) ∀ v ∈ V : 1 · v = v, 1: unidad de K (2.8) Los elementos de V se llaman vectores, los de K escalares. El elemento 0 se denomina vector nulo de V , el elemento v′ es dicho el opuesto de v y se denota con v′ = −v. 36 2.1.1 Ejemplos de espacios vectoriales Ejemplo 1. El conjunto de los números reales (R,+, ·) es un espacio vectorial sobre R. Más en general, si K es un cuerpo, (K,+, ·) es un espacio vectorial sobre K. Ejemplo 2. Sea V = R2, el conjunto de los pares de números reales (x, y), x, y ∈ R. Introducimos las leyes suma y producto por escalares (x1, y1) + (x2, y2) = (x1 + x2, y1 + y2) (2.9) λ(x, y) = (λx, λy) λ ∈ R (2.10) Por tanto, R2 es un espacio vectorial sobre R. Ejemplo 3. Sea V = Rn, el conjunto de las n-plas de números reales (x1, . . . , xn), x1, . . . , xn ∈ R. Análogamente al caso anterior, introducimos las leyes suma y producto por escalares (x1, . . . xn) + (y1, . . . , yn) = (x1 + y1, . . . , xn + yn) (2.11) λ(x1, . . . , xn) = (λx1, . . . , λxn) λ ∈ R (2.12) Por tanto, Rn es un espacio vectorial sobre R. Más en general, dado un cuerpo conmutativo K, resulta que (Kn,+, ·) es un espacio vectorial sobre K. En par- ticular, (Cn,+, ·) es un espacio vectorial sobre C. Ejemplo 4. Sea C[0, 1] el conjunto de las funciones continuas en [0, 1] con valores en R: C[0, 1] := {f : [0, 1] −→ R, f continua} Observamos que si f y g son continuas, f + g es continua, y λf es continua ∀λ ∈ R. Por tanto, (C,+, ·) es un espacio vectorial sobre R. Ejemplo 5. (Mm×n(K),+, ·) donde + denota la suma de matrices, y · el producto de un escalar λ ∈ K por una matriz, es un espacio vectorial sobre K. Ejemplo 6. Sea Rn[x] el conjunto de todos los polinomios en la variable x, de grado menor o igual a n ∈ N, con coeficientes en R. Tenemos que (Rn[x],+·), donde + es la suma de dos polinomios y · el producto de un escalar λ ∈ R por un polinomio, es un espacio vectorial sobre R. Ejemplo 7. Sea SO el conjunto de los segmentos orientados de R3, de origen común O, dotado de la suma + de dos segmentos orientados, definida por la regla del paralelograma, y el producto · de un escalar λ ∈ R por un segmento orientado. Es inmediato comprobar que (SO,+, ·) es un espacio vectorial sobre R. 2.1.2 Propiedades elementales de los espacios vectoriales Teorema 19. Sea (V,+, ·) un espacio vectorial sobre un cuerpo conmutativo K. Se cumplen las propiedades siguientes: 37 1. ∀ v ∈ V, 0 · v = 0 2. ∀ λ ∈ K, λ0 = 0 3. ∀λ ∈ K, ∀ v ∈ V, (−λ)v = −(λv) 4. λv = 0 =⇒ λ = 0 o v = 0 Proof. Consideremos cada caso por separado. 1. Tenemos: v + 0 = v = (1 + 0)v = 1 · v + 0v = v + 0v aśı que 0 = 0v . 2. λv + 0 = λv = λ(v + 0) = λv + λ0 . 3. 0 = 0v = [λ+ (−λ)]v = λv + (−λ)v . 4. Si λ = 0, la propiedad 1 implica 0v = 0. Entonces, sea λ 6= 0. Por tanto, ∃ λ−1 tal que λλ−1 = 1. λv = 0⇐⇒ λ−1λv = λ−10⇐⇒ v = λ−10 = 0 . 2.1.3 Combinaciones lineales Definición 42. Sean v1, . . . ,vn vectores de un espacio vectorial V sobre K y λ1, . . . , λn ∈ K. Se llama combinación lineal de los vectores v1, . . . ,vn con coeficientes λ1, . . . , λn al vector λ1v1 + . . .+ λnvn . 2.2 Subespacios vectoriales Un subespacio vectorial es un subconjunto no vaćıo de un espacio vectorial, que en śı mismo satisface a los axiomas de espacio vectorial. Con más precisión, tenemos la siguiente Definición 43. Sea (V,+, ·) un espacio vectorial sobre K, y W ⊆ V , W 6= ∅. Diremos que el conjunto W es un subespacio vectorial de V si (W,+, ·) es un espacio vectorial sobre K. 38 Ejemplos. 1. Sea (V,+, ·) un espacio vectorial sobre K. Los conjuntos {0} y V son sube- spacios vectoriales de V (usualmente denominados subespacios triviales). 2. Sea (R,+, ·). Los subespacios vectoriales de R son {0} y R. 3. Sea (R2,+, ·). Los subespacios vectoriales de R2 son {0}, las rectas que pasan por el origen, y R2. 4. Sea (R3,+, ·). Los subespacios vectoriales de R3 son {0}, las rectas que pasan por el origen, los planos de R3 que pasan por el origen y R3. Claramente, el vector nulo de cada subespacio vectorial coincide con el vector nulo de V . Es evidente que un subconjunto W de un espacio vectorial V que no contiene el vector nulo no es un subespacio. Más en general, es útil tener criterios que permitan determinar si un cierto subconjunto no vaćıo de un espacio vectorial es un subespacio. 2.2.1 Criterios para subespacios Criterio 1. Sea (V,+, ·) un espacio vectorial sobre K. Un subconjunto no vaćıo W ⊆ V es un subespacio de V si y sólo si ∀ v1,v2 ∈W, ∀ λ ∈ K : v1 + v2 ∈W, λv ∈W. (2.13) Demostración. Claramente, si W es un subespacio, entonces la condición (2.13) se cumple trivialmente. Vice versa, asumimos que la condición (2.13) esté satisfecha. Como los vectores de W son también vectores de V , entonces satisfacen las propiedades asociativa y conmutativa de la suma. Además, siendo 0v = 0, entonces 0 ∈W . También, eligiendo λ = −1, tenemos que todo vector v ∈ W tiene su opuesto −v ∈ W . Es inmediato comprobar que los cuatro axiomas relativos a la ley de composición externa siguien siendo válidos en W . En definitiva, los ocho axiomas de espacio vectorial están satisfechos. Por tanto (W,+, ·) en śı mismo es un espacio vectorial sobre K, es decir, es un subespacio de V . Equivalentemente, podemos enunciar el Criterio 2. Sea (V,+, ·) un espacio vectorial sobre K. Un subconjunto no vaćıo W ⊆ V es un subespacio de V si y sólo si ∀ v1,v2 ∈W, ∀ λ1, λ2 ∈ K : λ1v1 + λ2v2 ∈W. (2.14) Demostración. Es suficiente demostrar que el criterio 2 es equivalente al criterio 1. Con este fin, observamos que si se cumple la condición (2.13), entonces ∀ v1, v2 ∈ W , λ1, λ2 ∈ K, tenemos que λ1v1 ∈ W , λ2v2 ∈ W ; por tanto λ1v1 + λ2v2 ∈ W . Vice versa, si la condición (2.14) está satisfecha, eligiendo λ1 = 1, λ2 = 1 tenemos que v1 + v2 ∈ W , y eligiendo λ2 = 0, tenemos que λv ∈W ∀λ ∈ K. 39 Ejercicio 9. Sea V un espacio vectorial, u ∈ V , u 6= 0. Sea W = {v = λu, λ ∈ K} . Demostrar que W es un subespacio vectorial de V , llamado la recta vectorial generada por u. Resolución. Es suficiente comprobar que se cumple el Criterio 2. De hecho, sean v1 = λ1u, v2 = λ2u dos vectores de W , y α1, α2 ∈ K. Tenemos que α1v1 + α2v2 ∈W , porque α1v1 + α2v2 = α1λ1u + α2λ2u = (α1λ1 + α2λ2)u = γu, γ ∈ K. Teorema 20. Sea (V,+, ·) un espacio vectorial sobre K y S = {v1, . . . ,vp} un conjunto de p vectores de V . El conjunto lin S de todas las posibles com- binaciones lineales de los vectores de S con coeficientes en K es un subespacio vectorial de V , denominado el subespacio generado por S. Demostración. Sean x1, x2 dos vectores de lin S. Entonces, x1 = λ1v1 + . . .+ λpvp, x2 = µ1v1 + . . .+µpvp. Es evidente que α1x1 +α2x2 ∈ lin S, y por tanto, en virtud del Criterio 2, lin S es un subespacio vectorial de V . Definición 44. Los vectores v1, . . . ,vp se llamarán los generadores de lin S. Ejemplo 10. En R3, tenemos por ej. los subespacios lin{(1, 3, 0), (−1, 5, 7)}, lin{(1, 2, 3)} . 2.2.2 Suma e intersección de subespacios vectoriales Definición 45. Sea (V,+, ·) un espacio vectorial sobre K, y sean W1, . . . ,Wp p subespacios vectoriales de V . El conjunto de vectores H = {v ∈ V | ∃ vi ∈Wi (i = 1, . . . , p),v = v1 + . . .vp} (2.15) es dicho suma de los subespacios W1, . . . ,Wp y se denota con H = W1 + . . .+Wp . Definición 46. Sea (V,+, ·) un espacio vectorial sobre K, y sean W1, . . . ,Wp p subespacios vectoriales de V . El conjunto de vectores G = {v ∈Wi ∀ i = 1, . . . , p} (2.16) es llamado intersección de los subespacios W1, . . . ,Wp y se denota con G = p⋂ i=1 Wi . 40 Teorema 21. La intersección y la suma de subespacios vectoriales son sube- spacios vectoriales. Demostración. Sean p subespacios W1, . . . ,Wp de un espacio vectorial (V,+, ·) sobre K, y G = {v ∈Wi ∀ i = 1, . . . , p}, H = W1 + . . .+Wp sean su intersección y suma, respectivamente. (1) Sean v1 y v2 ∈ G, λ1, λ2 ∈ K. Claramente, λ1v1 + λ2v2 pertenece a cada uno de los subespacios Wi , i = 1, . . . , p y por tanto pertenece a su intersección G. Como consecuencia del criterio 2, G es un subespacio vectorial de V . (2) Sean v = v1 + . . .+ vp, v′ = v′1 + . . .v′p, con vi,v ′ i ∈ Wi, i = 1, . . . , p. Por tanto, v y v′ ∈ H. Sean λ, µ ∈ K. Tenemos que λv+µv′ = λ(v1+. . .+vp)+µ(v′1+. . .v′p) = (λv1+µv′1)+. . .+(λvp+µv′p) ∈ H . Por tanto, H es un subespacio vectorial de V . Definición 47. Sea (V,+, ·) un espacio vectorial sobre K, y sean W1 y W2 dos subespacios vectoriales de V . Si W1 ∪W2 = {0}, es decir si W1 y W2 tienen en común sólo el vector nulo, se dice que W1 y W2 son disjuntos. Otro teorema interesante es el siguiente. Teorema 22. El subespacio suma es el subespacio generado por la unión de los subespacios W1, . . . ,Wp: H = lin ( W1 ∪ . . . ∪Wp ) . (2.17) Observación 2.1. En general, la unión de dos subespacios de un espacio V no es un subespacio. Como contraejemplo, podemos considerar el caso de las dos rectas en R2 dada por el eje X = lin{(1, 0)} y el eje Y = lin{(0, 1)}. Ahora bien, tenemos que el conjunto de vectores lin{(1, 0)} ∪ lin{(0, 1)} no es un subespacio de R2: e1 = (1, 0) ∈ X, e2 = (0, 1) ∈ Y, λ1e1 + λ2e2 = (λ1, λ2) y en general el vector (λ1, λ2) pertenece a una recta por el origen del plano XY, pero no pertenece necesariamente ni a X, ni a Y . Sin embargo X + Y = lin{(1, 0), (0, 1)} = R2 y por tanto es un subespacio vectorial. 41 2.3 Dependencia e independencia lineal de un conjunto (finito) de vectores Definición 48. Sea (V,+, ·) un espacio vectorial sobre K. El conjunto S = {v1, . . . ,vk} es linealmente independiente si la relación α1v2 + α2v2 + . . .+ αkvk = 0 (2.18) implica α1 = 0, α2 = 0, . . . , αk = 0 . (2.19) Si existe al menos un escalar αi 6= 0 tal que la relación (2.18) está satisfecha, los vectores v1, . . . ,vk se dirán linealmente dependientes. 2.3.1 Propiedades elementales Proposición 10. Sea (V,+, ·) un espacio vectorial sobre K. Valen las propiedades siguientes: (1) Un vector v 6= 0 es linealmente independiente. (2) Dos vectores v1 y v2 son linealmente dependientes ⇐⇒ v1 = λv2 (3) Un sistema de vectores S que contiene el vector nulo es linealmente dependiente (4) Si vk = α1v1 + . . . + αk−1vk−1, entonces el conjunto {v1, . . . ,vk} es linealmente dependiente. (5) Si un conjunto de vectores es linealmente dependiente, cualquier conjunto que lo contenga es también linealmente dependiente. (6) Si un conjunto de vectores es linealmente independiente, cualquier sub- conjunto de él es linealmente independiente. Demostración. (1) Si v 6= 0, entonces la relación αv = 0 implica α = 0, y por tanto v es independiente. (2) Si v1 y v2 son linealmente dependientes, entonces existe αi 6= 0, (i = 1, 2) tal que α1v1 +α2v2 = 0. Supongamos α1 6= 0. Entonces v1 = λv2 con λ = α2 α1 . Vice versa, si v1 = λv2, entonces v1 − λv2 = 0 y la relación (2.18) se cumple con α1 = 1 6= 0. (3) Si en un sistema de vectores uno de ellos, por ejemplo vk = 0, entonces la relación (2.18) se cumple con αk 6= 0 y entonces el sistema es dependiente. (4) Es evidente que vale la relación α1v1 + . . .+ αk−1vk−1 − vk = 0, y por tanto, siendo αk = −1, el sistema {v1, . . . ,vk} es dependiente. (5) Sea {v1, . . . ,vk} un sistema de vectores linealmente dependientes. En- tonces por definición existe αi 6= 0 tal que la relación α1v1 + . . .+αkvk = 0 está satisfecha. Por tanto, dado el conjunto de vectores {v1, . . . ,vk,vk+1, . . . ,vn}, es evidente que la relación α1v1 + . . .+ αnvn = 0 se cumple con escalares α1, . . . , αi 6= 0, . . . , αk, αk+1 = 0, . . . , αn = 0 no todos nulos. 42 Proposición 11. Si {v1, . . . ,vn} son n vectores linealmente dependientes de V , entonces por lo menos uno de estos vectores se puede expresar como combinación lineal de los demás vectores. Demostración. Si {v1, . . . ,vn} son linealmente dependientes, entonces por definición la relación λ1v1 + . . .+ λnvn = 0 se cumple con algún coeficiente no nulo. Supongamos que, por ej., λk 6= 0. Entonces tenemos λkvk = −λ1v1 − . . . λk−1vk−1 − λk+1vk+1 − . . .− λnvn que, siendo λk 6= 0, se puede escribir como vk = − 1 λk n∑ i=1 i 6=k λivi es decir, el vector vk es combinación lineal de los demás vectores. Ejemplo 11. Los tres vectores v1 = (2, 1, 2), v2 = (7,−5/2, 3), v3 = (−3, 1,−1) son linealmente independientes en R3: λ1v1+λ2v2+λ3v3 = 0⇐⇒ λ1(2, 1, 2)+λ2(7,−5/2, 3)+λ3(−3, 1,−1) = (0, 0, 0) 2λ1 + 7λ2 − 3λ3 = 0 λ1 − 5/2λ2 + λ3 = 0 2λ1 + 3λ2 − λ3 = 0 ⇐⇒  2λ1 + 7λ2 − 3λ3 = 0 12λ2 − 5λ3 = 0 λ3 = 0 ⇐⇒ λ1 = λ2 = λ3 = 0 . Observación 2.2. Mediante operaciones elementales de filas es posible deter- minar, dado un conjunto de generadores, los que son linealmente independientes entre śı. Por ejemplo, sea en R4 el subespacio generado por los vectores W = lin{(1, 3, 4, 1), (2, 6, 8, 2), (2, 5, 7, 2)} . Consideremos la matriz cuyas filas son las coordenadas de los vectores del sis- tema. Mediante operaciones elementales de fila, podemos reducir esta matriz hasta llegar a su forma escalonada reducida (o de Hermite) por filas. Tenemos: 1 3 4 1 2 6 8 2 2 5 7 2  ∼f 1 3 4 1 0 0 0 0 0 −1 −1 0  ∼f 1 3 4 1 0 1 1 0 0 0 0 0  ∼f 1 0 1 1 0 1 1 0 0 0 0 0  Entonces, los vectores (1, 3, 4, 1), (2, 6, 8, 2) son linealmente independientes. En- tonces, W = lin{(1, 0, 1, 1), (0, 1, 1, 0)}. Como veremos, los vectores {(1, 0, 1, 1), (0, 1, 1, 0)} forman una base de W . Definición 49. Sea (V,+, ·) un espacio vectorial sobre K, S ⊂ V un conjunto no vaćıo de vectores de V . El rango de S es el máximo número de vectores linealmente independientes contenidos en S. 43 2.4 Bases de un espacio vectorial La noción de base de un espacio vectorial es una de las más relevantes de toda la teoŕıa. Definición 50. Sea (V,+, ·) un espacio vectorial sobre K. Una base de V es un conjunto de generadores de V linealmente independientes. En otras palabras, B es una base del espacio vectorial V si B es un conjunto de vectores linealmente independientes y lin B = V . Teorema 23. Sea (V,+, ·) un espacio vectorial sobre K. Un conjunto de vec- tores {v1, . . . ,vn} es una base de V si y sólo si cada v ∈ V se escribe de manera única como v = x1v1 + . . .+ xnvn, x1, . . . , xn ∈ K (2.20) Demostración. (=⇒) Sea {v1, . . . ,vn} una base de V . Si la expresión (2.20) no fuese única, entonces existiŕıan escalares y1, . . . , yn tales que, al mismo tiempo, v = y1v1 + . . .+ ynvn. Entonces v = x1v1 + . . .+ xnvn = y1v1 + . . .+ ynvn y por tanto (x1 − y1)v1 + . . . (xn − yn)vn = 0. Como los vectores {v1, . . . ,vn} son independientes, la relación anterior implica inmediatamente xi = yi, i = 1, . . . , n. (⇐=) Supongamos que cada vector v ∈ V se escriba de forma única como v = x1v1 + . . . + xnvn. Entonces, {v1, . . . ,vn} son un sistema de generadores de V . Demostremos que además son linealmente independientes. Con tal fin, observamos que 0v1 + . . .+ 0vn = 0, y dado que esta expresión por hipótesis es única, entonces la relación α1v1 + . . .+ αnvn = 0 implica α1 = 0, . . . , αn = 0 y los vectores son independientes. Definición 51. La expresión v = x1v1 + . . . + xnvn se dirá descomposición del vector v respecto de la base {v1, . . . ,vn} de V . Los coeficientes x1, . . . , xn, determinados de forma única, se llamarán las componentes de v respecto de la base dada. Lema 3. Sea (V,+, ·) un espacio vectorial sobre K. Si y = c1v1 + . . .+ cmvm, con c1 6= 0, entonces lin{v1, . . . ,vm} = lin{y,v2, . . . ,vm} . Demostración. Observamos que v1 = 1 c1 y − c2 c1 v2 − . . .− cm c1 vm . Por tanto, cualquier combinación lineal de {v1, . . . ,vm} se puede escribir como combinación lineal de {y,v2, . . . ,vm}. 44 Lema 4. Sea (V,+, ·) un espacio vectorial sobre K y S = {v1, . . . ,vp} un sistema de generadores de V . Si vi, i ∈ {1, . . . , p}, es combinación lineal de los demás vectores del sistema, entonces el conjunto de vectores que se obtiene eliminando vi de S sigue siendo un sistema de generadores de V . Demostración. Sea {v1, . . . ,vp} un sistema de generadores de V . Por tanto, si x ∈ V , se puede escribir como combinación lineal de los generadores: x = x1v1 + . . .+ xivi + . . .+ xpvp . (2.21) Por otro lado, tenemos que vi = α1v1 + . . . αi−1vi−1 + αi+1vi+1 + . . . αpvp . Por tanto, sustituyendo esta expresión de vi en la ecuación (2.21), tenemos: x = (x1+α1xi)v1+. . .+(xi−1+αi−1xi)vi−1+(xi−1+αi+1xi)vi+1+(xp+αpxi)vp , lo que demuestra que {v1, . . . ,vi−1,vi+1, . . . ,vp} es un sistema de generadores de V . Teorema 24 (Independencia lineal). Sea (V,+, ·) un espacio vectorial sobre K. Supongamos que V = lin{v1, . . . ,vm}, con v1, . . . ,vm ∈ V y sea S = {y1, . . . ,yk} un conjunto de vectores linealmente independientes de V . Entonces k ≤ m. Demostración. Cada vector de S, siendo también vector de V , es una combi- nación lineal de los generadores {v1, . . . ,vm}. Por ejemplo, y1 = a1v1 + . . .+ amvm . Como S es un sistema de vectores independientes, necesariamente y1 6= 0, aśı que no todos los coeficientes ai pueden ser nulos. Sin pérdida de generalidad, supongamos que a1 6= 0. Aplicando el Lema 3, deducimos que lin{v1, . . . ,vm} = lin{y1,v2, . . . ,vm}. Por tanto, y2 ∈ lin{y1,v2, . . . ,vm}: y2 = b1y1 + b2v2 + . . .+ bmvm donde algunos de los b2, . . . , bm son distintos de cero, ya que en caso con- trario y2 = b1y1, y entonces y1 e y2 seŕıan dependientes (Proposición 10, (2)). Supongamos que por ej. b2 6= 0, y aplicando de nuevo el Lema 3, obtenemos lin{v1, . . . ,vm} = lin{y1,y2, . . . ,vm} aśı que {y1,y2, . . . ,vm} es un sistema de generadores de V . Repetimos el razonamiento hasta agotar uno de los dos conjuntos. Pero si fuera k > m, entonces {y1, . . . ,ym} seŕıa un sistema de generadores de V ; en- tonces los vectores ym+1, . . . ,yk se expresaŕıan como combinación lineal de los vectores {y1, . . . ,ym}, lo cual es imposible dado que {y1, . . . ,yk} son lineal- mente independientes. 45 Teorema 25 (de la dimensión). Si en un espacio vectorial (V,+, ·) existe una base integrada por n ∈ N\{0} vectores, todas las demás bases tienen el mismo número de vectores. Demostración. Sean B1 = {v1, . . . ,vn} y B2 = {v′1, . . . ,v′k} dos bases de V . Aplicando el teorema de la independencia lineal (intercambiando el papel de B1 y B2), se obtiene k ≤ n y n ≤ k =⇒ k = n . El teorema anterior nos permite introducir la noción de dimensión de un espacio vectorial. Definición 52. Sea (V,+, ·) un espacio vectorial sobre K. Si el espacio admite una base compuesta por n ∈ N\{0} vectores, dicho número n se llamará la dimensión del espacio V . Si dicho entero n no existe, diremos que V tiene dimensión infinita. Por convenio, el subespacio {0} tiene dimensión nula. Teorema 26 (Ampliación de la base). Sea (V,+, ·) un espacio vectorial sobre K, dim V = n, y sea B = {v1, . . . ,vn} una base de V . Si {w1, . . . ,wk}, k ≤ n es una sistema de vectores linealmente independientes de V , entonces existen vectores {vk+1, , . . . ,vn} de B tales que el conjunto {w1, . . . ,wk,vk+1, . . . ,vn} es una base de V . Demostración. Demostremos el teorema por recurrencia. Sea k = 1. El vec- tor w1, siendo por hipótesis linealmente independiente, es no nulo. Tenemos, respecto de la base B, la descomposición w1 = x1v1 + . . .+ xnvn , (2.22) donde almenos uno de los coeficientes es no nulo. Sea por ej. x1 6= 0. Entonces v1 = 1 x1 (w1 − x2v2 − . . . − xnvn). Por tanto, cualquier combinación lineal de {v1, . . . ,vn} es también combinación lineal de {w1,v2, . . . ,vn}, que entonces son un sistema de generadores de V . Además, son linealmente independientes. En efecto, sea α1w1 + α2v2 + . . .+ αnvn = 0 . (2.23) Si α1 6= 0, tendŕıamos w1 = − 1 α1 (α2v2 + . . .+ αnvn) (2.24) Sin embargo, esta relación está en contradicción con la ec. (2.22), porque en aquella ecuación x1 6= 0, mientras que en la (2.24) el coeficiente de v1 es nulo. Esto viola la unicidad de la descomposición de w1 en la base B (Teorema (23)). Entonces, α1 = 0, y la ecuación (2.23) se reduce a α2v2 + . . .+ αnvn = 0 . (2.25) 46 Como v2, . . . ,vn son independientes, entonces α2 = 0, . . . , αn = 0. En defini- tiva, hemos demostrado que en la relación (2.23) α1 = 0, . . . , αn = 0, por tanto los vectores {w1,v2, . . . ,vn} son linealmente independientes y forman una nueva base de V . El teorema queda demostrado para k = 1. Ahora bien, supongamos que sea cierto para k−1 vectores y demostremos que sigue siendo cierto para k vectores. Con tal fin, consideremos k vectores w1, . . . ,wk linealmente independientes. Los vectores w1, . . . ,wk−1 también son independientes, y aplicando la hipótesis, deducimos que existen n− k + 1 vectores en la base B, por ejemplo vk, . . . ,vn tales que el conjunto {w1, . . . ,wk−1,vk, . . . ,vn} es una base de V . Por tanto, el vector wk será combinación lineal de estos vectores de base: wk = λ1w1 + . . . λk−1wk−1 + λkvk + . . .+ λnvn . (2.26) Por hipótesis, {w1, . . . ,wk} son linalmente independientes; por tanto, necesari- amente uno de los coeficientes λk, . . . , λn es no nulo. Sea por ejemplo λk 6= 0. Deducimos que {w1, . . . ,wk,vk+1, . . . ,vn} son un sistema de generadores de V (Lema 3). Además, con el mismo razonamiento visto por el caso k = 1 deduci- mos que estos vectores son independientes. Por tanto, forman una base de V y el teorema queda demostrado para k vectores. En el caso k = n, obtenemos inmediatamente el siguiente Corolario 1. Si un espacio vectorial V tiene dimensión n, entonces cada sis- tema de n vectores linealmente independientes es una base de V . Teorema 27. Sea (V,+, ·) un espacio vectorial sobre K, dim V = n. Entonces, cada conjunto de vectores linealmente independientes posee como mucho n vec- tores. Demostración. Sean {v1, . . . ,vp} p vectores linealmente independientes de V . Supongamos por absurdo p > n. Los vectores {v1, . . . ,vn} son independientes (siendo un subconjunto de un conjunto independiente). Por tanto, en base al Corolario 1, forman una base de V . Entonces los vectores vn+1, . . . ,vp se expresaŕıan como combinación lineal de {v1, . . . ,vn}, lo que es en contradicción con la hipótesis de la independencia lineal de {v1, . . . ,vp}. También podemos observar que, dado un espacio vectorial V 6= {0}, es posible construir una base eliminando vectores dependientes de un sistema de generadores de V . Teorema 28. En un espacio vectorial no nulo, de cada sistema de generadores finito se puede extraer una base. Demostración. Sea un sistema finito de generadores de un espacio V 6= {0}. Si son independientes, ya son una base, y no hay que eliminar vectores. Si son dependientes, entonces al menos un vector del sistema será combinación lineal de los demás vectores. Eliminando este vector, el conjunto que queda sigue siendo un sistema de generadores, en virtud del Lema 4. Si el nuevo conjunto con un 47 vector menos es independiente, entonces es una base. Si todav́ıa es dependiente, repetiremos el proceso hasta llegar a un sistema de generadores independientes, es decir, una base de V . Teorema 29. Sea (V,+, ·) un espacio vectorial sobre K, dim V = n, y sea W ⊂ V un subespacio vectorial de V . Tenemos: dim W ≤ dim V . (2.27) Demostración. Sea 0 6= w1 ∈ W . Si lin{w1} = W , entonces dim W = 1 ≤ n. Si lin{w1} 6= W , entonces ∃ w2 ∈ W , linealmente independiente de w1. Si lin{w1,w2} 6= W , entonces ∃ w3 ∈ W , linealmente independiente de w1, w2. Dado que la dimensión de V es finita, el proceso se acaba en un número finito de pasos. Dado que los vectores de W están generados por cualquier base de V , por el teorema de la independiencia lineal, en cada paso, resulta que dim W ≤ dim V . Remark 1. En Rn sea {e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . , en = (0, 0, . . . , 0, 1)}. Es inmediato demostrar que este conjunto es una base: λ1e1 + . . .+ λnen = 0 =⇒ (λ1, . . . , λn) = (0, . . . , 0) es decir, se trata de un conjunto de n vectores linealmente independientes. Además, son generadores del espacio, por que cualquier vector x ∈ Rn se puede escribir como combinación lineal de ellos: x = (x1, . . . , xn) = x1e1 + . . .+ xnen . Definición 53. Sea K un cuerpo conmutativo, y el espacio vectorial (Kn,+, ·) sobre K. Se denomina base canónica a la base siguiente: {(1, 0, . . . , 0), (0, 1, . . . , 0), . . . , (0, 0, . . . , 1)}. En la definición anterior, obviamente, 0 y 1 representan el elemento neutro de la suma + y del producto · definidos en el cuerpo conmutativo K. Ejemplo 12. La base canónica de R2 es {(1, 0), (0, 1)}, de R3 es {(1, 0, 0), (0, 1, 0), (0, 0, 1)}, etc. Ejercicio 13. Demostrar que el conjunto{ A1 = ( 1 0 0 0 ) , A2 = ( 0 1 0 0 ) , A3 = ( 0 0 1 0 ) , A4 = ( 0 0 0 1 )} es una base del espacio vectorial (M2×2(R),+, ·) (base canónica). Ejercicio 14. Sea R3 dotado de la base canónica e1, e2, e3. Sean los subespacios F1 = lin{(1, 2, 0), (0, 1, 1)}, F2 = lin{(0, 1, 2), (−1, 0, 1)} 48 Determinar los subespacios F1 ∩ F2 y F1 + F2. Resolución. Sea w ∈ F1 ∩ F2, u1 = (1, 2, 0), u2 = (0, 1, 1), u3 = (0, 1, 2), u4 = (−1, 0, 1). Entonces w = λ1u1 + λ2u2 = λ3u3 + λ4u4 ⇐⇒ λ1(1, 2, 0) + λ2(0, 1, 1) = λ3(0, 1, 2) + λ4(−1, 0, 1) Tenemos el sistema λ1 = −λ4 2λ1 + λ2 = λ3 λ2 = 2λ3 + λ4 ⇐⇒  λ1 = −λ4 2λ1 + λ2 = λ3 λ1 + λ2 = 2λ3 ⇐⇒  λ4 = −λ3 λ2 = 3λ3 λ1 = −λ3 Por tanto, llamando λ3 = α, tenemos que w = α(−1, 1, 3), es decir F1 ∩ F2 = lin{(−1, 1, 3)} es decir, es la recta vectorial generada por w, aśı que dim F1 ∩ F2 = 1. Como F1 + F2 = lin(F1 ∪ F2), tenemos F1 + F2 = lin{(1, 2, 0), (0, 1, 1), (0, 1, 2), (−1, 0, 1)} . Claramente, los cuatro vectores no pueden ser independientes. Es fácil compro- bar que u1,u2,u4 son linealmente independientes, y por tanto forman una base de F1 + F2, y que u4 = −u1 + 3u2 − u4. En definitiva, F1 + F2 = R3 . 2.5 Suma directa 2.5.1 Definición Definición 54. Sea (V,+, ·) un espacio vectorial sobre K, y W1, . . . ,Wp ⊂ V sean p subespacios vectoriales de V . Si vi ∈Wi, y v1 + . . .+ vp = 0 =⇒ v1 = 0,v2 = 0, . . . ,vp = 0 (2.28) diremos que la suma de los subespacios W1, . . . ,Wp es directa, y se denotará con W1 ⊕W2 . . .⊕Wp . Teorema 30. Sea (V,+, ·) un espacio vectorial sobre K, y W1, . . . ,Wp ⊂ V sean p subespacios vectoriales de V . Si su suma es directa, entonces cualquier vector v ∈W1 ⊕ . . .⊕Wp se escribe de manera única de la forma v = v1 + . . .+ vp, vi ∈Wi . (2.29) 49 Demostración. Supongamos que la expresión (2.29) no sea única: entonces ∃ v′i ∈Wi, i = 1, . . . , p tales que v = v′1 + . . .+ v′p . Obviamente v1 + . . .+ vp = v′1 + . . .+ v′p, por tanto, (v1 − v′1) + . . .+ (vp − v′p) = 0 . Como vi − v′i ∈ Wi, i = 1, . . . , p, de la definición de suma directa se sigue vi − v′i = 0, es decir vi = v′i, por tanto la expresión (2.29) es única. Proposición 12. Sean W1 y W2 dos subespacios de V . La suma W1 + W2 es directa si y sólo si W1 ∩W2 = {0} . (2.30) Demostración. (=⇒) Supongamos que la suma sea directa. Si fuera W1 ∩W2 6= {0}, entonces existiŕıa un vector u 6= 0 en dicha intersección, es decir, u ∈ W1 y u ∈W2. Sea v ∈W1 ⊕W2. Por tanto, v = v1 + v2, v1 ∈W1, v2 ∈W2 . (2.31) Ahora bien, como v = (v1 + u) + (v2 − u), con v1 + u ∈ W1 y v2 + u2 ∈ W2, evidentemente la expresión (2.31) no seŕıa única. (⇐=) Supongamos W1 ∩W2 = {0} y sea v1 + v2 = 0, v1 ∈W1,v2 ∈W2 . Si v1 6= 0, entonces v2 = −v1, entonces existiŕıa un vector no nulo común a ambos subespacios, lo cual es absurdo. Por tanto, v1 = 0, y entonces v2 = 0. Por tanto la suma W1 +W2 es directa. Definición 55. Sea (V,+, ·) un espacio vectorial sobre K. Dos subespacios W1 y W2 tales que V = W1 ⊕W2 (2.32) se dirán suplementarios. 2.6 Identidad de Grassmann El teorema de Grassmann relaciona entre śı las dimensiones de la suma y de la intersección de dos subespacios. Teorema 31 (Grassmann). Sea (V,+, ·) un espacio vectorial sobre K, y W1, W2 dos subespacios de V . Entonces dim(W1 +W2) = dim W1 + dim W2 − dim(W1 ∩W2) . (2.33) 50 Demostración. Sea r = dim W1, s = dim W2, t = dim (W1 ∩ W2). Sea B12 = {v1, . . . ,vt} una base de W1 ∩W2. Por el teorema de ampliación de la base, a esta base se pueden añadir r − t vectores x1, . . . ,xr−t obteniendo una base de W1: B1 = {v1, . . . ,vt,x1, . . . ,xr−t} . También, la base B12 se puede ampliar con s − t vectores y1, . . . ,ys−t, para obtener una base de W2: B2 = {v1, . . . ,vt,y1, . . . ,ys−t} . Demostremos que los vectores B = {v1, . . . ,vt,x1, . . . ,xr−t,y1, . . . ,ys−t} son linealmente independientes. Por ello, introducimos los vectores v = α1v1 + . . .+αtvt, x = β1x1 + . . .+βr−txr−t, y = γ1y1 + . . .+γs−tys−t . Los vectores de B son linealmente independientes si y sólo si v + x + y = 0 . (2.34) Ahora bien, observamos que v ∈W1 ∩W2, x ∈W1 pero x /∈W2 (salvo x = 0), y y ∈W2 pero y /∈W1 (salvo y = 0). Ahora bien, si y 6= 0, y = −v − x ∈W1 lo que seŕıa en contradicción con el hecho que y /∈ W1. Por tanto, deducimos que y = 0. Del mismo modo se obtiene x = 0 y entonces desde la relación (2.34) deducimos v = 0. Observamos que v = 0 =⇒ α1 = . . . = αt = 0 porque los vectores vi son linealmente independientes. Del mismo modo deduci- mos x = 0 =⇒ β1 = . . . = βr−t = 0 y = 0 =⇒ γ1 = . . . = γs−t = 0 Entonces hemos demostrado que la relación (2.34), es decir α1v1 + . . .+ αtvt + β1x1 + . . .+ βr−txr−t + γ1y1 + . . .+ γs−t = 0 implica α1 = . . . = αt = β1 = . . . = βr−t = γ1 = . . . = γs−t = 0 . Por tanto, B es una base de W1 +W2 y dim(W1 +W2) = t+r−t+s−t = r+s−t = dim W1 +dim W2−dim(W1∩W2) . 51 2.6.1 Otras propiedades de la suma directa de subespacios Desde la identidad de Grassmann se obtiene directamente el siguiente Corolario 2. Sea el subespacio W = W1 ⊕W2. Entonces dim(W1 ⊕W2) = dim W1 + dim W2 . (2.35) Demostración. La suma de dos subespacios es directa si y sólo si y sólo si W1 ∩ W2 = {0}. Como dim{0} = 0, el resultado sigue de la identidad de Grassmann. Además, tenemos otra propiedad interesante. Proposición 13. Sea (V,+, ·) un espacio vectorial sobre K. Entonces V es suma directa de sus subespacios W1, . . . ,Wk, y escribimos V = W1 ⊕ . . .⊕Wk, si  V1 + . . .+ Vk = V (V2 + . . .+ Vk) ∩ V1 = {0} (V1 + V3 . . .+ Vk) ∩ V2 = {0} ... ... (V1 + . . .+ Vk−1) ∩ Vk = {0} Si V = W1 ⊕ . . .⊕Wk, entonces dimV= dimW1 + . . .+ dimWk. 2.6.2 Bases adaptadas a una suma directa Definición 56. Sea (V,+, ·) un espacio vectorial sobre K, dim V = n, y sea la descomposición V = W1 ⊕ . . .⊕Wp (2.36) donde W1, . . . ,Wp son p subespacios vectoriales de V , con n1 = dim W1, . . ., np = dim Wp, y n = n1 + . . .+ np . Diremos que una base B de V está adaptada a la descomposición (2.36) si los primeros n1 vectores de B forman una base de W1, los siguientes n2 vectores forman una base de W2 y aśı sucesivamente, hasta los últimos np vectores, que formarán una base de Wp. 2.7 Ecuaciones intŕınsecas de un subespacio vec- torial Consideremos un sistema homogéneo AX = 0 de m ecuaciones con coeficientes en un cuerpo K y n incógnitas. Claramente, cada solución es un vector de Kn. Demostraremos que el conjunto de las soluciones del sistema es un subespacio vectorial. 52 Teorema 32. Sea el espacio vectorial Kn y sea AX = 0 un sistema homogéneo de m ecuaciones y n incógnitas con coeficientes en K. El conjunto formado por todas las soluciones del sistema es un subespacio vectorial de Kn. Demostración. Sean (y1, . . . , yn) y (z1, . . . , zn) dos soluciones del sistema con- siderado, y sean Y y Z las matrices columna integradas por los coeficientes de dichas soluciones. Claramente, tenemos que AY = 0 y AZ = 0. Por tanto A(Y + Z) = AY + AZ = 0, as que (y1 + z1, . . . , yn + zn) también es solución. Por otro lado, (λy1, . . . , λyn) es solución, dado que A(λY ) = λAY = 0. Por tanto, utilizando el Criterio 1, obtenemos que el conjunto de todas las soluciones del sistema AX = 0 es un subespacio vectorial de Kn. Se puede mostrar que la dimensión del subespacio de las soluciones es igual a n−rang(A), es decir, se obtiene restando a la dimensión del espacio el número de “ligaduras” independientes entre las variables. También es cierto que cada subespacio de un espacio vectorial V de di- mensión finita puede interpretarse como el conjunto de las soluciones de un sendo sistema de ecuaciones cartesianas, llamadas ecuaciones intŕınsecas (o impĺıcitas) del subespacio. La relación entre la dimensión del subespacio y el número de ecuaciones intŕınsecas es muy directa. Precisamente, si V es un espacio vectorial de di- mensión finita y U es un subespacio de V , el número m de ecuaciones carte- sianas independientes necesarias para representar U (es decir, de ecuaciones intŕınsecas) es m = dimV − dimU . (2.37) Ejemplo 15. Sea el subespacio deR3 determinado por las soluciones del sistema x1 + x2 + x3 = 0 . Despejando una de las variables, tenemos x1 = −x2 − x3 . Por tanto, poniendo x2 = α, x3 = β, tenemos que x1 = −α− β. Las tres ecua- ciones son llamadas ecuaciones paramétricas del subespacio. El conjunto de las soluciones tiene entonces la forma U = {(−α− β, α, β) ∈ R3, α, β ∈ R} . Una base de U se obtiene inmediatamente: (−α− β, α, β) = α(−1, 1, 0) + β(−1, 0, 1) Por tanto U = lin{(−1, 1, 0), (−1, 0, 1)}. Siendo estos vectores independientes, forman evidentemente una base de U . Ejercicio 16. Sea el espacio vectorial R3 y el subespacio W = lin{(1,−1, 0), (1, 1, 0)} . 53 Determinar sus ecuaciones intŕınsecas. Resolución. Como dimW = 2, necesitamos una sola ecuación intŕınseca. Si w = (x, y, z) es un vector genérico de W , entonces (x, y, z) = λ(1,−1, 0) + µ(1, 1, 0) de donde obtenemos las ecuaciones paramétricas x = λ+ µ y = −λ+ µ z = 0 . La ecuación intŕınseca buscada es por tanto z = 0. Ejercicio 17. Sea el espacio vectorial R4 y el subespacio U = lin{(1, 0, 1, 1), (0, 1, 1, 0)} . Determinar sus ecuaciones intŕınsecas. Resolución. Sea x = (x1, x2, x3, x4) ∈ U . Tenemos (x1, x2, x3, x4) = λ(1, 0, 1, 1) + µ(0, 1, 1, 0) . Obtenemos las ecuaciones paramétricas x1 = λ x2 = µ x3 = λ+ µ x4 = λ ⇐⇒  x1 = x4 x2 = µ x3 = x1 + x2 . Por tanto, las ecuaciones intŕınsecas del subespacio son{ x1 + x2 − x3 = 0 x1 − x4 = 0 . 2.8 Cambio de base Definición 57. Sea (V,+, ·) un espacio vectorial sobre K, B = {v1, . . . ,vn} y B̂ = {v̂1, . . . , v̂n} dos bases distintas de V . La matriz P de cambio de la base antigua B a la nueva base B̂ es la matriz cuyas columnas son integradas por las coordenadas de los vectores de la base nueva calculadas respecto de la base antigua. Ejemplo 18. Sea el espacio vectorial (R2,+, ·) sobre R. Consideremos las bases B = {v1 = (1, 0), v2 = (0, 1)} 54 y B̂ = {v̂1 = (2, 1), v̂2 = (3, 4)} . Tenemos por tanto{ v̂1 = (2, 1) = 2v1 + v2 v̂2 = (3, 4) = 3v1 + 4v2 { v1 = (1, 0) = 4/5v̂1 − 1/5v̂2 v2 = (0, 1) = −3/5v̂1 + 2/5v̂2 . Por tanto, la matriz de cambio de la base B a la base B̂ es P = ( 2 3 1 4 ) . La matriz P es invertible, y su inversa P−1 = ( 4/5 −3/5 −1/5 2/5 ) representa la matriz de cambio de la base B̂ a la matriz B. En general, vale la siguiente Proposición 14. Sea (V,+, ·) un espacio vectorial sobre K, B = {v1, . . . ,vn} y B̂ = {v̂1, . . . , v̂n} dos bases distintas de V . La matriz P de cambio de la base antigua B a la nueva base B̂ es invertible. Demostración. Es suficiente observar que las columnas de la matriz P son lin- ealmente independientes, dado que representan las componentes de los vectores de una base (respecto de otra); por tanto, el rango de la matriz es máximo, es decir, igual a n y la matriz es invertible. Supongamos que V sea un espacio vectorial sobre K, de dimensión n. Si P es la matriz de cambio de la base B a la base base B̂, valen las siguientes ecuaciones de cambio de base: v̂j = n∑ i=1 Pijvi, j = 1, . . . , n . (2.38) Nos pregutamos ahora: ¿ como cambian las componentes de un vector x ∈ V , cambiando base en el espacio ? Representemos el vector x en dos bases distintas: x = n∑ i=1 xivi, x = n∑ j=1 x̂jv̂j Determinemos ahora la relación entre las componentes {x̂1, . . . , x̂n} y {x1, . . . , xn}. Tenemos x = n∑ j=1 x̂jv̂j = n∑ j=1 x̂j ( n∑ i=1 Pijvi ) = n∑ i=1 ( n∑ j=1 Pij x̂j ) vi = n∑ i=1 xivi 55 Por tanto, deducimos x̂j = ( n∑ i=1 Pij x̂j ) En notación matricial, sean X = x1 ... xn , X̂ = x̂1 ... x̂n  los vectores columna de las componentes de X en las dos bases. Evidentemente, X = PX̂ (2.39) o, equivalentemente X̂ = P−1X . (2.40) 56 Chapter 3 Aplicaciones Lineales 3.1 Definiciones Definición 58. Sean V y W dos espacios vectoriales sobre el mismo cuerpo conmutatico K. Una aplicación f : V →W que satisface las condiciones (I) ∀ v,v′ ∈ V ; f(v + v′) = f(v) + f(v′) (3.1) (II) ∀ v ∈ V, ∀ λ ∈ K, f(λv) = λf(v) (3.2) se dirá que es una aplicación lineal o un homomorfismo de V en W . Sea f : V → W una aplicación lineal. En la literatura matemática se usa comúnmente la terminoloǵıa siguiente: Si f es inyectiva, f se dirá monomorfismo. Si f es sobreyectiva, f se dirá epimorfismo Si f es biyectiva, f se dirá isomorfismo. Además, un homomorfismo f : V → V se dirá endomorfismo de V ; en particular, un endomorfismo que es también biyectivo (isomorfismo) es un au- tomorfismo de V . Definición 59. El conjunto de todas las aplicaciones lineales de V en W se denota con el śımbolo L(V,W ) o también Hom(V,W ). El conjunto de los en- domorfismos de V se denota con L(V ) o con End(V ). Ejemplo 3.1. Sea (V,+, ·) un espacio vectorial sobre K, y a ∈ K. Introducimo la aplicación ha : V → V , aśı definida: ha(v) = av ∀ v ∈ V . Verifiquemos que ha es una aplicación lineal: ∀ v,v′ ∈ V ; ha(v + v′) = a(v + v′) = av + av′ = ha(v) + ha(v′) 57 ∀ λ ∈ K : ha(λv) = aλv = λav = λha(v) Entonces ha es lineal. Además, si a 6= 0, ha es biyectiva: ∀ v ∈ V , el vector u = a−1v es el único vector de V tal que ha(u) = v. Entonces, si a 6= 0, ha es un automorfismo de V , llamado homotecia de V de constante a. Ejercicio 3.2. Mostrar que la aplicación f : R3 → R2 definida por f(x, y, z) = (x+ y, y + z) es lineal. Resolución. Utilicemos la definición de aplicación lineal. I) Sean v1 = (x1, y1, z1), v2 = (x1, y2, z2) ∈ R3. Observamos que f(v1 + v2) = f [(x1, y1, z1) + (x2, y2, z2)] = f(x1 + x2, y1 + y2, z1 + z2) = (x1 + x2 + y1 + y2, y1 + y2 + z1 + z2) = (x1 + y1, y1 + z1) + (x2 + y2, y2 + z2) = f(x1, y1, z1) + f(x2, y2, z2) = f(v1) + f(v2) . II) Sea λ ∈ K. f(λv) = f [λ(x1, y1, z1)] = f(λx1, λy1, λz1) = (λx1 + λy1, λy1 + λz1) = λ(x1 + y1, y1 + z1) = λf(x1, y1, z1) = λf(v). 3.2 Criterio para aplicaciones lineales Teorema 33. Sean V , W espacios vectoriales sobre K. La aplicación f : V → W es lineal si y sólo si ∀ v,v′ ∈ V, ∀ λ, λ′ ∈ K : f(λv + λ′v′) = λf(v) + λ′f(v′) Proof. =⇒) El vector λv + λ′v′ ∈ V . Entonces f(λv + λ′v′) (I) = f(λv) + f(λ′v′) (II) = λf(v) + λ′f(v′) =⇒ Elegimos λ = λ′ = 1; entonces se cumple la condición (I). Si elegimos λ = 1, λ′ = 0, se cumple la condición (II). Proposición 15. Sean V,W dos espacios vectoriales sobre K, f ∈ L(V,W ). Entonces f(0V ) = 0W . (3.3) Proof. Si v ∈ V , tenemos f(v + 0V ) = f(v) = f(v) + f(0V )⇐⇒ f(v)− f(v) = 0W = f(0V ) . 58 Ejercicio 3.3. Sea V =Mn(K). Demostrar que la aplicación f :Mn(K)→Mn(K) definida como f(A) = AT es lineal. Resolución. Sean A1, A2 ∈Mn(K), λ1, λ2 ∈ K. Tenemos f(λ1A1+λ2A2) = (λ1A1+λ2A2)T = (λ1A1)T +(λ2A2)T = λ1(A1)T +λ2(A2)T , utilizando la definición de transposición de una matriz. Por tanto, en virtud del Teorema 33, deducimos que la aplicación f ∈ L(Mn(K)). Ejercicio 3.4. Sea V = K[x], el espacio vectorial de los polinomios en la variable x, con coeficientes en el cuerpo conmutativo K. Sea D : K[x]→ K[x], Dp(x) = p′(x) la aplicación que a un polinomio p(x) ∈ K[x] asocia su derivada primera p′[x] respecto de la varia