Geometría Analítica con Matlab/Matrices

De testwiki
Ir a la navegación Ir a la búsqueda

Matrices

Luego de la fundamentación de la teoría de matrices al final del sigo XIX, se observó que muchas nociones matemáticas que fueron consideradas ligeramente diferentes de las matrices, eran en efecto, similares. Por ejemplo, objetos tales como puntos en el plano bidimensional, puntos en el espacio tridimensional, polinomios, funciones continuas, funciones diferenciables satisfacen las mismas propiedades aditivas y propiedades de multiplicación por escalares. Por lo cual se pensó que era más eficiente y productivo estudiar muchos tópicos a la vez, al analizar las propiedades comunes que ellos satisfacen; este hecho condufo a la definición axiomática de espacio vectorial. La primera publicación sobre el tema se debe al polaco Hermann Grassmann (1808 - 1887), en 1844; en su trabajo dejó planteados los conceptos que se refieren a dependencia lineal, bases y dimensión.

El italiano Giuseppe Peano (1858 - 1932) dio una axiomatización similar a la que actualmente se usa y que fue propuesta posteriormente por el alemán Hermann Weyl (1885 - 1955) ignorando el trabajo de Peano. El éxito de Weyl radicó en el manejo geométrico del espacio vectorial.

Espacio Vectorial

Un espacio vectorial involucra cuatro (4) "objetos": dos (2) conjuntos V y F, y dos operaciones algebraicas llamadas adición vectorial y multiplicación escalar; V es un conjunto no vacío de objetos llamados vectores. F es un campo escalar, ya se el campo de los número reales, o bien el campo de los números complejos.

La adición vectorial (denotada como x+y) es una operación entre elementos de V. La multiplicación escalar (denotada como αx) es una operación entre elementos de F y de V. Entonces, el conjunto V es llamado espacio vectorial sobre F cuando la adición vectorial y la multiplicación escalar satisfacen las propiedades que se enuncian a continuación:

Para la adición de vectores

Plantilla:Eqn

Propiedades para la multiplicación escalar:

Plantilla:Eqn

Si al módulo e mencionadao en (A4) se le denomina vector nulo y se denota por O, y teniendo en cuenta que cualquier escalar t multiplicado por él da nuevamente el vector nulo, tO=O, se puede decir:

Plantilla:Res

Esto resulta al suponer que kO, entonces x=1k(kx)=O, lo cual es absurdo.

Independencia Lineal

Dados los vectores v1,v2,,vrV y los escalares α1,α2,,αrF, una expresión de la forma Plantilla:Eqn es llamada uan combinación lineal de ellos.

Un conjunto de vectores se dice linealmente independiente, o que es un sistema libre si la única combinación lineal igual al vector nulo es aquella en que todos los escalares son cero. En caso contrario, se dice que es linealmente dependiente o que es un sistema ligado.

Subespacio

Si V es un espacio vectorial sobre F y si WV, entonces W es un subespacio de V si bajo las operaciones de V, W mismo forma un espacio vectorial sobre F.

Para establecer la estructura de subespacio no es necesario revisar todas las 10 condiciones definidas para determinar si un subconjunto es también un subespacio. Para tal fin se plantean dos caracterizaciones:

Plantilla:Importante

Plantilla:Res

Sólo si se quiere probar que W es subespacio de V.

Con α=β=1, resulta (A1). Las propiedades asociativa y conmutativa [(A2), (A3)] las conserva el subconjunto W. Con α=0=β se obtiene OW, y con ello se cumple (A4). Ahora, dado w1W, tomando α=1,β=0 se concluye que el opuesto w1W y en consecuencia por (A1) satisface (A4). Si α=1 y β=0 se tiene (M5).

Las restantes propiedades (M2), (M3), (M4) son consecuencia por ser W subconjunto del espacio vectorial V.

Una segunda caracterización tiene en cuenta únicamente las condiciones clausurativas (A1) y (M1):

Plantilla:Importante

Plantilla:Res

Sólo se requiere establecer que (A1), (M1) implican que W es subespacio de V.

Siendo W subconjunto de V, salvo las propiedades (A4) y (A5) de manera inmediata se satisfacen las restantes. (A4) y (A5) se obtienen de (A1), (M1) al escribir x=(1)x, dado cualquier elemento xW.

La caracterización 2 permite deducir que para un conjunto W=v1,v2,,vr de vectores del espacio V, el espacio formado con todas las combinaciones lineales de sus elementos gen(W)=α1v1+α2v2++αrvr, es un subespacio vectorial de V. Este subespacio es llamado el espacio generado por W.

La dimensión de un espacio vectorial V se refiere al máximo número de vectores, o bien al mínimo número de vectores linealmente independientes necesario para generar V. Y se denomina base todo conjunto de vectores, linealmente independientes, que genera el espacio V.

Producto Interior

Al considerar F el campo de los número reales o el de los complejos, al espacio vectorial se le asocia un producto interior denotado uv, que a cada par de vectores asocia un único escalar, y cumple las propiedades.

(P1)vv0,para todovV,yvv=0si y solo siv=O;(P2)vw=wv,para todo parv,wV;(P3)u(αv+βw)=α(uv)+β(uw),para cualesquieru,v,wV,y todo parα,βF.

En el caso del espacio vectorial real de la forma n (con F=), un producto punto es el correspondiente a la suma de los productos de las respectivas componentes. Es decir, dados los vectores

Plantilla:Eqn

se toma

Plantilla:Eqn

Al utilizar la notación matricial, los vectores habitualmente se toman en columna y, en este caso el producto anterior se desarrolla como utv, donde ut indica la transpuesta de u.

En el caso de vectores con componentes complejas, el producto interno debe ser modificado para tener la definición de longitud, y la modificación habitual es conjugar el primer vector en el producto interno. Esto significa que x es reemplazado por x¯, y el producto interno de x y y resulta:

Plantilla:Eqn

Y se toma el producto interno de x con él mismo, se tiene el cuadrado de su longitud: x¯tx=x2.

Puesto que en el caso complejo y¯tx no siempre coincide con x¯ty, se debe tener en cuenta el orden de los vectores para el producto interno. Hay otra novedad: si x es cambiada por cx, entonces el producto interno de x y y es multiplicado por c¯.

Nótese que si se tomara en el caso complejo tal como se desarrolla el caso real, con el vector u=[i,1,0,,0] aparecería por ejemplo el resultado

Plantilla:Eqn

incumpliendo la segunda parte de la propiedad (P1).

Una norma para un espacio vectorial V, real o complejo, es la función definida sobre V que satiface:

Plantilla:Eqn

En un espacio V con producto interior , dos vectores x, y son ortogonales si xy=0. En n el producto interios habitual es xy=xty. En el espacio n, como se restringió antes, el producto interior usual es xy=x¯ty.

Si los dos vectores ortogonales tiene norma o longitud 1, se dice que son ortonormales.

Matrices

Arthur Cayley

Suma y multiplicación

Recuérdese que una matriz es un arreglo rectangular de número que pueden ser reales o complejos y se representa normalmente entre paréntesis. El orden o tamaño de una matrz está dado por el número de filas y el de columnas.

Los elementos de una matriz general de tamaño m×n se representan normalmente utilizando un doble subíndice; el primer subíndice, j, indica el número de fila y el segundo, k, el número de columna. Así pues, el elemento, m23 está en la segunda fila, tercera columna de la matriz M; se puede representar de forma abreviada como M=(mjk). También se usa la notación Mm×n.

La suma de dos matrices sólo está definida si ambas tienen el mismo tamaño. Así, dadas A=(ajk) y B=(bjk), entonces la suma C=A+B se define como la matriz (cjk), en la que cjk=ajk+bjk; es decir, para sumar dos matrices de igual tamaño basta con sumar los elementos correspondientes.

En el conjunto de todas las matrices de un determinado tamaño, la adición tiene las propiedades asociativa y conmutativa. Además hay una matriz única O, denominada matriz cero o nula, tal que para cualquier matriz A, se cumple A+O=O+A=A y, para la matriz dada A existe una matriz única B tal que A+B=B+A=O.

La multiplicación de una matriz A por un escalar t (número real o complejo), da una matriz formada por todos los términos de A multiplicados por el escalar t, conservando su posición inicial.

De esta manera, el conjunto de todas las matrices de orden m×n, con la operación suma y la multiplicación por escalares tiene estructura de espacio vectorial.

La multiplicación o producto AB de dos matrices, A y B, está definido sólo si el número de columnas del factor izquierdo, A, es igual al número de filas del factor derecho, B; si A=(ajk) es de tamaño m×n y B=(bjk) es de mañaño n×p, el producto AB=C=(cjk) es de tamaño m×n y cjk está dado por

Plantilla:Eqn.

Es decir, el elemento de la fila j y la columna k des producto, es la suma de los productos de cada uno de los elementos de la fila j de factor izquierdo multiplicado por el correspondiente elemento de la columna k del factor derecho.

Para el caso de una matriz cuadrada, se adopta la notación A2 para representar el producto AA.

La multiplicación de matrices no es conmutativa, pero si cumple la propiedad asociativa. Esto es

Plantilla:Eqn

El caso particular de la multiplicación de una matriz de orden m×n por una matriz de orden n×1, es una matriz de orden m×1 (vector columna). De acuerdo con la definición es

Plantilla:Eqn

la cual puede expresarse en la forma

Plantilla:Eqn

es decir, es una combinación lineal de las columnas de la matriz de orden m×n, y los escalares corresponden a las componentes del vector columna.

Cuando se tiene la multiplicación de una matriz M=(aij) de orden m×n, por otra formada por dos (o más) columnas (dos vectores columna), se puede plantear en la forma

Plantilla:Eqn

o brevemente, denotanto X el vector columna [x1x2xn]t y Y el vector [y1y2yn]t

Plantilla:Eqn

Matriz inversa

La matriz unidad, es una matriz cuadrada en la cual todos los elementos son cero, excepto los de la diagonal principal, que son 1 y es el elemento neutro para la multiplicación de matrices. Si A y B son dos matrices cuadradas de forma que AB=BA=I, la matriz B se llama inversa de A y se denota B=A1.

Si una matriz no posee inversa se dice singular; en caso contrario se le dice no singular o regular (es inversible).

Si se supone que dos matrices B, C cumplen

Plantilla:Eqn

de C=CI=C(AB)=(CA)B=IB=B, se tiene que la inversa, si existe es única. En particular I1=I.

Sobre dos matrices M y N, inversibles, si son de igual tamaño se cumple

Plantilla:Eqn

Esto se sigue de la asociatividad de la multiplicación:

Plantilla:Eqn

y de manera análoga se obtiene (M1N1)(MN)=I, verificándose la propiedad Plantilla:Eqnref.

En el caso sencillo de una matriz A de orden 2

Plantilla:Eqn

su inversa, si existe, es de la forma

Plantilla:Eqn

con adcb0.

Además de la matriz nula y la matriz identidad, se tienen otras matrices. Matriz escalar es la matriz obtenida de multiplicar la identidad I por un escalar (real o complejo).

La matriz A es involutiva si ella es su propia inversa; es decir si A2=I. Una matriz A se dice idempotente si A2=A.

La matriz transpuesta de una matriz A de orden m×n es la matriz de orden n×m, denotada At (transpuesta de A), que se obtiene permutando las filas por las columnas. La fila j de At es la columna j de A, y la columna j de At es la fila j de A. En particular la transpuesta de la matriz unidad es ella misma, esto es It=I. También (At)t=A.

Con la multiplicación se cumple:

Plantilla:Eqn

y con esta propiedad se establece una relación entre la inversa de la transpuesta con la inversa de la matriz dada. Esto es:

Plantilla:Eqn

ya que I=It=(A1A)t=At(A1)t; y de la misma forma (A1)tAt=I.

En el caso de tener sólo números reales, la matriz se llama ortogonal si cumple

Plantilla:Eqn

que equvale a

Plantilla:Eqn

lo cual significa que la inversa de la matriz, simplemente es la transpuesta.

Con esto se puede decir:

Plantilla:Res

Una matriz real A es simétrica si ella es igual a su transpuesta; es decir si At=A.. Una matriz B es antisimétrica (hemisimétrica) si B=Bt; en este caso los elementos de la diagonal principal son nulos. Resulta del hecho ahh=ahh, y esto implica ahh=0.

Una matriz cuadrada A de orden n se llama unitaria si:

Plantilla:Eqn

o sea, si

Plantilla:Eqn

La matriz A¯ se denomina matriz conjugada de A y se obtiene tomando el conjugado de cada elemento. En el producto se cumple AB¯=A¯B¯

En el caso de tener sólo números reales, es el caso de la matriz ortogonal.

Los Cuatro Subespacios Fundamentales

Asociado a una matriz A de orden m×n se tienen cuatro subespacios vectoriales fundamentales. Dos de ellos, subespacios de n y los otros dos de n.

La conexión entre funciones lineales y matrices surgió de la observación de Cayley que la composición de dos funciones lineales puede representarse mediante la multiplicación de dos matrices. En general una función o transformación lineal relaciona dos espacios vectoriales U y V sobre el mismo cuerpo F, cumpliendo:

Plantilla:Eqn Plantilla:Eqn

Así que, dada una matriz A de orden m×n, la función f de n en m definida por f(x)=Ax es una aplicación lineal

Espacio columna, espacio fila

Sea A una matriz real de tamaño m×n

Plantilla:Eqn

El espacio columna de A, es el subespacio de m generado por las n columnas de A y coincide con el recorrido de la aplicación lineal (o transformación lineal) f(x)=Ax. Este subespacio se simboliza por (A). Es decir,

Plantilla:Eqn

Observando el producto Ax, en la forma Plantilla:Eqnref, se observa efectivametne que (A) es el espacio generado por las columnas de A. Su dimensión es el número de columnas linealmente independientes.

Ahora, si a cambio de la matriz A se considera su transpuesta At, el recorrido de la aplicación lineal g(x)=Atx constituye el espacio columna de At, el cual equivale al espacio generado por las filas de A.

Plantilla:Res

En resumen, dada una matriz Am×n, por el momento hay dos espacios vectoriales asociados a ella:

Plantilla:Res

Luego de obtener una matriz escalonada a través de la eliminación gaussiana, se puede calcular el rango r de la matriz escalonada, que corresonde precisamente a la dimensión del espacio fila de A.

Dicho de otra forma, la dimensión del espacio fila de A corresponde al número de filas distintas de cero que tenga la nueva matriz escalonada.

Algunas veces se desea saber si dos matrices tienen o no el mismo espacio fila o el mismo rango. El siguiente teorema, conocido como Teorema de Rangos iguales, establece una solución. Se hace uso de la notación ArowB para indicar que existe una matriz regular P tal que PA=B. Análogamente AcolB significa que existe una matriz regular Q, tal que AQ=B.

Para dos matrices A y B de orden m×n:

Plantilla:Eqn Plantilla:Eqn

Plantilla:Res

Para verificar Plantilla:Eqnref, primero se asume ArowB, esto es, existe una matriz regular P tal que PA=B. Para ver que (At)=(Bt), se sigue de:

Plantilla:Eqn

Ahora, para el recíproco, si (At)=(Bt) entonces los espacios vectoriales generados por las filas de A y las filas de B coinciden. Esto es

Plantilla:Eqn

por lo tanto cada fila de B es una combinación de las filas de A y viceversa. Con base en este hecho se puede decir que es posible reducir A a B usando solamente operaciones de filas, y de esta manera Arow. La prueba de B se sigue, reemplazando A y B con At y Bt.

Espacio nulo, espacio nulo a izquierda

A partir de la transformación lineal f de n en m, definida por f(x)=Ax, con A una matriz de orden m×n, el conjunto N(f)={xn|f(x)=O} es llamado espacio nulo de f. También se le representa como N(A) haciendo referencia a la matriz que genera la transformación.

Este espacio nulo es un subespacio vectorial del dominio . Para ello se revisa que se cumplen las propiedades A1, M1 enunciadas en la sección 1.1, Caracterización 2:

[A1] Sean x,yn, con x,yN(f). Entonces la imagen de la suma

Plantilla:Eqn

ya que la multiplicación de matrices es distributiva respecto de la suma, y puesto que Ax=f(x)=O,Ay=f(y)=O, resulta que x+yN(f).

[M1] Sea xN(f), y α cualquier escalar del cuerpo F. Entonces

Plantilla:Eqn.

Si se sigue el proceso de eliminación para simplificar un sistema de ecuaciones lineales, el sistema Ax=O se reduce a Ux=O, siendo U la matriz escalonada obtenida de A, al aplicar la eliminación gaussiana, y este proceso es reversible. En este caso. Los elementos de este espacio son las soluciones del sistema homogéneo

Plantilla:Eqn

Ya que el espacio nulo de A, es el conjunto de vectores que satisfacen Ax=O, es el mismo espacio nulo de U y, de las m restricciones impuestas por las m ecuaciones de Ax=O, solo r son independientes, que corresponden a las r filas de A linealmente independientes, o también por las r filas no nulas de U.

De esta manera, el espacio nulo N(A), también llamado el kernel de A, es de dimensión nr. Una base puede construirse reduciendo a Ux=O, que tiene nr variables libres correspondientes a las columnas de U que no contienen pivotes. Entonces, seguidamente, se da a cada variable libre el valor 1, a las otras variables libres el valor 0, y se resuelve Ux=O sustituyendo en reversa las variables (básicas) faltantes; los nr vectores producidos de esta forma son una base para N(A).

Siendo N(A) un subespacio vectorial, contiene el vector nulo On; es decir, O satisface el sistema Plantilla:Eqnref, y se dice habitualmente que O es solución trivial.

Plantilla:Res

Plantilla:Res

Si ahora se halla el espacio nulo para el operador generado por At, entonces N(At)={xm|Atx=O} con On, es llamado el espacio nulo izquierdo de A porque es el conjunto de todas las soluciones del sistema homogéneo izquierdo

Plantilla:Eqn

En resumen, dada una matriz Am×n, hay dos espacios nulos asociados a ella:

Plantilla:Res

Matriz Orgotonal

Ya en la sección 1.2.2 se estableció que una matriz es ortogonal si su inversa es su propia transpuesta. En función de sus líneas, acudiendo al producto escalar de vectores, se puede decir que una matriz ortogonal es simplemente una matriz cuadrada con columna (filas) ortonormales.

Si Q es matriz ortogonal y q1,q2,,qn sus columnas las cuales satisfacen: qitqj=0(ij) y qitqi=1, se puede visualizar de la siguiente manera:

Plantilla:Eqn

A partide de la conexión entre la norma y el producto interior para vectores reales o complejos, pueden establecerse dos propiedades sobre las matrices orgonales:

Plantilla:Importante

Plantilla:Res

De la definición de norma (sección 1.1.3),

Plantilla:Eqn

Plantilla:Res

Dados dos vectores x,y al tomar el producto punto entre sus imágenes mediante Q

Plantilla:Eqn

Cuando A es una matriz ortogonal, la ecuación Ax=b se soluciona fácilmente ya que resulta AtAx=Atb, de donde x=Atb.

Inversa y multiplicación de matrices ortogonales

Sobre este tipo de matrices se tiene que su inversa (transpuesta), también es matriz ortogonal; así mismo el producto de dos matrices ortogonales es otra matriz ortogonal. Se procede a verificar estas afirmaciones:

Plantilla:Importante

Basta ver A1(A1)t=I. Lo cual se deduce de aplicar Plantilla:Eqnref y la propiedad asociativa

Plantilla:Eqn

y puesto que A es ortogonal

Plantilla:Eqn

Plantilla:Importante

Se debe probar (AB)(AB)t=(AB)t(AB)=I. Aplicando Plantilla:Eqnref y la propiedad asociativa

Plantilla:Eqn

ahora por ser A, B ortogonales

Plantilla:Eqn

De forma similar, se obtiene (AB)t(AB)=I.

Matriz hermitiana

Una matriz cuadrada A=(ajk) tal que A¯t=A se llama hermitiana o autoadjunta. Este es el análogo complejo de simetría. Los elementos de la diagonal principal de una matriz hermitiana han de ser números reales, puesto que deben cumplir a¯hh=ahh. Si la matriz es además unitaria, significa que A1=A, es decir es involutiva. Si todos los elementos son reales, es una matriz simétrica, como se ha mencionado anteriormente.

Con la notación A¯t=AH, se tiene que A es hermitiana si A=AH. Si A es de orden m×n entonces AH es de orden n×m.

Sobre una matriz hermitiana sucede:

Plantilla:Importante

Se deriva del hecho ((Ht)t)=H¯, que puede no coincidir con H.

Así mismo,

Plantilla:Importante

Se debe a que (HT)t=TtHt=T¯tH¯t?=TH, que no siempre es igual a HT.

Una matriz cuadrada A=(ajk) tal que At=A se llama hemi-hermitiana. Este es el análogo complejo de antisimetría. Los elementos de la diagonal principal de una matriz hemi-hermitiana han de ser números nulos o imaginarios puros. Es consecuencia del hecho a¯hh=ahh, puesto que a¯hh+ahh=2RE(ahh)=0, y esto implica ahh=0+iIm(ahh).

Entonces, si una matriz hermitiana H, se multiplica por un escalar k, resulta:

Plantilla:Eqn

También a una matriz hermitiana se le denomina matriz hermitica.