ALGEBRA M.pdf

download ALGEBRA M.pdf

of 234

Transcript of ALGEBRA M.pdf

  • Captulo 1

    Preliminares

    En este captulo presentaremos algunos resultados que son necesarios para eldesarrollo de la temtica que abordaremos a partir del segundo captulo.

    1.1. Traza

    Queremos presentar la informacin que ms nos compete con relacin a latraza de matrices n n.

    Notacin. Si A es una matriz m n, el smbolo Aij representar la com-ponente de A ubicada en la interseccin de su la isima y su columnajsima.

    Notacin. El smbolo 0 denotar siempre una matriz nula. Es decir, unamatriz con todas sus componentes igualas a cero.

    Denicin. Sea A una matriz n n. Se dena la Traza de A como:

    tr(A) =nXi=1

    Aii.

    Denicin. Sea A una matriz mn. Se dena la Transpuesta de A comola matriz AT nm tal que (AT )ij = Aji para todo i y todo j.

    1

  • 2 CAPTULO 1. PRELIMINARES

    Lema 1.1.1. Sean A m n y B nm. Entonces

    tr(AB) = tr(BA).

    Demostracin.

    tr(AB) =

    mXi=1

    (AB)ii =

    mXi=1

    nXk=1

    AikBki

    !

    =

    nXk=1

    mXi=1

    BkiAik

    !=

    nXk=1

    (BA)kk = tr(BA).

    Lema 1.1.2. Sea A m n. Entonces A = 0 si y slo si tr(ATA) = 0.

    Demostracin. Si A = 0, entonces ATA = 0 y claramente tr(ATA) = 0.Recprocamente, tr(ATA) = 0 implica que

    0 =mXi=1

    (AAT )ii =mXi=1

    nXk=1

    Aik(AT )ki

    !

    =mXi=1

    nXk=1

    AikAik

    !=

    mXi=1

    nXk=1

    (Aik)2

    !.

    De donde se concluye que Aik = 0 para todo i y todo k. Es decir, A = 0.

    Corolario 1.1.3. Sea A m n. Entonces A = 0 si y slo si ATA = 0.

    Demostracin. Si A = 0, entonces es claro que AAT = 0.Recprocamente, si AAT = 0 se tiene que tr(ATA) = 0. Luego, por Lema1.1.2 se sigue que A = 0.

    Corolario 1.1.4. Sean A mn y B;C np. Entonces AB = AC si y slosi ATAB = ATAC.

  • 1.2. RANGO 3

    Demostracin. Si AB = AC, entonces es obvio que ATAB = ATAC.Recprocamente, si ATAB = ATAC, entonces

    (ABAC)T (ABAC) = (BTAT CTAT )(ABAC)

    = BTATABBTATACCTATAB+CTATAC

    = BT (ATABATAC)CT (ATABATAC)

    = (BT CT )(ATABATAC) = (BT CT )0 = 0.

    Luego, por Corolario 1.1.3 ABAC = 0 y as AB = AC.

    Corolario 1.1.5. Sean A m n y B;C p n. Entonces BAT = CAT si yslo si BATA = CATA.

    Demostracin. SiBAT = CAT , entonces es obvio queATBAT = ATCAT .Recprocamente, si ATBAT = ATCAT , entonces

    (BAT CAT )(BAT CAT )T = (BAT CAT )(ABT ACT )

    = BATABT CATABT +CATACT BATACT

    = (BATACATA)BT (BATACATA)CT

    = (BATACATA)(BT CT ) = 0(BT CT ) = 0.

    Luego, por Corolario 1.1.3 BAT CAT = 0 y as BAT = CAT .

    1.2. Rango

    Nuestro propsito principal en este captulo es el de recordar algunos de losms importantes resultados relacionados con el rango de una matriz.

    Notaciones. Si A es una matriz m n, el smbolo Aj representar laj-sima columna de A y Ai representar la i-sima la de A. La matriz

  • 4 CAPTULO 1. PRELIMINARES

    identidad n n ser representada por In. Como un caso excepcional la i-sima columna de In se denotar por el smbolo ei.

    Notaciones y deniciones. Si A es una matriz m n, el smbolo C(A)denotar el subespacio generado por las columnas de A, el cual es llamadoespacio columna de A. La dimensin de C(A) se llamar rango columnade A. Adems, diremos que A tiene rango columna completo si el rangocolumna de A es n.

    Notaciones y deniciones. Si A es una matriz m n, el smbolo F(A)denotar el subespacio generado por las las de A, el cual es llamado espaciola de A. La dimensin de F(A) se llamar rango la de A. Adems,diremos que A tiene rango la completo si el rango la de A es m.

    Denicin. Un sistema de ecuaciones lineales es consitente si tiene almenos un a solucin.

    Denicin.Dos sistemas de ecuaciones lineales consistentes con igual nmerode incgnitas son equivalentes si tiene exactamente las mismas soluciones.

    Lema 1.2.1. Sean Amn y B rn tales que los sistemas Ax = 0 y Bx = 0son equivalentes. Entonces los rangos columnas de A y B son iguales.

    Demostracin. Sea c el rango columna de A. Si las columnas k1 < < kcde A forman un conjunto linealmente independiente. Entonces la combi-nacin lineal

    s1Bk1 + + scBkc = 0(donde los si son reales) implica que el vector ndimensional que tiene a sien la posicin ki para todo i y cero en las dems posiciones es solucin delsistema Bx = 0, y por hiptesis es tambin solucin del sistema Ax = 0.Luego,

    s1Ak1 + + scAkc = 0,de donde (por la independencia lineal del conjunto fAk1 ; :::;Akcg) se sigueque si = 0 para todo i. As, el conjunto fBk1 ; :::;Bkcg es linealmente inde-pendiente, y por tanto el rango columna de B es mayor o igual que el rangocolumna de A.

  • 1.2. RANGO 5

    Intercambiando ahora los papeles de A y B en el argumento anterior sedemuestra que el rango columna de A es mayor o igual al rango columna deB.

    Teorema 1.2.2. Si A es una matriz m n, entoncesrango la de A = rango columna de A.

    Demostracin. Sean r el rango la de A y c el rango columna de A. Ar-mamos que para una matriz A0 que se obtiene al reordenar algunas las deA, de tal manera que sus primeras r las forman un conjunto linealmenteindependiente, se tiene que r es el rango la de A0 y c es el rango columnade A0. Lo armado es claro para r. Mostrmoslo para las columnas: comolos sistemas Ax = 0 y A0x = 0 son equivalentes, ya que: [a1 an]T essolucin del sistema Ax = 0 si y slo si

    a1A1 + + anAn = 0,si y slo si

    a1Ai1 + + anAin = 0 para todo i = 1; :::;m,si y slo si

    a1A01 + + anA0n = 0,

    si y slo si [a1 an]T es solucin del sistema Ax = 0. Se sigue (por Lema1.2.1) que rango columna de A es igual a rango columna de A0.Supongamos que particionamos A0 en la forma

    A0 =BC

    donde B es rm y C es (m r)n. Como A0 tiene rango r y sus primerasr las forman un conjunto linealmente independiente, entonces las ltimas(mr) las de A0 son combinaciones lineales de las primera r, lo que implicaque C = DB para alguna matriz (n r) r D. Armamos ahora que A0 yB tienen el mismo rango columna, ya que

    A0 =BDB

    y A0x =

    BxDBx

    ,

  • 6 CAPTULO 1. PRELIMINARES

    implica que los sistemas A0x = 0 y Bx = 0 son equivalentes, y por tanto(nuevamente por Lema 1.2.1) los rangos columnas de las matrices A0 y Bson iguales.Como las columnas de B son estn en un espacio de dimensin r se tiene quec r. Aplicando esta ltima desigualdad a AT tendremos tambin que

    rango columna de AT rango la de AT .Es decir,

    rango la de A rango columna de A,esto es, r c.

    Denicin. Sea A una matriz m n. Se dene el rango de A como elnmero

    rk(A) = rango la de A = rango columna de A.

    Del Teorema 1.2.2 y la denicin de rango es claro que rk(A) = rk(AT ).

    Teorema 1.2.3. Sean A m n y B n p:i) Si rk(AB) = rk(A), entonces C(AB) = C(A).ii) Si rk(AB) = rk(B), entonces F(AB) = F(B).

    Demostracin. i)AB = [AB1 ABp] ,

    y para j = 1; :::; p se tiene que

    ABj = [A1 An]

    264 B1j...Bnj

    375 = B1jA1 + +BnjAn.Luego, C(AB) C(A). Ahora, rk(AB) = rk(A) implica que las dimen-siones de C(AB) y C(A) son iguales, y como uno est contenido en el otrose concluye que C(AB) = C(A).ii)

    AB =

    264 A1...Am

    375B =264 A1B...AmB

    375 ,

  • 1.2. RANGO 7

    y para i = 1; :::;m se tien que

    AiB = [Ai1 Ain]

    264 B1...Bn

    375 = Ai1B1 + +AinBn.De donde, F(AB) F(B). Ahora, rk(AB) = rk(B) implica que las di-mensiones de F(AB) y F(B) son iguales, y por la anterior contenencia seconcluye que F(AB) = F(A).

    Teorema 1.2.4. Sean A una matriz mn y B una matriz n p. Entoncesrk(AB) rk(A).

    Demostracin. En la demostracin del Teorema 1.2.3 parte i) se demuestraque C(AB) C(A), por tanto rk(AB) rk(A).

    Teorema 1.2.5. Sean A una matriz mn y B una matriz invertible mm.Entonces rk(A) = rk(BA).

    Demostracin. Si rk(A) = 0 se sigue que A = 0, y por tanto BA. Luego,rk(BA) = 0.Supongamos que rk(A) = r > 0 y que Ai1 ; :::;Air es un conjunto li-nealmente independiente de columnas de A. Armamos que las columnasBAi1 ; :::;BAir de BA forman un conjunto linealmente independiente. Enefecto, sean c1; :::; cr escalares tales que

    c1BAi1 + + crBAir = 0,entonces

    B(c1Ai1 + + crAir) = 0y como B es invertible se sigue que

    c1Ai1 + + crAir = 0.Pero el conjunto fAi1 ; :::;Airg es linealmente independiente, por tantoc1 = = cr = 0, y as el conjunto fBAi1 ; :::;BAirg es linealmente in-dependiente. Esto ltimo implica que rk(BA) rk(A). Ahora, por Teorema1.2.4 y comentario posterior a la denicin de rango tenemos que

    rk(A) = rk(AT ) rk(ATBT ) = rk((BA)T ) = rk(BA).

  • 8 CAPTULO 1. PRELIMINARES

    Corolario 1.2.6. Sean A una matriz mn y B una matriz invertible nn.Entonces rk(A) = rk(AB).

    Demostracin. B invertible implica BT invertible, entonces

    rk(A) = rk(AT ) = rk(BTAT ) = rk((AB)T ) = rk(AB).

    Corolario 1.2.7. Sean A una matriz m n, Q una matriz invertible n ny P una matriz invertible mm. Entonces rk(A) = rk(PAQ).

    Demostracin.

    rk(A) = rk(PA) = rk((PA)Q) = rk(PAQ).

    Denicin. Sea A m n. Se denen las tres operaciones elementales sobrelas las de A como:i) intercambio de las: Ai ! Aj.ii) multiplicar una la por un escalar no nulo c: Ai ! cAi.iii) sumar a una la un mltiplo de otra: Ai ! cAj +Ai.

    Ejemplo. Si

    A =

    24 2 1 1 03 1 2 32 0 4 1

    35 ,entonces: 24 2 1 1 03 1 2 3

    2 0 4 1

    35 A2 ! A324 2 1 1 02 0 4 13 1 2 3

    35 .24 2 1 1 03 1 2 32 0 4 1

    35 A2 ! 3A224 2 1 1 09 3 6 92 0 4 1

    35 .

  • 1.2. RANGO 924 2 1 1 03 1 2 32 0 4 1

    35 A3 ! 3A1 +A324 2 1 1 03 1 2 34 3 1 1

    35 . Si A es una matriz m n, entonces:i) si B m n se obtiene al realizar la operacion elemental Ai ! Aj aA y C m m es la matriz invertible que se obtiene al realizar la operacinelemental (Im)i ! (Im)j a Im, entonces

    B = CA.

    ii) si D m n se obtiene al realizar la operacion elemental Ai ! cAi aA y E m m es la matriz invertible que se obtiene al realizar la operacinelemental (Im)i ! c(Im)i a Im, entonces

    D = EA.

    iii) si Fmn se obtiene al realizar la operacion elementalAi ! cAj+Aia A y G mm es la matriz invertible que se obtiene al realizar la operacinelemental (Im)i ! c(Im)j + (Im)i a Im, entonces

    F = GA.

    Las observaciones anteriores y el Teorema 1.2.5 nos muestran que el rango esinvariante ante operaciones elementales de la. Luego, para hallar el rangode una matriz dada podemos proceder de la siguiente manera: realizamosinteligentemente un nmero nito de operaciones elementales a la matrizdada, con el n de hallar una matriz con muchos ceros (que obviamentetendr el mismo rango que la dada) a la cual le podamos calcular el rango asimple vista.

    Lo que haremos en siguiente ejemplo es equivalente a lo que hemos descritocomo un mtodo elemental para hallar el rango de una matriz.

    Ejemplo. Hallemos el rango de la matriz

    A =

    26641 1 2 02 1 1 50 3 3 33 2 1 5

    3775 .

  • 10 CAPTULO 1. PRELIMINARES

    En efecto,26641 1 2 02 1 1 50 3 3 33 2 1 5

    3775 A2 ! 2A1 +A2A4 ! 3A1 +A426641 1 2 00 1 5 50 3 3 30 1 5 5

    3775 = B,26641 1 2 00 1 5 50 3 3 30 1 5 5

    3775 B3 ! 3B1 +B3B4 ! B1 +B426641 1 2 00 1 5 50 0 12 120 0 0 0

    3775 = C.Los rangos de A;B y C son iguales. Pero el rango de C es claramente 3, portanto rk(A) = 3.

    Notacin. Si S es un subconjunto no vaco en un espacio vectorial, entoncesel smbolo gen(S) se utilizar para representar al subespacio generado por S.

    Teorema 1.2.8. Sean A y B matrices m n. Entoncesrk(A+B) rk(A) + rk(B).

    Demostracin. Supongamos que rk(A) = r y rk(B) = s, y sea S un conjutoformado al unir una base de C(A) con una base de C(B), entonces gen(S)tiene dimensin menor o igual a r + s. Ahora, para j = 1; :::; n se tiene que(A+B)j = (A)j +(B)j, por tanto (A)j como (B)j estn en gen(S), portanto (A+B)j tambin est en gen(S). Luego, C(A+B) gen(S). As,

    rk(A+B) dim (gen(S)) r + s = rk(A) + rk(B).

    Teorema 1.2.9. Sea A mn con rk(A) = r > 0. Entonces existen matricesB m r y C r n ambas de rango r tales que

    A = BC

    Demostracin. Supongamos que las columnas i1; :::; ir de A forman unconjunto linealmente independiente, entonces una matriz E n n obtenida

  • 1.2. RANGO 11

    al reordenar las columnas de In de tal manera que tenga como primerascolumnas a ei1 ; :::; eir , es tal que AE tiene las mismas columnas de A, conla propiedad de que las primeras r columnas de AE forman un conjuntolinealmente independiente. Sea

    B = [Ai1 Air ] m r,entonces las columnas r + 1; :::; n de AE son combinaciones lineales de lascolumnas de B, por esto existen ar+1; :::; an r 1 tales que

    (AE)r+1 = Bar+1; :::; (AE)n = Ban.

    Luego,

    AE = [Be1 Ber Bar+1 Ban] = B [e1 er ar+1 an]y por tanto A = BC, donde C = [e1 er ar+1 an]E1 r n. Nteseque rk(B) = rk(C) = r.

    Teorema 1.2.10. Sea A una matriz m n de rango r. Entonces para cua-lesquiera r las linealmente independientes y r columnas linealmente inde-pendientes de A, la submatriz r r de A que se obtiene al eliminar lasotras m r las y n r columnas de A tiene rango r. Adems, A no tienesubmatrices con rango mayor que r.

    Demostracin. Supongamos que las columnas Aj1 ; :::;Ajr de A formanun conjunto linealmente independiente y que las las Ai1 ; :::;Air de Aforman tambin un conjunto linealmente independiente. Notamos primeroque la matriz

    B = [Aj1 Ajr ] m rtiene rango r. Ahora, eliminando deB todas las las, excepto las las i1; :::; ir,obtenemos la matriz

    C =

    26664Aj1i1 Aj2i1 Ajri1Aj1i2 Aj2i2 Ajri2...

    .... . .

    ...Aj1ir Aj2ir Ajrir

    37775 r r.Veamos que C tiene rango r. En efecto, como rk(A) = r y fAi1 ; :::;Airges linealmente independiente, se tiene que fAi1 ; :::;Airg es una base para

  • 12 CAPTULO 1. PRELIMINARES

    el espacio la de A, por tanto toda la de A es combinacin lineal defAi1 ; :::;Airg, y esto implica que toda la de B es combinacin lineal defC1; :::;Crg. Luego, fC1; :::;Crg es base para el espacio la de B y comork(B) = r, se sigue que fC1; :::;Crg es linealmente independiente, y asrk(C) = r.Veamos ahora que A no tiene submatrices de rango mayor que r: supon-gamos que A tiene una submatriz D p q con rk(D) = s > r. Entonces siAt1 ; :::;Ats son s columnas de A tales que al elinar (si es necesario) algunaslas de A se obtienen s las linealmente independientes Dk1 ; :::;Dks de D,se sigue que si c1; :::; cs son escalares tales que

    c1At1 + + csAts = 0,

    entoncesc1Dk1 + + csDks = 0.

    Luego, la independencia lineal de fDk1 ; :::;Dksg implica que c1 = =cs = 0, de donde fAt1 ; :::;Atsg es un conjunto linealmente independientede s las de A, lo cual es imposible porque s > r = rk(A). La contradiccinprovien de haber supuesto la posibilidad de que A pudiera tener submatricescon rango mayor que rk(A).

    Denicin. Si A es una matriz mn, se dice que A tiene rango completosi tiene rango columna completo o bin rango la completo.

    Deniciones. Si A es una matriz mn, entonces una inversa a izquierdade A es una matriz L nm tal que

    LA = In.

    Y una inversa a derecha de A es una matriz R nm tal que

    AR = Im.

    Lema 1.2.11. Sea A una matriz m n. Entonces:i) A tiene inversa a derecha si y slo si A tiene rango la completo.ii) A tiene inversa a izquierda si y slo si A tiene rango columna completo.

  • 1.2. RANGO 13

    Demostracin. i) Si A m n tiene rango m, entonces n m y A tienem columnas linealmente independientes en el espacio mdimensional de losvectores m 1. Luego, las columnas de A contienen una base del espacioantes mensionado, de donde cada columna ei de Im es combinacin lineal delas columnas de A. Es decir, para cada i = 1; :::;m existe Ri n 1 tal queARi = ei. Considerando la matriz R = [R1 Rm] nm, tenemos que

    AR = A [R1 Rm] = [AR1 ARm] = [e1 em] = Im.

    As, R es una inversa a derecha de A.Recprocamente, si existe R nm tal que AR = Im, entonces

    m rk(A) rk(AR) = rk(Im) = m.

    Lo cual implica que rk(A) = m.

    ii) rk(A) = n, si y slo rk(AT ) = n, si y slo si AT tiene inversa a derecha,si y slo si A tiene inversa a izquierda.

    Lema 1.2.12. Sean A,B matrices mn, C rm de rango columna completoy D n p de rango la completo. Entonces:i) CA = CB si y slo si A = B.ii) AD = BD si y slo si A = B.

    Demostracin. i) Si A = B se sigue de inmediato que CA = CB.Ahora, si C tiene rango columna completo, entonces C tiene al menos unainversa a izquierda L m r. Luego,

    A = ImA = LCA = LCB = ImB = B.

    ii) Si A = B se sigue de inmediato que AD = BD.Si D tiene rango la completo, entonces D tiene al menos una inversa aderecha R p n. As,

    A = AIn = ADR = BDR = BIn = B.

  • 14 CAPTULO 1. PRELIMINARES

    Teorema 1.2.13. Sean T una matriz mm, U una matriz m q, V unamatriz nm yW una matriz nq. Si rk(T) = m (es decir, T es invertible),entonces

    rk

    T UV W

    = rk

    U TW V

    = rk

    V WT U

    = rk

    W VU T

    = m+ rk

    W VT1U .

    Demostracin.

    rk

    T UV W

    = rk

    U TW V

    (1.1)

    porque tienen exactamente las mismas columnas.

    rk

    U TW V

    = rk

    V WT U

    por (1.1) y porque

    T UV W

    yV WT U

    tienen exactamente las mismas las.

    rk

    V WT U

    = rk

    W VU T

    porque tienen exactamente las mismas columnas.Ahora, para demostrar la ltima igualdad, es suciente probar (por la tran-sitividad de la igualdad) que

    rk

    T UV W

    = m+ rk

    W VT1U .

    En efecto, consideremos la matriz invertibleIm 0

    VT1 In.

  • 1.2. RANGO 15

    Entonces

    rk

    T UV W

    = rk

    Im 0

    VT1 In

    T UV W

    = rk

    T U0 W VT1U

    = rk(T) + rk

    W VT1U

    = m+ rkW VT1U .

  • 16 CAPTULO 1. PRELIMINARES

  • Captulo 2

    Inversas Generalizadas (I.G)

    2.1. Denicin y existencia

    En esta seccin deniremos inversa generalizada de una matriz y demostraremosque toda matriz tiene al menos una inversa generalizada.

    Denicin. Una inversa generalizada de una matriz A m n es unamatriz G tal que

    AGA = A.

    Ejemplo. Las matrices24 1 00 00 0

    35 y24 42 15 3

    2 2

    35son inversas generalizadas de la matriz

    1 3 22 6 4

    .

    El ejemplo anterior muestra claramente que en general la inversa generalizadano es nica.

    Lema 2.1.1. Sea A una matriz n n invertible. Entonces A1 es la nicainversa generalizada de A.

    17

  • 18 CAPTULO 2. INVERSAS GENERALIZADAS (I.G)

    Demostracin. Claramente,

    AA1A = A.

    Ahora, si G es una inversa generalizada de A, entonces

    G = InGIn = A1AGAA1 = A1AA1 = A1In = A1.

    Teorema 2.1.2. Sean A m r de rango columna completo y B r n derango la completo. Si L es una inversa a izquierda de A y R es una inversaa derecha de B. Entonces RL es una inversa generalizada de AB.

    Demostracin.

    AB(RL)AB = A(BR)(LA)B

    = AIrIrB = AB.

    Corolario 2.1.3. Toda matriz A m n tiene almenos una inversa genera-lizada.

    Demostracin. Si A = 0 el resultado es evidente. Si A 6= 0 y tiene rango r,entonces en virtud del Teorema 1.2.9A se deja expresar comoA = BC conBm r de rango colunma completo y C r n de rango la completo. Luego,por Teorema 2.1.2, A tiene al menos una inversa generalizada G = RL,donde R es una inversa a derecha de C y L es una inversa a izquierda de B.

    Notacin. Si A es una matriz m n, entonces A denotara a una inversageneralizada cualquiera de A.

    2.2. Sistemas lineales

    En esta seccin daremos la denicin de sistema lineal y mostraremos algunosresultados bsicos relacionados con este tipo de sistemas.

  • 2.2. SISTEMAS LINEALES 19

    Denicin. Un sistema lineal es una expresin de la forma

    AX = B,

    donde A es m n, B es m p y X es una matriz incgnita n p. Unasolucin del sistema lineal AX = B es cualquier matriz C n p tal queAC = B. El sistema lineal AX = B es consistente si tiene al menos unasolucin.

    Denicin. Un sistema lineal AX = B es compatible si kTB = 0 paratodo vector k (de tamao apropiado) tal que kTA = 0.

    Teorema 2.2.1. Sean A m n y B m p. Un sistema lineal AX = B esconsistente si y slo si es compatible.

    Demostracin. (=)) Supongamos que el sistema lineal AX = B es con-sistente. Entonces, existe una matriz C tal que AC = B, y para todo vectorcolumna kT tal que kTA = 0 tenemos

    kTB = kTAC = 0C = 0.

    Esto es, AX = B es compatible.

    ((=) Supongamos que AX = B es compatible. Para esta parte es sucienteprobar que existe una matriz C n p tal que AiC = Bi para i = 1; :::;m.En efecto, si r es el rango de A existen enteros positivos 1 k1 < 0 para toda x nonula, mientras (asumiendo que n 2) xTJx = 0 para el vector no nulox = (1 n; 1; 1; :::; 1)T : Por lo tanto, xT Ix es denida positiva, y xTJx essemidenida positivaLa forma cuadrtica xTAx se dice que es denida no positiva, denida nega-tiva o semidenida negativa si xTAx es denida no negativa, denida pos-itiva o semidenida positiva, respectivamente. Por lo tanto xTAx es denidano positiva si xTAx 0 para toda x en Rn; es denida negativa si xTAx < 0para todo x no nulo en Rn; y es semidenida negativa si xTAx 0 para todax en Rn y xTAx = 0 para algn x no nulo.Una forma cuadrtica que no es denida no negativa ni denida no positivase dice que es indenida. As, xTAx es indenida si xTAx < 0 para algnx y xTAx > 0 para algn (otro) x:Los trminos denida no negativa, denida positiva, semidenida positiva,denida no positiva, denida negativa, semidenida negativa e indenida sonaplicadas a matrices como tambin a formas cuadrticas. Una matriz Annse dice que es denida no negativa, denida positiva, o semidenida positivasi la forma cuadrtica xTAx (en x) es denida no negativa, denida posi-tiva, semidenida positiva respectivamente. Similarmente A se dice denidano positiva, denida negativa, o semidenida negativa si la forma cuadrticaxTAx se dice denida no positiva, denida negativa, semidenida negativao equivalentemente si A es denida no negativa, denida positiva, o semi-denida positiva. Adems A se dice que es indenida si la forma ciuadrticaxTAx es indenida o equivalentemente si A ni es denida no negativa ni esdenida no positiva(Simtrica) las matrices denidas no negativa son encontradas con consider-able frecuencia en modelos lineales estadsticos y en otras reas de la estads-tica. En particular, la matriz varianza covarianza de algn vector aleatorioes inherentemente denida no negativa (y simtrica).Nuestro uso de los trminos no negativa, denida positiva, semidenida posi-tiva, denida no positiva, denida negativa, semidenida negativa e indeni-da diere ligeramente de la que se emple en otras presentaciones. En partic-ular, aplicamos estos trminos a ambas matrices simtricas y no simtricas,mientras que en muchos otros casos su aplicacin se limita a las matrices

  • 5.2. FORMAS CUADRTICAS Y MATRICES NO NEGATIVAS 57

    simtricas. Adems, su uso de los trminos semidenida positiva, semideni-da negativa no es completamente normal. En algunas presentaciones, estostrminos son usados de la misma manera que denida no negativa y denidano positiva usados aqu.Este es un instructivo, a considerar el siguiente lema, el cual caracteriza losconceptos precisos de denida no negativa, denida positiva y semidenidapositiva aplicado a matrices diagonales y el cual es fcil de vericar

    Lema 14.2.1 Si D = fdign n representa una matriz diagonal. Entonces,(1) D es denida no negativa si y solo si d1; :::; dn son no negativos; (2) D esdenida positiva si y solo si d1; :::; dn son positivos ; y (3) D es semidenidapositiva si y solo si di 0; para i = 1; :::; n con la igualdad contenida parauno o mas valores de i: Suponga que una matriz simtrica A nn es a la vezdenida negativa y denida no positiva. Entonces, para cada vector x n 1;xTAx 0 y xTAx 0 ( equivalentemente xTAx 0): Concluimos quexTAx = 0 para cada x y de aqu (de acuerdo con el corolario 14.14) A = 0:As tenemos el siguiente lema

    Lema 14.2.2. La nica matriz n n simtrica que es tanto denida nonegativa como denida no positiva es la matriz nula n n:

    5.2.2. Algunas propiedades bsicas de matrices denidasno negativas

    Ahora, consideremos algunas de las propiedades ms elementales de las matri-ces denida no negativa. No consideraremos, explcitamente las propiedadesde las matrices denida no positiva. Sin embargo, como A es denida pos-itiva, denida negativa, o semidenida negativa si y solo si A es denidano negativa, denida positiva semidenida positiva respectivamente, laspropiedades de las matrices no positivas denidas podran deducirse fcil-mente de las matrices denidas no negativas.Los siguientes dos lemas dan algunos resultados bsicos sobre multiplicaciny sumas de matrices denida no negativa

    Lema 14.2.3 Sea k > 0 que representa un escalar (positivo) y An n unamatriz. Si A es denida positiva, entonces kA tambin es denida positiva;Si A es semidenida positiva, entonces kA tambin es semidenida positiva

  • 58CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS

    Prueba Considere las formas cuadrticas xTAx y xT (kA)x (en x). Clara-mente, xT (kA)x = kxTAx. Por tanto, si xTAx es denida positiva, entoncesxT (kA)x es denida positiva; similarmente, si xTAx es semidenida posi-tiva, entonces xT (kA)x es semidenida positiva. O equivalentemente si Aes denida positiva, entonces kA es denida positiva; y si A es semidenidapositiva, entonces kA es semidenida positiva.

    Lema 14.2.4 Sean Ann y Bnn matrices. Si A y B son ambas denidano negativa, entonces A + B es denida no negativa. Adems, si A Bes denida positiva y la otra es denida no negativa (i.e denida positiva semidenida positiva), entonces A+B es denida positiva.

    Prueba Suponga que una de las dos matrices, digamosA, es denida positivay que la otra (B) es denida no negativa. Entonces, para todo vector nu nulox en Rn; xTAx > 0 y xTBx 0 y en consecuencia

    xT (A+B)x = xTAx+ xTBx > 0

    Por tanto, A+B es denida positiva.Un argumento similar muestra que siA y B son ambas denidas no negativa,entonces A+B es denida no negativa. La primera implicacin del lema 14.2.4 se repite en la siguiente generalizacin.

    Corolario 14.2.5. Sea A1; :::;Ak matrices n n: Si A1; :::;Ak son todasdenidas no negativa, entonces su suma A1+; :::;+Ak es tambin denidano negativa.Adems, si una o mas de las matrices A1; :::;Ak es denida positiva y lasotras son denidas no negativa,entonces A1+; :::;+Ak es denida positiva.Como una consecuencia inmediata del lema 14.1.1, tenemos el siguiente lemay corolario.

    Lema 14.2.6 Sea A una matriz n n y tomemos B alguna matriz n ntal que B + BT = A + AT : Entonces A es denida positiva si y solo si Bes denida positiva; es semidenida positiva si y solo si B es semidenidapositiva, y es denida no negativa si y solo si B es denida no negativa.

  • 5.2. FORMAS CUADRTICAS Y MATRICES NO NEGATIVAS 59

    Corolario 14.2.7. Una matriz A n n es denida positiva si y solo siAT es denida positiva y si y solo si (1=2)

    A+AT

    es denida positiva;

    es semidenida positiva si y solo si AT es semidenida positiva y si y solosi (1=2)

    A+AT

    es semidenida positiva; y es denida no negativa si y solo

    si AT es denida no negativa y si y solo si (1=2)A+AT

    es denida no

    negativa.

    Si A es una matriz simtrica entonces A = AT y (1=2)A+AT

    = A:

    As, solo en el caso de una matriz no simtrica denida positiva, semideniapositiva o denida no negativa el corolario 14.2.7 es signicativo.

    Una propiedad bsica de las matrices denidas positivas es descrita en elsiguiente lema.

    Lema 14.2.8. Cualquier matriz denida positiva es no singular.

    Prueba. Sea A n n una matriz denida positiva. Con el propsito de es-tablecer una contradiccin, supngase queA es singular , equivalentemente,que rank (A) < n: Entonces, las columnas de A son linealmente dependi-entes, y en consecuencia de esto existe un vector no nulo x tal que Ax = 0:encontramos que.

    xTAx = xT (Ax) = x

    T 0 = 0;

    con el cual (desde queA sea denida positiva ) establecemos la contradiccindeseada.

    El lema 14.2.8 implica que las matrices denida no negativa singulares, sonsemidenida positiva. Sin embargo lo contrario no es necesaria mente verdad.Es decir, que existen matrices semidenidas positivas no singulares comotambin matrices semidenidas positiva no singulares.Unas propiedades bsicas adicionales de las matrices denidas no negativason descritas en el siguiente teorema y corolarios.

    Teorema 14.2.9. Sea A una matriz n n y P una matriz n m: (1) SiA es denida no negativa, entonces PTAP es denida no negativa. (2) SiA es denida no negativa, y el rk (P) < m; entonces PTAP es semidenida

  • 60CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS

    positiva. (3) Si A es denida positiva, y el rk (P) = m; entonces PTAP esdenida positiva

    Prueba. Suponga queA es denida no negativa (cualquiera de las dos deni-da positiva o semidenida positiva). Entonces, yTAy 0 para toda y en Rny en particular para toda y que es expresable de la forma Px. As, para cadavector x mdimensional,

    xTPTAP

    x = (xP)T APx 0; (5.4)

    el cual establece que PTAP es denida no negativa, con lo cual se completala prueba de la parte (1) :Si el rk (P) < m; entonces

    rkPTAP

    rk (P) < m;el cual (de acuerdo con el lema 14.2.8) establece que PTAP no es denidapositiva y por tanto (desde que PTAP es denida no negativa) que PTAPes semidenida positiva, por lo tanto se completa la prueba de la parte (2).

    Si A es denida positiva, entonces la igualdad es obtenida en la desigualdad(2.1) solo cuando Px = 0: Adems, si el rk (P) = m; entonces (de acuerdocon el lema 11.3.1) Px = 0 implica que x = 0: As, si A es denida positivay el rk (P) = m; entonces la igualdad es obtenida en la desigualdad (2;1) solocuando x = 0; implicando (dado que PTAP es denida no negativa) quePTAP es denida positiva

    Corolario 14.2.10 Sea A una matriz n n y P una matriz n n nosingular: (1) Si A es denida positiva, entonces PTAP es denida positiva:(2) Si A es semidenida positiva, PTAP es semidenida positiva

    Prueba. (1) Que PTAP sea denida positiva si A es denida positiva esuna consecuencia directa de la parte (3) del teorema 14.2.9.(2) Supngase que A es semidenida positiva. Entonces, de acuerdo con laparte (1) del teorema 14.2.9, PTAP es denida no negativa. Adems, ya queexiste un vector no nulo y tal que yTAy = 0: Sea x = P1y: Entonces,y = Px; y encontramos que x 6= 0 (de otro modo tendramos que y = 0) yque

  • 5.2. FORMAS CUADRTICAS Y MATRICES NO NEGATIVAS 61

    xTPTAP

    x = (xP)T APx = yTAy = 0:

    Concluimos que PTAP es semidenida positiva.

    Corolario 14.2.11. (1) Una matriz denida positiva es invertible, y su inver-sa es denida positiva. (2) Si una matriz semidenida positiva es no singular,entonces esta es invertible y su inversa es semidenida positiva.

    Prueba. (1) Sea A una matriz denida positiva. Entonces, de acuerdo conel lema 14.2.8, A es no singular y por lo tanto (acorde al teorema 8.14)invertible. Como (A1)T = (A1)T AA1; se sigue de la parte (1) del coro-lario 14.2.10 (simultneamente con el resultado (2;5)) que (A1)T es denidapositiva y por lo tanto (a la luz del corolario 14.2.7) A1 es denida posotiva(2) Utilizando un razonamiento similar, podemos mostrar que la parte (2)del colorario 14.2.11 desprende de la parte (2) del corolario 14.2.10.

    Corolario 14.2.12. Cualquier submatriz principal de una matriz denidapositiva es denida positiva; cualquier submatriz principal de una matrizsemidenida positiva es denida no negativa.

    Prueba. Sea A una matriz n n; y considere la submatriz principal de Aobtenida por extender todas sus las y columnas excepto su i1; i2; :::; im lasy columnas (donde i1 < i2; ::: < im) Esta submatriz se expresa como PTAP,donde P es la n m matriz cuyas columnas son i1; i2; :::; im columnas deIn: Como el rk (P) = m; sigase la parte (3) del teorema 14.2.9 que PTAPes denida positiva si A es denida positiva. Adems, sigase la parte (1)del teorema 14.2.9 que PTAP es es denida no negativa si A es denida nonegativa (y en particular si A es semidenida positiva).

    Corolario 14.2.13 Los elementos de la diagonal de una matriz denidapositiva son positivos; los elementos de la diagonal de una matriz semidenidapositiva son no negativos.

    Prueba. Este corolario se sigue inmediatamente del corolario 14.2.12 obser-vando. (1) que el i simo de la diagonal de la matriz A (cuadrda) esel elemento de una submatriz principal 1 1 (que se obtiene por extendertodas las las y columnas de A excepto la isima la y columna y (2) que

  • 62CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS

    el elemento de una matriz denida positiva 1 1 es positivo y el elementode una matriz denida no negativa 1 1 es no negativo.

    Corolario 14.2.14 Sea P una matriz n m arbitraria .la matriz PTP esdenida no negativa.si el rk (P) = m; PTP es denida positiva [si rk (P) 1, digamos j = k. Entonces, el vector ` (n 1)dimensionalpuede escogerse tal que b11 6= 0; esto puede hacerse tomando el elemento(k 1)simo de ` siendo algn escalar c no cero tal que cakk 6= 2a1k ytomando otro elemento n 2 de `, siendo cero.

    Demostracin. Como a1k 6= 0 en esto existe (sea o no akk = 0) un escalarc, no cero tal que cakk 6= 2a1k. Tomando el (k 1)simo elemento de `siendo algn escalar c no cero y los elemetos que sobran de `, que son cero,encontramos que

    b11 = a11 + eTa+ aT e+ eTA22`

    = 0 + cak1 + ca1k + c2akk

    = c(cakk + 2a1k) 6= 0

    Lema14.3.3 Sea A = faijg una matriz n n (donde n 2):DenamosB = fbijg = UTAL; donde U n n es una unidad de la matriz triangularsuperior de la forma U =

    1 uT

    0 In1

    : Particionemos A y B como

    B =

    b11 b

    T

    b B22

    y A =

    a11 a

    T

    a A22

    :Supngase que a11 6= 0. Entonces,

    el vector u (n 1)-dimensional puede escogerse tal que b = 0; esto puedehacerse tomando u = a111 a

  • 5.3. DESCOMPOSICIN DE MATRICES SIMTRICA 65

    Prueba Encontramos que.

    b = (u; I)A

    10

    = a11u+ a;

    El cual para u = a111 a donde b = a a = 0 Ahora estamos en posicin de establecer el siguiente teorema.

    Teorema 14.3.4 Sea A que corresponde a alguna matriz simtrica n n,as existe una matriz no singular Q tal que QTAQ es una matriz diagonal.

    Prueba. La prueba es por induccin matemtica. El teorema es claramentevalido para matrices 11. Supongamos ahora que esto es verdad para algunamatriz (n 1) (n 1), y considere una matriz A = faijg n n simtricaarbitraria. Con el propsito de establecer la existencia de una matrizno singular Q talque QTAQ sea diagonal, es conveniente partir A como

    A =

    a11 a

    T

    a A22

    y procedemos por casos

    Caso (1): a = 0. La submatriz A22 es una matriz simtrica (n 1) (n 1)por tanto, por supocisin, se tiene que existe una matriz no singular Q talque QTA22Qes una matriz diagonal. Tome Q = (1;Q).Entonces Q es nosingular y QTAQ = diag(a11; QTA22Q) lo cual (igual que Q

    TA22Q) es

    una matriz diagonalCaso (2):a 6= 0 y a11 6= 0. De acuerdo con el lema 14.3.3, se tiene queexiste una unidad de la matriz triangular superior U tal que UTAU =diag(b11;B22)para algn escalar b11y alguna matriz B22(n 1) (n 1) Adems, porsuposicin existe una matriz no singular Q tal que QTB22Qes una matrizdiagonal.Tome Q = Udiag (1;Q) Entonces Q; es no singular (como Q es el productode 2 matrices no singulares) y

    QTAQ = diag1;QT

    diag (b11;B22) diag (1;Q) = diag

    b11;Q

    TB22Q

    Lo cual (igual que QTB22Q) es una matriz diagonal

  • 66CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS

    Caso(3): a 6= 0 pero a11 = 0:Sea B = fbijg = LTAL;donde L es una unidadde la matriz triangular inferior, escogemos que b11 6= 0 la existencia de queesta opcin es garantizada por el lema 14.3.2. Entonces de acuerdo con ellema 14.3.3, existe una unidad de la matriz triangular superior U tal queUTBU = diag (c11;C22) para algn escalar c11, y alguna matriz.C22(n1)(n 1). Adems por suposicin, se tiene que existe una matriz no singularQ tal que QTC22Q es una matriz diagonal. Tome Q = LUdiag(1;Q).Entonces, Q es no singular (como Q es el producto de tres matrices nosingulares), y

    QTAQ = diag(1;Q)UTBUdiag(1;Q)

    = diag(1;Q)diag (c11;C22) diag(1;Q) = diag(c11;QTC22Q)

    La cualigual que QTC22Q

    es una matriz diagonal

    Note que si Q es una matriz no singular tal que QTAD = D para algunamatriz diagonal D, entonces

    A =Q1

    TQTAQQ1 =

    Q1

    TDQ1

    Por tanto tenemos el siguiente corolario del teorema 14.3.4

    Corolario14.3.5 Es el primer resultado siguinete de las formas cuadrticas

    Corolario14.3.6 Sea A una matriz n n, entonces existe una matriz nosingular P y n escalares d1; :::; dn tal que la forma cuadrtica xTAx (en unvector x; ndimensional) se expresa como una combinacin lineal

    Xni=1diy

    2i

    de los cuadrados de los elementos y1; :::; yn del vector transformado y = Px

    Prueba. De acuerdo al corolario 14.1.2 hay una nica matriz simtrica B,talque xTAx = xTBx para todo x adems, la matriz. B = (1=2)

    A+AT

    Y

    de acuerdo al corolario 14.3.5, existe una matriz no singular P y una matrizdiagonal D; tal que B = PTDP. As, siendo d1; :::; dn los elementos querepresentan la diagonal D y y1; :::; yn los elementos del vector y = Px,tenemos que

  • 5.3. DESCOMPOSICIN DE MATRICES SIMTRICA 67

    xTAx = xTPTDPx = (Px)T DPx =Xi

    diy2i

    5.3.2. Descomposicin de matrices simtricas denidano negativa

    Ahora especicaremos para las matrices simtricas denidas no negativas,comenzando con el siguiente teorema

    Teorema 14.3.7 Una matriz A n n es una matriz simtrica denida nonegativa de rango r > 0 si y solo si existe una matriz P de rango r tal queA = PTP

    Prueba. Supongamos que A es una matriz simtrica denida no negativade rango r.Entonces, de acuerdo al corolario 14.3.5 existe una matriz no singular T yuna matriz diagonal D tal que A = TDT.Sea d1; :::; dn que representan los primeros,. . . , nesimos elementos de ladiagonal de D y tT1 ; :::; t

    Tn las primeras,. . . , nesimas las de T. Se sigue del

    lema 14.3.1 que r elementos de la diagonal de D es decir k1; :::; kr elementosde la diagonal son distintos de cero (y por lo tanto, a la luz del corolario14.2.15,son positivos). Ahora, se toma P la matriz r n cuya isima laespdkit

    Tkientonces

    A =

    nXi=1

    dktTk tk =

    rXi=1

    dkitTkitki =

    rXi=1

    pdkitki

    pdkit

    Tki

    = PTP;

    y rank(P) = rkPTP

    = rk (A) = r:

    Recprocamente si existe una matriz P rn de rango r tal que A = PTP;entonces

    rk (A) = rkPTP

    = rk (P) = r;

    A es simtrica y (de acuerdo al corolario 14.2.14) A es denida no negativa.

  • 68CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS

    A la luz del corolario 14.2.14 (y sobreobservando que 0 = 000) ;tenemos elsiguiente corolario del teorema 14.3.7.

    Corolario14.3.8 Una matriz A n n es una matriz simtrica denidano negativa si y solo si existe una matriz P (teniendo n columnas) tal queA = PTP.Como un corolario adicional del teorema 14.3.7 tenemos el siguiente resultadode formas cuadrticas.

    Corolario14.3.9 Si A representa una matriz n n (no nula) ; y sea r =rk (A+A0) : Entonces, la forma cuadrtica xTAx(en un vector x ndimensional) es denida no negativa si y solo si paraalguna matriz Pr n de rango r, xTAx = (Px)T Px para todo x (esdecir;xTAx es expresable como la suma de los cuadrados de los elementosdel vector Px)

    Prueba. De acuerdo al corolario 14.1.2 existe una nica matriz B tal quexTAx = xTBx para toda x, a saber, la matrizB = (1=2)

    A+AT

    :suponga

    que la forma cuadrtica xTAx, equivalentemente la forma cuadrticaxTBx, es denida no negativa, caso en el cual B es una matriz denida nonegativa. Entonces, se sigue del teorema 14.3.7 que existe una matriz Prnde rango r tal que B = PTP y por lo tanto tal que xTBx = (Px)T Pxpara todo x , equivalentemente, tal que xTAx = (Px)T Px para todox:Recprocamente, suponga que, para alguna matriz Pr n de rango r,xTAx = (Px)T Px para todo x, , equivalentemente, xTAx = xTPTPxpara todo x: Dado que (de acuerdo al teorema 14.3.7 o, alternativamente,de acuerdo 14.2.14) PTP es una matriz denida no negativa, xTPTPx o,equivalentemente xTAx; es una forma cuadrtica denida no negativa.

    Implicaciones adicionales del teorema 14.3.7 estn dadas en el corolario 14.3.10a 14.3.12

    Corolario14.3.10 Si A representa una matriz n n, sea r = rk (A) ; ytomemos m un entero positivo mayor o igual a r. Si A es simtrica y denidano negativa, entonces existe una matriz Pm n tal que A = PTP

    Prueba. Supongase que r > 0 (cuando r = 0; A = 0T0): De acuerdo al

  • 5.3. DESCOMPOSICIN DE MATRICES SIMTRICA 69

    teorema 14.3.7 existe una matrizP1 tal queA = PT1P1.TomandoP =P10

    :

    Entonces claramente A = PTP

    Corolario14.3.11 Para alguna matriz Xn m y alguna matriz simtricaAn n denida no negativa, AX = 0 si y solo si XTAX = 0:

    Prueba. De acuerdo al corolario 14.3.8, existe una matriz P tal que A =PTP y por lo tanto tal que XTAX = (PX)T PX. As que, si XTAX = 0,entonces (a luz del corolario 5.3.2)PX = 0; implica queAX = PT (PX) = 0:Que XTAX = 0 si AX = 0 es obvio

    Corolario14.3.12 Una matriz simtrica denida no negativa es deninidapositiva si y solo si esta es no singular (o, equivalentemente. es semidenidapositiva si y solo si esta es singular).

    Prueba Sea A una matriz n n simtrica denida no negativa.Si A esdenida positiva, entonces tenemos, como una consecuencia inmediata dellema 14.2.8 que A es no singular.Supngase que la matriz simtrica A denida no negativa es no singular,y considere la forma cuadrtica xTAx (en x). Si xTAx = 0; entonces deacuerdo con el corolario 14.3.11, Ax = 0, y consecuentemente x = A1Ax =0: As que, la forma cuadrtica xTAx es denida positiva y por lo tanto lamatriz A es denida positiva Como caso un especial del teorema 14.3.7 (donde r = n); tenemos (a la luzdel corolario 14.3.12) el siguiente corolario.

    Corolario14.3.13 Una matriz A n n es una matriz simtrica denidapositiva si y solo si existe una matriz no singular P tal que A = PTP:El Corolario14.3.13 es una variante del teorema 14.3.7 que especica lasmatrices simtricas denidas positivas. Similarmente, el siguiente corolarioes una variante del colorario 14.3.9 que especica las formas cuadrticasdenidas positivas.

    Corolario14.3.14 Una forma cuadratica xTAx(en un vector x ndimensional) es denido positivo si y solo si, para algunamatriz Pn n no singular, xTAx = (Px)T Px para todo x (esto es, xTAxes expresable como la suma de cuadrados de los elemntos del vector Px)

  • 70CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS

    Prueba. Si xTAx es denida positiva, entonces (de acuerdo al corolario14.2.7) (1=2)

    A+AT

    es denida positiva y por lo tanto (a la luz del lema

    14.2.8 ) es de rango n, as que se sigue del corolario 14.3.9 que, para algunamatriz Pnn no singular, xTAx = (Px)T Px para toda x. Recprocamente,si para alguna matriz Pn n no singular , xTAx = (Px)T Px para toda x,entonces dado que (de acuerdo al corolario 14.2.14 o, corolario 14.3.13) PTPes denida positiva, x0Ax (que equivale a xTPTPx) es denida positiva.

    5.4. I.G de matrices simtricas denidas nonegativas

    Una matriz simtrica denida positiva es invertible, y esta inversa es denidapositiva y simtrica [corolario14.2.11y resultado (8.2.4)] :Una matriz simtri-ca semidenida positiva es no invertible (corolario 14.3.12).cual es la nat-uraleza de una inversa generalizada de una matriz simtrica semidenidapositiva?.En particular ,son algunas o todas las inversas generalizadas deuna matriz simtrica semidenida positiva denidas no negativa?Sea A una matriz n n de rango r y suponga que.

    A = PDQ; (5.5)

    donde P yQ son matrices nn no singulares yD = fdig es una matriz nndiagonal. De acuerdo con el lema 14.3.1, r de los elementos de la diagonal deD, digamos i1; :::; iresimo elementos de la diagonal, son no cero y los otrosn r elementos de la diagonal de D son iguales a cero. SeaS = fi1; :::; irg y denotamos por

    S el conjunto cuyos elementos consisten de

    esos n r de los primeros n enteros positivos 1; :::; n no contenidos en SSea Dque representa una matriz n n de la forma general

    D = diag (d1; :::; dn) ;

    donde, para i 2 S, di = 1=di y para i 2S, di es un escalar arbitrario. Note

    que D es una inversa generalizada de D.

  • 5.5. DESCOMPOSICIONES LDU, UTDU Y DE CHOLESKY 71

    Denamos G = Q1DP1, y G = Q1DP1: De acuerdo con el lema9.2.4 G es una inversa generalizada de A. En particular, G es una inversageneralizada de A.Supongase ahora que A es simtrica y que la descomposicin (4;1) es tal queP = QT ; as que la descomposicin (4;1) es de la forma

    A = QTDQ: (5.6)

    Entonces, a la luz del resultado (8;2;3),

    G = Q1DQ1

    T: (5.7)

    Por lo tanto, G es una inversa generalizada simtrica de A. Adems, si

    di se toma distinto de cero pra cada i enS; entonces G es una inversa

    generalizada (simtrica) no singular de A:Luego, supongase que A es denida no negativa, como tambin simtri-ca y contina a suponer que P = QT y por lotanto la descomposicin(4;1) es de la forma (4;2) entonces se sigue el corolario 14.2.15 que di > 0para toda i en S . As, si di se toma mayor que cero para toda i enS; entonces (a la luz del caorolario 14.2.15) G es una inversa generalizadasimtrica denida positiva deA: (si di se toma mayor o igual a cero para toda

    i enS e igual a cero para por lo menos un i en

    S; entoncesG es semidenida

    positiva; si di se toma menor que cero para por lo menos un i enS; entonces

    asumiendo que A es no nula G es indenida): Dado qu (de acuerdocon el corolario 14.3.5) toda matriz simtrica tiene una descomposicin de laforma (4;2) ; tenemos el siguiente lema

    Lema 14.4.1. Toda matriz simtrica denida no negativa tiene una inversageneralizada denida positiva.

    5.5. Descomposiciones LDU,UTDU y de Cholesky

    Fue establecido en la seccin 14.3 que toda matriz denida no negativa Atiene una descomposicin de la formaA = PTP. Las armaciones mas fuertesde este resultado son posible. De hecho, es probado en la siguiente seccinque toda matriz A simtrica denida no negativa tiene una descomposicinde la forma TTT = A, donde T es una matriz triangular superior. [ y en una

  • 72CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS

    secuencia del capitulo (seccin 21.9), es probado que A tiene descomposicin(nica) de la forma A = R2, donde R es una matriz simtrica denida nonegativa].Es conveniente empezar, considerando algunas preguntas acerca de la de-scomposicin de matrices (no necesariamente denidas no negativa). Esuna matriz cuadrada A expresable de la forma A = LDU, donde L esuna matriz triangular inferior unitaria, D es una matriz diagonal y U esuna matriz superior triangular unitaria? Y, mas especcamente, Es unamatriz A simtrica expresable de la forma A = UTDU? Subsecuentemente,el termino descomposicin LDU es usado para cualquier descomposicin dela forma A = LDU y el termino descomposicin UTDU, para cualquierdescomposicin de la forma A = UTDU

    5.5.1. Preliminares

    El siguiente lema se reere a la descomposicin LDU de una matriz An nque conduce a (n 1) (n 1) una submatriz principal de A

    Lema 14.5.1 Sean A una matriz n n, L una matriz triangular inferiorn n, U una matriz triangular superior unitaria n n y D una matrizdiagonal n n (donde n 2) Separando A;L;U y D como

    A =

    A abT c

    ;L =

    L 0lT 1

    ;U =

    U u0 1

    y

    D =

    D 00 k

    Donde A;L;U y D;son de dimensiones (n 1) (n 1) entonces A =LDU si y solo si

    LDU = A; (5.8)

    LDu = a; (5.9)

    UTD` = b; (5.10)

    y

  • 5.5. DESCOMPOSICIONES LDU, UTDU Y DE CHOLESKY 73

    k = c `TDu (5.11)El Lema 14.5.1 puede ser vericado simplemente por la ecuacin de las 4submatrices A,a,bT y c para las correspondientes submatrices de la matrizproducto LDU. Respecto a la condicin (5.1a) notar que L es una sub-matriz principal de una matriz triangular inferior y por tanto es la mismatriangular inferior unitaria, y similarmente queU es triangular superior uni-taria y D es diagonal. As la condicin (5.1 a) establece que LDU es unadescomposicin LDU de AEl siguiente teorema relaciona la existencia y construccin de una descom-posicin LDU UTDU de un a matriz n n para la existencia y construc-cin de una descomposicin LDU UTDU de la submatriz principal de(n 1) (n 1)A

    Teorema 14.5.2 Sea A una matriz n n (donde n 2); y la particin deA como

    A =

    A abT c

    donde A es de dimendiones (n 1) (n 1)(1)Si A tiene descomposicin LDU; es decir A = LDU y si a 2 C (A)y bT 2 F (A) ; entonces existen vectores ` y u tales que UTD` y tomando` y u para ser cualquiera de esos vectores, y tomando k = c `TDu y ladescomposicin LDU de A es

    A =

    L 0`T 1

    D 00 k

    U u0 1

    (5.12)

    (10) Si A es simtrica (caso en que AT = A y b = a); si AT tiene descom-

    poscion UTDU; es decir A = UTDU; y si a 2 C (A) ; entonces existe unvector u tal que UTDU = a; y tomando u para ser cualquier vector, ytomando k = c uTDu y la descomposicin UTDU de A es

    A =

    U u0 1

    T D 00 k

    U u0 1

    (5.13)

    (2)la matriz A tiene descomposicin LDU solamente si A tiene una de-scomposicin LDU, a 2 C (A) y bT 2 F (A)

  • 74CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS

    (20)la matriz A tiene descomposicinUTDU solamente si A es simtrica,Atiene una descomposicin UTDU; y a 2 C (A)

    Prueba (1) Supongase que A tiene descomposicin LDU; es decir A =LDU y que a 2 C (A) y bT 2 F (A) ; entonces existen vectores s yr tales que a = Ar y bT = sA. Dado que UTD

    LT s

    = As = b

    y LD (Ur) = Ar = a; existen vectores ` y u tales que UTDl = b yLDu = a. Adems, (5;2) es na consecuencia inmediata del lema 14.5.1(10) AT = A; entonces a 2 C (A) implica aT 2 F (A) : As la parte (10)puede ser obtenida como un caso especial de la parte (1) poniendo b = a yL = UT y colocando ` = u.

    (2) y (20) Supngase que A tiene descomposicin LDU es decir A = LDU.Separando L;U y D como

    L =

    L 0`T 1

    ;U =

    U u0 1

    ; y D =

    D 00 k

    Donde L;U y D;son de dimensiones (n 1) (n 1) ; entonces se siguedel lema 14.5.1 que A = LDU y por lo tanto que A tiene una descom-posicin LDU: Como una consecuencia adicional, tenemos quea = LDu = AU1 u 2 C (A) y bT = `TDU = lTL1 A 2 F (A) :En el caso especial donde L = UT (es decir, dondeA = LDU es una descom-posicin UTDU);tenemos que L = UT y por tanto que A = U

    TDU:As

    que si A tiene una descomposicin UTDU entonces A tambin tiene unadescomposicin UTDU; Adems si A tiene una descomposicin UTDU en-tonces claramente A es simtrica. Notar que juntas (1) y (2) del teorema 14.5.2 implica en particular, que Atiene una descomposicin LDU si y solo si A tiene una descomposicionLDU, a 2 C (A) y bT 2 F (A) : Similarmente las partes (10) y (20) implicaque A tiene una descomposicin UTDU si y solo si A es simtrica, A tieneuna descomposicion UTDU, a 2 C (A)El siguiente teorema se reere a la descomposicin LDU de cualquier sub-matriz principal de una matriz A n n para la misma A

    Teorema 14.5.3 Sea A una matriz n n (donde n 2); y sea A11 lasubmatriz k k principal de A (donde 1 k n 1) supngase que Atiene una descomposicion LDU es decir A = LDU; y particin L;D y Ucomo

  • 5.5. DESCOMPOSICIONES LDU, UTDU Y DE CHOLESKY 75

    L =

    L11 0L21 L22

    ;U =

    U11 U120 U22

    ; y D =

    D1 00 D2

    Donde L11, U11 y D1;son de dimensiones kk; entonces una descomposicinLDU de A11 es A11 = L11D1U11El teorema 14.5.3 puede ser vericado simplemente igualando A11a la sub-matriz principal k k de la matriz producto LDU: Notar que en el casoespecial del Teorema 14.5.3 donde A = LDU es una descomposicion UTDU(es decir donde L = UT ); L11 = UT11 y por tanto A11 = L11D1U11 es unadescomposicin UTDU de A: El teorema 14.5.3 implica en particular quesi A tiene una descomposicin LDU UTDU, entonces cada una de sussubmatrices principales tiene respectivamente, una descomposicin LDU UTDU.

    5.5.2. Existencia, construccin recursiva y unicidad deuna descomposicin LDU o UTDU

    Es fcil ver que una matriz A tiene una (nica) descomposicin LDU (yUTDU) es decir, A = (1)A(1). El siguiente teorema arroja resultados sobrela existencia y construccin de una descomposicin LDU UTDU de unamatriz (cuadrada) de orden dos o ms.Teorema 14.5.4 SeaA = faijg una matriz nn (donde n 2):DenotamosAila submatriz principal deA de orden i (i = 1; :::; n) : Para i = 2; :::; n tomamosai = (a1i; :::; ai1;i)

    T y bTi = (ai1; :::; ai;i1) ; o equivalentemente se dene ai ybTi por

    A =

    Ai1 aibTi aii

    :

    (1) Sea L1 = (1) ;U1 = (1) y D1 = a11; y supngase que para i = 2; :::; n,ai 2 C (Ai1) y bTi 2 F (Ai1). Entonces para i = 2; :::; n; existe una matrizunitaria triangular inferior Li; una matriz Ui triangular superior unitariayuna matriz diagonal Di tales que

    Li =

    Li1 0`Ti 1

    ; Ui =

    Ui1 ui0 1

    y Di =

    Di1 00 di

    (5.14)

  • 76CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS

    Donde UTi1Di1`i = bi;Li1Di1ui = ai; y di = aii `Ti Di1ui; y tomandoLi;Ui y Di para ser cualquier matrices, una descomposicin LDU de A esA = LnDnUn(10) Sea U1 = (1) y D1 = a11; y supngase que A es simtrica (caso en elque ATi1 = Ai1 y bi = ai para i = 2; :::; n) y que, para i = 2; :::; nai 2 C (Ai1) : Entonces, para i = 2; :::; n existe una matriz triangularsuperior U1 y una matriz diagonal D1 tales que

    Ui =

    Ui1 ui0 1

    y Di =

    Di1 00 di

    (5.15)

    Donde UTi1Di1ui = ai; y di = aii uTi Di1ui; y tomandoUi y Di para sercualquier matrices, una descomposicin UTDU de Ai es Ai = UTi DiUi: Enparticular una descomposicin UTDU de A es A = UTnDnUn

    (2)la matriz A tiene descomposicin LDU solamente si para i = 2; :::; n; ai 2C (Ai1) y bTi 2 F (Ai1) :

    (20)la matriz A tiene descomposicin UTDU solamente si A es simtrica, ypara i = 2; :::; n; ai 2 C (Ai1)

    Prueba(1) Con el n de probar la parte (1) ; Supngase que para.i =2; :::; n; ai 2 C (Ai1) y bTi 2 F (Ai1) : La prueba es por induccin matemti-ca. Se sigue del teorema 14.5.2 que, para i = 2, existe una matriz Li unitariatriangular inferior ; una matriz Ui triangular superior unitaria y una matrizdiagonal Di de la forma (5;4) y que A2 = L2D2U2 para cualquiera mtaricesL2;U2 y D2: Supngase ahora que para i = k 1 (donde 3 k n); existeuna matriz Li unitaria triangular inferior ; una matriz Ui triangular superiorunitaria y una matriz diagonal Di de la forma (5;4) ;tomando Lk1;Uk1 yDk1 para ser cualesquiera matrices tal que A = Lk1Uk1Dk1: La pruebase completa sobreobservando que para i = k; existe (como una consecuenciadel teorema 14.5.2) una matriz Li unitaria triangular inferior; una matriz Uitriangular superior unitaria y una matriz diagonal Di de la forma (5;4) y queAk= LkDkUk para cualesquiera Lk;Uk y Dk:

    (10) :Una prueba de la parte (10) ; analoga a la parte (1), puede ser construidahaciendo uso de la parte (10) del teoreama 14.5.2(2) Supngase que A tiene una descomposicin LDU: Entonces se sigue

  • 5.5. DESCOMPOSICIONES LDU, UTDU Y DE CHOLESKY 77

    del teorema 14.5.3 que las submatrices principales A2;A3; :::;An1 de orden2por n1 (tambin como la submatriz principal An = A de orden n) tienendescomposicin LDU: Basado en la parte (2) del teorema 14.5.2 se concluyeque para i = 2; :::; n; ai 2 C (Ai1) y bTi 2 F (Ai) :(20)Una prueba de la parte (20) ; analoga a la parte (2) ; pude ser construidahaciendo uso del teorema 14.5.3 y parte (20) del teorema 14.5.2 Note que, las partes (1) y (2) del teorema 14.5.4 implican en particular queA tiene una descomposicin LDU: si y solo si, para para i = 2; :::; n; ai 2C (Ai1) y bTi 2 F (Ai) : similarmente, las partes (10) y (20) implican queA tiene una descomposicin UTDU si y solo si, A es simtrica y,para i =2; :::; n; ai 2 C (Ai1) :Para nes de ilustracin, considere una matriz 2 2 A = faijg y supongaque a11 = 0: Entonces, A tiene una descomposicin LDU. si y solo si a21 =a12 = 0 esto es, si y solo si A es de la forma

    A =

    0 00 a22

    :

    Cuando A es de esta forma, una descomposicin LDU de A es

    A =

    1 0` 1

    0 00 a22

    1 u0 1

    Donde ` y u son escalares arbitrarios.

    En qu medida la descomposicin LDU de una matriz nn es nica?. Estapregunta esta dirigida en el siguiente teorema

    Teorema 14.5.5 Sea A una amtriz n n de rango r que tiene una descom-posicin LDU: Sea L = flijg que representa una matriz unitaria triangularn n inferior, una matriz U = fuijg n n triangular superior unitaria yD = fdig una matriz n n diagonal tal que A = LDU; esto es, tal queA = LDU es una descomposicin LDU de A. (1) La matriz diagoanal D esnica.(2) Supngase que los i1; :::; ir elementos de la diagonal de D (dondei1 < ::: < ir) son no cero ( y los elementos restantes de D son cero). En-tonces para i 2 fi1; :::; irg y j > i; uij y lji son nicos, y para i =2 fi1; :::; irg yj > i; uij y lji son complementariamente arbritarios. Esto es, De los elementosde U por encima de la diagonal, esos en la i1; :::; ir sima las son nicos yaquellos en las restantes las son completamente arbitrarios; y similarmente,

  • 78CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS

    los elementos de L de la diagonal, esos en la i i1; :::; ir sima columnas sonnicos y los otros en las restantes columnas son completamente arbitrarios.

    Prueba Sea L =lijque representa una matriz unitaria triangular in-

    ferior, U =uijtriangular superior unitaria , y D = fdi g una matriz

    diagonal tal que A = LDU; as que A = LDU como A = LDU; esuna descomposicin LDU de A: Entonces,

    L1LD = L1(LDU)U1 = L1(LDU)U1 = DUU1 (5.16)

    As (de acuerdo al corolario 8.5.9 ) L1 es triangular unitaria inferior y U1

    es triangular superior unitaria se sigue del lema 1.3.1 que los elementos deL1LD son d1; :::; dn respectivamente, y que los elementos de DUU1 sond1; :::; d

    n respectivamente, implicando a luz de laigualdad (5;6) que d

    i = di

    (i = 1; :::; n) equivalentemente queD = D; el cual se establecio en la parte(1) del teorema 14.5.5.A los efectos de lo probado en la parte (2) ; tomando A11 una submatrizobtenida sacando todas las las y columnas de A excepto las i1; :::; ir simalas y columnas. Sea D1 = diag(di; :::; dir): Denote por L1 y L

    1 las submatri-

    ces rn obtenidas al sacar todas las las de L y L respectivamente, exceptolas i1; :::; iresimas las y por L11 y L11 las submatrices obtenidas al sacartodas las las y columnas de L y L respectivamente, excepto las i1; :::; irsima las y columnas. Similarmente denote porU1 yU1 las submatrices nrobtenidas al sacar todas las columnas de U y U; respectivamente, exceptolas i1; :::; ir sima columnas, y porU11 yU11las submatrices nr obtenidasal sacar todas las las y columnas de U y U; respectivamente, excepto lasi1; :::; ir sima las y columnas. Entonces, A11 = L1DU1 = L11D1U11 y(de hay que D = D) A11 = L1D

    U1 = L1DU

    1 = L

    11D1U

    11; implicando

    que

    L11D1U11 = L11D1U

    11 (5.17)

    Las matrices L11 y L11 son submatrices principales de matrices triangularesunitarias inferiores y de hay que son en s mismas triangulares unitariasinferiores. similarmente U11 y U11 son triangulares superior unitarias pre-multiplicando ambos lados de la igualdad (5;7) por L111 y postmultiplicandoambos lados por U111D

    11 , encontramos que

  • 5.5. DESCOMPOSICIONES LDU, UTDU Y DE CHOLESKY 79

    L111 L11 = D1U11U

    111D

    11 (5.18)

    De acuerdo con el corolario 8.5.9 L111 es triangular unitaria inferior y U111

    es triangular superior unitaria. Observe que (de acuerdo con el lema 1.3.1)L111 L11 es triangular unitaria inferior. De hay queD1U

    11U

    111D

    11 es triangu-

    lar superior, se sigue de la igualdad (5;8) que L111 L11 = I o equivalentementeque

    L11 = L11

    y a la luz de la igualdad (5;7) y la no singularidad de L11 y D1 que

    U11 = U11

    Ahora tome A1 una submatriz n r obtenida al sacar todas las columnasde A excepto las i1; :::; ir sima columnas, y tome A2 una submatriz r nobtenida al sacar todas las las deA excepto las i1; :::; ir sima las. Denotepor L2 y L2 las submatrices n r obtenidas al sacar todas las columnas de Ly L; respectivamente, excepto las i1; :::; ir sima columnas. Similarmente,denote por U2 y U2 las sunmatrices r n obtenidas al sacar todas las lasdeU y U;respectivamente excepto las i1; :::; ir sima las. entonces A1 =LDU1 = L2D1U11 y (de hay que D = D y U11 = U11) A1 = L

    DU1 =LDU1 = L

    2D1U

    11 = L

    2D1U11; implicando que L

    2D1U11 = L2D1U11; y

    por lo tanto (ya que D1 y U11 son no singulares) tenemos que

    L2 = L2 (5.19)

    Similarmente, A2 = L1DU = L11D1U2 y A2 = L1DU = L1DU

    = L11D1U2 = L11D1U

    2; implicando que L11D1U

    2 = L11D1U2 de hay

    que

    U2 = U2 (5.20)

    los kjesimos elementos de U2 y U2 son uikj y uikjrespectivamente, y los

    jkesimos elementos de L2 y L2 son `jik y `jik respectivamente (k = 1; :::; r; j = 1; :::; n ):As,. se sigue de las igualdades (5;9) y (5;10) que, para i 2fi1; :::; irg y para j = 1; :::; n (y en particular para j = i+ 1; :::; n) tenemosque uij = uij y `

    ji = `ji:

  • 80CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS

    Al completar la prueba de la parte (2) del teorema 14.5.5 observamos queA = LDU = L2D1U2 y de hay que A = LDU; incluso si los elementos deL (por debajo de la diagonal.) que no son elmentos de L2 y/o elementos deU (por encima de la diagonal) que no son elementos de U2 son cambiadosarbitrariamente

    Bajo qu circunstancias una matriz Ann tiene una nica descomposicinLDU?:Esta pregunta es abordada en el siguiente corolario

    Corolario14.5.6. Si una matriz Ann tiene una descomposicin LDU y sila primera submatriz principal de (A) de orden n1 es no singular, entoncesla descomposicin LDU de A es nica.

    Prueba. Sea A11 (n 1) (n 1) la primera submatriz principal de A:Suponga que tiene una descomposicin LDU; digamos A = LDU; y queA11 es no singular. Particionemos L;D; y U como

    L =

    L11 0`T 1

    ;U =

    U11 u0 1

    ; y D =

    D1 00 d

    [Donde L11;U11 y D1 son de dimensiones (n 1) (n 1)] :De acuerdo allema 14.5.1, una descomposicin LDU; de A11 es A11 = L11D1U11: As (yaqueA11 es no singular); se sigue del lema 14.3.1 que todos los n1 de los ele-mentos de la diadonal de D1 son no cero equivalentemente que los primerosn1 elemrntos de la diagonal de D son no cero. Basado en el teorema 14.5.5se concluye que la descomposicin LDU es nica.

    Colorario 14.5.7 Sea A una matriz n n (donde n 2) y, para i =1; :::n 1, sea ,Ai representa la primers submatriz principal de A de orden i.SiA1; :::;An1 son no singulares, entoncesA tiene una nica descomposicionLDU

    Prueba. Sea aij que representan los ijsimos elementos de A (i; j =1; :::; n); y para i= 2; :::; n denamos ai = (a1i; :::; ai1:i)T y bTi = (ai1; :::; ai:i1).Suponga que A1; :::;An1 son no singulares. entonces, para i = 2; :::; n;ai 2 C (Ai1) y bTi 2 F (Ai1) ; y se sigue de la parte (1) del teorema 14.5.4que A tiene una descomposicin LDU: Que esta descomposicin se nicaes una consecuencia inmediata del corolario 14.5.6 (De hay que An1 es nosingular) :

  • 5.5. DESCOMPOSICIONES LDU, UTDU Y DE CHOLESKY 81

    Para una matriz simtrica, la singularidad de una descomposicin LDU tienela siguiente implicacion.

    Lema14.5.8. Si una matriz simtrica A tiene una nica descomposicinLDU; digamos A = LDU; entonces L = UT as que, la nica descomposi-cin LDU es una descomposicin UTDU

    Prueba. Supongase que la matriz simtrica A tiene una nica descomposi-cin LDU; A = LDU: Entonces, A = AT = UTDLT ; implicando (ya queUT es triangular unitaria inferior y L0 es triangular superior unitaria) queA = UTDLT es una descomposicin LDU de A y por lo tanto a la luzde la singularidad de la descomposicin LDU que L = UT ( equivalente-mente U = LT ):Note que si una matriz cuadrada tiene una descomposicin LDU, digamosA = LDU; entonces, siendo L= LD y U = DU esto puede asimismo serdescompuesto comoA = LU; el cual es el producto de una matriz triangularinferior y una matriz triangular superior unitaria, comoA = LU;el cual esel producto de una matriz triangular unitaria inferior y una matriz triangularsuperior.

    El termino LU en la descomposicin es algunas veces usado en referencia aalguna descomposicion de la matriz cuadradaA de la forma generalA = LU;donde L es una matriz triangular inferior y U es una matriz triangular su-perior ver e.g, steward (1973). En el casoespecial donde L es triangularunitaria inferior , steward reere una descomposicion semejante como una de-scomposicin de Doolittle, en el caso especial donde U es triangular superiorunitaria el hace referencia as a una descomposicin como la descomposicinde Crout. Golub y Van Loan (1989) restringeron el uso del termino LU en ladescomposicin al caso especial donde L es triangular inferior, que es segunSteward llamado descomposicin de Doolittle

    5.5.3. Descomposicin de matrices denidas positivas

    Si ahora consideramos la implicacin de los resultados de la subseccin baplicados a las matrices denidas positivas. Una matriz denida positivanecesariamente tiene una descomposicin LDU; y esta descomposicin LDUde una matriz denida positiva es nica?. Estas preguntas son resueltasen forma (armativa) por elsiguiente teorema el cual tambin proporciona

  • 82CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS

    alguna informacin sobre la naturaleza de la descomposicin LDU de unamatriz deida positiva.

    Teorema 14.5.9. una matriz An n denida positiva tiene una nicadescomposicin LDU; digamos A = LDU y los elementos de ladiagonal dela matriz diagonal son positivos

    Prueba. De acuerdo al corolario 14.2.12 alguna submatriz principal de unamatriz denida positiva es denida positiva y por lo tanto (de acuerdo al14.2.8) es no singular. As, se sigue del corolario 14.5.7 que A tiene unanica descomposicin LDU; digamos A = LDU:Se sigue para demostrar que los elemntos de la diagonal, digamos d1; :::dn;de la matriz diagonal D son positivos. Para este n, consideremos la matrizB = DU (L1)T . De hay (a la luz del corolario 8.5.9) (L1)T (como U) estriangular superior unitaria, se sigue del lema 1.3.1 que los elementos de ladiagonal de B son los mismo que los elementos de la diagonal d1; :::dn; deD: Por otra parte,

    B = L1 (LDU)L1

    T= L1A

    L1

    T;

    implicando (a la luz del corolario 14.2.10) que B es denida positiva. Asconcluimos (en base al corolario 14.2.13) que d1; :::dn son positivos

    En el caso especial de una matriz simtrica denida positiva, la conclusindel teorema 14.5.9 puede (como una consecuencia del lema 14.5.8) ser hechams especica, como se describe en el siguiente corolario

    Corolario 14.5.10. una matriz An n simtrica denida positiva tieneuna nica descomposicion U0DU digamos A = UTDU; y los elementos dela diagonal de la matriz diagonal D son positivos.

    Note que, como una consecuencia del corolario 14.2.15, tenemos lo opuestoal corolario 14.5.10. Si una matriz Ann tiene una descomposicion UTDU;digamos A = UTDU y si los elementos de la diagonal de la matriz diagonalD son positivos, entonces A es denida positiva (y simtrica).

    Una descomposicin alternativa de una matriz simtrica denida positiva esdescrita en el siguiente teorema.

  • 5.5. DESCOMPOSICIONES LDU, UTDU Y DE CHOLESKY 83

    Teorema 14.5.11. Para alguna matriz An n simtrica denida positivaexiste una nica matriz triangular superior T con elementos en la diagonalpositivos tal que

    A = TTT (5.21)

    por otra parte, tomando U como la nica matriz triangular superior unitariay D = fdig como la nica matriz diagonal tal que A = UTDU;

    T = D1=2U;

    Donde D1=2 = diagpd1; :::;

    pdn:

    Prueba. Note que el corolario 14.5.10 garantiza la existencia y unicidad dela matriz triangular superior unitaria U y la matriz diagonal D y tambingarantiza que los elementos de la diagonal de D son positivos. note ademsque D1=2U es triangular superior, y que los elementos de la diagonal deD1=2U son

    pd1; :::;

    pdn, y que A =

    D1=2U

    TD1=2U: As existe una ma-

    triz triangular superior T con los elementos de la diagonal positivos tal queA = TTT: Le sigue para mostrar que slo hay una matriz triangular superiorcon los elementos de la diagonal positivos.Supngase que T = ftijg es una matriz triangular superior n n conlos elemntos de la diagonal positivos tal que A = TTT: Denamos D =diag (t211; :::; t

    2nn) y

    U= [diag (t11; :::; tnn)]1T = diag (1=t11; :::; 1=tnn)T:

    Entonces, U es triangular superior unitaria, y A = UTDU es una de-scomposicin UTDU de A: As se sigue del corolario 14.5.10 que D = D o,equivalenemente (ya que tii es positivo) se tiene que tii =

    pdi (i = 1; ::::; n)

    y que U = U: Consecuentemente, T = D1=2U= D1=2U: Concluimos que launica matriz triangular superior T con los elementos de la diagonal positivostal que A = TTT es T = D1=2U

    La desconmposicin (5;11) de la matriz simtrica defnda positiva A esconocida como la descomposicin de Cholesky

  • 84CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS

    5.5.4. Descomposicin de matrices simtricas denidano negativa

    Si ahora extendemos los resultados del corolario 14.5.10 y teorema 14.5.11(los cules esta aplicadas a matrices simtricas denidas positivas) a matricessimtricas denidas no negativas que no puedan ser denidas positivas. Elsiguiente teorema proporciona las bases pra esta denicin

    Teorema 14.5.12. Corresponde para cualquier matriz simtrica A denidano negativa entonces exite una matriz triangular superiuor unitaria U talque UTAU es una matriz diagonal.Para elproposito de probar este teorema es til establecer el siguiente lema.

    Lema 14.5.13 Sea A = faijg que representa una matriz n n denidano negativa.si aii = 0; entonces, para j = 1; :::; n; aij = aji; esto es si elisimo elemento de ladiagonal de A es igual a cero, entonces (ai1; :::; ain); elcual es la isima la de A es igual a (a1i; :::; ani), el cual es 1 al tiempode transponer la iesima columna de A (i = 1; :::; n):

    Prueba. (del lema 14.5.13) supngase que que aii = 0 y tomando x = fxkgque es un vector columna ndimensional tal que xi < ajj; xj = aij + aji;yxk = 0; para k excepto k = i y k = j (donde j 6= i): Entonces,

    xTAx = aiix2i + (aij + aji)xixj + ajjx

    2j (5.22)

    = (aij + aji)2 (xi + ajj)

    0

    con la igualdad unicamente si aij + aji = 0; equivalentemente, unicamentesi aij = aji: Por otra parte dado que A es denida no negativa xTAx 0; el cual de acuerdo con la desigualdad (5;12) implica que xTAx = 0:Concluimos que aij = aji

    Si la matriz denida no negativa A en ellema 14.5.13 es simtrica, entoncesaij = aji () 2aij = 0 () aij = 0: As, tenemos el siguiente corolario

    Corolario 14.5.14. Sea A = faijg que representa una matriz simtrica nndenida no negativa. Si aii = 0; entonces, para j = 1; :::; n; aji = aij = 0;

  • 5.5. DESCOMPOSICIONES LDU, UTDU Y DE CHOLESKY 85

    esto es, si el i simo elemento de ladiagonal de A es igual a cero, entoncesla i sima columna (a1i; :::; ani)T de A y la isima la (ai1; :::; ain) de Ason nulas. Por otra parte si todos los n elementos de a diagonal a11; :::; annde A son iguales a cero, entonces A = 0:

    Prueba. (Del teorema 14.5.12) la prueba es por induccin matmatica y essimilar a la prueba del teorema 14.3.4. El teorema es claramente verdaderopara cualquier matriz 1 1. Ahora supongamos que que esto no es ciertopara cualquier matriz simtrica denida no negativa (n 1) (n 1) ; yconsideremos una matriz simtrica nn denida no negativa arbitraria A =faijg : Para propositos de establecer la existencia de matriz triangular supeiorunitaria tal queUTAU es diagonal, es conveniente considerar separadamenteel caso en que a11 = 0 y el caso en que a11 6= 0:

    Caso(1) : a11 = 0: Se sigue del corolario 14.5.14 que la primera la y laprimera columna de A son nulas , equivalentemente,a A = diag (0;A22)para alguna matriz A22 (n 1) (n 1) : Adems, A22 es una submatrizprincipal de A; simtrica y denida no negativa, por lo tanto, por suposicinexiste una matriz triangular superior unitaria U tal que UTA22U es unamatriz diagonal. Tomando U = diag (1;U) : Entonces U es triangular su-perior unitaria y UTAU = diag

    0;UTA22U

    ; el cual (como UTA22U) es

    una matriz diagonalCaso(2) : a11 6= 0: De acuerdo con el lema 14.3.3, exite una matriz triangularsuperior unitaria U1 tal que UT1AU1 = diag (b11;B22) para algun escalarb11 y alguna matriz B22 (n 1) (n 1) : Adems, U01AU1 es (a la luz del-teorema 14.2.9) simtrica y denida nonegativa. As, por suposicin existeuna matriz triangular superior unitaria U2 tal que U02B22U2 es unamatrizdiagonal. Tomando U = U1diag (1;U2) : Entonces U es una matriz triangu-lar superior unitaria (de hay que diag (1;U2) :es triangular superior unitariay el producto de dos matrices triangulares superior unitaria es triangularsuperior unitaria) , y

    UTAU = diag1;UT2

    diag (b11;B22) diag (1;U2) = diag

    b11;U

    T2B22U2

    ;

    El cual (como UT2B22U2) es una matriz diagonal. El corolario 14.5.10 indica que, en el caso especial en que una matriz Asimtrica denida positiva, la matriz P no singular en el corolario 14.3.5

  • 86CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS

    puede ser escogida como una matriz triangular superior unitaria en cadacaso la descomposicin A = PTDP es una descomposicin UTDU: En elsiguiente corolario (del teorema 14.5.12 ) indica que P puede ser esogidacomo una matriz triangular superior unitaria incluso si A es (simetrica)semidenida positiva.

    Corolario 14.5.15. Una matriz simtrica denida no negativaA nn tieneuna descomposicin UTDU y para alguna descomposiscin A = UTDU loselementos de la diogonal de la matriz diagonal D son no negativos.

    Prueba. A la luz delcorolario 14.2.15, es suciente probar que A tiene unadescomposicin UTDU: De acuerdo al teorema 14.5.12, existe una matriztriangular superior unitaria T tal que TTAT = D para alguna matriz diago-nal D. Tomando U = T1: Entonces, A = U0AU; y (de acuerdo al corolario8.59).U es una matriz triangular superior unitaria. As, A = UTDU es una de-scomposicin UTDU de A Note que como una consecuencia inmediata del corolario 14.2.15 tenemos loopuesto al corolario 14.5.15. si una matriz A nn tiene una descomposicinUTDU; digamos A = UTDU y si los elementos de la diagonal de lamatrizdiagonalD son no negativos, entoncesA es denida nonegativa (y simtrica).El teorema 14.5.11 establece que alguna matriz A denida positiva tiene unanica descomposicin de la forma (5;11) y esta se reere a la descomposicinUTDU de A: el siguiente teorema extiende estos resultados a alguna matrizsimtrica denida no negativa.

    Teorema 14.5.16. Sea A una matriz n n simtrica denida no negativa,y sea r = rank (A) : Entonces existe una nica matriz triangular superior Tcon r elementos de la diagonal positivos y n r las nulas tal que

    A = TTT (5.23)

    Adems, tomando a U como una matriz triangular superior unitaria y D =fdig como la nica matriz diagonal talque A = UTDU;

    T = D1=2U (5.24)

    Donde D1=2 = diagpd1; :::;

    pdn

  • 5.5. DESCOMPOSICIONES LDU, UTDU Y DE CHOLESKY 87

    Prueba. Note que el corolario 14.5.15 y el teorema 14.5.5 garantizan laexistencia de la matriz triangular superior unitaria U y la existencia dela singularidad de la matriz diagonal D y tambin garantiza que los el-ementos de la diagonal de D son no negativos. Adicionalmente (en baseal Lema 14.3.1), tenemos que r de los elementos de la diagonal de D dig-amos los elementos i1; :::; ir (donde i1 < ::: < ir) son no cero y por lo tan-to positivos y los restantes n r elementos de la diagonal de D iguales acero. Admas, D1=2U es triangular superior y los elementos de la diagonalde D1=2U son

    pd1; :::;

    pdn; (r de los cuales son positivos), n r las de

    D1=2U son nulas (aquellas las que no sean de las i1; :::; ir esimas las), yA =

    D1=2U

    TD1=2U: As existe una matriz triangular superior T con r

    elementos positivos en la diagonal y con n r las nulas tal que A = TTT:Resta probar que hay una nica matriz triangular superior con r elemntospositivos en la diagonal y con n r las nulas. Supngase T = ftijg es unamatriz n n triangular superior con r elementos positivos en la diagonal digamos los k1; :::; kr elementos de la diagonal (donde k1 < ::: < kr) y conn r las nulas tal que A = TTT: Tomando D como una matriz diagonaln n cuyos k1; :::; kr elementos de la diagonal son t2k1k1 ; :::; t2krkr , respecti-vamente, y cuyos otros n r elementos de la diagonal son iguales a cero.Adicionalmente, si tTk1 ; :::; t

    Tkr; representan las k1; :::; kr esimas las de T, y

    tomando U como una matriz triangular superior unitaria cuyos k1; :::; kr esimas las son

    1=tk1k1)t

    Tk1; :::; (1=tkrkr

    tTkr respectivamente claramente

    tal matriz triangular superior existe. Entonces,

    A = tk1tTk1+ :::+ tkrt

    Tkr= U

    TDU;

    As que A = UTDU es una descomposicin UTDU De A: As, se sigue del

    teorema 14.5.5 que D= D; en cuyo caso k1 = i1; :::; kr = ir; yti1i1 =

    pdi1 ; :::; tirir =

    pdir ; y que las i1; :::; ir esimas las de U son

    respectivamente iguales a las i1; :::; ir esimas las deU: Consecuentemente.

    T = D1=2U = D1=2U:

    Concluimos que la nica matriz triangular superior T con r elementos en ladiagonal positivos y con n r las nulas talque A = TTT es T = D1=2U En alcaso especial donde la matriz simtrica denida no negativaA es deni-da positiva, la descomposicin (5.13) se simplica a la descomposicin (5;11)y, como en el caso especial la descomposicin es llamada la Descomposicinde Cholesky.

  • 88CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS

    5.5.5. Formulas recursivas para LDU y descomposicinde Cholesky

    Sea A = faijg una matriz n n: Considerese el problema de encontrar unamatriz triangular superior unitaria U = fuijg ;una matriz triangular unitariainferior L = fljig ; y una matriz diagonal D = fdig tal que A = LDU(cuando ellas existen). las formulas dadas en laparte (1) del teorema 14.5.4pueden ser usadas para construir L;D, y U en n pasos. En cada paso unacolumna adicional deU; una la adicional de L y un elemento adicional de ladiagonal de D son obtenidos resolviendo el sistema lineal con coecientes dela matriz triangular. Haciendo uso de los resultados de la seccin 11.8 (unasolucin del sistema lineal con matrices triangulares no singulares o bloquesde los coecientes de las matrices triangulares ), las formulas dadas en laparte (1) del teorema 14.5.4 pueden ser expresedas como siguen:

    d1 = a11 (5.25)

    d1u1j = a1j;

    diuij = aij i1Xk=1

    `ikdkukj (i = 2; :::j 1)

    d1`j1 = aj1;

    di`ji = aji i1Xk=1

    ukidk`jk (i = 2; :::j 1)

    dj = ajj j1Xk=1

    ukjdk`jk

    (j = 2; :::; n) :El primer paso en los n pasos en el procedimiento para la construccin deU;L y D consiste en establecer d1 = a11: El j simo paso (2 j n);consiste en determinar secuencialmente a uij y `ji para i = 1; :::; j 1; yentonces determinar [por medio de la formula (5;15)] dj: Si di = 0; entoncesuij y `ji pueden ser escogidas arbitrariamente; por ejemplo escogiendo uij =`ji = 0: Si di 6= 0; entonces dependiendo si i = 1 i > 1; tomemosuij = aij=di y `ji = aji=di

    uij =

    aij

    i1Xk=1

    `ikdkukj

    !=di y `ji =

    aji

    i1Xk=1

    ukidk`jk

    !=di;

  • 5.5. DESCOMPOSICIONES LDU, UTDU Y DE CHOLESKY 89

    respectivamenteHay un procedimiento alternativo de n pasos para construir U;L y D enelcual U es formado la por la ms bien columna por columna y L esformada columna por columna la por la. El primer paso consiste enestablecer d1 = a11 y, dependiendo si d1 = 0 d1 6= 0; escogemos u12; :::;u1ny `21; :::; `n1 arbitrariamente (para j = 2; :::; n); denamos u1j = a1j=d1y `j1 = aj1=d1:El i simo paso (2 i n 1); consiste en determinar[por medio de la formula (5;15)] di:y, dependiendo si di = 0 di 6= 0 escoge-mos ui:i+1; :::; ui1 y `i+1:i; :::; `ni arbitrariamente (para j = i + 1; :::; n )tomamos.

    uij = aij i1Xk=1

    `ikdkukj=di y `ji =

    aji

    i1Xk=1

    ukidk`jk

    !=di

    El paso nal (nsimo) consiste en asignar

    dn = an X

    ukndk`nk

    Note que (con cualquiera de estos procedimientos )una vez d1 fue determi-nado, ajj no es necesario (al menos no para construir una descomposicinLDU) similarmente una vez uij haya sido determinada, aij no es requeriday, una vez `ji haya sido determinada aji no es requirida, esto tambien enla implementacin del proceso en lacomputadora esto puede ser soluciona-do si tanto dj; uij y `ji son determinadas, ellas son encontradas previamenteutlizando ajj; aij y aji respectivamente.En lo que concierne, fue asumido que A tiene una descomposicin LDU; lano existencia de una descomposicin LDU puede (al menos en un principioes determinado durante el curso del proceso incorporando siertas pruebas, sid1 = 0; entonces antes de la asignacin de valores a u1j y `j1 deberiamosprobar si a1j=0 y aj1=0; similarmente si di = 0 (2 i n 1); entonces antes de la asignacin de valores a uij y `ji deberiamos probar que si

    aji i1Xk=1

    `ikdk`kj = 0 y aji i1Xk=1

    ukidk`jk = 0

    equivalentemente

    aji =

    i1Xk=1

    `ikdk`kj y aji =i1Xk=1

    ukidk`jk

  • 90CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS

    si el resultado de alguna prueba es negativa,terminamos el procedimientoy concluimos (en base en el teorema 14.5.4) que A no tiene una descom-posicin LDU; si el resultado de todas las pruebas son positivas, entonceselprocedimiento es correcto y produce una descomposicin LDU:Suponiendo que A no es simtrica y considere el problema d determinar si Atiene una descomposicin UTDU; y de construir la descomposicin UTDU.Este problema puede ser resuelto" empleando una versin simplicada delprocedimiento para comprobar la existencia de una descomposicin LDU ypara la construccin de una descomposicin LDU La simplicacin viene deestablecer `ji = uij; para j = 2; :::; n e i = 1; :::; j 1 y ms especicamentedel resultado de la reduccin computacional y almacenamiento requerido.Finalmente supongamos que A es una matriz simtrica denida no negati-va, y considere el problema de encontrar la descomposicin de Cholesky deA: Esto es, considere el problema de encontrar la nica matriz triangularsuperior T = ftijg con r elementos positivos en la diagonal y n r lasnulas[donde r = rank(A)] tal que A = TTT.Una aproximacin es encontrar la descomposicin UTDU de A y entoncesdeterminar T de la formula (5.14). Sin embargo, existe un mtodoms directo, el cual es veces llamado el mtodo de la raz cuadrada. Este mto-do esta basado en las siguientes formulas, las cuales pueden ser obtenidas delas formulas de la parte (10)del teorema 14.5.4 por aplicacin de los resultadosde la seccin 11.8 yhaciendo uso de la relacin (5.14)

    t11 =pa11 (5.26)

    t1j = a1j=t11; si t11 > 0 (5.27)

    = 0 si, t11 = 0 (5.28)

    tij =

    aij

    i1Xk=1

    tkitkj

    !tii si tii > 0 (5.29)

    = 0 si tii = 0 (5.30)

    (i = 2; 3::::; j 1),

  • 5.5. DESCOMPOSICIONES LDU, UTDU Y DE CHOLESKY 91

    tjj =

    aij

    i1Xk=1

    t2kj

    !1=2(5.31)

    (j = 2; 3; :::; n)En el mtodo de la raz cuadrada, T es construido la por la columnapor columna en n pasos, una la columna por paso. por ejemplo, el primerpaso de la versin la por la consiste en la determinacin de t11; t12; :::; t1n ;[por medio de las formulas (5.16) y (5.17)] el paso isimo (2 i n 1)consiste en la determinacin de tii; ti;i+1; :::; tin por medio de las formulas(5.19) y (5.18) ; y el paso nal (nsimo) consiste en la determinacin detnn por de la formula (5.19).Si hay incertidumbre acerca de si A es denida no negativa, entonces, enla aplicacin del mtodo de la raz cuadrada a A. Varias modicacionesdeben ser incorporadas. Debemos (determinar previamente a t11) ensayandosi a11 0; y si a11 = 0, debemos (denir a t1j = 0 ) ensayando si aii Xi1

    k=1t2ki 0, y si aii

    Xt2ki = 0, debemos (denir a tij = 0) ensayando

    si aij X

    tkitkj = 0. Finalmente, debemos ( determinar a tnn) ensayando

    si ann X

    t2kn 0.Si el resultado de algn ensayo es negativo, se sigue del teorema 14.5.4 y14.5.16 que en cualquiera de los casos, A no tiene una descomposicinUTDU para una descomposicin (de A), expresar A = UTDU, uno ms de los elementos de la diagonal de la matriz diagonal D son negativos.Asi, si el resultado de algn ensayo es negativo terminamos el mtodo dela raz cuadrada procediendo y concluyendo (en base al corolario 4.5.15) queA no es denida no negativa. Si el resultado de cada ensayo es positivo,entonces A es no negativa, y el procedimiento es llevado a la terminacin yproduccin de la descomposicin de Cholesky.Supngase, por ejemplo que

    A =

    0@ 4 2 22 1 12 1 10

    1ASi aplicamos el mtodo de la raz cuadrada (de la versin nal la por la).Observando que a11 > 0, encontramos que t11 =

    2p4 = 2; t12 = 2=2 = 1 y

    t13 = 2=2 = 1. Adicionalmente, sobre la observacin de que a22t212 = 0,

  • 92CAPTULO 5. FORMAS LINEALES, BILINIALES Y CUADRTICAS

    encontramos que t22 = 0, y despus observando que a23 t12t13 = 0, vemosque t23 = 0. Finalmente, acerca de la observacin de que a33

    Xt2k3 = 9,

    encontramos que t33 =2p9 = 3. As concluimos que A es no negativa puesto

    que t22 = 0, esta es semidenida positiva y la descomposicin de Choleskyde A es:

    A =

    0@ 2 1 10 0 00 0 3

    1AT 0@ 2 1 10 0 00 0 3

    1ANote que si a23 = a32 hubieran sido igualadas a otro nmero diferente de 1se hubiera dado el caso de que a23 t12t13 6= 0; y A no hubiera sido denidano negativa. O, si el valor de a22 hubiera sido ms pequeo que uno, se habratenido el caso de que a22 t212 < 0, y A no habra sido denida no negativa.

    5.5.6. Factorizaciones LDU, UTDU y de Cholesky enla obtencin de una I.G

    Supngase que A es una matriz n n que tiene una factorizacin LDU, esdecir, A = LDU. Entonces, se sigue de lo discutido en la seccin 14.4 que lamatriz

    G = U1DL1 (5.32)

    es una inversa generalizada de A y que una eleccin para D es la matrizdiagonal obtenida al reemplazar los elementos no cero de la diagonal D porsus respectivos inversos multiplicativos. As que, un camino para la obtencinde una inversa generalizada de A es obtener la descomposicin LDU de Ay entonces aplicar la formula (5.32). Ntese que en el caso especial L = UT ,la formula (5.32) se convierte en

    G = U1DU1

    T. (5.33)

    Supngase ahora queA es una matriz nn denida no negativa con rango r,entonces podemos obtener una inversa generalizada de A en trminos de ladescomposicin UTDU usando la formula (5.33). Podemos tambin obteneruna inversa generalizada deA directamente en trminos de la descomposicinde Cholesky. Sea A = TTT que representa la descomposicin de Choleskyde A, por denicin, T es una matriz triangular superior con r elementos

  • 5.5. DESCOMPOSICIONES LDU, UTDU Y DE CHOLESKY 93

    positivos en la diagonal, digamos estos elementos i1; i2; :::; ir elementos de ladiagonal (donde i1 < i2 < < ir), y con n r las nulas. Tomando T1 unamatriz r n obtenida al eliminar las las nulas de T. Entonces claramente,A = TT1T1, y rk(T1) = rk(A) = r. Se sigue del Lema 8.1.1 que T1 tiene unainversa a derecha, digamos R. De all que

    ARRTA = TT1T1R(T1R)TT1 = T

    T1T1 = A;

    RRT es una inversa generalizada de A. Una inversa a derecha de T1 puedeser obtenida haciendo uso del procedimiento descrito en la seccion 8.5d parainvertir una matriz triangular no singular. Observando esto, si T11 representala submatriz r r obtenida al eliminar todas las columnas de T1excepto lasi1; i2; :::; ir columnas. Note que T11 es una submatriz principal de T y por lotanto (como T) es triangular superior y (se tiene que los elementos de T11son no ceros) tal que T11 es no singular. Tomando R una matriz n r cuyasi1; i2; :::; ir son la primera, segunda, ..., rsima la de T111 y cuyas otrasn r las son nulas. Entonces, claramente, T1R = T11T1 = I, asi que Res una inversa a derecha de T1:

    5.5.7. Matrices Seudo Simtricas

    Una matriz n nA = faijg. Se dice que es seudo simtrica si AT = Ao equivalentemente si (aij = aij , 2aij = 0, aij = 0), si aii = 0 parai = 1; :::; n y aij = aij paraj 6= i = 1; 2; :::; n. Por ejemplo, la matriz 2 2

    0 11 0

    es seudo

    simtrica.Una submatriz principal de una matriz seudo simetrica es seudo simtrica, como es fcilmente vericado.Otras propiedades bsicas de matrices seudosimtrica son descritas en los siguientes dos lemas.

    Lema 14.6.1. La nica matriz n n que es a la vez