Dipendenza e indipendenza lineare. Dipendenza e indipendenza lineare, proprietà, studio di un sistema di vettori per dipendenza lineare, esempi e soluzioni Teorema dell'indipendenza lineare

Lemma 1 : Se in una matrice di dimensione n n almeno una riga (colonna) è zero, allora le righe (colonne) della matrice sono linearmente dipendenti.

Prova: Lasciamo quindi che la prima riga sia zero

Dove un 1 0. Questo è ciò che era richiesto.

Definizione: Viene chiamata una matrice i cui elementi situati sotto la diagonale principale sono uguali a zero triangolare:

e ij = 0, i>j.

Lemma 2: Il determinante di una matrice triangolare è uguale al prodotto degli elementi della diagonale principale.

La dimostrazione è facile da effettuare per induzione sulla dimensione della matrice.

Teorema sull'indipendenza lineare dei vettori.

UN)Necessità: linearmente dipendente D=0 .

Prova: Lasciamo che siano linearmente dipendenti, j=,

cioè esistono j , non tutti uguali a zero, j=, Che cosa a 1 A 1 + a 2 A 2 + ... a n A n = , A j – colonne della matrice UN. Lasciamo, ad esempio, un n¹0.

Abbiamo a j * = a j / a n , j£ n-1a 1 * A 1 + a 2 * A 2 + ... a n -1 * A n -1 + A n = .

Sostituiamo l'ultima colonna della matrice UN SU

A n * = a 1 * A 1 + a 2 * A 2 + ... a n -1 A n -1 + A n = .

Secondo la proprietà sopra dimostrata del determinante (non cambierà se a qualsiasi colonna viene aggiunta un'altra colonna di una matrice, moltiplicata per un numero), il determinante della nuova matrice è uguale al determinante della quello originale. Ma nella nuova matrice una colonna è zero, il che significa che espandendo il determinante su questa colonna, otteniamo D=0, Q.E.D.

B)Adeguatezza: Matrice dimensionale n ncon file linearmente indipendenti Può sempre essere ridotto alla forma triangolare utilizzando trasformazioni che non modificano il valore assoluto del determinante. Inoltre, dall'indipendenza delle righe della matrice originaria ne consegue che il suo determinante è pari a zero.

1. Se nella matrice delle dimensioni n n con elemento righe linearmente indipendenti un 11è uguale a zero, quindi la colonna il cui elemento a1j¹0. Secondo il Lemma 1 tale elemento esiste. Il determinante della matrice trasformata può differire dal determinante della matrice originaria solo nel segno.

2. Dalle righe con i numeri i>1 sottrarre la prima riga moltiplicata per la frazione a i 1 / a 11. Inoltre, nella prima colonna di righe con numeri i>1 otterrai zero elementi.

3. Iniziamo a calcolare il determinante della matrice risultante scomponendo sulla prima colonna. Poiché tutti gli elementi in esso contenuti tranne il primo sono uguali a zero,

D nuovo = a 11 nuovo (-1) 1+1 D 11 nuovo,

Dove d11 nuovoè il determinante di una matrice di dimensione minore.

Successivamente, per calcolare il determinante D11 ripetere i passaggi 1, 2, 3 finché l'ultimo determinante risulta essere il determinante della matrice dimensionale 1 1. Poiché il passaggio 1 cambia solo il segno del determinante della matrice da trasformare, e il passaggio 2 non cambia affatto il valore del determinante, quindi, fino al segno, alla fine otterremo il determinante della matrice originale. In questo caso, poiché per l'indipendenza lineare delle righe della matrice originaria, il passo 1 è sempre soddisfatto, tutti gli elementi della diagonale principale risulteranno diversi da zero. Pertanto, il determinante finale, secondo l'algoritmo descritto, è uguale al prodotto degli elementi diversi da zero sulla diagonale principale. Pertanto, il determinante della matrice originale non è uguale a zero. Q.E.D.


Appendice 2

Di seguito vengono forniti diversi criteri per la dipendenza lineare e, di conseguenza, l'indipendenza lineare dei sistemi vettoriali.

Teorema. (Condizione necessaria e sufficiente per la dipendenza lineare dei vettori.)

Un sistema di vettori è dipendente se e solo se uno dei vettori del sistema è espresso linearmente attraverso gli altri di questo sistema.

Prova. Necessità. Sia il sistema linearmente dipendente. Quindi, per definizione, rappresenta il vettore zero in modo non banale, cioè esiste una combinazione non banale di questo sistema di vettori uguale al vettore zero:

dove almeno uno dei coefficienti di questa combinazione lineare non è uguale a zero. Permettere , .

Dividiamo entrambi i membri dell'uguaglianza precedente per questo coefficiente diverso da zero (ovvero moltiplichiamo per:

Indichiamo: , dove .

quelli. uno dei vettori del sistema è espresso linearmente attraverso gli altri di questo sistema, ecc.

Adeguatezza. Sia espresso linearmente uno dei vettori del sistema attraverso altri vettori di questo sistema:

Spostiamo il vettore a destra di questa uguaglianza:

Poiché il coefficiente del vettore è uguale a , allora abbiamo una rappresentazione non banale dello zero mediante un sistema di vettori, il che significa che questo sistema di vettori è linearmente dipendente, ecc.

Il teorema è stato dimostrato.

Conseguenza.

1. Un sistema di vettori in uno spazio vettoriale è linearmente indipendente se e solo se nessuno dei vettori del sistema è espresso linearmente in termini di altri vettori di questo sistema.

2. Un sistema di vettori contenente un vettore zero o due vettori uguali è linearmente dipendente.

Prova.

1) Necessità. Sia il sistema linearmente indipendente. Supponiamo il contrario e che esista un vettore del sistema che si esprime linearmente attraverso altri vettori di questo sistema. Allora, secondo il teorema, il sistema è linearmente dipendente e si arriva ad una contraddizione.

Adeguatezza. Nessuno dei vettori del sistema sia espresso in termini degli altri. Supponiamo il contrario. Lasciamo che il sistema sia linearmente dipendente, ma dal teorema segue che esiste un vettore del sistema che è espresso linearmente attraverso altri vettori di questo sistema, e arriviamo di nuovo a una contraddizione.

2a) Sia il sistema a contenere un vettore nullo. Assumiamo per certezza che il vettore :. Allora l'uguaglianza è ovvia

quelli. uno dei vettori del sistema è espresso linearmente attraverso gli altri vettori di questo sistema. Dal teorema segue che un tale sistema di vettori è linearmente dipendente, ecc.

Si noti che questo fatto può essere dimostrato direttamente da un sistema di vettori linearmente dipendenti.

Poiché , risulta ovvia la seguente uguaglianza

Questa è una rappresentazione non banale del vettore zero, il che significa che il sistema è linearmente dipendente.

2b) Sia il sistema composto da due vettori uguali. Facciamo per . Allora l'uguaglianza è ovvia

Quelli. il primo vettore è espresso linearmente attraverso i restanti vettori dello stesso sistema. Dal teorema segue che questo sistema è linearmente dipendente, ecc.

Similmente alla precedente, questa affermazione può essere dimostrata direttamente mediante la definizione di un sistema linearmente dipendente. Quindi questo sistema rappresenta il vettore zero in modo non banale

da cui segue la dipendenza lineare del sistema.

Il teorema è stato dimostrato.

Conseguenza. Un sistema costituito da un vettore è linearmente indipendente se e solo se questo vettore è diverso da zero.

Permettere l – spazio lineare sopra il campo R . Permettere А1, а2, …, аn (*) sistema finito di vettori da l . Vettore IN = a1× A1 + a2× A2 + … + an× UN (16) viene chiamato Combinazione lineare di vettori ( *), oppure dicono che è un vettore IN espresso linearmente attraverso un sistema di vettori (*).

Definizione 14. Il sistema di vettori (*) si chiama Dipendenza lineare , se e solo se esiste un insieme diverso da zero di coefficienti a1, a2, … , tale che a1× A1 + a2× A2 + … + an× UN = 0. Se a1× A1 + a2× A2 + … + an× UN = 0 Û a1 = a2 = … = an = 0, allora viene chiamato il sistema (*) Linearmente indipendente.

Proprietà di dipendenza e indipendenza lineare.

10. Se un sistema di vettori contiene un vettore zero, allora è linearmente dipendente.

Infatti, se nel sistema (*) il vettore A1 = 0, Questo è 1× 0 + 0× A2+…+0 × An = 0 .

20. Se un sistema di vettori contiene due vettori proporzionali, allora è linearmente dipendente.

Permettere A1 = l×a2. Quindi 1× A1 –l× A2 + 0× A3 + … + 0× UN N= 0.

30. Un sistema finito di vettori (*) per n ³ 2 è linearmente dipendente se e solo se almeno uno dei suoi vettori è una combinazione lineare dei restanti vettori di questo sistema.

Þ Sia (*) una dipendenza lineare. Allora esiste un insieme diverso da zero di coefficienti a1, a2, …, an, per i quali a1× A1 + a2× A2 + … + an× UN = 0 . Senza perdita di generalità, possiamo supporre che a1 ¹ 0. Allora esiste A1 = ×a2× A2 + … + ×an× UN N. Quindi, vettore A1 è una combinazione lineare dei rimanenti vettori.

Ü Sia uno dei vettori (*) una combinazione lineare degli altri. Possiamo supporre che questo sia il primo vettore, cioè A1 = B2 A2+ … + miliardi UN N, quindi (–1)× A1 +b2 A2+ … + miliardi UN N= 0 , cioè (*) è linearmente dipendente.

Commento. Usando l'ultima proprietà, possiamo definire la dipendenza e l'indipendenza lineare di un sistema infinito di vettori.

Definizione 15. Sistema vettoriale А1, а2, …, аn , … (**) è chiamato Dipendenza lineare, Se almeno uno dei suoi vettori è una combinazione lineare di un numero finito di altri vettori. Altrimenti viene chiamato il sistema (**). Linearmente indipendente.

40. Un sistema finito di vettori è linearmente indipendente se e solo se nessuno dei suoi vettori può essere espresso linearmente in termini dei suoi restanti vettori.

50. Se un sistema di vettori è linearmente indipendente, allora anche qualsiasi suo sottosistema è linearmente indipendente.

60. Se qualche sottosistema di un dato sistema di vettori è linearmente dipendente, allora anche l'intero sistema è linearmente dipendente.

Siano dati due sistemi di vettori А1, а2, …, аn , … (16) e В1, В2, …, Вs, … (17). Se ciascun vettore del sistema (16) può essere rappresentato come una combinazione lineare di un numero finito di vettori del sistema (17), allora il sistema (17) si dice espresso linearmente attraverso il sistema (16).

Definizione 16. I due sistemi vettoriali vengono chiamati Equivalente , se ciascuno di essi è espresso linearmente attraverso l'altro.

Teorema 9 (teorema base della dipendenza lineare).

Lascia fare – due sistemi finiti di vettori da l . Se il primo sistema è linearmente indipendente ed espresso linearmente attraverso il secondo, allora N£s.

Prova. Facciamo finta che N> S. Secondo le condizioni del teorema

(21)

Poiché il sistema è linearmente indipendente, l'uguaglianza (18) Û X1=x2=…=xN=0. Sostituiamo qui le espressioni dei vettori: …+=0 (19). Quindi (20). Le condizioni (18), (19) e (20) sono ovviamente equivalenti. Ma (18) è soddisfatto solo quando X1=x2=…=xN=0. Troviamo quando l'uguaglianza (20) è vera. Se tutti i suoi coefficienti sono zero, allora è ovviamente vero. Uguagliandoli a zero, otteniamo il sistema (21). Poiché questo sistema ha zero , allora it

giunto Poiché il numero delle equazioni è maggiore del numero delle incognite, il sistema ha infinite soluzioni. Pertanto ha un valore diverso da zero X10,x20,...,xN0. Per questi valori sarà vera l'uguaglianza (18), il che contraddice il fatto che il sistema di vettori è linearmente indipendente. Quindi la nostra ipotesi è sbagliata. Quindi, N£s.

Conseguenza. Se due sistemi equivalenti di vettori sono finiti e linearmente indipendenti, allora contengono lo stesso numero di vettori.

Definizione 17. Il sistema vettoriale si chiama Massimo sistema di vettori linearmente indipendenti Spazio lineare l , se è linearmente indipendente, ma quando si aggiunge ad esso qualsiasi vettore da l , non compreso in questo sistema, diventa linearmente dipendente.

Teorema 10. Due sistemi di vettori finiti massimali linearmente indipendenti qualsiasi da l Contengono lo stesso numero di vettori.

Prova deriva dal fatto che due sistemi massimi di vettori linearmente indipendenti sono equivalenti .

È facile dimostrare che qualsiasi sistema linearmente indipendente di vettori spaziali l può essere espanso a un massimo sistema di vettori linearmente indipendenti in questo spazio.

Esempi:

1. Nell'insieme di tutti i vettori geometrici collineari, qualsiasi sistema costituito da un vettore diverso da zero è linearmente indipendente al massimo.

2. Nell'insieme di tutti i vettori geometrici complanari, due vettori qualsiasi non collineari costituiscono un sistema massimo linearmente indipendente.

3. Nell'insieme di tutti i possibili vettori geometrici dello spazio euclideo tridimensionale, qualsiasi sistema di tre vettori non complanari è linearmente indipendente al massimo.

4. Nell'insieme di tutti i polinomi, i gradi non sono superiori a N A coefficienti reali (complessi), un sistema di polinomi 1, x, x2, … , xnÈ massimamente linearmente indipendente.

5. Nell'insieme di tutti i polinomi con coefficienti reali (complessi), esempi di un sistema massimale linearmente indipendente sono

UN) 1, x, x2, ... , xn, ... ;

B) 1, (1 – X), (1 – X)2, … , (1 – X)N, ...

6. Insieme di matrici dimensionali M´ Nè uno spazio lineare (controlla questo). Un esempio di massimo sistema linearmente indipendente in questo spazio è il sistema a matrice E11= , E12 =, …, EMn = .

Sia dato un sistema di vettori C1, c2, …, cfr (*). Viene chiamato il sottosistema di vettori da (*) Massimo linearmente indipendente Sottosistema Sistemi ( *) , se è linearmente indipendente, ma aggiungendo ad esso qualsiasi altro vettore di questo sistema, diventa linearmente dipendente. Se il sistema (*) è finito, allora ciascuno dei suoi sottosistemi linearmente indipendenti massimi contiene lo stesso numero di vettori. (Dimostralo tu stesso). Viene chiamato il numero di vettori nel massimo sottosistema linearmente indipendente del sistema (*) Rango Questo sistema. Ovviamente, sistemi equivalenti di vettori hanno gli stessi ranghi.

Teorema 1. (Sull'indipendenza lineare dei vettori ortogonali). Sia allora il sistema di vettori linearmente indipendente.

Realizziamo una combinazione lineare ∑λ i x i =0 e consideriamo il prodotto scalare (x j , ∑λ i x i)=λ j ||x j || 2 =0, ma ||x j || 2 ≠0⇒λ j =0.

Definizione 1. Sistema vettorialeoppure (e i ,e j)=δ ij - simbolo di Kronecker, chiamato ortonormale (ONS).

Definizione 2. Per un elemento x arbitrario di uno spazio euclideo a dimensione infinita arbitrario e un sistema ortonormale arbitrario di elementi, la serie di Fourier di un elemento x sul sistema è chiamata somma (serie) infinita formalmente composta della forma , in cui i numeri reali λ i sono detti coefficienti di Fourier dell'elemento x nel sistema, dove λ i =(x,e i).

Un commento. (Naturalmente sorge la domanda sulla convergenza di questa serie. Per studiare questo problema, fissiamo un numero arbitrario n e scopriamo cosa distingue l'n-esima somma parziale della serie di Fourier da qualsiasi altra combinazione lineare dei primi n elementi del sistema ortonormale.)

Teorema 2. Per ogni numero fisso n, tra tutte le somme della forma, l'ennesima somma parziale della serie di Fourier dell'elemento ha la deviazione più piccola dall'elemento x secondo la norma di un dato spazio euclideo

Tenendo conto dell'ortonormalità del sistema e della definizione del coefficiente di Fourier, possiamo scrivere


Il minimo di questa espressione si ottiene in c i =λ i, poiché in questo caso la prima somma non negativa a destra si annulla sempre, e i restanti termini non dipendono da c i.

Esempio. Consideriamo il sistema trigonometrico

nello spazio di tutte le funzioni integrabili di Riemann f(x) sul segmento [-π,π]. È facile verificare che si tratta di un ONS, e quindi la serie di Fourier della funzione f(x) ha la forma dove .

Un commento. (La serie trigonometrica di Fourier è solitamente scritta nella forma Poi )

Un ONS arbitrario in uno spazio euclideo a dimensione infinita senza presupposti aggiuntivi, in generale, non è una base di questo spazio. A livello intuitivo, senza dare definizioni rigide, descriveremo l'essenza della questione. In uno spazio euclideo arbitrario di dimensione infinita E, considera gli ONS, dove (e i ,e j)=δ ij è il simbolo di Kronecker. Sia M un sottospazio dello spazio euclideo, e k=M ⊥ sia un sottospazio ortogonale a M tale che lo spazio euclideo E=M+M ⊥ . La proiezione del vettore x∈E sul sottospazio M è il vettore ∈M, dove


Cercheremo quei valori dei coefficienti di dilatazione α k per i quali il residuo (residuo quadrato) h 2 =||x-|| 2 sarà il minimo:

h2 =||x-|| 2 =(x-,x-)=(x-∑α k e k ,x-∑α k e k)=(x,x)-2∑α k (x,e k)+(∑α k e k ,∑α k e k)= ||x|| 2 -2∑α k (x,e k)+∑α k 2 +∑(x,e k) 2 -∑(x,e k) 2 =||x|| 2 +∑(α k -(x,e k)) 2 -∑(x,e k) 2 .

È chiaro che questa espressione assumerà valore minimo in α k =0, che è banale, e in α k =(x,e k). Allora ρ min =||x|| 2 -∑α k2 ≥0. Da qui si ottiene la disuguaglianza di Bessel ∑α k 2 ||x|| 2. A ρ=0 un sistema ortonormale di vettori (ONS) è chiamato sistema ortonormale completo nel senso di Steklov (PONS). Da qui si ottiene l'uguaglianza di Steklov-Parseval ∑α k 2 =||x|| 2 - il “teorema di Pitagora” per spazi euclidei a dimensione infinita completi nel senso di Steklov. Ora bisognerebbe dimostrare che affinché qualsiasi vettore nello spazio sia rappresentato univocamente sotto forma di una serie di Fourier convergente ad esso, è necessario e sufficiente che valga l'uguaglianza di Steklov-Parseval. Il sistema di vettori pic=""> Forme ONB? Sistema di vettori Considerare la somma parziale delle serie Poi come la coda di una serie convergente. Pertanto il sistema di vettori è un PONS e forma un ONB.

Esempio. Sistema trigonometrico

nello spazio di tutte le funzioni integrabili con Riemann f(x) sul segmento [-π,π] è un PONS e forma un ONB.

Le funzioni vengono chiamate linearmente indipendente, Se

(è consentita solo una banale combinazione lineare di funzioni identicamente uguale a zero). Contrariamente all'indipendenza lineare dei vettori, qui la combinazione lineare è identica a zero e non all'uguaglianza. Ciò è comprensibile, poiché l'uguaglianza di una combinazione lineare a zero deve essere soddisfatta per qualsiasi valore dell'argomento.

Le funzioni vengono chiamate linearmente dipendente, se esiste un insieme di costanti diverso da zero (non tutte le costanti sono uguali a zero) tale che (esiste una combinazione lineare non banale di funzioni identicamente uguali a zero).

Teorema.Affinché le funzioni siano linearmente dipendenti è necessario e sufficiente che ciascuna di esse sia espressa linearmente attraverso le altre (rappresentate come una loro combinazione lineare).

Dimostra tu stesso questo teorema; è dimostrato allo stesso modo di un teorema simile sulla dipendenza lineare dei vettori.

Il determinante di Vronskij.

Il determinante di Wronski per le funzioni viene introdotto come un determinante le cui colonne sono le derivate di queste funzioni da zero (le funzioni stesse) all'ordine n-1.

.

Teorema. Se le funzioni sono linearmente dipendenti, quindi

Prova. Poiché le funzioni sono linearmente dipendenti, allora ognuno di essi è espresso linearmente attraverso gli altri, ad esempio,

L'identità può essere differenziata, quindi

Quindi la prima colonna del determinante di Wronski è espressa linearmente attraverso le restanti colonne, quindi il determinante di Wronski è identicamente uguale a zero.

Teorema.Affinché le soluzioni di un'equazione differenziale omogenea lineare dell'ordine n siano linearmente dipendenti è necessario e sufficiente che.

Prova. La necessità segue dal teorema precedente.

Adeguatezza. Fissiamo un punto. Poiché , le colonne del determinante calcolato a questo punto sono vettori linearmente dipendenti.

, che i rapporti siano soddisfatti

Poiché una combinazione lineare di soluzioni di un'equazione lineare omogenea è la sua soluzione, possiamo introdurre una soluzione della forma

Combinazione lineare di soluzioni con gli stessi coefficienti.

Si noti che questa soluzione soddisfa zero condizioni iniziali; ciò segue dal sistema di equazioni scritto sopra. Ma anche la soluzione banale di un'equazione lineare omogenea soddisfa le stesse condizioni iniziali nulle. Pertanto dal teorema di Cauchy segue che la soluzione introdotta è identicamente uguale a quella banale, quindi,

quindi le soluzioni sono linearmente dipendenti.

Conseguenza.Se il determinante di Wronski, costruito sulle soluzioni di un'equazione lineare omogenea, svanisce almeno in un punto, allora è identicamente uguale a zero.

Prova. Se , allora le soluzioni sono linearmente dipendenti, quindi, .

Teorema.1. Per la dipendenza lineare delle soluzioni è necessario e sufficiente(O ).

2. Per l'indipendenza lineare delle soluzioni è necessario e sufficiente.

Prova. La prima affermazione segue dal teorema e dal corollario dimostrato sopra. La seconda affermazione può essere facilmente dimostrata per contraddizione.

Sia le soluzioni linearmente indipendenti. Se , allora le soluzioni sono linearmente dipendenti. Contraddizione. Quindi, .

Permettere . Se le soluzioni sono linearmente dipendenti, allora , quindi, una contraddizione. Pertanto le soluzioni sono linearmente indipendenti.

Conseguenza.L'annullamento del determinante di Wronski in almeno un punto è un criterio per la dipendenza lineare delle soluzioni da un'equazione lineare omogenea.

La differenza tra il determinante di Wronski e lo zero è un criterio per l'indipendenza lineare delle soluzioni di un'equazione lineare omogenea.

Teorema.La dimensione dello spazio delle soluzioni di un'equazione lineare omogenea dell'ordine n è pari a n.

Prova.

a) Mostriamo che esistono n soluzioni linearmente indipendenti di un'equazione differenziale lineare omogenea dell'n-esimo ordine. Consideriamo le soluzioni , che soddisfa le seguenti condizioni iniziali:

...........................................................

Tali soluzioni esistono. Anzi, secondo il teorema di Cauchy, proprio nel punto passa attraverso un'unica curva integrale: la soluzione. Attraverso il punto la soluzione passa per il punto

- soluzione, attraverso un punto - soluzione.

Queste soluzioni sono linearmente indipendenti, poiché .

b) Mostriamo che qualsiasi soluzione di un'equazione lineare omogenea è espressa linearmente attraverso queste soluzioni (è la loro combinazione lineare).

Consideriamo due soluzioni. Uno: una soluzione arbitraria con condizioni iniziali . Giusto rapporto