Lineare Abhängigkeit und Unabhängigkeit. Lineare Abhängigkeit und Unabhängigkeit, Eigenschaften, Untersuchung eines Vektorsystems für lineare Abhängigkeit, Beispiele und Lösungen Linearer Unabhängigkeitssatz

Lemma 1 : Wenn in einer Matrix der Größe n n mindestens eine Zeile (Spalte) Null ist, dann sind die Zeilen (Spalten) der Matrix linear abhängig.

Nachweisen: Dann sei die erste Zeile Null

Wo ein 1 0. Das war erforderlich.

Definition: Eine Matrix, deren Elemente unterhalb der Hauptdiagonale gleich Null sind, heißt dreieckig:

und ij = 0, i>j.

Lemma 2: Die Determinante einer Dreiecksmatrix ist gleich dem Produkt der Elemente der Hauptdiagonale.

Der Beweis lässt sich leicht durch Induktion über die Dimension der Matrix durchführen.

Satz zur linearen Unabhängigkeit von Vektoren.

A)Notwendigkeit: linear abhängig D=0 .

Nachweisen: Lassen Sie sie linear abhängig sein, j=,

das heißt, es gibt ein j, nicht alle gleich Null, j= , Was a 1 A 1 + a 2 A 2 + ... a n A n = , A j – Matrixspalten A. Lassen Sie zum Beispiel a n¹0.

Wir haben a j * = a j / a n , j£ n-1a 1 * A 1 + a 2 * A 2 + ... a n -1 * A n -1 + A n = .

Ersetzen wir die letzte Spalte der Matrix A An

A n * = a 1 * A 1 + a 2 * A 2 + ... a n -1 A n -1 + A n = .

Gemäß der oben nachgewiesenen Eigenschaft der Determinante (sie ändert sich nicht, wenn einer beliebigen Spalte in der Matrix eine weitere Spalte multipliziert mit einer Zahl hinzugefügt wird) ist die Determinante der neuen Matrix gleich der Determinante der ursprünglichen Matrix. Aber in der neuen Matrix ist eine Spalte Null, was bedeutet, dass wir, wenn wir die Determinante über diese Spalte erweitern, erhalten D=0, Q.E.D.

B)Angemessenheit: Größenmatrix nnmit linear unabhängigen Reihen Es kann jederzeit durch Transformationen, die den Absolutwert der Determinante nicht verändern, auf eine Dreiecksform reduziert werden. Darüber hinaus folgt aus der Unabhängigkeit der Zeilen der ursprünglichen Matrix, dass ihre Determinante gleich Null ist.

1. Wenn in der Größenmatrix nn mit linear unabhängigem Zeilenelement eine 11 gleich Null ist, dann die Spalte, deren Element a 1 j ¹ 0. Nach Lemma 1 existiert ein solches Element. Die Determinante der transformierten Matrix darf sich von der Determinante der Originalmatrix nur im Vorzeichen unterscheiden.

2. Aus Zeilen mit Zahlen i>1 Subtrahieren Sie die erste Zeile multipliziert mit dem Bruch a i 1 /a 11. Darüber hinaus gibt es in der ersten Spalte Zeilen mit Zahlen i>1 Sie erhalten null Elemente.

3. Beginnen wir mit der Berechnung der Determinante der resultierenden Matrix, indem wir sie über die erste Spalte zerlegen. Da alle darin enthaltenen Elemente außer dem ersten gleich Null sind,

D neu = a 11 neu (-1) 1+1 D 11 neu,

Wo d 11 neu ist die Determinante einer Matrix kleinerer Größe.

Als nächstes berechnen wir die Determinante D 11 Wiederholen Sie die Schritte 1, 2, 3, bis sich herausstellt, dass die letzte Determinante die Determinante der Größenmatrix ist 1 1. Da Schritt 1 nur das Vorzeichen der Determinante der transformierten Matrix ändert und Schritt 2 den Wert der Determinante überhaupt nicht ändert, erhalten wir bis auf das Vorzeichen letztendlich die Determinante der ursprünglichen Matrix. Da in diesem Fall aufgrund der linearen Unabhängigkeit der Zeilen der Originalmatrix Schritt 1 immer erfüllt ist, erweisen sich alle Elemente der Hauptdiagonale als ungleich Null. Somit ist die endgültige Determinante gemäß dem beschriebenen Algorithmus gleich dem Produkt von Nicht-Null-Elementen auf der Hauptdiagonale. Daher ist die Determinante der ursprünglichen Matrix ungleich Null. Q.E.D.


Anlage 2

Im Folgenden werden mehrere Kriterien für die lineare Abhängigkeit und dementsprechend die lineare Unabhängigkeit von Vektorsystemen aufgeführt.

Satz. (Notwendige und hinreichende Bedingung für die lineare Abhängigkeit von Vektoren.)

Ein Vektorsystem ist genau dann abhängig, wenn einer der Vektoren des Systems linear durch die anderen dieses Systems ausgedrückt wird.

Nachweisen. Notwendigkeit. Das System sei linear abhängig. Dann stellt er per Definition den Nullvektor nicht trivial dar, d. h. Es gibt eine nicht triviale Kombination dieses Vektorsystems gleich dem Nullvektor:

wobei mindestens einer der Koeffizienten dieser Linearkombination ungleich Null ist. Lassen , .

Teilen wir beide Seiten der vorherigen Gleichheit durch diesen Koeffizienten ungleich Null (d. h. multiplizieren mit:

Bezeichnen wir: , wo .

diese. einer der Vektoren des Systems wird durch die anderen dieses Systems linear ausgedrückt usw.

Angemessenheit. Lassen Sie einen der Vektoren des Systems linear durch andere Vektoren dieses Systems ausgedrückt werden:

Verschieben wir den Vektor nach rechts von dieser Gleichheit:

Da der Koeffizient des Vektors gleich ist, haben wir eine nichttriviale Darstellung von Null durch ein Vektorsystem, was bedeutet, dass dieses Vektorsystem linear abhängig ist usw.

Der Satz ist bewiesen.

Folge.

1. Ein Vektorsystem in einem Vektorraum ist genau dann linear unabhängig, wenn keiner der Vektoren des Systems durch andere Vektoren dieses Systems linear ausgedrückt wird.

2. Ein Vektorsystem, das einen Nullvektor oder zwei gleiche Vektoren enthält, ist linear abhängig.

Nachweisen.

1) Notwendigkeit. Das System sei linear unabhängig. Nehmen wir das Gegenteil an und es gibt einen Vektor des Systems, der durch andere Vektoren dieses Systems linear ausgedrückt wird. Dann ist das System nach dem Satz linear abhängig und wir kommen zu einem Widerspruch.

Angemessenheit. Keiner der Vektoren des Systems soll durch die anderen ausgedrückt werden. Nehmen wir das Gegenteil an. Lassen Sie das System linear abhängig sein, aber dann folgt aus dem Satz, dass es einen Vektor des Systems gibt, der durch andere Vektoren dieses Systems linear ausgedrückt wird, und wir kommen wieder zu einem Widerspruch.

2a) Das System soll einen Nullvektor enthalten. Nehmen wir zur Bestimmtheit an, dass der Vektor :. Dann ist die Gleichheit offensichtlich

diese. Einer der Vektoren des Systems wird linear durch die anderen Vektoren dieses Systems ausgedrückt. Aus dem Satz folgt, dass ein solches Vektorsystem linear abhängig ist usw.

Beachten Sie, dass diese Tatsache direkt aus einem linear abhängigen Vektorsystem bewiesen werden kann.

Da ist die folgende Gleichheit offensichtlich

Dies ist eine nicht triviale Darstellung des Nullvektors, was bedeutet, dass das System linear abhängig ist.

2b) Das System habe zwei gleiche Vektoren. Lassen Sie für . Dann ist die Gleichheit offensichtlich

Diese. Der erste Vektor wird linear durch die übrigen Vektoren desselben Systems ausgedrückt. Aus dem Satz folgt, dass dieses System linear abhängig ist usw.

Ähnlich wie die vorherige kann diese Aussage direkt durch die Definition eines linear abhängigen Systems bewiesen werden. Dann repräsentiert dieses System den Nullvektor nicht trivial

woraus folgt die lineare Abhängigkeit des Systems.

Der Satz ist bewiesen.

Folge. Ein System, das aus einem Vektor besteht, ist genau dann linear unabhängig, wenn dieser Vektor ungleich Null ist.

Lassen L – linearer Raum über dem Feld R . Lassen A1, a2, …, an (*) endliches Vektorsystem aus L . Vektor IN = a1× A1 + a2× A2 + … + an× Ein (16) heißt Linearkombination von Vektoren ( *), oder sie sagen, dass es ein Vektor ist IN linear ausgedrückt durch ein Vektorsystem (*).

Definition 14. Das Vektorsystem (*) heißt Linear abhängig , genau dann, wenn es einen von Null verschiedenen Satz von Koeffizienten a1, a2, … gibt, so dass a1× A1 + a2× A2 + … + an× Ein = 0. Wenn a1× A1 + a2× A2 + … + an× Ein = 0 Û a1 = a2 = … = an = 0, dann heißt das System (*). Linear unabhängig.

Eigenschaften linearer Abhängigkeit und Unabhängigkeit.

10. Wenn ein Vektorsystem einen Nullvektor enthält, dann ist er linear abhängig.

In der Tat, wenn im System (*) der Vektor A1 = 0, Das ist 1× 0 + 0× A2 + … + 0 × An = 0 .

20. Wenn ein Vektorsystem zwei proportionale Vektoren enthält, dann ist es linear abhängig.

Lassen A1 = L×a2. Dann 1× A1 –l× A2 + 0× A3 + … + 0× A N= 0.

30. Ein endliches Vektorsystem (*) für n ³ 2 ist genau dann linear abhängig, wenn mindestens einer seiner Vektoren eine Linearkombination der übrigen Vektoren dieses Systems ist.

Þ Es sei (*) linear abhängig. Dann gibt es einen von Null verschiedenen Satz von Koeffizienten a1, a2, …, an, für den a1× A1 + a2× A2 + … + an× Ein = 0 . Ohne Beschränkung der Allgemeinheit können wir annehmen, dass a1 ¹ 0. Dann existiert A1 = ×a2× A2 + … + ×an× A N. Also, Vektor A1 ist eine lineare Kombination der verbleibenden Vektoren.

Ü Einer der Vektoren (*) sei eine Linearkombination der anderen. Wir können davon ausgehen, dass dies der erste Vektor ist, d.h. A1 = B2 A2+ … + Mrd A N, also (–1)× A1 + b2 A2+ … + Mrd A N= 0 , d. h. (*) ist linear abhängig.

Kommentar. Mit der letzten Eigenschaft können wir die lineare Abhängigkeit und Unabhängigkeit eines unendlichen Vektorsystems definieren.

Definition 15. Vektorsystem A1, a2, …, an , … (**) wird genannt Linear abhängig, Wenn mindestens einer seiner Vektoren eine Linearkombination einer endlichen Anzahl anderer Vektoren ist. Andernfalls wird das System (**) aufgerufen Linear unabhängig.

40. Ein endliches Vektorsystem ist genau dann linear unabhängig, wenn keiner seiner Vektoren durch die übrigen Vektoren linear ausgedrückt werden kann.

50. Wenn ein Vektorsystem linear unabhängig ist, dann ist auch jedes seiner Subsysteme linear unabhängig.

60. Wenn ein Teilsystem eines gegebenen Vektorsystems linear abhängig ist, dann ist auch das gesamte System linear abhängig.

Gegeben seien zwei Vektorsysteme A1, a2, …, an , … (16) und В1, В2, …, Вs, … (17). Wenn jeder Vektor des Systems (16) als lineare Kombination einer endlichen Anzahl von Vektoren des Systems (17) dargestellt werden kann, dann wird System (17) als linear ausgedrückt durch System (16) bezeichnet.

Definition 16. Die beiden Vektorsysteme werden aufgerufen Äquivalent , wenn jeder von ihnen durch den anderen linear ausgedrückt wird.

Satz 9 (grundlegender linearer Abhängigkeitssatz).

Lass es sein – zwei endliche Vektorsysteme aus L . Wenn das erste System linear unabhängig ist und durch das zweite linear ausgedrückt wird, dann N£s.

Nachweisen. Tun wir mal so N> S. Gemäß den Bedingungen des Satzes

(21)

Da das System linear unabhängig ist, gilt die Gleichung (18) Û X1=x2=…=xN= 0. Ersetzen wir hier die Ausdrücke der Vektoren: …+=0 (19). Daher (20). Die Bedingungen (18), (19) und (20) sind offensichtlich gleichwertig. Aber (18) ist nur dann erfüllt, wenn X1=x2=…=xN= 0. Finden wir heraus, wann Gleichheit (20) wahr ist. Wenn alle seine Koeffizienten Null sind, dann ist es offensichtlich wahr. Wenn wir sie mit Null gleichsetzen, erhalten wir das System (21). Da dieses System null hat, dann ist es

gemeinsam Da die Anzahl der Gleichungen größer ist als die Anzahl der Unbekannten, hat das System unendlich viele Lösungen. Daher hat es einen Wert ungleich Null X10, x20, …, xN0. Für diese Werte gilt die Gleichung (18), was der Tatsache widerspricht, dass das Vektorsystem linear unabhängig ist. Unsere Annahme ist also falsch. Somit, N£s.

Folge. Wenn zwei äquivalente Vektorsysteme endlich und linear unabhängig sind, dann enthalten sie die gleiche Anzahl von Vektoren.

Definition 17. Das Vektorsystem heißt Maximales linear unabhängiges Vektorsystem Linearer Raum L , wenn es linear unabhängig ist, aber beim Hinzufügen eines beliebigen Vektors von L , nicht in diesem System enthalten, wird es linear abhängig.

Satz 10. Zwei beliebige endliche maximale linear unabhängige Vektorsysteme aus L Enthalten die gleiche Anzahl von Vektoren.

Nachweisen folgt aus der Tatsache, dass zwei beliebige maximal linear unabhängige Vektorsysteme äquivalent sind .

Es ist leicht zu beweisen, dass jedes linear unabhängige System von Raumvektoren existiert L kann zu einem maximal linear unabhängigen Vektorsystem in diesem Raum erweitert werden.

Beispiele:

1. In der Menge aller kollinearen geometrischen Vektoren ist jedes System, das aus einem Vektor ungleich Null besteht, maximal linear unabhängig.

2. In der Menge aller koplanaren geometrischen Vektoren bilden zwei beliebige nichtkollineare Vektoren ein maximal linear unabhängiges System.

3. In der Menge aller möglichen geometrischen Vektoren des dreidimensionalen euklidischen Raums ist jedes System aus drei nichtkoplanaren Vektoren maximal linear unabhängig.

4. In der Menge aller Polynome sind die Grade nicht höher als N Mit reellen (komplexen) Koeffizienten ein System von Polynomen 1, x, x2, … , xn Ist maximal linear unabhängig.

5. In der Menge aller Polynome mit reellen (komplexen) Koeffizienten gibt es Beispiele für ein maximal linear unabhängiges System

A) 1, x, x2, … , xn, … ;

B) 1, (1 – x), (1 – x)2, … , (1 – x)N, ...

6. Satz Dimensionsmatrizen M´ N ist ein linearer Raum (überprüfen Sie dies). Ein Beispiel für ein maximal linear unabhängiges System in diesem Raum ist das Matrixsystem E11= , E12 =, …, EMn = .

Gegeben sei ein System von Vektoren C1, c2, …, vgl (*). Das Subsystem der Vektoren aus (*) heißt Maximal linear unabhängig Teilsystem Systeme ( *) , wenn es linear unabhängig ist, aber wenn man ihm einen anderen Vektor dieses Systems hinzufügt, wird es linear abhängig. Wenn das System (*) endlich ist, enthält jedes seiner maximal linear unabhängigen Teilsysteme die gleiche Anzahl von Vektoren. (Beweisen Sie es selbst). Die Anzahl der Vektoren im maximal linear unabhängigen Teilsystem des Systems (*) wird aufgerufen Rang Dieses System. Offensichtlich haben äquivalente Vektorsysteme die gleichen Ränge.

Satz 1. (Über die lineare Unabhängigkeit orthogonaler Vektoren). Dann sei das Vektorsystem linear unabhängig.

Machen wir eine lineare Kombination ∑λ i x i =0 und betrachten wir das Skalarprodukt (x j , ∑λ i x i)=λ j ||x j || 2 =0, aber ||x j || 2 ≠0⇒λ j =0.

Definition 1. Vektorsystemoder (e i ,e j)=δ ij - Kronecker-Symbol, wird Orthonormal (ONS) genannt.

Definition 2. Für ein beliebiges Element x eines beliebigen unendlichdimensionalen euklidischen Raums und eines beliebigen Orthonormalsystems von Elementen wird die Fourier-Reihe eines Elements x über dem System als formal zusammengesetzte unendliche Summe (Reihe) der Form bezeichnet , in dem die reellen Zahlen λ i als Fourier-Koeffizienten des Elements x im System bezeichnet werden, wobei λ i =(x,e i).

Ein Kommentar. (Es stellt sich natürlich die Frage nach der Konvergenz dieser Reihe. Um dieses Problem zu untersuchen, legen wir eine beliebige Zahl n fest und finden heraus, was die n-te Teilsumme der Fourier-Reihe von jeder anderen Linearkombination der ersten n Elemente des Orthonormalsystems unterscheidet.)

Satz 2. Für jede feste Zahl n weist unter allen Summen der Form die n-te Teilsumme der Fourier-Reihe des Elements die kleinste Abweichung vom Element x gemäß der Norm eines gegebenen euklidischen Raums auf

Unter Berücksichtigung der Orthonormalität des Systems und der Definition des Fourier-Koeffizienten können wir schreiben


Das Minimum dieses Ausdrucks wird bei c i =λ i erreicht, da in diesem Fall die nichtnegative erste Summe auf der rechten Seite immer verschwindet und die übrigen Terme nicht von c i abhängen.

Beispiel. Betrachten Sie das trigonometrische System

im Raum aller Riemann-integrierbaren Funktionen f(x) auf der Strecke [-π,π]. Es lässt sich leicht überprüfen, dass es sich um ein ONS handelt, und dann hat die Fourier-Reihe der Funktion f(x) die Form wo.

Ein Kommentar. (Die trigonometrische Fourier-Reihe wird üblicherweise in der Form geschrieben Dann )

Ein beliebiges ONS in einem unendlichdimensionalen euklidischen Raum ohne zusätzliche Annahmen ist im Allgemeinen keine Grundlage dieses Raums. Auf einer intuitiven Ebene, ohne strenge Definitionen zu geben, werden wir das Wesentliche der Sache beschreiben. Betrachten Sie in einem beliebigen unendlichdimensionalen euklidischen Raum E das ONS, wobei (e i ,e j)=δ ij das Kronecker-Symbol ist. Sei M ein Unterraum des euklidischen Raums und k=M ⊥ ein zu M orthogonaler Unterraum, so dass der euklidische Raum E=M+M ⊥ ist. Die Projektion des Vektors x∈E auf den Unterraum M ist der Vektor ∈M, wobei


Wir werden nach den Werten der Expansionskoeffizienten α k suchen, für die das Residuum (quadratisches Residuum) h 2 =||x-|| ist 2 wird das Minimum sein:

h 2 =||x-|| 2 =(x-,x-)=(x-∑α k e k ,x-∑α k e k)=(x,x)-2∑α k (x,e k)+(∑α k e k ,∑α k e k)= ||x|| 2 -2∑α k (x,e k)+∑α k 2 +∑(x,e k) 2 -∑(x,e k) 2 =||x|| 2 +∑(α k -(x,e k)) 2 -∑(x,e k) 2 .

Es ist klar, dass dieser Ausdruck einen minimalen Wert bei α k = 0 annimmt, was trivial ist, und bei α k = (x,ek). Dann ist ρ min =||x|| 2 -∑α k 2 ≥0. Von hier aus erhalten wir die Besselsche Ungleichung ∑α k 2 ||x|| 2. Bei ρ=0 Ein Orthonormalsystem von Vektoren (ONS) wird als vollständiges Orthonormalsystem im Sinne von Steklov (PONS) bezeichnet. Von hier aus können wir die Steklov-Parseval-Gleichheit ∑α k 2 =||x|| erhalten 2 - der „Satz des Pythagoras“ für unendlichdimensionale euklidische Räume, die im Sinne von Steklov vollständig sind. Nun müsste bewiesen werden, dass es notwendig und ausreichend ist, dass die Steklov-Parseval-Gleichheit gilt, damit jeder Vektor im Raum eindeutig in Form einer zu ihm konvergierenden Fourier-Reihe dargestellt werden kann. Das Vektorsystem pic=""> ONB bildet? Betrachten Sie das Vektorsystem für die Teilsumme der Reihe Dann wie der Schwanz einer konvergenten Reihe. Somit ist das Vektorsystem ein PONS und bildet ein ONB.

Beispiel. Trigonometrisches System

im Raum aller Riemann-integrierbaren Funktionen f(x) auf der Strecke [-π,π] ist ein PONS und bildet ein ONB.

Die Funktionen werden aufgerufen linear unabhängig, Wenn

(Zulässig ist nur eine triviale Linearkombination von Funktionen, die identisch gleich Null ist). Im Gegensatz zur linearen Unabhängigkeit von Vektoren ist hier die Linearkombination identisch mit Null und nicht gleich. Dies ist verständlich, da für jeden Wert des Arguments die Gleichheit einer Linearkombination mit Null erfüllt sein muss.

Die Funktionen werden aufgerufen linear abhängig, wenn es eine Menge von Konstanten ungleich Null gibt (nicht alle Konstanten sind gleich Null), so dass (es eine nicht triviale lineare Kombination von Funktionen gibt, die identisch gleich Null sind).

Satz.Damit Funktionen linear abhängig sind, ist es notwendig und ausreichend, dass eine von ihnen durch die anderen linear ausgedrückt wird (dargestellt als ihre Linearkombination).

Beweisen Sie diesen Satz selbst; er wird auf die gleiche Weise bewiesen wie ein ähnlicher Satz über die lineare Abhängigkeit von Vektoren.

Wronskis Determinante.

Die Wronski-Determinante für Funktionen wird als eine Determinante eingeführt, deren Spalten die Ableitungen dieser Funktionen von Null (den Funktionen selbst) bis zur n-1. Ordnung sind.

.

Satz. Wenn das funktioniert sind dann linear abhängig

Nachweisen. Da die Funktionen linear abhängig sind, dann wird jedes von ihnen linear durch die anderen ausgedrückt, zum Beispiel:

Die Identität kann also differenziert werden

Dann wird die erste Spalte der Wronski-Determinante linear durch die übrigen Spalten ausgedrückt, sodass die Wronski-Determinante identisch gleich Null ist.

Satz.Damit die Lösungen einer linearen homogenen Differentialgleichung n-ter Ordnung linear abhängig sind, ist es notwendig und ausreichend, dass.

Nachweisen. Die Notwendigkeit folgt aus dem vorherigen Satz.

Angemessenheit. Lassen Sie uns einen Punkt klären. Da die Spalten der an dieser Stelle berechneten Determinante linear abhängige Vektoren sind.

, dass die Beziehungen erfüllt sind

Da eine lineare Kombination von Lösungen einer linearen homogenen Gleichung deren Lösung ist, können wir eine Lösung der Form einführen

Eine lineare Kombination von Lösungen mit denselben Koeffizienten.

Beachten Sie, dass diese Lösung die Null-Anfangsbedingungen erfüllt; dies folgt aus dem obigen Gleichungssystem. Aber auch die triviale Lösung einer linearen homogenen Gleichung erfüllt die gleichen Null-Anfangsbedingungen. Daher folgt aus dem Satz von Cauchy, dass die eingeführte Lösung identisch mit der trivialen Lösung ist, also

daher sind die Lösungen linear abhängig.

Folge.Wenn die Wronski-Determinante, die auf Lösungen einer linearen homogenen Gleichung basiert, an mindestens einem Punkt verschwindet, ist sie identisch gleich Null.

Nachweisen. Wenn , dann sind die Lösungen linear abhängig, also .

Satz.1. Für die lineare Abhängigkeit von Lösungen ist es notwendig und ausreichend(oder ).

2. Für die lineare Unabhängigkeit von Lösungen ist sie notwendig und ausreichend.

Nachweisen. Die erste Aussage folgt aus dem oben bewiesenen Satz und der Folgerung. Die zweite Aussage lässt sich leicht durch Widerspruch beweisen.

Die Lösungen seien linear unabhängig. Wenn , dann sind die Lösungen linear abhängig. Widerspruch. Somit, .

Lassen . Wenn die Lösungen linear abhängig sind, dann , daher ein Widerspruch. Daher sind die Lösungen linear unabhängig.

Folge.Das Verschwinden der Wronski-Determinante an mindestens einem Punkt ist ein Kriterium für die lineare Abhängigkeit von Lösungen einer linearen homogenen Gleichung.

Der Unterschied zwischen der Wronski-Determinante und Null ist ein Kriterium für die lineare Unabhängigkeit von Lösungen einer linearen homogenen Gleichung.

Satz.Die Dimension des Lösungsraums einer linearen homogenen Gleichung n-ter Ordnung ist gleich n.

Nachweisen.

a) Zeigen wir, dass es n linear unabhängige Lösungen einer linearen homogenen Differentialgleichung n-ter Ordnung gibt. Lassen Sie uns über Lösungen nachdenken , die die folgenden Anfangsbedingungen erfüllen:

...........................................................

Es gibt solche Lösungen. Tatsächlich, nach dem Satz von Cauchy, durch den Punkt durchläuft eine einzelne Integralkurve – die Lösung. Durch den Punkt Die Lösung geht durch den Punkt

- Lösung, durch einen Punkt - Lösung .

Diese Lösungen sind seitdem linear unabhängig .

b) Zeigen wir, dass jede Lösung einer linearen homogenen Gleichung durch diese Lösungen linear ausgedrückt wird (ihre Linearkombination ist).

Betrachten wir zwei Lösungen. Erstens: eine beliebige Lösung mit Anfangsbedingungen . Faires Verhältnis