Beweisen Sie, dass die Vektoren linear unabhängig sind. Lineare Abhängigkeit und lineare Unabhängigkeit eines Vektorsystems

Lassen L – linearer Raum über dem Feld R . Lassen A1, a2, …, an (*) endliches Vektorsystem aus L . Vektor IN = a1× A1 + a2× A2 + … + an× Ein (16) heißt Linearkombination von Vektoren ( *), oder sie sagen, dass es ein Vektor ist IN linear ausgedrückt durch ein Vektorsystem (*).

Definition 14. Das Vektorsystem (*) heißt Linear abhängig , genau dann, wenn es einen von Null verschiedenen Satz von Koeffizienten a1, a2, … gibt, so dass a1× A1 + a2× A2 + … + an× Ein = 0. Wenn a1× A1 + a2× A2 + … + an× Ein = 0 Û a1 = a2 = … = an = 0, dann heißt das System (*). Linear unabhängig.

Eigenschaften linearer Abhängigkeit und Unabhängigkeit.

10. Wenn ein Vektorsystem einen Nullvektor enthält, dann ist er linear abhängig.

In der Tat, wenn im System (*) der Vektor A1 = 0, Das ist 1× 0 + 0× A2 + … + 0 × An = 0 .

20. Wenn ein Vektorsystem zwei proportionale Vektoren enthält, dann ist es linear abhängig.

Lassen A1 = L×a2. Dann 1× A1 –l× A2 + 0× A3 + … + 0× A N= 0.

30. Ein endliches Vektorsystem (*) für n ³ 2 ist genau dann linear abhängig, wenn mindestens einer seiner Vektoren eine Linearkombination der übrigen Vektoren dieses Systems ist.

Þ Es sei (*) linear abhängig. Dann gibt es einen von Null verschiedenen Satz von Koeffizienten a1, a2, …, an, für den a1× A1 + a2× A2 + … + an× Ein = 0 . Ohne Beschränkung der Allgemeinheit können wir annehmen, dass a1 ¹ 0. Dann existiert A1 = ×a2× A2 + … + ×an× A N. Also, Vektor A1 ist eine lineare Kombination der verbleibenden Vektoren.

Ü Einer der Vektoren (*) sei eine Linearkombination der anderen. Wir können davon ausgehen, dass dies der erste Vektor ist, d.h. A1 = B2 A2+ … + Mrd A N, also (–1)× A1 + b2 A2+ … + Mrd A N= 0 , d. h. (*) ist linear abhängig.

Kommentar. Mit der letzten Eigenschaft können wir die lineare Abhängigkeit und Unabhängigkeit eines unendlichen Vektorsystems definieren.

Definition 15. Vektorsystem A1, a2, …, an , … (**) wird genannt Linear abhängig, Wenn mindestens einer seiner Vektoren eine Linearkombination einer endlichen Anzahl anderer Vektoren ist. Andernfalls wird das System (**) aufgerufen Linear unabhängig.

40. Ein endliches Vektorsystem ist genau dann linear unabhängig, wenn keiner seiner Vektoren durch die übrigen Vektoren linear ausgedrückt werden kann.

50. Wenn ein Vektorsystem linear unabhängig ist, dann ist auch jedes seiner Subsysteme linear unabhängig.

60. Wenn ein Teilsystem eines gegebenen Vektorsystems linear abhängig ist, dann ist auch das gesamte System linear abhängig.

Gegeben seien zwei Vektorsysteme A1, a2, …, an , … (16) und В1, В2, …, Вs, … (17). Wenn jeder Vektor des Systems (16) als lineare Kombination einer endlichen Anzahl von Vektoren des Systems (17) dargestellt werden kann, dann wird System (17) als linear ausgedrückt durch System (16) bezeichnet.

Definition 16. Die beiden Vektorsysteme werden aufgerufen Äquivalent , wenn jeder von ihnen linear durch den anderen ausgedrückt wird.

Satz 9 (grundlegender linearer Abhängigkeitssatz).

Lass es sein – zwei endliche Vektorsysteme aus L . Wenn das erste System linear unabhängig ist und durch das zweite linear ausgedrückt wird, dann N£s.

Nachweisen. Tun wir mal so N> S. Gemäß den Bedingungen des Satzes

(21)

Da das System linear unabhängig ist, gilt die Gleichung (18) Û X1=x2=…=xN= 0. Ersetzen wir hier die Ausdrücke der Vektoren: …+=0 (19). Daher (20). Die Bedingungen (18), (19) und (20) sind offensichtlich gleichwertig. Aber (18) ist nur dann erfüllt, wenn X1=x2=…=xN= 0. Finden wir heraus, wann Gleichheit (20) wahr ist. Wenn alle seine Koeffizienten Null sind, dann ist es offensichtlich wahr. Wenn wir sie mit Null gleichsetzen, erhalten wir das System (21). Da dieses System null hat, dann ist es

gemeinsam Da die Anzahl der Gleichungen größer ist als die Anzahl der Unbekannten, hat das System unendlich viele Lösungen. Daher hat es einen Wert ungleich Null X10, x20, …, xN0. Für diese Werte gilt die Gleichung (18), was der Tatsache widerspricht, dass das Vektorsystem linear unabhängig ist. Unsere Annahme ist also falsch. Somit, N£s.

Folge. Wenn zwei äquivalente Vektorsysteme endlich und linear unabhängig sind, dann enthalten sie die gleiche Anzahl von Vektoren.

Definition 17. Das Vektorsystem heißt Maximales linear unabhängiges Vektorsystem Linearer Raum L , wenn es linear unabhängig ist, aber beim Hinzufügen eines beliebigen Vektors von L , nicht in diesem System enthalten, wird es linear abhängig.

Satz 10. Zwei beliebige endliche maximale linear unabhängige Vektorsysteme aus L Enthalten die gleiche Anzahl von Vektoren.

Nachweisen folgt aus der Tatsache, dass zwei beliebige maximal linear unabhängige Vektorsysteme äquivalent sind .

Es ist leicht zu beweisen, dass jedes linear unabhängige System von Raumvektoren existiert L kann zu einem maximal linear unabhängigen Vektorsystem in diesem Raum erweitert werden.

Beispiele:

1. In der Menge aller kollinearen geometrischen Vektoren ist jedes System, das aus einem Vektor ungleich Null besteht, maximal linear unabhängig.

2. In der Menge aller koplanaren geometrischen Vektoren bilden zwei beliebige nichtkollineare Vektoren ein maximal linear unabhängiges System.

3. In der Menge aller möglichen geometrischen Vektoren des dreidimensionalen euklidischen Raums ist jedes System aus drei nichtkoplanaren Vektoren maximal linear unabhängig.

4. In der Menge aller Polynome sind die Grade nicht höher als N Mit reellen (komplexen) Koeffizienten ein System von Polynomen 1, x, x2, … , xn Ist maximal linear unabhängig.

5. In der Menge aller Polynome mit reellen (komplexen) Koeffizienten gibt es Beispiele für ein maximal linear unabhängiges System

A) 1, x, x2, ... , xn, ... ;

B) 1, (1 – x), (1 – x)2, … , (1 – x)N, ...

6. Satz Dimensionsmatrizen M´ N ist ein linearer Raum (überprüfen Sie dies). Ein Beispiel für ein maximal linear unabhängiges System in diesem Raum ist das Matrixsystem E11= , E12 =, …, EMn = .

Gegeben sei ein System von Vektoren C1, c2, …, vgl (*). Das Subsystem der Vektoren aus (*) heißt Maximal linear unabhängig Teilsystem Systeme ( *) , wenn es linear unabhängig ist, aber wenn man ihm einen anderen Vektor dieses Systems hinzufügt, wird es linear abhängig. Wenn das System (*) endlich ist, enthält jedes seiner maximal linear unabhängigen Teilsysteme die gleiche Anzahl von Vektoren. (Beweisen Sie es selbst). Die Anzahl der Vektoren im maximal linear unabhängigen Teilsystem des Systems (*) wird aufgerufen Rang Dieses System. Offensichtlich haben äquivalente Vektorsysteme die gleichen Ränge.

Definition. Linearkombination von Vektoren a 1 , ..., a n mit den Koeffizienten x 1 , ..., x n wird als Vektor bezeichnet

x 1 ein 1 + ... + x n ein n .

trivial, wenn alle Koeffizienten x 1 , ..., x n gleich Null sind.

Definition. Die Linearkombination x 1 a 1 + ... + x n a n heißt nicht trivial, wenn mindestens einer der Koeffizienten x 1, ..., x n ungleich Null ist.

linear unabhängig, wenn es keine nichttriviale Kombination dieser Vektoren gibt, die dem Nullvektor entspricht.

Das heißt, die Vektoren a 1, ..., a n sind linear unabhängig, wenn x 1 a 1 + ... + x n a n = 0 genau dann, wenn x 1 = 0, ..., x n = 0.

Definition. Die Vektoren a 1, ..., a n heißen linear abhängig, wenn es eine nicht triviale Kombination dieser Vektoren gibt, die dem Nullvektor entspricht.

Eigenschaften linear abhängiger Vektoren:

    Für 2- und dreidimensionale Vektoren.

    Zwei linear abhängige Vektoren sind kollinear. (Kolineare Vektoren sind linear abhängig.)

    Für dreidimensionale Vektoren.

    Drei linear abhängige Vektoren sind koplanar. (Drei koplanare Vektoren sind linear abhängig.)

  • Für n-dimensionale Vektoren.

    n + 1 Vektoren sind immer linear abhängig.

Beispiele für Probleme zur linearen Abhängigkeit und linearen Unabhängigkeit von Vektoren:

Beispiel 1. Überprüfen Sie, ob die Vektoren a = (3; 4; 5), b = (-3; 0; 5), c = (4; 4; 4), d = (3; 4; 0) linear unabhängig sind .

Lösung:

Die Vektoren sind linear abhängig, da die Dimension der Vektoren kleiner ist als die Anzahl der Vektoren.

Beispiel 2. Überprüfen Sie, ob die Vektoren a = (1; 1; 1), b = (1; 2; 0), c = (0; -1; 1) linear unabhängig sind.

Lösung:

x 1 + x 2 = 0
x 1 + 2x 2 - x 3 = 0
x 1 + x 3 = 0
1 1 0 0 ~
1 2 -1 0
1 0 1 0
~ 1 1 0 0 ~ 1 1 0 0 ~
1 - 1 2 - 1 -1 - 0 0 - 0 0 1 -1 0
1 - 1 0 - 1 1 - 0 0 - 0 0 -1 1 0

subtrahiere die zweite von der ersten Zeile; Fügen Sie der dritten Zeile eine zweite Zeile hinzu:

~ 1 - 0 1 - 1 0 - (-1) 0 - 0 ~ 1 0 1 0
0 1 -1 0 0 1 -1 0
0 + 0 -1 + 1 1 + (-1) 0 + 0 0 0 0 0

Diese Lösung zeigt, dass das System viele Lösungen hat, das heißt, es gibt eine Kombination von Werten der Zahlen x 1, x 2, x 3 ungleich Null, so dass die Linearkombination der Vektoren a, b, c gleich ist der Nullvektor, zum Beispiel:

A+b+c=0

und das bedeutet, dass die Vektoren a, b, c linear abhängig sind.

Antwort: Vektoren a, b, c sind linear abhängig.

Beispiel 3. Überprüfen Sie, ob die Vektoren a = (1; 1; 1), b = (1; 2; 0), c = (0; -1; 2) linear unabhängig sind.

Lösung: Finden wir die Werte der Koeffizienten, bei denen die Linearkombination dieser Vektoren gleich dem Nullvektor ist.

x 1 a + x 2 b + x 3 c 1 = 0

Diese Vektorgleichung kann als lineares Gleichungssystem geschrieben werden

x 1 + x 2 = 0
x 1 + 2x 2 - x 3 = 0
x 1 + 2x 3 = 0

Lösen wir dieses System mit der Gauß-Methode

1 1 0 0 ~
1 2 -1 0
1 0 2 0

subtrahiere die erste von der zweiten Zeile; subtrahiere die erste von der dritten Zeile:

~ 1 1 0 0 ~ 1 1 0 0 ~
1 - 1 2 - 1 -1 - 0 0 - 0 0 1 -1 0
1 - 1 0 - 1 2 - 0 0 - 0 0 -1 2 0

subtrahiere die zweite von der ersten Zeile; Fügen Sie der dritten Zeile eine Sekunde hinzu.

Mit anderen Worten bedeutet die lineare Abhängigkeit einer Gruppe von Vektoren, dass es unter ihnen einen Vektor gibt, der durch eine Linearkombination anderer Vektoren in dieser Gruppe dargestellt werden kann.

Sagen wir. Dann

Daher der Vektor X linear abhängig von den Vektoren dieser Gruppe.

Vektoren X, j, ..., z heißen linear unabhängige Vektoren, wenn aus Gleichheit (0) folgt, dass

α=β= ...= γ=0.

Das heißt, Gruppen von Vektoren sind linear unabhängig, wenn kein Vektor durch eine Linearkombination anderer Vektoren in dieser Gruppe dargestellt werden kann.

Bestimmung der linearen Abhängigkeit von Vektoren

Gegeben seien m Stringvektoren der Ordnung n:

Nachdem wir eine Gaußsche Ausnahme gemacht haben, reduzieren wir die Matrix (2) auf die obere Dreiecksform. Die Elemente der letzten Spalte ändern sich nur, wenn die Zeilen neu angeordnet werden. Nach m Eliminierungsschritten erhalten wir:

Wo ich 1 , ich 2 , ..., ich m – Zeilenindizes, die aus einer möglichen Zeilenumordnung erhalten werden. Betrachtet man die resultierenden Zeilen aus den Zeilenindizes, schließen wir diejenigen aus, die dem Nullzeilenvektor entsprechen. Die übrigen Linien bilden linear unabhängige Vektoren. Beachten Sie, dass Sie beim Zusammenstellen der Matrix (2) durch Ändern der Reihenfolge der Zeilenvektoren eine weitere Gruppe linear unabhängiger Vektoren erhalten können. Aber der Unterraum, den diese beiden Vektorgruppen bilden, fällt zusammen.

Von uns vorgestellt lineare Operationen auf Vektoren ermöglichen die Erstellung verschiedener Ausdrücke für Vektorgrößen und transformieren Sie sie mithilfe der für diese Operationen festgelegten Eigenschaften.

Basierend auf einem gegebenen Satz von Vektoren a 1, ..., a n können Sie einen Ausdruck der Form erstellen

wobei a 1, ... und n beliebige reelle Zahlen sind. Dieser Ausdruck heißt lineare Kombination von Vektoren a 1, ..., a n. Die Zahlen α i, i = 1, n, repräsentieren Linearkombinationskoeffizienten. Man nennt auch eine Menge von Vektoren System von Vektoren.

Im Zusammenhang mit dem eingeführten Konzept einer Linearkombination von Vektoren stellt sich das Problem, eine Menge von Vektoren zu beschreiben, die als Linearkombination eines gegebenen Vektorsystems a 1, ..., a n geschrieben werden kann. Darüber hinaus stellen sich natürlich Fragen nach den Bedingungen, unter denen es eine Darstellung eines Vektors in Form einer Linearkombination gibt, und nach der Einzigartigkeit einer solchen Darstellung.

Definition 2.1. Es werden die Vektoren a 1, ... und n aufgerufen linear abhängig, wenn es einen Satz von Koeffizienten α 1 , ... , α n gibt, so dass

α 1 a 1 + ... + α n à n = 0 (2.2)

und mindestens einer dieser Koeffizienten ist ungleich Null. Wenn der angegebene Koeffizientensatz nicht existiert, werden die Vektoren aufgerufen linear unabhängig.

Wenn α 1 = ... = α n = 0, dann gilt offensichtlich α 1 a 1 + ... + α n a n = 0. Vor diesem Hintergrund können wir Folgendes sagen: Vektoren a 1, ... und n sind linear unabhängig, wenn aus Gleichung (2.2) folgt, dass alle Koeffizienten α 1 , ... , α n gleich Null sind.

Der folgende Satz erklärt, warum das neue Konzept den Begriff „Abhängigkeit“ (oder „Unabhängigkeit“) trägt, und liefert ein einfaches Kriterium für lineare Abhängigkeit.

Satz 2.1. Damit die Vektoren a 1, ... und n, n > 1 linear abhängig sind, ist es notwendig und ausreichend, dass einer von ihnen eine Linearkombination der anderen ist.

◄ Notwendigkeit. Nehmen wir an, dass die Vektoren a 1, ... und n linear abhängig sind. Gemäß Definition 2.1 der linearen Abhängigkeit gibt es in Gleichheit (2.2) auf der linken Seite mindestens einen Koeffizienten ungleich Null, zum Beispiel α 1. Wir lassen den ersten Term auf der linken Seite der Gleichheit und verschieben den Rest auf die rechte Seite, wobei wir wie üblich ihre Vorzeichen ändern. Wenn wir die resultierende Gleichheit durch α 1 dividieren, erhalten wir

a 1 =-α 2 /α 1 ⋅ a 2 - ... - α n /α 1 ⋅ a n

diese. Darstellung des Vektors a 1 als Linearkombination der übrigen Vektoren a 2, ..., a n.

Angemessenheit. Der erste Vektor a 1 lässt sich beispielsweise als Linearkombination der übrigen Vektoren darstellen: a 1 = β 2 a 2 + ... + β n a n. Wenn wir alle Terme von der rechten Seite nach links übertragen, erhalten wir a 1 - β 2 a 2 - ... - β n a n = 0, d.h. eine lineare Kombination von Vektoren a 1, ..., a n mit Koeffizienten α 1 = 1, α 2 = - β 2, ..., α n = - β n, gleich Nullvektor. In dieser Linearkombination sind nicht alle Koeffizienten Null. Nach Definition 2.1 sind die Vektoren a 1, ... und n linear abhängig.

Die Definition und das Kriterium der linearen Abhängigkeit werden so formuliert, dass sie das Vorhandensein von zwei oder mehr Vektoren implizieren. Wir können jedoch auch von einer linearen Abhängigkeit eines Vektors sprechen. Um diese Möglichkeit zu realisieren, müssen Sie statt „Vektoren sind linear abhängig“ sagen: „Das Vektorsystem ist linear abhängig.“ Es ist leicht zu erkennen, dass der Ausdruck „ein System aus einem Vektor ist linear abhängig“ bedeutet, dass dieser einzelne Vektor Null ist (in einer Linearkombination gibt es nur einen Koeffizienten und dieser sollte nicht gleich Null sein).

Das Konzept der linearen Abhängigkeit hat eine einfache geometrische Interpretation. Die folgenden drei Aussagen verdeutlichen diese Interpretation.

Satz 2.2. Zwei Vektoren sind genau dann linear abhängig, wenn sie kollinear.

◄ Wenn die Vektoren a und b linear abhängig sind, dann wird einer von ihnen, zum Beispiel a, durch den anderen ausgedrückt, d.h. a = λb für eine reelle Zahl λ. Gemäß Definition 1.7 funktioniert Vektoren pro Zahl, die Vektoren a und b sind kollinear.

Seien nun die Vektoren a und b kollinear. Wenn beide Null sind, ist es offensichtlich, dass sie linear abhängig sind, da jede lineare Kombination von ihnen gleich dem Nullvektor ist. Einer dieser Vektoren sei ungleich 0, zum Beispiel Vektor b. Bezeichnen wir mit λ das Verhältnis der Vektorlängen: λ = |a|/|b|. Kollineare Vektoren können sein unidirektional oder entgegengesetzt gerichtet. Im letzteren Fall ändern wir das Vorzeichen von λ. Wenn wir dann Definition 1.7 überprüfen, sind wir überzeugt, dass a = λb. Nach Satz 2.1 sind die Vektoren a und b linear abhängig.

Bemerkung 2.1. Im Fall zweier Vektoren lässt sich der bewährte Satz unter Berücksichtigung des Kriteriums der linearen Abhängigkeit wie folgt umformulieren: Zwei Vektoren sind genau dann kollinear, wenn einer von ihnen als Produkt des anderen durch eine Zahl dargestellt wird. Dies ist ein praktisches Kriterium für die Kollinearität zweier Vektoren.

Satz 2.3. Drei Vektoren sind genau dann linear abhängig, wenn sie koplanar.

◄ Wenn drei Vektoren a, b, c linear abhängig sind, dann ist nach Satz 2.1 einer von ihnen, zum Beispiel a, eine Linearkombination der anderen: a = βb + γc. Kombinieren wir die Ursprünge der Vektoren b und c am Punkt A. Dann haben die Vektoren βb, γс einen gemeinsamen Ursprung am Punkt A und entlang Nach der Parallelogrammregel beträgt ihre Summe diese. Vektor a wird ein Vektor mit Ursprung A und sein das Ende, der der Scheitelpunkt eines Parallelogramms ist, das aus Komponentenvektoren aufgebaut ist. Somit liegen alle Vektoren in derselben Ebene, also koplanar.

Die Vektoren a, b, c seien koplanar. Wenn einer dieser Vektoren Null ist, ist es offensichtlich, dass es sich um eine Linearkombination der anderen handelt. Es reicht aus, alle Koeffizienten einer Linearkombination gleich Null anzunehmen. Daher können wir davon ausgehen, dass alle drei Vektoren nicht Null sind. kompatibel gestartet dieser Vektoren an einem gemeinsamen Punkt O. Ihre Enden seien die Punkte A, B bzw. C (Abb. 2.1). Durch Punkt C zeichnen wir Linien parallel zu Linien, die durch Punktepaare O, A und O, B verlaufen. Indem wir die Schnittpunkte als A" und B" bezeichnen, erhalten wir ein Parallelogramm OA"CB", also OC" = OA" + OB". Der Vektor OA" und der Nicht-Null-Vektor a = OA sind kollinear, und daher kann der erste von ihnen durch Multiplikation des zweiten mit einer reellen Zahl α:OA" = αOA erhalten werden. Ebenso gilt OB" = βOB, β ∈ R. Als Ergebnis erhalten wir OC" = α OA. + βOB, d. h. Vektor c ist eine Linearkombination der Vektoren a und b. Nach Satz 2.1 sind die Vektoren a, b, c linear abhängig.

Satz 2.4. Alle vier Vektoren sind linear abhängig.

◄ Wir führen den Beweis nach dem gleichen Schema wie in Satz 2.3 durch. Betrachten Sie beliebige vier Vektoren a, b, c und d. Wenn einer der vier Vektoren Null ist oder es zwei kollineare Vektoren unter ihnen gibt oder drei der vier Vektoren koplanar sind, dann sind diese vier Vektoren linear abhängig. Wenn beispielsweise die Vektoren a und b kollinear sind, können wir ihre Linearkombination αa + βb = 0 mit Koeffizienten ungleich Null erstellen und dann die verbleibenden zwei Vektoren zu dieser Kombination hinzufügen, wobei wir Nullen als Koeffizienten verwenden. Wir erhalten eine lineare Kombination von vier Vektoren gleich 0, in denen es Koeffizienten ungleich Null gibt.

Daher können wir davon ausgehen, dass unter den ausgewählten vier Vektoren kein Vektor Null ist, keine zwei kollinear sind und keine drei koplanar sind. Wählen wir Punkt O als gemeinsamen Anfang. Dann sind die Enden der Vektoren a, b, c, d einige Punkte A, B, C, D (Abb. 2.2). Durch Punkt D zeichnen wir drei Ebenen parallel zu den Ebenen OBC, OCA, OAB und seien A“, B“, C“ die Schnittpunkte dieser Ebenen mit den Geraden OA, OB, OS. Wir erhalten a Parallelepiped OA" C "B" C" B"DA", und die Vektoren a, b, c liegen auf seinen Kanten, die vom Scheitelpunkt O ausgehen. Da das Viereck OC"DC" ein Parallelogramm ist, gilt OD = OC" + OC „Das Segment OC“ wiederum ist ein Parallelogramm OA“C“B“, also OC“ = OA“ + OB“ und OD = OA“ + OB“ + OC“.

Es bleibt zu beachten, dass die Vektorpaare OA ≠ 0 und OA" , OB ≠ 0 und OB" , OC ≠ 0 und OC" kollinear sind und es daher möglich ist, die Koeffizienten α, β, γ so auszuwählen OA" = αOA , OB" = βOB und OC" = γOC. Wir erhalten schließlich OD = αOA + βOB + γOC. Folglich wird der OD-Vektor durch die anderen drei Vektoren ausgedrückt, und alle vier Vektoren sind gemäß Satz 2.1 linear abhängig.

A 1 = { 3, 5, 1 , 4 }, A 2 = { –2, 1, -5 , -7 }, A 3 = { -1, –2, 0, –1 }.

Lösung. Wir suchen nach einer allgemeinen Lösung des Gleichungssystems

A 1 X 1 + A 2 X 2 + A 3 X 3 = Θ

Gauß-Methode. Dazu schreiben wir dieses homogene System in Koordinaten:

Systemmatrix

Das erlaubte System hat die Form: (r A = 2, N= 3). Das System ist kooperativ und unsicher. Seine allgemeine Lösung ( X 2 – freie Variable): X 3 = 13X 2 ; 3X 1 – 2X 2 – 13X 2 = 0 => X 1 = 5X 2 => X o = . Das Vorhandensein einer bestimmten Lösung ungleich Null zeigt beispielsweise an, dass die Vektoren A 1 , A 2 , A 3 linear abhängig.

Beispiel 2.

Finden Sie heraus, ob ein gegebenes Vektorsystem linear abhängig oder linear unabhängig ist:

1. A 1 = { -20, -15, - 4 }, A 2 = { –7, -2, -4 }, A 3 = { 3, –1, –2 }.

Lösung. Betrachten Sie ein homogenes Gleichungssystem A 1 X 1 + A 2 X 2 + A 3 X 3 = Θ

oder in erweiterter Form (nach Koordinaten)

Das System ist homogen. Wenn es nicht degeneriert ist, hat es eine eindeutige Lösung. Im Fall eines homogenen Systems gibt es eine Nulllösung (trivial). Das bedeutet, dass in diesem Fall das Vektorsystem unabhängig ist. Wenn das System entartet ist, hat es Lösungen ungleich Null und ist daher abhängig.

Wir prüfen das System auf Entartung:

= –80 – 28 + 180 – 48 + 80 – 210 = – 106 ≠ 0.

Das System ist nicht entartet und damit auch die Vektoren A 1 , A 2 , A 3 linear unabhängig.

Aufgaben. Finden Sie heraus, ob ein gegebenes Vektorsystem linear abhängig oder linear unabhängig ist:

1. A 1 = { -4, 2, 8 }, A 2 = { 14, -7, -28 }.

2. A 1 = { 2, -1, 3, 5 }, A 2 = { 6, -3, 3, 15 }.

3. A 1 = { -7, 5, 19 }, A 2 = { -5, 7 , -7 }, A 3 = { -8, 7, 14 }.

4. A 1 = { 1, 2, -2 }, A 2 = { 0, -1, 4 }, A 3 = { 2, -3, 3 }.

5. A 1 = { 1, 8 , -1 }, A 2 = { -2, 3, 3 }, A 3 = { 4, -11, 9 }.

6. A 1 = { 1, 2 , 3 }, A 2 = { 2, -1 , 1 }, A 3 = { 1, 3, 4 }.

7. A 1 = {0, 1, 1 , 0}, A 2 = {1, 1 , 3, 1}, A 3 = {1, 3, 5, 1}, A 4 = {0, 1, 1, -2}.

8. A 1 = {-1, 7, 1 , -2}, A 2 = {2, 3 , 2, 1}, A 3 = {4, 4, 4, -3}, A 4 = {1, 6, -11, 1}.

9. Beweisen Sie, dass ein Vektorsystem linear abhängig ist, wenn es Folgendes enthält:

a) zwei gleiche Vektoren;

b) zwei proportionale Vektoren.