Mathematik Lineare Algebra

Lineare Mathematik Algebra

Es ist unser Anliegen, dass alle Studierenden die Konzepte der Hochschulmathematik verstehen und dass qualitativ hochwertige Bildungsmöglichkeiten frei verfügbar sind. Die Schönheit der Mathematik zum Sehen und Genießen. Lineare Algebra beschäftigt sich mit der mathematischen Struktur des Vektorraums, die durch die Abstraktion des Vektorrechners entsteht. Dieses Lehrbuch stellt die Grundlagen der linearen Algebra im Detail vor: Didaktik der Mathematik > Interaktive Mathematik >

Lineare Algebra.

mw-headline" id="Geschichte">Geschichte[Bearbeiten | < Quelltext bearbeiten]

Lineare Algebra (auch Vektoralgebra genannt) ist ein Zweig der Mathematik, der sich mit Vektorräumen und linienförmigen Zuordnungen zwischen ihnen beschäftigt.} Dazu gehört vor allem die Berücksichtigung von linienförmigen Gleichungen und Matrizes. Vectorräume und ihre lineare Zuordnung sind in vielen Gebieten der Mathematik ein wesentliches Werkzeug. Neben der rein mathematischen Forschung findet man Anwendungsgebiete in den Natur-, Computer- und Wirtschaftswissenschaften (z.B. in der Optimierung).

Das lineare Algebra ist aus zwei spezifischen Erfordernissen entstanden: zum einen die Lösung linearer Gleichungssysteme, zum anderen die rechnerische Darstellung von geometrischen Objekten, die sogenannte analytische geometrische Form (daher nennen einige Autorinnen und Autoren lineare Algebra-Lineargeometrie). In den Jahren 1843 und 1844 geht die Entwicklung der neuzeitlichen lineare Algebra zurück. 1843 erfand William Rowan Hamilton (von dem der Ausdruck Vector kommt ) eine Ergänzung der Komplexzahlen mit den Quadranten.

Hermann Graßmann published his book Die linear Aushnungslehre in 1844. Artus Cayley brachte dann 1857 eine der elementarsten mathematischen Vorstellungen mit der (2×2){\displaystyle (2\times 2)} Matrix ein. Vor allem die Matheiker August Ferdinand Möbius, Constantin Carathéodory und Hermann Weyl haben die Vorarbeiten geleistet. Zum Beispiel wurde herausgefunden, dass lineare Mappings zwischen endlichen dimensionalen Vectorräumen mit Hilfe von mathematischen Methoden beschreibbar sind.

Inwiefern muss eine 30%ige Losung (entspricht x1{\displaystyle x_{1}}) und eine 60%ige Losung (entspricht x2{\displaystyle x_{2}}) gemischt werden, um eine 40%ige L? Die essentielle Abstraktion der lineare Algebra liegt nun darin, die linke Seite als funktionale A{\displaystyle A} des bekannten x=(x1,x2){\displaystyle x=(x_{1},x_{2})} Anstelle von A{\displaystyle A} werden die entsprechenden Nummern als Rechteck notiert und das Teil wird als Matrize bezeichnet: ?x=(?x?x){\displaystyle \lambda x={\begin{pmatrix}\lambda x_{1}\\\\lambda x_{2}\end{pmatrix}}}.

Die andere Herkunft der lineare Algebra ist in der mathematischen Darstellung des 2- und 3-dimensionalen (euklidischen) Raums, auch "Betrachtungsraum" oder "view space" aufzuführen. Dem Positionsvektor, der vom Koordinatennullpunkt auf P{\displaystyle P} verweist, korrespondiert ein Point P{\displaystyle P}. Die meisten der in der antiken Lehre berücksichtigten Darstellungsarten, wie z.B. Rotationen um die Achse durch den Nullpunkt oder Reflexionen an den Flächen durch den Nullpunkt, zählen zur bereits erwähnten Gruppe der Lineardarstellungen Eine Vervielfachung der Vektorformen mit Bestandteilen eines festen Grundkörpers, die als skalare Vervielfachung (äußere Vervielfachung) bezeichnet wird.

Mit anderen Worten, Vektorflächen sind nur so weit begrenzt, dass man von linienförmigen Zuordnungen zwischen ihnen spricht. Das Konzept des Vektorraumes ist in gewisser Hinsicht bereits zu allgemeingültig für lineare Algebra. Dabei wird jede lineare Figur f:V?W{\displaystyle f\colon V\to W} einzigartig durch das Spezifizieren der Einzelbilder einer Base von {\displaystyle V} bestimmt.

Der homomorphe Satz und der Rang-Satz beziehen sich auf lineare Bilder. Linearbilder können durch Matrixen für feste Grundlagen wiedergegeben werden. Die Vervielfachung ihrer Abbildungsmatrizen korrespondiert mit der aufeinanderfolgenden Ausführung von Linearrepräsentationen. Eine lineare Gleichung A?x=b{\displaystyle A\cdot x=b} mit A?Km×n{\displaystyle A\in \mathbb {K} ist auflösbar, wenn der Wert der Grundmasse A{\displaystyle A} gleich dem Wert der verlängerten Koeffizientengrundmasse (Ab){\displaystyle {\begin{pmatrix}A&b\end{pmatrix}}} ist.

Ein linearer Figur f:V?V{\displaystyle f\colon V\to V} Das ist auch dann derselbe, wenn seine Bestimmungsgröße nicht gleich Null ist. Daraus ergibt sich, dass die Eigenwerte einer Endomorphose exakt die Nullen ihres typischen Vielecks sind. Eine Endomorphose (bzw. Quadratmatrix ) kann diagonalisiert werden, wenn das Merkmalspolynom in lineare Faktoren zerfällt und für jeden Eigenwert dessen uneigennützige Multiplizität gleich der Geometrie Multiplizität ist, d.h. die Nullordnung des Eigenwertes im Merkmalspolynom ist gleich der Größe des zugeordneten Eigenraums.

Gleichwertig ist die Tatsache, dass eine Grundlage des Vektorraums vorhanden ist, die aus den Eigenvektoren der Linearmapping -Technik zusammengesetzt ist. Endeomorphismen, deren typisches polynomiales Zerfallen in lineare Faktoren noch trigoniert, d.h. durch eine dreieckige Matrize repräsentiert werden kann. Etwas vertieft ergibt sich, dass die Matrize auch in jordanische Normalformen überführt werden kann.

Im konkreten Anwendungsfall trifft im Besonderen zu: Für jede symmetrische Matrize A?Rn×n{\displaystyle A\in \mathbb {\mathbb {\mathbb {R} Es gibt eine rechtwinklige Matrize Q{\displaystyle Q}, so dass QTAQ{\displaystyle Q^{T}AQ} eine diagonale Matrize ist. Wenn Sie dieses Resultat auf Quadratformen anwenden, erhalten Sie den Lehrsatz der Hauptachsumwandlung. Ein bilinearer Körper ist sowohl symetrisch als auch definitiv Positives, d.h. ein skalares Produkt, wenn seine repräsentative Matrize sinnfällig und definitiv Positives ist.

Ein symmetrischer Aufbau ist definitiv sicher, wenn alle seine Eigenwerte negativ sind. Ein " Gitter " von Ziffern kennzeichnet eine Matrize. Das ist eine Matrize mit vier Reihen und drei Spalten: Der zweite Bestandteil des obigen Vektor a{\displaystyle a} wäre dann in diesem Fall ein 2 = 7 {\displaystyle a_{2}=7}. Bei den Elementen handelt es sich um Kleinbuchstaben: m2,3=2{\displaystyle m_{2,3}=2} ist dasjenige in der zweiten Reihe der dritten Reihe (statt "in der dritten Reihe der zweiten Reihe", da dies m2,3{\displaystyle m_{2,3}} einfacher zu leserfreundlich macht).

In der Repräsentation einer Linearrepräsentation - wie unter Matrizen dargestellt - gibt es den Spezialfall einer Linearrepräsentation f{\displaystyle f} eines endlichen dimensionalen Vektorraumes auf sich selbst (einen sogenannten Endomorphismus). Dann kann man die gleiche Grundlage v{\displaystyle v} für Original- und Imagekoordinaten und eine Quadratmatrix A{\displaystyle A} erhalten, so dass die Applikation der geradlinigen Zuordnung der linken Multiplikation mit A{\displaystyle A} entspricht. Hierfür wird die Formel verwendet.

Der doppelte aufeinanderfolgende Ablauf dieser Zahl korrespondiert dann mit der Vervielfachung mit A2{\displaystyle A^{2}}, etc. und du kannst alle Polynomausdrücke mit A{\displaystyle A} verwenden. als lineare Mappings des Vektorraumes (Summen aus Multiplikatoren von Kräften des A{\displaystyle A}). In Analogie zur Berechnungsregel x0=1{\displaystyle x^{0}=1} für Ziffern ist die Nullleistung einer Quadratmatrix die diagonale Matrize E{\displaystyle E}.

Die Einheitsmatrix (unit matrix) mit einer Diagonale, in der alle übrigen Element null sind, korrespondiert mit der Identitätszuordnung jedes einzelnen Vektors auf sich selbst.

Für eine inversbare Grundmasse A{\displaystyle A} gibt es eine invertierte Grundmasse A-1{\displaystyle A^{-1}} mit A-1A=AA-1=E{\displaystyle A^{-1}A=AA^{-1}=E}. Ein Determinant ist eine Spezialfunktion, die einer Quadratmatrix eine Nummer zuweist.

Die Nummer gibt Aufschluss über einige Merkmale der Matrize. So kann z.B. bestimmt werden, ob eine Matrize invertiert werden kann. Ein weiterer wichtiger Anwendungsfall ist die Ermittlung des kennzeichnenden Vielecks und damit der Eigenwerte der Matrize. Die einfachste Methode zur Bestimmung von Bestimmungsgrößen ist in der Regel die Umwandlung der Matrize in eine höhere oder niedrigere Form des Dreiecks unter Verwendung des Gaußschen Algorithmus, wobei die Bestimmungsgröße lediglich das Ergebnis der Hauptdiagonalenlemente ist.

Wählen Sie f_{n-1}}\quad {\text{für}}\quad n\geq 1}, in dem die n{\displaystyle n}-th Leistung einer Matrize A{\displaystyle A} auftritt. Es ist nicht leicht zu verstehen, wie sich eine solche Matrize während der Potenzialisierung verhält; die n{\displayartige n}-te Leistung einer diagonalen Matrize wird jedoch durch einfache Potenzialisierung jedes individuellen diagonalen Eingangs errechnet. Gibt es nun eine inversbare Matrize T{\displaystyle T}, so dass T-1AT{\displaystyle T^{-1}AT}

diagonale Form hat, kann die Leistung von A{\displaystyle A} auf die Leistung einer diagonalen Matrize gemäß der Formel (T-1AT)n=T-1AnT{\displaystyle (T^{-1}AT)^{n}=T^{-1}A^{n}T} (die rechte ist dann die n{\displaystyle n}-th Leistung einer diagonalen Matrix) zurückgeführt werden. Im Allgemeinen erleichtert die Diagonale einer Matrize das Wiedererkennen ihres Verhaltens (in der Potentialisierung, aber auch in anderen Operationen).

Wenn die Transformationsmatrix T{\displaystyle T} die Basisänderungs-Matrix zu einer anderen Base ist, z. B. v' }, d. h. T=vev?{\displaystyle T={{}_{v}e_{v'}} (wobei die Identitätszuordnung e{\displaystyle e} jeden Vektordaten auf sich selbst abbildet). Der Wert ?{\displaystyle \phi } wird wegen dieser Besonderheit ein Eigenwert für die Grundmasse T-1AT{\displaystyle T^{-1}AT} genannt.

?\displaystyle \phi } ist auch der eigenständige Wert der Originalmatrix A{\displaystyle A} (mit Eigenvektor Tu{\displaystyle Tu}, da A(Tu)=?(Tu){\displaystyle A(Tu)=\phi (Tu)}), so dass die eigenständigen Werte während der Umwandlung der Matrize unveränderlich sind.

Dabei sind die Ziffern x{\displaystyle x} exakt diejenigen, die die Bestimmungsgröße der Matrize xE-A{\displaystyle xE-A} Null machen. Dieser Faktor ist ein polynomieller Begriff in x{\displaystyle x} (das so genannte typische polynomische von A{\displaystyle A});

Bei den dazugehörigen Selbstvektoren handelt es sich um Lösungsansätze der Linearsysteme der Gleichungen Au=?u{\displaystyle Au=\phi u} oder Au=(1-?)u{\displaystyle Au= (1-\phi )u}, sie formen dann die Säulen der Transformationsmatrix T{\displaystyle T}. ist nur der eigenständige Wert 1{\displaystyle 1} (als Auflösung der Quadratgleichung (x-1)2=0{\displaystyle (x-1)^{2}=0}) und kann nicht diagonalisiert werden. Wenn der Zahlenbereich groß genug ist (z.B. über die komplexe Zahl), kann jede Matrize diagonalisiert oder in eine jordanische Normale umgewandelt werden.

Weil die Umwandlung einer Matrize der Basisänderung eines Linienbildes korrespondiert, heißt es in dieser letzten Anweisung, dass für ein Linienbild mit einem ausreichend großen Zahlenbereich immer eine Grundlage ausgewählt werden kann, die "auf einfachste Weise" dargestellt wird: Man kann diese Lehre der geradlinigen Kartierung auf nicht " ausreichend große " Stellen übertragen; in ihnen müssen neben der jordanischen Form auch andere normale Formen berücksichtigt werden (z.B. die Frobenius-Normalform).

Siegbert Bosch: Lineare Algebra. Springer-Lehrbuch, ISBN 978-3-540-76437-3 Howard Anton: Lineare Algebra. Spektral Academischer Verlags, Heidelberg, ISBN 3-86025-137-6 Albrecht Beutelspacher: Lineare Algebra. Der vielgestaltige Literaturverlag, ISBN 3-528-46508-5 Egbert Brieskorn: Lineare Algebra und Analytische Tastgeometrie. Jahrgang 1, Sichtverlag, 1983, ISBN 3-528-08561-4, Egbert Brieskorn: Lineare Algebra und analytische Tastgeometrie. Heft Nr. 1, Vietnam, Vieweg-Verlag, 1985, ISBN 3-528-08562-2 Theodor Bröcker: Lineare Algebra und Analytik.

Herausgeber: Der Berliner Buchverlag, 2004, ISBN 3-7643-7144-7 Gerd Fischer: Lineare Algebra. Vieweg Verlagshaus, ISBN 3-528-97217-3 Günter Gramlich: Lineare Algebra. Herausgegeben im Carl Hanser Verlagshaus Leipzig, ISBN 3-446-22122-0 Günter Gramlich: Applications of Linear Algebra. Sachbuchverlag, ISBN 3-446-22655-9. Klaus Jänich: Linear Algebra. Springer-Fachbuch, ISBN 3-540-66888-8 Hans-Joachim Kowalsky: Lineare Algebra. de Gruyter-Fachbuch, ISBN 3-11-008164-4 Burkhard Lenze: Grundkenntnisse Lineare Algebra.

W3L-Verlag, Bochum 2006, ISBN 3-937137-81-5, Gilbert Strang: Lineare Algebra. Shafarevich Igor, Remizov Alexey: Lineare Algebra und Geometrie. Springer, 2012, ISBN 978-3-642-30993-9 MIT OpenCourseWare: 34 Video-Lektionen über lineare Algebra von Prof. Gilbert Strang; aufgezeichnet 1999. In 17 Kapiteln lineare Algebra unter: mathproject.de in deutscher und englischer Sprache.

Mathematik-Onlinekurs - kurzer Unterricht zu vielen verschiedenen Aspekten der Linearalgebra. John Stillwell: Mathematik und ihre Geschichte. Springer, New York, NY 2010, ISBN 978-1-4419-6052-8, S. 88-89, doi:10.1007/978-1-4419-6053-5_6. Ärztin oder Arzt unter ? Heinz-Wilhelm Alten: 4000 Jahre Algebra.

Auch interessant

Mehr zum Thema