Analysis

Aus AnthroWiki
Gottfried Wilhelm Leibniz
Isaac Newton
Leonhard Euler
Augustin-Louis Cauchy
Bernhard Riemann

Die Analysis [aˈnalyzɪs] (griech. ανάλυσις análysis, deutsch ‚Auflösung‘, altgriech. ἀναλύειν analýein ‚auflösen‘) ist ein Teilgebiet der Mathematik, dessen Grundlagen von Gottfried Wilhelm Leibniz und Isaac Newton als Infinitesimalrechnung unabhängig voneinander entwickelt wurden. Als eigenständiges Teilgebiet der Mathematik neben den klassischen Teilgebieten der Geometrie und der Algebra existiert die Analysis seit Leonhard Euler.

Grundlegend für die gesamte Analysis sind die beiden Körper (Körper der reellen Zahlen) und (Körper der komplexen Zahlen) mitsamt deren geometrischen, arithmetischen, algebraischen und topologischen Eigenschaften. Zentrale Begriffe der Analysis sind die des Grenzwerts, der Folge, der Reihe sowie in besonderem Maße der Begriff der Funktion. Die Untersuchung von reellen und komplexen Funktionen hinsichtlich Stetigkeit, Differenzierbarkeit und Integrierbarkeit zählt zu den Hauptgegenständen der Analysis. Die hierzu entwickelten Methoden sind in allen Natur- und Ingenieurwissenschaften von großer Bedeutung.

Teilgebiete der Analysis

Die Analysis hat sich zu einem sehr allgemeinen, nicht klar abgrenzbaren Oberbegriff für vielfältige Gebiete entwickelt. Neben der Differential- und Integralrechnung umfasst die Analysis weitere Gebiete, welche darauf aufbauen. Dazu gehören die Theorie der gewöhnlichen und partiellen Differentialgleichungen, die Variationsrechnung, die Vektoranalysis, die Maß- und Integrationstheorie und die Funktionalanalysis.[1]

Eine ihrer Wurzeln hat auch die Funktionentheorie in der Analysis. So kann die Fragestellung, welche Funktionen die Cauchy-Riemannschen-Differentialgleichungen erfüllen, als Fragestellung der Theorie partieller Differentialgleichungen verstanden werden.

Je nach Auffassung können auch die Gebiete der harmonischen Analysis, der Differentialgeometrie mit den Teilgebieten Differentialtopologie und Globale Analysis, der analytischen Zahlentheorie, der Nichtstandardanalysis, der Distributionentheorie und der mikrolokalen Analysis ganz oder in Teilen dazu gezählt werden.

Eindimensionale reelle Analysis

Differentialrechnung

Bei einer linearen Funktion bzw. einer Geraden

heißt m die Steigung und c der y-Achsen-Abschnitt oder Ordinatenabschnitt der Geraden. Hat man nur 2 Punkte und auf einer Geraden, so kann die Steigung berechnet werden durch

Graph einer Funktion (schwarz) und einer Tangente an den Graph (rot). Die Steigung der Tangente ist die Ableitung der Funktion an dem markierten Punkt.

Bei nicht linearen Funktionen wie z. B. kann die Steigung so nicht mehr berechnet werden, da diese Kurven beschreiben und somit keine Geraden sind. Jedoch kann man an einen Punkt eine Tangente legen, die wieder eine Gerade darstellt. Die Frage ist nun, wie man die Steigung einer solchen Tangente an einer Stelle berechnen kann. Wählt man eine Stelle ganz nahe bei und legt eine Gerade durch die Punkte und , so ist die Steigung dieser Sekante nahezu die Steigung der Tangente. Die Steigung der Sekante ist (s. o.)

Diesen Quotienten nennt man den Differenzenquotienten oder mittlere Änderungsrate. Wenn wir nun die Stelle immer weiter an annähern, so erhalten wir per Differenzenquotient die Steigung der Tangente. Wir schreiben

und nennen dies die Ableitung bzw. die Ableitungsfunktion von f in . Der Ausdruck bedeutet, dass x immer weiter an angenähert wird, bzw. dass der Abstand zwischen x und beliebig klein wird. Wir sagen auch: „x geht gegen “. Die Bezeichnung steht für Limes.

ist der Grenzwert des Differenzenquotienten.

Es gibt auch Fälle, in denen dieser Grenzwert nicht existiert. Deswegen hat man den Begriff Differenzierbarkeit eingeführt. Eine Funktion f heißt differenzierbar an der Stelle , wenn der Grenzwert existiert. Für eine differenzierbare Funktion gilt dann folgender Zusammenhang zwischen dem Differential der abhängigen Variablen und dem Differential der unabhängigen Variablen:

Der Differentialquotient lässt sich demnach formal anschreiben als:

Das lässt sich für Funktionen mit mehreren Variablen verallgemeinern, wobei man es hier nun mit partiellen Differentialen zu tun hat:

Daraus ergibt sich das totale Differential (auch: vollständiges Differential) über alle :

Integralrechnung

Hauptartikel: Integralrechnung

Die Integralrechnung befasst sich anschaulich mit der Berechnung von Flächen unter Funktionsgraphen. Diese Fläche kann durch eine Summe von Teilflächen approximiert werden und geht im Grenzwert in das Integral über.

Die obige Folge konvergiert, falls f gewisse Bedingungen (wie z. B. Stetigkeit) erfüllt. Diese anschauliche Darstellung (Approximation mittels Ober- und Untersummen) entspricht dem sogenannten Riemann-Integral, das in der Schule gelehrt wird.

In der sogenannten Höheren Analysis werden darüber hinaus weitere Integralbegriffe, wie z. B. das Lebesgue-Integral betrachtet.

Eine Verallgemeinerung des Integralbegriffs auf ebene oder gekrümmte Flächen ist das Oberflächenintegral oder Flächenintegral.

Fundamentalsatz der Analysis

Differentialrechnung und Integralrechnung verhalten sich nach dem Fundamentalsatz der Analysis in folgender Weise „invers“ zueinander.

Wenn f eine auf einem kompakten Intervall stetige reelle Funktion ist, so gilt für :

und, falls f zusätzlich auf gleichmäßig stetig differenzierbar ist,

Deshalb wird die Menge aller Stammfunktionen einer Funktion auch als unbestimmtes Integral bezeichnet und durch symbolisiert, d.h.:

bzw.

Mehrdimensionale reelle Analysis

Beispiel für eine mehrdimensionale Funktion:

Viele Lehrbücher unterscheiden zwischen Analysis in einer und Analysis in mehreren Dimensionen. Diese Differenzierung berührt die grundlegenden Konzepte nicht, allerdings gibt es in mehreren Dimensionen eine größere mathematische Vielfalt. Die mehrdimensionale Analysis betrachtet Funktionen mehrerer reeller Variablen, die oft als ein Vektor beziehungsweise n-Tupel dargestellt werden.

Die Begriffe der Norm (als Verallgemeinerung des Betrags), der Konvergenz, der Stetigkeit und der Grenzwerte lassen sich einfach von einer in mehrere Dimensionen verallgemeinern.

Die Differentiation von Funktionen mehrerer Variablen unterscheidet sich von der eindimensionalen Differentiation. Wichtige Konzepte sind die Richtungs- und die partielle Ableitung, die Ableitungen in einer Richtung beziehungsweise in einer Variable sind. Der Satz von Schwarz stellt fest, wann partielle beziehungsweise Richtungsableitungen unterschiedlicher Richtungen vertauscht werden dürfen. Außerdem ist der Begriff der totalen Differentiation von Bedeutung. Dieser kann interpretiert werden als die lokale Anpassung einer linearen Abbildung an den Verlauf der mehrdimensionalen Funktion und ist das mehrdimensionale Analogon der (ein-dimensionalen) Ableitung. Der Satz von der impliziten Funktion über die lokale, eindeutige Auflösung impliziter Gleichungen ist eine wichtige Aussage der mehrdimensionalen Analysis und kann als eine Grundlage der Differentialgeometrie verstanden werden.

In der mehrdimensionalen Analysis gibt es unterschiedliche Integralbegriffe wie das Kurvenintegral, das Oberflächenintegral und das Raumintegral. Jedoch von einem abstrakteren Standpunkt aus der Vektoranalysis unterscheiden sich diese Begriffe nicht. Zum Lösen dieser Integrale sind der Transformationssatz als Verallgemeinerung der Substitutionsregel und der Satz von Fubini, welcher es erlaubt, Integrale über n-dimensionale Mengen in iterierte Integrale umzuwandeln, von besonderer Bedeutung. Auch die Integralsätze aus der Vektoranalysis von Gauß, Green und Stokes sind in der mehrdimensionalen Analysis von Bedeutung. Sie können als Verallgemeinerung des Hauptsatzes der Integral- und Differentialrechnung verstanden werden.

Funktionalanalysis

Hauptartikel: Funktionalanalysis

Die Funktionalanalysis ist eines der wichtigsten Teilgebiete der Analysis. Die entscheidende Idee in der Entwicklung der Funktionalanalysis war die Entwicklung einer koordinaten- und dimensionsfreien Theorie. Dies brachte nicht nur einen formalen Gewinn, sondern ermöglichte auch die Untersuchung von Funktionen auf unendlichdimensionalen topologischen Vektorräumen.[1] Hierbei werden nicht nur die reelle Analysis und die Topologie miteinander verknüpft, sondern auch Methoden der Algebra spielen eine wichtige Rolle. Aus wichtigen Resultaten der Funktionalanalysis wie es beispielsweise der Satz von Fréchet-Riesz ist, lassen sich zentrale Methoden für die Theorie partieller Differentialgleichungen ableiten. Zudem ist die Funktionalanalysis, insbesondere mit der Spektraltheorie, der geeignete Rahmen zur mathematischen Formulierung der Quantenmechanik und auf ihr aufbauender Theorien.

Theorie der Differentialgleichungen

Hauptartikel: Differentialgleichung

Eine Differentialgleichung ist eine Gleichung, die eine unbekannte Funktion und Ableitungen von dieser enthält. Treten in der Gleichung nur gewöhnliche Ableitungen auf, so heißt die Differentialgleichung gewöhnlich. Ein Beispiel ist die Differentialgleichung

des harmonischen Oszillators. Von einer partiellen Differentialgleichung spricht man, wenn in der Differentialgleichung partielle Ableitungen auftreten. Ein Beispiel dieser Klasse ist die Laplace-Gleichung

.

Ziel der Theorie der Differentialgleichungen ist es, Lösungen, Lösungsmethoden und andere Eigenschaften solcher Gleichungen zu finden. Für gewöhnliche Differentialgleichungen wurde eine umfassende Theorie entwickelt, mit der es möglich ist, zu gegebenen Gleichungen Lösungen anzugeben, insofern diese existieren. Da partielle Differentialgleichungen in ihrer Struktur komplizierter sind, gibt es wenige Theorien, die auf eine große Klasse von partiellen Differentialgleichungen angewandt werden kann. Daher untersucht man im Bereich der partiellen Differentialgleichungen meist nur einzelne oder kleinere Klassen von Gleichungen. Um Lösungen und Eigenschaften solcher Gleichungen zu finden werden vor allem Methoden aus der Funktionalanalysis und auch aus der Distributionentheorie und der mikrolokalen Analysis eingesetzt. Allerdings gibt es viele partielle Differentialgleichungen, bei denen mit Hilfe dieser analytischen Methoden erst wenige Informationen über die Lösungsstruktur in Erfahrung gebracht werden konnten. Ein in der Physik wichtiges Beispiel einer solch komplexen partiellen Differentialgleichung ist das System der Navier-Stokes-Gleichungen. Für diese und für andere partielle Differentialgleichungen versucht man in der numerischen Mathematik näherungsweise Lösungen zu finden.

Funktionentheorie

Hauptartikel: Funktionentheorie

Im Gegensatz zur reellen Analysis, die sich nur mit Funktionen reeller Variablen befasst, werden in der Funktionentheorie (auch komplexe Analysis genannt) Funktionen komplexer Variablen untersucht. Die Funktionentheorie hat sich von der reellen Analysis mit eigenständigen Methoden und andersartigen Fragestellungen abgesetzt. Jedoch werden einige Phänomene der reellen Analysis erst mit Hilfe der Funktionentheorie richtig verständlich. Das Übertragen von Fragestellungen der reellen Analysis in die Funktionentheorie kann daher zu Vereinfachungen führen.[1]

Siehe auch

Literatur

  • Herbert Amann, Joachim Escher: Analysis I. Birkhäuser, Basel 2006, ISBN 3-7643-7755-0.
  • Richard Courant: Vorlesungen über Differential- und Integralrechnung. 2 Bände. Springer 1928, ISBN 3-540-02956-7.
  • Jean Dieudonné: Foundations of Modern Analysis. Academic Press, U.S. 1968, ISBN 0-12-215530-0.
  •  Leonhard Euler: Einleitung in die Analysis des Unendlichen. Erster Teil der Introductio in Analysin Infinitorum. Springer Verlag, Berlin / Heidelberg / New York 1983, ISBN 3-540-12218-4 (Reprint der Ausgabe Berlin 1885).
  • Otto Forster: Analysis 1. Vieweg, Wiesbaden 2004, ISBN 3-528-67224-2.
  • Harro Heuser: Lehrbuch der Analysis. Teubner, Wiesbaden 2003, ISBN 3-519-62233-5.
  • Stefan Hildebrandt: Analysis. Springer, Berlin 2002, ISBN 3-540-42838-0.
  • Konrad Königsberger: Analysis. Band 1. Springer, Berlin 2004, ISBN 3-540-41282-4.
  • Wladimir Smirnow: Lehrgang der höheren Mathematik. Harri Deutsch Verlag, ISBN 3-8171-1419-2.
  •  Walter Rudin: Reelle und komplexe Analysis. 2. verbesserte Auflage. Oldenbourg Wissenschaftsverlag, München 2009, ISBN 978-3-486-59186-6.
  • Thomas Sonar: 3000 Jahre Analysis. Geschichte - Kulturen - Menschen. 2. Auflage. Springer, Berlin 2016. ISBN 978-3-662-48917-8.
  • Wolfgang Walter: Analysis. Springer, Berlin 2004, ISBN 3-540-20388-5.

Weblinks

Commons: Analysis - Weitere Bilder oder Audiodateien zum Thema
 Wikiversity: Kurs:Analysis (Osnabrück 2014-2016)/Teil I – Kursmaterialien, Forschungsprojekte und wissenschaftlicher Austausch
 Wikiversity: Kurs:Analysis (Osnabrück 2014-2016)/Teil II – Kursmaterialien, Forschungsprojekte und wissenschaftlicher Austausch
 Wikiversity: Kurs:Analysis (Osnabrück 2014-2016)/Teil III – Kursmaterialien, Forschungsprojekte und wissenschaftlicher Austausch
 Wikibooks: Mathe für Nicht-Freaks: Analysis 1 – Lern- und Lehrmaterialien
 Wikibooks: Analysis – Lern- und Lehrmaterialien
 Wiktionary: Analysis – Bedeutungserklärungen, Wortherkunft, Synonyme, Übersetzungen
  • The Calculus page Calculus.org, bei University of California, Davis – Ressourcen und enthält Links zu anderen Websites

Einzelnachweise

  1. 1,0 1,1 1,2  D. Hoffmann: Analysis. In: Lexikon der Mathematik. 1. Auflage. Spektrum Akademischer Verlag, Mannheim/Heidelberg 2000, ISBN 3-8274-0439-8.


Dieser Artikel basiert (teilweise) auf dem Artikel Analysis aus der freien Enzyklopädie Wikipedia und steht unter der Lizenz Creative Commons Attribution/Share Alike. In Wikipedia ist eine Liste der Autoren verfügbar.