Wahrscheinlichkeitsrechnung

Aus AnthroWiki
Wechseln zu: Navigation, Suche

Die Wahrscheinlichkeitstheorie, auch Wahrscheinlichkeitsrechnung oder Probabilistik, ist ein Teilgebiet der Mathematik, das aus der Formalisierung, der Modellierung und der Untersuchung von Zufallsgeschehen hervorgegangen ist. Gemeinsam mit der mathematischen Statistik, die anhand von Beobachtungen zufälliger Vorgänge Aussagen über das zugrunde liegende Modell trifft, bildet sie das mathematische Teilgebiet der Stochastik.

Die zentralen Objekte der Wahrscheinlichkeitstheorie sind zufällige Ereignisse, Zufallsvariablen und stochastische Prozesse.

Axiomatischer Aufbau

Wie jedes Teilgebiet der modernen Mathematik wird auch die Wahrscheinlichkeitstheorie mengentheoretisch formuliert und auf axiomatischen Vorgaben aufgebaut. Ausgangspunkt der Wahrscheinlichkeitstheorie sind Ereignisse, die als Mengen aufgefasst werden und denen Wahrscheinlichkeiten zugeordnet sind; Wahrscheinlichkeiten sind reelle Zahlen zwischen 0 und 1; die Zuordnung von Wahrscheinlichkeiten zu Ereignissen muss gewissen Mindestanforderungen genügen.

Diese Definitionen geben keinen Hinweis darauf, wie man die Wahrscheinlichkeiten einzelner Ereignisse ermitteln kann; sie sagen auch nichts darüber aus, was Zufall und was Wahrscheinlichkeit eigentlich sind. Die mathematische Formulierung der Wahrscheinlichkeitstheorie ist somit für verschiedene Interpretationen offen, ihre Ergebnisse sind dennoch exakt und vom jeweiligen Verständnis des Wahrscheinlichkeitsbegriffs unabhängig.

Definitionen

Konzeptionell wird als Grundlage der mathematischen Betrachtung von einem Zufallsvorgang oder Zufallsexperiment ausgegangen. Alle möglichen Ergebnisse dieses Zufallsvorgangs fasst man in der Ergebnismenge LaTeX: \Omega zusammen. Häufig interessiert man sich jedoch gar nicht für das genaue Ergebnis LaTeX: \omega \in \Omega, sondern nur dafür, ob es in einer bestimmten Teilmenge der Ergebnismenge liegt, was so interpretiert werden kann, dass ein Ereignis eingetreten ist oder nicht. Ein Ereignis ist also als eine Teilmenge von LaTeX: \Omega definiert. Enthält das Ereignis genau ein Element der Ergebnismenge, handelt es sich um ein Elementarereignis. Zusammengesetzte Ereignisse enthalten mehrere Ergebnisse. Das Ergebnis ist also ein Element der Ergebnismenge, das Ereignis jedoch eine Teilmenge.

Damit man den Ereignissen in sinnvoller Weise Wahrscheinlichkeiten zuordnen kann, werden sie in einem Mengensystem aufgeführt, der Ereignisalgebra oder dem Ereignissystem LaTeX: \Sigma über LaTeX: \Omega, einer Menge von Teilmengen von LaTeX: \Omega, für die gilt: Sie enthält LaTeX: \Omega und ist ein σ-Körper, d. h., sie ist gegenüber den Mengenoperationen der Vereinigung und der Komplementbildung (relativ bzgl. LaTeX: \Omega) abgeschlossen genauso wie gegenüber der unendlichen Vereinigung abzählbar vieler Mengen. Die Wahrscheinlichkeiten sind dann Bilder einer gewissen Abbildung LaTeX: P des Ereignisraums in das Intervall [0,1]. Solch eine Abbildung heißt Wahrscheinlichkeitsmaß. Das Tripel LaTeX: (\Omega,\Sigma,P) wird als Wahrscheinlichkeitsraum bezeichnet.

Axiome von Kolmogorow

Die axiomatische Begründung der Wahrscheinlichkeitstheorie wurde in den 1930er Jahren von Andrei Kolmogorow entwickelt. Ein Wahrscheinlichkeitsmaß muss demnach folgende drei Axiome erfüllen:

Axiome:

  1. Für jedes Ereignis LaTeX: A\in\Sigma ist die Wahrscheinlichkeit von LaTeX: A eine reelle Zahl zwischen 0 und 1: LaTeX: 0\leq P(A)\leq 1.
  2. Das sichere Ereignis LaTeX: \Omega\in\Sigma hat die Wahrscheinlichkeit 1: LaTeX: P(\Omega)=1.
  3. Die Wahrscheinlichkeit einer Vereinigung abzählbar vieler inkompatibler Ereignisse ist gleich der Summe der Wahrscheinlichkeiten der einzelnen Ereignisse. Dabei heißen Ereignisse LaTeX: A_i inkompatibel, wenn sie paarweise disjunkt sind, also bei LaTeX: A_i \cap A_j = \emptyset für alle LaTeX: i \neq j. Es gilt daher LaTeX: P\left(A_1\;\;\!\!\dot\cup\;\;\!\!A_2\;\;\!\!\dot\cup\;\;\!\!\!\cdots\right) = \sum P(A_i). Diese Eigenschaft wird auch σ-Additivität genannt.

Beispiel: Im Rahmen einer physikalischen Modellbildung wird ein Wahrscheinlichkeitsmaß zur Beschreibung des Ergebnisses eines Münzwurfes angesetzt, die möglichen Ergebnisse (Ereignisse genannt) mögen Zahl und Kopf lauten.

  • Dann ist die Ergebnismenge LaTeX: \Omega=\{\text{Zahl}, \text{Kopf}\}.
  • Als Ereignisraum kann die Potenzmenge LaTeX: \mathcal P(\Omega)\; gewählt werden, also LaTeX: \Sigma=\{\emptyset,\{\text{Zahl}\},\{\text{Kopf}\},\Omega\}.
  • Für das Wahrscheinlichkeitsmaß LaTeX: P steht aufgrund der Axiome fest:
    • LaTeX: P(\emptyset)=0
    • LaTeX: P(\{\text{Zahl}\})=1-P(\{\text{Kopf}\})
    • LaTeX: P(\Omega)=1

Zusätzliche physikalische Annahmen über die Beschaffenheit der Münze können nun etwa zur Wahl LaTeX: P(\{\text{Kopf}\})=P(\{\text{Zahl}\})=0{,}5 führen.

Folgerungen

Aus den Axiomen ergeben sich unmittelbar einige Folgerungen:

1. Aus der Additivität der Wahrscheinlichkeit disjunkter Ereignisse folgt, dass komplementäre Ereignisse (Gegenereignisse) komplementäre Wahrscheinlichkeiten (Gegenwahrscheinlichkeiten) haben: LaTeX: P(\Omega\setminus A) = 1-P(A).

Beweis: Es ist LaTeX: (\Omega\setminus A)\cup A = \Omega sowie LaTeX: (\Omega\setminus A) \cap A = \emptyset. Folglich nach Axiom (3): LaTeX: P(\Omega \setminus A) + P(A) = P(\Omega) und dann nach Axiom (2): LaTeX: P(\Omega \setminus A) + P(A) = 1. Umgestellt ergibt sich: LaTeX: P(\Omega \setminus A) = 1 - P(A).

2. Daraus folgt, dass das unmögliche Ereignis, die leere Menge, die Wahrscheinlichkeit Null hat: LaTeX: P(\emptyset)=0.

Beweis: Es ist LaTeX: \emptyset\cup\Omega = \Omega und LaTeX: \emptyset\cap\Omega = \emptyset, also nach Axiom (3): LaTeX: P(\emptyset) + P(\Omega) = P(\Omega). Hieraus folgt LaTeX: P(\emptyset) = 0.

3. Für die Vereinigung nicht notwendig disjunkter Ereignisse folgt: LaTeX: P(A \cup B) = P(A) + P(B) - P(A \cap B).

Stochastikmengen1.PNG
Beweis: Die für den Beweis erforderlichen Mengen sind im obigen Bild dargestellt. Die Menge LaTeX: A \cup B kann danach als Vereinigung von drei disjunkten Mengen dargestellt werden:
Stochastikmengen2.PNG
Hieraus folgt nach (3): LaTeX: P(A \cup B) = P(A \setminus B) + P(A \cap B) + P(B \setminus A).
Andererseits ist nach (3) sowohl
LaTeX: P(A) = P(A \setminus B) + P(A \cap B) als auch
LaTeX: P(B) = P(A \cap B) + P(B \setminus A).
Addition liefert:
LaTeX: P(A)+P(B)=P(A\setminus B)+P(A\cap B)+P(A\cap B)+P(B\setminus A)=P(A \cup B)+P(A\cap B).
Umstellen ergibt LaTeX: P(A \cup B) = P(A) + P(B) - P(A \cap B).
Die Siebformel von Poincaré-Sylvester verallgemeinert diese Behauptung im Falle n verschiedener (nicht notwendig disjunkter) Teilmengen.

Im Weiteren ist zwischen abzählbaren und überabzählbaren Ergebnismengen zu unterscheiden.

Abzählbare Ergebnismenge

Beispiel: Ein Glücksrad mit Ergebnismenge LaTeX: \Omega=\{1,2,3\}, Ereignisraum LaTeX: \Sigma (hier die Potenzmenge von LaTeX: \Omega) und Wahrscheinlichkeitsmaß LaTeX: P.

Bei einer abzählbaren Ergebnismenge kann jedem Elementarereignis eine positive Wahrscheinlichkeit zugewiesen werden. Wenn LaTeX: \Omega endlich oder abzählbar unendlich ist, kann man für die σ-Algebra LaTeX: \Sigma die Potenzmenge von LaTeX: \Omega wählen. Die Summe der Wahrscheinlichkeiten aller Elementarereignisse aus LaTeX: \Omega ist hier 1.

Überabzählbare Ergebnismenge

Die Wahrscheinlichkeit, mit einer als punktförmig angenommenen Dartspitze einen bestimmten Punkt auf einer Scheibe zu treffen, ist null. Eine sinnvolle mathematische Theorie kann man nur auf der Wahrscheinlichkeit aufbauen, bestimmte Teilflächen zu treffen. Solche Wahrscheinlichkeiten lassen sich durch eine Wahrscheinlichkeitsdichte beschreiben.

Ein Prototyp einer überabzählbaren Ergebnismenge ist die Menge der reellen Zahlen. In vielen Modellen ist es nicht möglich, allen Teilmengen der reellen Zahlen sinnvoll eine Wahrscheinlichkeit zuzuordnen. Als Ereignissystem wählt man statt der Potenzmenge der reellen Zahlen hier meist die Borelsche σ-Algebra, das ist die kleinste σ-Algebra, die alle Intervalle von reellen Zahlen als Elemente enthält. Die Elemente dieser σ-Algebra nennt man Borelsche Mengen oder auch (Borel)-messbar. Wenn die Wahrscheinlichkeit LaTeX: P(A) jeder Borelschen Menge LaTeX: A als Integral

LaTeX: P(A)=\int_A f(x)\,\mathrm{d}x

über eine Wahrscheinlichkeitsdichte LaTeX: f geschrieben werden kann, wird LaTeX: P absolut stetig genannt. In diesem Fall (aber nicht nur in diesem) haben alle Elementarereignisse {x} die Wahrscheinlichkeit 0. Die Wahrscheinlichkeitsdichte eines absolut stetigen Wahrscheinlichkeitsmaßes LaTeX: P ist nur fast überall eindeutig bestimmt, d. h., sie kann auf einer beliebigen Lebesgue-Nullmenge, also einer Menge vom Lebesgue-Maß 0, abgeändert werden, ohne dass LaTeX: P verändert wird. Wenn die erste Ableitung der Verteilungsfunktion von LaTeX: P existiert, so ist sie eine Wahrscheinlichkeitsdichte von P. Die Werte der Wahrscheinlichkeitsdichte werden jedoch nicht als Wahrscheinlichkeiten interpretiert.

Spezielle Eigenschaften im Fall diskreter Wahrscheinlichkeitsräume

Laplace-Experimente

Wenn man annimmt, dass nur endlich viele Elementarereignisse möglich und alle gleichberechtigt sind, d. h. mit der gleichen Wahrscheinlichkeit eintreten (wie zum Beispiel beim Werfen einer idealen Münze, wobei {Zahl} und {Kopf} jeweils die Wahrscheinlichkeit 0,5 besitzen), so spricht man von einem Laplace-Experiment. Dann lassen sich Wahrscheinlichkeiten einfach berechnen: Wir nehmen eine endliche Ergebnismenge LaTeX: \Omega an, die die Mächtigkeit LaTeX: |\Omega|=n besitzt, d. h., sie hat LaTeX: n Elemente. Dann ist die Wahrscheinlichkeit jedes Elementarereignisses einfach LaTeX: P=\tfrac 1 n.

Beweis: Wenn LaTeX: |\Omega|=n ist, dann gibt es LaTeX: n Elementarereignisse LaTeX: E_1, \ldots, E_n. Es ist dann einerseits LaTeX: \Omega = E_1 \cup \cdots \cup E_n und andererseits sind je zwei Elementarereignisse disjunkt (inkompatibel: wenn das eine eintritt, kann das andere nicht eintreten). Also sind die Voraussetzungen für Axiom (3) erfüllt, und es gilt:
LaTeX: P(E_1) + \cdots + P(E_n) = P(\Omega) = 1.
Da nun andererseits LaTeX: P(E_1) = \cdots = P(E_n) = P sein soll, ist LaTeX: n \cdot P = 1 und daher umgestellt: LaTeX: P = \tfrac 1 n, wie behauptet.

Als Konsequenz folgt, dass für Ereignisse, die sich aus mehreren Elementarereignissen zusammensetzen, die entsprechend vielfache Wahrscheinlichkeit gilt. Ist LaTeX: A ein Ereignis der Mächtigkeit LaTeX: |A| = m, so ist LaTeX: A die Vereinigung von LaTeX: m Elementarereignissen. Jedes davon hat die Wahrscheinlichkeit LaTeX: P = \tfrac 1 n, also ist LaTeX: P(A) = m \cdot \tfrac 1 n = \tfrac m n. Man erhält also den einfachen Zusammenhang

LaTeX: P(A) = \frac{|A|}{|\Omega|}.

Bei Laplace-Versuchen ist die Wahrscheinlichkeit eines Ereignisses gleich der Zahl der für dieses Ereignis günstigen Ergebnisse, dividiert durch die Zahl der insgesamt möglichen Ergebnisse.

Nachstehend ein Beispiel beim Würfeln mit einem idealen Würfel.

LaTeX: \Omega = \{⚀⚁⚂⚃⚄⚅LaTeX: \}
LaTeX: H = \{⚄⚅LaTeX: \}
LaTeX: P(H) = \frac{|H|}{|\Omega|} = \frac{2}{6} = \frac{1}{3}

Das Ereignis LaTeX: H = Hohe Augenzahl (5 oder 6) hat die Wahrscheinlichkeit 1/3.

Ein typischer Laplace-Versuch ist auch das Ziehen einer Karte aus einem Spiel mit LaTeX: n Karten oder das Ziehen einer Kugel aus einer Urne mit LaTeX: n Kugeln. Hier hat jedes Elementarereignis die gleiche Wahrscheinlichkeit. Um die Anzahl der Elementarereignisse bei Laplace-Versuchen zu bestimmen, werden häufig Methoden der Kombinatorik verwendet.

Das Konzept der Laplace-Experimente lässt sich auf den Fall einer stetigen Gleichverteilung verallgemeinern.

Bedingte Wahrscheinlichkeit

Unter einer bedingten Wahrscheinlichkeit versteht man die Wahrscheinlichkeit für das Eintreten eines Ereignisses LaTeX: A unter der Voraussetzung, dass das Eintreten eines anderen Ereignisses LaTeX: B bereits bekannt ist. Natürlich muss LaTeX: B eintreten können, es darf also nicht das unmögliche Ereignis sein. Man schreibt dann LaTeX: P(A|B) oder seltener LaTeX: P_B (A) für „Wahrscheinlichkeit von LaTeX: A unter der Voraussetzung LaTeX: B“, kurz „LaTeX: P von LaTeX: A, vorausgesetzt LaTeX: B“.

Beispiel: Die Wahrscheinlichkeit, aus einem Skatblatt eine Herz-Karte zu ziehen (Ereignis LaTeX: A), beträgt 1/4, denn es gibt 32 Karten und darunter 8 Herz-Karten. Dann ist LaTeX: P(\text{Herz}) = \tfrac 8{32} = \tfrac 1 4. Das Gegenereignis ist dann Karo, Pik oder Kreuz und hat deshalb die Wahrscheinlichkeit LaTeX: \tfrac{24}{32} = \tfrac 3 4.

Stochastik karten.PNG
Ergebnismenge beim Ziehen einer Karte aus einem Skatspiel

Wenn nun aber bereits das Ereignis LaTeX: B „Die Karte ist rot“ eingetreten ist (es wurde eine Herz- oder Karo-Karte gezogen, es ist aber nicht bekannt, welche der beiden Farben), man also nur noch die Auswahl unter den 16 roten Karten hat, dann ist LaTeX: P(A|B) = \tfrac 8{16} = \tfrac 1 2 die Wahrscheinlichkeit, dass es sich dann um das Herz-Blatt handelt.

Diese Überlegung galt für einen Laplaceversuch. Für den allgemeinen Fall definiert man die bedingte Wahrscheinlichkeit von „LaTeX: A, vorausgesetzt LaTeX: B“ als

LaTeX: P(A \vert B) = \frac{P(A \cap B)}{P(B)}.

Dass diese Definition sinnvoll ist, zeigt sich daran, dass die so definierte Wahrscheinlichkeit den Axiomen von Kolmogorow genügt, wenn man sich auf LaTeX: B als neue Ergebnismenge beschränkt; d. h., dass gilt:

  1. LaTeX: 0 \le P(A \vert B) \le 1
  2. LaTeX: P(B \vert B)=1
  3. Wenn LaTeX: A_1,\ldots,A_k paarweise disjunkt sind, so ist LaTeX: P(A_1 \cup \cdots \cup A_k \vert B) = P(A_1 \vert B) + \cdots + P(A_k \vert B)

Beweis:

  1. LaTeX: P(A \vert B) ist Quotient zweier Wahrscheinlichkeiten, für welche nach Axiom (1) gilt LaTeX: P(A \cap B) \ge 0 und LaTeX: P(B) \ge 0. Da LaTeX: B nicht das unmögliche Ereignis sein soll, ist sogar LaTeX: P(B) > 0. Also gilt auch für den Quotienten LaTeX: P(A \vert B) \ge 0. Ferner sind LaTeX: A \cap B und LaTeX:  B \setminus A disjunkt, und ihre Vereinigung ist LaTeX: B. Also ist nach Axiom (3): LaTeX: P(A \cap B) = P(B) - P(B \setminus A).
    Da LaTeX: P(B \setminus A) \ge 0 ist, folgt LaTeX: P(A \cap B) \le P(B) und daher LaTeX: P(A \vert B) \le 1.
  2. Es ist LaTeX: P(B \vert B) = \frac{P(B \cap B)}{P(B)} = \frac{P(B)}{P(B)} = 1.
  3. Des Weiteren ergibt sich:
LaTeX: P(A_1 \cup \cdots \cup A_k \vert B) LaTeX: &= \frac{P((A_1 \cup \cdots \cup A_k) \cap B)}{P(B)}
LaTeX: &= \frac{P((A_1\cap B)\cup\cdots\cup(A_k \cap B))}{P(B)}
LaTeX: &= \frac{P(A_1 \cap B) + \cdots + P(A_k \cap B)}{P(B)}
LaTeX: &= \frac{P(A_1 \cap B)}{P(B)} + \cdots + \frac{P(A_k \cap B)}{P(B)}
LaTeX: &= P(A_1 \vert B) + \cdots + P(A_k \vert B).
Dies war zu zeigen.

Beispiel: Es sei wie oben LaTeX: A das Ereignis „Ziehen einer Herz-Karte“ und LaTeX: B das Ereignis „Es ist eine rote Karte“. Dann ist:

LaTeX: P(A \cap B) = \frac 8{32} = \frac 1 4

und

LaTeX: P(B)= \frac{16}{32} = \frac 1 2.

Folglich gilt:

LaTeX: P(A \vert B) = \frac{P(A \cap B)}{P(B)} = \frac{\frac 1 4}{\frac 1 2} = \frac 1 2.

Aus der Definition der bedingten Wahrscheinlichkeit ergeben sich folgende Konsequenzen:

Verbundwahrscheinlichkeit (Schnittmengen von Ereignissen)

Das gleichzeitige Eintreten zweier Ereignisse LaTeX: A und LaTeX: B entspricht mengentheoretisch dem Eintreten des Verbund-Ereignisses LaTeX: A\cap B. Die Wahrscheinlichkeit hiervon berechnet sich zur gemeinsamen Wahrscheinlichkeit oder Verbundwahrscheinlichkeit

LaTeX: P(A \cap B) = P(A) \cdot P(B \vert A) = P(B) \cdot P(A \vert B).

Beweis: Nach Definition der bedingten Wahrscheinlichkeit ist einerseits

LaTeX: P(A \vert B) = \frac{P(A\cap B)}{P(B)}

und andererseits auch

LaTeX: P(B \vert A) = \frac{P(A \cap B)}{P(A)}.

Umstellen nach LaTeX: P(A \cap B) liefert dann sofort die Behauptung.

Beispiel: Es wird eine Karte aus 32 Karten gezogen. LaTeX: A sei das Ereignis: „Es ist ein König“. LaTeX: B sei das Ereignis: „Es ist eine Herz-Karte“. Dann ist LaTeX: A\cap B das gleichzeitige Eintreten von LaTeX: A und LaTeX: B, also das Ereignis: „Die gezogene Karte ist ein Herz-König“. Offenbar ist LaTeX: P(A) = \tfrac 4{32} = \tfrac 1 8. Ferner ist LaTeX: P(B|A) = \tfrac 1 4, denn es gibt nur eine Herz-Karte unter den vier Königen. Und in der Tat ist dann LaTeX: P(A \cap B) = P(A) \cdot P(B\vert A) = \tfrac 1 8 \cdot \tfrac 1 4 = \tfrac 1{32} die Wahrscheinlichkeit für den Herz-König.

Satz von Bayes

Die bedingte Wahrscheinlichkeit von LaTeX: A unter der Bedingung LaTeX: B lässt sich durch die bedingte Wahrscheinlichkeit von LaTeX: B unter der Bedingung LaTeX: A durch

LaTeX: P(A \mid B)=\frac{P(B\mid A)\cdot P(A)}{P(B)}

ausdrücken, wenn man die totalen Wahrscheinlichkeiten LaTeX: P(B) und LaTeX: P(A) kennt (Satz von Bayes).

Abhängigkeit und Unabhängigkeit von Ereignissen

Ereignisse nennt man unabhängig voneinander, wenn das Eintreten des einen die Wahrscheinlichkeit des anderen nicht beeinflusst. Im umgekehrten Fall nennt man sie abhängig. Man definiert:

Zwei Ereignisse LaTeX: A und LaTeX: B sind unabhängig, wenn LaTeX: P(A \cap B) = P(A) \cdot P(B) gilt.
Ungenau, aber einprägsam formuliert: Bei unabhängigen Ereignissen kann man die Wahrscheinlichkeiten multiplizieren.

Dass dies dem Begriff „Unabhängigkeit“ gerecht wird, erkennt man durch Umstellen nach LaTeX: P(A):

LaTeX: P(A) = \frac{P(A \cap B)}{P(B)} = P(A \vert B).

Das bedeutet: Die totale Wahrscheinlichkeit für LaTeX: A ist ebenso groß wie die Wahrscheinlichkeit für LaTeX: A, vorausgesetzt LaTeX: B; das Eintreten von LaTeX: B beeinflusst also die Wahrscheinlichkeit von LaTeX: A nicht.

Beispiel: Es wird eine aus 32 Karten gezogen. LaTeX: A sei das Ereignis „Es ist eine Herz-Karte“. LaTeX: B sei das Ereignis „Es ist eine Bild-Karte“. Diese Ereignisse sind unabhängig, denn das Wissen, dass man eine Bild-Karte zieht, beeinflusst nicht die Wahrscheinlichkeit, dass es eine Herz-Karte ist (Der Anteil der Herz-Karten unter den Bilder-Karten ist ebenso groß wie der Anteil der Herz-Karten an allen Karten). Offenbar ist LaTeX: P(A) = \tfrac 8{32} = \tfrac 1 4 und LaTeX: P(B) = \tfrac{12}{32} = \tfrac 3 8. LaTeX: A \cap B ist das Ereignis „Es ist eine Herz-Bildkarte“. Da es davon drei gibt, ist LaTeX: P(A \cap B) = \tfrac 3{32}. Und in der Tat stellt man fest, dass LaTeX: \tfrac 1 4 \cdot \tfrac 3 8 = \tfrac 3{32} ist.

Ein weiteres Beispiel für sehr kleine und sehr große Wahrscheinlichkeiten findet sich in Infinite-Monkey-Theorem.

Maßtheoretische Sichtweise

Die klassische Wahrscheinlichkeitsrechnung betrachtet nur Wahrscheinlichkeiten auf diskreten Wahrscheinlichkeitsräumen und stetige Modelle mit Dichtefunktionen. Diese beiden Ansätze lassen sich durch die moderne Formulierung der Wahrscheinlichkeitstheorie, die auf den Konzepten und Ergebnissen der Maß- und Integrationstheorie beruht, vereinheitlichen und verallgemeinern.

Wahrscheinlichkeitsräume

In dieser Sichtweise ist ein Wahrscheinlichkeitsraum LaTeX: (\Omega, \Sigma, P) ein Maßraum mit einem Wahrscheinlichkeitsmaß LaTeX: P. Das bedeutet, die Ergebnismenge LaTeX: \Omega ist eine beliebige Menge, der Ereignisraum LaTeX: \Sigma ist eine σ-Algebra mit Grundmenge LaTeX: \Omega und LaTeX: P \colon \Sigma \to [0,1] ist ein Maß, das durch LaTeX: P(\Omega) = 1 normiert ist.

Wichtige Standardfälle von Wahrscheinlichkeitsräumen sind:

  • LaTeX: \Omega ist eine abzählbare Menge und LaTeX: \Sigma ist die Potenzmenge von LaTeX: \Omega. Dann ist jedes Wahrscheinlichkeitsmaß LaTeX: P eindeutig festgelegt durch seine Werte LaTeX: P(\{\omega\}) auf den einelementigen Teilmengen von LaTeX: \Omega und für alle LaTeX: A \in \Sigma gilt
LaTeX: P(A) = \sum_{\omega\in A} P(\{\omega\}).
LaTeX: P(A) = \int_A f(x) \, \mathrm d x.
Umgekehrt wird für eine nichtnegative messbare Funktion LaTeX: f, welche die Normierungsbedingung LaTeX: \textstyle \int_\Omega f(x) \, dx = 1 erfüllt, durch diese Formel ein Wahrscheinlichkeitsmaß auf LaTeX: \Omega definiert.
  • LaTeX: \textstyle\Omega = \prod_{i\in I} \Omega_i ist ein kartesisches Produkt und LaTeX: \textstyle\Sigma = \bigotimes_{i\in I} \Sigma_i ist die Produkt-σ-Algebra von σ-Algebren LaTeX: \Sigma_i auf LaTeX: \Omega_i. Sind Wahrscheinlichkeitsmaße LaTeX: P_i auf LaTeX: \Omega_i gegeben, dann wird durch das Produktmaß LaTeX: \textstyle P = \bigotimes_{i\in I} P_i ein Wahrscheinlichkeitsmaß auf LaTeX: \Omega definiert, das die unabhängige Hintereinanderausführung der Einzelexperimente LaTeX: (\Omega_i, \Sigma_i, P_i)_{i\in I} modelliert.

Zufallsvariable

Hauptartikel: Zufallsvariable

Eine Zufallsvariable ist das mathematische Konzept für eine Größe, deren Wert vom Zufall abhängig ist. Aus maßtheoretischer Sicht handelt es sich um eine messbare Funktion LaTeX: X auf einem Wahrscheinlichkeitsraum LaTeX: (\Omega, \Sigma, P) in einen Messraum LaTeX: (\Omega', \Sigma') bestehend aus einer Menge LaTeX: \Omega' und einer σ-Algebra LaTeX: \Sigma' auf LaTeX: \Omega'. Messbarkeit bedeutet dabei, dass für alle LaTeX: A' \in \Sigma' das Urbild LaTeX: X^{-1}(A') ein Element der σ-Algebra LaTeX: \Sigma ist. Die Verteilung von LaTeX: X ist dann nichts anderes als das Bildmaß

LaTeX: P_X := P \circ X^{-1} : \Sigma' \to [0,1], \quad P \circ X^{-1}(A') = P(X^{-1}(A')),

das von LaTeX: X auf dem Messraum LaTeX: (\Omega', \Sigma') induziert wird und diesen zu einem Wahrscheinlichkeitsraum LaTeX: (\Omega', \Sigma', P_X) macht.

Der Erwartungswert einer reellwertigen Zufallsvariable LaTeX: X mittelt die möglichen Ergebnisse. Er lässt sich abstrakt definieren als Integral von LaTeX: X bezüglich des Wahrscheinlichkeitsmaßes LaTeX: P:

LaTeX: \operatorname{E}(X) = \int_\Omega X \, \mathrm d P.

Wahrscheinlichkeitstheorie und Statistik

Wahrscheinlichkeitstheorie und mathematische Statistik werden zusammenfassend auch als Stochastik bezeichnet. Beide Gebiete stehen in enger wechselseitiger Beziehung:

  • Statistische Verteilungen werden regelmäßig unter der Annahme modelliert, dass sie das Resultat zufälliger Prozesse sind.
  • Statistische Verfahren können auf numerische Weise Anhaltspunkte für das Verhalten von Wahrscheinlichkeitsverteilungen liefern.

Anwendungsgebiete

Die Wahrscheinlichkeitstheorie entstand aus dem Problem der gerechten Verteilung des Einsatzes bei abgebrochenen Glücksspielen. Auch andere frühe Anwendungen stammen aus dem Bereich des Glücksspiels.

Heute ist die Wahrscheinlichkeitstheorie eine Grundlage der Statistik. Die angewandte Statistik nutzt Ergebnisse der Wahrscheinlichkeitstheorie, um Umfrageergebnisse zu analysieren oder Wirtschaftsprognosen zu erstellen.

Große Bereiche der Physik wie die Thermodynamik und die Quantenmechanik nutzen die Wahrscheinlichkeitstheorie zur theoretischen Beschreibung ihrer Resultate.

Sie ist ferner die Grundlage für mathematische Disziplinen wie die Zuverlässigkeitstheorie, die Erneuerungstheorie und die Warteschlangentheorie und das Werkzeug zur Analyse in diesen Bereichen.

Auch in der Mustererkennung ist die Wahrscheinlichkeitstheorie von zentraler Bedeutung.

Wahrscheinlichkeitstheorie in der Schule

Aufgrund seiner vielseitigen Anwendungsbereiche und des Alltagsbezugs bereits junger Schüler wird die Wahrscheinlichkeitstheorie ab Klasse 1 in allen Schulformen im Rahmen des Mathematikunterrichts gelehrt. Geht es in der Grundschule noch darum, Grundbegriffe der Wahrscheinlichkeitsrechnung kennenzulernen und erste Zufallsexperimente hinsichtlich ihrer Gewinnchancen zu bewerten[1], wird in der Sekundarstufe I zunehmend der Wahrscheinlichkeitsbegriff analytisch in seiner Vielseitigkeit betrachtet und es stehen zunehmend komplexere Zufallsexperimente im Zentrum des Interesses[2]. In der Sekundarstufe II werden die Vorkenntnisse um spezifische Aspekte wie Bernoulliketten, bedingte Wahrscheinlichkeit und Laplace-Experimente erweitert[3].

Siehe auch

Literatur (Auswahl)

  •  Robert B. Ash: Real Analysis and Probability (= Probability and Mathematical statistics). Elsevier, New York (u. a.) 1972, ISBN 0-12-065201-3. MR0474442
  •  Krishna B. Athreya, Soumendra N. Lahiri: Measure Theory and Probability Theory. Springer Verlag, New York 2006, ISBN 978-0387-32903-1. MR2247694
  •  Heinz Bauer: Wahrscheinlichkeitstheorie und Grundzüge der Maßtheorie. 4. Auflage. de Gruyter, Berlin 1991, ISBN 3-11-012191-3.
  •  Heinz Bauer: Wahrscheinlichkeitstheorie. 5., durchgesehene und verbesserte Auflage. de Gruyter, Berlin, New York 2002, ISBN 3-11-017236-4. MR1902050
  •  Kai Lai Chung: A Course in Probability Theory. Academic Press, San Diego (u. a.) 2001, ISBN 0-12-174151-6. MR1796326
  •  Bruno de Finetti: Wahrscheinlichkeitstheorie. Einführende Synthese mit kritischem Anhang. 4. Auflage. R. Oldenbourg Verlag, München (u. a.) 1981, ISBN 3-486-44701-7. MR0742141
  •  Harald Cramér: Mathematical Methods of Statistics (= Princeton Mathematical Series). 11. Auflage. Princeton University Press, Princeton 1966.
  •  Richard M. Dudley: Real Analysis and Probability (= Cambridge Studies in Advanced Mathematics). Cambridge University Press, Cambridge 2002, ISBN 0-521-00754-2. MR1932358
  •  Peter Gänssler, Winfried Stute: Wahrscheinlichkeitstheorie (= Hochschultext). Springer Verlag, Berlin Heidelberg, New York 1977, ISBN 3-540-08418-5. MR0501219
  •  Marek Fisz: Wahrscheinlichkeitsrechnung und mathematische Statistik (= Hochschulbücher für Mathematik). 8. Auflage. VEB Deutscher Verlag der Wissenschaften, Berlin 1976.
  •  Boris Wladimirowitsch Gnedenko: Lehrbuch der Wahrscheinlichkeitstheorie. Verlag Harri Deutsch, Thun, Frankfurt am Main 1997, ISBN 3-8171-1531-8.
  •  Hans-Otto Georgii: Stochastik. Einführung in die Wahrscheinlichkeitstheorie und Statistik. 5. Auflage. de Gruyter, 2015, ISBN 978-3-11-035969-5.
  •  Jørgen Hoffmann-Jørgensen: Probability with a View toward Statistics. Volume I (= Chapman & Hall Probability Series). Chapman and Hall, New York 1994, ISBN 0-412-05221-0. MR1278485
  •  Achim Klenke: Wahrscheinlichkeitstheorie. 3., überarbeitete und ergänzte Auflage. Springer Spektrum, Berlin, Heidelberg 2013, ISBN 978-3-642-36017-6, doi:10.1007/978-3-642-36018-6.
  •  Oleg Klesov: Limit Theorems for Multi-Indexed Sums of Random Variables. Springer Verlag, Heidelberg, New York, Dordrecht, London 2014, ISBN 978-3-662-44387-3, doi:10.1007/978-3-662-44388-0. MR3244237
  •  Andrei Nikolajewitsch Kolmogorow: Grundbegriffe der Wahrscheinlichkeitsrechnung. Reprint (= Ergebnisse der Mathematik und ihrer Grenzgebiete). Springer Verlag, Berlin, Heidelberg, New York 1973, ISBN 3-540-06110-X. MR0494348
  •  A. Kolmogoroff: Über die Summen durch den Zufall bestimmter unabhängiger Größen. In: Mathematische Annalen. 99, 1928, S. 309-319 ([1]). MR1512588
  •  Alexander Jakowlewitsch Chintschin und A. N. Kolmogoroff: Über Konvergenz von Reihen, deren Glieder durch den Zufall bestimmt werden. In: Recueil mathématique de la Société mathématique de Moscou [Matematicheskii Sbornik]. 32, 1925, S. 668-677.
  •  Ulrich Krengel: Einführung in die Wahrscheinlichkeitstheorie und Statistik. Für Studium, Berufspraxis und Lehramt (= Vieweg Studium: Aufbaukurs Mathematik). 8. erweiterte Auflage. Vieweg, Wiesbaden 2005, ISBN 3-8348-0063-5.
  •  Norbert Kusolitsch: Maß- und Wahrscheinlichkeitstheorie. Eine Einführung (= Springer-Lehrbuch). 2., überarbeitete und erweiterte Auflage. Springer-Verlag, Berlin, Heidelberg 2014, ISBN 978-3-642-45386-1, doi:10.1007/978-3-322-96418-2.
  •  Radha Govinda Laha, Vijay K. Rohatgi: Probability Theory (= Wiley Series in Probability and Mathematical Statistics). John Wiley & Sons, New York (u. a.) 1979, ISBN 0-471-03262-X. MR0534143
  •  Michel Ledoux, Michel Talagrand: Probability in Banach Spaces. Isoperimetry and Processes (= Ergebnisse der Mathematik und ihrer Grenzgebiete (3. Folge)). Springer Verlag, Berlin (u. a.) 1991, ISBN 3-540-52013-9. MR1102015
  •  Richard von Mises: Probability, Statistics and Truth. Reprint of the 1957 English edition. Dover Publications, Inc., New York 1981, ISBN 0-486-24214-5. MR0668875
  •  Jacques Neveu: Mathematische Grundlagen der Wahrscheinlichkeitstheorie. Aus dem Französischen übersetzt von Karl Bosch. R. Oldenbourg Verlag, München, Wien 1969. MR0245056
  •  Alfréd Rényi: Wahrscheinlichkeitsrechnung. Mit einem Anhang über Informationstheorie (= Hochschulbücher für Mathematik). 5. Auflage. Deutscher Verlag der Wissenschaften, Berlin 1977. MR0474442
  •  Albert Nikolajewitsch Schirjajew: Wahrscheinlichkeit (= Hochschulbücher für Mathematik). Deutscher Verlag der Wissenschaften, Berlin 1988, ISBN 3-326-00195-9. MR0967761
  •  Vladimir Spokoiny, Thorsten Dickhaus: Basics of Modern Mathematical Statistics (= Springer Texts in Statistics). Springer-Verlag, Heidelberg, New York, Dordrecht, London 2015, ISBN 978-3-642-39908-4. MR3289985
  •  James Victor Uspensky: Introduction to Mathematical Probability. MacGraw-Hill Book Company, Inc., New York, London 1937.
  •  Nikolai Nikolajewitsch Vakhania, Važa I. Tarieladze, Sergei Čobanian: Probability Distributions on Banach Spaces (= Mathematics and its Applications (Soviet Series)). D. Reidel Publishing Company, Dordrecht, Boston, Lancaster, Tokio 1987, ISBN 90-277-2496-2.
  •  Walter Vogel: Wahrscheinlichkeitstheorie (= Studia Mathematica). Vandenhoeck & Ruprecht, Göttingen 1970. MR0286145

Einzelnachweise

  1. https://kultusministerium.hessen.de/schulsystem/bildungsstandards-kerncurricula-und-lehrplaene/kerncurricula/primarstufe/mathematik
  2. https://kultusministerium.hessen.de/schulsystem/bildungsstandards-kerncurricula-und-lehrplaene/kerncurricula/sekundarstufe-i/mathematik
  3. https://kultusministerium.hessen.de/schulsystem/bildungsstandards-kerncurricula-und-lehrplaene/kerncurricula/gymnasiale-oberstufe-12
Dieser Artikel basiert (teilweise) auf dem Artikel Wahrscheinlichkeitsrechnung aus der freien Enzyklopädie Wikipedia und steht unter der GNU Lizenz für freie Dokumentation und der Creative Commons Attribution/Share Alike. In der Wikipedia ist eine Liste der Autoren verfügbar.