Wahrscheinlichkeit

Aus AnthroWiki
Wechseln zu: Navigation, Suche

Die Wahrscheinlichkeit oder Probabilität (lat. probabilitas „Glaubhaftigkeit, Wahrscheinlichkeit“[1], von probare „prüfen, untersuchen, erproben, beurteilen, anerkennen“[2]; eng. probability) gibt den Grad der Gewissheit der Vorhersage an, dass ein bestimmtes Ereignis eintreten wird. Ihre mathematische Behandlung ist Gegenstand der Wahrscheinlichkeitsrechnung bzw. Wahrscheinlichkeitstheorie, für die verschiedene Wahrscheinlichkeitsbegriffe formuliert wurden.

Klassischer Wahrscheinlichkeitsbegriff von Laplace

Nach der klassischen Definition von Pierre-Simon de Laplace (1749-1827) errechnet sich bei Zufallsereignissen (z.B. beim Würfelspiel) die Wahrscheinlichkeit aus dem Verhältnis der günstigen Ergebnisse zur Gesamtzahl der möglichen Ergebnisse. So können etwa mit einem idealen Spielwürfel mit gleicher Wahrscheinlichkeit die sechs Zahlen 1, 2, 3, 4, 5, oder 6 geworfen werden. Die Wahrscheinlichkeit, eine 6 zu werfen, ihr Wahrscheinlichkeitsmaß LaTeX: w_6, beträgt also genau 1/6. Die Wahrscheinlichkeit, eine gerade Zahl zu werfen, ist hingegen 1/2, da genau die Hälfte aller möglichen Zahlen gerade Zahlen sind, nämlich 2, 4 und 6. Die Gesamtwahrscheinlichkeit, eine gerade Zahl zu werfen, ergibt sich dabei aus der Summe der Einzelwahrscheinlichkeiten ein 2, 4 oder 6 zu werfen, die jeweils 1/6 beträgt, d.h.:

LaTeX: w_{gerade} = w_2 + w_4 + w_6 = \frac16 + \frac16 + \frac16 = \frac36 = \frac12

Die Wahrscheinlichkeit, bei zwei hintereinander ausgeführten Würfen jedesmal eine 6 zu werfen, errechnet sich hingegen wegen der stochastischenh Unabhängigkeit der beiden Würfe aus dem Produkt der Einzelwahrscheinlichkeiten:

LaTeX: w_{gesamt} = w_6 \times w_6 = \frac16 \times \frac16 = \frac{1}{36}

Objektivistischer Wahrscheinlichkeitsbegriff

Objektivistische Wahrscheinlichkeitsbegriffe gehen davon aus, dass die Wahrscheinlichkeit, mit der bestimmte Ereignisse auftreten, durch objektive physikalische Gegebenheiten bzw. durch unvermeidbare Messabweichungen bestimmt wird.

Determinismus

Hauptartikel: Determinismus

Der Determinismus beruht auf der metaphysischen Annahme, dass alle in der Welt vorkommenden Ereignisse durch die Naturgesetze und die gegebenen Anfangsbedingungen zu 100% bestimmt sind und daher zwingend eintreten müssen - auch wenn sich das natürlich weder theoretisch noch praktisch jemals beweisen lässt. Ob man sich dabei auf die göttliche Vorsehung oder auf den streng kausalen Determinismus der klassischen Mechanik beruft, mach diesbezüglich keinen Unterschied.

Frequentistischer Wahrscheinlichkeitsbegriff

Der Frequentismus bzw. der damit verbundene frequentistische Wahrscheinlichkeitsbegriff orientiert sich an der relativen Häufigkeit der verschiedenen möglichen Ergebnisse eines Zufallsexperiments. Um diese zu bestimmen, muss das Experiment möglichst oft wiederholt werden. Nach dem Gesetz der großen Zahlen ergibt sich die Wahrscheinlichkeit eines Ereignisses aus dem Grenzwert seiner relativen Häufigkeit bei (theoretisch) unendlich vielen Wiederholungen.

Wahrscheinlichkeitsinterpretation der Quantenmechanik

Die Quantentheorie hat gezeigt, dass der strenge Determinismus zumindest auf der mikroskopischen Ebene nicht haltbar ist, weshalb sich quantenphysikalische Phänomene nur mit einer bestimmten Wahrscheinlichkeit voraussagen lassen. Nach der von Max Born 1926 vorgeschlagenen Wahrscheinlichkeitsinterpretation der Quantenmechanik entspricht diese Wahrscheinlichkeit dem Betragsquadrat der durch die Schrödingergleichung beschriebenen Wellenfunktion LaTeX: \psi.

Subjektivistischer Wahrscheinlichkeitsbegriff

Der subjektivistische Wahrscheinlichkeitsbegriff wird angewendet, wenn man es mit einmaligen Zufallsereignissen zu tun hat, was in der täglichen Lebenspraxis zumeist der Fall ist. Da sich der Vorgang nicht unter sonst gleichen Bedingungen wiederholen lässt, ist der objektivistische Wahrscheinlichkeitsbegriff hier nicht anwendbar. Die Wahrscheinlichkeit eines einzelnen Zufallsereignisses lässt sich nicht berechnen, sondern nur durch entsprechende Intuition und die Erfahrungen, die man mit ähnlichen Ereignissen gemacht hat, abschätzen.

Bayesscher Wahrscheinlichkeitsbegriff

Der englischen Mathematiker Thomas Bayes (1701-1761) definierte die Wahrscheinlichkeit als Grad der persönlicher Überzeugung (eng. degree of belief).

Weitere Vertreter

Auch Joachim Stiller nähert sich immer mehr einem rein subjektiven Wahrscheinlichkeitsbegriff an. Instiktiv würden die meisten Menschen das schon beim Würfeln erfahren. Das Interessante sei nun, dass subjektive Wahrscheinlichkeitsbewertungen tatsächlich Auswirkungen auf objektive Wahrscheinlichkeitsmuster oder -verteilungen hätten. Das sei inzwischen wissenschaftlich eindeutig bestätigt. Auch die Universität Princeton hätte dieses Phänomen bereits zum Forschungsgegenstand gemacht. Das könnte dazu fürhen, dass in der Zukunft einmal rein subjektive Wahrscheinlichkeiten die eigentlich objektiven Warhscheinlichkeiten werden, so Stiller.

Axiomatischer Wahrscheinlichkeitsbegriff

In den 1930er Jahren etwickelte der sowjetische Mathematiker Andrei Nikolajewitsch Kolmogorow (1903-1987) eine axiomatische Begründung der Wahrscheinlichkeitstheorie, nach der ein Wahrscheinlichkeitsmaß für zufällige Ereignisse folgende drei Axiome erfüllen muss:

  1. Für jedes Zufallsereignis LaTeX: A\in\Sigma ist die Wahrscheinlichkeit von LaTeX: A eine reelle Zahl zwischen 0 und 1: LaTeX: 0\leq P(A)\leq 1.
  2. Ein sicheres Ereignis LaTeX: \Omega\in\Sigma hat die Wahrscheinlichkeit 1: LaTeX: P(\Omega)=1.
  3. Die Wahrscheinlichkeit einer Vereinigung abzählbar vieler inkompatibler Ereignisse ist gleich der Summe der Wahrscheinlichkeiten der einzelnen Ereignisse. Dabei heißen Ereignisse LaTeX: A_i inkompatibel, wenn sie paarweise disjunkt sind, also bei LaTeX: A_i \cap A_j = \emptyset für alle LaTeX: i \neq j. Daher gilt: LaTeX: P\left(A_1\dot\cup A_2\dot\cup\cdots\right) = \sum P(A_i). Diese Eigenschaft wird auch abzählbare Additivität oder σ-Additivität genannt.

Bedingte Wahrscheinlichkeit

Die bedingte Wahrscheinlichkeit oder konditionale Wahrscheinlichkeit (eng. conditional probability) LaTeX: P(A\mid B) ist ein Maß für die Wahrscheinlichkeit, dass ein Ereignis LaTeX: A unter der Annahme eintritt, dass ein Ereignis LaTeX: B bereits eingetreten ist bzw. mit einer bestimmten Wahrscheinlichkeit LaTeX: P(B) > 0 eintreten wird. Dann gilt:

LaTeX: P(A\mid B) = \frac{P(A\cap B)}{P(B)}

LaTeX: A\cap B ist dabei die Schnittmenge von LaTeX: A und LaTeX: B und LaTeX: P(A\cap B) die Wahrscheinlichkeit dafür, dass LaTeX: A und LaTeX: B gemeinsam auftreten.

Umgekehrt gilt auch:

LaTeX: P(B\mid A) = \frac{P(A\cap B)}{P(A)}

Multiplikationssatz

Der Multiplikationssatz für zwei Ereignisse ergibt sich unmittelbar aus der Umformung der Definitionsgleichung für die bedingte Wahrscheinlichkeit:

LaTeX: P(A\cap B) = P(A\mid B) \cdot P(B)

Satz von Bayes

Der Satz von Bayes stellt den Zusammenhang von LaTeX: P(A \mid B) und LaTeX: P(B \mid A) her:

LaTeX: P(A\mid B) \; = \; \frac {P(B\mid A) \cdot P(A)} {P(B)}

Mit dem Satz von Bayes lässt sich somit die Wahrscheinlichkeit LaTeX: P(A) unter der Bedingung, dass LaTeX: B eingetreten ist, durch die Wahrscheinlichkeit LaTeX: P(B) unter der Bedingung, dass LaTeX: A eingetreten ist, berechnen.

Der springende Punkt ist, dass damit ein Vorwissen in die Berechnung einfließt. Die Bayessche Statistik ist zwar rechenaufwändig, aber gut geeignet, um Vorhersagen aufgrund früherer Erfahrungen zu erstellen und Lernvorgänge zu modellieren. Heute, wo durch die modernen Computern eine hinreichende Rechernkapazität verfügbar ist, macht man sich das insbesondere im Bereich der künstlichen Intelligenz zunutze. Viele Neurowissenschaftler gehen heute davon aus, dass auch im Gehirn dieses Prinzip für kognitive Prozesse angewendet wird.

Der Beweis des Satzes von Bayes folgt unmittelbar aus der Definition der bedingten Wahrscheinlichkeit bzw. dem Multiplikationssatz:

LaTeX: P\left(A\mid B\right) \; = \; \frac{P(A \cap B)}{P(B)} \; = \; \frac{\frac{P(A\cap B)}{P(A)} \cdot P(A)}{P(B)} \; = \; \frac{P\left(B\mid A\right)\cdot P(A)}{P\left(B\right)}

Totale Wahrscheinlichkeit

Die totale Wahrscheinlichkeit von LaTeX: A unter der Voraussetzung der paarweise disjunkten, d.h. einander ausschließenden Ereignisse LaTeX: B_1, B_2, \dotsc, B_n mit LaTeX: P(B_j) > 0 mit LaTeX: P(B_j) > 0 für alle LaTeX: j ergibt sich zu:

LaTeX: P(A) = P(A\cap B_1) + P(A\cap B_2) + \dotsc + P(A\cap B_n)= \sum_{j=1}^{n} P\left(A\mid B_j\right)\cdot P\left(B_j\right)

Stochastische Unabhängigkeit

Sind LaTeX: A und LaTeX: B stochastisch unabhängig gilt hingegen:

LaTeX: P(A\cap B) = P(A) \cdot P(B)

Siehe auch

Weblinks

Einzelnachweise

  1. Langenscheidt: probabilitas
  2. Langenscheidt: probare