Wahr|schein|lich|keits|the|o|rie 〈f. 19; unz.〉 philosoph., mathemat. Lehre von den Gesetzmäßigkeiten zufälliger Ereignisse u. Prozesse
* * *
Wahr|schein|lich|keits|the|o|rie, die:
philosophisch-mathematische Theorie der Wahrscheinlichkeitsrechnung.
* * *
Wahrscheinlichkeits|theorie,
mathematische Theorie zur Modellierung und Analyse von Zufallsversuchen. Sie ist ein Gebiet der Stochastik sowie Grundlage der mathematischen Statistik und der Theorie der stochastischen Prozesse. Die Wahrscheinlichkeitstheorie hat zahlreiche Anwendungen in der Technik und den Naturwissenschaften (z. B. Atomphysik, statistische Mechanik, Genetik) sowie in den Wirtschafts- und Sozialwissenschaften.
Endliche Wahrscheinlichkeitsräume:
Endliche Wahrscheinlichkeitsräume (Ω, P ) beschreiben Zufallsversuche Z mit endlich vielen Versuchsausgängen a1, a2,.. ., aN. Dabei besteht die Ergebnismenge (Grund- oder Merkmalraum) Ω aus den Elementarereignissen a1, a2,.. ., aN, und P ist eine Funktion, die jedem Ereignis A (in diesem Fall jeder Teilmenge A von Ω ) eine Zahl P (A) zuordnet, die Wahrscheinlichkeit für das Auftreten des Ereignisses A. Man nennt P die Verteilung des Zufallsversuchs Z. Besteht dieser z. B. aus der Feststellung der Kinderzahl einer zufällig ausgewählten Familie einer bestimmten Stadt, so wählt man für Ω die Menge {0, 1, 2,.. ., 12}, falls die maximale Kinderzahl 12 beträgt. Dann ist B = {3, 4,.. ., 12} das Ereignis, dass die ausgewählte Familie mindestens drei Kinder besitzt. Die Wahrscheinlichkeitstheorie stellt Methoden bereit zur Berechnung von P (B) aus den Wahrscheinlichkeiten genügend vieler anderer Ereignisse, z. B. aller Elementarereignisse. Aufgrund der frequentistischen Interpretation von Wahrscheinlichkeiten fordert man von der Funktion P, dass sie alle wesentlichen Eigenschaften relativer Häufigkeiten hx (A) besitzt; es sind dies die drei nachfolgenden Eigenschaften, sofern man dort P durch hx ersetzt. Auf diese Weise gelangt man zum kolmogorowschen Axiomensystem für endliche Wahrscheinlichkeitsräume (nach A. N. Kolmogorow):
2) Das sichere Ereignis Ω hat die Wahrscheinlichkeit P (Ω) = 1.
3) Es gilt die Additionsformel (der Additionssatz) der Wahrscheinlichkeitstheorie: Sind A und B zwei unvereinbare (disjunkte) Ereignisse, d. h., können sie nicht gleichzeitig eintreten, so gilt P (A ∪ B) = P (A) + P (B); es ist also die Wahrscheinlichkeit für das Eintreten von A oder B gleich der Summe der Wahrscheinlichkeiten für das Eintreten von A beziehungsweise B. - Aus 1) bis 3) folgen zahlreiche weitere Zusammenhänge, z. B.:
4) P (A1 ∪ A2 ∪.. . ∪ An) = P (A1) + P (A2) +.. . + P (An) für endlich viele paarweise unvereinbare Ereignisse A1, A2,.. ., An.
5) P (Ω — A) = 1 — P (A), d. h. die Wahrscheinlichkeit, dass A eintritt und die Wahrscheinlichkeit, dass A nicht eintritt, ergänzen sich zu eins. Insbesondere hat das unmögliche Ereignis, repräsentiert durch die leere Menge, die Wahrscheinlichkeit P (Ø) = 0.
Hat man z. B. in obigem Beispiel der Kinderzahl einer zufällig ausgewählten Familie frequentistisch ermittelt, dass P (0) = 0,22, P (1) = 0,32 und P (2) = 0,25 gilt, so ergibt sich die Wahrscheinlichkeit des Ereignisses B zu P (B) = 1 — P ({0, 1, 2}) = 1 — P (0) — P (1) — P (2) = 0,21.
Sind die Wahrscheinlichkeiten p1, p2,.. ., pN aller Elementarereignisse a1, a2,.. ., aN bekannt, so lässt sich hieraus die Wahrscheinlichkeit eines beliebigen Ereignisses A zu
berechnen; hierbei wird über die Indizes i summiert, fürdie ai in A liegt. In manchen Fällen, z. B. beim mehrmaligen Werfen eines idealen Würfels und einigen Urnenmodellen, ist es gerechtfertigt, von der Annahme auszugehen, dass alle Elementarereignisse die gleiche Wahrscheinlichkeit besitzen. Nennt man in diesem speziellen Fall die Elemente eines Ereignisses A die für A günstigen Fälle und die Elemente des sicheren Ereignisses Ω die möglichen Fälle, so folgt aus (*), dass P (A) der Quotient aus der Anzahl der günstigen und der Anzahl der möglichen Fälle ist. Der Zufallsversuch wird dann als Laplace-Versuch bezeichnet. Die Berechnung von P (A) läuft bei diesem Experiment auf das Abzählen der Mengen A und Ω hinaus, wozu Methoden der Kombinatorik verwendet werden.
Oft interessieren nur Teilaspekte eines Zufallsversuchs, die durch eine oder mehrere Zufallsvariable und deren (gemeinsame) Verteilung beschrieben werden. Ist diese bekannt, so ist für weitere Berechnungen weder die explizite Angabe der Ergebnismenge Ω noch der Zufallsvariablen (als Funktion auf Ω) erforderlich. In dem häufigen Fall, dass Z nacheinander in mehreren Stufen abläuft, verwendet man für Ω das kartesische Produkt von Mengen, welche die möglichen Ausgänge der einzelnen Stufen darstellen. Ein Beispiel ist die zufällige Auswahl und Übertragung eines der beiden binären Symbole 0 und 1 in einem Übertragungskanal, der zufälligen Störungen unterliegt. Hier wählt man Ω = {(0,0), (0,1), (1,0), (1,1)}. Dabei bedeutet z. B. das Elementarereignis (1,0), dass 1 gesendet und 0 empfangen wurde. Zur Festlegung der Verteilung P bei mehrstufigen Zufallsversuchen verwendet man oft bedingte Wahrscheinlichkeiten. Unter der bedingten Wahrscheinlichkeit eines Ereignisses B unter der Bedingung, dass das Ereignis A eingetreten ist, versteht man die Zahl P (B | A):P (A ∩ B) / P (A), sofern P (A) > 0 ist. Hieraus folgt durch Umformung das Multiplikationsgesetz der Wahrscheinlichkeitstheorie: P (A ∩ B) = P (A) · P (B | A); im Sonderfall, dass A und B unabhängig sind, also P (B | A) = P (B) gilt, nimmt es die Gestalt P (A ∩ B) = P (A) · P (B) an. Somit kann die Wahrscheinlichkeit dafür, dass A und B eingetreten sind, berechnet werden, sobald P (A) und P (B | A) bekannt sind. - Es bezeichne im vorangehenden Beispiel Ai beziehungsweise Bj das Ereignis, dass das Symbol i gesendet beziehungsweise das Symbol j empfangen wird. Weiß man aus Erfahrung, dass P (A0) = 0,6 ist und dass die Übertragung des Symbols 0 mit der bedingten Wahrscheinlichkeit 0,1 fehlerhaft ist, also P (B1 | A0) = 0,1 gilt, so erhält man für die Wahrscheinlichkeit des Elementarereignisses (0,1) den Wert P ({0,1}) = P (A0 ∩ B1) = P (A0) · P (B1 | A0) = 0,6 · 0,1 = 0,06. Bedingte Wahrscheinlichkeiten spielen in vielen Anwendungsgebieten der Wahrscheinlichkeitstheorie eine Rolle, z. B. auch in der Zuverlässigkeitstheorie zur Definition der Ausfallrate.
Hat ein Ereignis B die Gestalt B = für paarweise unvereinbareEreignisse A1, A2,.. ., An, so deutet man Letztere als mögliche Ursachen für das Auftreten von B. Aus der Additionsformel und dem Multiplikationssatz folgt der Satz von der totalen Wahrscheinlichkeit
Kennt man also alle Wahrscheinlichkeiten P (Aj) für das Auftreten der Ursachen Aj sowie die bedingten Wahrscheinlichkeiten P (B | Aj) für das Auftreten von B aufgrund der Ursache Aj, so kann für jede Ursache Ai die bedingte Wahrscheinlichkeit P (Ai | B) dafür berechnet werden, dass das Auftreten von B durch Ai bewirkt wurde.
Da zwei Zufallsvariable X und Y mit Werten in den endlichen Mengen I und J genau dann stochastisch unabhängig (Unabhängigkeit) sind, wenn P (Y = j | X = i) = P (Y = j) für alle i ∈ I und j ∈ J [mit P (X = i) > 0] gilt, beschreiben nicht nur Abhängigkeitsmaße wie der Korrelationskoeffizient (Korrelation), sondern auch die bedingten Wahrscheinlichkeiten P (Y = j | X = i) stochastische Abhängigkeiten zwischen X und Y. Dies ist z. B. bei den Markow-Prozessen von Bedeutung.
Hat der zu beschreibende Zufallsversuch Z abzählbar unendlich viele Ausgänge, ist also Ω abzählbar unendlich, genügt es, die Additionsformel 3) zur so genannten σ-Additivität von P zu erweitern: 3') Sind A1, A2,.. . abzählbar unendlich viele paarweise unvereinbare Ereignisse, so gilt die Formel (*) behält ihre Gültigkeit.
Allgemeine Wahrscheinlichkeitsräume:
Hat der zu beschreibende Zufallsversuch überabzählbar viele Ausgänge, so treten Probleme auf, die nur maßtheoretisch lösbar sind. Dies ist besonders bei den stochastischen Prozessen der Fall, aber auch schon bei der exakten Behandlung des einfachen Falls, dass die zufällige Schwankung von Messergebnissen durch eine Normalverteilung beschrieben werden soll. In diesem speziellen Fall mit Ω = ℝ könnte man vermuten, dass für jede Teilmenge A ⊂ ℝ die Wahrscheinlichkeit P (A) festgelegt ist, sobald man die Wahrscheinlichkeiten der speziellen Ereignisse (—∞, x], x ∈ ℝ, vorgibt und dazu fordert, dass die Funktion P die Eigenschaften 1), 2) und 3') besitzt. Ein Resultat der Wahrscheinlichkeitstheorie besagt jedoch, dass es keine solche Funktion P (die auf der Potenzmenge von ℝ definiert wäre) gibt. Die Lösung des Problems besteht in diesem speziellen Fall darin, nicht allen Teilmengen A von ℝ, sondern nur den für praktische Zwecke völlig ausreichenden borelschen Mengen (Verteilung) Wahrscheinlichkeiten zuzuordnen. Aus dem gleichen Grund schränkt man im allgemeinen Fall das System der Mengen A ⊂ Ω, für die man P (A) definiert, auf eine geeignete σ-Algebra von Teilmengen von Ω ein (Maßtheorie). Nur die Mengen in, die in der Maßtheorie -messbare Mengen heißen, werden Ereignisse genannt. So gelangt man zu einem allgemeinen Wahrscheinlichkeitsraum (Ω,, P), in dem die Verteilung P nur den Mengen in Wahrscheinlichkeiten zuordnet und zwar derart, dass die kolmogorowschen Axiome 1), 2) und 3') gelten. Diesen Zugang wählte A. N. Kolmogorow im Jahre 1933 als Ausgangspunkt eines weit reichenden Aufbaus der modernen Wahrscheinlichkeitstheorie (Axiomatisierung der Wahrscheinlichkeitstheorie). Zwar benutzte F. Hausdorff bereits 1923 die Axiome 1), 2) und 3') in einer unveröffentlichten Vorlesung, er entwickelte daraus jedoch nicht eine ähnlich umfangreiche Theorie wie Kolmogorow. Schon 1919 hatte R. von Mises den (vergeblichen) Versuch unternommen, in Anlehnung an den frequentistischen Standpunkt die Wahrscheinlichkeitstheorie P (A) als Grenzwert der relativen Häufigkeiten des Ereignisses A für unbegrenzt wachsenden Stichprobenumfang n zu definieren.
Die in endlichen Wahrscheinlichkeitsräumen geltenden Regeln sind auch in allgemeinen Wahrscheinlichkeitsräumen gültig. In Verallgemeinerung des Sonderfalls, in dem X eine Dichte oder eine diskrete Dichte besitzt, wird der Erwartungswert E (X ) einer Zufallsvariablen X auf einem beliebigen Wahrscheinlichkeitsraum (Ω,, P) als Integral ∫ X (ω) d P (ω) bezüglich der Verteilung P (eine Verallgemeinerung des Lebesgue-Integrals) definiert, falls ∫ |X (ω)| d P (ω) endlich ist. Mit E (X ) sind dann z. B. auch die Varianz V (X) und die Kovarianz cov (X, Y) für beliebige Zufallsvariable X und Y erklärt.
Klassische grundlegende Resultate der Wahrscheinlichkeitstheorie sind die Gesetze der großen Zahlen und der zentrale Grenzwertsatz.
G. Cardano befasste sich im 16. Jahrhundert in seinem Buch »Liber de ludo aleae« schon mit der mathematischen Beschreibung von Würfelspielproblemen. Um 1654 erörterten B. Pascal und P. de Fermat Fragen im Zusammenhang mit Glücksspielen, wodurch C. Huygens zu seinem Buch »De ratiociniis in ludo aleae« (1657) angeregt wurde. Das postum 1713 erschienene Werk »Ars conjectandi« von J. Bernoulli enthält eine Darstellung der Kombinatorik, deren Anwendungen auf Glücksspiele und wirtschaftliche Probleme sowie das von ihm gefundene Gesetz der großen Zahlen. Zum weiteren Aufbau der Wahrscheinlichkeitsrechnung im 18. Jahrhundert trugen v. a. T. Bayes, L. Euler und A. de Moivre bei, der u. a. auch die nach C. F. Gauss benannte Normalverteilung entdeckte. P. S. Marquis de Laplace fasste in seinem Werk »Théorie analytique des probabilités« (1812) grundlegende Aussagen der Wahrscheinlichkeitsrechnung zusammen und S. D. Poisson stieß auf die nach ihm benannte Verteilung. Bedeutende Resultate in der Wahrscheinlichkeitstheorie, insbesondere auf dem Gebiet der Grenzwertsätze und der stochastischen Prozesse, erzielten u. a. im 19. Jahrhundert P. L. Tschebyschow und im 20. Jahrhundert A. J. Chintschin, H. Cramér, W. Feller, Kolmogorow, A. A. Markow und A. Rényi.
P. S. de Laplace: Philosoph. Versuch über Wahrscheinlichkeiten (a. d. Frz., 1819);
A. N. Kolmogoroff: Grundbegriffe der Wahrscheinlichkeitsrechnung (1933, Nachdr. 1977);
W. Feller: An introduction to probability theory and its applications, 2 Bde. (New York 2-31968-71);
R. Carnap: Logical foundations of probability (London 1971);
H. Bauer: W. (41991);
Lex. der Stochastik, hg. v. Paul H. Müller (51991);
A. Engel: Wahrscheinlichkeitsrechnung u. Statistik, 2 Bde. (Neudr. 1992);
N. Henze: Stochastik für Einsteiger (1997);
O. Kallenberg: Foundations of modern probability (New York 1997);
U. Krengel: Einf. in die W. u. Statistik (41998);
* * *
Wahr|schein|lich|keits|the|o|rie, die: philosophisch-mathematische Theorie der Wahrscheinlichkeitsrechnung.
Universal-Lexikon. 2012.