In der Wahrscheinlichkeitstheorie und -statistik modelliert das Binomialgesetz die Häufigkeit der Anzahl der Erfolge, die bei der Wiederholung mehrerer identischer und unabhängiger Zufallsexperimente erzielt wurden. Eine visuelle Möglichkeit, diese Reihe von Experimenten darzustellen, ist die Verwendung eines Wahrscheinlichkeitsbaums : Bei jeder Generation des Baums verlassen zwei Zweige jeden Knoten, einen für den Erfolg und einen für den Misserfolg.
Mathematischer ausgedrückt ist das Binomialgesetz ein diskretes Wahrscheinlichkeitsgesetz, das durch zwei Parameter beschrieben wird: n die Anzahl der durchgeführten Experimente und p die Erfolgswahrscheinlichkeit. Für jedes Experiment, das als Bernoulli-Test bezeichnet wird , verwenden wir eine Zufallsvariable, die den Wert 1 für einen Erfolg und ansonsten den Wert 0 annimmt . Die Zufallsvariable, die Summe aller dieser Zufallsvariablen, zählt die Anzahl der Erfolge und folgt einem Binomialgesetz. Es ist dann möglich, die Wahrscheinlichkeit von k Erfolgen in einer Wiederholung von n Experimenten zu erhalten:
Diese Formel beinhaltet den Binomialkoeffizienten, von dem der Name des Gesetzes stammt.
Die Bedeutung dieses Gesetzes ist zunächst historisch , da sie das Objekt der Untersuchung des war Satzes von Moivre-Laplace , Ergebnis der XVIII E Jahrhundert Gründer der Theoreme der Konvergenz . Ein Binomialgesetz kann auch verwendet werden, um einfache Erfolgs- oder Misserfolgssituationen zu modellieren, beispielsweise ein Münzwurfspiel . Die Berechnung seiner Massenfunktion wird schnell mühsam, wenn n groß ist. Es ist dann möglich, Näherungen durch andere Wahrscheinlichkeitsgesetze wie das Poisson- Gesetz oder das Normalgesetz zu verwenden und Wertetabellen zu verwenden.
Das Binomialgesetz wird in verschiedenen Studienbereichen angewendet, insbesondere durch statistische Tests , die es ermöglichen, Daten zu interpretieren und Entscheidungen in Situationen zu treffen, die von der Gefahr abhängen. Aufgrund der Einfachheit seiner Definition ist es eines der Wahrscheinlichkeitsgesetze, die in Einführungskursen zur Wahrscheinlichkeitstheorie untersucht wurden.
Ein Bernoulli-Gesetz beschreibt das Verhalten eines zufälligen Experiments, das zwei mögliche Ergebnisse hat, die traditionell als Erfolg und Misserfolg bezeichnet werden. Ein solches Experiment wird als Bernoulli-Test bezeichnet . Wenn Sie beispielsweise einen Münzwurf werfen , können Schwänze als Erfolg gewertet werden und Schwänze sind ein Fehlschlag. In diesem Modell ist die Erfolgswahrscheinlichkeit ein fester Wert, dh einer, der bei jeder Erneuerung des Zufallsexperiments konstant bleibt.
Stellen Sie sich die Situation vor, in der ein solches zufälliges Experiment (zwei mögliche Ergebnisse und eine feste Wahrscheinlichkeit) unabhängig voneinander mehrmals wiederholt wird. bezeichne diese Anzahl von Malen mit n . Diese unabhängige Wiederholung von Bernoulli-Tests wird als Bernoulli-Schema oder einfach als Bernoulli-Test bezeichnet . Ein Binomialgesetz beschreibt, wie oft Erfolg über die n durchgeführten Experimente auftritt . Da die Anzahl der erzielten Erfolge ein Zufallswert ist, wird eine Binomialverteilung unter Verwendung der Daten der Wahrscheinlichkeiten beschrieben, dass der Erfolg über die n Versuche genau k- mal auftritt .
Eine visuelle Möglichkeit, diese Wahrscheinlichkeiten zu finden, besteht darin, einen Wahrscheinlichkeitsbaum zu erstellen (siehe nebenstehende Abbildung). Jeder Test wird durch zwei Zweige dargestellt: einen für den Erfolg und einen für den Misserfolg. An jedem Ende fügen wir zwei Zweige (bestanden und nicht bestanden) für den nächsten Test hinzu. Wir beginnen erneut bis zur Gesamtzahl der Tests. An jedem Ende können wir die Anzahl der erzielten Erfolge zählen. Es reicht aus, die Häufigkeit, mit der k Erfolge vorliegen, mit der Wahrscheinlichkeit zu multiplizieren , k Erfolge zu erzielen, um die entsprechende Wahrscheinlichkeit der Binomialverteilung zu erhalten.
Zum Beispiel würfeln wir dreimal hintereinander mit einem ausgeglichenen sechsseitigen Würfel und sind daran interessiert, wie oft die 1 erscheint. Es erscheint 0, 1, 2 oder 3 Mal. Jede Rolle ist unabhängig von den anderen , und die Wahrscheinlichkeit eines Walz 1 ist 1/6 auf jeden von ihnen, also die Wahrscheinlichkeit , dass es nicht angezeigt ist 5/6 auf jeder Rolle. Daher betrachten wir für jeden Wurf ein Bernoulli-Gesetz mit Parameter 1/6 . Es gibt drei Konfigurationen, um einmal eine 1 zu erhalten : Sie erscheint beim ersten Wurf oder beim zweiten oder dritten. Jedes dieser Probleme hat die gleiche Wahrscheinlichkeit des Auftretens : . Die Wahrscheinlichkeit, einmal 1 zu haben, ist : . Wir finden für eine Binomialverteilung b (3, 1/6) . Es ist möglich, die anderen Wahrscheinlichkeiten auf die gleiche Weise zu finden.
Das Binomialgesetz ist ein diskretes Wahrscheinlichkeitsgesetz mit zwei Parametern: und . Es ist üblich, auch den Parameter q = 1 - p zu verwenden, um präzisere Ausdrücke zu erhalten. Es hat mehrere äquivalente Definitionen:
Definition 1 - Das binomische Gesetz, mit Parametern n und p , ist das Wahrscheinlichkeitsgesetz von einer Zufallsvariablen X gleich die Anzahl der Erfolge bei einer Wiederholung auftretenden n Bernoulli - Tests , p ist die Wahrscheinlichkeit des Erfolgs in jeweils zwischen ihnen.
Definition 2 - Das Binomialgesetz mit den Parametern n und p ist das Wahrscheinlichkeitsgesetz einer Zufallsvariablen X, so dass:
das sind unabhängige Zufallsvariablen mit Bernoulli gleichen Parameter p .
Definition 3 - Das Binomialgesetz mit den Parametern n und p ist das diskrete Wahrscheinlichkeitsgesetz einer Zufallsvariablen X, deren Massenfunktion gegeben ist durch:
für .Wir erinnern uns, dass zufällige und diskrete Gesetzesvariablen unabhängig sind, wenn .
Die in der Definition 3 angegebene Massenfunktion hat eine Bedeutung, wie die Formel des Binomialsatzes ergibt : . Definition 2 ist das mathematische Schreiben von Definition 1.
Definition 3 entspricht den beiden anderen: Wir berechnen explizit die Wahrscheinlichkeit, dass k Erfolge in n Versuchen auftreten. Da die n Wiederholungen unabhängig sind, beträgt die Wahrscheinlichkeit, k Erfolge und damit n - k Misserfolge zu erzielen, in dem Fall, in dem der Ort der Ergebnisse nicht berücksichtigt wird. Es reicht dann aus, sich für die k Erfolge und n - k Misserfolge zu interessieren . Das heißt, wie viele Möglichkeiten gibt es, k Erfolge unter n Ergebnissen zu platzieren (unabhängig von der Reihenfolge zwischen den Erfolgen)? Dies ist die Anzahl der Kombinationen von k Elementen unter n Elementen, die durch den Binomialkoeffizienten gegeben sind . Wir finden dann die Massenfunktion von Definition 3.
BewertungDie Tatsache, dass eine Zufallsvariable X einer Binomialverteilung der Parameter n und p folgt, wird bemerkt :; oder .
WahrscheinlichkeitsmaßDa die Binomialverteilung b ( n , p ) eine diskrete Verteilung ist, ist es möglich, sie dank ihres Wahrscheinlichkeitsmaßes zu definieren :
, wo ist das Dirac-Maß am Punkt k .Das Binomialgesetz ist eines der ältesten untersuchten Wahrscheinlichkeitsgesetze. Es wurde von Jacques Bernoulli eingeführt, der es 1713 in seinem Werk Ars Conjectandi erwähnte . Zwischen 1708 und 1718 entdeckten wir auch das Multinomialgesetz (mehrdimensionale Verallgemeinerung des Binomialgesetzes), das negative Binomialgesetz sowie die Approximation des Binomialgesetzes durch das Poisson- Gesetz , das Gesetz der großen Zahlen für das Binomialgesetz und eine Annäherung an den Schwanz der Binomialverteilung.
Dank des Ausdrucks seiner Massenfunktion wurde das Binomialgesetz von mehreren Wissenschaftlern verwendet, um Berechnungen in konkreten Situationen durchzuführen. Dies ist der Fall von Abraham de Moivre , dem es gelungen ist, eine Annäherung des Binomialgesetzes an das Normalgesetz zu finden. Er veröffentlichte seine Ergebnisse erstmals 1733 in lateinischer Sprache: Approximatio ad summam terminorum binomii ( a + b ) n in seriem expansi , dann übersetzt sie zur Veröffentlichung im Jahre 1738 in The Doctrine of Chances (en) . Im Jahr 1812 nahm Pierre-Simon de Laplace diese Arbeit wieder auf. Francis Galton erstellt die Galton- Platte , die eine physikalische Darstellung dieser Konvergenz ermöglicht. 1909 sprach Émile Borel aus und bewies im Fall des Binomialgesetzes die erste Version des starken Gesetzes der großen Zahlen .
In jüngerer Zeit, 1914, zeigt McKendrick (in) , dass die Binomialverteilung die Lösung eines einfachen Prozesses der Geburt und Auswanderung ist . Nach der Arbeit von William Feller aus dem Jahr 1957 kann es auch als stationäres Gesetz für das Modell der Ehrenfest-Urnen angesehen werden . Im selben Jahr zeigt Haight, dass das Binomialgesetz mit einem Warteschlangenproblem verbunden ist .
Die binomische erscheint in vielen Anwendungen des XX - ten Jahrhundert: in der Genetik in Tierbiologie in Pflanzenökologie , für statistische Tests , in verschiedenen physikalischen Modellen wie Telefonnetze oder das Modell der Ehrenfestsche Urne usw.
Der Name "Binomial" dieses Gesetzes stammt aus dem Schreiben seiner Massenfunktion (siehe unten), die einen Binomialkoeffizienten enthält , der sich aus der Entwicklung des Binomials ergibt : ( p + q ) n .
Da das Binomialgesetz eine Reihe von Bernoulli-Tests ist, kann es mithilfe eines Wahrscheinlichkeitsbaums dargestellt werden : Jeder Knoten stellt das Ergebnis eines Tests dar. Die Wahrscheinlichkeiten für Erfolg und Misserfolg werden durch zwei unterschiedliche Zweige dargestellt, die an einen Knoten angehängt sind. Der Graph ist daher ein ausgeglichener Binärbaum . Ein Baum mit n Generationen entspricht einer Binomialverteilung b ( n , p ) .
Wenn wir die Ergebnisse jedes Tests an den Rändern des Baums angeben, ist es möglich, die unterschiedlichen Ergebnisse des Binomialgesetzes zu visualisieren. Wenn die Werte der Wahrscheinlichkeiten an den Kanten angegeben sind, erscheinen die Wahrscheinlichkeiten der Binomialverteilung am Ende der Verzweigungen (siehe nebenstehende Grafik).
Der Graph ist ein Wahrscheinlichkeitsbaum für eine Binomialverteilung mit dem Parameter n = 3 . Auf jedem Zweig sind die Wahrscheinlichkeiten der verschiedenen Ergebnisse angegeben: zum Beispiel der rechte, der linke und der rechte Zweig; das heißt, Misserfolg, Erfolg, dann Misserfolg. Am Ende der Zweige des Baumes erscheinen die Wahrscheinlichkeiten jedes Ergebnisses des Binomialgesetzes b (3, p ) . Das ist für die Werte sagen , k = 0, 1, 2 oder 3 erhalten wird , , und . Wir finden also die verschiedenen Binomialkoeffizienten :
Am bekanntesten sind die Erwartung und die Varianz , die herkömmlicherweise aus der obigen Definition 2 abgeleitet werden :
.Die faktoriellen Momente der Binomialverteilung der Parameter n und p sind:
.
Daher sind seine gewöhnlichen Momente :
S ( r , k ) p k , mit den ersten Werten:
(hoffen) | |
Wir können sie auch durch die Wiederholungsformel erhalten
,
wobei der Term die Ableitung in Bezug auf die Variable p bezeichnet .
Die entgegengesetzten Momente, das heißt mit , sind unendlich.
Zentrierte MomenteDie zentrierten Momente sind die Momente der Differenz zwischen der Variablen und ihrem Mittelwert.
;; (Varianz) | |
Der Ausdruck der Varianz ergibt die Standardabweichung : .
Die zentrierten Momente werden auch durch diese andere Wiederholungsrelation berechnet:
.
Mittlerer UnterschiedDie mittlere Abweichung (oder mittlere Abweichung) ist der Durchschnitt der Abweichungen vom Mittelwert; es ist gegeben durch:
,
wo ist der ganzzahlige Teil von np .
Wenn zum Beispiel , , Wert mit der Standardabweichung verglichen werden: .
ErfolgshäufigkeitDank der vorhergehenden Formeln erhalten wir die Momente der Häufigkeit von Erfolgen ::
Moment der Ordnung 1 (oder Erwartung) der Erfolgshäufigkeit | ||
zentrales Moment der Ordnung 2 (oder Varianz) der Erfolgsfrequenz | ||
Zentrisches Moment 4. Ordnung der Erfolgsfrequenz |
Der Ausdruck der Varianz der Frequenz gibt die Standardabweichung der Erfolgshäufigkeit an .
KovarianzWir betrachten zwei Zufallsvariablen und nicht unbedingt unabhängig von den jeweiligen Binomialgesetzen und . Die Kovarianz ermöglicht es, die Abhängigkeit zwischen den beiden Variablen zu bewerten:
.Wenn np eine ganze Zahl ist , sind der Modus, der Mittelwert und der Median alle drei np .
StabilitätseigenschaftenDie Verteilungsfunktion einer Zufallsvariablen X nach dem Binomialgesetz b ( n , p ) ist gegeben durch:
wo ist der ganzzahlige Teil von x .
Selbst wenn es einen Ausdruck für die Verteilungsfunktion gibt, ist seine Berechnung aufgrund der Binomialkoeffizienten nicht einfach , insbesondere wenn n groß ist. Es gibt dann Wertetabellen (siehe unten ). Approximationssätze wurden entwickelt, um diese Verteilungsfunktion theoretisch zu berechnen (siehe unten ). Der folgende Ausdruck stammt aus der Verknüpfung zwischen der Binomialverteilung und der Beta-Verteilung (siehe unten ): für
Dabei ist B die Beta-Funktion . Dank der unvollständigen Beta-Funktion ist es dann möglich, die Verteilungsfunktion zu schreiben :
.Die charakteristische Funktion einer Zufallsvariablen X nach dem Binomialgesetz b ( n , p ) ist gegeben durch:
.Die Generatorfunktion der Momente einer Zufallsvariablen X nach dem Binomialgesetz b ( n , p ) ist gegeben durch:
.Wir leiten direkt die Erzeugungsfunktion der Kumulanten ab :
,und die Erzeugungsfunktion der faktoriellen Kumulanten :
.Denken Sie daran, dass die Binomialverteilung der Parameter und das Gesetz der Summe von n unabhängigen Zufallsvariablen des Bernoulli-Gesetzes mit demselben Parameter p ist .
Somit ist das Binomialgesetz b (1, p ) ein Bernoulli-Gesetz mit dem Parameter p .
Durch diese Darstellung der Anzahl von Erfolgen und Misserfolgen in einer Reihe von Tests ist das Binomialgesetz die Quelle zahlreicher Anwendungen.
Die folgenden Gesetze beziehen sich aufgrund ihrer Verteilungsfunktionen auf das Binomialgesetz. Wenn die Anzahl der Erfolge k festgelegt ist, geben sie das Gesetz der Anzahl der erforderlichen Tests (negatives Binomialgesetz) oder das Gesetz des Parameters p (Beta- oder Fisher-Gesetze) an. In diesem Sinne können sie als gegenseitige Gesetze dienen .
Bei großen Werten von n wird die Berechnung der Massen- und Verteilungsfunktionen schnell mühsam. Eine Methode besteht darin, sich diesen Werten unter Verwendung von Grenzwertsätzen zu nähern. Das Gesetz (schwach oder stark) großer Zahlen ermöglicht es, sich dem Mittelwert der Binomialverteilung zu nähern. Um ungefähre Werte der Verteilungsfunktion zu erhalten, ist es möglich, die normale Näherung oder die Poisson-Gesetz- Näherung zu verwenden . Die normale Näherung ist effizienter, wenn der Parameter p nicht zu nahe an 0 oder 1 liegt , andernfalls liefert die Poisson-Gesetz-Näherung bessere Ergebnisse.
Das schwache Gesetz der großen Zahlen , das auf einen Bernoulli-Prozess des Parameters p angewendet wird , garantiert, dass für jede Folge ( X n ) von Zufallsvariablen, die auf demselben probabilisierten Raum definiert sind, und für die jeweiligen Gesetze b ( n , p ) (vgl. Definition) 2 oben ) haben wir für alles : Genauer gesagt, da die Erwartung und die Varianz von X n gleich np und np (1 - p ) sind , zeigt die Bienaymé-Chebyshev-Ungleichung , dass: Dies kann grob wie folgt interpretiert werden. Wenn wir das bei einem Zufallsexperiment wissen (eine Person aus einer großen Population zeichnen, Werfen einer Münze, etc.) die Wahrscheinlichkeit des Auftretens von Eigenschaft A ist p ( A ) , dann wird die Frequenz Auftreten Eigenschaft A während n Experimenten dieser Der Typ (Zeichnung von n Individuen in einer Population mit einer Größe, die viel größer als n ist , n Münzwürfe usw.) liegt häufig nahe bei p ( A ) , mit einer Wahrscheinlichkeit von so viel besser, wie n groß ist und dass p ( A ) nahe ist auf 0 oder 1 .
Es gibt bessere Erhöhungen dieser Wahrscheinlichkeit, die Hoeffding-Ungleichung ergibt:
Betrachten Sie eine Binomialverteilung b ( n , p ) so, dass die Parameter n und p durch die Formel in Beziehung stehen: wobei festgelegt ist. Wenn n gegen unendlich geht und daher p gegen 0 tendiert, dann : . Mit anderen Worten, die Wahrscheinlichkeit, dass eine Binomialvariable den Wert k annimmt, konvergiert (wenn n groß wird) gegen die Wahrscheinlichkeit, dass eine Poisson-Verteilungsvariable den Wert k annimmt . Der Parameter p konvergiert dann gegen 0, er entspricht daher einem Ereignis mit sehr geringer Wahrscheinlichkeit, das Poisson-Gesetz wird dann das Gesetz der seltenen Ereignisse genannt. Durch Summierung erhalten wir dann das Ergebnis:
Wo ist der ganzzahlige Teil, X ist eine Binomialvariable und Y ist eine Poisson-Verteilung . Diese Grenze zeigt die Konvergenz des Binomialgesetzes (mit den vorhergehenden Bedingungen) zum Poisson-Gesetz. Ein detaillierterer Ausdruck der Konvergenz kann durch die Formel gegeben werden: mit wenn n gegen unendlich tendiert und der asymptotische Komparator ist .
1953 gibt Yuri Prokhorov eine Erhöhung des gesamten Approximationsfehlers zwischen der Verteilungsfunktion einer Binomialverteilung B ( n , p ) und einer Poisson-Verteilung an : . Es ist auch möglich, das Verhältnis zwischen den beiden Verteilungsfunktionen zu begrenzen:
AnnäherungDank der obigen Konvergenz ist es möglich, die Wahrscheinlichkeiten der Binomialverteilung durch die Poisson-Verteilung zu erreichen. In der Praxis gilt der Fall, wenn n groß und daher p klein ist. Es werden verschiedene Werte vorgeschlagen:
Die gemeinsame Idee all dieser Sätze ist, den Wert np stabil zu haben, wenn n groß und p klein ist.
Das 1733 festgelegte Moivre-Laplace-Theorem zeigt, dass eine Zufallsvariable der Binomialverteilung, die entsprechend renormiert ist, im Gesetz gegen eine Zufallsvariable der Normalverteilung konvergiert . Dieses Ergebnis kann unter Verwendung der Verteilungsfunktionen der beiden Gesetze angegeben werden. Betrachten Sie eine Zufallsvariable X Binomial b ( n , p ) , die zufällig normalisierte Zufallsvariable X ist die zentrierte und reduzierte Zufallsvariable, dh : . Wenn wir die Verteilungsfunktion der Normalverteilung bezeichnen, dann:
Satz von Moivre-Laplace: für alles ,Obwohl Abraham de Moivre dieses Ergebnis nur im Fall eines Binomialgesetzes angegeben hat, ist diese Konvergenz im Fall anderer Gesetze verallgemeinert, es ist der zentrale Grenzwertsatz . Dieser Satz ermöglicht es, sich einem diskreten Gesetz durch ein kontinuierliches Gesetz zu nähern. Es ist dann nützlich, einen Koeffizienten hinzuzufügen, der als Kontinuitätskorrektur bezeichnet wird , um zukünftige Näherungen zu verbessern (siehe unten). Die vorhergehende Konvergenz kann dann in Form einer Äquivalenz geschrieben werden, wenn n gegen unendlich tendiert: für alle
Der durch die Näherung gemachte Fehler wird durch die Berry-Esseen-Ungleichung geschätzt, deren Konstante regelmäßig verbessert wird. Sie liefert eine Grenze für die Differenz zwischen den beiden Verteilungsfunktionen, wenn n groß ist, für X eine Zufallsvariable des Verteilungsbinoms b ( n , p ) und Y Normalgesetzverteilungsfunktion vermerkt : . Ein detaillierterer Ausdruck der Konvergenz kann durch die Formel mit Kontinuitätskorrektur gegeben werden: einheitlich für jede Variable x , wenn n gegen unendlich tendiert und wo sich der asymptotische Komparator befindet . Andere feinere Näherungen wurden untersucht, beispielsweise von Laplace (1820), Prokhorov (1953) oder Peizer und Pratt (en) (1968).
AnnäherungDank der obigen Konvergenzsätze können, wenn n groß ist, die Wahrscheinlichkeiten des renormierten Binomials durch die Werte der Wahrscheinlichkeiten der Normalverteilung angenähert werden. Es gibt verschiedene Regeln für die Parameter n und p, damit die Näherung gültig ist:
Der Einfluss dieser Parameter auf die Approximation wurde in den 90er Jahren genau untersucht, zum Beispiel: Für festes n wird der minimale absolute Fehler für p = 1/2 erreicht ; Der absolute Fehler ist kleiner als .
Tabellen der Massenfunktion und die binomischen Verteilungsfunktion wurden im Jahre 1950 vom veröffentlicht National Bureau of Standards und dann im Jahr 1955 in der nationalen der Computation Laboratory und von Rao et al. im Jahr 1985.
Dank der Symmetriebeziehungen (siehe oben ) reicht es aus, Wertetabellen für anzugeben .
Die folgenden Wertetabellen geben die Werte der Massenfunktion der Binomialverteilung b ( n , p ) für verschiedene Werte von n an .
Beispiele: Wenn X einem Gesetz folgt , dann . Wenn Y einem Gesetz folgt , dann . Für n = 50,05 | 0,10 | 0,15 | 0,20 | 0,25 | 0,30 | 0,35 | 0,40 | 0,50 | |
---|---|---|---|---|---|---|---|---|---|
0 | 0,7738 | 0,5905 | 0,4437 | 0,3277 | 0,2373 | 0,1681 | 0,1160 | 0,0778 | 0,0312 |
1 | 0,2036 | 0,3281 | 0,3915 | 0,4096 | 0,3955 | 0,3601 | 0,3124 | 0,2592 | 0,1562 |
2 | 0,0214 | 0,0729 | 0,1382 | 0,2048 | 0,2637 | 0,3087 | 0,3364 | 0,3456 | 0,3125 |
3 | 0,0011 | 0,0081 | 0,0244 | 0,0512 | 0,0879 | 0,1323 | 0,1811 | 0,2304 | 0,3105 |
4 | 0,0000 | 0,0005 | 0,0022 | 0,0064 | 0,0146 | 0,0283 | 0,0488 | 0,0768 | 0,1562 |
5 | 0,0000 | 0,0000 | 0,0001 | 0,0003 | 0,0010 | 0,0024 | 0,0053 | 0,0102 | 0,0312 |
0,05 | 0,10 | 0,15 | 0,20 | 0,25 | 0,30 | 0,35 | 0,40 | 0,50 | |
---|---|---|---|---|---|---|---|---|---|
0 | 0,5987 | 0,3487 | 0,1969 | 0,1074 | 0,0563 | 0,0282 | 0,0135 | 0,0060 | 0,0010 |
1 | 0,3151 | 0,3874 | 0,3474 | 0,2684 | 0,1877 | 0,1211 | 0,0725 | 0,0403 | 0,0098 |
2 | 0,0746 | 0,1937 | 0,2759 | 0,3020 | 0,2816 | 0,2335 | 0,1757 | 0,1209 | 0,0439 |
3 | 0,0105 | 0,0574 | 0,1298 | 0,2013 | 0,2503 | 0,2668 | 0,2522 | 0,2150 | 0,1172 |
4 | 0,0010 | 0,0112 | 0,0401 | 0,0881 | 0,1460 | 0.2001 | 0,2377 | 0,2508 | 0,2051 |
5 | 0,0001 | 0,0015 | 0,0085 | 0,0264 | 0,0584 | 0,1029 | 0,1536 | 0.2007 | 0,2461 |
6 | 0,0000 | 0,0001 | 0,0012 | 0,0055 | 0,0162 | 0,0368 | 0,0689 | 0,1115 | 0,2051 |
7 | 0,0000 | 0,0000 | 0,0001 | 0,0008 | 0,0031 | 0,0090 | 0,0212 | 0,0425 | 0,1172 |
8 | 0,0000 | 0,0000 | 0,0000 | 0,0001 | 0,0004 | 0,0014 | 0,0043 | 0,0106 | 0,0439 |
9 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0001 | 0,0005 | 0,0016 | 0,0098 |
10 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0001 | 0,0010 |
0,05 | 0,10 | 0,15 | 0,20 | 0,25 | 0,30 | 0,35 | 0,40 | 0,50 | |
---|---|---|---|---|---|---|---|---|---|
0 | 0,3585 | 0,1216 | 0,0388 | 0,0115 | 0,0032 | 0,0008 | 0,0002 | 0,0000 | 0,0000 |
1 | 0,3774 | 0,2702 | 0,1368 | 0,0576 | 0,0211 | 0,0068 | 0,0020 | 0,0005 | 0,0000 |
2 | 0,1887 | 0,2852 | 0,2293 | 0,1369 | 0,0669 | 0,0278 | 0,0100 | 0,0031 | 0,0002 |
3 | 0,0596 | 0,1901 | 0,2428 | 0,2054 | 0,1339 | 0,0716 | 0,0323 | 0,0123 | 0,0011 |
4 | 0,0133 | 0,0898 | 0,1821 | 0,2182 | 0,1897 | 0,1304 | 0,0738 | 0,0350 | 0,0046 |
5 | 0,0022 | 0,0319 | 0,1028 | 0,1746 | 0,2023 | 0,1789 | 0,1272 | 0,0746 | 0,0148 |
6 | 0,0003 | 0,0089 | 0,0454 | 0,1091 | 0,1686 | 0,1916 | 0,1712 | 0,1244 | 0,0370 |
7 | 0,0000 | 0,0020 | 0,0160 | 0,0545 | 0,1124 | 0,1643 | 0,1844 | 0,1659 | 0,0739 |
8 | 0,0000 | 0,0004 | 0,0046 | 0,0222 | 0,0609 | 0,1144 | 0,1614 | 0,1797 | 0,1201 |
9 | 0,0000 | 0,0001 | 0,0011 | 0,0074 | 0,0271 | 0,0654 | 0,1158 | 0,1597 | 0,1602 |
10 | 0,0000 | 0,0000 | 0,0002 | 0,0020 | 0,0099 | 0,0308 | 0,0686 | 0,1171 | 0,1762 |
11 | 0,0000 | 0,0000 | 0,0000 | 0,0005 | 0,0030 | 0,0120 | 0,0336 | 0,0710 | 0,1602 |
12 | 0,0000 | 0,0000 | 0,0000 | 0,0001 | 0,0008 | 0,0039 | 0,0136 | 0,0355 | 0,1201 |
13 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0002 | 0,0010 | 0,0045 | 0,0146 | 0,0739 |
14 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0002 | 0,0012 | 0,0049 | 0,0370 |
fünfzehn | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0003 | 0,0013 | 0,0148 |
16 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0003 | 0,0046 |
17 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0011 |
18 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0000 | 0,0002 |
Die folgenden Wertetabellen geben die Werte der Binomialverteilungsfunktion b ( n , p ) für verschiedene Werte von n an .
Beispiele: Wenn X einem Gesetz folgt , dann . Wenn Y einem Gesetz folgt , dann . Für n = 50,05 | 0,10 | 0,15 | 0,20 | 0,25 | 0,30 | 0,35 | 0,40 | 0,50 | |
---|---|---|---|---|---|---|---|---|---|
0 | 0,7738 | 0,5905 | 0,4437 | 0,3277 | 0,2373 | 0,1681 | 0,1160 | 0,0778 | 0,0312 |
1 | 0,9774 | 0,9185 | 0,8352 | 0,7373 | 0,6328 | 0,5282 | 0,4284 | 0,3370 | 0,1875 |
2 | 0,9988 | 0,9914 | 0,9734 | 0,9421 | 0,8965 | 0,8369 | 0,7648 | 0,6826 | 0,5000 |
3 | 1.0000 | 0,9995 | 0,9978 | 0,9933 | 0,9844 | 0,9692 | 0,9460 | 0,9130 | 0,8125 |
4 | 1.0000 | 1.0000 | 0,9999 | 0,9997 | 0,9990 | 0,9976 | 0,9947 | 0,9898 | 0,9688 |
5 | 1.0000 | 1.0000 | 1.0000 | 1.0000 | 1.0000 | 1.0000 | 1.0000 | 1.0000 | 1.0000 |
0,05 | 0,10 | 0,15 | 0,20 | 0,25 | 0,30 | 0,35 | 0,40 | 0,50 | |
---|---|---|---|---|---|---|---|---|---|
0 | 0,5987 | 0,3487 | 0,1969 | 0,1074 | 0,0563 | 0,0282 | 0,0135 | 0,0060 | 0,0010 |
1 | 0,9139 | 0,7361 | 0,5443 | 0,3758 | 0,2440 | 0,1493 | 0,0860 | 0,0464 | 0,0107 |
2 | 0,9885 | 0,9298 | 0,8202 | 0,6778 | 0,5256 | 0,3828 | 0,2616 | 0,1673 | 0,0547 |
3 | 0,9990 | 0,9872 | 0,9500 | 0,8791 | 0,7759 | 0,6496 | 0,5138 | 0,3823 | 0,1719 |
4 | 0,9999 | 0,9984 | 0,9901 | 0,9672 | 0,9219 | 0,8497 | 0,7515 | 0,6331 | 0,3770 |
5 | 1.0000 | 0,9999 | 0,9986 | 0,9936 | 0,9803 | 0,9527 | 0,9051 | 0,8338 | 0,6230 |
6 | 1.0000 | 1.0000 | 0,9999 | 0,9991 | 0,9965 | 0,9894 | 0,9740 | 0,9452 | 0,8281 |
7 | 1.0000 | 1.0000 | 1.0000 | 0,9999 | 0,9996 | 0,9984 | 0,9952 | 0,9877 | 0,9453 |
8 | 1.0000 | 1.0000 | 1.0000 | 1.0000 | 1.0000 | 0,9999 | 0,9995 | 0,9983 | 0,9893 |
9 | 1.0000 | 1.0000 | 1.0000 | 1.0000 | 1.0000 | 1.0000 | 1.0000 | 0,9999 | 0,9990 |
10 | 1.0000 | 1.0000 | 1.0000 | 1.0000 | 1.0000 | 1.0000 | 1.0000 | 1.0000 | 1.0000 |
0,05 | 0,10 | 0,15 | 0,20 | 0,25 | 0,30 | 0,35 | 0,40 | 0,50 | |
---|---|---|---|---|---|---|---|---|---|
0 | 0,3585 | 0,1216 | 0,0388 | 0,0115 | 0,0032 | 0,0008 | 0,0002 | 0,0000 | 0,0000 |
1 | 0,7358 | 0,3817 | 0,1756 | 0,0692 | 0,0243 | 0,0076 | 0,0021 | 0,0005 | 0,0000 |
2 | 0,9245 | 0,6769 | 0,4049 | 0,2061 | 0,0913 | 0,0355 | 0,0121 | 0,0036 | 0,0002 |
3 | 0,9841 | 0,8670 | 0,6477 | 0,4114 | 0,2252 | 0,1071 | 0,0444 | 0,0160 | 0,0013 |
4 | 0,9974 | 0,9568 | 0,8298 | 0,6296 | 0,4148 | 0,2375 | 0,1182 | 0,0510 | 0,0059 |
5 | 0,9997 | 0,9887 | 0,9327 | 0,8042 | 0,6172 | 0,4164 | 0,2454 | 0,1256 | 0,0207 |
6 | 1.0000 | 0,9976 | 0,9781 | 0,9133 | 0,7858 | 0,6080 | 0,4166 | 0,2500 | 0,0577 |
7 | 1.0000 | 0,9996 | 0,9941 | 0,9679 | 0,8982 | 0,7723 | 0,6010 | 0,4159 | 0,1316 |
8 | 1.0000 | 0,9999 | 0,9987 | 0,9900 | 0,9591 | 0,8867 | 0,7624 | 0,5956 | 0,2517 |
9 | 1.0000 | 1.0000 | 0,9998 | 0,9974 | 0,9861 | 0,9520 | 0,8782 | 0,7553 | 0,4119 |
10 | 1.0000 | 1.0000 | 1.0000 | 0,9994 | 0,9961 | 0,9829 | 0,9468 | 0,8725 | 0,5881 |
11 | 1.0000 | 1.0000 | 1.0000 | 0,9999 | 0,9991 | 0,9949 | 0,9804 | 0,9435 | 0,7483 |
12 | 1.0000 | 1.0000 | 1.0000 | 1.0000 | 0,998 | 0,9987 | 0,9940 | 0,9790 | 0,8684 |
13 | 1.0000 | 1.0000 | 1.0000 | 1.0000 | 1.0000 | 0,9997 | 0,9985 | 0,9935 | 0,9423 |
14 | 1.0000 | 1.0000 | 1.0000 | 1.0000 | 1.0000 | 1.0000 | 0,9997 | 0,9984 | 0,9793 |
fünfzehn | 1.0000 | 1.0000 | 1.0000 | 1.0000 | 1.0000 | 1.0000 | 1.0000 | 0,9997 | 0,9941 |
16 | 1.0000 | 1.0000 | 1.0000 | 1.0000 | 1.0000 | 1.0000 | 1.0000 | 1.0000 | 0,9987 |
17 | 1.0000 | 1.0000 | 1.0000 | 1.0000 | 1.0000 | 1.0000 | 1.0000 | 1.0000 | 0,9998 |
18 | 1.0000 | 1.0000 | 1.0000 | 1.0000 | 1.0000 | 1.0000 | 1.0000 | 1.0000 | 1.0000 |
Im Allgemeinen ermöglicht ein statistischer Test , eine sogenannte Nullhypothese abzulehnen oder nicht . Die Hauptidee besteht darin, eine Stichprobe zu entnehmen und zu überprüfen, ob die Hypothese für jeden Punkt in der Stichprobe zutrifft. Wenn wir davon ausgehen, dass die Elemente unabhängig sind, zählen wir daher die Anzahl der Elemente, die eine Eigenschaft verifizieren. Daher ist das Binomialgesetz vorhanden. Wir vergleichen, ob der beobachtete Anteil signifikant weit von der theoretischen Wahrscheinlichkeit der Binomialverteilung entfernt ist. Dieser Test wird als Binomialtest bezeichnet . Wir können auch die Normalverteilung verwenden, wenn die Stichprobengröße groß ist.
Es ist möglich, einen statistischen Test zur Übereinstimmung der Werte der Parameter eines Wahrscheinlichkeitsgesetzes, insbesondere eines Binomialgesetzes, in Bezug auf die theoretischen Parameter durchzuführen, die für die untersuchte Population erwartet werden. In diesem Fall gilt der Dispersionsindex-Konformitätstest. Dieser Dispersionsindex ist der Quotient aus der Summe der Quadrate der Abweichungen und des Mittelwerts. Wenn der Durchschnitt der erfassten Werte aufgezeichnet wird, während der Index ist : . Dank eines Gesetzes von χ² oder eines Normalgesetzes lehnt der Test die Hypothese des Wertes ab, der vom Parameter p des Binomialgesetzes angenommen wird.
Es ist auch möglich, die Gleichheit zweier Zufallsvariablen mit Binomialverteilungen zu testen. Sei und sei zwei Zufallsvariablen mit entsprechenden Verteilungen und . Wir wollen testen, ob dies die Hypothese des Tests ist. Nach dem zentralen Grenzwertsatz folgt der Schätzer einer Normalverteilung, wenn er groß ist. So ist es auch mit . Indem wir die wahre Hypothese betrachten , können wir zeigen, dass dies einer reduzierten zentrierten Normalverteilung folgt. Wir lehnen dann die Hypothese bei einem Konfidenzniveau von 0,95 si ab .
Per Definition folgt die Summe unabhängiger Zufallsvariablen mit dem Bernoulli- Gesetz einem Binomialgesetz. Ein typisches Beispiel für ein Phänomen des Bernoulli-Gesetzes ist das Werfen einer Münze für einen Münzwurf . Die Anzahl der Erfolge, zum Beispiel die Häufigkeit, mit der wir Schwänze bekommen, folgt daher einem Binomialgesetz. Anhand dieses Beispiels, das dem Gesetz Bedeutung beimisst, können viele Situationen modelliert werden.
In der Genetik besteht jedes Gen während der Reproduktion aus zwei Allelen , die von beiden Elternteilen stammen. Entweder stammen beide Allele vom selben Elternteil oder jeder Elternteil überträgt ein Allel. Es ist dann möglich, eine Liste verschiedener Allele zu erstellen und diese beiden Fälle zu notieren. Die Anzahl der Allele desselben Elternteils kann durch eine binomische Zufallsvariable modelliert werden. Um herauszufinden, ob es eine gleiche Wahrscheinlichkeit für ein Allel aus derselben Quelle oder aus einer anderen Quelle gibt, können wir einen statistischen Test untersuchen. Umgekehrt ist es zur Simulation der Allele eines Individuums möglich, die Frequenzen der Allele durch binomiale Zufallsvariablen zu simulieren.
In der Linguistik wird das Binomialgesetz verwendet, um den Reichtum des Wortschatzes eines Textes zu untersuchen. Es ist ein quantitatives Tool, das die Häufigkeit eines Wortes in einem Text unabhängig von der Länge des Textes misst. Genauer gesagt ermöglicht es Müllers Methode, den theoretischen Reichtum des Wortschatzes eines Textes dank des Wortschatzes eines längeren Textes zu bewerten und damit mit dem Wortschatz des fraglichen Kurztextes zu vergleichen. Technisch gesehen ist if die Anzahl der Wörter in einem Text und die eines anderen Textes. Dann ist die Wahrscheinlichkeit des Auftretens eines zufällig gezeichneten Wortes im ersten Text; das gleiche gilt für den zweiten Text. Die Anzahl der Wörter mit der gleichen Häufigkeit des Auftretens im ersten Text folgt dann einem Binomialgesetz der Parameter und p . Es ist möglich, statistische Tests durchzuführen, um festzustellen, ob der Wortschatz reich ist oder nicht.
1908 untersuchte Émile Borel die Häufigkeit verschiedener Ziffern bei der Dezimalentwicklung einer reellen Zahl. Es berücksichtigt die ersten 2 n -Werte der Dezimalzerlegung und schätzt die Wahrscheinlichkeit, die Häufigkeit zu erhalten, mit der jede Ganzzahl bei dieser Zerlegung auftritt, dank der Annäherung durch das Normalgesetz. Er beweist damit den Satz normaler Zahlen .
Eine Irrfahrt auf eine Vollzeit - stochastischer Prozess . Das heißt, die Wanderung beginnt beispielsweise mit einem Anfangswert S 0 = 0, und für jede Zeiteinheit bewegt sich die Gehhilfe (unabhängig vom zuvor zurückgelegten Weg) mit einer Wahrscheinlichkeit p einen Schritt nach oben oder mit einer Wahrscheinlichkeit einen Schritt nach unten 1 - p , also S 1 = –1 oder 1 . S n gibt die Position des Gehers nach einer Zeit n an . Wenn p = 1 - p = 0,5 ist , wird der Gang als symmetrisch bezeichnet und der Walker hat die gleiche Chance, nach oben wie nach unten zu gehen. In diesem Fall kann die Zufallsvariable am Ende der Zeit n Werte annehmen und hat eine Binomialverteilung b ( n , 0,5) . Diese Überlegung sowie die Konvergenz zur Normalverteilung (siehe oben ) ermöglichen es zu zeigen, dass ein renormierter Zufallslauf zur Brownschen Bewegung konvergiert (siehe Donskers Theorem ).
: Dokument, das als Quelle für diesen Artikel verwendet wird.