Binomialgesetz

Binomialgesetz

Massenfunktion

Verteilungsfunktion
die Einstellungen

Unterstützung
Massenfunktion
Verteilungsfunktion
Hoffen
Median oder
Mode
Varianz
Asymmetrie
Normalisierte Kurtosis
Entropie
Momenterzeugende Funktion
Charakteristische Funktion
Wahrscheinlichkeitsgenerierende Funktion

In der Wahrscheinlichkeitstheorie und -statistik modelliert das Binomialgesetz die Häufigkeit der Anzahl der Erfolge, die bei der Wiederholung mehrerer identischer und unabhängiger Zufallsexperimente erzielt wurden. Eine visuelle Möglichkeit, diese Reihe von Experimenten darzustellen, ist die Verwendung eines Wahrscheinlichkeitsbaums  : Bei jeder Generation des Baums verlassen zwei Zweige jeden Knoten, einen für den Erfolg und einen für den Misserfolg.

Mathematischer ausgedrückt ist das Binomialgesetz ein diskretes Wahrscheinlichkeitsgesetz, das durch zwei Parameter beschrieben wird: n die Anzahl der durchgeführten Experimente und p die Erfolgswahrscheinlichkeit. Für jedes Experiment, das als Bernoulli-Test bezeichnet wird , verwenden wir eine Zufallsvariable, die den Wert 1 für einen Erfolg und ansonsten den Wert 0 annimmt . Die Zufallsvariable, die Summe aller dieser Zufallsvariablen, zählt die Anzahl der Erfolge und folgt einem Binomialgesetz. Es ist dann möglich, die Wahrscheinlichkeit von k Erfolgen in einer Wiederholung von n Experimenten zu erhalten:

Diese Formel beinhaltet den Binomialkoeffizienten, von dem der Name des Gesetzes stammt.

Die Bedeutung dieses Gesetzes ist zunächst historisch , da sie das Objekt der Untersuchung des war Satzes von Moivre-Laplace , Ergebnis der XVIII E  Jahrhundert Gründer der Theoreme der Konvergenz . Ein Binomialgesetz kann auch verwendet werden, um einfache Erfolgs- oder Misserfolgssituationen zu modellieren, beispielsweise ein Münzwurfspiel . Die Berechnung seiner Massenfunktion wird schnell mühsam, wenn n groß ist. Es ist dann möglich, Näherungen durch andere Wahrscheinlichkeitsgesetze wie das Poisson- Gesetz oder das Normalgesetz zu verwenden und Wertetabellen zu verwenden.

Das Binomialgesetz wird in verschiedenen Studienbereichen angewendet, insbesondere durch statistische Tests , die es ermöglichen, Daten zu interpretieren und Entscheidungen in Situationen zu treffen, die von der Gefahr abhängen. Aufgrund der Einfachheit seiner Definition ist es eines der Wahrscheinlichkeitsgesetze, die in Einführungskursen zur Wahrscheinlichkeitstheorie untersucht wurden.

Intuitive Definition

Ein Bernoulli-Gesetz beschreibt das Verhalten eines zufälligen Experiments, das zwei mögliche Ergebnisse hat, die traditionell als Erfolg und Misserfolg bezeichnet werden. Ein solches Experiment wird als Bernoulli-Test bezeichnet . Wenn Sie beispielsweise einen Münzwurf werfen , können Schwänze als Erfolg gewertet werden und Schwänze sind ein Fehlschlag. In diesem Modell ist die Erfolgswahrscheinlichkeit ein fester Wert, dh einer, der bei jeder Erneuerung des Zufallsexperiments konstant bleibt.

Stellen Sie sich die Situation vor, in der ein solches zufälliges Experiment (zwei mögliche Ergebnisse und eine feste Wahrscheinlichkeit) unabhängig voneinander mehrmals wiederholt wird. bezeichne diese Anzahl von Malen mit n . Diese unabhängige Wiederholung von Bernoulli-Tests wird als Bernoulli-Schema oder einfach als Bernoulli-Test bezeichnet . Ein Binomialgesetz beschreibt, wie oft Erfolg über die n durchgeführten Experimente auftritt . Da die Anzahl der erzielten Erfolge ein Zufallswert ist, wird eine Binomialverteilung unter Verwendung der Daten der Wahrscheinlichkeiten beschrieben, dass der Erfolg über die n Versuche genau k- mal auftritt .

Eine visuelle Möglichkeit, diese Wahrscheinlichkeiten zu finden, besteht darin, einen Wahrscheinlichkeitsbaum zu erstellen (siehe nebenstehende Abbildung). Jeder Test wird durch zwei Zweige dargestellt: einen für den Erfolg und einen für den Misserfolg. An jedem Ende fügen wir zwei Zweige (bestanden und nicht bestanden) für den nächsten Test hinzu. Wir beginnen erneut bis zur Gesamtzahl der Tests. An jedem Ende können wir die Anzahl der erzielten Erfolge zählen. Es reicht aus, die Häufigkeit, mit der k Erfolge vorliegen, mit der Wahrscheinlichkeit zu multiplizieren , k Erfolge zu erzielen, um die entsprechende Wahrscheinlichkeit der Binomialverteilung zu erhalten.

Zum Beispiel würfeln wir dreimal hintereinander mit einem ausgeglichenen sechsseitigen Würfel und sind daran interessiert, wie oft die 1 erscheint. Es erscheint 0, 1, 2 oder 3 Mal. Jede Rolle ist unabhängig von den anderen , und die Wahrscheinlichkeit eines Walz 1 ist 1/6 auf jeden von ihnen, also die Wahrscheinlichkeit , dass es nicht angezeigt ist 5/6 auf jeder Rolle. Daher betrachten wir für jeden Wurf ein Bernoulli-Gesetz mit Parameter 1/6 . Es gibt drei Konfigurationen, um einmal eine 1 zu erhalten  : Sie erscheint beim ersten Wurf oder beim zweiten oder dritten. Jedes dieser Probleme hat die gleiche Wahrscheinlichkeit des Auftretens : . Die Wahrscheinlichkeit, einmal 1 zu haben, ist : . Wir finden für eine Binomialverteilung b (3, 1/6) . Es ist möglich, die anderen Wahrscheinlichkeiten auf die gleiche Weise zu finden.

Mathematische Definition

Das Binomialgesetz ist ein diskretes Wahrscheinlichkeitsgesetz mit zwei Parametern: und . Es ist üblich, auch den Parameter q = 1 - p zu verwenden, um präzisere Ausdrücke zu erhalten. Es hat mehrere äquivalente Definitionen:

Definition 1  -  Das binomische Gesetz, mit Parametern n und p , ist das Wahrscheinlichkeitsgesetz von einer Zufallsvariablen X gleich die Anzahl der Erfolge bei einer Wiederholung auftretenden n Bernoulli - Tests , p ist die Wahrscheinlichkeit des Erfolgs in jeweils zwischen ihnen.

Definition 2  -  Das Binomialgesetz mit den Parametern n und p ist das Wahrscheinlichkeitsgesetz einer Zufallsvariablen X, so dass:

das sind unabhängige Zufallsvariablen mit Bernoulli gleichen Parameter p .

Definition 3  -  Das Binomialgesetz mit den Parametern n und p ist das diskrete Wahrscheinlichkeitsgesetz einer Zufallsvariablen X, deren Massenfunktion gegeben ist durch:

für .

Wir erinnern uns, dass zufällige und diskrete Gesetzesvariablen unabhängig sind, wenn .

Die in der Definition 3 angegebene Massenfunktion hat eine Bedeutung, wie die Formel des Binomialsatzes ergibt : . Definition 2 ist das mathematische Schreiben von Definition 1.

Definition 3 entspricht den beiden anderen: Wir berechnen explizit die Wahrscheinlichkeit, dass k Erfolge in n Versuchen auftreten. Da die n Wiederholungen unabhängig sind, beträgt die Wahrscheinlichkeit, k Erfolge und damit n - k Misserfolge zu erzielen, in dem Fall, in dem der Ort der Ergebnisse nicht berücksichtigt wird. Es reicht dann aus, sich für die k Erfolge und n - k Misserfolge zu interessieren . Das heißt, wie viele Möglichkeiten gibt es, k Erfolge unter n Ergebnissen zu platzieren (unabhängig von der Reihenfolge zwischen den Erfolgen)? Dies ist die Anzahl der Kombinationen von k Elementen unter n Elementen, die durch den Binomialkoeffizienten gegeben sind . Wir finden dann die Massenfunktion von Definition 3.

Bewertung

Die Tatsache, dass eine Zufallsvariable X einer Binomialverteilung der Parameter n und p folgt, wird bemerkt  :; oder .

Wahrscheinlichkeitsmaß

Da die Binomialverteilung b ( n , p ) eine diskrete Verteilung ist, ist es möglich, sie dank ihres Wahrscheinlichkeitsmaßes zu definieren  :

, wo ist das Dirac-Maß am Punkt k .

Historisch

Das Binomialgesetz ist eines der ältesten untersuchten Wahrscheinlichkeitsgesetze. Es wurde von Jacques Bernoulli eingeführt, der es 1713 in seinem Werk Ars Conjectandi erwähnte . Zwischen 1708 und 1718 entdeckten wir auch das Multinomialgesetz (mehrdimensionale Verallgemeinerung des Binomialgesetzes), das negative Binomialgesetz sowie die Approximation des Binomialgesetzes durch das Poisson- Gesetz , das Gesetz der großen Zahlen für das Binomialgesetz und eine Annäherung an den Schwanz der Binomialverteilung.

Dank des Ausdrucks seiner Massenfunktion wurde das Binomialgesetz von mehreren Wissenschaftlern verwendet, um Berechnungen in konkreten Situationen durchzuführen. Dies ist der Fall von Abraham de Moivre , dem es gelungen ist, eine Annäherung des Binomialgesetzes an das Normalgesetz zu finden. Er veröffentlichte seine Ergebnisse erstmals 1733 in lateinischer Sprache: Approximatio ad summam terminorum binomii ( a + b ) n in seriem expansi , dann übersetzt sie zur Veröffentlichung im Jahre 1738 in The Doctrine of Chances  (en) . Im Jahr 1812 nahm Pierre-Simon de Laplace diese Arbeit wieder auf. Francis Galton erstellt die Galton- Platte , die eine physikalische Darstellung dieser Konvergenz ermöglicht. 1909 sprach Émile Borel aus und bewies im Fall des Binomialgesetzes die erste Version des starken Gesetzes der großen Zahlen .

In jüngerer Zeit, 1914, zeigt McKendrick  (in) , dass die Binomialverteilung die Lösung eines einfachen Prozesses der Geburt und Auswanderung ist . Nach der Arbeit von William Feller aus dem Jahr 1957 kann es auch als stationäres Gesetz für das Modell der Ehrenfest-Urnen angesehen werden . Im selben Jahr zeigt Haight, dass das Binomialgesetz mit einem Warteschlangenproblem verbunden ist .

Die binomische erscheint in vielen Anwendungen des XX - ten  Jahrhundert: in der Genetik in Tierbiologie in Pflanzenökologie , für statistische Tests , in verschiedenen physikalischen Modellen wie Telefonnetze oder das Modell der Ehrenfestsche Urne usw.

Der Name "Binomial" dieses Gesetzes stammt aus dem Schreiben seiner Massenfunktion (siehe unten), die einen Binomialkoeffizienten enthält , der sich aus der Entwicklung des Binomials ergibt : ( p + q ) n .

Darstellung in Form eines Baumes

Da das Binomialgesetz eine Reihe von Bernoulli-Tests ist, kann es mithilfe eines Wahrscheinlichkeitsbaums dargestellt werden  : Jeder Knoten stellt das Ergebnis eines Tests dar. Die Wahrscheinlichkeiten für Erfolg und Misserfolg werden durch zwei unterschiedliche Zweige dargestellt, die an einen Knoten angehängt sind. Der Graph ist daher ein ausgeglichener Binärbaum . Ein Baum mit n Generationen entspricht einer Binomialverteilung b ( n , p ) .

Wenn wir die Ergebnisse jedes Tests an den Rändern des Baums angeben, ist es möglich, die unterschiedlichen Ergebnisse des Binomialgesetzes zu visualisieren. Wenn die Werte der Wahrscheinlichkeiten an den Kanten angegeben sind, erscheinen die Wahrscheinlichkeiten der Binomialverteilung am Ende der Verzweigungen (siehe nebenstehende Grafik).

Der Graph ist ein Wahrscheinlichkeitsbaum für eine Binomialverteilung mit dem Parameter n = 3 . Auf jedem Zweig sind die Wahrscheinlichkeiten der verschiedenen Ergebnisse angegeben: zum Beispiel der rechte, der linke und der rechte Zweig; das heißt, Misserfolg, Erfolg, dann Misserfolg. Am Ende der Zweige des Baumes erscheinen die Wahrscheinlichkeiten jedes Ergebnisses des Binomialgesetzes b (3, p ) . Das ist für die Werte sagen , k = 0, 1, 2 oder 3 erhalten wird , , und . Wir finden also die verschiedenen Binomialkoeffizienten  :

Eigenschaften

Momente

Am bekanntesten sind die Erwartung und die Varianz , die herkömmlicherweise aus der obigen Definition 2 abgeleitet werden  :

.

Die faktoriellen Momente der Binomialverteilung der Parameter n und p sind:

.

Daher sind seine gewöhnlichen Momente :

S ( r , k ) p k , mit den ersten Werten:

(hoffen)

Wir können sie auch durch die Wiederholungsformel erhalten

,

wobei der Term die Ableitung in Bezug auf die Variable p bezeichnet .

Die entgegengesetzten Momente, das heißt mit , sind unendlich.

Zentrierte Momente

Die zentrierten Momente sind die Momente der Differenz zwischen der Variablen und ihrem Mittelwert.

 ;; (Varianz)

Der Ausdruck der Varianz ergibt die Standardabweichung  : .

Die zentrierten Momente werden auch durch diese andere Wiederholungsrelation berechnet:

.

Mittlerer Unterschied

Die mittlere Abweichung (oder mittlere Abweichung) ist der Durchschnitt der Abweichungen vom Mittelwert; es ist gegeben durch:

,

wo ist der ganzzahlige Teil von np .

Wenn zum Beispiel , , Wert mit der Standardabweichung verglichen werden: .

Erfolgshäufigkeit

Dank der vorhergehenden Formeln erhalten wir die Momente der Häufigkeit von Erfolgen  ::

Moment der Ordnung 1 (oder Erwartung) der Erfolgshäufigkeit
zentrales Moment der Ordnung 2 (oder Varianz) der Erfolgsfrequenz
Zentrisches Moment 4. Ordnung der Erfolgsfrequenz

Der Ausdruck der Varianz der Frequenz gibt die Standardabweichung der Erfolgshäufigkeit an .

Kovarianz

Wir betrachten zwei Zufallsvariablen und nicht unbedingt unabhängig von den jeweiligen Binomialgesetzen und . Die Kovarianz ermöglicht es, die Abhängigkeit zwischen den beiden Variablen zu bewerten:

.

Eigenschaften und Charakterisierungen

Beschreibende Werte des Gesetzes

Wenn np eine ganze Zahl ist , sind der Modus, der Mittelwert und der Median alle drei np .

StabilitätseigenschaftenUngleichheitCharakterisierungen

Verteilungsfunktion

Die Verteilungsfunktion einer Zufallsvariablen X nach dem Binomialgesetz b ( n , p ) ist gegeben durch:

wo ist der ganzzahlige Teil von x .

Selbst wenn es einen Ausdruck für die Verteilungsfunktion gibt, ist seine Berechnung aufgrund der Binomialkoeffizienten nicht einfach , insbesondere wenn n groß ist. Es gibt dann Wertetabellen (siehe unten ). Approximationssätze wurden entwickelt, um diese Verteilungsfunktion theoretisch zu berechnen (siehe unten ). Der folgende Ausdruck stammt aus der Verknüpfung zwischen der Binomialverteilung und der Beta-Verteilung (siehe unten ): für

Dabei ist B die Beta-Funktion . Dank der unvollständigen Beta-Funktion ist es dann möglich, die Verteilungsfunktion zu schreiben  :

.

Charakteristik- und Generatorfunktionen

Die charakteristische Funktion einer Zufallsvariablen X nach dem Binomialgesetz b ( n , p ) ist gegeben durch:

.

Die Generatorfunktion der Momente einer Zufallsvariablen X nach dem Binomialgesetz b ( n , p ) ist gegeben durch:

.

Wir leiten direkt die Erzeugungsfunktion der Kumulanten ab  :

,

und die Erzeugungsfunktion der faktoriellen Kumulanten  :

.

Verknüpfung mit anderen Gesetzen

Bernoullis Gesetz

Denken Sie daran, dass die Binomialverteilung der Parameter und das Gesetz der Summe von n unabhängigen Zufallsvariablen des Bernoulli-Gesetzes mit demselben Parameter p ist .

Somit ist das Binomialgesetz b (1, p ) ein Bernoulli-Gesetz mit dem Parameter p .

Durch diese Darstellung der Anzahl von Erfolgen und Misserfolgen in einer Reihe von Tests ist das Binomialgesetz die Quelle zahlreicher Anwendungen.

Gegenseitige Gesetze

Die folgenden Gesetze beziehen sich aufgrund ihrer Verteilungsfunktionen auf das Binomialgesetz. Wenn die Anzahl der Erfolge k festgelegt ist, geben sie das Gesetz der Anzahl der erforderlichen Tests (negatives Binomialgesetz) oder das Gesetz des Parameters p (Beta- oder Fisher-Gesetze) an. In diesem Sinne können sie als gegenseitige Gesetze dienen .

wobei X einer Beta-Verteilung der Parameter k + 1 folgt, folgt n - k und Y einer Binomialverteilung b ( n , p ) . wobei F einem Fischer-Gesetz der Parameter folgt . Die vorstehende Beziehung ermöglicht es, die Quantile der Binomialverteilung zu finden .

Andere Gesetze

Ebenso ist es möglich, die (einfach) abgeschnittene Binomialverteilung zu definieren, indem nur die Werte zwischen 0 und oder zwischen und weggelassen werden . Wenn die Anzahl der Kugeln zunimmt, dh A gegen unendlich tendiert, und wenn p / A gegen einen Wert tendiert , konvergiert das hypergeometrische Gesetz gegen ein Binomialgesetz b ( n , p ' ) . Mit anderen Worten, wenn die Größe der Population ( A ) im Vergleich zur Größe der Stichprobe ( n ) groß ist , können die Zeichnungen in geeigneter Weise durch eine Binomialverteilung dargestellt werden, wobei der Parameter p ' gleich dem Prozentsatz ( p ) der Elemente ist den studierten Charakter haben. Wenn und sind zwei unabhängige Zufallsvariablen der jeweiligen Binomialverteilung und dann das Gesetz des Wissens, das das hypergeometrische Gesetz der Parameter ist: und .

Konvergenzen und Annäherungen

Bei großen Werten von n wird die Berechnung der Massen- und Verteilungsfunktionen schnell mühsam. Eine Methode besteht darin, sich diesen Werten unter Verwendung von Grenzwertsätzen zu nähern. Das Gesetz (schwach oder stark) großer Zahlen ermöglicht es, sich dem Mittelwert der Binomialverteilung zu nähern. Um ungefähre Werte der Verteilungsfunktion zu erhalten, ist es möglich, die normale Näherung oder die Poisson-Gesetz- Näherung zu verwenden . Die normale Näherung ist effizienter, wenn der Parameter p nicht zu nahe an 0 oder 1 liegt , andernfalls liefert die Poisson-Gesetz-Näherung bessere Ergebnisse.

Gesetz der großen Zahlen

Das schwache Gesetz der großen Zahlen , das auf einen Bernoulli-Prozess des Parameters p angewendet wird , garantiert, dass für jede Folge ( X n ) von Zufallsvariablen, die auf demselben probabilisierten Raum definiert sind, und für die jeweiligen Gesetze b ( n , p ) (vgl. Definition) 2 oben ) haben wir für alles  : Genauer gesagt, da die Erwartung und die Varianz von X n gleich np und np (1 - p ) sind , zeigt die Bienaymé-Chebyshev-Ungleichung , dass: Dies kann grob wie folgt interpretiert werden. Wenn wir das bei einem Zufallsexperiment wissen (eine Person aus einer großen Population zeichnen, Werfen einer Münze, etc.) die Wahrscheinlichkeit des Auftretens von Eigenschaft A ist p ( A ) , dann wird die Frequenz Auftreten Eigenschaft A während n Experimenten dieser Der Typ (Zeichnung von n Individuen in einer Population mit einer Größe, die viel größer als n ist , n Münzwürfe usw.) liegt häufig nahe bei p ( A ) , mit einer Wahrscheinlichkeit von so viel besser, wie n groß ist und dass p ( A ) nahe ist auf 0 oder 1 .

Es gibt bessere Erhöhungen dieser Wahrscheinlichkeit, die Hoeffding-Ungleichung ergibt:

Konvergenz zum Poissonschen Gesetz

Konvergenz

Betrachten Sie eine Binomialverteilung b ( n , p ) so, dass die Parameter n und p durch die Formel in Beziehung stehen: wobei festgelegt ist. Wenn n gegen unendlich geht und daher p gegen 0 tendiert, dann : . Mit anderen Worten, die Wahrscheinlichkeit, dass eine Binomialvariable den Wert k annimmt, konvergiert (wenn n groß wird) gegen die Wahrscheinlichkeit, dass eine Poisson-Verteilungsvariable den Wert k annimmt . Der Parameter p konvergiert dann gegen 0, er entspricht daher einem Ereignis mit sehr geringer Wahrscheinlichkeit, das Poisson-Gesetz wird dann das Gesetz der seltenen Ereignisse genannt. Durch Summierung erhalten wir dann das Ergebnis:

Wo ist der ganzzahlige Teil, X ist eine Binomialvariable und Y ist eine Poisson-Verteilung . Diese Grenze zeigt die Konvergenz des Binomialgesetzes (mit den vorhergehenden Bedingungen) zum Poisson-Gesetz. Ein detaillierterer Ausdruck der Konvergenz kann durch die Formel gegeben werden: mit wenn n gegen unendlich tendiert und der asymptotische Komparator ist .

1953 gibt Yuri Prokhorov eine Erhöhung des gesamten Approximationsfehlers zwischen der Verteilungsfunktion einer Binomialverteilung B ( n , p ) und einer Poisson-Verteilung an  : . Es ist auch möglich, das Verhältnis zwischen den beiden Verteilungsfunktionen zu begrenzen:

Annäherung

Dank der obigen Konvergenz ist es möglich, die Wahrscheinlichkeiten der Binomialverteilung durch die Poisson-Verteilung zu erreichen. In der Praxis gilt der Fall, wenn n groß und daher p klein ist. Es werden verschiedene Werte vorgeschlagen:

Die gemeinsame Idee all dieser Sätze ist, den Wert np stabil zu haben, wenn n groß und p klein ist.

Konvergenz zur Normalverteilung

Konvergenz

Das 1733 festgelegte Moivre-Laplace-Theorem zeigt, dass eine Zufallsvariable der Binomialverteilung, die entsprechend renormiert ist, im Gesetz gegen eine Zufallsvariable der Normalverteilung konvergiert . Dieses Ergebnis kann unter Verwendung der Verteilungsfunktionen der beiden Gesetze angegeben werden. Betrachten Sie eine Zufallsvariable X Binomial b ( n , p ) , die zufällig normalisierte Zufallsvariable X ist die zentrierte und reduzierte Zufallsvariable, dh : . Wenn wir die Verteilungsfunktion der Normalverteilung bezeichnen, dann:

Satz von Moivre-Laplace: für alles ,

Obwohl Abraham de Moivre dieses Ergebnis nur im Fall eines Binomialgesetzes angegeben hat, ist diese Konvergenz im Fall anderer Gesetze verallgemeinert, es ist der zentrale Grenzwertsatz . Dieser Satz ermöglicht es, sich einem diskreten Gesetz durch ein kontinuierliches Gesetz zu nähern. Es ist dann nützlich, einen Koeffizienten hinzuzufügen, der als Kontinuitätskorrektur bezeichnet wird , um zukünftige Näherungen zu verbessern (siehe unten). Die vorhergehende Konvergenz kann dann in Form einer Äquivalenz geschrieben werden, wenn n gegen unendlich tendiert: für alle

Der durch die Näherung gemachte Fehler wird durch die Berry-Esseen-Ungleichung geschätzt, deren Konstante regelmäßig verbessert wird. Sie liefert eine Grenze für die Differenz zwischen den beiden Verteilungsfunktionen, wenn n groß ist, für X eine Zufallsvariable des Verteilungsbinoms b ( n , p ) und Y Normalgesetzverteilungsfunktion vermerkt  : . Ein detaillierterer Ausdruck der Konvergenz kann durch die Formel mit Kontinuitätskorrektur gegeben werden: einheitlich für jede Variable x , wenn n gegen unendlich tendiert und wo sich der asymptotische Komparator befindet . Andere feinere Näherungen wurden untersucht, beispielsweise von Laplace (1820), Prokhorov (1953) oder Peizer und Pratt (en) (1968).  

Annäherung

Dank der obigen Konvergenzsätze können, wenn n groß ist, die Wahrscheinlichkeiten des renormierten Binomials durch die Werte der Wahrscheinlichkeiten der Normalverteilung angenähert werden. Es gibt verschiedene Regeln für die Parameter n und p, damit die Näherung gültig ist:

Der Einfluss dieser Parameter auf die Approximation wurde in den 90er Jahren genau untersucht, zum Beispiel: Für festes n wird der minimale absolute Fehler für p = 1/2 erreicht  ; Der absolute Fehler ist kleiner als .

Binomialrechtstabellen

Tabellen der Massenfunktion und die binomischen Verteilungsfunktion wurden im Jahre 1950 vom veröffentlicht National Bureau of Standards und dann im Jahr 1955 in der nationalen der Computation Laboratory und von Rao et al. im Jahr 1985.

Dank der Symmetriebeziehungen (siehe oben ) reicht es aus, Wertetabellen für anzugeben .

Massenfunktionswerte

Die folgenden Wertetabellen geben die Werte der Massenfunktion der Binomialverteilung b ( n , p ) für verschiedene Werte von n an .

Beispiele: Wenn X einem Gesetz folgt , dann . Wenn Y einem Gesetz folgt , dann . Für n = 5
0,05 0,10 0,15 0,20 0,25 0,30 0,35 0,40 0,50
0 0,7738 0,5905 0,4437 0,3277 0,2373 0,1681 0,1160 0,0778 0,0312
1 0,2036 0,3281 0,3915 0,4096 0,3955 0,3601 0,3124 0,2592 0,1562
2 0,0214 0,0729 0,1382 0,2048 0,2637 0,3087 0,3364 0,3456 0,3125
3 0,0011 0,0081 0,0244 0,0512 0,0879 0,1323 0,1811 0,2304 0,3105
4 0,0000 0,0005 0,0022 0,0064 0,0146 0,0283 0,0488 0,0768 0,1562
5 0,0000 0,0000 0,0001 0,0003 0,0010 0,0024 0,0053 0,0102 0,0312
  Für n = 10
0,05 0,10 0,15 0,20 0,25 0,30 0,35 0,40 0,50
0 0,5987 0,3487 0,1969 0,1074 0,0563 0,0282 0,0135 0,0060 0,0010
1 0,3151 0,3874 0,3474 0,2684 0,1877 0,1211 0,0725 0,0403 0,0098
2 0,0746 0,1937 0,2759 0,3020 0,2816 0,2335 0,1757 0,1209 0,0439
3 0,0105 0,0574 0,1298 0,2013 0,2503 0,2668 0,2522 0,2150 0,1172
4 0,0010 0,0112 0,0401 0,0881 0,1460 0.2001 0,2377 0,2508 0,2051
5 0,0001 0,0015 0,0085 0,0264 0,0584 0,1029 0,1536 0.2007 0,2461
6 0,0000 0,0001 0,0012 0,0055 0,0162 0,0368 0,0689 0,1115 0,2051
7 0,0000 0,0000 0,0001 0,0008 0,0031 0,0090 0,0212 0,0425 0,1172
8 0,0000 0,0000 0,0000 0,0001 0,0004 0,0014 0,0043 0,0106 0,0439
9 0,0000 0,0000 0,0000 0,0000 0,0000 0,0001 0,0005 0,0016 0,0098
10 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0001 0,0010
  Für n = 20
0,05 0,10 0,15 0,20 0,25 0,30 0,35 0,40 0,50
0 0,3585 0,1216 0,0388 0,0115 0,0032 0,0008 0,0002 0,0000 0,0000
1 0,3774 0,2702 0,1368 0,0576 0,0211 0,0068 0,0020 0,0005 0,0000
2 0,1887 0,2852 0,2293 0,1369 0,0669 0,0278 0,0100 0,0031 0,0002
3 0,0596 0,1901 0,2428 0,2054 0,1339 0,0716 0,0323 0,0123 0,0011
4 0,0133 0,0898 0,1821 0,2182 0,1897 0,1304 0,0738 0,0350 0,0046
5 0,0022 0,0319 0,1028 0,1746 0,2023 0,1789 0,1272 0,0746 0,0148
6 0,0003 0,0089 0,0454 0,1091 0,1686 0,1916 0,1712 0,1244 0,0370
7 0,0000 0,0020 0,0160 0,0545 0,1124 0,1643 0,1844 0,1659 0,0739
8 0,0000 0,0004 0,0046 0,0222 0,0609 0,1144 0,1614 0,1797 0,1201
9 0,0000 0,0001 0,0011 0,0074 0,0271 0,0654 0,1158 0,1597 0,1602
10 0,0000 0,0000 0,0002 0,0020 0,0099 0,0308 0,0686 0,1171 0,1762
11 0,0000 0,0000 0,0000 0,0005 0,0030 0,0120 0,0336 0,0710 0,1602
12 0,0000 0,0000 0,0000 0,0001 0,0008 0,0039 0,0136 0,0355 0,1201
13 0,0000 0,0000 0,0000 0,0000 0,0002 0,0010 0,0045 0,0146 0,0739
14 0,0000 0,0000 0,0000 0,0000 0,0000 0,0002 0,0012 0,0049 0,0370
fünfzehn 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0003 0,0013 0,0148
16 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0003 0,0046
17 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0011
18 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0000 0,0002
 


Werte der Verteilungsfunktion

Die folgenden Wertetabellen geben die Werte der Binomialverteilungsfunktion b ( n , p ) für verschiedene Werte von n an .

Beispiele: Wenn X einem Gesetz folgt , dann . Wenn Y einem Gesetz folgt , dann . Für n = 5
0,05 0,10 0,15 0,20 0,25 0,30 0,35 0,40 0,50
0 0,7738 0,5905 0,4437 0,3277 0,2373 0,1681 0,1160 0,0778 0,0312
1 0,9774 0,9185 0,8352 0,7373 0,6328 0,5282 0,4284 0,3370 0,1875
2 0,9988 0,9914 0,9734 0,9421 0,8965 0,8369 0,7648 0,6826 0,5000
3 1.0000 0,9995 0,9978 0,9933 0,9844 0,9692 0,9460 0,9130 0,8125
4 1.0000 1.0000 0,9999 0,9997 0,9990 0,9976 0,9947 0,9898 0,9688
5 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000
  Für n = 10
0,05 0,10 0,15 0,20 0,25 0,30 0,35 0,40 0,50
0 0,5987 0,3487 0,1969 0,1074 0,0563 0,0282 0,0135 0,0060 0,0010
1 0,9139 0,7361 0,5443 0,3758 0,2440 0,1493 0,0860 0,0464 0,0107
2 0,9885 0,9298 0,8202 0,6778 0,5256 0,3828 0,2616 0,1673 0,0547
3 0,9990 0,9872 0,9500 0,8791 0,7759 0,6496 0,5138 0,3823 0,1719
4 0,9999 0,9984 0,9901 0,9672 0,9219 0,8497 0,7515 0,6331 0,3770
5 1.0000 0,9999 0,9986 0,9936 0,9803 0,9527 0,9051 0,8338 0,6230
6 1.0000 1.0000 0,9999 0,9991 0,9965 0,9894 0,9740 0,9452 0,8281
7 1.0000 1.0000 1.0000 0,9999 0,9996 0,9984 0,9952 0,9877 0,9453
8 1.0000 1.0000 1.0000 1.0000 1.0000 0,9999 0,9995 0,9983 0,9893
9 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 0,9999 0,9990
10 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000
  Für n = 20
0,05 0,10 0,15 0,20 0,25 0,30 0,35 0,40 0,50
0 0,3585 0,1216 0,0388 0,0115 0,0032 0,0008 0,0002 0,0000 0,0000
1 0,7358 0,3817 0,1756 0,0692 0,0243 0,0076 0,0021 0,0005 0,0000
2 0,9245 0,6769 0,4049 0,2061 0,0913 0,0355 0,0121 0,0036 0,0002
3 0,9841 0,8670 0,6477 0,4114 0,2252 0,1071 0,0444 0,0160 0,0013
4 0,9974 0,9568 0,8298 0,6296 0,4148 0,2375 0,1182 0,0510 0,0059
5 0,9997 0,9887 0,9327 0,8042 0,6172 0,4164 0,2454 0,1256 0,0207
6 1.0000 0,9976 0,9781 0,9133 0,7858 0,6080 0,4166 0,2500 0,0577
7 1.0000 0,9996 0,9941 0,9679 0,8982 0,7723 0,6010 0,4159 0,1316
8 1.0000 0,9999 0,9987 0,9900 0,9591 0,8867 0,7624 0,5956 0,2517
9 1.0000 1.0000 0,9998 0,9974 0,9861 0,9520 0,8782 0,7553 0,4119
10 1.0000 1.0000 1.0000 0,9994 0,9961 0,9829 0,9468 0,8725 0,5881
11 1.0000 1.0000 1.0000 0,9999 0,9991 0,9949 0,9804 0,9435 0,7483
12 1.0000 1.0000 1.0000 1.0000 0,998 0,9987 0,9940 0,9790 0,8684
13 1.0000 1.0000 1.0000 1.0000 1.0000 0,9997 0,9985 0,9935 0,9423
14 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 0,9997 0,9984 0,9793
fünfzehn 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 0,9997 0,9941
16 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 0,9987
17 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 0,9998
18 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000
 

Tests und Anwendungen

Tests

Im Allgemeinen ermöglicht ein statistischer Test , eine sogenannte Nullhypothese abzulehnen oder nicht . Die Hauptidee besteht darin, eine Stichprobe zu entnehmen und zu überprüfen, ob die Hypothese für jeden Punkt in der Stichprobe zutrifft. Wenn wir davon ausgehen, dass die Elemente unabhängig sind, zählen wir daher die Anzahl der Elemente, die eine Eigenschaft verifizieren. Daher ist das Binomialgesetz vorhanden. Wir vergleichen, ob der beobachtete Anteil signifikant weit von der theoretischen Wahrscheinlichkeit der Binomialverteilung entfernt ist. Dieser Test wird als Binomialtest bezeichnet . Wir können auch die Normalverteilung verwenden, wenn die Stichprobengröße groß ist.

Es ist möglich, einen statistischen Test zur Übereinstimmung der Werte der Parameter eines Wahrscheinlichkeitsgesetzes, insbesondere eines Binomialgesetzes, in Bezug auf die theoretischen Parameter durchzuführen, die für die untersuchte Population erwartet werden. In diesem Fall gilt der Dispersionsindex-Konformitätstest. Dieser Dispersionsindex ist der Quotient aus der Summe der Quadrate der Abweichungen und des Mittelwerts. Wenn der Durchschnitt der erfassten Werte aufgezeichnet wird, während der Index ist : . Dank eines Gesetzes von χ² oder eines Normalgesetzes lehnt der Test die Hypothese des Wertes ab, der vom Parameter p des Binomialgesetzes angenommen wird.

Es ist auch möglich, die Gleichheit zweier Zufallsvariablen mit Binomialverteilungen zu testen. Sei und sei zwei Zufallsvariablen mit entsprechenden Verteilungen und . Wir wollen testen, ob dies die Hypothese des Tests ist. Nach dem zentralen Grenzwertsatz folgt der Schätzer einer Normalverteilung, wenn er groß ist. So ist es auch mit . Indem wir die wahre Hypothese betrachten , können wir zeigen, dass dies einer reduzierten zentrierten Normalverteilung folgt. Wir lehnen dann die Hypothese bei einem Konfidenzniveau von 0,95 si ab .

Andere Anwendungen

Per Definition folgt die Summe unabhängiger Zufallsvariablen mit dem Bernoulli- Gesetz einem Binomialgesetz. Ein typisches Beispiel für ein Phänomen des Bernoulli-Gesetzes ist das Werfen einer Münze für einen Münzwurf . Die Anzahl der Erfolge, zum Beispiel die Häufigkeit, mit der wir Schwänze bekommen, folgt daher einem Binomialgesetz. Anhand dieses Beispiels, das dem Gesetz Bedeutung beimisst, können viele Situationen modelliert werden.

In der Genetik besteht jedes Gen während der Reproduktion aus zwei Allelen , die von beiden Elternteilen stammen. Entweder stammen beide Allele vom selben Elternteil oder jeder Elternteil überträgt ein Allel. Es ist dann möglich, eine Liste verschiedener Allele zu erstellen und diese beiden Fälle zu notieren. Die Anzahl der Allele desselben Elternteils kann durch eine binomische Zufallsvariable modelliert werden. Um herauszufinden, ob es eine gleiche Wahrscheinlichkeit für ein Allel aus derselben Quelle oder aus einer anderen Quelle gibt, können wir einen statistischen Test untersuchen. Umgekehrt ist es zur Simulation der Allele eines Individuums möglich, die Frequenzen der Allele durch binomiale Zufallsvariablen zu simulieren.

In der Linguistik wird das Binomialgesetz verwendet, um den Reichtum des Wortschatzes eines Textes zu untersuchen. Es ist ein quantitatives Tool, das die Häufigkeit eines Wortes in einem Text unabhängig von der Länge des Textes misst. Genauer gesagt ermöglicht es Müllers Methode, den theoretischen Reichtum des Wortschatzes eines Textes dank des Wortschatzes eines längeren Textes zu bewerten und damit mit dem Wortschatz des fraglichen Kurztextes zu vergleichen. Technisch gesehen ist if die Anzahl der Wörter in einem Text und die eines anderen Textes. Dann ist die Wahrscheinlichkeit des Auftretens eines zufällig gezeichneten Wortes im ersten Text; das gleiche gilt für den zweiten Text. Die Anzahl der Wörter mit der gleichen Häufigkeit des Auftretens im ersten Text folgt dann einem Binomialgesetz der Parameter und p . Es ist möglich, statistische Tests durchzuführen, um festzustellen, ob der Wortschatz reich ist oder nicht.

1908 untersuchte Émile Borel die Häufigkeit verschiedener Ziffern bei der Dezimalentwicklung einer reellen Zahl. Es berücksichtigt die ersten 2 n -Werte der Dezimalzerlegung und schätzt die Wahrscheinlichkeit, die Häufigkeit zu erhalten, mit der jede Ganzzahl bei dieser Zerlegung auftritt, dank der Annäherung durch das Normalgesetz. Er beweist damit den Satz normaler Zahlen .

Eine Irrfahrt auf eine Vollzeit - stochastischer Prozess . Das heißt, die Wanderung beginnt beispielsweise mit einem Anfangswert S 0 = 0, und für jede Zeiteinheit bewegt sich die Gehhilfe (unabhängig vom zuvor zurückgelegten Weg) mit einer Wahrscheinlichkeit p einen Schritt nach oben oder mit einer Wahrscheinlichkeit einen Schritt nach unten 1 - p , also S 1 = –1 oder 1 . S n gibt die Position des Gehers nach einer Zeit n an . Wenn p = 1 - p = 0,5 ist , wird der Gang als symmetrisch bezeichnet und der Walker hat die gleiche Chance, nach oben wie nach unten zu gehen. In diesem Fall kann die Zufallsvariable am Ende der Zeit n Werte annehmen und hat eine Binomialverteilung b ( n , 0,5) . Diese Überlegung sowie die Konvergenz zur Normalverteilung (siehe oben ) ermöglichen es zu zeigen, dass ein renormierter Zufallslauf zur Brownschen Bewegung konvergiert (siehe Donskers Theorem ).

Anmerkungen und Referenzen

  1. Gossett 2009 , p.  310.
  2. Dodge 2007 , p.  175.
  3. Dodge 2007 , p.  287.
  4. Ruegg 1994 , p.  38.
  5. Bogaert 2005 , p.  50.
  6. Gossett 2009 , p.  316.
  7. Ruegg 1994 , p.  39.
  8. Gossett 2009 , p.  311.
  9. Bogaert 2005 , p.  305.
  10. Foata, Fuchs und Ranchi 2012 , p.  68.
  11. Hald 2005 , p.  5.
  12. Hald 2005 , p.  485.
  13. Hazewinkel 1994 , p.  438.
  14. Johnson, Kemp und Kotz 2005 , p.  109.
  15. Johnson, Kemp und Kotz 2005 , p.  136.
  16. Johnson, Kemp und Kotz 2005 , p.  140.
  17. Gossett 2009 , p.  274.
  18. Ruegg 1994 , p.  23.
  19. Johnson, Kemp und Kotz 2005 , p.  53.
  20. Schulden und Studden 1997 , p.  16.
  21. Johnson, Kemp und Kotz 2005 , p.  110.
  22. Johnson, Kemp und Kotz 2005 , p.  111.
  23. Hazewinkel 1994 , p.  397.
  24. Courtin 2012 , p.  1 G 17.
  25. Bogaert 2005 , p.  329.
  26. Johnson, Kemp und Kotz 2005 , p.  114.
  27. Mittag und Rinne 1993 , p.  515.
  28. Mittag und Rinne 1993 , p.  105.
  29. Johnson, Kemp und Kotz 2005 , p.  115.
  30. Pfister 2012 , p.  104.
  31. Courtin 2012 , p.  1 G 16.
  32. Johnson, Kemp und Kotz 2005 , p.  135.
  33. Johnson, Kemp und Kotz 2005 , p.  116.
  34. Johnson, Kemp und Kotz 2005 , p.  125.
  35. Lesigne 2005 , p.  4. Abdeckung
  36. Bogaert 2005 , p.  54.
  37. Johnson, Kemp und Kotz 2005 , p.  218.
  38. Mittag und Rinne 1993 , p.  109.
  39. Mittag und Rinne 1993 , p.  116.
  40. Johnson, Kemp und Kotz 2005 , p.  137.
  41. Johnson, Kemp und Kotz 2005 , p.  253.
  42. Johnson, Kemp und Kotz 2005 , p.  254.
  43. Courtin 2012 , p.  1 G 18.
  44. Siegmund und Yakir 2007 , p.  14.
  45. Foata, Fuchs und Ranchi 2012 , p.  73.
  46. Hald 2005 , p.  215.
  47. Johnson, Kemp und Kotz 2005 , p.  121.
  48. Johnson, Kemp und Kotz 2005 , p.  123.
  49. Bogaert 2005 , p.  348.
  50. Mittag und Rinne 1993 , p.  106.
  51. Hald 2005 , p.  492.
  52. Ruegg 1994 , p.  93.
  53. Hazewinkel 1994 , p.  369.
  54. Johnson, Kemp und Kotz 2005 , p.  118.
  55. Johnson, Kemp und Kotz 2005 , p.  117.
  56. Lesigne 2005 , p.  34.
  57. Bogaert 2005 , p.  71.
  58. Dodge 2007 , p.  288.
  59. Bogaert 2005 , p.  349.
  60. Dagnelie 1998 , p.  122.
  61. Dagnelie 1998 , p.  76.
  62. Dagnelie 1998 , p.  78.
  63. Siegmund und Yakir 2007 , p.  17.
  64. Siegmund und Yakir 2007 , p.  11.
  65. Siegmund und Yakir 2007 , p.  240.
  66. Pfister 2012 , p.  154.
  67. Pfister 2012 , p.  155.
Artikel und andere Quellen
  1. Aimé Fuchs, „  Plaidoyer pour la loi normale  “ .
  2. Sie beispielsweise dem Link unten auf dieser Seite zur Lektion über Wikiversity .
  3. (in) RB Potts  (in) , "  Anmerkung zu den Fakultätszeiten von Standardverteilungen  " , Austr. J. Phys.  (in) , vol.  6,1953, p.  498 ( online lesen ).
  4. Marc Diener, „  Elementare Wahrscheinlichkeiten - Kap. 7: Funktionen generieren  “ , an der Université Nice Sophia Antipolis ,2006, p.  33 .
  5. (in) V. Romanovsky , "  Anmerkung zur Zeit des Binomials ( p + q ) n über ict mean  " , Biometrika , vol.  15, n Knochen  3-4,1923, p.  410-412 ( DOI  10.2307 / 2331875 ).
  6. (in) Kais Hamza, "  Die kleinste einheitliche Obergrenze des Abstands entre les mean und der Median der Binomial- und Poisson-Verteilungen  " , Statist. Probab. Lette. , Vol.  23,1995, p.  21-25 ( online lesen ).
  7. E. Morice, „  Einige mathematische Modelle der Lebensdauer  “, Revue de statistique angewendet , t.  14, n o  1,1966, p.  45-126 ( online lesen ), p.  68 .
  8. (in) Wassily Hoeffdin, "  Wahrscheinlichkeitsungleichungen für Summen begrenzter Zufallsvariablen  " , Journal of the American Statistical Association , vol.  58, n o  301,März 1963, p.  13-30 ( online lesen ).
  9. (in) Victor Korolev und Irina Shevtsova, "  Eine Verbesserung der Berry-Esseen-Ungleichung mit Anwendungen auf Fisch und gemischte Poisson-Zufallssummen  " , Scandinavian Actuarial Journal , vol.  2,2012, p.  81-105 ( online lesen ).
  10. Étienne Évrard, "  Die Geheimnisse der Vokabeln  ", Zeitschrift für Informatik und Statistik in den Humanwissenschaften XXX - CIPL , vol.  XXX, Nr .  1 bis 4,1994, p.  272-274 ( online lesen ).
  11. Étienne Brunet, "  Müller le lexicomaître  ", CIPL ,2009, p.  99-119 ( online lesen ).
  12. Émile Borel , "  Die zählbaren Wahrscheinlichkeiten und ihre arithmetischen Anwendungen  ", Rendiconti del Circolo Matematico di Palermo , vol.  27, n o  1,Dezember 1909, p.  247-271 ( ISSN  0009-725X und 1973-4409 , DOI  10.1007 / BF03019651 , online lesen ).

Siehe auch

Literaturverzeichnis

Dokument zum Schreiben des Artikels verwendet : Dokument, das als Quelle für diesen Artikel verwendet wird.

Zum Thema passende Artikel