Inegalitatea lui Chebyshev - Chebyshev's inequality

În teoria probabilității , inegalitatea lui Chebyshev (numită și inegalitatea Bienaymé – Chebyshev ) garantează că, pentru o clasă largă de distribuții de probabilitate , nu mai mult de o anumită fracțiune de valori poate fi mai mult decât o anumită distanță de medie . Mai exact, nu mai mult de 1 / k 2 din valorile distribuției pot fi k sau mai multe abateri standard departe de medie (sau echivalent, peste 1 - 1 / k 2 din valorile distribuției sunt mai mici decât kabateri standard departe de medie). Regula este adesea numită teorema lui Chebyshev, despre gama de abateri standard în jurul valorii medii, în statistici. Inegalitatea are o mare utilitate deoarece poate fi aplicată oricărei distribuții de probabilitate în care media și varianța sunt definite. De exemplu, poate fi folosit pentru a dovedi legea slabă a numărului mare .

Utilizarea sa practică este similară cu regula 68-95-99.7 , care se aplică numai distribuțiilor normale . Inegalitatea lui Chebyshev este mai generală, afirmând că un minim de doar 75% din valori trebuie să se încadreze în două abateri standard ale mediei și 88,89% în cadrul a trei abateri standard pentru o gamă largă de distribuții diferite de probabilitate .

Termenul de inegalitate a lui Chebyshev se poate referi și la inegalitatea lui Markov , în special în contextul analizei. Acestea sunt strâns legate, iar unii autori se referă la inegalitatea lui Markov ca „Prima inegalitate a lui Chebyshev” și cea similară menționată pe această pagină ca „A doua inegalitate a lui Chebyshev”.

Istorie

Teorema este numită după matematicianul rus Pafnuty Chebyshev , deși a fost formulată pentru prima dată de prietenul și colega sa Irénée-Jules Bienaymé . Teorema a fost declarată pentru prima dată fără dovezi de către Bienaymé în 1853 și mai târziu dovedită de Chebyshev în 1867. Elevul său Andrey Markov a furnizat o altă dovadă în doctoratul său din 1884. teză.

Afirmație

Inegalitatea lui Chebyshev este de obicei declarată pentru variabilele aleatorii , dar poate fi generalizată la o afirmație despre spațiile de măsură .

Afirmație probabilistică

Fie X (integrabil) o variabilă aleatorie cu valoare finită așteptată μ și varianță finită diferită de zero σ 2 . Apoi pentru orice număr real k > 0 ,

Numai cazul este util. Când partea dreaptă și inegalitatea sunt banale, deoarece toate probabilitățile sunt ≤ 1.

De exemplu, utilizarea arată că probabilitatea ca valorile să se afle în afara intervalului nu depășește .

Deoarece poate fi aplicat distribuțiilor complet arbitrare, cu condiția să aibă o medie și o varianță finite cunoscute, inegalitatea oferă în general o legătură slabă în comparație cu ceea ce s-ar putea deduce dacă se cunosc mai multe aspecte despre distribuția implicată.

k Min. % în k
deviații standard    ale mediei
Max. % dincolo de k
abateri standard de la medie
1 0% 100%
2 50% 50%
1.5 55,56% 44,44%
2 75% 25%
2 2 87,5% 12,5%
3 88,8889% 11,1111%
4 93,75% 6,25%
5 96% 4%
6 97.2222% 2.7778%
7 97.9592% 2,0408%
8 98,4375% 1,5625%
9 98,7654% 1,2346%
10 99% 1%

Afirmație teoretică a măsurii

Fie ( X , Σ, μ) să fie un spațiu măsură , și să f să fie o reală extinsă -valued măsurabilă definită pe X . Apoi pentru orice număr real t > 0 și 0 < p <∞,

Mai general, dacă g este o funcție măsurabilă cu valoare reală extinsă, non-negativă și nedescreșătoare, cu atunci:

Afirmația anterioară urmează apoi definind ca și cum și altfel.

Exemplu

Să presupunem că selectăm aleatoriu un articol de jurnal dintr-o sursă cu o medie de 1000 de cuvinte pe articol, cu o abatere standard de 200 de cuvinte. Putem apoi deduce că probabilitatea ca acesta să aibă între 600 și 1400 de cuvinte (adică în k  = 2 abateri standard ale mediei) trebuie să fie de cel puțin 75%, deoarece nu există mai mult de 1k2
= 1/4
șansa de a fi în afara acestui interval, prin inegalitatea lui Chebyshev. Dar dacă știm în plus că distribuția este normală , putem spune că există o șansă de 75% ca numărul de cuvinte să fie între 770 și 1230 (care este o legătură și mai strânsă).

Claritatea limitelor

Așa cum se arată în exemplul de mai sus, teorema oferă de obicei limite destul de libere. Cu toate acestea, aceste limite nu pot fi îmbunătățite în general (rămânând adevărate pentru distribuțiile arbitrare). Limitele sunt clare pentru următorul exemplu: pentru orice k  ≥ 1,

Pentru această distribuție, media μ = 0 și abaterea standard σ =1/k , asa de

Inegalitatea lui Chebyshev este o egalitate pentru tocmai acele distribuții care reprezintă o transformare liniară a acestui exemplu.

Dovadă (a versiunii față-verso)

Dovadă probabilistică

Inegalitatea lui Markov afirmă că pentru orice variabilă aleatoare Y cu valoare reală și orice număr pozitiv a , avem Pr (| Y |>  a ) ≤ E (| Y |) / a . O modalitate de a demonstra inegalitatea lui Chebyshev este aplicarea inegalității lui Markov la variabila aleatoare Y = ( X - μ ) 2 cu a = ( ) 2 .

De asemenea, poate fi dovedit direct folosind așteptarea condiționată :

Inegalitatea lui Chebyshev urmează apoi prin împărțirea la k 2 σ 2 .

Această dovadă arată, de asemenea, de ce limitele sunt destul de libere în cazuri tipice: așteptarea condiționată a evenimentului în care | X  -  μ | <  este aruncat, iar limita inferioară a k 2 σ 2 la eveniment | X  -  μ | ≥  poate fi destul de slabă.

Măsură-dovadă teoretică

Fixați și lăsați să fie definit ca și să fie funcția indicator a setului  . Apoi, este ușor să verificați dacă, pentru orice ,

deoarece g nu este în scădere și, prin urmare,

unde ultima inegalitate este justificată de non-negativitatea lui g . Inegalitatea dorită rezultă din împărțirea inegalității de mai sus cu  g ( t ).

Dovada presupunerii variabilei aleatoare X este continuă

Folosind definiția funcției de densitate de probabilitate f ( x ) și o caracterizare standard a varianței Var ( X ):

avem:

Înlocuind cu ε , unde k  =  ε / σ , avem o altă formă a inegalității lui Chebyshev:

sau, echivalentul

unde ε este definit la fel ca k ; orice număr real pozitiv.

Extensii

Au fost dezvoltate mai multe extensii ale inegalității lui Chebyshev.

Asimetric pe două fețe

Dacă X are media μ și varianța σ 2 , atunci

dacă și , unde și .

Acest lucru se reduce la inegalitatea lui Chebyshev în cazul simetric ( și u echidistant de la medie).

Generalizare bivariată

Fie X 1 , X 2 două variabile aleatorii cu medii μ 1 , μ 2 și varianțe finite σ 1 , respectiv σ 2 . Apoi, o legătură de uniune arată asta

Această legătură nu necesită X 1 și X 2 independente.

Bivariate, corelație cunoscută

Berge a derivat o inegalitate pentru două variabile corelate X 1 , X 2 . Fie ρ coeficientul de corelație dintre X 1 și X 2 și fie σ i 2 varianța lui X i . Atunci

Lal a obținut ulterior o legătură alternativă

Isii au derivat o generalizare suplimentară. Lăsa

și definește:

Acum sunt trei cazuri.

  • Cazul A: Dacă și atunci
  • Cazul B: Dacă condițiile din cazul A nu sunt îndeplinite, dar k 1 k 2 ≥ 1 și
atunci
  • Cazul C: Dacă niciuna dintre condițiile din cazurile A sau B nu este îndeplinită, atunci nu există o altă legătură universală decât 1.

Multivariat

Cazul general este cunoscut sub numele de inegalitatea Birnbaum – Raymond – Zuckerman după autorii care au dovedit-o pentru două dimensiuni.

unde X i este a i -a variabilă aleatorie, μ i este a i -a medie și σ i 2 este a i -a varianță.

Dacă variabilele sunt independente, această inegalitate poate fi ascuțită.

Olkin și Pratt au obținut o inegalitate pentru n variabile corelate.

unde suma este preluată peste n variabile și

unde ρ ij este corelația dintre X i și X j .

Inegalitatea lui Olkin și Pratt a fost ulterior generalizată de Godwin.

Vector cu dimensiuni finite

Ferentinos a arătat că pentru un vector X = ( x 1 , x 2 , ...) cu media μ = ( μ 1 , μ 2 , ...) , deviația standard σ = ( σ 1 , σ 2 , ... ) și norma euclidiană || ⋅ || acea

O a doua inegalitate legată a fost, de asemenea, derivată de Chen. Să n fie dimensiunea a vectorului stohastic X si lasa E ( X ) este media lui X . Să S fie matricea de covarianță și k > 0 . Atunci

unde Y T este transpusa lui Y . O dovadă simplă a fost obținută la Navarro după cum urmează:

Unde

și este o matrice inversabilă simetrică , astfel încât: . De aici și unde reprezintă matricea identitară a dimensiunii  n . Apoi și

În cele din urmă, aplicând inegalitatea lui Markov la Z obținem

și astfel se menține inegalitatea dorită.

Inegalitatea poate fi scrisă în termenii distanței Mahalanobis ca

unde distanța Mahalanobis bazată pe S este definită de

Navarro a demonstrat că aceste limite sunt ascuțite, adică sunt cele mai bune limite posibile pentru acele regiuni atunci când știm doar media și matricea de covarianță a lui X.

Stellato și colab. a arătat că această versiune multivariată a inegalității Chebyshev poate fi ușor derivată analitic ca un caz special al lui Vandenberghe și colab. unde legătura este calculată prin rezolvarea unui program semidefinit (SDP).

Dimensiuni infinite

Există o extensie directă a versiunii vectoriale a inegalității lui Chebyshev la setări dimensionale infinite. Fie X o variabilă aleatorie care ia valori într-un spațiu Fréchet (echipat cu seminorme || ⋅ || α ). Aceasta include cele mai frecvente setări ale variabilelor aleatoare cu valoare vectorială, de exemplu, când este un spațiu Banach (echipat cu o singură normă), un spațiu Hilbert sau setarea cu dimensiuni finite descrise mai sus.

Să presupunem că X este de „ ordinea doi puternică ”, ceea ce înseamnă că

pentru fiecare seminormă || ⋅ || α . Aceasta este o generalizare a cerinței ca X să aibă varianță finită și este necesară pentru această formă puternică a inegalității lui Chebyshev în dimensiuni infinite. Terminologia „ordinea puternică doi” se datorează lui Vakhania .

Hai să fie integrală Pettis a X (adică, generalizarea vectorială a mediei), și să

să fie abaterea standard în ceea ce privește seminorma || ⋅ || α . În această setare putem afirma următoarele:

Versiune generală a inegalității lui Chebyshev.

Dovadă. Dovada este simplă și, în esență, aceeași cu versiunea finitară. Dacă σ α = 0 , atunci X este constant (și egal cu μ ) aproape sigur, deci inegalitatea este banală.

Dacă

apoi || X - μ || α > 0 , deci putem împărți în siguranță la || X - μ || α . Trucul crucial al inegalității lui Chebyshev este să recunoaștem asta .

Următoarele calcule completează dovada:

Momente superioare

Este posibilă și o extensie la momente superioare:

Moment exponențial

O inegalitate asociată uneori cunoscută sub numele de inegalitatea exponențială a lui Cebișev este inegalitatea

K ( t ) să fie cumulant funcția generatoare ,

Luând transformarea Legendre – Fenchel a lui K ( t ) și folosind inegalitatea exponențială a lui Chebyshev avem

Această inegalitate poate fi utilizată pentru a obține inegalități exponențiale pentru variabile nelimitate.

Variabile delimitate

Dacă P ( x ) are suport finit pe baza intervalului [ a , b ] , să fie M = max (| a |, | b |) unde | x | este valoarea absolută a lui x . Dacă media lui P ( x ) este zero, atunci pentru toate k > 0

A doua dintre aceste inegalități cu r = 2 este legătura Chebyshev. Primul oferă o limită inferioară pentru valoarea lui P ( x ).

Limitele ascuțite pentru o variață mărginită au fost propuse de Niemitalo, dar fără o dovadă

Fie 0 ≤ XM unde M > 0 . Atunci

  • Cazul 1:
  • Cazul 2:
  • Cazul 3:

Mostre finite

Caz univariat

Saw și colab . Au extins inegalitatea lui Chebyshev la cazurile în care media populației și varianța nu sunt cunoscute și pot să nu existe, dar media eșantionului și deviația standard a eșantionului de la N eșantioane trebuie folosite pentru a lega valoarea așteptată a unui desen nou din aceeași distribuție. .

unde X este o variabilă aleatorie pe care am eșantionat-o de N ori, m este media eșantionului, k este o constantă și s este deviația standard a eșantionului. g ( x ) este definit după cum urmează:

Fie x ≥ 1, Q = N + 1 și R să fie cel mai mare întreg mai mic decât Q / x . Lăsa

Acum

Această inegalitate se menține chiar și atunci când momentele populației nu există și când eșantionul este distribuit doar în mod slab ; acest criteriu este îndeplinit pentru eșantionarea randomizată. Konijn a determinat un tabel de valori pentru inegalitatea Saw – Yang – Mo pentru dimensiunile probelor finite ( N <100). Tabelul permite calcularea diferitelor intervale de încredere pentru medie, pe baza multiplilor, C, a erorii standard a mediei, calculată din eșantion. De exemplu, Konijn arată că pentru N  = 59, intervalul de încredere de 95% pentru media m este ( m - Cs , m + Cs ) unde C = 4.447 × 1.006 = 4.47 (aceasta este de 2.28 ori mai mare decât valoarea găsită pe presupunerea normalității care arată pierderea de precizie rezultată din ignorarea naturii precise a distribuției).

Kabán oferă o versiune oarecum mai puțin complexă a acestei inegalități.

Dacă abaterea standard este un multiplu al mediei, atunci poate fi derivată o altă inegalitate,

Konijn a determinat un tabel de valori pentru inegalitatea Saw – Yang – Mo pentru dimensiunile probelor finite ( N <100).

Pentru N fix și mare m , inegalitatea Saw – Yang – Mo este aproximativ

Beasley și colab. Au sugerat o modificare a acestei inegalități

În testarea empirică, această modificare este conservatoare, dar pare să aibă o putere statistică redusă. În prezent, baza sa teoretică rămâne neexplorată.

Dependența de mărimea eșantionului

Limitele pe care aceste inegalități le dau unui eșantion finit sunt mai puțin strânse decât cele pe care le dă inegalitatea Chebyshev pentru o distribuție. Pentru a ilustra acest lucru, lăsați dimensiunea eșantionului N = 100 și lăsați k = 3. Inegalitatea lui Chebyshev afirmă că cel mult aproximativ 11,11% din distribuție se află la cel puțin trei abateri standard distanță de medie. Versiunea Kabán a inegalității pentru un eșantion finit afirmă că cel mult aproximativ 12,05% din eșantion se află în afara acestor limite. Dependența intervalelor de încredere de mărimea eșantionului este ilustrată în continuare mai jos.

Pentru N = 10, intervalul de încredere de 95% este de aproximativ ± 13,5789 abateri standard.

Pentru N = 100, intervalul de încredere de 95% este de aproximativ ± 4,9595 abateri standard; intervalul de încredere de 99% este de aproximativ ± 140,0 abateri standard.

Pentru N = 500, intervalul de încredere de 95% este de aproximativ ± 4,5574 abateri standard; intervalul de încredere de 99% este de aproximativ ± 11,1620 abateri standard.

Pentru N = 1000, intervalele de încredere de 95% și 99% sunt de aproximativ ± 4.5141 și respectiv ± 10.5330 abateri standard.

Inegalitatea Chebyshev pentru distribuție oferă intervale de încredere de 95% și 99% de aproximativ ± 4.472 abateri standard și respectiv ± 10 abateri standard.

Inegalitatea lui Samuelson

Deși inegalitatea lui Chebyshev este cea mai bună legătură posibilă pentru o distribuție arbitrară, acest lucru nu este neapărat adevărat pentru probele finite. Inegalitatea lui Samuelson afirmă că toate valorile unui eșantion se vor încadra în N  - 1 abateri standard ale mediei. Limita lui Chebyshev se îmbunătățește pe măsură ce mărimea eșantionului crește.

Când N = 10, inegalitatea lui Samuelson afirmă că toți membrii eșantionului se încadrează în 3 deviații standard ale mediei: în contrast, Chebyshev afirmă că 99,5% din eșantion se află în 13,5789 abateri standard ale mediei.

Când N = 100, inegalitatea lui Samuelson afirmă că toți membrii eșantionului se află la aproximativ 9,9499 abateri standard ale mediei: Chebyshev afirmă că 99% din eșantion se află la 10 abateri standard ale mediei.

Când N = 500, inegalitatea lui Samuelson afirmă că toți membrii eșantionului se află la aproximativ 22,3383 abateri standard ale mediei: Chebyshev afirmă că 99% din eșantion se află la 10 abateri standard ale mediei.

Caz multivariat

Stellato și colab. a simplificat notația și a extins inegalitatea empirică Chebyshev de la Saw și colab. la cazul multivariat. Fie o variabilă aleatorie și let . Atragem mostre IID de notat ca . Bazat pe primele probe, definim media empirică ca și covarianța empirice imparțial ca . Dacă este nesingular, atunci pentru toate atunci

Observații

În cazul univariat, adică , această inegalitate corespunde cu cea din Saw și colab. Mai mult, partea dreaptă poate fi simplificată prin limitarea superioară a funcției etaj prin argumentul său

De asemenea , partea dreaptă tinde să corespundă inegalității multivariate Chebyshev față de elipsoizii formați și centrate în .

Limite ascuțite

Inegalitatea lui Chebyshev este importantă datorită aplicabilității sale la orice distribuție. Ca urmare a generalității sale, este posibil să nu ofere (și de obicei nu) o legătură la fel de ascuțită ca metodele alternative care pot fi utilizate dacă se cunoaște distribuția variabilei aleatorii. Pentru a îmbunătăți claritatea limitelor oferite de inegalitatea lui Chebyshev au fost dezvoltate o serie de metode; pentru o recenzie vezi de ex.

Variabile standardizate

Limitele ascuțite pot fi derivate standardizând mai întâi variabila aleatorie.

Fie X o variabilă aleatorie cu varianță finită Var ( X ). Fie Z forma standardizată definită ca

Lema lui Cantelli este atunci

Această inegalitate este puternică și este atinsă de k și -1 / k cu probabilitatea 1 / (1 +  k 2 ) și respectiv k 2 / (1 +  k 2 ).

Dacă k > 1 și distribuția lui X este simetrică atunci avem

Egalitatea deține dacă și numai dacă Z = - k , 0 sau k cu probabilități 1/2 k 2 , 1 - 1 / k 2 și 1/2 k 2 respectiv. Este posibilă și o extensie la o inegalitate față-verso.

u , v > 0. Atunci avem

Semivarianțe

O metodă alternativă de obținere a unor limite mai clare este prin utilizarea semivarianțelor (varianțe parțiale). Semivarianțele superioare ( σ + 2 ) și inferioare ( σ - 2 ) sunt definite ca

unde m este media aritmetică a eșantionului și n este numărul de elemente din eșantion.

Varianța eșantionului este suma celor două semivarianțe:

În ceea ce privește semivarianța inferioară, se poate scrie inegalitatea lui Chebyshev

Punând

Inegalitatea lui Cebișev poate fi acum scrisă

Un rezultat similar poate fi obținut și pentru semivarianța superioară.

Dacă punem

Inegalitatea lui Chebyshev poate fi scrisă

Deoarece σ u 2σ 2 , utilizarea semivarianței accentuează inegalitatea inițială.

Dacă se știe că distribuția este simetrică, atunci

și

Acest rezultat este de acord cu cel derivat folosind variabile standardizate.

Notă
S-a constatat că inegalitatea cu semivarianța inferioară este utilă în estimarea riscului negativ în finanțe și agricultură.

Inegalitatea lui Selberg

Selberg a derivat o inegalitate pentru P ( x ) atunci când axb . Pentru a simplifica notația let

Unde

și

Rezultatul acestei transformări liniare este de a face P ( aXb ) egal cu P (| Y | ≤ k ).

Media ( μ X ) și varianța ( σ X ) a lui X sunt legate de media ( μ Y ) și varianța ( σ Y ) a lui Y :

Cu această notație, inegalitatea lui Selberg afirmă că

Acestea sunt cunoscute a fi cele mai bune limite posibile.

Inegalitatea lui Cantelli

Inegalitatea lui Cantelli datorată lui Francesco Paolo Cantelli afirmă că pentru o variabilă reală aleatorie ( X ) cu medie ( μ ) și varianță ( σ 2 )

unde a ≥ 0.

Această inegalitate poate fi utilizată pentru a dovedi o variantă unilaterală a inegalității lui Chebyshev cu k > 0

Limita pe varianta cu o singură coadă este cunoscută a fi ascuțită. Pentru a vedea acest lucru, luați în considerare variabila aleatoare X care ia valorile

cu probabilitate
cu probabilitate

Atunci E ( X ) = 0 și E ( X 2 ) = σ 2 și P ( X <1) = 1 / (1 + σ 2 ).

O aplicație: distanța dintre medie și mediană

Varianta unilaterală poate fi utilizată pentru a demonstra propoziția că pentru distribuțiile de probabilitate având o valoare așteptată și o mediană , media și mediana nu pot diferi niciodată una de cealaltă cu mai mult de o abatere standard . Pentru a exprima acest lucru în simboluri, să fie μ , ν și σ respectiv media, mediana și abaterea standard. Atunci

Nu este necesar să presupunem că varianța este finită, deoarece această inegalitate este trivial adevărată dacă varianța este infinită.

Dovada este următoarea. Setarea k  = 1 în declarația pentru inegalitatea unilaterală dă:

Schimbând semnul lui X și al lui μ , obținem

Deoarece mediana este prin definiție orice număr real  m care satisface inegalitățile

aceasta implică faptul că mediana se află într-o abatere standard a mediei. O dovadă folosind inegalitatea lui Jensen , de asemenea , există .

Inegalitatea lui Bhattacharyya

Bhattacharyya a extins inegalitatea lui Cantelli folosind al treilea și al patrulea moment al distribuției.

Fie μ = 0 și σ 2 varianța. Fie γ = E ( X 3 ) / σ 3 și κ = E ( X 4 ) / σ 4 .

Dacă k 2 - k γ - 1> 0 atunci

Necesitatea k 2 - k γ - 1> 0 necesită ca k să fie rezonabil de mare.

Inegalitatea lui Mitzenmacher și Upfal

Mitzenmacher și Upfal observă că

pentru orice număr întreg k > 0 și că

este 2 k - lea moment de centru. Apoi arată că pentru t > 0

Pentru k = 1 obținem inegalitatea lui Chebyshev. Pentru t ≥ 1, k > 2 și presupunând că al k- lea moment există, această legătură este mai strânsă decât inegalitatea lui Chebyshev.

Inegalități conexe

Sunt cunoscute și alte câteva inegalități conexe.

Inegalitatea lui Zelen

Zelen a arătat asta

cu

unde M m este momentul m -al treilea și σ este abaterea standard.

El, Zhang și inegalitatea lui Zhang

Pentru orice colecție de n variabile aleatorii independente non-negative X i cu așteptare 1

Lema lui Hoeffding

Fie X o variabilă aleatorie cu aXb și E [ X ] = 0 , atunci pentru orice s > 0 , avem

Van Zuijlen este legat

Fie X i un set de variabile aleatoare independente Rademacher : Pr ( X i = 1) = Pr ( X i = −1) = 0,5 . Atunci

Limita este ascuțită și mai bună decât cea care poate fi derivată din distribuția normală (aproximativ Pr> 0,31 ).

Distribuții unimodale

O funcție de distribuție F este unimodală la ν dacă funcția sa de distribuție cumulativă este convexă pe (−∞, ν ) și concavă pe ( ν , ∞) O distribuție empirică poate fi testată pentru unimodalitate cu testul dip .

În 1823 Gauss a arătat că pentru o distribuție unimodală cu un mod de zero

Dacă modul nu este zero și media ( μ ) și deviația standard ( σ ) sunt ambele finite, atunci denotând mediana ca ν și deviația pătrată medie a rădăcinii de la mod cu ω , avem

(cu prima o egalitate când modul este egal cu media și al doilea când modul este √3 abateri standard de la medie într-o distribuție uniformă luând modul la un capăt) și

Winkler în 1866 , a extins inegalitatea Gauss a r th momentele în care r > 0 și distribuția este unimodală cu un mod de la zero:

Legătura lui Gauss a fost ulterior ascuțită și extinsă pentru a se aplica abaterilor de la medie, mai degrabă decât modului din cauza inegalității Vysochanskiï-Petunin . Acesta din urmă a fost extins de Dharmadhikari și Joag-Dev

unde s este o constantă care satisface atât s > r + 1 cât și s ( s  -  r  - 1) =  r r și  r  > 0.

Se poate demonstra că aceste inegalități sunt cele mai bune posibile și că ascuțirea în continuare a limitelor necesită impunerea unor restricții suplimentare asupra distribuțiilor.

Distribuții simetrice unimodale

Limitele acestei inegalități pot fi, de asemenea, ascuțite dacă distribuția este atât unimodală, cât și simetrică . O distribuție empirică poate fi testată pentru simetrie cu o serie de teste, inclusiv R * a lui McWilliam. Este cunoscut faptul că variația unei distribuții simetrice unimodală cu suport finit [ ab ] este mai mic sau egal cu ( b  -  a ) cu 2 /12 ani.

Să se susțină distribuția pe intervalul finit [- NN ] și varianța să fie finită. Fie modul distribuției zero și redimensionează varianța la 1. Fie k  > 0 și presupunem k  <2 N / 3. Atunci

Dacă 0 < k ≤ 2 / 3 limitele sunt atinse cu densitatea

Dacă 2 / 3 < k ≤ 2 N / 3 limitele sunt atinse prin distribuție

unde β k = 4/3 k 2 , δ 0 este funcția delta Dirac și unde

Existența acestor densități arată că limitele sunt optime. Deoarece N este arbitrară aceste limite se aplică la orice valoare de N .

Inegalitatea Camp – Meidell este o inegalitate asociată. Pentru o distribuție unimodală și simetrică absolut continuă

DasGupta a arătat că, dacă se știe că distribuția este normală

Note

Efectele simetriei și unimodalității

Simetria distribuției scade limitele inegalității cu un factor de 2, în timp ce unimodalitatea ascute limitele cu un factor de 4/9.

Deoarece media și modul într-o distribuție unimodală diferă cu cel mult 3 abateri standard cel mult 5% dintr-o distribuție unimodală simetrică se află în afara (2 10  + 3 3 ) / 3 abateri standard ale mediei (aproximativ 3.840 abateri standard ). Aceasta este mai clară decât limitele oferite de inegalitatea Chebyshev (aproximativ 4.472 abateri standard).

Aceste limite ale mediei sunt mai puțin clare decât cele care pot fi derivate doar din simetria distribuției, ceea ce arată că cel mult 5% din distribuție se află în afara a aproximativ 3,162 abateri standard ale mediei. Inegalitatea Vysochanskiï-Petunin ascute in continuare aceasta legat arătând că pentru o astfel de distribuție a încât cel mult 5% din minciunilor de distribuție exterior 4 5 /3 alineatul (aproximativ 2,981) deviații standard ale mediei.

Distribuții unimodale simetrice

Pentru orice distribuție unimodală simetrică

  • cel mult aproximativ 5,784% din distribuție se află în afara 1,96 abateri standard ale modului
  • cel mult 5% din minciunilor de distribuție exterior 2 √ de 10 /3 alineatul (aproximativ 2,11) , abaterile standard ale modului

Distribuții normale

Inegalitatea lui DasGupta afirmă că, pentru o distribuție normală, cel puțin 95% se încadrează în aproximativ 2,582 abateri standard ale mediei. Aceasta este mai puțin clară decât cifra reală (aproximativ 1,96 abateri standard ale mediei).

Limite pentru distribuții specifice

  • DasGupta a stabilit un set de cele mai bune limite posibile pentru o distribuție normală pentru această inegalitate.
  • Steliga și Szynal au extins aceste limite până la distribuția Pareto .
  • Grechuk și colab. a dezvoltat o metodă generală pentru obținerea celor mai bune limite posibile în inegalitatea lui Chebyshev pentru orice familie de distribuții și orice măsură de risc de deviere în locul abaterii standard. În special, au derivat inegalitatea Chebyshev pentru distribuții cu densități concave log .

Zero înseamnă

Când media ( μ ) este zero, inegalitatea lui Chebyshev ia o formă simplă. Fie σ 2 varianța. Atunci

În aceleași condiții, inegalitatea lui Cantelli ia forma

Varianța unității

Dacă în plus E ( X 2 ) = 1 și E ( X 4 ) = ψ atunci pentru orice 0 ≤ ε ≤ 1

Prima inegalitate este puternică. Aceasta este cunoscută sub numele de inegalitatea Paley-Zygmund .

De asemenea, se știe că pentru o variabilă aleatorie care respectă condițiile de mai sus că

Unde

De asemenea, se știe că

Valoarea lui C 0 este optimă, iar limitele sunt clare dacă

Dacă

atunci limita ascuțită este

Inegalitate integrală a lui Cebișev

Există o a doua inegalitate (mai puțin cunoscută) numită și după Chebyshev

Dacă f , g  : [ a , b ] → R sunt două funcții monotonice de aceeași monotonie, atunci

Dacă f și g sunt de monotonie opusă, atunci inegalitatea de mai sus funcționează în sens invers.

Această inegalitate este legată de inegalitatea lui Jensen , inegalitatea lui KANTOROVICH , inegalitatea Hermite-Hadamard și presupuneri lui Walter .

Alte inegalități

Există, de asemenea, o serie de alte inegalități asociate cu Chebyshev:

Transformarea lui Haldane

O utilizare a inegalității lui Chebyshev în aplicații este de a crea intervale de încredere pentru variate cu o distribuție necunoscută. Haldane a remarcat, folosind o ecuație derivată de Kendall , că dacă o variabilă ( x ) are o medie zero, varianța unitară și atât o asimetrie finită ( γ ), cât și o kurtoză ( κ ), atunci variabila poate fi convertită la un scor standard distribuit în mod normal ( z ):

Această transformare poate fi utilă ca alternativă la inegalitatea lui Chebyshev sau ca adjuvant la aceasta pentru derivarea intervalelor de încredere pentru variații cu distribuții necunoscute.

În timp ce această transformare poate fi utilă pentru distribuții moderat înclinate și / sau kurtotice, are performanțe slabe atunci când distribuția este marcat înclinată și / sau kurtotică.

Note

Agenția de Protecție a Mediului a sugerat cele mai bune practici pentru utilizarea inegalității Cebîșev pentru estimarea intervalelor de încredere. <Ref> Calcularea superioare limitelor de încredere pentru expunere Punct Concentrații la locurile de deșeuri periculoase (raport). Biroul de Răspuns de Urgență și Remediere al Agenției SUA pentru Protecția Mediului. Decembrie 2002 . Accesat la 5 august 2016 .

Vezi si

Referințe

Lecturi suplimentare

  • A. Papoulis (1991), Probabilitate, variabile aleatoare și procese stochastice , ed. A III-a. McGraw – Hill. ISBN  0-07-100870-5 . pp. 113–114.
  • G. Grimmett și D. Stirzaker (2001), Probabilitate și procese aleatorii , ed. A III-a. Oxford. ISBN  0-19-857222-0 . Secțiunea 7.3.

linkuri externe