20.09.2019

Il secondo momento iniziale della variabile casuale. Momenti teorici iniziali e centrali


Consideriamo una variabile casuale discreta data dalla legge di distribuzione:

Valore atteso è uguale a:

Vediamo che è molto di più. Ciò può essere spiegato dal fatto che il valore X= -150, che è molto diverso dal resto dei valori, aumenta nettamente al quadrato; la probabilità di questo valore è piccola (0,02). Così, il passaggio da M(X) a M(X2) ha permesso di tenere meglio conto dell'influenza sull'aspettativa matematica di tali valori di una variabile casuale che sono grandi in valore assoluto, ma la probabilità che si verifichino è piccola. Naturalmente, se la quantità aveva diversi valori grandi e improbabili, allora il passaggio alla quantità x2, e ancor di più ai valori , ecc., permetterebbero ancora di più di “rafforzare il ruolo” di questi grandi, ma improbabili valori possibili. Ecco perché risulta opportuno considerare l'aspettativa matematica di una potenza intera positiva di una variabile casuale, non solo discreta, ma anche continua.

Definizione 6.10. Il momento iniziale del esimo ordine di una variabile casuale è l'aspettativa matematica del valore:

In particolare:

Utilizzando questi punti, la formula per il calcolo della varianza può essere scritta in modo diverso

Oltre ai momenti di una variabile aleatoria, è opportuno considerare i momenti di deviazione.

Definizione 6.11. Il momento centrale del esimo ordine di una variabile casuale è l'aspettativa matematica del valore.

(6.23)

In particolare,

È facile derivare relazioni che collegano i momenti iniziali e centrali. Quindi, confrontando (6.22) e (6.24), otteniamo:

Non è difficile dimostrare le seguenti relazioni:

Allo stesso modo:

Raramente vengono utilizzati momenti di ordini superiori. Per determinare i momenti centrali, vengono utilizzate le deviazioni di una variabile casuale dalla sua aspettativa matematica (centro). Pertanto, i momenti sono chiamati centrale.

Nella determinazione dei momenti iniziali si utilizzano anche gli scostamenti di una variabile aleatoria, ma non dall'aspettativa matematica, ma da un punto la cui ascissa è uguale a zero, che è l'origine. Pertanto, i momenti sono chiamati iniziale.

Nel caso di una variabile casuale continua, il momento iniziale del esimo ordine è calcolato dalla formula:

(6.27)

Il momento centrale del esimo ordine di una variabile casuale continua si calcola con la formula:

(6.28)

Assumiamo che la distribuzione di una variabile casuale sia simmetrica rispetto all'aspettativa matematica. Allora tutti i momenti centrali di ordine dispari sono uguali a zero. Ciò può essere spiegato dal fatto che per ogni valore positivo della quantità X-M(X) esiste (a causa della simmetria della distribuzione rispetto a M(X)) il valore negativo di questa quantità uguale ad essa in valore assoluto e le loro probabilità saranno le stesse.



Se il momento centrale di un ordine dispari non è uguale a zero, ciò indica l'asimmetria della distribuzione e maggiore è il momento, maggiore è l'asimmetria. Pertanto, è molto ragionevole prendere qualche momento centrale dispari come una caratteristica dell'asimmetria della distribuzione. Poiché il momento centrale del primo ordine è sempre uguale a zero, è consigliabile utilizzare a tale scopo il momento centrale del terzo ordine.

Definizione 6.12. Il coefficiente di asimmetria è il valore:

Se il coefficiente di asimmetria è negativo, ciò indica una grande influenza sull'entità delle deviazioni negative. In questo caso, la curva di distribuzione (Fig. 6.1 un) più di un baldacchino a sinistra di . Se il coefficiente è positivo, il che significa che prevale l'influenza delle deviazioni positive, la curva di distribuzione è più piatta a destra.

Come è noto, il secondo momento centrale (dispersione) serve a caratterizzare la dispersione dei valori di una variabile casuale attorno alla sua aspettativa matematica. Se questo momento per una variabile casuale è abbastanza grande, ad es. la dispersione è grande, quindi la curva di distribuzione corrispondente è più piatta della curva di distribuzione di una variabile casuale con un momento minore del secondo ordine. Tuttavia, il momento non può servire a questo scopo, perché per qualsiasi distribuzione .

In questo caso viene utilizzato il momento centrale del quarto ordine.

Definizione 6.13. La curtosi è il valore:

Per la legge di distribuzione normale più comune in natura, il rapporto . Pertanto, la curtosi data dalla formula (6.28) serve a confrontare questa distribuzione con quella normale (Fig. 6.1 b).

Troviamo l'aspettativa matematica X 2 :

M(X 2) = 1* 0, 6 + 4* 0, 2 + 25* 0, 19+ 10000* 0, 01 = 106, 15.

Lo vediamo M(X 2) molto di più M(X). Ciò è spiegato dal fatto che dopo aver quadrato il possibile valore della quantità X 2 corrispondente al valore X=100 valori X, divenne pari a 10.000, cioè aumentò notevolmente; la probabilità di questo valore è piccola (0,01).

Così, il passaggio da M(X)a M(X 2) ha permesso di tenere maggiormente conto dell'influenza sull'aspettativa matematica del possibile valore, che è grande e ha una bassa probabilità. Naturalmente, se il valore X aveva diversi valori grandi e improbabili, quindi il passaggio alla quantità X 2 , e ancor di più alle quantità X 3 , X 4, ecc., "rafforzerebbe ulteriormente il ruolo" di questi grandi ma improbabili valori possibili. Ecco perché risulta opportuno considerare l'aspettativa matematica di una potenza intera positiva di una variabile casuale (non solo discreta, ma anche continua).

Un primo momento d'ordine k variabile casuale Xè chiamata aspettativa matematica della quantità Xk:

vk = M(X).

In particolare,

v 1 =M(X), v 2 =M(X 2).

Utilizzando questi punti, la formula per calcolare la varianza D(X)=M(X 2)- [M(X)] 2 può essere scritto come segue:

D(X)=v 2 – . (*)

Fatta eccezione per i momenti della variabile casuale Xè opportuno considerare i momenti di deviazione X-M(X).

Il momento centrale dell'ordine k di una variabile casuale X è l'aspettativa matematica della quantità(HM(X))K:

In particolare,

È facile derivare relazioni che collegano i momenti iniziali e centrali. Ad esempio, confrontando (*) e (***), otteniamo

m2=v 2 – .

Non è difficile, in base alla definizione del momento centrale e utilizzando le proprietà dell'aspettativa matematica, ottenere le formule:

m 3=v 3 3v 2 v 1 + 2 ,

m4=v 4 4v 3 v 1 + 6v 2 + 3 .

I momenti di ordine superiore sono usati raramente.

Commento. I momenti qui considerati sono chiamati teorico. A differenza dei momenti teorici, vengono chiamati i momenti calcolati dai dati osservativi empirico. Di seguito vengono fornite le definizioni dei momenti empirici (vedi Capitolo XVII, § 2).

Compiti

1. Sono note le varianze di due variabili casuali indipendenti: D(X) = 4, D(Y)=3. Trova la varianza della somma di queste quantità.

Rappresentante. 7.

2. Varianza di una variabile casuale X uguale a 5. Trova la varianza delle seguenti grandezze: a) X-uno; b) -2 X; in) ZX + 6.

Rappresentante. a) 5; b) 20; c) 45.

3. Valore casuale X assume solo due valori: +C e -C, ciascuno con una probabilità di 0,5. Trova la varianza di questa quantità.

Rappresentante. DA 2 .

4. , conoscendo la legge della sua distribuzione

X 0, 1
P 0, 4 0, 2 0, 15 0, 25

Rappresentante. 67,6404.

5. Valore casuale X può assumere due valori possibili: X 1 con probabilità 0,3 e X 2 con una probabilità di 0,7, e X 2 > x 1 . Trova X 1 e X 2 sapendo questo M(X) = 2, 7i D(X) =0,21.

Rappresentante. X 1 = 2, X 2 = 3.

6. Trova la varianza di una variabile casuale X- numero di occorrenze di eventi MA in due prove indipendenti, se M(X) = 0, 8.

Istruzione. Scrivi una distribuzione binomiale della probabilità del numero di occorrenze di un evento MA in due prove indipendenti.

Rappresentante. 0, 48.

7. È in corso il test di un dispositivo composto da quattro dispositivi a funzionamento indipendente. Le probabilità di guasto dello strumento sono: R 1 = 0,3; R 2 = 0,4; p 3 = 0,5; R 4 = 0,6. Trova l'aspettativa matematica e la varianza del numero di dispositivi guasti.

Rappresentante. 1,8; 0,94.

8. Trova la varianza di una variabile casuale X- il numero di occorrenze dell'evento in 100 prove indipendenti, in ciascuna delle quali la probabilità che l'evento si verifichi è 0,7.

Rappresentante. 21.

9. Varianza di una variabile casuale D(X) = 6,25. Trova la deviazione standard s( X).

Rappresentante. 2, 5.

10. La variabile casuale è data dalla legge di distribuzione

X
P 0, 1 0, 5 0, 4

Trova la deviazione standard di questa quantità.

Rappresentante. 2, 2.

11. La varianza di ciascuna delle 9 variabili casuali reciprocamente indipendenti distribuite in modo identico è 36. Trova la varianza della media aritmetica di queste variabili.

Rappresentante. 4.

12. La deviazione standard di ciascuna delle 16 variabili casuali reciprocamente indipendenti distribuite in modo identico è 10. Trova la deviazione standard della media aritmetica di queste variabili.

Rappresentante. 2,5.

Capitolo nove

LEGGE DEI GRANDI NUMERI

Osservazioni preliminari

Come già noto, è impossibile prevedere con certezza in anticipo quale dei possibili valori assumerà una variabile aleatoria a seguito del test; dipende da molte cause casuali, che non possono essere prese in considerazione. Sembrerebbe che dal momento che abbiamo informazioni molto modeste su ciascuna variabile casuale in questo senso, è difficile stabilire schemi di comportamento e la somma di un numero sufficientemente grande di variabili casuali. In realtà non lo è. Si scopre che in determinate condizioni relativamente ampie, il comportamento totale di un numero sufficientemente grande di variabili casuali perde quasi il suo carattere casuale e diventa regolare.

Per la pratica, è molto importante conoscere le condizioni in cui l'azione cumulativa di moltissime cause casuali porta a un risultato quasi indipendente dal caso, poiché consente di prevedere il corso dei fenomeni. Queste condizioni sono indicate nei teoremi che portano il nome generale della legge dei grandi numeri. Questi includono i teoremi di Chebyshev e Bernoulli (ci sono altri teoremi che non sono considerati qui). Il teorema di Chebyshev è la legge più generale dei grandi numeri, il teorema di Bernoulli è il più semplice. Per dimostrare questi teoremi, utilizziamo la disuguaglianza di Chebyshev.

La disuguaglianza di Chebyshev

La disuguaglianza di Chebyshev è valida per variabili casuali discrete e continue. Per semplicità, ci limitiamo a dimostrare questa disuguaglianza per quantità discrete.

Considera una variabile casuale discreta X, data dalla tabella di distribuzione:

X X 1 X 2 x n
p p 1 P 2 p n

Poniamoci il compito di stimare la probabilità che lo scostamento di una variabile aleatoria dalla sua aspettativa matematica non superi il numero positivo e in valore assoluto. Se e è sufficientemente piccolo, stimiamo la probabilità che X assumerà valori abbastanza vicini alle sue aspettative matematiche. P. L. Chebyshev ha dimostrato una disuguaglianza che ci consente di fornire la stima a cui siamo interessati.

La disuguaglianza di Chebyshev. La probabilità che la deviazione di una variabile casuale X dalla sua aspettativa matematica in valore assoluto sia minore di un numero positivo e, non sia minore di 1-D(X)/ e 2 :

R(|X-M(X)|< e ) 1-D(X)/ e 2 .

Prova. Poiché gli eventi consistono nella realizzazione delle disuguaglianze |X-M(X)| e |X-M(X)| e, sono opposti, allora la somma delle loro probabilità è uguale a uno, cioè

R(|X-M(X)|< e )+ P(|X-M(X)| e)= 1.

Da qui la probabilità che ci interessa

R(|X-M(X)|< e )= 1- R(|X-M(X)| e). (*)

Pertanto, il problema si riduce al calcolo della probabilità R(| HM(X)| e).

Scriviamo l'espressione per la varianza di una variabile casuale X:

D(X)= [X 1 -M(X)] 2 p 1 + [X 2 -M(X)] 2 p 2 +…+ [xn-M(X)]2p n.

Ovviamente, tutti i termini di questa somma non sono negativi.

Scartiamo quei termini per i quali | x io-M(X)|<e(per i restanti termini | xj-M(X)| e), di conseguenza, l'importo può solo diminuire. Accettiamo di considerare, per certezza, ciò che viene scartato K i primi termini (senza perdita di generalità, possiamo supporre che i valori possibili nella tabella di distribuzione siano numerati in questo ordine). In questo modo,

D(X) [xk + 1 -M(X)] 2 pk + 1 + [xk + 2 -M(X)] 2 p k + z + ... +[xn-M(X)] 2 p n.

Si noti che entrambi i lati della disuguaglianza | xj - M(X)| e (j = K+1, K+ 2, ..., P) sono positivi, quindi, quadrandoli, otteniamo la disuguaglianza equivalente | xj - M(X)| 2 e 2 Usiamo questa osservazione e, sostituendo ciascuno dei fattori | xj - M(X)| 2 di numero e 2(allo stesso tempo, la disuguaglianza non può che aumentare), otteniamo

D(X) e 2 (pk+ 1 + pk + 2 + … + ð n). (**)

Per il teorema dell'addizione, la somma delle probabilità pk+ 1 + pk + 2 + … + ð n c'è una possibilità che X accetta uno, non importa quale, dei valori xk + 1 , xk+ 2 ,....x p, e per ognuna di esse la deviazione soddisfa la disuguaglianza | xj - M(X)| e Ne consegue che la somma pk+ 1 + pk + 2 + … + ð n esprime la probabilità

P(|X - M(X)| e).

Questa considerazione ci permette di riscrivere la disuguaglianza (**) come segue:

D(X) e 2 P(|X - M(X)| e),

P(|X - M(X)| e)D(X) /e 2 (***)

Sostituendo (***) in (*), finalmente otteniamo

P(|X - M(X)| <e) 1-D(X) /e 2 ,

QED

Commento. La disuguaglianza di Chebyshev ha un valore limitato nella pratica, poiché spesso fornisce una stima approssimativa e talvolta banale (senza interesse). Ad esempio, se D(X)> e 2 e quindi D(X)/ e 2 > 1 poi 1 -D(X)/ e 2 < 0; quindi, in questo caso, la disuguaglianza di Chebyshev indica solo che la probabilità di deviazione è non negativa, il che è già ovvio, poiché qualsiasi probabilità è espressa da un numero non negativo.

Il significato teorico della disuguaglianza di Chebyshev è molto ampio. Di seguito useremo questa disuguaglianza per derivare il teorema di Chebyshev.

Il teorema di Chebyshev

Il teorema di Chebyshev. Se X 1 , X 2 ,…, Хn , ...-variabili casuali indipendenti a coppie e le loro varianze sono limitate in modo uniforme(non superare un numero costante C), quindi, non importa quanto piccolo sia il numero positivo e, la probabilità di disuguaglianza

In altre parole, nelle condizioni del teorema

Pertanto, il teorema di Chebyshev afferma che se si considera un numero sufficientemente grande di variabili casuali indipendenti con varianze limitate, allora un evento può essere considerato quasi affidabile se la deviazione della media aritmetica delle variabili casuali dalla media aritmetica delle loro aspettative matematiche sarà arbitrariamente in valore assoluto piccolo.

Prova. Introduciamo in considerazione una nuova variabile casuale: la media aritmetica delle variabili casuali

=(X 1 +X 2 +…+Xn)/n.

Troviamo l'aspettativa matematica . Utilizzando le proprietà dell'aspettativa matematica (dal segno dell'aspettativa matematica si può togliere il fattore costante, l'aspettativa matematica della somma è uguale alla somma delle aspettative matematiche dei termini), si ottiene

M = . (*)

Applicando la disuguaglianza di Chebyshev alla quantità, abbiamo

Sostituendo il lato destro (***) con la disuguaglianza (**) (perché quest'ultima può essere solo rafforzata), abbiamo

Quindi, passando al limite di , otteniamo

Infine, dato che la probabilità non può eccedere uno, possiamo finalmente scrivere

Il teorema è stato dimostrato.

Sopra, quando si formula il teorema di Chebyshev, abbiamo assunto che le variabili casuali abbiano aspettative matematiche diverse. In pratica, capita spesso che le variabili casuali abbiano la stessa aspettativa matematica. Ovviamente, se assumiamo ancora una volta che le dispersioni di queste quantità siano limitate, ad esse sarà applicabile il teorema di Chebyshev.

Indichiamo l'aspettativa matematica di ciascuna delle variabili casuali un; nel caso in esame è uguale anche la media aritmetica delle aspettative matematiche, come è facile vedere un. Possiamo formulare il teorema di Chebyshev per il caso particolare in esame.

Se X 1 , X 2 , ..., H p...-variabili casuali indipendenti a coppie che hanno la stessa aspettativa matematica a, e se le varianze di queste variabili sono uniformemente limitate, allora, non importa quanto piccolo sia il numero e> Ah probabilità di disuguaglianza

sarà arbitrariamente vicino all'unità se il numero di variabili casuali è sufficientemente grande.

In altre parole, nelle condizioni del teorema, l'uguaglianza

Essenza del teorema di Chebyshev

L'essenza del teorema dimostrato è la seguente: sebbene le singole variabili casuali indipendenti possano assumere valori lontani dalle loro aspettative matematiche, la media aritmetica di un numero sufficientemente grande di variabili casuali assume valori vicini a un certo numero costante, vale a dire, il numero ( M(X 1)+ M(X 2)+...+M(X pag))/P(o al numero un in un caso particolare). In altre parole, le singole variabili casuali possono avere una diffusione significativa e la loro media aritmetica è piccola.

Pertanto, non si può prevedere con sicurezza quale possibile valore assumerà ciascuna delle variabili casuali, ma si può prevedere quale valore assumerà la loro media aritmetica.

Così, media aritmetica di un numero sufficientemente grande di variabili casuali indipendenti(le cui varianze sono uniformemente limitate) perde il carattere di variabile casuale. Ciò è spiegato dal fatto che le deviazioni di ciascuna delle quantità dalle loro aspettative matematiche possono essere sia positive che negative, e nel mezzo aritmetico si annullano a vicenda.

Il teorema di Chebyshev è valido non solo per variabili casuali discrete, ma anche continue; è un vivido esempio che conferma la validità della dottrina del materialismo dialettico sulla connessione tra caso e necessità.

Di particolare importanza per caratterizzare la distribuzione di una variabile casuale sono caratteristiche numeriche dette momenti iniziali e centrali.

Momento di partenza K-esimo ordine un k(X) variabile casuale X K la potenza di questa quantità, cioè

un k(X) = M(Xk) (6.8)

La formula (6.8), in virtù della definizione di aspettativa matematica per varie variabili casuali, ha una sua forma, ovvero per una variabile casuale discreta con un insieme finito di valori

per una variabile casuale continua

, (6.10)

dove f(X) è la densità di distribuzione della variabile casuale X.

L'integrale improprio nella formula (6.10) si trasforma in un integrale definito su un intervallo finito se ci sono valori di una variabile casuale continua solo in questo intervallo.

Una delle caratteristiche numeriche introdotte in precedenza - l'aspettativa matematica - non è altro che il momento iniziale del primo ordine, o, come si suol dire, il primo momento iniziale:

M(X) = α 1 (X).

Nella precedente sottosezione è stata introdotta la nozione di variabile casuale centrata HM(X). Se questa quantità è considerata come quella principale, è possibile trovare anche i momenti iniziali per essa. Per il valore stesso X questi momenti saranno chiamati centrali.

Momento centrale K-esimo ordine µk(X) variabile casuale X si chiama aspettativa K la potenza di una variabile aleatoria centrata, cioè

µk(X) = M[(HM(X))K] (6.11)

In altre parole, il momento centrale K-esimo ordine è l'aspettativa matematica K esimo grado di deviazione.

momento centrale K-esimo ordine per una variabile casuale discreta con un insieme finito di valori si trova dalla formula:

, (6.12)

per una variabile casuale continua secondo la formula:

(6.13)

In futuro, quando sarà chiaro di che tipo di variabile aleatoria stiamo parlando, non la scriveremo nella notazione dei momenti iniziali e centrali, es. invece di un k(X) e µk(X) scriveremo semplicemente un k e µk .

Ovviamente il momento centrale del primo ordine è uguale a zero, poiché questa non è altro che l'aspettativa matematica della deviazione, che è uguale a zero secondo quanto precedentemente dimostrato, cioè .

È facile capire che il momento centrale del secondo ordine di una variabile casuale X coincide con la varianza della stessa variabile aleatoria, cioè

Inoltre, ci sono le seguenti formule relative ai momenti iniziali e centrali:

Quindi, i momenti del primo e del secondo ordine (aspettativa matematica e varianza) caratterizzano gli aspetti più importanti della distribuzione: la sua posizione e il grado di diffusione dei valori. I momenti di ordine superiore servono per una descrizione più dettagliata della distribuzione. Mostriamolo.

Assumiamo che la distribuzione di una variabile casuale sia simmetrica rispetto alla sua aspettativa matematica. Allora tutti i momenti centrali di ordine dispari, se esistono, sono uguali a zero. Ciò è spiegato dal fatto che, a causa della simmetria della distribuzione, per ogni valore positivo della quantità XM(X) c'è un valore negativo uguale ad esso in valore assoluto, mentre le probabilità di questi valori sono uguali. Di conseguenza, la somma nella formula (6.12) è costituita da più coppie di termini uguali in valore assoluto ma diversi nel segno, che si annullano a vicenda durante la somma. Pertanto, l'intero importo, ovvero il momento centrale di qualsiasi ordine dispari di una variabile casuale discreta è uguale a zero. Allo stesso modo, il momento centrale di qualsiasi ordine dispari di una variabile casuale continua è uguale a zero, come integrale nei limiti simmetrici di una funzione dispari.

È naturale supporre che se il momento centrale di un ordine dispari è diverso da zero, la distribuzione stessa non sarà simmetrica rispetto alla sua aspettativa matematica. In questo caso, più il momento centrale è diverso da zero, maggiore è l'asimmetria nella distribuzione. Prendiamo come caratteristica dell'asimmetria il momento centrale del più piccolo ordine dispari. Poiché il momento centrale del primo ordine è uguale a zero per variabili casuali aventi qualsiasi distribuzione, è meglio utilizzare a questo scopo il momento centrale del terzo ordine. Tuttavia, questo momento ha la dimensione di un cubo di una variabile casuale. Per eliminare questa mancanza e passare a una variabile casuale adimensionale, il valore del momento centrale viene diviso per il cubo della deviazione standard.

Coefficiente di asimmetria Come o semplicemente asimmetriaè il rapporto tra il momento centrale del terzo ordine e il cubo della deviazione standard, cioè

A volte l'asimmetria è chiamata "asimmetria" ed è indicata sk, che deriva dalla parola inglese skew - "obliquo".

Se il coefficiente di asimmetria è negativo, allora il suo valore è fortemente influenzato da termini negativi (deviazioni) e la distribuzione avrà asimmetria sinistra e il grafico (curva) della distribuzione è più piatto a sinistra dell'aspettativa matematica. Se il coefficiente è positivo, allora giusta asimmetria, e la curva è più piatta a destra dell'aspettativa matematica (Fig. 6.1).



Come è stato mostrato, il secondo momento centrale serve a caratterizzare la diffusione dei valori di una variabile casuale attorno alla sua aspettativa matematica, cioè dispersione. Se questo momento ha un valore numerico grande, allora questa variabile casuale ha un'ampia diffusione di valori e la curva di distribuzione corrispondente ha una forma più piatta rispetto alla curva per cui il secondo momento centrale ha un valore inferiore. Pertanto, il secondo momento centrale caratterizza, in una certa misura, la curva di distribuzione "a sommità piatta" o "appuntita". Tuttavia, questa funzione non è molto conveniente. Il momento centrale del secondo ordine ha una dimensione uguale al quadrato della dimensione della variabile casuale. Se proviamo a ottenere un valore adimensionale dividendo il valore del momento per il quadrato della deviazione standard, allora per ogni variabile casuale otteniamo: . Pertanto, questo coefficiente non può essere una caratteristica della distribuzione di una variabile casuale. È lo stesso per tutte le distribuzioni. In questo caso si può utilizzare un momento centrale del quarto ordine.

curtosi E k è chiamato il valore determinato dalla formula

(6.15)

La curtosi viene utilizzata principalmente per variabili aleatorie continue e serve a caratterizzare la cosiddetta "ripidezza" della curva di distribuzione, oppure, come già accennato, a caratterizzare la "cima piatta" o "puntatura" della curva di distribuzione. La curva di distribuzione normale è considerata come la curva di distribuzione di riferimento (sarà discussa in dettaglio nel prossimo capitolo). Per una variabile casuale distribuita secondo la legge normale, avviene l'uguaglianza. Pertanto, la curtosi data dalla formula (6.15) serve a confrontare questa distribuzione con quella normale, in cui la curtosi è uguale a zero.

Se si ottiene una curtosi positiva per qualche variabile casuale, la curva di distribuzione di questo valore ha un picco maggiore rispetto alla normale curva di distribuzione. Se la curtosi è negativa, la curva è più piatta della normale curva di distribuzione (Figura 6.2).



Passiamo ora a tipi specifici di leggi di distribuzione per variabili casuali discrete e continue.

3.4. Momenti di una variabile casuale.

Sopra, abbiamo conosciuto le caratteristiche esaustive del SW: funzione di distribuzione e serie di distribuzione - per SW discreto, funzione di distribuzione e densità di probabilità - per SW continuo. Queste caratteristiche, che sono equivalenti a coppie nel contenuto informativo, sono funzioni e descrivere completamente SW da un punto di vista probabilistico. Tuttavia, in molte situazioni pratiche è impossibile o non necessario caratterizzare una variabile casuale in modo esauriente. Spesso è sufficiente specificarne uno o più numerico parametri che in qualche modo descrivono le caratteristiche principali della distribuzione, e trovando talvolta caratteristiche esaustive, anche se desiderabili, è matematicamente troppo difficile, e operando con parametri numerici, ci limitiamo a una descrizione approssimativa, ma più semplice. Vengono richiamati i parametri numerici specificati caratteristiche numeriche variabile casuale e svolgono un ruolo importante nelle applicazioni della teoria della probabilità a vari campi della scienza e della tecnologia, facilitando la soluzione di problemi e consentendo di presentare i risultati della soluzione in una forma semplice e visiva.

Le caratteristiche numeriche più comunemente utilizzate possono essere suddivise in due tipi: momenti e caratteristiche di posizione. Esistono diversi tipi di momenti, di cui i due più comunemente usati sono: primario e centrale. Altri tipi di momenti, ad esempio, momenti assoluti, momenti fattoriali, non consideriamo. Per evitare l'uso di una generalizzazione dell'integrale - il cosiddetto integrale di Stieltjes, diamo definizioni dei momenti separatamente per SW continui e discreti.

Definizioni. 1. Momento di partenzaK-esimo ordine SW discreto si chiama quantità

dove f(X) è la densità di probabilità del dato SW.

3. Momento centraleK-esimo ordine SW discreto si chiama quantità

Nei casi in cui siano allo studio più TS contemporaneamente, è opportuno, al fine di evitare malintesi, indicare la titolarità del momento; lo faremo indicando tra parentesi la designazione dell'OdC corrispondente, ad esempio , ecc. Questa notazione non deve essere confusa con la notazione della funzione e la lettera tra parentesi con l'argomento della funzione. Le somme e gli integrali sul lato destro delle uguaglianze (3.4.1 - 3.4.4) possono convergere o divergere a seconda del valore K e distribuzione specifica. Nel primo caso lo dicono non esiste o diverge, nel secondo - quello momento esiste o converge. Se un SW discreto ha un numero finito di valori finiti ( N finito), quindi tutti i suoi momenti di ordine finito K esistere. All'infinito N, a partire da alcuni K e per ordini superiori, potrebbero non esistere momenti SW discreti (contemporaneamente iniziali e centrali). I momenti di SW continuo, come si evince dalle definizioni, sono espressi da integrali impropri, che possono divergere a partire da alcuni K e per ordini superiori (sia iniziali che centrali). I momenti di ordine zero convergono sempre.

Consideriamo più in dettaglio prima i momenti iniziali e poi i momenti centrali. Da un punto di vista matematico, il momento iniziale K l'ordine è la "media ponderata" K-esimo grado di valori SW; nel caso di un RV discreto, i pesi sono le probabilità dei valori, nel caso di un RV continuo, la funzione peso è la densità di probabilità. Operazioni di questo tipo sono ampiamente utilizzate in meccanica per descrivere la distribuzione delle masse (momenti statici, momenti di inerzia, ecc.); le analogie che sorgono a questo proposito sono discusse di seguito.

Per una migliore comprensione dei momenti iniziali, li consideriamo separatamente per dati K. Nella teoria della probabilità, i momenti degli ordini inferiori sono i più importanti, cioè per i piccoli K, quindi la considerazione deve essere eseguita in ordine crescente di valori K. Il momento iniziale di ordine zero è uguale a

1, per SW discreto;

=1 , per SW continuo,

quelli. per ogni SW è uguale allo stesso valore - uno, e quindi non porta alcuna informazione sulle proprietà statistiche del SW.

Il momento iniziale del primo ordine (o il primo momento iniziale) è uguale a

Per CB discreto;

, per SW continuo.

Questo momento è la caratteristica numerica più importante di qualsiasi SW, per diversi motivi interconnessi. Innanzitutto, secondo il teorema di Chebyshev (vedi Sezione 7.4), con un numero illimitato di prove su SW, la media aritmetica dei valori osservati tende (in un certo senso) a sperimentare. In secondo luogo, per un SW continuo, è numericamente uguale a X-esima coordinata del baricentro del trapezio curvilineo formato dalla curva f(X) (una proprietà simile vale anche per un SW discreto), quindi questo momento potrebbe essere chiamato il “centro di gravità della distribuzione”. In terzo luogo, questo momento ha notevoli proprietà matematiche che risulteranno chiare durante il corso, in particolare, quindi il suo valore è incluso nelle espressioni per i momenti centrali (vedi (3.4.3) e (3.4.4)).

L'importanza di questo momento per i problemi teorici e pratici della teoria della probabilità e le sue notevoli proprietà matematiche hanno portato al fatto che, oltre alla designazione e al nome "primo momento iniziale", nella letteratura vengono utilizzate altre designazioni e nomi che sono più o meno conveniente e riflettono le proprietà menzionate. I nomi più comuni sono: valore atteso, significare e notazione: m, M[X], . Molto spesso useremo il termine "aspettativa" e la notazione m; se ci sono più camper, useremo un pedice che indica la proprietà dell'aspettativa matematica, ad esempio, m X , m y eccetera.

Il momento iniziale del secondo ordine (o il secondo momento iniziale) è uguale a

Per CB discreto;

, per SW continuo;

a volte si chiama il quadrato medio di una variabile casuale e indicato M.

Il momento iniziale del terzo ordine (o il terzo momento iniziale) è uguale a

Per CB discreto;

, per SW continuo

a volte si chiama cubo medio di una variabile casuale e indicato M[X 3 ].

Non ha senso continuare ad elencare i momenti iniziali. Soffermiamoci su un'interpretazione importante dei momenti dell'ordine K>1. Sia, insieme a SW X c'è anche un SW Y, e Y=X K (K=2, 3, ...). Questa uguaglianza significa che le variabili casuali X e Y sono deterministicamente correlati nel senso che quando il SW X assume il valore X, SV Y assume il valore y=x K(Successivamente, tale collegamento CV sarà considerato in modo più dettagliato). Quindi, secondo (3.4.1) e (3.4.2)

=m y , K=2, 3, ...,

cioè. K-esimo momento iniziale del SW è uguale all'aspettativa matematica Kla potenza di questa variabile casuale. Ad esempio, il terzo momento iniziale della lunghezza del bordo di un cubo casuale è uguale al volume previsto del cubo. La possibilità di comprendere i momenti come una sorta di aspettativa matematica è un altro aspetto dell'importanza del concetto di aspettativa matematica.

Passiamo ai punti centrali. Poiché, come risulterà chiaro in seguito, i momenti centrali sono espressi in modo univoco in termini di momenti iniziali e viceversa, sorge la domanda perché i momenti centrali siano necessari e perché i momenti iniziali non siano sufficienti. Considera SW X(continua o discreta) e un altro RV Y relativo al primo as Y=X+a, dove un 0 è un numero reale non casuale. Ogni valore X variabile casuale X corrisponde al valore y=x+a variabile casuale Y, da cui la distribuzione di SW Y avrà la stessa forma (espressa dal poligono di distribuzione nel caso discreto o dalla densità di probabilità nel caso continuo) della distribuzione CV X, ma spostato lungo l'asse x di un. Pertanto, i momenti iniziali di SW Y differirà dai corrispondenti momenti di SW X. Ad esempio, come è facile vedere, m y = m X +a(i momenti di ordine superiore sono legati da relazioni più complesse). Quindi lo abbiamo stabilito i momenti iniziali non sono invarianti sotto lo spostamento della distribuzione nel suo insieme. Lo stesso risultato si otterrà se spostiamo non la distribuzione, ma l'inizio dell'asse x orizzontalmente del valore - un, cioè. vale anche la conclusione equivalente: i momenti iniziali non sono invarianti rispetto allo spostamento orizzontale dell'origine dell'asse x.

Questa mancanza è esente dai momenti centrali intesi a descrivere quelle proprietà delle distribuzioni che non dipendono dal loro spostamento nel suo insieme. Infatti, come si può vedere da (3.4.3) e (3.4.4), quando la distribuzione è complessivamente spostata del valore un, o, che è lo stesso, spostando l'inizio dell'asse delle ascisse di - un, tutti i valori X, per le stesse probabilità (nel caso discreto) o la stessa densità di probabilità (nel caso continuo), cambierà di un, ma cambierà anche il valore m, in modo che i valori delle parentesi sul lato destro delle uguaglianze non cambino. In questo modo, i momenti centrali sono invarianti rispetto allo spostamento della distribuzione nel suo insieme, o, ciò che è lo stesso, rispetto allo spostamento dell'inizio dell'asse delle ascisse lungo l'orizzontale. Questi momenti ricevettero il nome di "centrale" in quei tempi in cui il primo momento iniziale era chiamato "centro". È utile notare che il momento centrale di SW X può essere inteso come il corrispondente momento iniziale di SW X 0 uguale a

X 0 =X-m X .

SW X 0 viene chiamato centrato(in relazione a SV X), e viene chiamata l'operazione che porta ad essa, cioè sottraendo la sua aspettativa matematica da una variabile casuale centraggio. Come vedremo più avanti, questo concetto e questa operazione saranno utili durante tutto il corso. Si noti che il momento centrale dell'ordine K>1 può essere considerata come l'aspettativa matematica (media) K esimo grado di CB centrato: .

Consideriamo separatamente i momenti centrali degli ordini inferiori. Il momento centrale di ordine zero è uguale a

, per SW discreto;

, per SW continuo;

vale a dire, per qualsiasi SW e non contiene alcuna informazione sulle proprietà statistiche di questo SW.

Il momento centrale del primo ordine (o primo momento centrale) è

per SW discreto;

per SW continuo; vale a dire, per qualsiasi SW e non contiene alcuna informazione sulle proprietà statistiche di questo SW.

Il momento centrale del secondo ordine (o secondo momento centrale) è

, per SW discreto;

, per SW continuo.

Come risulta di seguito, questo punto è uno dei più importanti nella teoria della probabilità, poiché è usato come caratteristica della misura dello spread (o scattering) dei valori SW, quindi è spesso chiamato dispersione e indicato D X. Si noti che può essere inteso come il quadrato medio del SW centrato.

Il momento centrale del terzo ordine (terzo momento centrale) è uguale a

Si chiamano i momenti centrali della distribuzione, nel cui calcolo si assume come valore iniziale lo scostamento delle varianti dalla media aritmetica della serie data.

1. Calcola il momento centrale del primo ordine secondo la formula:

2. Calcola il momento centrale del secondo ordine secondo la formula:

dove è il valore della metà degli intervalli;

Questa è una media ponderata;

Fi è il numero di valori.

3. Calcola il momento centrale del terzo ordine secondo la formula:

dove è il valore della metà degli intervalli; è la media ponderata; - fi-numero di valori.

4. Calcola il momento centrale del quarto ordine secondo la formula:

dove è il valore della metà degli intervalli; è la media ponderata; - fi-numero di valori.

Calcolo per la tabella 3.2

Calcolo per la tabella 3.4

1. Calcolare il momento centrale del primo ordine secondo la formula (7.1):

2. Calcolare il momento centrale del secondo ordine secondo la formula (7.2):

3. Calcolare il momento centrale del terzo ordine secondo la formula (7.3):

4. Calcolare il momento centrale del quarto ordine secondo la formula (7.4):

Calcolo per la tabella 3.6

1. Calcolare il momento centrale del primo ordine secondo la formula (7.1):

2. Calcolare il momento centrale del secondo ordine secondo la formula (7.2):

3. Calcolare il momento centrale del terzo ordine secondo la formula (7.3):

4. Calcolare il momento centrale del quarto ordine secondo la formula (7.4):






Vengono calcolati momenti di 1,2,3,4 ordini per tre compiti. Dove è necessario il momento del terzo ordine per calcolare l'asimmetria e il momento del quarto ordine per calcolare la curtosi.

CALCOLO DELL'ASIMMETRIA DI DISTRIBUZIONE

Nella pratica statistica, ci sono varie distribuzioni. Esistono i seguenti tipi di curve di distribuzione:

curve unimodali: simmetriche, moderatamente asimmetriche ed estremamente asimmetriche;

curve multivertice.

Le popolazioni omogenee, di regola, sono caratterizzate da distribuzioni unimodali. Multi-vertice indica l'eterogeneità della popolazione studiata. La comparsa di due o più vertici rende necessario raggruppare i dati per isolare gruppi più omogenei.

La scoperta della natura generale della distribuzione implica una valutazione della sua omogeneità, nonché il calcolo degli indicatori di asimmetria e curtosi. Per le distribuzioni simmetriche, le frequenze di due varianti qualsiasi che sono equidistanti su entrambi i lati del centro di distribuzione sono uguali tra loro. Anche la media, la moda e la mediana calcolate per tali distribuzioni sono uguali.

In uno studio comparativo dell'asimmetria di più distribuzioni con diverse unità di misura, viene calcolato il relativo indicatore di asimmetria ():

dove è la media ponderata; Mo-moda; - varianza ponderata radice-media-quadrata; Me-mediana.

Il suo valore può essere positivo o negativo. Nel primo caso si parla di asimmetria di destra e nel secondo di sinistra.

Con asimmetria destra Mo>Me>x. Il più utilizzato (come indicatore di asimmetria) è il rapporto tra il momento centrale del terzo ordine e la deviazione standard di questa serie nel cubo:

dov'è il momento centrale del terzo ordine; è la deviazione standard al cubo.

L'uso di questo indicatore consente di determinare non solo l'entità dell'asimmetria, ma anche di verificarne la presenza nella popolazione generale. È generalmente accettato che l'asimmetria superiore a 0,5 (indipendentemente dal segno) sia considerata significativa; se è inferiore a 0,25, allora è insignificante.

La valutazione della significatività si basa sull'errore quadratico medio, il coefficiente di asimmetria (), che dipende dal numero di osservazioni (n) ed è calcolato con la formula:

dove n è il numero di osservazioni.

Nel caso, l'asimmetria è significativa e la distribuzione del tratto nella popolazione generale è asimmetrica. In caso contrario, l'asimmetria è insignificante e la sua presenza può essere causata da circostanze casuali.

Calcolo per la tabella 3.2 Raggruppamento della popolazione per stipendio medio mensile, rub.

Asimmetria significativa sul lato sinistro.

Calcolo per la tabella 3.4 Raggruppamento di negozi per fatturato al dettaglio, milioni di rubli

1. Definire le asimmetrie con la formula (7.5):

Asimmetria destra significativa.

Calcolo per la tabella 3.6 Raggruppamento delle organizzazioni di trasporto per fatturato del trasporto pubblico (mln.t.km)

1. Definire le asimmetrie con la formula (7.5):

Destra, leggera asimmetria.

CALCOLO DELLA DISTRIBUZIONE DI KURTUS

Per le distribuzioni simmetriche, l'indicatore di curtosi () può essere calcolato:

dov'è il momento centrale del quarto ordine; - deviazione standard di quarto grado.

Calcolo per la tabella 3.2 Raggruppamento della popolazione per stipendio medio mensile, rub.

Calcolo per la tabella 3.4 Raggruppamento di negozi per fatturato al dettaglio, milioni di rubli

Calcola l'indicatore di curtosi usando la formula (7.7)

Distribuzione con picco.

Calcolo per la tabella 3.6 Raggruppamento delle organizzazioni di trasporto per fatturato del trasporto pubblico (mln.t.km)

Calcola l'indicatore di curtosi usando la formula (7.7)

Distribuzione flat top.

VALUTAZIONE DELL'OMOGENEITÀ DELLA POPOLAZIONE

Punteggio di uniformità per la tabella 3.2 Raggruppamento della popolazione per stipendio medio mensile, rub.

Va notato che sebbene gli indicatori di asimmetria e curtosi caratterizzino direttamente solo la forma di distribuzione di un tratto all'interno della popolazione studiata, la loro definizione non è solo descrittiva. Spesso l'asimmetria e la curtosi forniscono indicazioni certe per ulteriori ricerche sui fenomeni socio-economici. Il risultato ottenuto indica la presenza di un'asimmetria di natura significativa e negativa, va notato che l'asimmetria è mancina. Inoltre, la popolazione ha una distribuzione flat-top.

Punteggio di uniformità per la tabella 3.4 Raggruppamento di negozi per fatturato al dettaglio, milioni di rubli

Il risultato ottenuto indica la presenza di un'asimmetria di natura significativa e positiva, va notato che l'asimmetria è destrorsa. E anche il set ha una distribuzione a vertice acuto.

Punteggio di uniformità per la tabella 3.6 Raggruppamento delle organizzazioni di trasporto per fatturato del trasporto pubblico (mln.t.km)

Il risultato ottenuto indica la presenza di un'asimmetria di natura piccola e positiva, va notato che l'asimmetria è destrorsa. Inoltre, la popolazione ha una distribuzione a sommità piatta.