20.09.2019

Trova la funzione di correlazione di un esempio di processo casuale. Funzione di correlazione di un processo stazionario


SEGNALI e LINEARE SISTEMI

Segnali e sistemi lineari. Processi casuali e segnali

Argomento 9. PROCESSI E SEGNALI RANDOM

Non c'è niente di più contrario alla ragione e alla costanza della natura del caso. Dio stesso non può sapere cosa accadrà per caso. Perché se lo sa, allora accadrà sicuramente, e se accadrà definitivamente, allora non è casuale.

Marco Tullio Cicerone. Filosofo e politico romano, I secolo d.C

La casualità è contraria alla ragione, ma non alla natura. Per testare la teoria dei processi casuali, gli dei hanno creato il mondo. Hanno già smesso di lanciare mele, non si è osservato nulla di nuovo qui dai tempi di Newton. Ma le bucce di anguria continuano a scivolare: viene registrata una reazione imprevedibile e spesso molto interessante.

Rudolf Gavshin. Geofisico degli Urali, XX secolo.

Introduzione.

1. Processi e funzioni casuali. processo casuale. Caratteristiche funzionali di un processo casuale. Funzione di distribuzione di probabilità unidimensionale. Densità di probabilità unidimensionale. Funzioni di aspettativa matematica, varianza, deviazione standard. Densità di distribuzione di probabilità bidimensionale. Funzioni di correlazione e covarianza di processi casuali. Proprietà delle funzioni di autocovarianza e autocorrelazione. Momenti reciproci di processi casuali. Indipendenza statistica dei processi casuali. Classificazione dei processi casuali. Processi ergonomici.

2. Funzioni di densità spettrale. Espansione canonica di funzioni casuali. Funzioni casuali complesse. Trasformata di Fourier finita. Spettri di potenza di funzioni casuali. Teorema di Wiener-Khinchin. Spettro delle funzioni di covarianza. Funzioni spettrali reciproche. Larghezza effettiva dello spettro di potenza. Relazione di incertezza.

3. Trasformazioni di funzioni casuali. Sistemi di trasformazione di funzioni casuali. Collegamento delle funzioni statistiche di uscita con quelle di ingresso. Aspettativa matematica del segnale di uscita. Funzione di correlazione del segnale di uscita. Funzione di cross-correlazione dei segnali di ingresso e di uscita. Rapporti spettrali. Dispersione del segnale in uscita. funzione di coerenza. Trasformazioni di funzioni casuali. Trasformazioni di funzioni casuali stazionarie.

4. Modelli di segnali casuali e rumore. segnale telegrafico. Rumore bianco. Rumore gaussiano. Processi casuali gaussiani.

Introduzione.

Insieme a utili componenti di informazione, i segnali reali contengono interferenze e rumore. L'interferenza di solito include segnali provenienti da altre fonti estranee, apparecchiature di "picking", l'influenza di fattori destabilizzanti sul segnale principale, ecc. La natura fisica dell'interferenza, di regola, non è casuale e, dopo un appropriato studio, può essere trasferita nella categoria dell'interferenza deterministica o esclusa dal segnale. Il rumore si riferisce a fluttuazioni casuali del segnale dovute alla natura della sua sorgente o ai dispositivi di rilevamento e condizionamento del segnale. Se la natura dell'interferenza è sconosciuta, può anche essere classificata come casuale se ha una distribuzione di probabilità casuale con media zero e una funzione di autocorrelazione simile a un delta.

La teoria della probabilità considera le variabili casuali e le loro caratteristiche in "statica". I compiti di descrivere e studiare i segnali casuali "in dinamica", come visualizzazione di fenomeni casuali che si sviluppano nel tempo o in qualsiasi altra variabile, sono risolti dalla teoria dei processi casuali.

Come coordinata universale per la distribuzione di variabili casuali sulla variabile indipendente, utilizzeremo, di regola, la variabile "t" interpretandola, per pura comodità, come coordinata temporale. Le distribuzioni di variabili casuali nel tempo, così come i segnali che le mostrano in qualsiasi forma matematica, sono generalmente chiamate processi casuali (o stocastici). Nella letteratura tecnica, i termini "segnale casuale" e "processo casuale" sono usati in modo intercambiabile.

A differenza dei segnali deterministici, i valori dei segnali casuali in momenti arbitrari non possono essere calcolati. Possono essere previsti solo in un determinato intervallo di valori con una certa probabilità inferiore a uno. Vengono chiamate le caratteristiche quantitative dei segnali casuali che ne consentono la valutazione e il confronto statistico .

Nel processo di elaborazione e analisi di dati fisici e tecnici, di solito si ha a che fare con tre tipi di segnali descritti da metodi statistici. In primo luogo, si tratta di segnali informativi che riflettono processi fisici di natura probabilistica, come ad esempio la registrazione di particelle di radiazioni ionizzanti durante il decadimento dei radionuclidi. In secondo luogo, segnali di informazione dipendenti da determinati parametri di processi fisici o oggetti, i cui valori non sono noti in anticipo e che di solito devono essere determinati da questi segnali di informazione. E, in terzo luogo, si tratta di rumore e interferenza, che cambiano caoticamente nel tempo, che accompagnano i segnali di informazione, ma, di regola, sono statisticamente indipendenti da essi sia in termini di valori che di variazioni nel tempo. Durante l'elaborazione di tali segnali, vengono generalmente impostate le seguenti attività:

utile rilevamento del segnale,

valutazione dei parametri del segnale,

selezione della parte informativa del segnale (pulizia del segnale da disturbi e interferenze),

· prevedere il comportamento del segnale ad intervalli successivi (estrapolazione).

9.1. Processi e funzioni casuali.

Un processo casuale è descritto da caratteristiche statistiche chiamate momenti. Le caratteristiche più importanti di un processo casuale sono la sua stazionarietà, ergodicità e spettro di potenza.

processo casuale nella sua descrizione matematica, X(t) è una funzione che differisce in quanto i suoi valori (reali o complessi) in tempi arbitrari lungo la coordinata t sono casuali. Strettamente da un punto di vista teorico, un processo casuale X(t) dovrebbe essere considerato come un insieme di funzioni temporali xk(t) che hanno un certo schema statistico generale. Quando si registra un processo casuale ad un certo intervallo di tempo, una singola realizzazione x k (t) è fissata da un numero infinito di possibili realizzazioni del processo X(t). Questa singola implementazione è chiamata funzione di campionamento processo casuale X(t). Una funzione di campionamento separata non caratterizza il processo nel suo insieme, ma in determinate condizioni può essere utilizzata per valutare le caratteristiche statistiche del processo. Esempi di funzioni campionarie del processo casuale modello X(t) sono mostrati in fig. 9.1.1. In futuro, quando considereremo vari parametri e caratteristiche dei processi casuali per gli esempi di accompagnamento, utilizzeremo questo modello di processo.

Riso. 9.1.1. Funzioni selettive di un processo casuale.

Caratteristiche funzionali di un processo casuale.

Da un punto di vista pratico, la funzione campione è il risultato di un esperimento separato, dopo il quale questa implementazione x k (t) può essere considerata una funzione deterministica. Lo stesso processo casuale nel suo insieme dovrebbe essere analizzato dal punto di vista di un insieme infinito di tali realizzazioni che si formano insieme statistico. La caratteristica statistica completa del processo è la densità di probabilità N-dimensionale p(x n ; t n). Tuttavia, sia la determinazione sperimentale delle densità di probabilità del processo N-dimensionale che il loro utilizzo nell'analisi matematica presentano notevoli difficoltà matematiche. Pertanto, in pratica, le densità di probabilità dei processi uni e bidimensionali sono generalmente limitate.

Assumiamo che un processo casuale X(t) sia dato da un insieme di realizzazioni (x 1 (t), x 2 (t),… x k (t),…). In un momento arbitrario t 1, fissiamo i valori di tutte le realizzazioni (x 1 (t 1), x 2 (t 1),… x k (t 1),…). L'insieme di questi valori è una variabile casuale X(t 1) ed è una sezione unidimensionale del processo casuale X(t). In fig. 9.1.2.

Funzione di distribuzione di probabilità unidimensionale F(x, t i) determina la probabilità che al tempo t i il valore della variabile casuale X(t i) non superi il valore x:

F(x, t i) = P(X(t i)≤x).

Ovviamente, nell'intervallo di probabilità da 0 a 1, la funzione F(x, t) è non decrescente con valori limite F(-¥,t)=0 e F(¥,t)=1. Con una funzione nota F(x,t), la probabilità che il valore di X(t i) nei campioni rientri in un certo intervallo di valori è determinata dall'espressione:

Papà

Densità di probabilità unidimensionale p(x, t) del processo casuale X(t) determina la probabilità che la variabile casuale x(t) si trovi nell'intervallo (x ≤ x(t) ≤ x+dx). Caratterizza la distribuzione di probabilità dell'implementazione di una variabile casuale X(t i) in un tempo arbitrario t i ed è una derivata della funzione di distribuzione di probabilità:

p(x, t i) = dF(x, t i)/dx. (9.1.1)

I punti temporali t i sono sezioni del processo casuale X(t) nello spazio dei possibili stati e la densità di probabilità p(x, t i) è la densità di probabilità delle variabili casuali X(t i) di queste sezioni. Il prodotto p(x, t i)dx è uguale alla probabilità di realizzazione della variabile aleatoria X(t i) in un intervallo infinitamente piccolo dx in prossimità di x, il che implica che anche la densità di probabilità è un valore non negativo.

Riso. 9.1.3. Distribuzione di probabilità e densità di probabilità della sezione d'urto di un processo casuale

Sulla fig. 9.1.3 mostra esempi di distribuzione di probabilità e densità di probabilità della sezione d'urto di un processo casuale X(t) nel punto t 1 (Fig. 9.1.1). Le funzioni di probabilità sono determinate da N=1000 campioni di un modello discreto di un processo casuale e confrontate con le distribuzioni teoriche per N ® ¥.

Con una funzione di densità di probabilità nota, la probabilità di realizzare il valore X(t i) in un intervallo arbitrario di valori viene calcolata dalla formula:

Papà

La funzione di densità di probabilità deve essere normalizzata a 1, perché una variabile casuale deve assumere qualsiasi valore tra i possibili valori che formano lo spazio completo delle variabili casuali:

p(x, t i) dx =1.

La densità di distribuzione di probabilità, rispettivamente, determina la funzione di distribuzione di probabilità:

F(x,t i) =p(x, t i) dx.

Dalla densità nota della distribuzione di probabilità si possono calcolare le funzioni dei momenti di un processo casuale, che sono le aspettative matematiche dei gradi corrispondenti (ordine) dei valori del processo casuale (momenti iniziali) e i valori delle componenti di fluttuazione del processo (momenti centrali, momenti relativi ai centri di distribuzione delle variabili casuali):

M(x n (t)) = x n (t) p(x, t) dx,

M 0 (x n (t)) = M( n ) =[(x(t)- M(x(t))] n p(x, t) dx,

Le funzioni momento sono le principali caratteristiche statistiche di un processo casuale. Sono funzioni non casuali, ma definiscono in modo completo e inequivocabile un processo casuale, così come la densità di distribuzione di probabilità, per un certo numero di ordini, a seconda della natura del processo. Il numero minimo di ordini che definisce completamente una distribuzione di densità di probabilità gaussiana è 2.

Nella pratica di analisi dei processi casuali, vengono utilizzati principalmente i momenti iniziali del primo ordine e i momenti centrali del secondo ordine.

Valore atteso (valore medio) è il primo momento iniziale del processo casuale e rappresenta media statistica variabile casuale X(t i) in una sezione fissa t i del processo casuale. Di conseguenza, la funzione di aspettativa completa è una stima teorica del valore medio ponderato di un processo casuale lungo l'asse del tempo:

m x (t) º M(X(t))º =x p(x; t) dx, (9.1.2)

L'aspettativa matematica m x (t) è componente non casuale processo casuale X(t). Sulla fig. 9.1.1. e 9.1.2 le componenti non casuali m(t) del modello del processo casuale X(t) sono evidenziate con una linea tratteggiata e corrispondono ai campioni N ® ¥.

Secondo momento iniziale processo casuale determina la sua potenza media:

w x (t) º M(X 2 (t))º =x 2 p(x; t) dx, (9.1.3)

Funzione dispersione (varianza, funzione di una dispersione) di un processo casuale. Quando si analizzano processi casuali, la componente di fluttuazione del processo, che è determinata dalla differenza X(t)-m x (t), è di particolare interesse. La funzione di dispersione è una stima teorica della media pesata della differenza X(t)-m x (t) 2 , cioè è il secondo momento centrale del processo, e determina la potenza della sua componente di fluttuazione:

D x (t) \u003d M ([X (t) - m x (t)] 2 ) \u003d M (X 2 (t)) - m x 2 (t) \u003d 2 p (x; t) dx, ( 9.1.4)

dove x o (t) = x(t)-m x (t).

Funzione di deviazione standard (deviazione standard) serve come misura di ampiezza della diffusione dei valori di un processo casuale lungo l'asse del tempo rispetto all'aspettativa matematica del processo:

s x (t) =. (9.1.5)

Data l'ultima espressione, la varianza di una variabile casuale è solitamente indicata dall'indice s 2 .

Sulla fig. 9.1.4 mostra un esempio della componente di fluttuazione del processo X(t) (Fig. 9.1.1) in una delle implementazioni rispetto alla deviazione standard ±s di variabili casuali dall'aspettativa matematica m(t).

Le leggi unidimensionali della densità di distribuzione di probabilità dei processi casuali non presentano alcuna caratteristica della connessione tra i valori delle variabili casuali per diversi valori degli argomenti.

Densità di probabilità bivariata p(x 1, t 1; x 2, t 2) determina la probabilità di realizzazione congiunta dei valori delle variabili casuali X(t 1) e X(t 2) a tempi arbitrari t 1 e t 2, che caratterizza la relazione del processo casuale in tempi diversi e consente di determinare la natura del cambiamento nel processo casuale, ad es. la dinamica dello sviluppo del processo nel tempo. La distribuzione descrive una variabile aleatoria bidimensionale (X(t i), X(t j)) in funzione della probabilità di realizzazione di una variabile aleatoria X(t i) in un intervallo infinitamente piccolo dx i in prossimità di x i al tempo t i, a condizione che all'istante t j il valore X (t j) si realizzi in un intervallo infinitamente piccolo dx j in prossimità di x j:

p(x 1 ,t 1 ; x 2 ,t 2) = P(x 1 ≤ x(t 1) ≤ x 1 +dx 1 × x 2 ≤ x(t 2) ≤ x 2 +dx 2 ).

Con l'aiuto di una densità di distribuzione di probabilità bidimensionale, è possibile determinare le funzioni di correlazione del processo.

Funzioni di correlazione di processi casuali. La caratteristica della dinamica del cambiamento nella variabile casuale X(t i) è la funzione di correlazione, che descrive il processo casuale nel suo insieme:

R X (t io , t j) = M(X(t 1) X(t 2)).

La funzione di correlazione è un prodotto statisticamente medio dei valori del processo casuale X(t) ai tempi t i e t j su tutti i valori degli assi temporali t i e t j , e, quindi, è anche una funzione bidimensionale . In termini di teoria della probabilità, la funzione di correlazione è il secondo momento iniziale di un processo casuale.

Sulla fig. 9.1.5 Vengono forniti esempi di implementazione di due processi casuali, caratterizzati dalla stessa funzione di aspettativa e dispersione matematica.

Riso. 9.1.5.

La figura mostra che, sebbene lo spazio degli stati di entrambi i processi sia praticamente lo stesso, la dinamica dello sviluppo dei processi nelle implementazioni differisce in modo significativo. Le realizzazioni singole di processi correlati in un momento arbitrario possono essere casuali come quelle di processi non correlati e, al limite, in tutte le sezioni, entrambi i processi possono avere la stessa legge di distribuzione delle variabili casuali. Tuttavia, la dinamica di sviluppo lungo la coordinata t (o qualsiasi altra variabile indipendente) di una singola implementazione di un processo correlato è più fluida rispetto a una non correlata, e, quindi, in un processo correlato esiste una certa relazione tra valori successivi ​di variabili casuali. Stima del grado di dipendenza statistica dei valori istantanei di qualsiasi processo X(t) in tempi arbitrari t 1 e t 2 ed è prodotto dalla funzione di correlazione. Sull'intero spazio dei valori del processo casuale X(t), la funzione di correlazione è determinata dall'espressione:

R X (t io , t j) =x(t i)x(t j) p(x io ,t j ; x io ,t j) dx i dx j , (9.1.6)

Nell'analisi dei processi casuali, il secondo momento t j è convenientemente impostato dal valore dello spostamento t relativo al primo momento, che in questo caso può essere specificato come variabile coordinata:

R X (t, t+t) = M(X(t)X(t+t)). (9.1.7)

La funzione data da questa espressione è solitamente chiamata funzione di autocorrelazione del processo casuale.

funzioni di covarianza. Un caso speciale della funzione di correlazione è la funzione di autocovarianza (ACV), ampiamente utilizzata nell'analisi del segnale. È un prodotto statisticamente medio dei valori della funzione casuale centrata X(t)-m x (t) ai tempi t i e t j e caratterizza la componente di fluttuazione del processo:

K Х (t io , t j) =(x(t i)-m x (t i)) (x(t j)-m x (t j)) p(x io ,t j ; x io ,t j) dx i dx j , (9.1.8)

In termini di teoria della probabilità, la funzione di covarianza è il secondo momento centrale di un processo casuale. Per i processi casuali centrati, FAC è identica alla funzione di autocorrelazione. Per valori arbitrari di m x, le funzioni di covarianza e correlazione sono correlate dalla relazione:

K X (t, t + t) = R X (t, t + t) - m x 2 (t).

Funzione di autocovarianza normalizzata (funzione dei coefficienti di correlazione):

r X (t, t + t) = K X (t, t + t) /. (9.1.9)

La funzione dei coefficienti di correlazione può assumere valori da +1 (correlazione statistica completa di processi casuali sugli intervalli t e t + t) a -1 (completo opposto statistico dei processi su questi intervalli). Di passaggio, notiamo che nella statistica matematica, così come abbastanza spesso nella letteratura tecnica, questa funzione è chiamata funzione di correlazione. A t = 0, il valore di r X è uguale a 1 e il FAC degenera nella varianza di un processo casuale:

KX(t) = DX(t).

Ne consegue che per processi e funzioni casuali, le caratteristiche principali sono le funzioni di aspettativa e correlazione matematica (covarianza). Non è necessaria una funzione di dispersione separata.

Riso. 9.1.7. Realizzazioni e funzioni di covarianza di processi casuali.

Esempi di implementazioni di due diversi processi casuali e delle loro funzioni di covarianza normalizzate sono mostrati in fig. 9.1.7.

Proprietà delle funzioni di autocovarianza e autocorrelazione.

1. Il massimo delle funzioni si osserva a t = 0. Questo è ovvio, perché a t = 0 si calcola il grado di connessione dei campioni con se stessi, che non può essere inferiore alla connessione di diversi campioni. Il valore del massimo della funzione di correlazione è uguale alla potenza media del segnale.

2. Le funzioni di autocorrelazione e autocovarianza sono pari: R X (t) = R X (-t). Anche quest'ultimo è ovvio: X(t)X(t+t) = X(t-t)X(t) for t = t-t. In altre parole, i momenti di due variabili casuali X(t 1) e X(t 2) non dipendono dalla sequenza in cui queste variabili vengono considerate e, di conseguenza, sono simmetriche rispetto ai loro argomenti: R x (t 1 , t 2) = R x (t 2, t1).

3. A t Þ ¥, i valori FAC per segnali a energia finita tendono a zero, che segue direttamente dal significato fisico del FAC. Ciò consente di limitare la lunghezza del FAC a un certo valore massimo t max - il raggio di correlazione, oltre il quale le letture possono essere considerate indipendenti. Di solito viene considerata la caratteristica integrale del tempo di correlazione delle variabili casuali intervallo di correlazione effettivo, determinato dalla formula:

T k =|r x (t)| dt º (1/K x (0)) |K x (t)| dt. (9.1.10)

I conteggi (sezioni trasversali) di funzioni casuali che sono separate l'una dall'altra da una distanza maggiore di T k sono considerati non correlati nei calcoli ingegneristici.

4. Se una funzione non casuale f(t) viene aggiunta alla funzione casuale X(t), la funzione di covarianza non cambia. Denota la nuova funzione casuale come Y(t)=X(t)+f(t). La funzione di aspettativa del nuovo valore: = + f(t). Ne consegue che Y(t) -= X(t) -, e di conseguenza K y (t 1 ,t 2) = K x (t 1 ,t 2).

5. Se una funzione casuale X(t) viene moltiplicata per una funzione non casuale f(t), la sua funzione di correlazione R x (t 1 ,t 2) viene moltiplicata per f(t ​​1)×f(t 2). La giustificazione di tale proprietà viene effettuata secondo il metodo analogo al paragrafo precedente.

6. Quando si moltiplica la funzione di un processo casuale per un valore costante C, i valori FAC aumentano di C 2 volte.

Momenti reciproci di processi casuali il secondo ordine consente di valutare le proprietà congiunte di due processi casuali X(t) e Y(t) analizzando una coppia arbitraria di funzioni campionarie x k (t) e y k (t).

La misura della connessione tra due processi casuali X(t) e Y(t) è stabilita anche da funzioni di correlazione, vale a dire, funzioni di correlazione incrociata e di covarianza incrociata. In generale, per tempi fissi arbitrari t 1 = t e t 2 = t + t:

R XY (t, t+t) = M(X(t)Y(t+t)). (9.1.11)

K XY (t, t+t) = M((X(t)-m x (t))(Y(t+t)-m y (t+t))). (9.1.12)

Le funzioni reciproche sono funzioni arbitrarie, non hanno le proprietà pari o dispari e soddisfano le seguenti relazioni:

R xy (-t) = R yx (t), (9.1.13)

|Rxy(t)| 2 £ R x (0) R y (0).

Se uno dei processi è centrato, allora ha luogo R xy (t) = K xy (t).

La funzione di covarianza reciproca normalizzata (coefficiente di correlazione di due processi) caratterizza il grado di dipendenza lineare tra processi casuali per un dato spostamento t di un processo rispetto al secondo ed è determinata dall'espressione:

r xy (t) = K xy (t)/(s x s y). (9.1.14)

Indipendenza statistica dei processi casuali determina l'assenza di una connessione tra i valori di due variabili casuali X e Y. Ciò significa che la densità di probabilità di una variabile casuale non dipende da quali valori assume la seconda variabile casuale. La densità di probabilità bidimensionale in questo caso dovrebbe essere il prodotto delle densità di probabilità unidimensionali di queste due quantità:

p(x,y) = p(x) p(y).

Questa condizione è una condizione necessaria per l'indipendenza statistica delle variabili casuali. Altrimenti, potrebbe esserci una certa relazione statistica tra variabili casuali, sia lineari che non lineari. La misura di una relazione statistica lineare è il coefficiente di correlazione:

rxy = /.

I valori di r xy possono variare da -1 a +1. In un caso particolare, se le variabili casuali sono legate da una relazione lineare x=ay+b, il coefficiente di correlazione è ±1, a seconda del segno della costante un. Le variabili casuali non sono correlate a r xy = 0, mentre l'espressione per r xy implica:

M(X Y) = M(X) M(Y).

Dall'indipendenza statistica dei valori deriva la loro non correlazione. Il contrario non è ovvio. Quindi, ad esempio, le variabili casuali x=cos j e y=sin j, dove j è una variabile casuale con distribuzione uniforme nell'intervallo 0…2p, hanno un coefficiente di correlazione zero, e allo stesso tempo la loro dipendenza è ovvia.

Classificazione dei processi casuali. I processi casuali si distinguono per il grado di omogeneità del loro corso nel tempo (per argomento). Oltre ai momenti del primo e del secondo ordine, i processi casuali hanno momenti di ordine superiore. All'aumentare dell'ordine dei momenti, la struttura probabilistica dei processi casuali e le loro realizzazioni campionarie viene descritta in modo sempre più dettagliato. Tuttavia, la valutazione pratica di questi momenti da parte dei campioni è limitata, principalmente, solo da processi casuali stazionari.

processi stazionari. Il processo è detto stazionario (più precisamente, debolmente stazionario) se la densità di probabilità del processo non dipende dall'origine del tempo e se le condizioni di costanza dell'aspettativa matematica e della varianza sono soddisfatte dall'intervallo della sua esistenza, e il la funzione di correlazione è una funzione della sola differenza degli argomenti t = t 2 -t 1 , ovvero:

m X (t 1) \u003d m X (t 2) \u003d m X \u003d cost, (9.1.15)

D X (t 1) \u003d D X (t 2) \u003d D X \u003d cost,

R X (t 1, t 1 + t) º R X (t 2 -t, t 2) = R X (t) º R X (-t),

r x (t) = R x (t)/D x , r x (0) = 1, |r x (t)| ≤ 1, r x (-t) = r x (t).

Le ultime espressioni testimoniano la parità della funzione di correlazione (oltre che della covarianza) e la funzione dei coefficienti di correlazione. Implica anche un'altra proprietà dei momenti misti dei processi stazionari:

|Rx(t)| £ R x (0), |K x (t)| £ K x (0) º D x .

Più lentamente diminuiscono i valori di t, le funzioni R x (t) e r x (t) diminuiscono, maggiore è l'intervallo di correlazione del processo casuale e più lentamente cambiano nel tempo della sua implementazione.

Se i momenti di ordine superiore (in particolare l'asimmetria e la curtosi) non dipendono dal tempo, allora tale processo è considerato rigorosamente stazionario. Nel caso generale, la classe dei processi strettamente stazionari appartiene alla classe dei processi debolmente stazionari. E solo nel caso dei processi casuali gaussiani, una stazionarietà debole comporta automaticamente una stazionarietà rigorosa, poiché tutte le caratteristiche di questi processi sono determinate dal valore medio e dalla funzione di correlazione.

I processi casuali stazionari si incontrano più spesso nella risoluzione di problemi fisici e tecnici. La teoria delle funzioni casuali stazionarie è stata sviluppata in modo più completo. Anche i processi casuali che soddisfano le condizioni di stazionarietà su intervalli di nostro interesse limitati sono generalmente considerati nella classe dei processi stazionari e sono chiamati quasi-stazionari.

processi non stazionari. Nel caso generale, i valori delle funzioni di aspettativa, varianza e correlazione possono dipendere dal tempo t, cioè cambiare nel tempo. Tali processi costituiscono una classe di processi non stazionari.

Processi ergonomici. Le caratteristiche rigorosamente corrette dei processi casuali sono stimate facendo la media su un insieme di realizzazioni in determinati momenti (su sezioni trasversali di processi). Ma la maggior parte dei processi casuali stazionari ha la proprietà ergodica. La sua essenza sta nel fatto che un'implementazione sufficientemente lunga del processo può essere utilizzata per giudicare tutte le sue proprietà statistiche allo stesso modo di qualsiasi numero di implementazioni. In altre parole, la legge di distribuzione di variabili casuali in un tale processo può essere la stessa sia lungo la sezione d'urto per l'insieme delle realizzazioni che lungo la coordinata di sviluppo. Tali processi sono chiamati ergodici. Per i processi ergodici abbiamo:

m X (t) = M(x(t)) =x(t) dt, (9.1.16)

D Х (t) = M(x(t) - m Х (t)] 2 ) =(x(t) - m Х (t)) 2 dt, (9.1.17)

R X (t) = M(x(t)x(t+t)) =x(t)x(t+t) dt. (9.1.18)

L'ergodicità è una proprietà molto importante dei processi stazionari casuali e solo stazionari. L'aspettativa matematica di un processo casuale ergodico è uguale alla componente costante di qualsiasi sua implementazione e la varianza è il potere della sua componente di fluttuazione. Poiché la determinazione delle funzioni si basa su dati statistici limitati di un'implementazione ed è solo una certa approssimazione delle corrispondenti funzioni effettive dei processi, è ragionevole chiamare queste funzioni statistiche.

Le proprietà dell'ergodicità possono manifestarsi solo in relazione ai primi due momenti di un processo casuale, che è abbastanza sufficiente per utilizzare i metodi appropriati per lo studio dei processi. La verifica pratica dell'ergodicità del processo viene solitamente effettuata verificando il soddisfacimento della condizione Slutsky:

K(t) dt = 0. (9.1.19)

Se la funzione di covarianza del processo tende a zero all'aumentare del valore dell'argomento (t), allora il processo è ergodico, almeno rispetto ai momenti del primo e del secondo ordine.

Esempio. La funzione casuale è data dall'espressione Z(t)=X(t)+Y, dove X(t) è una funzione ergodica stazionaria, Y è una variabile casuale non correlata con X(t). La funzione Z(t) è ergodica?

m z (t) = m z (x)+m y , K z (t) = K x (t)+D y .

La funzione Z(t) è stazionaria, ma non ergodica, poiché per t z ¥ abbiamo K z (t) z D y .

Con le formule (9.1.16-9.1.18) è possibile calcolare i momenti anche per processi deterministici. Ad esempio, per una funzione periodica f(t)=a sin wt, la funzione di autocovarianza è descritta dall'espressione:

K(t) = (a 2 /2) cos wt.

Di conseguenza, per una funzione periodica arbitraria rappresentata da una serie di Fourier (espansa in serie di Fourier):

K(t) = (1/2)a n 2 cos w n t.

Pertanto, la funzione di autocovarianza di una funzione periodica è anche una funzione periodica dell'argomento t - l'entità dello spostamento temporale.

9.2. Funzioni di densità spettrale.

Espansione canonica di funzioni casuali. Introduciamo il concetto di funzione casuale più semplice, che è definita dall'espressione:

X(t) = X×j(t), (9.2.1)

dove X è una variabile casuale ordinaria, j(t) è una funzione arbitraria non casuale. Aspettativa matematica della funzione casuale più semplice:

m x (t) = M(Xj(t))= j(t)×M(X)= j(t)×m x , (9.2.2)

dove m x è l'aspettativa matematica della variabile aleatoria X. Quando m x = 0, anche l'aspettativa matematica m x (t) è uguale a zero per ogni t e la funzione (9.2.1) in questo caso è chiamata funzione aleatoria elementare. La funzione di covarianza di una funzione casuale elementare è determinata dall'espressione:

K x (t 1 ,t 2) = M(X(t 1)X(t 2))= j(t 1)j(t 2)×M(X 2 )= j(t 1)j(t 2 )×D x . (9.2.3)

dove D x è la varianza della variabile casuale X.

Una funzione casuale centrata 0 X(t) può essere rappresentata come somma di funzioni casuali elementari non correlate tra loro:

0 X(t) =X io ×j io (t), (9.2.4)

La reciproca non correlazione dei valori di X i deriva dalla reciproca non correlazione di funzioni casuali elementari. Aspettativa matematica e funzione di covarianza di una funzione casuale 0 X(t):

M( 0 X(t))= M(X io × j io (t))= 0.

K x (t 1 ,t 2) = M( 0 X(t 1) 0 X(t 2))= M(X i ×j io (t 1)X j ×j j (t 2))= j i (t 1 )j j (t 2)M(X i X j ).

A causa della non correlazione reciproca dei valori accoppiati X i X j , M(X i X j )= 0 per i ¹ j, e tutti i termini della somma nell'ultima espressione sono uguali a zero, ad eccezione dei valori ​​per i = j, per cui M(X i X j )= M(X i 2 )= D i . Da qui:

K x (t 1 ,t 2) =j io (t 1)j io (t 2)D io . (9.2.5)

Una funzione casuale arbitraria non centrata, rispettivamente, può essere rappresentata come

X(t) = m x (t) + 0 X(t) = m x (t) + X io ×j io (t), (9.2.6)

con aspettativa matematica m x (t) e con la stessa funzione di covarianza (9.2.5) per le proprietà delle funzioni di covarianza, dove 0 X(t) è la componente di fluttuazione della funzione casuale X(t). L'espressione (9.2.6) è l'espansione canonica della funzione X(t). Le variabili casuali X i sono chiamate coefficienti di espansione, funzioni j i - funzioni di espansione delle coordinate. Per t 1 = t 2 dalla (9.2.5) otteniamo la funzione di dispersione della funzione casuale X(t):

D x (t) = 2×D io . (9.2.7)

Quindi, conoscendo l'espansione canonica (9.2.6) della funzione X(t), si può determinare immediatamente l'espansione canonica (9.2.5) della sua funzione di covarianza, e viceversa. Le espansioni canoniche sono utili per eseguire varie operazioni su funzioni casuali. Ciò è spiegato dal fatto che nell'espansione, la dipendenza della funzione dall'argomento t è espressa in termini di funzioni non casuali j i (t), e, di conseguenza, le operazioni sulla funzione X(t) sono ridotte al corrispondenti operazioni di analisi matematica su funzioni coordinate j i (t).

Come funzioni di coordinate di espansione, come nell'analisi dei segnali deterministici, vengono solitamente utilizzate funzioni armoniche seno-coseno e, nel caso generale, funzioni esponenziali complesse exp(jwt). Tenendo conto di quest'ultimo, consideriamo innanzitutto le caratteristiche della rappresentazione di funzioni casuali in forma complessa.

Funzioni casuali complesse. Nel caso generale, un processo casuale può essere descritto da una funzione casuale complessa:

Z(t) = X(t) + jY(t), (9.2.8)

dove X(t) e Y(t) sono funzioni casuali reali. Di conseguenza, l'aspettativa matematica di una funzione complessa:

m z (t) = m x (t) + j × m y (t). (9.2.9)

Si noti che la rappresentazione complessa delle funzioni casuali non è altro che una forma matematica della loro rappresentazione, conveniente per l'analisi, che, usando espressioni di Eulero, può sempre essere tradotta nella forma di funzioni reali. Le funzioni di dispersione, correlazione e covarianza dovrebbero essere caratteristiche reali non ambigue e non casuali di processi e funzioni casuali, indipendentemente dalla forma della loro rappresentazione matematica. Questa condizione sarà soddisfatta quando si utilizzano nelle espressioni del momento del secondo ordine le operazioni di moltiplicazione di funzioni complesse con funzioni coniugate complesse. Quindi, l'espressione per calcolare la funzione di correlazione ha la seguente forma:

R z (t 1 ,t 2) = M(Z(t 1)×Z*(t 2))= M()=

M(X(t 1)X(t 2)+Y(t 1)Y(t 2)+j×) =

R x (t 1 , t 2) + R y (t 1 , t 2) + j×. (9.2.10)

Se le parti reale e immaginaria della funzione complessa non sono correlate, allora R yx = R xy = 0 e anche l'ultimo termine di espressione (9.2.10) è uguale a zero.

Un'espressione simile vale per la funzione di covarianza. A t 1 = t 2 = t per la funzione di dispersione di una variabile aleatoria complessa si ha:

D z (t) = M(|Z(t)-m z (t)| 2 ) = D x (t) + D y (t), (9.2.11)

Tutte le espressioni di cui sopra nel caso generale possono essere utilizzate per qualsiasi funzione casuale complessa con qualsiasi significato fisico della variabile t.

Trasformata di Fourier finita caratteristiche casuali. Per analogia con le funzioni dei segnali deterministici, l'implementazione x k (t) del processo aleatorio stazionario 0 X (t) presa separatamente sull'intervallo 0-T può essere rappresentata come una serie di Fourier:

x k (t) =V x,k (w i) exp(jw i t), (9.2.12)

V x,k (w i) = (1/T)x k (t) exp(-jw i t) dt, (9.2.13)

oppure, in forma trigonometrica unilaterale:

x k (t) = A x,k (0) + 2(A x,k (w i) cos(w i t) + B x,k (w i) sin(w i t)), (9.2.12")

A x,k (w i) = (1/T)x k (t) cos(w i t) dt, (9.2.13")

B x,k (w i) = (1/T)x k (t) sin(w i t) dt. (9.2.13")

dove w i = i×Dw sono le frequenze dello spettro, Dw = 2p/T è il passo di frequenza. Di solito vengono chiamate le espressioni (9.2.13). caratteristiche spettrali delle implementazioni. Da un confronto delle espressioni (9.2.4) e (9.2.12), è facile concludere che le espressioni (9.2.12) sono tra le espansioni canoniche di funzioni casuali, mentre la caratteristica spettrale V x,k (w), così come le sue componenti A x,k (w) e B x,k (w) sono anche funzioni casuali di frequenza - realizzazioni unitarie delle funzioni casuali V x (w), A x (w) e B x (w) . Di conseguenza, la distribuzione in frequenza delle ampiezze e delle fasi delle componenti delle oscillazioni armoniche del processo casuale 0 X(t) è una funzione casuale con le corrispondenti funzioni di dispersione non casuale.

Se la funzione 0 X(t) è una sequenza discreta di variabili casuali 0 X(n×Dt) nell'intervallo di n da 0 a N, allora, come dovrebbe essere per le trasformate di Fourier discrete, il calcolo delle caratteristiche spettrali è eseguita nel range di frequenza principale (fino alla frequenza Nyquist w N = p/Dt), con la sostituzione nelle espressioni (9.2.13) dell'integrazione per somma su n e con una corrispondente variazione dei limiti di somma nelle espressioni (9.2. 12). Questa spiegazione viene mantenuta per tutti gli ulteriori calcoli.

Di norma, le caratteristiche spettrali delle realizzazioni individuali di processi casuali non sono di interesse e sono usate raramente nella pratica. La caratteristica spettrale di una funzione casuale 0 X(t), come insieme di realizzazioni, può essere determinata facendo la media delle funzioni (9.2.12-13) sulle realizzazioni, per cui si ottengono le stesse funzioni (9.2. 12-13), solo senza indici k . Allo stesso tempo, a causa del centraggio della funzione casuale stazionaria 0 X(t), dobbiamo avere:

M(X(t)) =M(V x (w i)) exp(jw i t) = 0, (9.2.14)

Quest'ultimo sarà soddisfatto alla condizione M(V x (w i)) = 0, cioè l'aspettativa matematica dei valori della caratteristica spettrale di un processo casuale stazionario centrato deve essere uguale a zero a tutte le frequenze. In altre parole, non vi è alcuna caratteristica spettrale di un processo casuale stazionario centrato. Ci sono solo caratteristiche spettrali delle sue realizzazioni individuali, che vengono utilizzate, ad esempio, per modellare queste realizzazioni.

Per processi casuali arbitrari non centrati X(t), scrivendo quest'ultimo nella forma X(t) = m x (t) + 0 X(t), avremo rispettivamente la trasformata di Fourier:

m x (t) + 0 X(t) - m x (w) + V x (w) = m x (w),

cioè, in sostanza, una funzione dello spettro (o densità spettrale) di una funzione non casuale dell'aspettativa matematica di un processo casuale, ovviamente, entro l'accuratezza che può fornire un insieme campionario di implementazioni. Ciò conferma ancora una volta l'assenza di qualsiasi informazione sulla componente di fluttuazione dei processi negli spettri dei processi casuali e suggerisce che le fasi delle componenti spettrali nelle realizzazioni del processo sono casuali e indipendenti.

Alla luce di quanto sopra, gli spettri dei processi casuali (o la densità spettrale nella trasformata integrale di Fourier) sono comunemente intesi non come trasformate di Fourier di funzioni casuali proprie, ma come trasformate di Fourier delle funzioni di potenza di processi casuali, poiché la le funzioni di potenza non dipendono dal rapporto di fase delle componenti spettrali dei processi.

Spettri di potenza di funzioni casuali sono determinati in modo simile agli spettri di potenza dei segnali deterministici. La potenza media di un processo casuale X(t), registrata nel processo di un'implementazione sull'intervallo 0-T, utilizzando l'uguaglianza di Parseval può essere calcolata con la formula:

W T = dt =[|X T (f)| 2/T]df,

dove X(f) è la densità spettrale di una singola realizzazione x(t). Con un aumento dell'intervallo T, l'energia del processo nell'intervallo aumenta indefinitamente e la potenza media tende a un certo limite:

W =[ |X T (f)| 2]df,

dove l'integrando è la densità spettrale di potenza della data implementazione del processo casuale:

W(f) = |X T (f)| 2. (9.2.15)

Molto spesso questa espressione è chiamata semplicemente spettro di potenza. La densità di potenza è una funzione reale, non negativa e uniforme della frequenza. Nel caso generale, la densità di potenza deve essere mediata su molte realizzazioni, ma per i processi ergodici è accettabile una media su una realizzazione piuttosto lunga.

Teorema di Wiener-Khinchin. Si consideri un segnale q(t), che è una realizzazione di un processo ergodico stazionario casuale di durata T. Per il segnale q(t), si può determinare lo spettro Q(w). Se spostiamo l'implementazione del processo di t, otteniamo lo spettro Q(w)exp(jwt). Per segnali reali Q(w) = Q*(w) Uguaglianza di Parseval nell'energia di interazione di due segnali

x(t) y*(t) dt =X(f) Y*(f) df (9.2.16)

può essere scritto nella seguente forma:

q(t)q(t+t) dt = (1/2p) Q(w)Q*(w) exp(jwt) dw. (9.2.17)

Dividiamo entrambi i membri di questa uguaglianza per T e passiamo al limite in T Þ ¥, mentre sul lato sinistro vedremo l'espressione per la funzione di correlazione e sul lato destro - la trasformata di Fourier dello spettro di potenza del segnale:

q(t)q(t+t) dt = |Q(w)| 2 exp(jwt) dw, (9.2.18)

R(t) = (1/2p) W(w) exp(jwt) dw. (9.2.19)

Ne consegue che la funzione di correlazione di un processo ergodico stazionario casuale è la trasformata di Fourier inversa del suo spettro di potenza. Di conseguenza, per lo spettro di potenza di un processo casuale, abbiamo una trasformata di Fourier diretta:

W(w) = R(t) exp(-jwt) dt. (9.2.20)

Questa è l'essenza del teorema di Wiener-Khinchin. Le funzioni W(w) e R(t) sono reali e pari, e rispettivamente in forma trigonometrica:

R(t) = 2W(f)cos(2pft)df, W(f) = 2R(t)cos(2pft)dt.

Spettro delle funzioni di covarianza. Poiché le funzioni di covarianza dei processi stazionari sono un caso speciale di funzioni di correlazione, queste espressioni sono valide anche per la FAC e, di conseguenza, le trasformate di Fourier delle funzioni di covarianza sono gli spettri di potenza della componente fluttuante dei processi. Da queste posizioni, la dispersione dei processi casuali è la potenza media delle sue fluttuazioni

K(t=0) = s 2 = (1/2p)W(w)dw,

cioè, pari alla potenza totale di tutte le sue componenti di frequenza dei processi.

Quando si rappresenta la funzione di covarianza sull'intervallo 0-T, il passo lungo lo spettro della funzione, tenendo conto della parità della funzione di covarianza, è posto uguale a Dw = p/T, w i = i × Dw, e lo spettro è solitamente determinato direttamente dai coseni in forma unilaterale:

K x (t) = D x (0)/2 +D x (w i) cos(w i t), (9.2.21)

D x (w i) = (2/T)K x (t) cos(w i t) dt, (9.2.22)

dove D x (w i) secondo (9.2.5) sono le varianze di variabili casuali V x (w i), nonché A x (w i) e B x (w i), nelle espansioni (9.2.12). In forma complessa, come al solito:

K x (t) =D x (w i) exp(jw i t), (9.2.23)

D x (w i) = (2/T)K x (t) exp(-jw i t) dt, (9.2.24)

Gli spettri delle funzioni di covarianza sono sempre limitati (D(w) ¹ ¥) e non negativi (D(w) ³ 0), e sono sempre pari nella rappresentazione a due lati (D(-w) = D(w)) . Un esempio di spettri in rappresentazioni mono e bifacciali è mostrato in Fig. . 9.2.1.

La dispersione di un processo casuale stazionario X(t) può essere determinata dalla formula (9.2.23) a t = 0:

D x =D x (w i), (9.2.25)

quelli. la varianza di un processo casuale stazionario è uguale alla somma delle varianze di tutte le armoniche casuali della sua espansione spettrale.

Larghezza effettiva dello spettro di potenza è una caratteristica generalizzata dello spettro di un processo casuale ed è determinata dalla formula:

B k = Dw×D x /D max , (9.2.26)

dove D max è il valore massimo della funzione D x (w i). Si noti che l'ampiezza dello spettro è una caratteristica pratica di un processo casuale e viene calcolata, di regola, per frequenze reali dallo spettro unilaterale del processo.

Quando si utilizza il passaggio al limite T Þ ¥ e, di conseguenza, gli integrali di Fourier nelle espressioni (9.2.23), le funzioni di dispersione a due lati D(w i) sono sostituite dalle funzioni S(w), e l'unilaterale quelli sono sostituiti dalle funzioni G(w), che sono dette, rispettivamente, funzioni bilaterali e unilaterali densità spettrale processi casuali. La stessa indicizzazione nella letteratura scientifica e tecnica viene utilizzata anche per gli spettri delle funzioni di correlazione e spesso per le trasformazioni discrete delle funzioni di covarianza al posto di D(w i), sebbene quest'ultima, applicata alle funzioni di covarianza, rifletta più accuratamente l'essenza fisica delle quantità. Ma può essere considerato abbastanza accettabile per preservare la generalità delle descrizioni matematiche.

Larghezza effettiva dello spettro per le funzioni di densità spettrale di processi casuali:

B k \u003d G x (f) df / G x (f) max \u003d S x (f) df / S x (f) max \u003d K x (0) / S x (f) max . (9.2.27)

Relazione di incertezza mette in relazione la larghezza effettiva dello spettro B k all'intervallo di covarianza effettivo T k . Per determinarlo, troviamo il prodotto B k T k di un processo casuale usando le formule (9.1.10) e (9.2.27):

B k T k = 2|K x (t)|dt /S x (f) max . (9.2.28)

La valutazione di questo prodotto porta alla relazione di incertezza:

B k T k ³ 1/2. (9.2.29)

Di conseguenza, con una diminuzione dell'ampiezza effettiva dello spettro, aumenta l'intervallo effettivo della covarianza del processo casuale e viceversa.

Funzioni spettrali reciproche. La relazione statistica di due processi casuali X(t) e Y(t) è stimata dalle funzioni di covarianza reciproca K xy (t) o K yx (t). Le funzioni di covarianza incrociata sono generalmente arbitrarie e, di conseguenza, le funzioni di spettro incrociato sono espressioni complesse:

S xy (w i) = (1/T)K xy (t) exp(-jw i t) dt, (9.2.30)

in cui:

S xy (-w) = S xy * (w) = S yx (w).

L'analogo in quadratura della funzione di mutua covarianza normalizzata o della funzione dei coefficienti di covarianza di due processi (9.1.14) nel dominio spettrale è funzione di coerenza, che è determinato dall'espressione:

g xy 2 (w) = |S xy (w)| 2 /(S x (w)S y (w)), (9.2.31)

e per ogni w soddisfa le disuguaglianze

0 £ g xy 2 (w) £ 1

La funzione di coerenza è comunemente usata nell'analisi dei sistemi lineari per convertire una funzione di input X(t) in una funzione di output Y(t) (discussa di seguito).

In conclusione di questa sezione, notiamo ancora una volta che le densità spettrali dei processi casuali e gli spettri di densità di potenza sono lo stesso concetto. Entrambi i termini sono usati abbastanza ampiamente nella letteratura scientifica e tecnica. Tenuto conto del fatto che il concetto di potenza nel suo significato è più connesso con i concetti di energia, e il concetto di densità spettrale - con l'analisi di segnali e sistemi, in ulteriore considerazione di segnali e processi casuali, utilizzeremo principalmente il concetto di densità spettrale o (per quantità discrete) segnali e processi casuali di spettri.

9.3. Trasformazioni di funzioni casuali.

Sistemi di trasformazione di funzioni casuali. Sia presente un sistema di trasformazione con un input, che riceve (viene alimentato) la funzione casuale di input X(t) - la funzione impatto o Risveglio, e con un'uscita, da cui viene presa la funzione di uscita Z(t) - risposta o reazione in uscita sistemi. Il sistema esegue la trasformazione X(t) Þ Z(t) ed è descritto da un certo operatore di sistema trasformazione T - funzione, algoritmo, insieme di regole per convertire il segnale di ingresso in uscita. Notazione dell'operazione di trasformazione: Z(t) = T. Mappatura simbolica e completa dell'operazione di trasformazione:

z(t) = h(t) ③ x(t-t) =h(t)×x(t-t) dt.

dove h(t) è la funzione matematica della risposta all'impulso del sistema a una singola azione di input. La risposta all'impulso determina la corrispondente caratteristica di trasferimento di frequenza del sistema: h(t) - H(w).

Per i segnali di ingresso non casuali (deterministici), la relazione tra i segnali di uscita e di ingresso è sempre specificata in modo univoco dall'operatore del sistema. Nel caso in cui venga implementato un processo di input casuale (segnale casuale) all'ingresso del sistema, esiste anche una corrispondenza uno a uno tra i processi all'uscita e all'ingresso del sistema, tuttavia, allo stesso tempo, le caratteristiche statistiche del segnale di uscita (aspettativa matematica, varianza, funzione di covarianza, ecc.) cambiano contemporaneamente.

Sistemi lineari e non lineari costituiscono due classi principali di sistemi di elaborazione del segnale. Il termine linearità significa che il sistema di conversione del segnale deve avere una relazione lineare arbitraria, ma obbligatoria, tra il segnale di ingresso (eccitazione) e il segnale di uscita (risposta). Nei sistemi non lineari, la connessione tra il segnale di ingresso e quello di uscita è determinata da una legge non lineare arbitraria.

Operazioni di base del sistema sistemi lineari, da cui si possono formare eventuali operatori di trasformazione lineare, si tratta di operazioni di moltiplicazione scalare, spostamento e addizione di segnali:

s(t) = c ´ a(t), s(t) = a(t-Dt), s(t) = a(t)+b(t).

Per i sistemi non lineari, individuiamo un importante tipo di operazioni senza inerzia di trasformazione del segnale non lineare, i cui risultati dipendono solo dai suoi valori di ingresso. Questi includono, ad esempio, le operazioni di quadratura e logaritmo del segnale:

y(t) = 2 , y(t) = log.

Si assume che il sistema sia lineare , se la sua risposta ai segnali di ingresso è additiva (il principio di sovrapposizione dei segnali è soddisfatto) e omogenea (è soddisfatto il principio di somiglianza proporzionale). In altre parole, la risposta di un sistema lineare ad una somma pesata di segnali di ingresso deve essere uguale alla somma pesata delle risposte ai singoli segnali di ingresso, indipendentemente dal loro numero e per eventuali coefficienti di peso, anche complessi.

I sistemi lineari possono essere disomogenei se eseguono una sorta di trasformazione lineare con l'addizione (sottrazione) di una determinata funzione, ad es. un'operazione della forma Z(t) = T = T o + f(t).

Sistema a due ingressi è descritto dall'operatore di sistema T, che collega due azioni di ingresso, rispettivamente X(t) e Y(t), con la reazione di uscita Z(t). Il sistema è considerato lineare se i principi di additività e omogeneità sono soddisfatti per entrambi gli input. Un sistema a due input può essere utilizzato, ad esempio, per sommare due processi casuali con guadagni diversi per i loro valori.

Z(t) = T[a(X 1 (t)+X 2 (t)), b(Y 1 (t)+Y 2 (t))] = a×T + b×T.

Collegamento delle funzioni statistiche di uscita con quelle di ingresso. Per i sistemi a ingresso singolo, quando si esegue una trasformazione lineare Z(t) = T, il compito è solitamente quello di determinare le caratteristiche della distribuzione Z(t) dalle caratteristiche note X(t).

Aspettativa matematica del segnale di uscita:

m z (t) = M(Z(t)) = M(T).

Dalla teoria dei sistemi lineari: l'operatore lineare può essere tolto dal segno di aspettativa. Ciò implica:

m z (t) = T = T, (9.3.1)

quelli. per determinare la funzione di aspettativa matematica del segnale di uscita Z(t), è sufficiente effettuare la trasformazione da parte dello stesso operatore di sistema della funzione di aspettativa matematica del segnale di ingresso X(t):

m z (t) = h(t) ③ m x (t-t). (9.3.2)

Funzione di correlazione del segnale di uscita :

R z (t 1 ,t 2) = M(Z(t 1)Z(t 2))= M(T 1 T 2 ),

dove T 1 e T 2 - lo stesso operatore T nelle variabili t 1 e t 2, rispettivamente, che consente di estrarlo dal segno di aspettativa, mantenendo le variabili:

R z (t 1 ,t 2) = T 1 T 2 = T 1 T 2 , (9.3.3)

quelli. con una funzione di correlazione nota del segnale di ingresso, la funzione di correlazione del segnale di uscita viene trovata mediante una doppia trasformazione dello stesso operatore in due argomenti.

Quando si determina la funzione R z (t), si dovrebbe tenere conto dell'ordine della trasformazione. Per il prodotto dei segnali di uscita z(t) e z(t+t) di un sistema lineare, possiamo scrivere:

z(t)×z(t+t) =h(a)h(b) x(t-a) x(t+t-b) da db.

Se prendiamo le aspettative matematiche da entrambe le parti di questa uguaglianza, quindi, tenendo conto del rapporto nell'integrando

M(x(t-a) x(t+t-b)) = -R x (t-a-t-t+b) = R x (t+a-b),

R z (t) =h(a)h(b) R x (t+a-b) da db º R x (t) ③ h(t+a) ③ h(t-b). (9.3.4)

Pertanto, la funzione di correlazione del segnale di uscita è uguale alla funzione di correlazione del segnale di ingresso, piegato due volte, avanti e indietro, con la risposta all'impulso del sistema, che conserva la parità della funzione di correlazione del segnale di uscita. Una conclusione simile vale anche per le funzioni di covarianza.

Si noti che per la convoluzione delle risposte all'impulso, effettuando la sostituzione t-b = t, abbiamo l'uguaglianza:

h(t+a) ③ h(t-b) = h(t+a+b) ③ h(t) = h(t) ③ h(t+g) = R h (t),

dove R h (t) è la funzione di correlazione della risposta all'impulso del sistema. Da qui:

R z (t) = R x (t) ③ R h (t). (9.3.5)

quelli. la funzione di correlazione del segnale di uscita è uguale alla convoluzione della funzione di correlazione del segnale di ingresso con la funzione di correlazione della risposta all'impulso del sistema. Ciò significa la comparsa in un segnale casuale all'uscita del sistema di una certa dipendenza da covarianza causata dall'inerzia del sistema, e il raggio di covarianza del segnale di uscita è inversamente proporzionale alla frequenza superiore trasmessa dal sistema.

Funzioni di correlazione incrociata i segnali di ingresso e di uscita sono definiti in modo simile:

R zx (t 1 , t 2) = T 1 , R xz (t 1 , t 2) = T 2 . (9.3.6)

Per la funzione R xz dei segnali di ingresso e di uscita si ha:

x(t)×z(t+t) dt =h(a) x(t) x(t+t-a)da dt.

R xz (t) =h(a) R x (t-a) da º R x (t) ③ h(t-a). (9.3.7)

quelli. la funzione di cross-correlazione dei segnali di ingresso e di uscita è uguale alla convoluzione della funzione di correlazione del segnale di ingresso con la funzione della risposta all'impulso del sistema.

Un'altra funzione di correlazione incrociata R yx può essere ottenuta dalla relazione:

R zx (t) = R xz (-t) º R x (t) ③ h(t+a). (9.3.8)

Si noti che per variabili casuali statisticamente indipendenti con una risposta all'impulso unilaterale h(t) = 0 a t<0 функция R xz (t) также является односторонней, и равна 0 при t<0, а функция R zx соответственно равна 0 при t>0.

rapporti spettrali, che caratterizzano il sistema nel suo insieme in relazione alla conversione di segnali casuali, sono i rapporti delle densità spettrali dei segnali casuali (spettri di potenza) in ingresso e in uscita.

Applicando la trasformata di Fourier alle espressioni (9.3.5), per lo spettro di potenza del segnale in uscita, otteniamo:

S z (f) = S x (f) |H(f)| 2. (9.3.9)

Lo spettro di potenza di un segnale casuale all'uscita del sistema è uguale allo spettro di potenza del segnale di ingresso moltiplicato per il quadrato del modulo della risposta in frequenza del filtro. Tenendo conto della parità delle funzioni di covarianza, anche lo spettro di potenza del segnale di uscita è una funzione reale pari e contiene solo l'ampiezza caratteristica del sistema.

Allo stesso modo, per lo spettro di potenza del segnale reciproco basato sulle espressioni (9.3.7-8) abbiamo:

S xz (f) = S x (f) H(f), S zx (f) = S x (f) H(-f). (9.3.10)

Lo spettro reciproco dei segnali con una risposta all'impulso unilaterale è complesso e contiene sia l'ampiezza che le caratteristiche di fase del sistema.

Si noti che utilizzando l'espressione (9.3.10) è possibile determinare la risposta in frequenza e la risposta all'impulso del sistema:

H(f) = S xz /S x w h(t).

Dispersione in uscita può essere determinato usando le formule (9.3.4, 9) dalle funzioni di covarianza:

s z 2 = K z (0) =S x (f) |H(f)| 2 df º K x (0)h 2 (t) dt = s x 2 h 2 (t) dt, (9.3.11)

Se il segnale non è centrato e il valore della dispersione del segnale di ingresso è sconosciuto, utilizzando formule simili, calcoliamo prima piazza centrale segnale di uscita o il cosiddetto potenza media del segnale :

R z (0) º h 2 (t) dt ºS x (f) |H(f)| 2df. (9.3.12)

La potenza media del segnale in uscita è uguale alla potenza media del segnale in ingresso moltiplicata per il quadrato dell'area di risposta all'impulso del sistema (per i sistemi digitali, la somma dei quadrati dei coefficienti di risposta all'impulso). Per segnali casuali centrati, la potenza media è uguale alla dispersione dei segnali. Per segnali di uscita non centrati:

s z 2 \u003d - 2 º (- 2) h 2 (t) dt. (9.3.13)

Funzione di coerenza fornisce una stima dell'accuratezza del modello lineare adottato del sistema. La coerenza dei segnali di ingresso e di uscita del sistema è stimata dalla formula:

g xz 2 (f) = |S xz (f)| 2/. (9.3.14)

Se le funzioni S x (f) e S z (f) sono diverse da zero e non contengono funzioni delta, allora per tutte le frequenze f i valori della funzione di coerenza sono contenuti nell'intervallo:

0 £ g xz 2 (f) £ 1.

Per eliminare le funzioni delta a frequenza zero, la funzione di coerenza è determinata da segnali centrati. Per i sistemi lineari con parametri costanti, la funzione di coerenza è uguale a 1, il che è facile vedere se le espressioni S xz e S z sono sostituite nella formula (9.3.14), definita tramite S x nelle formule (9.3.9-10 ). Per segnali completamente indipendenti, la funzione di coerenza è zero. I valori compresi tra 0 e 1 possono corrispondere a tre situazioni:

1. Il sistema esegue la trasformazione x(t) Þ z(t), ma c'è rumore esterno nelle misurazioni di questi segnali o di uno di essi. Quindi, ad esempio, il rumore di quantizzazione (arrotondamento dei valori) appare nei segnali registrati con una limitazione nella lunghezza della parola.

2. Il sistema non è strettamente lineare. Questo si può osservare, ad esempio, con una certa limitazione alla profondità di bit dei calcoli nei sistemi digitali, con l'accumulo di errori nei sistemi ricorsivi, ecc.

3. Il segnale di uscita z(t) oltre a x(t) dipende anche da alcuni processi interni o di ingresso del sistema.

Il valore 1-g xz 2 (f) specifica la frazione quadratica media della radice del segnale z(t) alla frequenza f che non è associata al segnale x(t).

Allo stesso modo, si può calcolare la funzione di coerenza di due realizzazioni x(t) e y(t). I valori della funzione indicheranno il grado di dipendenza lineare di un'implementazione da un'altra, sebbene ciò non significhi che debba esserci una relazione causale tra le implementazioni. La funzione di coerenza g xy è conservata sotto esatte trasformazioni lineari dello stesso tipo delle funzioni x(t) e y(t), il che rende possibile determinarla senza misurare i valori x(t) e y(t) stessi .

Trasformazioni di funzioni casuali.

Aggiunta di funzioni casuali. Quando si aggiungono funzioni casuali, nel caso generale, con coefficienti costanti arbitrari a e b, e si forma una funzione di somma casuale Z(t) = a×X(t) + b×Y(t), la funzione di aspettativa del processo Z (t):

m z (t)= M(Z(t))= M(aX(t)+bY(t))= a×M(X(t))+b×M(Y(t))= a×m x ( t)+b×m y (t). (9.3.15)

La funzione di correlazione della somma è calcolata in modo simile ed è uguale a:

R z (t 1 ,t 2) = M(Z(t 1)×Z(t 2))= M()=

M(a 2 X(t 1)X(t 2)+b 2 Y(t 1)Y(t 2)+×ab) =

A 2 R x (t 1 ,t 2)+b 2 R y (t 1 ,t 2)+ab×. (9.3.16)

Per le funzioni non correlate X(t) e Y(t), le funzioni di correlazione incrociata R xy e R yx sono impostate a zero. Le funzioni di covarianza hanno una notazione simile (come un caso speciale di funzioni di correlazione quando i processi casuali sono centrati). Le espressioni sono facilmente generalizzate alla somma di un numero qualsiasi di funzioni casuali. In particolare, per la funzione di correlazione della funzione aleatoria stazionaria Z(t) = a i X i (t) per t 2 -t 1 = t si ha:

R z (t) = un io 2 R x io (t) + un io un j R x io x j (t). (9.3.16")

Quando si somma una funzione casuale X(t) con una funzione non casuale y(t), l'aspettativa matematica e la funzione di correlazione della somma Z(t)=X(t)+y(t) sono:

m z (t) = m x (t) + y (t), R z (t 1 , t 2) = R x (t 1 , t 2). (9.3.17)

Quando si aggiunge una funzione casuale X(t) con una variabile casuale Y non correlata, l'aspettativa matematica e la funzione di correlazione della somma Z(t)=X(t)+Y:

m z (t) = m x (t) + m y , R z (t 1 , t 2) = R x (t 1 , t 2) + D y . (9.3.18)

Prodotto di funzioni casuali e non casuali X(t) e f(t). Aspettativa matematica e funzione di correlazione del segnale di uscita:

m z (t) = M(Z(t))= M(f(t)×X(t))= f(t)×M(X(t))= f(t)×m x (t). (9.3.19)

R z (t 1 ,t 2)=M(f(t 1)X(t 1) f(t 2)X(t 2))= f(t 1)f(t 2)M(X(t 1 )X(t2))=

F(t 1)f(t 2)×R x (t 1 ,t 2). (9.3.20)

Se f(t) = const = C e Z(t) = C×X(t), allora, rispettivamente, abbiamo:

m z (t) \u003d C × m x (t), R z (t 1, t 2) \u003d C 2 × R x (t 1, t 2). (9.3.21)

Derivata di una funzione casuale Z(t) = dX(t)/dt. Se la funzione X(t) è continua e derivabile, allora l'aspettativa della derivata è:

m z (t) = M(Z(t)) = M(dX(t)/dt) = d(M(X(t)))/dt = dm x (t)/dt, (9.3.22)

quelli. l'aspettativa matematica della derivata di una funzione casuale è uguale alla derivata della sua aspettativa matematica. Per la funzione di correlazione abbiamo:

M(X(t 1)X(t 2))dt 1 dt 2 = R x (t 1 ,t 2)dt 1 dt 2 , (9.3.25)

quelli. la funzione di correlazione dell'integrale della funzione casuale è uguale all'integrale doppio della funzione di correlazione della funzione casuale originale.

Trasformazioni di funzioni casuali stazionarie vengono eseguiti secondo le formule di cui sopra e danno i seguenti risultati (invece delle funzioni di correlazione, vengono fornite le funzioni di covarianza, che sono solitamente utilizzate nella pratica).

Valore atteso segnale di uscita Z(t) della funzione casuale stazionaria di ingresso X(t) secondo (9.3.2):

m z = h(t) * m x = m x h(t) dt, (9.3.26)

Ne consegue che l'aspettativa matematica dei segnali di uscita del sistema è uguale all'aspettativa matematica dei segnali di ingresso, moltiplicata per l'area (o la somma dei coefficienti) della risposta all'impulso del sistema, cioè sul guadagno del sistema della componente CC. Se il sistema non supera la componente CC dei segnali (l'area o la somma dei coefficienti di risposta all'impulso del sistema è zero), il segnale di uscita casuale avrà sempre un'aspettativa matematica zero.

Somma di due funzioni casuali stazionarie X(t) e Y(t) danno una funzione casuale stazionaria Z(t), mentre:

m z = m x + m y , D z = D x + D y + 2K xy (0). (9.3.27)

K z (t 1,t 2) \u003d K z (t) \u003d K x (t) + K y (t) + K xy (t) + K yx (t). (9.3.28)

La somma di una funzione stazionaria casuale e non casuale X(t) e y(t) non è stazionario in attesa:

m z (t) = m x + y(t), K z (t) = K x (t). (9.3.29)

Prodotto di funzioni stazionarie casuali e non casuali X(t) e y(t) sono funzioni casuali non stazionarie perché:

m z (t) = y(t)×m x , D z (t) = y 2 (t)×D x . (9.3.30)

K z (t, t) = y(t)y(t+t)K x (t). (9.3.31)

Derivata di una funzione casuale stazionaria- funzione casuale stazionaria con aspettativa matematica m z = 0 e funzioni di covarianza:

K z (t 1,t 2) \u003d K x (t 1 -t 2) \u003d -K x (t) \u003d K z (t). (9.3.32)

K zx (t) = d(K x (t))/dt, K xz (t) = -d(K x (t))/dt. (9.3.33)

Segue anche dall'espressione (9.3.32) che affinché X(t) sia differenziabile è necessario che la sua funzione di covarianza sia due volte differenziabile rispetto a t.

Integrale di una funzione casuale stazionaria- funzione casuale non stazionaria con aspettativa matematica m z (t) =m x (t)dt e funzione di covarianza:

K z (t 1 ,t 2) = K x (u 1 -u 2) du 1 du 2 . (9.3.34)

9.4. Modelli di segnali casuali e di interferenza.

I modelli più comuni di segnali casuali e rumore sono il segnale telegrafico, il rumore bianco, il processo casuale gaussiano, il rumore gaussiano.

segnale telegrafico - questo è un processo casuale x k (t), che è una sequenza di impulsi positivi e negativi rettangolari con durate casuali e valori deterministici delle ampiezze c e -c, e cambiamenti di segno all'interno di qualsiasi intervallo (t, t + t) si verificano con intensità a in momenti casuali e non dipendono da processi in intervalli di tempo adiacenti. Se consideriamo il valore di n, il numero di segni cambia all'interno dell'intervallo t, come variabile casuale del segnale telegrafico, la distribuzione di probabilità dei valori di n sarà descritta dalla legge di Poisson:

P(n) = (a|t|) 2 exp(-a|t|)/n! (9.4.1)

Quando si calcola la funzione di correlazione del segnale telegrafico, ogni singolo prodotto x k (t)x k (t + t) è uguale a c 2 o -c 2, a seconda della coincidenza o della mancata corrispondenza dei segni x k (t) e x k ( t + t), e la probabilità c 2 è uguale alla somma delle probabilità Р(0)+Р(2)+Р(4)+..., e la probabilità -с 2 è determinata rispettivamente dalla somma delle probabilità Р(1)+Р(3)+Р(5)+... .

Di conseguenza:

R x (t)= c 2 (-1) n P(n)= c 2 exp(-a|t|)(-1) n (a|t) n /n! = c2exp(-2a|t|). (9.4.2)

Il parametro a determina completamente la covarianza e le proprietà spettrali del segnale telegrafico. Quando a Þ 0 le caratteristiche del segnale si avvicinano alle caratteristiche della componente CC, quando a Þ ¥ - alle caratteristiche del rumore bianco.

Intervallo di covarianza del segnale:

T k = 2(R x (t)/c 2) dt = 2/a. (9.4.3)

Ne consegue che maggiore a, minore è il tempo di covarianza del processo. Per un Þ 0 T k Þ ¥ e il processo degenera in un processo deterministico (tende a una componente costante). Per un Þ ¥ T k Þ 0 e il processo degenera in rumore bianco con letture non correlate anche in punti temporali vicini.

Densità del segnale spettrale a due vie:

S x (w) \u003d R x (t) exp (-jwt) dt \u003d ac 2 / (a ​​​​2 + w 2). (9.4.4)

Densità spettrale unilaterale:

G x (w) \u003d 2ac 2 / (a ​​​​2 + w 2). (9.4.5)

Larghezza dello spettro del segnale CW:

Bk =G x (w) dw/G x (0) ºS x (w) dw/S x (0) = ap. (9.4.6)

Ne consegue che più ampio è lo spettro di un processo casuale, minore è l'intervallo di covarianza del processo.

rumore bianco è un processo casuale stazionario q(t), la cui funzione di autocorrelazione è descritta dalla funzione delta di Dirac e, di conseguenza, la densità spettrale di potenza non dipende dalla frequenza ed ha un valore costante W q(f) = s 2 uguale alla dispersione di q(t) valori. In altre parole, tutte le componenti spettrali del rumore bianco hanno la stessa potenza (proprio come il bianco contiene tutti i colori nello spettro visibile). In sostanza, questo è un processo casuale idealizzato con energia infinita. Ma nel caso di una densità spettrale di potenza costante di un processo casuale in un intervallo di frequenze finito, l'introduzione di tale idealizzazione rende possibile lo sviluppo di metodi di filtraggio ottimali implementati abbastanza facilmente. Molte interferenze nell'ingegneria radio, nell'ingegneria delle comunicazioni e in altri settori, compresa l'informatica, sono considerate rumore bianco se l'effettiva larghezza dello spettro del segnale B s è molto inferiore all'effettiva larghezza dello spettro del rumore B q

B s / B q<< 1,

e la densità spettrale di potenza del rumore cambia poco nell'intervallo dello spettro del segnale. Il concetto di "rumore bianco" definisce solo la caratteristica spettrale di un processo casuale e, pertanto, questo concetto include tutti i processi casuali che hanno uno spettro di energia uniforme e leggi di distribuzione diverse.

Se l'intervallo di frequenza dello spettro in cui vengono considerati segnali e interferenze è 0-V, la densità spettrale del rumore è data come:

W q (f)=s 2 , 0£ f £B; Wq (f)=0, f > B, (9.4.7)

in questo caso, la funzione di correlazione del rumore è determinata dall'espressione:

Rq (t)= s 2 B×peccato(2pBt)/2pBt. (9.4.8)

Intervallo di correlazione efficace:

T k = 2|R q (t)|dt /R q (0). (9.4.9)

Si consiglia di determinare l'intervallo di correlazione reale dalla larghezza del massimo principale della funzione R q (t) (i valori di t ai primi incroci della linea zero), in cui la parte principale dell'energia del rumore è concentrato, mentre T k = 1/V e BT k = 1 > 1/2 , cioè la relazione di incertezza è soddisfatta.

Come segue da tutte queste espressioni ed è chiaramente visibile in Fig. 9.4.4, quando si limita la gamma di frequenza nel rumore, compare una certa correlazione tra i valori, e minore è la gamma di frequenza del rumore, maggiore è il raggio di correlazione. In sostanza, limitare il rumore a un certo intervallo di frequenza equivale a filtrare il rumore bianco con un filtro di frequenza di larghezza di banda adeguata, facendo confluire la funzione di correlazione della risposta all'impulso del filtro con la funzione delta del rumore bianco.

Il modello di rumore bianco q(t) può essere formato come una sequenza di impulsi delta d(t i) casuali nel tempo (argomento) con valori di ampiezza casuali a i:

q(t) = S io a io d(t-t i), (9.4.10)

che soddisfa le condizioni di omogeneità statistica: numero medio costante di impulsi per unità di tempo e indipendenza statistica dell'aspetto di ciascun impulso dai precedenti. Tale flusso di impulsi, chiamato Poisson, non è correlato e ha uno spettro di densità di potenza uniforme:

W q (w) \u003d c 2 \u003d Ns a 2,

dove N è il numero di impulsi nell'intervallo T dell'implementazione del processo casuale, s a 2 è la dispersione delle ampiezze degli impulsi.

La descrizione spettrale del rumore bianco risulta essere conveniente se si tiene conto dell'influenza delle caratteristiche di ampiezza-frequenza di vari dispositivi su di esso. Se il rumore bianco q(t) agisce all'ingresso di un filtro con una risposta all'impulso h(t), allora il segnale all'uscita del filtro è:

g(t) = h(t) ③ q(t) = h(t) ③ S i a i d(t-t i) =S i a i h(t-t i), (9.4.11)

quelli. il segnale di uscita sarà una sequenza di segnali della risposta all'impulso del filtro h(t) con ampiezza a i , mentre la funzione di autocorrelazione e lo spettro di potenza del flusso di uscita diventeranno simili anche al FAC e allo spettro di potenza della risposta all'impulso del filtro, e in prima approssimazione sono determinate dalle espressioni:

R g (t)N s a 2 R h (t) = c 2 R h (t), (9.4.12)

W g (w) N s a 2 |H(w)| 2 = c 2 |H(w)| 2. (9.4.13)

Questo risultato è noto come teorema di Campbell.

Rumore gaussiano nasce dalla somma del rumore bianco statisticamente indipendente e ha la seguente funzione di correlazione:

R x (t) = aexp(-2ps 2 t 2). (9.4.14)

Densità spettrale del rumore:

S x (f) \u003d (a / s) exp (-f 2 / 2s 2), - ¥< f < ¥. (9.4.15)

Larghezza effettiva dello spettro di rumore e tempo di covarianza:

Bk = s/2 = 1,25 s, Tk = 1/s = 0,4/s. (9.4.16)

La relazione di incertezza si trasforma in un'uguaglianza: B k T k = 1/2.

Processi casuali gaussiani dominare in pratica. Un processo casuale x(t) è detto gaussiano se per qualsiasi insieme di tempi t n le variabili casuali x(t n) obbediscono a una distribuzione normale multivariata. La densità di probabilità dei valori istantanei x(t) di un processo gaussiano ergodico è data da:

letteratura

1. Baskakov SI Circuiti e segnali di ingegneria radio: libro di testo per le università. - M.: Scuola Superiore, 1988.- 448 p.

2. Bendat J., Pearsol A. Analisi applicata di dati casuali. – M.: Mir, 1989. – 540 pag.

25. Sergienko AB Elaborazione del segnale digitale. - San Pietroburgo: Pietro, 2003. - 608 p.

26. Metodi probabilistici nella tecnologia informatica: libro di testo per le università. / A.V. Krainikov et al. - M.: Scuola superiore, 1986. - 312 p.

27. Gursky E.I. Teoria della probabilità con elementi di statistica matematica: libro di testo per le scuole superiori. - M.: Liceo, 1971. - 328 p.

28. Ignatov V.A. Teoria dell'informazione e trasmissione del segnale. - M.: Radio sovietica, 1979.

42. Yu.M. Yanevich. Problemi di ricezione dei segnali e determinazione dei loro parametri sullo sfondo del rumore: un corso di lezioni. / San Pietroburgo.

Informazioni su errori di battitura, errori e suggerimenti per le aggiunte: [email protetta]

Funzione di correlazione di un processo stazionario

funzione di correlazione il processo casuale è definito come l'aspettativa matematica del prodotto di due sezioni centrate del processo, prese nei momenti t 1 e t 2. In questo caso, l'aspettativa matematica viene calcolata utilizzando una densità di probabilità bidimensionale . Per un processo casuale stazionario, la densità di probabilità bidimensionale e, di conseguenza, la funzione di correlazione non dipendono t 1 e t 2 separatamente, ma solo dalla loro differenza = t 2 - t uno . In accordo con ciò, la funzione di correlazione del processo stazionario è determinata dall'espressione

(3.1)

dov'è l'aspettativa matematica di un processo stazionario; X 1 , X 2 - possibili valori del processo casuale, rispettivamente, in punti temporali t 1 , t 2 ; = t 2 – t 1 - intervallo di tempo tra le sezioni; - densità di probabilità bidimensionale di un processo stazionario. La seconda espressione per ottenuto aprendo le parentesi quadre della prima espressione e tenendo conto delle proprietà dell'aspettativa matematica.

La letteratura scientifica e tecnica utilizza anche una tale caratteristica di un processo casuale come funzione di covarianza K (t), che è intesa come l'aspettativa matematica del prodotto di due valori del processo, presi rispettivamente ai momenti t 1 e t 2:

(3.2)

quindi il rapporto è corretto

(3.3)

Se una , quindi i concetti e incontro. Se, inoltre, ha la proprietà ergodica, allora la funzione di correlazione può essere determinata da una lunga implementazione:

(3.4)

dove T- intervallo di osservazione di una singola realizzazione X(t) processi ; - stessa attuazione X(t) ritardato nel tempo.

La formula (3.4) può essere utilizzata come base per costruire uno schema a blocchi di un dispositivo che misura la funzione di correlazione, che è chiamata correlometro. La costruzione di un correlometro richiede un moltiplicatore, un dispositivo di ritardo variabile e un integratore (Figura 3.1). Questo dispositivo misura o se è zero o meno.

funzione di correlazione di un processo casuale stazionario, così come la funzione di correlazione di un processo casuale in generale, è una funzione reale dell'argomento. in cui caratterizza da due lati. In primo luogo, determina la potenza specifica media delle fluttuazioni. MA In secondo luogo, permette di giudicare il grado di connessione lineare tra due sezioni di un processo casuale, separate tra loro da un intervallo di tempo. Dimensione coincide con la dimensione del quadrato del processo casuale. Considera le proprietà della funzione di correlazione.

1. La funzione di correlazione a = 0 è uguale alla varianza del processo

(3.5)

Questa proprietà segue direttamente dalla formula (3.1) se poniamo = 0 in essa.

2. La funzione di correlazione del processo stazionario è una funzione pari dell'argomento:

(3.6)

Questa proprietà deriva direttamente dalla definizione di un processo stazionario, per il quale non sono i valori dei momenti stessi ad essere importanti, e t2, e la distanza nel tempo di una sezione da un'altra |t 2 -t 1 |.

3. Funzione di correlazione per qualsiasi t non può superare il suo valore = 0:

(3.7)

Questa proprietà significa fisicamente che il massimo grado di connessione lineare è previsto tra la stessa sezione, cioè a =0. Vero, se si tratta di un processo periodico, allora potrebbe essercene un altro, commisurato al periodo del processo, per il quale si realizza una rigida relazione funzionale tra e . Pertanto, nel caso generale, la formula (3.7) può contenere non solo la disuguaglianza, ma anche l'uguaglianza.

4. La funzione di correlazione può essere rappresentata come

(3.8)

dove r(t) è una funzione di correlazione normalizzata che ha il significato di un coefficiente di correlazione dipendente e contenuto al suo interno

. (3.9)

Caratterizza solo il grado di connessione lineare tra le sezioni del processo casuale, preso attraverso l'intervallo. A sua volta, la dispersione del processo caratterizza solo la potenza specifica media delle fluttuazioni del processo casuale.

06 Conferenza.doc

Lezione 6. Funzioni di correlazione dei processi casuali
Piano.

1. Il concetto di funzione di correlazione di un processo casuale.

2. Stazionarietà in senso stretto e in senso lato.

3. Il valore medio sul set.

4. Valore medio nel tempo.

5. Processi casuali ergonomici.
L'aspettativa e la varianza matematiche sono caratteristiche importanti di un processo casuale, ma non danno un'idea sufficiente di quale carattere avranno le singole implementazioni di un processo casuale. Questo è chiaramente visibile dalla Fig. 6.1, che mostra l'implementazione di due processi casuali, completamente diversi nella loro struttura, sebbene abbiano gli stessi valori di aspettativa matematica e varianza. Le linee tratteggiate in Fig. 6.1. valori mostrati 3 X (t) per processi casuali.
Il processo rappresentato in fig. 6.1, un, da una sezione all'altra procede in modo relativamente fluido e il processo in Fig. 6.1, b obla-dà una forte variabilità da sezione a sezione. Pertanto, la relazione statistica tra le sezioni d'urto nel primo caso è maggiore che nel secondo, ma ciò non può essere stabilito né per aspettativa matematica né per dispersione.

Per caratterizzare in una certa misura la struttura interna di un processo casuale, cioè per tenere conto della relazione tra i valori di un processo casuale in momenti diversi, o, in altre parole, per tener conto del grado di variabilità di un processo casuale, è necessario introdurre il concetto di funzione di correlazione (autocorrelazione) di un processo casuale.

^ La funzione di correlazione di un processo casuale X(t)chiama una funzione non casuale di due argomentiR X (t 1 , t 2), che per ogni coppia di valori arbitrariamente scelti degli argomenti (punti temporali) t 1 et 2 è uguale all'aspettativa del prodotto di due variabili casualiX(t 1 ) eX(t 2 ) delle sezioni corrispondenti del processo casuale:

Dove 2 (X 1 , t 1 ; X 2 , t 2) -densità di probabilità bidimensionale.

Spesso usano un'espressione diversa per la funzione di correlazione, che non è scritta per il processo casuale stesso. X(t), e per la componente casuale centrata X(t). La funzione di correlazione in questo caso è detta centrata ed è determinata dalla relazione

(6.2)

Sono suddivisi in vari processi casuali, a seconda di come cambiano le loro caratteristiche statistiche nel tempo stazionario e non stazionario. Distinguere tra stazionarietà in senso stretto e stazionarietà in senso lato.

^ Stazionario in senso stretto chiamato processo casuale X(t), se n-funzioni di distribuzione dimensionale e densità di probabilità per qualsiasi P non dipendono dalla posizione dell'origine del tempo t, cioè.

Ciò significa che due processi X(t) e X(t+), hanno le stesse proprietà statistiche per qualsiasi , cioè le caratteristiche statistiche di un processo casuale stazionario sono invariate nel tempo. Un processo casuale stazionario è una sorta di analogo di un processo in stato stazionario nei sistemi deterministici.

^ Stazionario in senso lato chiamato processo casuale X(t), la cui aspettativa matematica è costante:

E la funzione di correlazione dipende solo da una variabile: la differenza degli argomenti =t 2 -t 1:

(6.5)

Il concetto di processo casuale, stazionario in senso lato. viene introdotto quando solo l'aspettativa matematica e la funzione di correlazione vengono utilizzate come caratteristiche statistiche di un processo casuale. Viene chiamata parte della teoria dei processi casuali, che descrive le proprietà di un processo casuale attraverso la sua funzione di aspettativa matematica e correlazione teoria delle correlazioni.

Per un processo casuale con una legge di distribuzione normale, l'aspettativa matematica e la funzione di correlazione lo determinano completamente n-densità di probabilità dimensionale. Ecco perchè per i normali processi casuali, i concetti di stazionarietà in senso ampio e stretto coincidono.

La teoria dei processi stazionari è stata sviluppata in modo più completo e rende relativamente facile eseguire calcoli per molti casi pratici. Pertanto, è talvolta opportuno fare l'ipotesi di stazionarietà anche per quei casi in cui il processo random, sebbene non stazionario, non ha il tempo di modificare le caratteristiche statistiche dei segnali nell'intervallo di tempo considerato di funzionamento del sistema. In quanto segue, se non diversamente indicato, considereremo processi casuali stazionari in senso lato.

Nella teoria dei processi casuali vengono utilizzati due concetti di valori medi. La prima nozione di media è impostare la media(o aspettativa matematica), che è determinata sulla base dell'osservazione sull'insieme delle realizzazioni di un processo casuale allo stesso tempo. Il valore medio sull'insieme è solitamente indicato da una linea ondulata sopra l'espressione che descrive la funzione casuale:

In generale, il valore medio sull'insieme è una funzione del tempo.

Un'altra nozione di media è media del tempo, che è determinato sulla base dell'osservazione di un'implementazione separata di un processo casuale X{ f) per parecchio tempo T. Il valore medio nel tempo è indicato da una linea retta sopra la corrispondente espressione della funzione casuale ed è determinato dalla formula

(6.7)

Se esiste questo limite.

Il valore medio nel tempo è generalmente diverso per le singole implementazioni dell'insieme che determinano il processo casuale.

In generale, per lo stesso processo casuale, la media impostata e la media temporale sono diverse, ma per i cosiddetti processi casuali stazionari ergodici, il valore medio sull'insieme coincide con il valore medio nel tempo:

(6.8)

L'uguaglianza (6.8) segue da teorema ergodico, in cui, per alcuni processi aleatori stazionari, è dimostrato che qualsiasi caratteristica statistica ottenuta facendo la media su un insieme, con una probabilità arbitrariamente vicina all'unità, coincide con una caratteristica mediata nel tempo. Il teorema ergodico non è stato dimostrato per tutti i processi stazionari, quindi, nei casi in cui non è stato ancora dimostrato, si parla di ipotesi ergodica.

Va notato che non tutti i processi stazionari sono ergodici.

Sulla fig. 6.2. illustrato, ad esempio, è il grafico di un processo stazionario non ergodico per il quale l'uguaglianza (6.8) non vale. Lo stesso processo casuale nel caso generale può essere ergodico rispetto ad alcune caratteristiche statistiche e non ergodico rispetto ad altri. In quanto segue, assumeremo che le condizioni di ergodicità per l'aspettativa matematica e la funzione di correlazione siano soddisfatte.

Il significato fisico del teorema (o ipotesi) ergodico è profondo e di grande importanza pratica. Per determinare le proprietà statistiche dei processi stazionari ergodici, se è difficile osservare contemporaneamente molti sistemi simili in un momento scelto arbitrariamente, ad esempio, se esiste un prototipo, può essere sostituito dall'osservazione a lungo termine di un sistema. A rigor di termini, questo fatto è alla base della determinazione sperimentale della funzione di correlazione di un processo casuale stazionario utilizzando una realizzazione. Al contrario, se esiste un grande lotto di prodotti di massa per studi simili, è possibile effettuare il monitoraggio simultaneo di tutti i campioni del lotto o del loro campione sufficientemente rappresentativo.

Come si può vedere dalla (6.5), la funzione di correlazione è la media sull'insieme. In accordo con il teorema ergodico per un processo casuale stazionario, la funzione di correlazione può essere definita come la media temporale del prodotto X(t) e X(t+), cioè.

(6.9)

Dove X(t)- qualsiasi implementazione di un processo casuale.

Funzione di correlazione centrata di un processo casuale stazionario ergodico

(6.10

Tra funzioni di correlazione R X () e R 0 X () esiste la seguente relazione:

R X ()=R X 0 ()+(x -) 2 , (6.11)

Sulla base della proprietà dell'ergodicità, si può variare D X [centimetro. (19)] da definire come la media temporale del quadrato del processo casuale centrato, cioè

(6.12)

Confrontando le espressioni (6.10) e (6.11), si può vederlo la dispersione di un processo casuale stazionario è uguale al valore iniziale della funzione di correlazione centrata:

(6.13)

Tenendo conto della (6.12), possiamo stabilire una connessione tra la varianza e la funzione di correlazione R X (), cioè.

Da (6.14) e (6.15) si può vedere che la varianza di un processo casuale stazionario è costante, e quindi anche la deviazione standard è costante:

Proprietà statistiche della connessione di due processi stocastici X(t) e G(t) può essere caratterizzato funzione di correlazione incrociataR xg (t 1 , t 2), che per ogni coppia di valori arbitrariamente scelti degli argomenti t 1 , t 2 uguale

Secondo il teorema ergodico, invece della (6.18) possiamo scrivere

(6.19)

Dove X(t) e g(t) - qualsiasi implementazione di processi casuali stazionari X(t) e G(t) rispettivamente.

Funzione di correlazione incrociata R xg ( caratterizza la relazione statistica reciproca di due processi casuali X(t) e G(t) in momenti diversi, separati tra loro da un intervallo di tempo t. Il valore R xg(0) caratterizza questa relazione allo stesso tempo.

Dalla (6.19) segue che

(6.20)

Se processi casuali X(t) e G(t) sono statisticamente correlati tra loro e hanno valori medi pari a zero, quindi la loro funzione di correlazione reciproca per tutti m è zero. Tuttavia, la conclusione inversa che se la funzione di correlazione reciproca è uguale a zero, allora i processi sono indipendenti, può essere fatta solo in casi individuali (in particolare, per processi con una legge di distribuzione normale), mentre la legge inversa non ha forza generale .

Funzione di correlazione centrata R° X ( per le funzioni temporali non casuali è uguale a zero. Tuttavia, la funzione di correlazione R X ( può essere calcolato anche per funzioni non casuali (regolari). Si noti, tuttavia, che quando si parla di funzione di correlazione di una funzione regolare X(t), quindi con questo si intende semplicemente il risultato di un'applicazione formale a una funzione regolare X(t) operazione espressa dall'integrale (6.13).

1. Aspettativa matematica di un processo non casuale j( t) è uguale al processo più non casuale:

Segue dall'espressione (1.9) che qualsiasi funzione centrata non casuale è uguale a zero, poiché

2. Se variabile casuale Y(t) è una combinazione lineare di funzioni X i(t):

, (1.11)

dove sono funzioni non casuali t, poi

. (1.12)

L'ultima relazione deriva dal fatto che l'operazione di determinazione dell'aspettativa matematica è lineare.

3. La funzione di correlazione di un processo non casuale è identica a zero. Questa proprietà segue direttamente da (1.10).

4. La funzione di correlazione non cambia dall'aggiunta di qualsiasi funzione non casuale alla funzione casuale. Infatti, se , poi

Ne consegue che le funzioni di correlazione dei processi casuali e

Incontro. Pertanto, quando si determinano le funzioni di correlazione, si può sempre presumere che il processo in esame sia centrato.

5. Se un processo casuale Y(t) è una combinazione lineare di processi casuali X i(t):

,

dove sono le funzioni non casuali, allora

, (1.14)

dove è la funzione di correlazione del processo X i(t), è la funzione di correlazione reciproca dei processi e .

Veramente:

, =

.

Se i processi casuali non sono correlati a coppie, allora

. (1.15)

Assumendo in (1.14) , otteniamo un'espressione per la dispersione di una combinazione lineare di processi casuali:

Nel caso speciale di processi casuali non correlati

. (1.17)

6. La funzione di correlazione è una funzione definita non negativa:

. (1.18)

Infatti, rappresentiamo la (1.18) nella forma:

.

Poiché l'integrale è il limite della somma integrale, l'ultima espressione può essere rappresentata come il limite della somma delle aspettative matematiche, che, a sua volta, è uguale all'aspettativa matematica della somma. Pertanto, le operazioni di integrazione e aspettativa matematica possono essere scambiate. Di conseguenza, otteniamo:

7. La funzione di correlazione è simmetrica rispetto ai suoi argomenti. La funzione di correlazione incrociata non ha questa proprietà.

La simmetria della funzione di correlazione deriva direttamente dalla sua definizione:

Allo stesso tempo, per la funzione di correlazione incrociata abbiamo:

La funzione di correlazione incrociata soddisfa la seguente relazione:

8. La funzione di correlazione e la funzione di correlazione incrociata soddisfano le seguenti disuguaglianze:

Spesso, invece delle funzioni intrinseche e di correlazione incrociata, si considerano funzioni di correlazione normalizzate :



, (1.23)

. (1.24)

Sulla base di (1.21) e (1.22), le seguenti disuguaglianze valgono per le funzioni di correlazione normalizzate:

. (1.25)

Esempio Il processo casuale dato è la somma di processi casuali e non casuali: . Chiesto , definire

Utilizzando (1.9) e (1.12), avremo:

Secondo (1.15)

e, infine, in conformità con (1.17) .

CLASSIFICAZIONE DEI PROCESSI RANDOM

Processi stazionari

Viene chiamato il processo casuale stazionario , se la sua legge di distribuzione multidimensionale dipende solo dalla disposizione reciproca dei punti temporali t 1 , t 2 , . . .t n, cioè. non cambia con uno spostamento simultaneo di questi momenti degli stessi valori:

Se l'espressione (2.1) è soddisfatta per qualsiasi n, quindi viene chiamato questo processo stazionario in senso stretto.

In n=1 l'espressione (2.1) assume la forma:

E a , 2.2)

quelli. la legge di distribuzione unidimensionale del processo stazionario non dipende dal tempo. Di conseguenza, le caratteristiche di un processo casuale non dipenderanno dal tempo, a seconda della legge di distribuzione unidimensionale: l'aspettativa matematica e la varianza di un processo casuale:

, . (2.3)

In n=2 l'espressione (2.1) è riscritta come segue:

Pertanto, la funzione di correlazione del processo stazionario, determinata dalla legge di distribuzione bidimensionale, dipenderà solo dall'intervallo di tempo t

Secondo la definizione di A.Ya. Khinchin, il processo è stazionario in senso lato se la condizione di stazionarietà (2.1) è soddisfatta solo per n= 1 e 2.

Pertanto, le condizioni per la stazionarietà del processo in senso lato possono essere formulate come:

l'aspettativa e la varianza di un tale processo non dipendono dal tempo - e D X;

· la funzione di correlazione del processo dipende solo dall'intervallo di tempo tra le sezioni - .

KXX(t) è una funzione pari del suo argomento:



Va ricordato che la funzione di correlazione incrociata è una funzione dispari:

, (). (2.7)

Processi normali

Il processo casuale è normale , se una qualsiasi legge multidimensionale è normale:

× ), (2.8)

dove (2.9)

Autorelativo e funzioni di correlazione reciproca e due valori di una variabile casuale Y-y 1 e y 2. Si può vedere dalla figura che l'aspettativa matematica di realizzazione a Y=y 1 è uguale y 1, mentre Y=y 2 – y 2 .



Fig.2.1. Un esempio di processo stazionario non ergodico

Pertanto, è impossibile giudicare le caratteristiche del processo nel suo insieme da una singola realizzazione di un processo stazionario ma non ergonomico.

Processi di Markov

Se le proprietà probabilistiche di un processo casuale sono completamente determinate dal valore della sua ordinata in un dato momento e non dipendono dai valori dell'ordinata del processo in momenti precedenti, allora un tale processo casuale è chiamato Markovsky. A volte questi processi sono chiamati processi. senza effetto collaterale.

L'oggetto dell'analisi di correlazione è lo studio delle dipendenze probabilistiche tra variabili casuali.

I valori sono indipendenti se la legge di distribuzione di ciascuno di essi non dipende dal valore che l'altro ha assunto. Tali grandezze possono essere considerate, ad esempio, il limite di resistenza del materiale del pezzo e il fattore teorico di concentrazione delle sollecitazioni nella sezione pericolosa del pezzo.

Le quantità sono dipendenze probabilistiche o stocastiche associate se il valore noto di una quantità non corrisponde a un valore specifico, ma alla legge di distribuzione di un'altra. Le dipendenze probabilistiche hanno luogo quando le quantità dipendono non solo da fattori comuni, ma anche da vari fattori casuali.

Informazioni complete sulla relazione probabilistica di due variabili casuali sono rappresentate dalla densità di distribuzione congiunta f(x, y) o densità di distribuzione condizionale f(x/y), f(y/x), cioè le densità di distribuzione delle variabili casuali X e Y quando si impostano valori specifici a e X rispettivamente.

La densità articolare e le densità di distribuzione condizionale sono correlate dalle seguenti relazioni:

Le principali caratteristiche delle dipendenze probabilistiche sono il momento di correlazione e il coefficiente di correlazione.

Il momento di correlazione di due variabili casuali X e Y è l'aspettativa matematica del prodotto di variabili casuali centrate:

per discreto

per continuo

dove m X e m y– aspettative matematiche dei valori X e Y; p ij– probabilità dei singoli valori x io e a io.

Il momento di correlazione caratterizza contemporaneamente la connessione tra variabili casuali e la loro dispersione. Per la sua dimensione, corrisponde alla varianza per una variabile casuale indipendente. Per evidenziare le caratteristiche della relazione tra variabili casuali, si passa al coefficiente di correlazione caratterizza il grado di vicinanza della dipendenza e possono variare entro -1 ≤ ρ ≤ 1.

;

dove Sx e Si sono le deviazioni standard di variabili casuali.

I valori ρ = 1 e ρ = –1 indica una dipendenza funzionale, il valore ρ = 0 indica variabili casuali non correlate

La correlazione è considerata sia tra quantità che tra eventi, così come correlazione multipla, che caratterizza la relazione tra molte quantità ed eventi.

Con un'analisi delle relazioni più probabilistica, vengono determinate le aspettative matematiche condizionali delle variabili casuali mio y / x e m x / y, cioè le aspettative matematiche delle variabili casuali Y e X per determinati valori X e a rispettivamente.

Dipendenza dell'aspettativa matematica condizionata t a / x da Xè chiamata regressione Y su X. Dipendenza t x / a da a corrisponde alla regressione X di Y.

Per quantità normalmente distribuite Y e l'equazione di regressione X è:

per la regressione Y di X

per la regressione X vs. Y

L'area di applicazione più importante dell'analisi di correlazione ai problemi di affidabilità è l'elaborazione e la generalizzazione dei risultati delle osservazioni operative. I risultati dell'osservazione delle variabili casuali Y e X rappresentano valori accoppiati y io, x io io esima osservazione, dove io=1, 2 . . . P; Pè il numero di osservazioni.

Stima r coefficiente di correlazione ρ determinato dalla formula

dove , – stime delle aspettative matematiche tx e Quello rispettivamente, ovvero le medie di P valori di osservazione

s x , s y- stime delle deviazioni standard S x e Si rispettivamente:


Indicando la stima delle aspettative matematiche condizionali t y / x, t x / a rispettivamente attraverso e , equazioni di regressione empirica In Su X e X Su Y sono scritti nella seguente forma:

Di norma, solo una delle regressioni ha valore pratico.

Con il coefficiente di correlazione r=1 le equazioni di regressione sono identiche.

Domanda n. 63 Stima dei parametri statistici utilizzando gli intervalli di confidenza

Se il valore del parametro testato viene valutato di un numero, viene chiamato valore in punti. Ma nella maggior parte dei problemi, è necessario non solo trovare il valore numerico più affidabile, ma anche valutare il grado di affidabilità.

Bisogno di sapere: quale errore causa la sostituzione di un parametro vero un la sua stima puntuale; con quale grado di confidenza possiamo aspettarci che questi errori non superino i limiti predeterminati noti.

A tale scopo, nella statistica matematica vengono utilizzati i cosiddetti intervalli di confidenza e probabilità di confidenza.

Se per il parametro un derivato da una stima imparziale dell'esperienza , e il compito è quello di stimare il possibile errore, allora è necessario assegnare una probabilità β sufficientemente grande (ad esempio, β = 0,9; 0,95; 0,99, ecc.), tale che un evento con probabilità β possa essere considerato praticamente affidabile .

In questo caso, si può trovare un valore di ε per cui P(| - un| < ε) = β.

Riso. 3.1.1 Schema dell'intervallo di confidenza.

In questo caso, la gamma di errori praticamente possibili che si verificano durante la sostituzione un on non supererà ± ε. Errori grandi in valore assoluto appariranno solo con una piccola probabilità α = 1 – β. L'evento è opposto e sconosciuto con probabilità che β cada nell'intervallo io= ( - ε; + ε). La probabilità β può essere interpretata come la probabilità che un intervallo casuale io tratterà il punto un(Fig. 3.1.1).

La probabilità β è solitamente chiamata probabilità di confidenza e intervallo ioè chiamato intervallo di confidenza. Sulla fig. 3.1.1 considera un intervallo di confidenza simmetrico. In generale, questo requisito non è obbligatorio.

Intervallo di confidenza dei valori dei parametri un può essere considerato come un intervallo di valori un, coerenti con i dati sperimentali e non contraddittori.

Scegliendo una probabilità di confidenza β vicina a uno, vogliamo essere sicuri che un evento con tale probabilità si verificherà quando un certo insieme di condizioni è soddisfatto.

Ciò equivale al fatto che non accadrà l'evento opposto, che trascuriamo la probabilità dell'evento, pari a α = 1 - β. Si precisa che l'assegnazione del limite a a probabilità trascurabili non è un problema matematico. Lo scopo di tale confine è al di fuori della teoria della probabilità ed è determinato in ciascuna area dal grado di responsabilità e dalla natura dei compiti da risolvere.

Ma l'instaurazione di un margine di sicurezza troppo ampio porta a un ingiustificato e grande aumento dei costi di costruzione.


65 Domanda №65 Processo casuale stazionario.

Una funzione casuale stazionaria è una funzione casuale, le cui caratteristiche probabilistiche non dipendono dall'argomento. Le funzioni casuali stazionarie descrivono processi stazionari di funzionamento della macchina, funzioni non stazionarie - processi non stazionari, in particolare quelli transitori: avvio, arresto, cambio di modalità. L'argomento è il tempo.

Condizioni di stazionarietà per funzioni casuali:

1. costanza dell'aspettativa matematica;

2. costanza di dispersione;

3. La funzione di correlazione deve dipendere solo dalla differenza degli argomenti, ma non dai loro valori.

Esempi di processi casuali stazionari includono: oscillazioni di un aeromobile in uno stato stazionario di volo livellato; rumore casuale nella radio, ecc.

Ogni processo stazionario può essere considerato come un continuo nel tempo indefinitamente; nello studio, qualsiasi momento può essere scelto come punto di partenza. Quando si studia un processo casuale stazionario, le stesse caratteristiche dovrebbero essere ottenute in qualsiasi intervallo di tempo.

La funzione di correlazione dei processi casuali stazionari è una funzione pari.

Per i processi casuali stazionari, l'analisi spettrale è efficace, ad es. considerazione sotto forma di spettri di armoniche o serie di Fourier. Inoltre, viene introdotta una funzione della densità spettrale di una funzione casuale, che caratterizza la distribuzione delle dispersioni sulle frequenze dello spettro.

Dispersione:

Funzione di correlazione:

K x (τ) =

Densità spettrale:

S x () =

I processi stazionari possono essere ergodici e non ergodici. Ergodico - se il valore medio di una funzione casuale stazionaria su un periodo sufficientemente lungo è approssimativamente uguale al valore medio per le singole implementazioni. Per loro, le caratteristiche sono definite come la media nel tempo.

Domanda n. 66 Indicatori di affidabilità degli oggetti tecnici: singoli, complessi, calcolati, sperimentali, operativi, estrapolati.

Indicatore di affidabilità: una caratteristica quantitativa di una o più proprietà che costituiscono l'affidabilità di un oggetto.

Un singolo indicatore di affidabilità è un indicatore di affidabilità che caratterizza una delle proprietà che compongono l'affidabilità di un oggetto.

Un complesso indicatore di affidabilità è un indicatore di affidabilità che caratterizza diverse proprietà che costituiscono l'affidabilità di un oggetto.

L'indicatore di affidabilità calcolato è un indicatore di affidabilità, i cui valori sono determinati dal metodo di calcolo.

L'indicatore di affidabilità sperimentale è un indicatore di affidabilità, la cui valutazione puntuale o intervallo è determinata in base ai dati del test.

L'indicatore di affidabilità operativa è un indicatore di affidabilità, la cui valutazione puntuale o intervallo è determinata in base ai dati operativi.

Indicatore di affidabilità estrapolato: un indicatore di affidabilità, la cui valutazione puntuale o intervallo è determinata sulla base dei risultati di calcoli, test e (o) dati operativi estrapolando a una diversa durata dell'operazione e altre condizioni operative.



Domanda n. 68 Indicatori della durabilità di oggetti tecnici e veicoli.

La risorsa gamma-percentuale è il tempo di funzionamento totale durante il quale l'oggetto non raggiunge lo stato limite con una probabilità g, espressa in percentuale.

La risorsa media è l'aspettativa matematica della risorsa.

La durata di servizio percentuale gamma è la durata del calendario di funzionamento durante la quale l'oggetto non raggiunge lo stato limite con una probabilità g, espressa in percentuale

La vita di servizio media è l'aspettativa matematica della vita di servizio.

Nota. Quando si utilizzano indicatori di durabilità, è necessario indicare l'origine e il tipo di azioni dopo l'inizio dello stato limite (ad esempio, la risorsa percentuale gamma dalla seconda revisione alla cancellazione). Gli indicatori di durabilità, conteggiati dalla messa in servizio dell'impianto alla disattivazione finale, sono chiamati risorsa piena percentuale gamma (vita di servizio), risorsa piena media (vita di servizio)


71 71 Compiti e metodi per prevedere l'affidabilità delle auto

Ci sono tre fasi della previsione: retrospezione, diagnostica e previsione. Nella prima fase viene stabilita la dinamica delle modifiche dei parametri della macchina in passato, nella seconda fase viene determinata la condizione tecnica degli elementi nel presente, nella terza fase la modifica dei parametri della lo stato degli elementi nel futuro è previsto.

I compiti principali della previsione dell'affidabilità delle auto possono essere formulati come segue:

a) Prevedere i modelli dei cambiamenti nell'affidabilità delle auto in relazione alle prospettive di sviluppo della produzione, all'introduzione di nuovi materiali e all'aumento della resistenza delle parti.

b) Valutazione dell'affidabilità delle vetture progettate prima della loro fabbricazione. Questo problema sorge in fase di progettazione.

c) Prevedere l'affidabilità di una particolare vettura (o di un suo componente, unità) in base ai risultati della modifica dei suoi parametri.

d) Prevedere l'affidabilità di un determinato insieme di veicoli sulla base dei risultati di uno studio su un numero limitato di prototipi. Problemi di questo tipo devono essere affrontati in fase di produzione.

e) Previsione dell'affidabilità dei veicoli in condizioni operative insolite (ad esempio, quando la temperatura e l'umidità dell'ambiente sono superiori alle condizioni stradali difficili consentite e così via).

I metodi per prevedere l'affidabilità delle auto vengono scelti tenendo conto dei compiti di previsione, della quantità e qualità delle informazioni iniziali, della natura del processo reale di modifica dell'indicatore di affidabilità (parametro previsto).

I moderni metodi di previsione possono essere suddivisi in tre gruppi principali: a) metodi di valutazione degli esperti; b) metodi di modellizzazione, inclusi modelli fisici, fisici, matematici e informativi; c) metodi statistici.

I metodi di previsione basati su valutazioni di esperti consistono nella generalizzazione, elaborazione statistica e analisi delle opinioni di specialisti in merito alle prospettive di sviluppo di tale area.

I metodi di modellazione si basano sui principi di base della teoria della somiglianza. Sulla base della somiglianza degli indicatori di modifica A, il cui livello di affidabilità è stato studiato in precedenza, e di alcune proprietà della modifica B dello stesso veicolo o del suo assemblaggio, gli indicatori di affidabilità B sono previsti per un certo periodo di tempo.

I metodi di previsione statistica si basano sull'estrapolazione e sull'interpolazione di parametri di affidabilità previsti ottenuti da studi preliminari. Il metodo si basa sui modelli di cambiamento dei parametri di affidabilità dell'auto nel tempo

Domanda №74 Metodi matematici di previsione. Costruzione di modelli matematici di affidabilità.

Nella previsione dell'affidabilità della trasmissione, è possibile utilizzare i seguenti modelli: 1) l'anello “più debole”; 2) risorse dipendenti degli elementi delle parti; 3) risorse indipendenti di elementi di dettaglio. La risorsa dell'i-esimo elemento è determinata dalla relazione:

x io = R io /ri io ,

dove R i è il valore quantitativo del criterio dell'i-esimo elemento, al quale si verifica il suo fallimento;

r i è il valore medio dell'incremento nella valutazione quantitativa del criterio dell'i-esimo elemento per unità di risorsa.

I valori di R i e r i possono essere casuali con determinate leggi di distribuzione o costanti.

Per l'opzione quando R i sono costanti e r i sono variabili e hanno una relazione funzionale con la stessa variabile casuale, si consideri la situazione in cui si osserva una relazione funzionale lineare tra i valori di r i, che porta al collegamento "più debole" modello. In questo caso, l'affidabilità del sistema corrisponde all'affidabilità dell'anello "più debole".

Il modello di risorsa dipendente viene implementato sotto carico secondo lo schema, quando vi è una dispersione delle condizioni operative per macchine di massa o incertezza nelle condizioni operative di macchine uniche. Il modello delle risorse indipendenti si svolge sotto carico secondo lo schema con specifiche condizioni operative.

Un'espressione per calcolare l'affidabilità di un sistema con elementi di risorse indipendenti.

Domanda n. 79 Caricamento schematico del sistema, parti ed elementi (sull'esempio di una trasmissione).

Per trasmissione si intende l'azionamento della macchina nel suo insieme o una sua parte separata, piuttosto complessa, che, per un motivo o per l'altro, deve essere distinta. Il carico di trasmissione è determinato dai componenti di potenza e velocità. La componente di potenza è caratterizzata dalla coppia, e la componente di velocità è caratterizzata dalla velocità angolare di rotazione, che determina il numero di cicli di carico degli organi di trasmissione o la velocità di scorrimento delle superfici di contatto.

A seconda del tipo di pezzo, la schematizzazione della coppia per ottenere il carico del pezzo può essere diversa. Ad esempio, il carico di ingranaggi e cuscinetti è determinato dal valore attuale dei momenti e il carico di torsione degli alberi è determinato dall'ampiezza della sua ampiezza.

In base alle condizioni operative, il carico di trasmissione può essere rappresentato nella forma dei seguenti diagrammi.

1. Ciascuna modalità corrisponde a una curva di distribuzione unidimensionale.

2. Per ciascuna modalità, abbiamo n curve di distribuzione unidimensionali (n è il numero di condizioni operative della macchina). La probabilità di sfruttamento in ciascuna delle condizioni è specifica.

3. Per ciascuna modalità, abbiamo una distribuzione bidimensionale dei valori di coppia corrente e media.

Lo schema 1 può essere utilizzato per macchine prodotte in serie esattamente nelle stesse condizioni operative o per una macchina unica in condizioni operative specifiche.

Lo schema 2 non differisce qualitativamente dallo schema 1, tuttavia, in alcuni casi è opportuno calcolare che ogni condizione operativa corrisponda ad una curva di carico.

Lo schema 3 può caratterizzare il carico della trasmissione di una macchina unica, le cui condizioni operative specifiche sono sconosciute, ma è nota una serie di condizioni.

82 Domanda n. 82 Un approccio sistematico alla previsione della risorsa delle parti

L'auto dovrebbe essere considerata come un sistema complesso, formato dal punto di vista dell'affidabilità delle sue unità, parti, elementi collegati in serie.

Risorsa articolo:

T io = R io /ri io ,

dove R i è il valore quantitativo del criterio dello stato limite dell'i-esimo elemento, al quale si verifica il suo cedimento;

r i - il valore medio dell'incremento della valutazione quantitativa del criterio

stato limite dell'i-esimo elemento per unità di risorsa.

Ri e r i possono essere casuali o costanti e possibili

le seguenti opzioni:

1. R i - casuale, r i - casuale;

2. R i - casuale, r i - costante;

3. R ​​​​i - costante, r i - casuale;

4. R i - costanti, r i - costanti.

Per le prime tre opzioni, consideriamo R i variabili casuali indipendenti.

1.a) r i - indipendente

L'affidabilità del sistema è considerata la moltiplicazione del WBR

b) r i - casuale e relativo da probabilità

f (r io / r j) = f (r io , r j)/ f (r j);

f (r j / r io) = f (r io , r j)/ f (r io).

Se r i e r j dipendono l'uno dall'altro, anche le risorse dipenderanno l'una dall'altra.

tra loro e per il calcolo si utilizza il modello della dipendenza delle risorse degli elementi. Perché Poiché la relazione è probabilistica, viene applicato il metodo delle funzioni condizionali.

c) r i - random e funzionalmente correlati.

In questo caso, i valori liberi dipendono l'uno dall'altro e anche le risorse dipendono l'una dall'altra. Solo in virtù della dipendenza funzionale la connessione sarà più forte che in altri casi.

2. modello di elementi di risorsa indipendenti.

Il WBF del sistema è uguale alla somma del WBF di tutti gli elementi.

3. Sono possibili gli stessi casi di cui al punto 1, solo nei casi b) ec) si avrà un aumento delle risorse dipendenti per la costanza di R i . Nel caso c) r i - collegamento funzionale,

una situazione è possibile quando viene applicato il modello di collegamento "più debole".

R 1 ,R 2 -costante;

r 1 ,r 2 - casuale;

r 1 \u003d 1,5 ∙ r 2;

R 1 \u003d T ∙ r 1;

R 2 \u003d T ∙ r 2;

Se, per gli altri due valori specifici di r 1 , r 2 ,

lo stesso rapporto per la risorsa T 1 > T 2, quindi l'elemento 2 sarà il "più debole"

collegamento, cioè determina l'affidabilità di questo sistema.

Applicazione del modello dell'anello più debole:

Se è presente un elemento nel sistema il cui criterio R è significativamente inferiore a questo criterio per tutti gli altri elementi e tutti gli elementi vengono caricati approssimativamente allo stesso modo;

Se il criterio R per tutti gli elementi è approssimativamente lo stesso e il carico di un elemento è significativamente superiore a quello di tutti gli altri elementi.

Domanda n. 83 Determinazione della risorsa delle parti (alberi, o ingranaggi, o cuscinetti dei supporti delle unità di trasmissione) secondo condizioni di carico sperimentali.

Determinazione della risorsa dei cuscinetti volventi.

Per determinare la durata dei cuscinetti volventi delle unità di trasmissione e del carrello, è necessario eseguire diversi tipi di calcoli: per la resistenza statica, per la fatica da contatto, per l'usura.

Modello di fallimento:

dove f(R) è la densità di distribuzione delle risorse;

, - funzione di densità e distribuzione della risorsa per l'i-esimo tipo di processo distruttivo;

n è il numero di tipi di calcolo.

Il più utilizzato è il calcolo dei cuscinetti volventi per fatica da contatto:

R = a r C d mρ No 50 [β -1 ,

dove C d - capacità di carico dinamico;

n. 50 - il numero di cicli della curva di fatica, corrispondente ad una probabilità del 50% di non distruzione del cuscinetto sotto carico C d;

m ρ - esponente (palla = 3, rullo = 3,33);

La frequenza di caricamento del cuscinetto durante la guida nella k-esima marcia;

La densità di distribuzione del carico ridotto durante la marcia nella k-esima marcia nelle condizioni operative i-esima.

Le caratteristiche principali del calcolo.

1. Poiché per la curva di fatica dei cuscinetti si introduce C d al posto del limite di resistenza (corrisponde alla probabilità di non distruzione del 90% a 10 6 cicli), è necessario passare alla curva di fatica corrispondente al 50% non distruzione. Dato che la densità di distribuzione sotto carico sul cuscinetto C d obbedisce alla legge di Weibull, allora No 50 = 4,7 ∙ 10 6 cicli.

2. L'integrazione nella formula viene eseguita da zero e i parametri della curva di fatica - m ρ , No 50 e С d - non vengono corretti. Pertanto, nella condizione = const, la permutazione delle operazioni di somma e integrazione non influisce sul valore di R. Pertanto, i calcoli per il modo di carico generalizzato e per i modi di carico individuali sono identici. Se i valori differiscono in modo significativo, la risorsa media Rik viene calcolata separatamente per ciascuna trasmissione:

Rik = a r C d mρ No [β -1 ,

la formula può essere scritta:

R = [ -1 ,

P \u003d (K Fr ∙ K v ∙ F r + K Fa ∙ F a) ∙ K b ∙ K T ∙ K m;

dove F r , F a - carichi radiali e assiali;

Kv è il coefficiente di rotazione;

K b - coefficiente di rotazione;

K T - coefficiente di temperatura;

K m è il coefficiente del materiale;

K Fr , K Fa - coefficiente di carichi radiali e assiali.

4. Dipendenza tra la coppia sull'albero M e il carico ridotto sul cuscinetto:

P \u003d K P M \u003d (K Fr ∙ K v ∙ K R + K Fa ∙ K A) ∙ K b ∙ K T ∙ K m ∙ M;

dove K R è il fattore di conversione;

K R , K A sono i coefficienti per convertire il momento nei carichi radiali e assiali totali sul cuscinetto.

La frequenza di caricamento del cuscinetto corrisponde alla frequenza della sua rotazione.

1000 U Σα (2πr ω)

dove U Σα è il rapporto di trasmissione totale della trasmissione dall'albero alle ruote motrici del veicolo con la k-esima marcia inserita.

5. Il calcolo della densità di distribuzione della risorsa portante e dei suoi parametri viene effettuato con il metodo della simulazione statica.

Domanda n. 12 Consumo di materiale specifico delle automobili.

Quando si determina il consumo di materiale di un'auto, viene utilizzata la massa del telaio attrezzato. L'opportunità di utilizzare la massa del telaio per valutare il consumo di materiale di un'auto si spiega con l'ampio sviluppo della produzione di auto specializzate con carrozzerie di vario tipo o altre sovrastrutture di diverso peso montate sul telaio della stessa vettura base. Ecco perché nelle brochure aziendali e nei cataloghi per camion stranieri, di norma, vengono indicati i pesi del telaio attrezzato e non dell'auto. Allo stesso tempo, molte società straniere non includono la massa di attrezzature e attrezzature aggiuntive nella massa del telaio equipaggiato e il grado di rifornimento in standard diversi indica diverso.

Per una valutazione obiettiva del consumo di materiale di auto di vari modelli, devono essere portati in un'unica configurazione. In questo caso, la capacità di carico del telaio è definita come la differenza tra la massa strutturale totale del veicolo e il peso a vuoto del telaio.

L'indicatore principale del consumo di materiale di un'auto è la massa specifica del telaio:

m battiti \u003d (m sn.shas - m z.sn) / [(m k.a - m sn.shas) P];

dove m sn.shas è la massa del telaio attrezzato,

m z.sn - la massa di rifornimento e attrezzature,

m k.a - la massa strutturale totale dell'auto,

P - risorsa installata prima della revisione.

Per un veicolo trattore, viene presa in considerazione la massa totale dell'autotreno:

m batte \u003d (m sn.shas - m z.sn) / [(m k.a - m sn.shas) KR];

dove K è il fattore di correzione per gli indicatori per i veicoli a trattore progettati per funzionare come parte di un autotreno

K \u003d m a / m k.a;

dove m a è la massa totale dell'autotreno.


Informazioni simili.