Comporre la funzione di distribuzione di una variabile casuale. Funzione di distribuzione di probabilità di una variabile casuale e sue proprietà

  • 6. La somma degli eventi e le sue proprietà. Esempi.
  • 7. Teorema dell'addizione delle probabilità (con dimostrazione) e sue conseguenze. Esempi. 8 La produzione degli eventi e le sue proprietà.
  • 9. Probabilità condizionata. Eventi dipendenti e indipendenti. Teorema della moltiplicazione delle probabilità (con dimostrazione). Esempi
  • 11. Variabile casuale (definizione). Variabile casuale discreta e sua legge (serie) di distribuzione. La proprietà principale della legge di distribuzione. Esempi.
  • Determinazione dell'indipendenza delle variabili casuali.
  • 13.* Operazioni matematiche su variabili casuali discrete. Esempi.
  • 14. Funzione di distribuzione di una variabile casuale, sua definizione, proprietà e grafico. Esempi.
  • 15. Funzione di distribuzione di una variabile casuale discreta. Esempi.
  • 16. Teorema sull'esistenza di una variabile casuale con una data funzione di distribuzione. Variabile casuale continua. La probabilità di un singolo valore di una variabile casuale continua. Esempi.
  • 18. Aspettativa matematica di una variabile casuale e sue proprietà. Esempi
  • Proprietà dell'aspettativa matematica
  • Prova:
  • 19. Dispersione di una variabile casuale e sue proprietà. La deviazione standard di una variabile casuale. Esempi.
  • 1. Variabile casuale discreta, legge e funzione di distribuzione
  • 2. Caratteristiche numeriche delle variabili casuali discrete
  • 20. Legge di distribuzione di Bernoulli, sua definizione, proprietà ed esempi.
  • 21. Legge della distribuzione binomiale, sua definizione, proprietà ed esempi.
  • 22.Legge di distribuzione di Poisson, sua definizione, proprietà ed esempi.
  • 25. Legge di distribuzione normale (gaussiana).
  • 26. Legge standard della distribuzione normale. Funzione gaussiana, sue proprietà e grafico. Teorema sulla connessione tra la legge della densità della distribuzione normale e la funzione gaussiana.
  • 27. Funzione di Laplace, sue proprietà, grafico e significato geometrico. Teorema sulla connessione tra la funzione di distribuzione a legge normale e la funzione di Laplace. Esempi.
  • 28.* Proprietà di una variabile aleatoria distribuita secondo una legge normale. Regola dei tre sigma. Esempi.
  • 29.* Legge della distribuzione esponenziale, sua definizione, proprietà ed esempi.
  • 34. Lemma di Chebyshev. Esempi
  • 35. Disuguaglianza di Chebyshev. Esempi
  • 36. Il concetto di variabile casuale bidimensionale (n-dimensionale). Esempi. Distribuzioni unidimensionali dei suoi componenti. Distribuzioni condizionali.
  • 37. Covarianza e coefficiente di correlazione di variabili aleatorie. Relazione tra incorrelazione e indipendenza di variabili aleatorie
  • 14. Funzione di distribuzione di una variabile casuale, sua definizione, proprietà e grafico. Esempi.

    Un valore numerico che assume un valore particolare a seguito di un test eseguito in modo casuale è chiamato variabile casuale.

    Se x è una variabile casuale discreta che assume valori x1< x2 < … < xi < … с вероятностями p1 < p2 < … < pi < …, то таблица вида

    X io

    P io

    chiamato .

    Proprietà della funzione di distribuzione.

    Prova: Questa affermazione deriva dal fatto che la funzione di distribuzione è una probabilità, e come è noto.

    2. La funzione di distribuzione di una variabile casuale è una funzione non decrescente sull'intero asse numerico.

    Prova: Sia x 1 (3)

    Poiché P(x1X

    4 . P(x1X (4)

    Prova: questo segue direttamente dalla formula (3).

    Esempio: Trovare la probabilità che la variabile casuale X assuma un valore nell'intervallo".

    Le funzioni di distribuzione mista si verificano, in particolare, quando le osservazioni si fermano ad un certo punto. Ad esempio, quando si analizzano dati statistici ottenuti dall'utilizzo di piani di test di affidabilità che prevedono la cessazione dei test dopo un certo periodo. Oppure quando si analizzano dati su prodotti tecnici che necessitano di riparazioni in garanzia.

    Esempio 3. Supponiamo, ad esempio, che la durata di una lampadina elettrica sia una variabile casuale con una funzione di distribuzione F(t), e la prova viene effettuata fino al guasto della lampadina, se ciò avviene in meno di 100 ore dall'inizio della prova, oppure fino a quando t0= 100 ore. Permettere G(t)– funzione di distribuzione del tempo di funzionamento della lampadina in buono stato durante questo test. Poi

    Funzione G(t) ha un salto in un punto t0, poiché la variabile casuale corrispondente assume il valore t0 con probabilità 1- F(t0)> 0.

    Caratteristiche delle variabili casuali. Nei metodi probabilistico-statistici del processo decisionale vengono utilizzate una serie di caratteristiche di variabili casuali, espresse attraverso funzioni di distribuzione e densità di probabilità.

    Quando si descrive la differenziazione del reddito, quando si trovano limiti di confidenza per i parametri delle distribuzioni di variabili casuali e in molti altri casi, viene utilizzato il concetto di “quantile dell'ordine”. R", dove 0< P < 1 (обозначается x pag). Quantile dell'ordine R– il valore di una variabile casuale di cui assume valore la funzione di distribuzione R oppure c'è un “salto” da un valore inferiore R ad un valore maggiore R(Fig. 2). Può accadere che questa condizione sia soddisfatta per tutti i valori di x appartenenti a questo intervallo (cioè la funzione di distribuzione è costante su questo intervallo ed è pari a R). Quindi ciascuno di questi valori è chiamato “quantile d’ordine” R" Per le funzioni di distribuzione continua, di norma, esiste un singolo quantile x pag ordine R(Fig. 2), e

    F(xp) = p. (2)

    Fig.2. Definizione di quantile x pag ordine R.

    Esempio 4. Troviamo il quantile x pag ordine R per la funzione di distribuzione F(x) da (1).

    A 0< P < 1 квантиль x pag si trova dall'equazione

    quelli. x pag = a + p(b – a) = a( 1- p) +bp. A P= 0 qualsiasi X < UNè un quantile di ordine P= 0. Quantile d'ordine P= 1 è un numero qualsiasi X > B.

    Per le distribuzioni discrete, di regola, non esiste x pag, soddisfacendo l'equazione (2). Più precisamente, se la distribuzione di una variabile casuale è riportata nella Tabella 1, dove x1< x 2 < … < x k , allora l'uguaglianza (2), considerata come un'equazione rispetto a x pag, ha soluzioni solo per K valori P, vale a dire,

    p = p1,

    p = p1 + p2 ,

    p = p1 + p2 + p3 ,

    p = p1 + p2 +...+ p.m, 3 < M < K,

    P = P 1 + P 2 + … + p k.

    Tabella 1.

    Distribuzione di una variabile casuale discreta

    Per quelli elencati K valori di probabilità P soluzione x pag l'equazione (2) non è unica, vale a dire,

    F(x) = p1 + p2 + … + pm

    per tutti X tale che x m< x < x m+1 . Quelli. xp- qualsiasi numero dell'intervallo (x m; x m+1 ]. Per tutti gli altri R dall'intervallo (0;1), non compreso nella lista (3), si ha un “salto” da un valore inferiore R ad un valore maggiore R. Vale a dire, se

    p1 + p2 + … + pm

    Quello xp = xm+1.

    La proprietà considerata delle distribuzioni discrete crea notevoli difficoltà nella tabulazione e nell'utilizzo di tali distribuzioni, poiché è impossibile mantenere con precisione i valori numerici tipici delle caratteristiche della distribuzione. In particolare, ciò è vero per i valori critici e i livelli di significatività dei test statistici non parametrici (vedi sotto), poiché le distribuzioni delle statistiche di questi test sono discrete.

    L'ordine dei quantili è di grande importanza in statistica R= ½. Si chiama mediana (variabile casuale X o la sua funzione di distribuzione F(x)) ed è designato Io(X). In geometria esiste il concetto di "mediana": una linea retta che passa attraverso il vertice di un triangolo e divide a metà il suo lato opposto. Nella statistica matematica la mediana divide a metà non il lato del triangolo, ma la distribuzione di una variabile casuale: l’uguaglianza F(x0,5)= 0,5 significa che la probabilità di colpire a sinistra x0,5 e la probabilità di andare a destra x0,5(o direttamente a x0,5) sono uguali tra loro e pari a ½, cioè

    P(X < X 0,5) = P(X > X 0,5) = ½.

    La mediana indica il "centro" della distribuzione. Dal punto di vista di uno dei concetti moderni - la teoria delle procedure statistiche stabili - la mediana è una caratteristica di una variabile casuale migliore dell'aspettativa matematica. Quando si elaborano i risultati della misurazione su una scala ordinale (vedere il capitolo sulla teoria della misurazione), è possibile utilizzare la mediana, ma l'aspettativa matematica no.

    Una caratteristica di una variabile casuale come la moda ha un significato chiaro: il valore (o i valori) di una variabile casuale corrispondente al massimo locale della densità di probabilità per una variabile casuale continua o al massimo locale della probabilità per una variabile casuale discreta .

    Se x0– modo di una variabile casuale con densità f(x), quindi, come è noto dal calcolo differenziale, .

    Una variabile casuale può avere molti modi. Quindi, per una distribuzione uniforme (1) ogni punto X tale che UN< x < b , è moda. Tuttavia, questa è un'eccezione. La maggior parte delle variabili casuali utilizzate nei metodi statistici probabilistici del processo decisionale e in altre ricerche applicate hanno una modalità. Le variabili casuali, le densità e le distribuzioni che hanno una modalità sono chiamate unimodali.

    L'aspettativa matematica per variabili casuali discrete con un numero finito di valori è discussa nel capitolo "Eventi e probabilità". Per una variabile casuale continua X valore atteso M(X) soddisfa l'uguaglianza

    che è un analogo della formula (5) dell'affermazione 2 del capitolo "Eventi e probabilità".

    Esempio 5. Aspettativa per una variabile casuale uniformemente distribuita X equivale

    Per le variabili casuali considerate in questo capitolo, sono vere tutte quelle proprietà delle aspettative e delle varianze matematiche considerate in precedenza per le variabili casuali discrete con un numero finito di valori. Tuttavia, non forniamo la prova di queste proprietà, poiché richiedono un approfondimento delle sottigliezze matematiche, che non è necessario per comprendere e applicare in modo qualificato i metodi decisionali probabilistico-statistici.

    Commento. Questo libro di testo evita consapevolmente le sottigliezze matematiche associate, in particolare, ai concetti di insiemi misurabili e funzioni misurabili, algebra degli eventi, ecc. Coloro che desiderano padroneggiare questi concetti dovrebbero rivolgersi alla letteratura specializzata, in particolare all'enciclopedia.

    Ognuna delle tre caratteristiche – aspettativa matematica, mediana, moda – descrive il “centro” della distribuzione di probabilità. Il concetto di "centro" può essere definito in diversi modi, quindi tre caratteristiche diverse. Tuttavia, per un’importante classe di distribuzioni – unimodale simmetrica – tutte e tre le caratteristiche coincidono.

    Densità di distribuzione f(x)– densità della distribuzione simmetrica, se esiste un numero x0 tale che

    . (3)

    L'uguaglianza (3) significa che il grafico della funzione y = f(x) simmetrico rispetto ad una linea verticale passante per il centro di simmetria X = X 0 . Dalla (3) segue che la funzione di distribuzione simmetrica soddisfa la relazione

    (4)

    Per una distribuzione simmetrica con una modalità, l'aspettativa matematica, la mediana e la moda coincidono e sono uguali x0.

    Il caso più importante è la simmetria attorno a 0, cioè x0= 0. Allora (3) e (4) diventano uguaglianze

    (6)

    rispettivamente. Le relazioni di cui sopra mostrano che non è necessario tabulare distribuzioni simmetriche per tutti X, è sufficiente avere tavoli a X > x0.

    Notiamo un'altra proprietà delle distribuzioni simmetriche, che viene costantemente utilizzata nei metodi probabilistico-statistici del processo decisionale e in altre ricerche applicate. Per una funzione di distribuzione continua

    P(|X| < a) = P(-a < X < a) = F(a) – F(-a),

    Dove F– funzione di distribuzione di una variabile casuale X. Se la funzione di distribuzione Fè simmetrico rispetto a 0, cioè vale allora la formula (6).

    P(|X| < a) = 2F(a) – 1.

    Viene spesso utilizzata un'altra formulazione dell'affermazione in questione: se

    .

    Se e sono quantili di ordine e, rispettivamente (vedi (2)) di una funzione di distribuzione simmetrica attorno a 0, allora da (6) segue che

    Dalle caratteristiche della posizione – aspettativa matematica, mediana, moda – passiamo alle caratteristiche della diffusione della variabile casuale X: varianza, deviazione standard e coefficiente di variazione v. La definizione e le proprietà della dispersione per variabili casuali discrete sono state discusse nel capitolo precedente. Per variabili casuali continue

    La deviazione standard è il valore non negativo della radice quadrata della varianza:

    Il coefficiente di variazione è il rapporto tra la deviazione standard e l'aspettativa matematica:

    Il coefficiente di variazione viene applicato quando M(X)> 0. Misura lo spread in unità relative, mentre la deviazione standard è in unità assolute.

    Esempio 6. Per una variabile casuale uniformemente distribuita X Troviamo la dispersione, la deviazione standard e il coefficiente di variazione. La varianza è:

    Cambiando la variabile è possibile scrivere:

    Dove C = (BUN)/ 2. Pertanto, la deviazione standard è uguale a e il coefficiente di variazione è:

    Per ogni variabile casuale X determinare altre tre quantità: centrate Y, normalizzato V e dato U. Variabile casuale centrata Yè la differenza tra una data variabile casuale X e la sua aspettativa matematica M(X), quelli. Y = X – M(X). Aspettativa di una variabile casuale centrata Yè uguale a 0 e la varianza è la varianza di una determinata variabile casuale: M(Y) = 0, D(Y) = D(X). Funzione di distribuzione FY(X) variabile casuale centrata Y legati alla funzione distributiva F(X) variabile casuale originaria X rapporto:

    FY(X) = F(X + M(X)).

    Le densità di queste variabili casuali mantengono la seguente uguaglianza:

    f Y(X) = F(X + M(X)).

    Variabile casuale normalizzata Vè il rapporto di una data variabile casuale X alla sua deviazione standard, cioè . Aspettativa e varianza di una variabile casuale normalizzata V espresso attraverso caratteristiche X COSÌ:

    ,

    Dove v– coefficiente di variazione della variabile casuale originaria X. Per la funzione di distribuzione FV(X) e densità fV(X) variabile casuale normalizzata V abbiamo:

    Dove F(X) – funzione di distribuzione della variabile casuale originaria X, UN F(X) – la sua densità di probabilità.

    Variabile casuale ridotta Uè una variabile casuale centrata e normalizzata:

    .

    Per la variabile casuale data

    Le variabili casuali normalizzate, centrate e ridotte sono costantemente utilizzate sia negli studi teorici che negli algoritmi, nei prodotti software, nella documentazione normativa, tecnica e didattica. In particolare, perché le uguaglianze consentire di semplificare la giustificazione dei metodi, la formulazione di teoremi e le formule di calcolo.

    Vengono utilizzate trasformazioni di variabili casuali e variabili più generali. Quindi se Y = ascia + B, Dove UN E B– qualche numero, allora

    Esempio 7. Se poi Yè la variabile casuale ridotta e le formule (8) si trasformano in formule (7).

    Con ogni variabile casuale X puoi associare molte variabili casuali Y, dato dalla formula Y = ascia + B a diverso UN> 0 e B. Questo insieme si chiama famiglia di spostamento di scala, generato dalla variabile casuale X. Funzioni di distribuzione FY(X) costituiscono una famiglia di distribuzioni di scala generata dalla funzione di distribuzione F(X). Invece di Y = ascia + B spesso utilizzano la registrazione

    Numero Conè chiamato parametro di spostamento e il numero D- parametro di scala. La formula (9) lo dimostra X– entra il risultato della misurazione di una certa quantità U– il risultato della misurazione della stessa quantità se l'inizio della misurazione viene spostato sul punto Con, quindi utilizzare la nuova unità di misura, in D volte più grande di quello vecchio.

    Per la famiglia degli spostamenti di scala (9), la distribuzione X è detta standard. Nei metodi statistici probabilistici del processo decisionale e in altre ricerche applicate, vengono utilizzate la distribuzione normale standard, la distribuzione standard di Weibull-Gnedenko, la distribuzione gamma standard, ecc. (vedi sotto).

    Vengono utilizzate anche altre trasformazioni di variabili casuali. Ad esempio, per una variabile casuale positiva X stanno considerando Y= registro X, dove lg X– logaritmo decimale di un numero X. Catena di uguaglianze

    FY(x) = P( lg X< x) = P(X < 10x) = F( 10X)

    collega le funzioni distributive X E Y.

    Durante l'elaborazione dei dati, vengono utilizzate le seguenti caratteristiche di una variabile casuale X come momenti di ordine Q, cioè. aspettative matematiche di una variabile casuale Xq, Q= 1, 2, ... Pertanto, l'aspettativa matematica stessa è un momento di ordine 1. Per una variabile casuale discreta, il momento di ordine Q può essere calcolato come

    Per una variabile casuale continua

    Momenti di ordine Q detti anche momenti iniziali di ordine Q, in contrasto con le caratteristiche correlate - momenti centrali dell'ordine Q, dato dalla formula

    Pertanto, la dispersione è un momento centrale di ordine 2.

    Distribuzione normale e teorema del limite centrale. Nei metodi decisionali probabilistico-statistici si parla spesso di distribuzione normale. A volte cercano di usarlo per modellare la distribuzione dei dati iniziali (questi tentativi non sono sempre giustificati - vedi sotto). Ancora più importante, molti metodi di elaborazione dei dati si basano sul fatto che i valori calcolati hanno distribuzioni vicine alla normale.

    Permettere X 1 , X 2 ,…, Xn M(X i) = M e varianze D(X i) = , io = 1, 2,…, N,... Come segue dai risultati del capitolo precedente,

    Consideriamo la variabile casuale ridotta U n per l'importo , vale a dire,

    Come segue dalle formule (7), M(U n) = 0, D(U n) = 1.

    (per termini distribuiti in modo identico). Permettere X 1 , X 2 ,…, Xn, … – variabili casuali indipendenti distribuite in modo identico con aspettative matematiche M(X i) = M e varianze D(X i) = , io = 1, 2,…, N,... Allora per ogni x c'è un limite

    Dove F(x)– funzione della distribuzione normale standardizzata.

    Maggiori informazioni sulla funzionalità F(x) – sotto (leggi “phi da x”, perché F- Lettera maiuscola greca "phi").

    Il teorema del limite centrale (CLT) prende il nome perché è il risultato matematico centrale e più comunemente usato della teoria della probabilità e della statistica matematica. La storia del TLC dura circa 200 anni - dal 1730, quando il matematico inglese A. Moivre (1667-1754) pubblicò il primo risultato relativo al TLC (vedi sotto sul teorema di Moivre-Laplace), fino agli anni Venti e Trenta del del ventesimo secolo, quando Finn J.W. Lindeberg, il francese Paul Levy (1886-1971), lo jugoslavo V. Feller (1906-1970), il russo A.Ya. Khinchin (1894-1959) e altri scienziati ottennero le condizioni necessarie e sufficienti per la validità del classico teorema del limite centrale.

    Lo sviluppo dell'argomento in esame non si è fermato qui: hanno studiato variabili casuali che non hanno dispersione, ad es. quelli per i quali

    (accademico B.V. Gnedenko e altri), una situazione in cui vengono riassunte variabili casuali (più precisamente, elementi casuali) di natura più complessa dei numeri (accademici Yu.V. Prokhorov, A.A. Borovkov e loro associati), ecc.

    Funzione di distribuzione F(x)è dato dall'uguaglianza

    ,

    dove è la densità della distribuzione normale standard, che ha un'espressione piuttosto complessa:

    .

    Qui =3,1415925… è un numero noto in geometria, pari al rapporto tra la circonferenza e il diametro, e = 2,718281828... - la base dei logaritmi naturali (per ricordare questo numero, tieni presente che 1828 è l'anno di nascita dello scrittore L.N. Tolstoj). Come è noto dall’analisi matematica,

    Quando si elaborano i risultati dell'osservazione, la funzione di distribuzione normale non viene calcolata utilizzando le formule fornite, ma viene trovata utilizzando tabelle speciali o programmi per computer. Le migliori "Tabelle di statistica matematica" in russo sono state compilate dai membri corrispondenti dell'Accademia delle scienze dell'URSS L.N. Bolshev e N.V. Smirnov.

    La forma della densità della distribuzione normale standard deriva dalla teoria matematica, che non possiamo considerare qui, così come dalla dimostrazione del CLT.

    A scopo illustrativo, forniamo piccole tabelle della funzione di distribuzione F(x)(Tabella 2) e i suoi quantili (Tabella 3). Funzione F(x) simmetrico attorno a 0, che si riflette nella Tabella 2-3.

    Tavolo 2.

    Funzione di distribuzione normale standardizzata.

    Se la variabile casuale X ha una funzione distributiva F(x), Quello M(X) = 0, D(X) = 1. Questa affermazione è dimostrata nella teoria della probabilità basata sulla forma della densità di probabilità. È coerente con un'affermazione simile per le caratteristiche della variabile casuale ridotta U n, il che è del tutto naturale, poiché la TLC afferma che con un aumento illimitato del numero di termini, la funzione di distribuzione U n tende alla funzione di distribuzione normale standardizzata F(x), e per qualsiasi X.

    Tabella 3.

    Quantili della distribuzione normale standardizzata.

    Quantile dell'ordine R

    Quantile dell'ordine R

    Introduciamo il concetto di famiglia di distribuzioni normali. Per definizione, una distribuzione normale è la distribuzione di una variabile casuale X, per cui la distribuzione della variabile casuale ridotta è F(x). Come segue dalle proprietà generali delle famiglie di distribuzioni con spostamento di scala (vedi sopra), una distribuzione normale è una distribuzione di una variabile casuale

    Dove X– variabile casuale con distribuzione F(X), E M = M(Y), = D(Y). Distribuzione normale con parametri di spostamento M e la scala è solitamente indicata N(M, ) (a volte viene utilizzata la notazione N(M, ) ).

    Come segue dalla (8), la densità di probabilità della distribuzione normale N(M, ) C'è

    Le distribuzioni normali formano una famiglia di spostamento di scala. In questo caso, il parametro di scala è D= 1/ e il parametro di spostamento C = - M/ .

    Per i momenti centrali del terzo e quarto ordine della distribuzione normale valgono le uguaglianze:

    Queste uguaglianze costituiscono la base dei metodi classici per verificare che le osservazioni seguano una distribuzione normale. Al giorno d'oggi di solito si consiglia di testare la normalità utilizzando questo criterio W Shapiro-Wilka. Il problema dei test di normalità è discusso di seguito.

    Se variabili casuali X1 E X2 hanno funzioni di distribuzione N(M 1 , 1) E N(M 2 , 2) di conseguenza, quindi X1+ X2 ha una distribuzione Pertanto, se variabili casuali X 1 , X 2 ,…, Xn N(M, ) , quindi la loro media aritmetica

    ha una distribuzione N(M, ) . Queste proprietà della distribuzione normale sono costantemente utilizzate in vari metodi probabilistici e statistici del processo decisionale, in particolare nella regolamentazione statistica dei processi tecnologici e nel controllo statistico dell'accettazione basato su criteri quantitativi.

    Utilizzando la distribuzione normale vengono definite tre distribuzioni che oggi vengono spesso utilizzate nell'elaborazione dei dati statistici.

    Distribuzione (chi - quadrato) – distribuzione di una variabile casuale

    dove sono le variabili casuali X 1 , X 2 ,…, Xn indipendenti e hanno la stessa distribuzione N(0,1). In questo caso, il numero di termini, ad es. N, è chiamato il “numero di gradi di libertà” della distribuzione chi-quadrato.

    Distribuzione T La t di Student è la distribuzione di una variabile casuale

    dove sono le variabili casuali U E X indipendente, U ha una distribuzione normale standardizzata N(0,1) e X– distribuzione chi – quadrato c N gradi di libertà. In cui Nè chiamato “numero di gradi di libertà” della distribuzione di Student. Questa distribuzione fu introdotta nel 1908 dallo statistico inglese W. Gosset, che lavorava in una fabbrica di birra. In questa fabbrica venivano utilizzati metodi probabilistici e statistici per prendere decisioni economiche e tecniche, quindi la sua direzione proibì a V. Gosset di pubblicare articoli scientifici con il proprio nome. In questo modo venivano protetti i segreti commerciali e il “know-how” sotto forma di metodi probabilistici e statistici sviluppati da V. Gosset. Tuttavia, ha avuto l'opportunità di pubblicare con lo pseudonimo di "Studente". La storia di Gosset-Student mostra che per altri cento anni i manager in Gran Bretagna furono consapevoli della maggiore efficienza economica dei metodi decisionali probabilistico-statistici.

    La distribuzione di Fisher è la distribuzione di una variabile casuale

    dove sono le variabili casuali X1 E X2 sono indipendenti e hanno distribuzioni chi-quadrato con il numero di gradi di libertà K 1 E K 2 rispettivamente. Allo stesso tempo, la coppia (K 1 , K 2 ) – una coppia di “gradi di libertà” della distribuzione di Fisher, vale a dire, K 1 è il numero di gradi di libertà del numeratore e K 2 – numero di gradi di libertà del denominatore. La distribuzione della variabile casuale F prende il nome dal grande statistico inglese R. Fisher (1890-1962), che la utilizzò attivamente nei suoi lavori.

    Le espressioni per le funzioni di distribuzione chi-quadrato, Student e Fisher, le loro densità e caratteristiche, nonché le tabelle si possono trovare nella letteratura specializzata (vedi, ad esempio,).

    Come già notato, le distribuzioni normali sono ora spesso utilizzate nei modelli probabilistici in vari ambiti applicativi. Qual è la ragione per cui questa famiglia di distribuzioni a due parametri è così diffusa? È chiarito dal seguente teorema.

    Teorema del limite centrale(per termini diversamente distribuiti). Permettere X 1 , X 2 ,…, Xn,… - variabili casuali indipendenti con aspettative matematiche M(X 1 ), M(X 2 ),…, M(X n), ... e varianze D(X 1 ), D(X 2 ),…, D(X n), ... rispettivamente. Permettere

    Quindi, se sono vere determinate condizioni che garantiscono il piccolo contributo di uno qualsiasi dei termini in U n,

    per chiunque X.

    Non formuleremo qui le condizioni in questione. Si possono trovare nella letteratura specializzata (vedi, ad esempio,). "Il chiarimento delle condizioni in cui opera il CPT è merito degli eccezionali scienziati russi A.A Markov (1857-1922) e, in particolare, A.M. Lyapunov (1857-1918)."

    Il teorema del limite centrale mostra che nel caso in cui il risultato di una misurazione (osservazione) si forma sotto l'influenza di molte cause, ciascuna di esse apporta solo un piccolo contributo, e il risultato totale è determinato in modo additivo, cioè. per addizione, la distribuzione del risultato della misurazione (osservazione) è vicina alla normale.

    Talvolta si ritiene che affinché la distribuzione sia normale sia sufficiente che il risultato della misurazione (osservazione) X si forma sotto l'influenza di molte ragioni, ognuna delle quali ha un piccolo impatto. Questo è sbagliato. Ciò che conta è come operano queste cause. Se additivo, allora X ha una distribuzione approssimativamente normale. Se moltiplicativamente(cioè le azioni delle singole cause si moltiplicano e non si sommano), poi la distribuzione X vicino non al normale, ma al cosiddetto. logaritmicamente normale, cioè Non X e log X ha una distribuzione approssimativamente normale. Se non c'è motivo di credere che uno di questi due meccanismi per la formazione del risultato finale sia all'opera (o qualche altro meccanismo ben definito), allora riguardo alla distribuzione X non si può dire nulla di definito.

    Da quanto sopra risulta che in uno specifico problema applicato, la normalità dei risultati delle misurazioni (osservazioni), di regola, non può essere stabilita da considerazioni generali, ma dovrebbe essere verificata utilizzando criteri statistici; Oppure utilizzare metodi statistici non parametrici che non si basano su ipotesi sull'appartenenza delle funzioni di distribuzione dei risultati di misurazione (osservazioni) all'una o all'altra famiglia parametrica.

    Distribuzioni continue utilizzate nei metodi probabilistici e statistici del processo decisionale. Oltre alla famiglia di scale-shift delle distribuzioni normali, sono ampiamente utilizzate numerose altre famiglie di distribuzioni: lognormale, esponenziale, Weibull-Gnedenko e gamma. Diamo un'occhiata a queste famiglie.

    Valore casuale X ha una distribuzione lognormale se la variabile casuale Y= registro X ha una distribuzione normale. Poi Z= registro X = 2,3026…Y ha anche una distribuzione normale N(UN 1 ,σ1), dove ln X- logaritmo naturale X. La densità della distribuzione lognormale è:

    Dal teorema limite centrale segue che il prodotto X = X 1 X 2 Xn variabili casuali positive indipendenti X i, io = 1, 2,…, N, in generale N può essere approssimato da una distribuzione lognormale. In particolare, il modello moltiplicativo della formazione dei salari o del reddito porta a raccomandare di approssimare le distribuzioni dei salari e dei redditi secondo leggi logaritmicamente normali. Per la Russia, questa raccomandazione si è rivelata giustificata: i dati statistici lo confermano.

    Esistono altri modelli probabilistici che portano alla legge lognormale. Un classico esempio di tale modello è stato fornito da A.N. Kolmogorov, il quale, da un sistema di postulati basato sulla fisica, è giunto alla conclusione che le dimensioni delle particelle durante la frantumazione di pezzi di minerale, carbone, ecc. nei mulini a sfere hanno una distribuzione lognormale.

    Passiamo a un'altra famiglia di distribuzioni, ampiamente utilizzata in vari metodi probabilistico-statistici del processo decisionale e in altre ricerche applicate: la famiglia delle distribuzioni esponenziali. Cominciamo con un modello probabilistico che porta a tali distribuzioni. Per fare ciò, consideriamo il “flusso degli eventi”, cioè una sequenza di eventi che si verificano uno dopo l'altro in determinati momenti nel tempo. Gli esempi includono: flusso di chiamate in una centrale telefonica; flusso di guasti alle apparecchiature nella catena tecnologica; flusso di guasti del prodotto durante i test del prodotto; flusso delle richieste della clientela allo sportello bancario; flusso di acquirenti che richiedono beni e servizi, ecc. Nella teoria dei flussi di eventi vale un teorema simile al teorema del limite centrale, ma non si tratta della somma di variabili casuali, ma della somma dei flussi di eventi. Consideriamo un flusso totale composto da un gran numero di flussi indipendenti, nessuno dei quali ha un'influenza predominante sul flusso totale. Ad esempio, un flusso di chiamate in ingresso in una centrale telefonica è composto da un gran numero di flussi di chiamate indipendenti provenienti da singoli abbonati. È stato dimostrato che nel caso in cui le caratteristiche dei flussi non dipendano dal tempo, il flusso totale è completamente descritto da un numero: l'intensità del flusso. Per il flusso totale, considera la variabile casuale X- la durata dell'intervallo di tempo tra eventi successivi. La sua funzione di distribuzione ha la forma

    (10)

    Questa distribuzione è chiamata distribuzione esponenziale perché la formula (10) coinvolge la funzione esponenziale eX. Il valore 1/λ è un parametro di scala. A volte viene introdotto anche un parametro di spostamento Con, la distribuzione di una variabile casuale è detta esponenziale X + s, dove la distribuzione Xè data dalla formula (10).

    Le distribuzioni esponenziali sono un caso speciale delle cosiddette. Distribuzioni di Weibull-Gnedenko. Prendono il nome dall'ingegnere V. Weibull, che introdusse queste distribuzioni nella pratica di analisi dei risultati delle prove di fatica, e dal matematico B.V. Gnedenko (1912-1995), che ricevette tali distribuzioni come limiti durante lo studio del massimo di i risultati del test. Permettere X- una variabile casuale che caratterizza la durata di funzionamento di un prodotto, sistema complesso, elemento (ad esempio risorsa, tempo di funzionamento fino a uno stato limite, ecc.), durata di funzionamento di un'impresa o vita di un essere vivente, ecc. L’intensità del fallimento gioca un ruolo importante

    (11)

    Dove F(X) E F(X) - funzione di distribuzione e densità di una variabile casuale X.

    Descriviamo il comportamento tipico del tasso di fallimento. L'intero intervallo di tempo può essere suddiviso in tre periodi. Sul primo di essi la funzione λ(x) ha valori elevati e una chiara tendenza a diminuire (il più delle volte diminuisce in modo monotono). Ciò può essere spiegato dalla presenza nel lotto di unità di prodotto in questione con difetti evidenti e nascosti, che portano ad un guasto relativamente rapido di queste unità di prodotto. Il primo periodo è chiamato “periodo di rodaggio” (o “break-in”). Questo è ciò che solitamente copre il periodo di garanzia.

    Poi arriva un periodo di funzionamento normale, caratterizzato da un tasso di guasto approssimativamente costante e relativamente basso. La natura dei guasti durante questo periodo è improvvisa (incidenti, errori del personale operativo, ecc.) e non dipende dalla durata di funzionamento dell'unità del prodotto.

    Infine, l'ultimo periodo di funzionamento è il periodo di invecchiamento e usura. La natura dei guasti durante questo periodo consiste in cambiamenti fisici, meccanici e chimici irreversibili nei materiali, che portano ad un progressivo deterioramento della qualità di un'unità di prodotto e al suo guasto finale.

    Ogni periodo ha il suo tipo di funzione λ(x). Consideriamo la classe delle dipendenze dal potere

    λ(x) = λ0bx b -1 , (12)

    Dove λ 0 > 0 e B> 0 - alcuni parametri numerici. Valori B < 1, B= 0 e B> 1 corrisponde al tipo di tasso di guasto rispettivamente durante i periodi di rodaggio, funzionamento normale e invecchiamento.

    Relazione (11) ad un dato tasso di fallimento λ(x)- equazione differenziale di una funzione F(X). Dalla teoria delle equazioni differenziali segue che

    (13)

    Sostituendo la (12) nella (13), otteniamo ciò

    (14)

    La distribuzione data dalla formula (14) è chiamata distribuzione Weibull - Gnedenko. Perché il

    quindi dalla formula (14) segue che la quantità UN, dato dalla formula (15), è un parametro di scala. A volte viene introdotto anche un parametro di spostamento, ad es. Vengono chiamate le funzioni di distribuzione di Weibull-Gnedenko F(X - C), Dove F(X) è dato dalla formula (14) per alcuni λ 0 e B.

    La densità di distribuzione di Weibull-Gnedenko ha la forma

    (16)

    Dove UN> 0 - parametro di scala, B> 0 - parametro del modulo, Con- parametro di spostamento. In questo caso, il parametro UN dalla formula (16) è associato al parametro λ 0 dalla formula (14) mediante la relazione specificata nella formula (15).

    La distribuzione esponenziale è un caso molto particolare della distribuzione di Weibull-Gnedenko, corrispondente al valore del parametro di forma B = 1.

    La distribuzione di Weibull-Gnedenko viene utilizzata anche per costruire modelli probabilistici di situazioni in cui il comportamento di un oggetto è determinato dall'”anello più debole”. Esiste un'analogia con una catena, la cui sicurezza è determinata dall'anello meno resistente. In altre parole, lasciamo X 1 , X 2 ,…, Xn- variabili casuali indipendenti identicamente distribuite,

    X(1)=minuto( X 1, X 2,…, X n), X(n)=massimo( X 1, X 2,…, X n).

    In una serie di problemi applicati, svolgono un ruolo importante X(1) E X(N) , in particolare, quando si studiano i valori massimi possibili ("record") di determinati valori, ad esempio, pagamenti assicurativi o perdite dovute a rischi commerciali, quando si studiano i limiti di elasticità e resistenza dell'acciaio, una serie di caratteristiche di affidabilità, ecc. . Si dimostra che per n grandi le distribuzioni X(1) E X(N) , di regola, sono ben descritte dalle distribuzioni di Weibull-Gnedenko. Contributo fondamentale allo studio delle distribuzioni X(1) E X(N) contributo del matematico sovietico B.V. Gnedenko. I lavori di V. Weibull, E. Gumbel, V.B. sono dedicati all'utilizzo dei risultati ottenuti in economia, management, tecnologia e altri campi. Nevzorova, E.M. Kudlaev e molti altri specialisti.

    Passiamo alla famiglia delle distribuzioni gamma. Sono ampiamente utilizzati in economia e management, teoria e pratica dell'affidabilità e dei test, in vari campi della tecnologia, meteorologia, ecc. In particolare, in molte situazioni, la distribuzione gamma è soggetta a quantità come la durata totale del prodotto, la lunghezza della catena di particelle di polvere conduttrici, il tempo in cui il prodotto raggiunge lo stato limite durante la corrosione, il tempo di funzionamento per K-esimo rifiuto, K= 1, 2,..., ecc. L'aspettativa di vita dei pazienti con malattie croniche e il tempo necessario per ottenere un determinato effetto durante il trattamento in alcuni casi hanno una distribuzione gamma. Questa distribuzione è più adeguata per descrivere la domanda nei modelli economici e matematici di gestione delle scorte (logistica).

    La densità di distribuzione gamma ha la forma

    (17)

    La densità di probabilità nella formula (17) è determinata da tre parametri UN, B, C, Dove UN>0, B>0. In cui UNè un parametro del modulo, B- parametro di scala e Con- parametro di spostamento. Fattore 1/Γ(a) si sta normalizzando, è stato introdotto

    Qui Γ(a)- una delle funzioni speciali utilizzate in matematica, la cosiddetta “funzione gamma”, da cui prende il nome la distribuzione data dalla formula (17),

    A fisso UN la formula (17) specifica una famiglia di distribuzioni di spostamento di scala generata da una distribuzione con densità

    (18)

    Una distribuzione della forma (18) è detta distribuzione gamma standard. Si ottiene dalla formula (17) a B= 1 e Con= 0.

    Un caso speciale di distribuzioni gamma per UN= 1 sono distribuzioni esponenziali (con λ = 1/B). Con naturale UN E Con=0 le distribuzioni gamma sono chiamate distribuzioni di Erlang. Dalle opere dello scienziato danese K.A Erlang (1878-1929), impiegato della Compagnia telefonica di Copenaghen, che studiò nel 1908-1922. il funzionamento delle reti telefoniche, iniziò lo sviluppo della teoria delle code. Questa teoria si occupa della modellazione probabilistica e statistica di sistemi in cui viene servito un flusso di richieste per prendere decisioni ottimali. Le distribuzioni Erlang vengono utilizzate nelle stesse aree applicative in cui vengono utilizzate le distribuzioni esponenziali. Ciò si basa sul seguente fatto matematico: la somma di k variabili casuali indipendenti distribuite esponenzialmente con gli stessi parametri λ e Con, ha una distribuzione gamma con un parametro di forma un =K, parametro di scala B= 1/λ e parametro di spostamento kc. A Con= 0 si ottiene la distribuzione di Erlang.

    Se la variabile casuale X ha una distribuzione gamma con un parametro di forma UN tale che D = 2 UN- numero intero, B= 1 e Con= 0, quindi 2 X ha una distribuzione chi quadrato con D gradi di libertà.

    Valore casuale X con distribuzione gvmma ha le seguenti caratteristiche:

    Valore atteso M(X) =ab + C,

    Varianza D(X) = σ 2 = ab 2 ,

    Il coefficiente di variazione

    Asimmetria

    Eccesso

    La distribuzione normale è un caso estremo della distribuzione gamma. Più precisamente, sia Z una variabile casuale avente una distribuzione gamma standard data dalla formula (18). Poi

    per qualsiasi numero reale X, Dove F(x)- funzione di distribuzione normale standard N(0,1).

    Nella ricerca applicata vengono utilizzate anche altre famiglie parametriche di distribuzioni, di cui le più famose sono il sistema delle curve di Pearson, le serie di Edgeworth e di Charlier. Non sono considerati qui.

    Discreto distribuzioni utilizzate nei metodi probabilistici e statistici del processo decisionale. Le più comunemente utilizzate sono tre famiglie di distribuzioni discrete: binomiale, ipergeometrica e Poisson, così come alcune altre famiglie: geometrica, binomiale negativa, multinomiale, ipergeometrica negativa, ecc.

    Come già accennato, la distribuzione binomiale avviene in prove indipendenti, in ciascuna delle quali con probabilità R appare l'evento UN. Se il numero totale di prove N dato, quindi il numero di test Y, in cui è apparso l'evento UN, ha una distribuzione binomiale. Per una distribuzione binomiale, la probabilità di essere accettata come variabile casuale è Y valori è determinato dalla formula

    Numero di combinazioni di N elementi di , noto dalla combinatoria. Per tutti , tranne 0, 1, 2, …, N, abbiamo P(Y= )= 0. Distribuzione binomiale con dimensione campionaria fissa Nè specificato dal parametro P, cioè. le distribuzioni binomiali formano una famiglia a un parametro. Vengono utilizzati nell'analisi dei dati provenienti da studi campione, in particolare nello studio delle preferenze dei consumatori, nel controllo selettivo della qualità del prodotto secondo piani di controllo a stadio singolo, quando si testano popolazioni di individui in demografia, sociologia, medicina, biologia, ecc. .

    Se Y 1 E Y 2 - variabili casuali binomiali indipendenti con lo stesso parametro P 0 , determinato da campioni con volumi N 1 E N 2 di conseguenza, quindi Y 1 + Y 2 - variabile casuale binomiale avente distribuzione (19) con R = P 0 E N = N 1 + N 2 . Questa osservazione estende l'applicabilità della distribuzione binomiale consentendo di combinare i risultati di più gruppi di test quando c'è motivo di credere che lo stesso parametro corrisponda a tutti questi gruppi.

    Le caratteristiche della distribuzione binomiale sono state calcolate in precedenza:

    M(Y) = n.p., D(Y) = n.p.( 1- P).

    Nella sezione "Eventi e probabilità" viene dimostrata la legge dei grandi numeri per una variabile casuale binomiale:

    per chiunque . Utilizzando il teorema del limite centrale, la legge dei grandi numeri può essere perfezionata indicando quanto Y/ N si differenzia da R.

    Teorema di De Moivre-Laplace. Per qualsiasi numero a e B, UN< B, abbiamo

    Dove F(X) è una funzione della distribuzione normale standard con aspettativa matematica 0 e varianza 1.

    Per dimostrarlo è sufficiente utilizzare la rappresentazione Y sotto forma di somma di variabili casuali indipendenti corrispondenti ai risultati dei singoli test, formule per M(Y) E D(Y) e il teorema del limite centrale.

    Questo teorema vale per il caso R= ½ fu dimostrato dal matematico inglese A. Moivre (1667-1754) nel 1730. Nella formulazione sopra riportata fu dimostrato nel 1810 dal matematico francese Pierre Simon Laplace (1749 - 1827).

    La distribuzione ipergeometrica si verifica durante il controllo selettivo di un insieme finito di oggetti di volume N secondo un criterio alternativo. Ogni oggetto controllato è classificato come avente l'attributo UN, o come non avente questa caratteristica. La distribuzione ipergeometrica ha una variabile casuale Y, pari al numero di oggetti che hanno l'attributo UN in un campione casuale di volume N, Dove N< N. Ad esempio, numero Y unità di prodotto difettose in un campione casuale di volume N dal volume del lotto N ha una distribuzione ipergeometrica se N< N. Un altro esempio è la lotteria. Lasciamo il segno UN il biglietto è un segno di “essere un vincitore”. Lasciamo il numero totale di biglietti N, e qualche persona acquisita N di loro. Quindi il numero di biglietti vincenti per questa persona ha una distribuzione ipergeometrica.

    Per una distribuzione ipergeometrica, la probabilità che una variabile casuale Y accetti il ​​valore y ha la forma

    (20)

    Dove D– il numero di oggetti che hanno l'attributo UN, nell'insieme di volume considerato N. In cui assume valori da max(0, N - (N - D)) a min( N, D), altre cose la probabilità nella formula (20) è uguale a 0. Pertanto, la distribuzione ipergeometrica è determinata da tre parametri: il volume della popolazione N, numero di oggetti D in esso, possedendo la caratteristica in questione UN e dimensione del campione N.

    Campionamento volumetrico casuale semplice N dal volume totale Nè un campione ottenuto come risultato di una selezione casuale in cui uno qualsiasi degli insiemi di N gli oggetti hanno la stessa probabilità di essere selezionati. I metodi per selezionare in modo casuale campioni di intervistati (sondaggi) o unità di beni sono discussi in documenti didattici, metodologici e normativi. Uno dei metodi di selezione è questo: gli oggetti vengono selezionati uno dall'altro e ad ogni passaggio ciascuno degli oggetti rimanenti nell'insieme ha la stessa probabilità di essere selezionato. In letteratura per la tipologia di campioni in esame vengono utilizzati anche i termini “campione casuale” e “campione casuale senza ritorno”.

    Poiché i volumi della popolazione (lotto) N e campioni N sono solitamente noti, allora è il parametro della distribuzione ipergeometrica da stimare D. Nei metodi statistici di gestione della qualità del prodotto D– solitamente il numero di unità difettose in un lotto. Interessante è anche la caratteristica distributiva D/ N– livello di difetti.

    Per la distribuzione ipergeometrica

    L'ultimo fattore nell'espressione della varianza è vicino a 1 se N>10 N. Se effettui una sostituzione P = D/ N, quindi le espressioni per l'aspettativa matematica e la varianza della distribuzione ipergeometrica si trasformeranno in espressioni per l'aspettativa matematica e la varianza della distribuzione binomiale. Questa non è una coincidenza. Lo si può dimostrare

    A N>10 N, Dove P = D/ N. Il rapporto limitante è valido

    e questa relazione limitante può essere utilizzata quando N>10 N.

    La terza distribuzione discreta ampiamente utilizzata è la distribuzione di Poisson. La variabile casuale Y ha distribuzione di Poisson se

    ,

    dove λ è il parametro della distribuzione di Poisson, e P(Y= )= 0 per tutti gli altri (per y=0 è designato 0! =1). Per la distribuzione di Poisson

    M(Y) = λ, D(Y) = λ.

    Questa distribuzione prende il nome dal matematico francese S. D. Poisson (1781-1840), che per primo la ottenne nel 1837. La distribuzione di Poisson è il caso limite della distribuzione binomiale, quando la probabilità R l'attuazione dell'evento è piccola, ma il numero di test N fantastico, e n.p.= λ. Più precisamente vale la relazione limite

    Pertanto, la distribuzione di Poisson (nella vecchia terminologia “legge della distribuzione”) è spesso chiamata anche “legge degli eventi rari”.

    La distribuzione di Poisson ha origine nella teoria del flusso di eventi (vedi sopra). È stato dimostrato che per il flusso più semplice con intensità costante Λ, il numero di eventi (chiamate) avvenuti nel tempo T, ha una distribuzione di Poisson con parametro λ = Λ T. Pertanto, la probabilità che nel corso del tempo T nessun evento si verificherà, uguale a e - Λ T, cioè. la funzione di distribuzione della lunghezza dell'intervallo tra gli eventi è esponenziale.

    La distribuzione di Poisson viene utilizzata nell'analisi dei risultati di indagini di marketing campione sui consumatori, calcolando le caratteristiche operative dei piani di controllo statistico di accettazione nel caso di piccoli valori del livello di accettazione dei difetti, per descrivere il numero di guasti di un sistema statisticamente controllato processo tecnologico per unità di tempo, numero di “richieste di servizio” ricevute per unità di tempo nel sistema delle code, modelli statistici di incidenti e malattie rare, ecc.

    In letteratura sono considerate le descrizioni di altre famiglie parametriche di distribuzioni discrete e le possibilità del loro uso pratico.


    In alcuni casi, ad esempio, quando si studiano i prezzi, i volumi di produzione o il tempo totale tra i guasti nei problemi di affidabilità, le funzioni di distribuzione sono costanti su determinati intervalli in cui i valori delle variabili casuali studiate non possono cadere.

    Precedente

    Nel n° precedente abbiamo introdotto le serie di distribuzione come caratteristica esaustiva (legge di distribuzione) di una variabile casuale discontinua. Tuttavia questa caratteristica non è universale; esiste solo per variabili casuali discontinue. È facile vedere che tale caratteristica non può essere costruita per una variabile casuale continua. Infatti, una variabile casuale continua ha un numero infinito di possibili valori, riempiendo completamente un certo intervallo (il cosiddetto “insieme numerabile”). È impossibile creare una tabella che elenchi tutti i possibili valori di una variabile casuale di questo tipo. Inoltre, come vedremo in seguito, ogni singolo valore di una variabile casuale continua solitamente non ha alcuna probabilità diversa da zero. Di conseguenza, per una variabile casuale continua non esiste una serie di distribuzione nel senso in cui esiste per una variabile discontinua. Tuttavia, diverse aree di possibili valori di una variabile casuale non sono ancora ugualmente probabili, e per una variabile continua esiste una “distribuzione di probabilità”, anche se non nello stesso senso di una variabile discontinua.

    Per caratterizzare quantitativamente questa distribuzione di probabilità, è conveniente utilizzare non la probabilità dell'evento, ma la probabilità dell'evento, dove si trova una variabile attuale. La probabilità di questo evento dipende ovviamente da , esiste una qualche funzione di . Questa funzione è chiamata funzione di distribuzione di una variabile casuale ed è denotata da:

    . (5.2.1)

    La funzione di distribuzione è talvolta chiamata anche funzione di distribuzione cumulativa o legge di distribuzione cumulativa.

    La funzione di distribuzione è la caratteristica più universale di una variabile casuale. Esiste per tutte le variabili casuali: sia discontinue che continue. La funzione di distribuzione caratterizza pienamente una variabile casuale da un punto di vista probabilistico, cioè è una delle forme della legge di distribuzione.

    Formuliamo alcune proprietà generali della funzione di distribuzione.

    1. La funzione di distribuzione è una funzione non decrescente del suo argomento, cioè A .

    2. A meno infinito, la funzione di distribuzione è uguale a zero:.

    3. A più infinito, la funzione di distribuzione è uguale a uno: .

    Senza fornire una dimostrazione rigorosa di queste proprietà, le illustreremo utilizzando un'interpretazione geometrica visiva. Per fare ciò, considereremo una variabile casuale come un punto casuale sull'asse del Bue (Fig. 5.2.1), che come risultato dell'esperimento può assumere una posizione o un'altra. Quindi la funzione di distribuzione è la probabilità che un punto casuale come risultato dell'esperimento cada a sinistra del punto .

    Aumenteremo, cioè sposteremo il punto a destra lungo l'asse delle ascisse. Ovviamente, in questo caso, la probabilità che un punto casuale cada a sinistra non può diminuire; pertanto, la funzione di distribuzione non può diminuire con l'aumentare.

    Per assicurarci che , sposteremo il punto a sinistra lungo l'ascissa indefinitamente. In questo caso, colpire un punto casuale a sinistra del limite diventa un evento impossibile; È naturale ritenere che la probabilità di questo evento tenda a zero, cioè .

    In modo analogo, spostando il punto verso destra senza limite, ci assicuriamo che , poiché l'evento diventa attendibile nel limite.

    Il grafico della funzione di distribuzione nel caso generale è un grafico di una funzione non decrescente (Fig. 5.2.2), i cui valori partono da 0 e raggiungono 1, e in certi punti la funzione può avere dei salti ( discontinuità).

    Conoscendo la serie di distribuzione di una variabile casuale discontinua, si può facilmente costruire la funzione di distribuzione di questa variabile. Veramente,

    ,

    dove la disuguaglianza sotto il segno di somma indica che la sommatoria si applica a tutti quei valori inferiori a .

    Quando la variabile corrente passa attraverso uno qualsiasi dei possibili valori del valore discontinuo, la funzione di distribuzione cambia bruscamente e l'entità del salto è uguale alla probabilità di questo valore.

    Esempio 1. Viene eseguito un esperimento in cui l'evento può apparire o meno. La probabilità dell'evento è 0,3. Variabile casuale – il numero di occorrenze di un evento in un esperimento (variabile casuale caratteristica di un evento). Costruisci la sua funzione di distribuzione.

    Soluzione. La serie di distribuzione dei valori ha la forma:

    Costruiamo la funzione di distribuzione del valore:

    Il grafico della funzione di distribuzione è mostrato in Fig. 5.2.3. Nei punti di discontinuità la funzione assume i valori contrassegnati con i punti nel disegno (a sinistra la funzione è continua).

    Esempio 2. Nelle condizioni dell'esempio precedente, vengono eseguiti 4 esperimenti indipendenti. Costruisci una funzione di distribuzione per il numero di occorrenze di un evento.

    Soluzione. Indichiamo il numero di occorrenze dell'evento in quattro esperimenti. Questa quantità ha una serie di distribuzione

    Costruiamo la funzione di distribuzione di una variabile casuale:

    3) a ;

    In pratica, solitamente la funzione di distribuzione di una variabile casuale continua è una funzione continua in tutti i suoi punti, come mostrato in Fig. 5.2.6. È tuttavia possibile costruire esempi di variabili casuali, i cui possibili valori riempiono continuamente un certo intervallo, ma per le quali la funzione di distribuzione non è continua ovunque, ma subisce una discontinuità in certi punti (Fig. 5.2.7). .

    Tali variabili casuali sono chiamate miste. Un esempio di valore misto è l'area di distruzione causata da una bomba su un bersaglio, il cui raggio di azione distruttiva è uguale a R (Fig. 5.2.8).

    I valori di questa variabile casuale riempiono continuamente l'intervallo da 0 a , che si verifica nelle posizioni delle bombe di tipo I e II, hanno una certa probabilità finita, e questi valori corrispondono a salti nella funzione di distribuzione, mentre nei valori intermedi ​​(posizione di tipo III) la funzione di distribuzione è continua. Un altro esempio di variabile casuale mista è il tempo di funzionamento senza guasti T di un dispositivo testato per il tempo t. La funzione di distribuzione di questa variabile casuale è continua ovunque tranne che nel punto t.