Podstawowe parametry małej próbki. Mała próbka

Metoda małej próbki

Główną zaletą metody małych próbek jest możliwość oceny dynamiki procesu w czasie, co skraca czas wykonywania procedur obliczeniowych.

Próbki chwilowe są wybierane losowo w określonych odstępach czasu w zakresie od 5 do 20 jednostek. Okres pobierania próbek ustalany jest empirycznie i zależy od stabilności procesu, określonej na podstawie analizy informacji a priori.

Dla każdej próbki chwilowej określane są główne cechy statystyczne. Próbki chwilowe i ich główne charakterystyki statystyczne przedstawiono w Załączniku B.

Hipotezę o jednorodności dyspersji próbki stawia się i testuje za pomocą jednego z możliwych kryteriów (kryterium Fishera).

Testowanie hipotezy o jednorodności cech próbki.

Aby sprawdzić istotność różnicy średnich arytmetycznych w 2 seriach pomiarów, wprowadzono miarę G. Obliczenia podano w Załączniku B

Reguła decyzyjna jest sformułowana w następujący sposób:

gdzie tr jest wartością kwantyla rozkładu znormalizowanego przy danym prawdopodobieństwie ufności P, ? = 0,095, n = 10, tр =2,78.

Spełnienie nierówności potwierdza hipotezę, że różnica pomiędzy średnimi z próby nie jest istotna.

Ponieważ nierówność jest spełniona we wszystkich przypadkach, hipoteza, że ​​różnica między średnimi z próby nie jest istotna, zostaje potwierdzona.

Aby przetestować hipotezę o jednorodności wariancji próbek, wprowadza się miarę F0 jako stosunek nieobciążonych oszacowań wariancji wyników 2 serii pomiarów. Co więcej, za licznik przyjmuje się większe z dwóch oszacowań i jeśli Sx1>Sx2, to wtedy

Wyniki obliczeń podano w Załączniku B.

Następnie określa się wartości prawdopodobieństwa ufności P i wyznacza wartości F(K1; K2; ?/2) przy K1 = n1 - 1 i K2 = n2 - 1.

Przy P = 0,025 i K1 = 10-1 = 4 i K2 = 10-1 = 4 F (9;9;0,025/2) =4,1.

Reguła decyzyjna: jeśli F(K1; K2; ?/2)>F0, to przyjmuje się hipotezę o jednorodności wariancji w obu próbach.

Ponieważ warunek F(K1; K2; ?/2) > F0 jest spełniony we wszystkich przypadkach, przyjmuje się hipotezę o jednorodności wariancji.

Tym samym potwierdza się hipoteza o jednorodności wariancji próbek, co wskazuje na stabilność procesu; hipoteza o jednorodności średnich próbki przy zastosowaniu metody porównania średnich została potwierdzona, co oznacza, że ​​środek rozproszenia nie uległ zmianie, a proces znajduje się w stanie stabilnym.

Metoda wykresu punktowego i precyzyjnego

W określonym czasie pobierane są natychmiastowe próbki od 3 do 10 produktów i określana jest charakterystyka statystyczna każdej próbki.

Uzyskane dane nanosi się na wykresy z czasem na osi odciętych? lub liczby k próbek, a na osi rzędnych - poszczególne wartości xk lub wartość jednej z cech statystycznych (średnia arytmetyczna próby, odchylenie standardowe próbki). Dodatkowo na schemacie narysowane są dwie poziome linie Тв i Тн, ograniczające zakres tolerancji produktu.

Próbki chwilowe podano w Załączniku B.


Rysunek 1, wykres dokładności

Schemat wyraźnie pokazuje postęp procesu produkcyjnego. Można go wykorzystać do wskazania, że ​​proces produkcyjny jest niestabilny

Rozszerzenie charakterystyki próby na populację ogólną w oparciu o prawo wielkich liczb wymaga odpowiednio dużej liczebności próby. Jednak w praktyce badań statystycznych często spotyka się niemożność, z tego czy innego powodu, zwiększenia liczby jednostek próby o małych rozmiarach. Dotyczy to badania działalności przedsiębiorstw, instytucji edukacyjnych, banków komercyjnych itp., których liczba w regionach jest z reguły niewielka i czasami wynosi zaledwie 5-10 jednostek.

W przypadku, gdy populacja próby składa się z małej liczby jednostek, mniejszej niż 30, próbę nazywa się mały W tym przypadku twierdzenia Lapunowa nie można zastosować do obliczenia błędu próbkowania, ponieważ na średnią próbki istotny wpływ ma wartość każdej z losowo wybranych jednostek, a jej rozkład może znacznie różnić się od normalnego.

W 1908 roku V.S. Gosset udowodnił, że estymacja rozbieżności pomiędzy średnią z małej próby a średnią ogólną ma specjalne prawo rozkładu (patrz rozdział 4). Zajmując się problemem probabilistycznego oszacowania średniej próby przy małej liczbie obserwacji, pokazał, że w tym przypadku należy brać pod uwagę rozkład nie samych średnich z próby, ale wielkość ich odchyleń od średniej pierwotna populacja. W takim przypadku wnioski mogą być dość wiarygodne.

Odkrycie ucznia nazywa się teoria małej próbki.

Oceniając wyniki małej próby, w obliczeniach nie uwzględnia się wartości wariancji ogólnej. W przypadku małych próbek „skorygowana” wariancja próbki służy do obliczenia średniego błędu próbkowania:

te. zamiast tego w przeciwieństwie do dużych próbek w mianowniku P koszty (i - 1). Obliczenie średniego błędu próbkowania dla małej próby podano w tabeli. 5.7.

Tabela 5.7

Obliczanie błędu średniego małej próbki

Błąd krańcowy małej próbki wynosi: gdzie T- czynnik zaufania.

Ogrom T inaczej odnosi się do szacunków prawdopodobnych niż w przypadku dużej próby. Zgodnie z rozkładem Studenta prawdopodobne oszacowanie zależy od obu wartości T, oraz na liczebności próby I w przypadku, gdy błąd krańcowy nie przekracza r-krotności błędu średniego w małych próbach. Jednak w dużej mierze zależy to od liczby wybranych jednostek.

VS. Gosset sporządził tabelę rozkładów prawdopodobieństwa w małych próbach odpowiadających zadanym wartościom współczynnika ufności T i różne objętości małej próbki, a jej fragment podano w tabeli. 5.8.

Tabela 5.8

Fragment tabeli prawdopodobieństw Studenta (prawdopodobieństwa pomnożone przez 1000)

Dane tabeli 5.8 wskazują, że przy nieograniczonym zwiększaniu liczebności próby (i = °°) rozkład Studenta zmierza do rozkładu normalnego, a przy i = 20 niewiele się od niego różni.

Tablicę rozkładu Studenta często podaje się w innej formie, wygodniejszej w praktycznym zastosowaniu (tabela 5.9).

Tabela 5.9

Niektóre wartości (rozkłady t-Studenta

Liczba stopni swobody

dla przedziału jednokierunkowego

dla odstępów dwukierunkowych

P= 0,99

Przyjrzyjmy się, jak korzystać z tabeli rozkładu. Każda stała wartość P obliczyć liczbę stopni swobody k, Gdzie k = n - 1. Dla każdej wartości stopnia swobody wskazana jest wartość graniczna t p (t 095 Lub t 0 99), co z danym prawdopodobieństwem R nie zostanie przekroczona ze względu na losowe wahania wyników pobierania próbek. Na podstawie wielkości t str granice zaufania są określone

interwał

Z reguły stosuje się poziom ufności dla testów dwustronnych P. = 0,95 lub P. = 0,99, co nie wyklucza wyboru innych wartości prawdopodobieństwa. Wartość prawdopodobieństwa dobierana jest na podstawie specyficznych wymagań zadań, do realizacji których wykorzystuje się małą próbkę.

Prawdopodobieństwo, że ogólne wartości średnie wykroczą poza przedział ufności, jest równe Q, Gdzie Q = 1 - R. Ta wartość jest bardzo mała. Odpowiednio dla rozważanych prawdopodobieństw R wynosi 0,05 i 0,01.

Małe próbki są szeroko rozpowszechnione w naukach technicznych i biologii, jednak w badaniach statystycznych należy je stosować z dużą ostrożnością, jedynie po odpowiednim zbadaniu teoretycznym i praktycznym. Małą próbę można zastosować tylko wtedy, gdy rozkład cechy w populacji jest normalny lub zbliżony do niego, a wartość średnią oblicza się z danych próby uzyskanych w wyniku niezależnych obserwacji. Ponadto należy pamiętać, że dokładność wyników uzyskanych w przypadku małej próby jest niższa niż w przypadku dużej próby.

statystyki małej próby

Powszechnie przyjmuje się, że początek S. m.v. lub, jak się ją często nazywa, statystyka „małego n”, powstała w pierwszej dekadzie XX wieku wraz z publikacją pracy W. Gosseta, w której umieścił on postulowany przez „studenta” rozkład t światową sławę zyskał nieco później. W tym czasie Gossett pracował jako statystyk w browarach Guinnessa. Do jego obowiązków należało badanie kolejnych partii beczek świeżo parzonego porteru. Z powodu, którego nigdy tak naprawdę nie wyjaśnił, Gossett eksperymentował z pomysłem znacznego zmniejszenia liczby próbek pobieranych z bardzo dużej liczby beczek w magazynach browaru, aby losowo kontrolować jakość portera. To doprowadziło go do postulowania rozkładu t. Ponieważ regulamin browarów Guinness zabraniał pracownikom publikowania wyników badań, Gossett opublikował anonimowo wyniki swojego eksperymentu porównującego pobieranie próbek do kontroli jakości przy użyciu rozkładu t dla małych próbek i tradycyjnego rozkładu z (rozkład normalny) anonimowo, pod pseudonimem „Student " - stąd nazwa rozkład t-Studenta).

rozkład t. Teorię rozkładu t, podobnie jak teorię rozkładu z, stosuje się do testowania hipotezy zerowej, zgodnie z którą dwie próbki są po prostu próbkami losowymi z tej samej populacji i dlatego obliczone statystyki (np. średnia i odchylenie standardowe) są bezstronnymi szacunkami parametrów populacji. Jednak w przeciwieństwie do teorii rozkładu normalnego, teoria rozkładu t dla małych próbek nie wymaga wiedzy apriorycznej ani dokładnych szacunków wartości oczekiwanej i wariancji populacji. Co więcej, chociaż badanie różnicy między średnimi dwóch dużych próbek pod kątem istotności statystycznej wymaga podstawowego założenia, że ​​cechy populacji mają rozkład normalny, teoria rozkładu t nie wymaga założeń dotyczących parametrów.

Powszechnie wiadomo, że charakterystyki o rozkładzie normalnym opisuje jedna krzywa – krzywa Gaussa, która spełnia następujące równanie:

W przypadku rozkładu t cała rodzina krzywych jest reprezentowana przez następujący wzór:

Dlatego też równanie na t zawiera funkcję gamma, co w matematyce oznacza, że ​​w miarę zmiany n inna krzywa będzie spełniać dane równanie.

Stopnie swobody

W równaniu na t litera n oznacza liczbę stopni swobody (df) związaną z estymacją wariancji populacji (S2), która reprezentuje drugi moment dowolnej funkcji generującej moment, takiej jak równanie rozkładu t . W S. liczba stopni swobody wskazuje, ile cech pozostaje wolnych po ich częściowym zastosowaniu w określonym typie analizy. W rozkładzie t jedno z odchyleń od średniej próbki jest zawsze stałe, ponieważ suma wszystkich takich odchyleń musi być równa zeru. Wpływa to na sumę kwadratów przy obliczaniu wariancji próbki jako nieobciążoną estymację parametru S2 i prowadzi do tego, że df jest równe liczbie pomiarów minus jeden dla każdej próbki. Stąd we wzorach i procedurach obliczania statystyki t do testowania hipotezy zerowej df = n - 2.

Podział F. Hipotezą zerową sprawdzaną za pomocą testu t jest to, że dwie próbki zostały wybrane losowo z tej samej populacji lub zostały losowo wybrane z dwóch różnych populacji o tej samej wariancji. Co jednak w przypadku konieczności przeanalizowania większej liczby grup? Odpowiedzi na to pytanie szukano dwadzieścia lat po odkryciu przez Gosseta rozkładu t. W jego produkcję bezpośrednio zaangażowało się dwóch najwybitniejszych statystyków XX wieku. Jednym z nich jest największy angielski statystyk R. A. Fisher, który zaproponował pierwsze teorie. preparaty, których rozwój doprowadził do wytworzenia dystrybucji F; jego praca nad teorią małych próbek, rozwijająca idee Gosseta, została opublikowana w połowie lat dwudziestych XX wieku (Fisher, 1925). Innym jest George Snedecor, członek grona wczesnych statystyków amerykańskich, który opracował sposób porównywania dwóch niezależnych próbek dowolnej wielkości poprzez obliczenie stosunku dwóch szacunków wariancji. Nazwał tę zależność współczynnikiem F, na cześć Fischera. Winiki wyszukiwania Snedecor doprowadził do tego, że rozkład F zaczęto określać jako rozkład stosunku dwóch statystyk c2, każda z własnymi stopniami swobody:

Stąd wzięła się klasyczna praca Fishera na temat analizy wariancji, metody statystycznej wyraźnie skupiającej się na analizie małych próbek.

Rozkład próbkowania F (gdzie n = df) jest reprezentowany przez następujące równanie:

Podobnie jak w przypadku rozkładu t, funkcja gamma wskazuje, że istnieje rodzina rozkładów spełniających równanie na F. W tym przypadku jednak w analizie uwzględniane są dwie wielkości df: liczba stopni swobody licznika i mianownik współczynnika F.

Tabele do szacowania statystyk t i F. Podczas testowania hipotezy zerowej za pomocą S., w oparciu o teorię dużych próbek, zwykle wymagana jest tylko jedna tabela przeglądowa - tabela odchyleń normalnych (z), która pozwala wyznaczyć obszar pod krzywą normalną pomiędzy dowolnymi dwiema wartościami z na osi x. Jednakże tabele rozkładów t i F są koniecznie prezentowane w zestawie tabel, ponieważ tabele te opierają się na różnych rozkładach wynikających ze zmiennej liczby stopni swobody. Chociaż rozkłady t i F są rozkładami gęstości prawdopodobieństwa, podobnie jak rozkład normalny dla dużych próbek, różnią się od tego ostatniego na cztery sposoby używane do ich opisu. Na przykład rozkład t jest symetryczny (zauważ t2 w jego równaniu) dla wszystkich df, ale osiąga coraz większy szczyt w miarę zmniejszania się wielkości próbki. Krzywe szczytowe (te z kurtozą większą niż normalna) są zwykle mniej asymptotyczne (tj. znajdują się mniej blisko osi x na końcach rozkładu) niż krzywe z kurtozą normalną, takie jak krzywa Gaussa. Różnica ta skutkuje zauważalnymi rozbieżnościami pomiędzy punktami na osi x odpowiadającymi wartościom t i z. Przy df = 5 i dwustronnym poziomie α wynoszącym 0,05, t = 2,57, natomiast odpowiadający mu z = 1,96. Zatem t = 2,57 oznacza istotność statystyczną na poziomie 5%. Jednak w przypadku krzywej normalnej z = 2,57 (dokładniej 2,58) będzie już wskazywało 1% poziom istotności statystycznej. Podobne porównania można przeprowadzić z rozkładem F, ponieważ t jest równe F, gdy liczba próbek wynosi dwie.

Co stanowi „małą” próbkę?

Swego czasu pojawiło się pytanie, jak duża powinna być próba, aby można ją było uznać za małą. Na to pytanie po prostu nie ma jednoznacznej odpowiedzi. Jednakże za umowną granicę pomiędzy małą i dużą próbą przyjmuje się df = 30. Podstawą tej nieco arbitralnej decyzji jest wynik porównania rozkładu t z rozkładem normalnym. Jak zauważono powyżej, rozbieżność między wartościami t i z ma tendencję do zwiększania się wraz ze spadkiem df i zmniejszania się wraz ze wzrostem df. W rzeczywistości t zaczyna zbliżać się do z na długo przed przypadkiem granicznym, w którym t = z dla df = ∞. Proste badanie wizualne wartości tabeli t pokazuje, że przybliżenie to staje się dość szybkie, zaczynając od df = 30 i więcej. Porównawcze wartości t (przy df = 30) i z są równe odpowiednio: 2,04 i 1,96 dla p = 0,05; 2,75 i 2,58 dla p = 0,01; 3,65 i 3,29 dla p = 0,001.

Inne statystyki dla „małych” próbek

Chociaż statystyki takie jak t i F są specjalnie zaprojektowane do stosowania w przypadku małych próbek, można je również zastosować w przypadku dużych próbek. Istnieje jednak wiele innych metod statystycznych przeznaczonych do analizy małych próbek i często wykorzystuje się je w tym celu. Dotyczy to tzw. metody nieparametryczne lub wolne od dystrybucji. Zasadniczo skale występujące w tych metodach przeznaczone są do stosowania do pomiarów uzyskanych za pomocą skal niespełniających definicji skal ilorazowych lub interwałowych. Najczęściej są to pomiary porządkowe (rangi) lub nominalne. Skale nieparametryczne nie wymagają założeń dotyczących parametrów rozkładu, w szczególności dotyczących szacunków rozproszenia, gdyż skale porządkowe i nominalne eliminują samo pojęcie rozproszenia. Z tego powodu metody nieparametryczne stosuje się także do pomiarów uzyskiwanych przy użyciu skal przedziałowych i ilorazowych, gdy analizuje się małe próbki i istnieje ryzyko naruszenia podstawowych założeń wymaganych przy stosowaniu metod parametrycznych. Testy te, które można rozsądnie zastosować do małych próbek, obejmują: dokładny test prawdopodobieństwa Fishera, dwuczynnikową nieparametryczną (rankową) analizę wariancji Friedmana, współczynnik korelacji rangi t Kendalla, współczynnik zgodności Kendalla (W), test H Kruskala – Wallace dla nieparametrycznej (rankowej) jednoczynnikowej analizy wariancji, testu U Manna-Whitneya, testu mediany, testu znaku, współczynnika korelacji rang Spearmana r i testu t Wilcoxona.

Badając zmienność, wyróżnia się cechy ilościowe i jakościowe, których badanie przeprowadza się za pomocą statystyki zmienności opartej na teorii prawdopodobieństwa. Prawdopodobieństwo wskazuje możliwą częstotliwość występowania danej cechy przez daną osobę. P=m/n, gdzie m jest liczbą osobników o danej wartości cechy; n to liczba wszystkich osób w grupie. Prawdopodobieństwo waha się od 0 do 1 (na przykład prawdopodobieństwo wynosi 0,02 - pojawienie się bliźniąt w stadzie, czyli na 100 wycieleń pojawią się dwa bliźnięta). Zatem przedmiotem badań biometrii jest zmienna cecha, której badanie przeprowadza się na określonej grupie obiektów, tj. całość. Istnieją populacje ogólne i próbne. Populacja Jest to duża grupa osób, która interesuje nas ze względu na badaną cechę. Populacja ogólna może obejmować gatunek zwierzęcia lub rasę tego samego gatunku. Ogólna populacja (rasa) obejmuje kilka milionów zwierząt. Jednocześnie rasa dzieli się na wiele grup, tj. stada gospodarstw indywidualnych. Ponieważ populacja ogólna składa się z dużej liczby osobników, badanie jej jest technicznie trudne. Dlatego nie badają całej populacji, ale tylko jej część, tzw obieralny Lub próbna populacja.

Na podstawie próby populacji dokonuje się oceny całej populacji jako całości. Pobieranie próbek należy przeprowadzić według wszystkich zasad, które muszą uwzględniać osobniki o wszystkich wartościach danej cechy. Dobór osobników z populacji ogólnej odbywa się na zasadzie losowania lub losowania. W biometrii istnieją dwa rodzaje losowego pobierania próbek: duże i małe. Duża próbka nazywa się takim, który obejmuje więcej niż 30 osobników lub obserwacji, oraz mała próbka mniej niż 30 osób. Istnieją różne metody przetwarzania danych dla dużych i małych populacji próbnych. Źródłem informacji statystycznych mogą być dane z dokumentacji zootechnicznej i weterynaryjnej, które dostarczają informacji o każdym zwierzęciu od urodzenia aż do utylizacji. Innym źródłem informacji mogą być dane z eksperymentów naukowych i produkcyjnych prowadzonych na ograniczonej liczbie zwierząt. Po pobraniu próbki rozpoczyna się przetwarzanie. Umożliwia to uzyskanie w postaci wielkości matematycznych szeregu wielkości statystycznych lub współczynników charakteryzujących cechy charakterystyczne grup zwierząt będących przedmiotem zainteresowania.

Metodą biometryczną uzyskuje się następujące parametry lub wskaźniki statystyczne:

1. Wartości średnie o zmiennej charakterystyce (średnia arytmetyczna, tryb, mediana, średnia geometryczna).

2. Współczynniki mierzące wielkość zmienności, tj. (zmienność) badanej cechy (odchylenie standardowe, współczynnik zmienności).

3. Współczynniki mierzące wielkość związku między cechami (współczynnik korelacji, współczynnik regresji i współczynnik korelacji).

4. Błędy statystyczne i wiarygodność uzyskanych danych statystycznych.

5. Udział zmienności powstającej pod wpływem różnych czynników i innych wskaźników związanych z badaniem problemów genetycznych i selekcyjnych.

Podczas statystycznego przetwarzania próby członkowie populacji są zorganizowani w formie szeregu zmian. Seria odmian to grupowanie jednostek w klasy w zależności od wartości badanej cechy. Szereg wariacyjny składa się z dwóch elementów: klas i szeregu częstotliwości. Seria zmian może być przerywana lub ciągła. Wywoływane są funkcje, które mogą przyjmować tylko liczbę całkowitą numer przerywany głów, liczba jaj, liczba prosiąt i inne. Nazywa się cechy, które można wyrazić w liczbach ułamkowych ciągły(wzrost w cm, wydajność mleczna kg, % tłuszczu, żywa masa i inne).

Konstruując serię odmian, stosuje się następujące zasady lub reguły:

1. Ustalić lub policzyć liczbę osobników, dla których zostanie skonstruowany szereg zmian (n).

2. Znajdź maksymalną i minimalną wartość badanej cechy.

3. Ustal przedział zajęć K = max - min / ilość zajęć, ilość zajęć przyjmujemy dowolnie.

4. Konstruuj klasy i wyznaczaj granicę każdej klasy, min+K.

5. Dzielą członków populacji na klasy.

Po skonstruowaniu klas i podziale jednostek na klasy obliczane są główne wskaźniki szeregu zmienności (X, σ, Cv, Mх, Мσ, Мcv). Największą wartość w charakterystyce populacji uzyskała średnia wartość atrybutu. Przy rozwiązywaniu wszelkich problemów zootechnicznych, weterynaryjnych, medycznych, ekonomicznych i innych zawsze określa się średnią wartość cechy (średnia wydajność mleczna w stadzie, % tłuszczu, płodność w hodowli trzody chlewnej, nieśność kurcząt i inne cechy). Do parametrów charakteryzujących wartość średnią cechy zalicza się:

1. Średnia arytmetyczna.

2. Ważona średnia arytmetyczna.

3. Średnia geometryczna.

4. Moda (poniedziałek).

5. Mediana (Me) i inne parametry.

Średnia arytmetyczna pokazuje nam, jaką wartość cech posiadały jednostki danej grupy, gdyby była ona taka sama dla wszystkich i wyznaczana jest wzorem X = A + b × K

Główną właściwością średniej arytmetycznej jest to, że eliminuje ona zmienność cechy i czyni ją wspólną dla całej populacji. Jednocześnie należy zaznaczyć, że średnia arytmetyczna nabiera znaczenia abstrakcyjnego, tj. przy jego obliczaniu uzyskuje się wskaźniki ułamkowe, które w rzeczywistości mogą nie istnieć. Na przykład: wydajność cieląt na 100 krów wynosi 85,3 cieląt, płodność loch wynosi 11,8 prosiąt, produkcja jaj przez kury wynosi 252,4 jaj i inne wskaźniki.

Wartość średniej arytmetycznej jest bardzo wysoka w praktyce hodowli zwierząt i charakterystyce populacji. W praktyce hodowli zwierząt, w szczególności bydła, do określenia średniej zawartości tłuszczu w mleku w okresie laktacji wykorzystuje się ważoną wartość arytmetyczną.

Wartość średnia geometryczna oblicza się, jeśli konieczne jest scharakteryzowanie tempa wzrostu, tempa wzrostu populacji, gdy średnia arytmetyczna zniekształca dane.

Moda wymienić najczęściej spotykaną wartość zmiennej cechy, zarówno ilościowej, jak i jakościowej. Numer modalny dla krowy to numer smoczka 4. Chociaż są krowy z pięcioma lub sześcioma sutkami. W szeregu wariacyjnym klasą modalną będzie klasa, w której występuje największa liczba częstotliwości i definiujemy ją jako klasę zerową.

Mediana nazywa się wariantem, który dzieli wszystkich członków populacji na dwie równe części. Połowa członków populacji będzie miała zmienną wartość cechy mniejszą od mediany, a druga połowa będzie miała wartość większą od mediany (na przykład: standard rasy). Do scharakteryzowania cech jakościowych najczęściej używa się mediany. Na przykład: kształt wymienia jest miseczkowy, okrągły, kozi. Przy prawidłowej opcji próbkowania wszystkie trzy wskaźniki powinny być takie same (tj. X, Mo, Me). Zatem pierwszą cechą populacji są wartości średnie, ale nie wystarczą one do oceny populacji.

Drugim ważnym wskaźnikiem każdej populacji jest zmienność lub zmienność cechy. O zmienności cechy decyduje wiele czynników środowiskowych oraz czynników wewnętrznych, tj. czynniki dziedziczne.

Określenie zmienności cechy ma ogromne znaczenie zarówno w biologii, jak i praktyce hodowli zwierząt. Zatem wykorzystując parametry statystyczne mierzące stopień zmienności cechy, można ustalić różnice rasowe w stopniu zmienności różnych cech ekonomicznie użytecznych, przewidzieć poziom selekcji w różnych grupach zwierząt, a także jej skuteczność .

Obecny stan analizy statystycznej pozwala nie tylko określić stopień przejawów zmienności fenotypowej, ale także dokonać podziału zmienności fenotypowej na jej typy składowe, czyli zmienność genotypową i paratypową. Dekompozycję zmienności przeprowadza się za pomocą analizy wariancji.

Głównymi wskaźnikami zmienności są następujące wielkości statystyczne:

1. Limity;

2. Odchylenie standardowe (σ);

3. Współczynnik zmienności lub zmienności (Cv).

Najprostszym sposobem przedstawienia stopnia zmienności cechy jest użycie granic. Limity wyznaczane są w następujący sposób: różnica pomiędzy wartościami max i min atrybutu. Im większa jest ta różnica, tym większa jest zmienność tej cechy. Głównym parametrem pomiaru zmienności cechy jest odchylenie standardowe lub (σ) i określa się je wzorem:

σ = ±K ∙ √∑ Pa 2-b 2

Główne właściwości odchylenia standardowego, tj. (σ) są następujące:

1. Sigma jest zawsze wartością nazwaną i jest wyrażana (w kg, g, metrach, cm, szt.).

2. Sigma jest zawsze wartością dodatnią.

3. Im większa wartość σ, tym większa zmienność cechy.

4. W szeregu zmian wszystkie częstotliwości zawarte są w ±3σ.

Za pomocą odchylenia standardowego można określić, do jakiego szeregu zmian należy dany osobnik. Metody określania zmienności cechy za pomocą granic i odchylenia standardowego mają swoje wady, ponieważ niemożliwe jest porównanie różnych charakterystyk na podstawie wielkości zmienności. Należy znać zmienność różnych cech u tego samego zwierzęcia lub tej samej grupy zwierząt, np.: zmienność wydajności mlecznej, zawartość tłuszczu w mleku, żywą masę ciała, ilość tłuszczu w mleku. Zatem porównując zmienność przeciwstawnych cech i określając stopień ich zmienności, współczynnik zmienności oblicza się według wzoru:

Zatem głównymi metodami oceny zmienności cech wśród członków populacji są: granice; odchylenie standardowe (σ) i współczynnik zmienności lub zmienności.

W praktyce hodowli zwierząt i badaniach eksperymentalnych często mamy do czynienia z małymi próbkami. Mała próbka nazywają liczbę osobników lub zwierząt nieprzekraczającą 30 lub mniejszą niż 30. Ustalone wzorce przenoszone są na całą populację za pomocą małej próby. Dla małej próby wyznaczane są te same parametry statystyczne, co dla dużej próby (X, σ, Cv, Mx). Jednak ich wzory i obliczenia różnią się od dużej próby (tj. Od wzorów i obliczeń szeregu wariacyjnego).

1. Średnia arytmetyczna wartość X = ∑V

V – wartość bezwzględna opcji lub cechy;

n to liczba wariantów lub liczba osobników.

2. Odchylenie standardowe σ = ± √ ∑α 2

α = x-¯x, jest to różnica między wartością opcji a średnią arytmetyczną. Ta różnica α jest kwadratowa, a α 2 n-1 jest liczbą stopni swobody, tj. liczba wszystkich wariantów lub osobników zmniejszona o jeden (1).

Pytania kontrolne:

1.Co to jest biometria?

2.Jakie parametry statystyczne charakteryzują populację?

3.Jakie wskaźniki charakteryzują zmienność?

4.Co to jest mała próbka

5. Co to jest moda i mediana?

Wykład nr 12

Biotechnologia i przeszczepianie zarodków

1. Pojęcie biotechnologii.

2. Selekcja krów dawców i biorców, przeszczepianie zarodków.

3. Znaczenie przeszczepów w hodowli zwierząt.

W praktyce badań statystycznych często spotyka się małe próbki , które mają objętość mniejszą niż 30 jednostek. Duże próbki zwykle obejmują próbki liczące ponad 100 jednostek.

Zwykle małe próbki stosuje się w przypadkach, gdy użycie dużej próbki jest niemożliwe lub niepraktyczne. Z takimi próbami trzeba mieć do czynienia na przykład podczas badania turystów i gości hotelowych.

Wielkość błędu małej próby określa się za pomocą wzorów różniących się od wzorów dla stosunkowo dużej próby ().

Przy małej próbce N należy wziąć pod uwagę związek między próbą a wariancją populacji:

Ponieważ w małej próbie ułamek jest znaczny, wariancję oblicza się z uwzględnieniem tzw liczba stopni swobody . Rozumie się przez to liczbę opcji, które mogą przyjmować dowolne wartości bez zmiany wartości średniej.

Średni błąd małej próbki określa się według wzoru:

Maksymalny błąd próbkowania dla średniej i proporcji wyznacza się analogicznie jak w przypadku dużej próby:

gdzie t jest współczynnikiem ufności, zależnym od danego poziomu istotności i liczby stopni swobody (Załącznik 5).

Wartości współczynników zależą nie tylko od danego prawdopodobieństwa ufności, ale także od wielkości próby N. Dla poszczególnych wartości t i n prawdopodobieństwo ufności wyznacza rozkład Studenta, który zawiera rozkłady odchyleń standardowych:

Komentarz. Wraz ze wzrostem wielkości próby rozkład Studenta zbliża się do rozkładu normalnego: kiedy N=20 niewiele różni się od rozkładu normalnego. Prowadząc badania na małej próbie, należy wziąć pod uwagę, że im mniejsza jest liczebność próby N, tym większa jest różnica między rozkładem Studenta a rozkładem normalnym. Na przykład kiedy min. = 4 różnica ta jest dość znacząca, co świadczy o spadku dokładności wyników małej próby.