Tip:
Highlight text to annotate it
X
Искам да използвам този клип, за да се уверя,
че, така или иначе
разбираме разликата между една Z-статистика...
нещо, което трудно казвам -
и една t-статистика.
Т.е. в голяма част от това, което правим в тази подразбираща се статистика,
ние се опитваме да разберем каква е вероятността
да получим определена образцова средна стойност.
Та какво правихме досега,
- особено когато имаме голям образцов размер -
нека тук начертая едно образцово разпределение.
Да кажем, че имаме образцово разпределение,
на образцовата средна стойност тук.
Тя има някаква допусната средна величина
и някакво стандартно отклонение.
Това, което искаме да направим е при всеки получен резултат,
нека кажем, че получаваме някаква образцова средна стойност тук.
Искаме да намерим вероятността да получим
резултат поне толкова краен като този.
Така че можем или да намерим вероятността за получаване
на резултат под този и да извадим това от 1,
или само да намерим тази област там.
И за да направим това пресмятахме колко
стандартни отклонения над средната стойност всъщност имаме.
Начинът, който намерихме е този, при който вземаме средната стойност,
изваждаме я от нея самата,
това което допускаме да е средната стойност
или може би не знаем какво е това.
После разделяме полученото със стандартното отклонение
на образцовото разпределение.
Разделяме това със стандартното отклонение
на образцовото разпределение.
Това е начинът, по който много стандартни отклонения
са над средната стойност.
Тя е това разстояние, което виждаме там.
Така, обикновено и не знаем какво е това.
По принцип не знаем и това какво е.
И централната гранична теорема ни казва, че ако предположим, че имаме
един достатъчен образцов размер, това нещо тук,
това нещо ще е равно на
стандартното отклонение на нашето население,
разделено на корен квадратен на нашия образцов размер.
Така че това нещо тук можем да го препишем като нашата
образцова средна стойност минус средната стойност на нашето образцово разпределение
на образцовата средна стойност, разделена на това нещо тук -
разделена на нашата популационна средна стойност,
която пък разделяме на корен квадратен от нашия образцов размер.
И това по същество е нашият най-добър смисъл за това на колко
стандартни отклонения отвъд настоящата средна стойност се намираме.
А това нещо тук, научихме го наскоро,
е един Z-резултат.
Или когато се занимаваме с актуална статистика, когато
се извлича от образцовата средностойностна статистика,
тогава го наричаме Z-статистика.
Тогава можем да го погледнем в Z- таблица или в някоя нормална
таблица с разпределение, за да кажем каква е вероятността
да намерим стойност с това Z или по-голяма.
И така ще получим тази вероятност.
И каква е вероятността да получим тази
крайност на даден резултат?
Ами нормално когато сме правили това в миналите няколко клипа,
няма как и да знаем какво е стандартното отклонение
на населението.
Така че за да приближим тази стойност, казваме че Z-резултатът
е приблизително, или Z-статистиката
приблизително ще бъде
- но нека само пак напиша числителя -
пресмятаме това с помощта на нашето стандартно отклонение -
нека използвам нов цвят -
и използваме нашето образцово стандартно отклонение.
Което е добре, ако образцовият ни размер е по-голям от 30.
Или друг начин да помислим за това е когато имаме
нормално разпределение при по-голяма стойност от 30 на образцовия размер.
Дори и това приближаване ще е
приблизително нормално разпределено.
Така, ако образцовият ни размер е по-малък от 30,
особено ако е малко по-малко от 30, внезапно
този израз няма да е нормално разпределен.
Нека препиша израза тук.
Образцовата средна стойност минус средната стойност на нашето образцово разпределение
на образцовата средна стойност, разделена на образцовото стандартно отклонение
върху корен квадратен от образцовия размер.
Преди малко казахме, че ако това е със стойност над 30 или поне 30,
тогава тази стойност тук, тази статистика,
ще е нормално разпределена.
Ако не е така, ако това е с малка стойност,
тогава ще е налице t-разпределение.
И тогава ще направим същото, което направихме
тук, но този път ще допуснем, че тази камбанка повече не представлява едно
нормално разпределение, така че в този пример е било нормално..
Всички Z-ове са нормално разпределени.
Тук t-разпределението всъщност ще е едно
нормализирано t-разпределение, защото
извадихме средната стойност.
Така в едно нормализирано t-разпределение,
ще имаме средна стойност, равна на 0.
И това, което ще направим, искаме да намерим
вероятността да получим t-стойност с достатъчна крайност.
Така че това е нашата t-стойност, която ще получим, след което
по същество излиза областта, която се вижда под извивката
там.
Следва едно много лесно правило на палеца:
Пресмятане на това количество по един от двата начина.
Ако ще имаме на разположение повече от 30 образеца,
и нашият образцов размер е повече от 30,
тогава нашето образцово стандартно отклонение ще е
с добра приближена стойност за нашето популационно стандартно отклонение.
Така че цялото това ще е
приблизително нормално разпределено,
и можем да използваме една Z-таблица, за да намерим
вероятността за получаване на достатъчно краен резултат.
Ако образцовият ни размер е малък, тогава тази статистика,
това количество, ще представлява едно t-разпределение,
и тогава ще трябва да използваме t-таблица,
за да намерим вероятността да се получи дадена
t-величина с достатъчна крайност.
Ще видим това в един пример, който ще представя в два
клипа от тук нататък. Както и да е,
надявам се, че материалът ви е помогнал в изясняването на някои неща в ума ви,
относно това кога да се използва Z-статистика или кога - t-статистика.