If you're seeing this message, it means we're having trouble loading external resources on our website.

Ако си зад уеб филтър, моля, увери се, че домейните *. kastatic.org и *. kasandbox.org са разрешени.

Основно съдържание

Условия за извеждане на статистически изводи за наклона

Представяне на условията за определяне на доверителен интервал и извършване на проверка за наклона в регресия, получена по метода на най-малките квадрати.

Искаш ли да се присъединиш към разговора?

Все още няма публикации.
Разбираш ли английски? Натисни тук, за да видиш още дискусии в английския сайт на Кан Академия.

Видео транскрипция

В предишно видео започнахме да мислим как можем да използваме една регресионна права и, в частност, ъгловия коефициент (наклона) на една регресионна права, въз основа на данни от извадка, как можем да използваме това, за да направим извод за ъгловия коефициент на регресионната права на реалната генерална съвкупност. В това видео ще помислим какви са условията за извод, когато си имаме работа с регресионни прави? И те по някои начини ще са подобни на условията за извод, за които се сетихме, когато правехме тестване на хипотеза и доверителни интервали за средни стойности и дял/част/процент, но ще има няколко нови условия. За да запомним тези условия, може да искаш да помислиш за акронима LINER. Ако не го забелязваш, това е почти като linear (линейно). LINER, ако имаше а, щеше да е linear (линейно). Това е полезно, понеже, помни, мислим за линейна регресия. L тук означава linear (линейно). И тук условието е реалната зависимост в генералната съвкупност между променливите х и у да е линейна зависимост – реална линейна зависимост между х и у. В много случаи може просто да трябва да приемеш, че е така, когато го видиш на изпит, например на изпит за напреднали. Може да ти кажат да приемеш, че условието е изпълнено. Често ще ти казват да приемеш, че всички тези условия са изпълнени. Те просто искат да знаеш за тези условия. Но това е нещо, за което да помислиш. Ако зависимостта е нелинейна, тогава може би някои от твоите изводи може да не са толкова добри. Следващото условие сме виждали преди, когато говорихме за общите условия за извод и това е условието за независимост (independance). И има два начина да помислим за това. Или отделните наблюдения са независими едно от друго. Тоест може да правиш извадка със заместване. Или може да мислиш за 10%-ното правило, както сме правили, когато обмисляхме условието за независимост за части и средни стойности, при които трябва да сме уверени, че размерът на извадката е не повече от 10% от размера на генералната съвкупност. Следващото е условието за нормалност (normal condition), за което сме говорили, когато правехме изводи за части и средни стойности. Това означава нещо по-сложно, когато си имаме работа с регресия. Условието за нормалност – и, отново, много пъти хората просто ще приемат, че е било изпълнено. Но нека начертая една регресионна права, но с малко перспектива и ще добавя трето измерение. Нека кажем, че това е оста х и да кажем, че това е оста у. И регресионната права на реалната генерална съвкупност изглежда така. Условието за нормалност ни казва, че за всяко дадено х в реалната генерална съвкупност разпределението на всички у е нормално. Да видя дали мога да начертая нормално разпределение за всички у при това х. Това тук ще е нормално разпределение. И, после, да кажем за това х тук, също ще очакваш нормално разпределение, точно като това. Ако ни дават х, разпределението на всички у трябва да е нормално. Отново, много пъти просто ще ти кажат да приемеш, че това условие е било изпълнено, защото, поне във въвеждащия клас по статистика, може да е малко трудно да разбереш това самостоятелно. Следващото условие е свързано с това и то е идеята за равна дисперсия (equal variance), равна дисперсия. И това просто казва, че всяко от тези нормални разпределения трябва да има същото разсейване за дадено х. Можеш да кажеш равна дисперсия или може дори да помислиш за това като за равно стандартно отклонение. Например ако, за дадено х, да кажем за това х, имаш много по-ниска дисперсия – направих го ето така – тогава вече няма да изпълняваш условията за извод. Последно, но не и по-важност, и това сме виждали много пъти, е условието за случайност (random condition). И това значи данните да идват от добре създадена случайна извадка или от някакъв вид експеримент на случаен принцип. Това условие сме виждали във всеки вид условие за извод, което сме разгледали дотук. И ще приключим тук. Добре е да знаеш тези неща. Може да ги има на някои изпити. Но много пъти, когато дойде ред за решаване на задачи във въвеждащ курс по статистика, те ще ти кажат да приемеш, че условията за извод са били изпълнени. Или "какви са условията за извод?" Но всъщност няма да те накарат да докажеш, например, условието за нормалност или за равна дисперсия. Това ще е прекалено сложно за въвеждащ клас по статистика.