If you're seeing this message, it means we're having trouble loading external resources on our website.

Ако си зад уеб филтър, моля, увери се, че домейните *. kastatic.org и *. kasandbox.org са разрешени.

Основно съдържание
Текущ час:0:00Обща продължителност:4:49

Въведение в остатъчни стойности и регресия по метода на най-малките квадрати

Нормално разпределение и обработка на експериментални резултати

Видео транскрипция

Да кажем, че се опитваме да разберем връзката между височината и теглото на хората. Така че отиваме при 10 различни души и измерваме ръста им и теглото им. И на тази точкова диаграма тук всяка точка представлява един човек. Например, тази точка тук представлява човек, чийто ръст е 60 инча, или 5 фута. Това е точката (60;...) и теглото му, което имаме на оста у, е било 125 паунда. Когато погледнеш точковата диаграма, очите ти естествено виждат някакъв вид модел. Изглежда, общо казано, че докато ръстът се увеличава, теглото също се увеличава. Но казах общо казано. Определено имаш обстоятелства, където има по-високи хора с по-ниско тегло. Но интересен въпрос е дали можем да опитаме да напаснем права към тези данни. И тази идея за опитване да напаснем права колкото по-близо е възможно до колкото се може повече точки е познато като линейна регресия. Най-честата техника е да опитаме да напаснем права, която минимизира разстоянието на квадрат до всяка от тези точки и ще говорим повече за това в бъдещи видеа. Но засега искам да получим интуитивно усещане. Ако просто го оценим на око и погледнем такава права, няма да мислиш, че това е добро напасване. Изглежда повечето от данните стоят над правата. Подобно, нещо такова също не изглежда добре. Тук повечето от точките ни данни седят под правата. Но нещо такова изглежда много добре. Изглежда се доближава колкото е възможно повече до колкото е възможно повече точки. Изглежда описва този общ модел. Това е реалната права на регресия. И уравнението тук бихме записали като... ще запишем у с малка шапцита отгоре и това означава, че опитваме да изчислим приблизително у за дадено х. Това няма винаги да е реалното у за дадено х. Понеже, както виждаме, понякога точките не стоят на правата. Но казваме, че у с шапка е равно на... и пресечната ни точка с оста у за тази определена права на регресия е -140 плюс наклон от 14/3 по х. Сега, както можем да видим, за повечето от тези точки при дадена х стойността на тези точки, приблизителното изчисление, което правата на регресия ни дава е различно от реалната стойност. И тази разлика между реалната стойност и приблизителното изчисление от правата на регресия е познато като остатъчна стойност. Нека запиша това. Например, остатъчната стойност в тази точка, остатъкът в тази точка ще е равен на, за дадено х, реалната стойност на у минус изчислената стойност на у от правата на регресия за същото това х. Или, друг начин да помислим за това е, за тази х стойност, коато х е равно на 60, говорим за остатъчната стойност само в тази точка, тя ще е реалната у стойност минус приблизителното ни изчисление за стойността на у от тази права на регресия за тази стойност на х. Спри видеото и виж дали можеш да изчислиш остатъчната стойност. Можеш визуално да си я представиш като това ето тук. За да изчислим остатъчната стойност е вземеш реалната стойност, която е 125, за тази х стойност. Помни, изчисляваме остатъчната стойност за една точка. Това е реалното у тук минус... каква ще е изчислената ни у стойност тук за тази х стойност? Можем просто да дойдем до това уравнение и да кажем какво ще е у с шапка, когато х е равно на 60. И това ще е равно на, да видим, имаме 140 + 14 върху 3 по 60. Да видим, 60/3 е 20. 20 по 14 е 280. И всичко това ще е 140. Остатъчната ни стойност за тази точка е е 125 - 140, което е -15. И остатъчните стойности могат да са отрицателни. Ако остатъчната стойност е отрицателна, това означава, че за тази х стойност, за точката информация, реалната ти у стойност е под приблизително изчислената. Ако изчислим остатъчната стойност тук или ако изчислим реалната стойност тук, реалната стойност за тази х стойност е над приблизително изчислената, така че ще получим положителни остатъчни стойности. И, както ще видиш по-късно в кариерата си по статистика, начинът да изчисляваме тези прави на регресия цели да минимизира квадрата на тези остатъчни стойности.
Кан Академия – на български благодарение на сдружение "Образование без раници".