Основно съдържание
Курс: Физика – 11. клас (България) > Раздел 4
Урок 3: Метод на най-малките квадрати- Диаграми на остатъците (остатъчните стойности)
- Диаграми на остатъците (остатъчните стойности)
- Логиката на R на квадрат - коефициент на детерминация
- R-квадрат или коефициент на детерминация
- Стандартно отклонение на остатъчни стойности или средно квадратично отклонение
- Интерпретиране на данни за регресия от компютър
- Интерпретиране на изходящи данни за регресия от компютър
- Влияние на премахването на отдалечените стойности върху прави на регресия
- Влияние на важните точки
© 2024 Khan AcademyУсловия за ползванеДекларация за поверителностПолитика за Бисквитки
Логиката на R на квадрат - коефициент на детерминация
Когато първо учихме за коефициента на корелация , се фокусирахме върху това какво означава той, а не върху това как да го изчислим, понеже изчисленията са дълги и обикновено компютрите ги извършват вместо нас.
Ще направим същото с и ще се фокусираме върху това как да интерпретираме какво означава това.
По определен начин измерва каква част от грешката при прогнозата е елиминирана, когато използваме регресия по метода на най-малките квадрати.
Прогнозиране без регресия
Използваме линейна регресия, за да прогнозираме при дадена някаква стойност на . Но да предположим, че трябва да прогнозираме стойността на , без да знаем съответната стойност на .
Без да използваме регресия за променливата , най-логичното ни изчисление ще е просто да прогнозираме средно аритметичното на стойностите на .
Ето един пример, където правата на прогнозата е просто средната стойност на данните :
Забележи, че тази права изглежда не съвпада много добре с данните. Един начин да измерим съвпадането на тази права е да изчислим сбора от повдигнатите на квадрат остатъчни стойности – това ни дава цялостно усещане за това каква е грешката на даден модел при прогнозиране.
Така че, без да използваме регресия по метода на най-малките квадрати, сборът от квадратите на отклоненията е .
Използването на регресия по метода на най-малките квадрати ще намали ли грешката на прогнозата? Ако да, с колко? Да видим!
Прогнозиране с регресия
Това са същите данни със съответната права на регресия по метода на най-малките квадрати и обобщителни статистически характеристики:
Уравнение | ||
---|---|---|
Тази права изглежда съвпада доста добре с данните, но за да измерим колко по-добре съвпада, можем отново да погледнем сбора на повдигнатите на квадрат остатъчни стойности:
Използването на регресия по метода на най-малките квадрати намали сбора на повдигнатите на квадрат остатъчни стойности от до .
Така че използването на регресия по метода на най-малките квадрати елиминира значително количество грешка на прогнозирането. Но колко?
R на квадрат измерва колко грешка на прогнозирането сме елиминирали
Без да използваме регресия, моделът ни имаше общ сбор от квадратите на отклоненията . Като използвахме регресия по метода на най-малките квадрати намалихме този сбор до .
Общото намаление тук е .
Можем да представим това намаление като процент от първоначалното количество грешка на прогнозирането:
Ако отново погледнеш по-горе, ще видиш, че .
R на квадрат ни казва какъв процент от грешката на прогнозиране в променливата е елиминирана, когато използваме регресия по метода на най-малките квадрати при променливата .
Като резултат, също се нарича и коефициент на детерминация.
Много формални определения казват, че ни казва какъв процент от вариацията в променливата се отчита от регресията на променливата .
Изглежда доста забележително, че просто повдигането на на квадрат ни дава това измерване. Доказването на тази зависимост между и е доста сложно и е извън обхвата на един въвеждащ курс по статистика.
Искаш ли да се присъединиш към разговора?
Все още няма публикации.