If you're seeing this message, it means we're having trouble loading external resources on our website.

Ако си зад уеб филтър, моля, увери се, че домейните *. kastatic.org и *. kasandbox.org са разрешени.

Основно съдържание

Намиране на дисперсията на разлика на случайни величини

Сал намира дисперсията на разлика от случайни променливи. Създадено от Сал Кан.

Искаш ли да се присъединиш към разговора?

Все още няма публикации.
Разбираш ли английски? Натисни тук, за да видиш още дискусии в английския сайт на Кан Академия.

Видео транскрипция

В този клип искам да представя някои методи за работа със суми и разлики на случайни променливи. Нека кажем, че имаме две случайни променливи X и Y, и те са напълно независими. Те са независими случайни променливи. И тук ще отида отвъд обичайния начин за записване. Ако искаме да знаем очакваното... или ако разглеждаме очакваната стойност на тази случайна променлива X, това е същото нещо като средната стойност на тази случайна променлива X. Ако говорим за очакваната стойност на Y, тя е равна на средната стойност на Y. Ако говорим за дисперсията на случайната променлива X, Забележка: Сал записва дисперсията като Var(X), а на български е прието да се изписва като D(X) тя е равна на очакваната стойност от квадратите на отклоненията на нашата случайна променлива X и нейната средна стойност. И това е на квадрат. Очакваната стойност на тези отклонения на квадрат. Тук можем да използваме също означението сигма на квадрат за случайната променлива X. Това е преговор на неща, които вече знаем, но искам само да ги въведа повторно, защото ще използвам това при изграждането на някои от нашите методи. Правим същото нещо за случайната променлива у. Дисперсията на случайната променлива у е очакваната стойност на разликата на стойността на нашата случайна променлива Y и средната стойност на Y, или очакваната стойност на Y, това е на квадрат. А това е равно на сигма на квадрат от Y. Това е дисперсията на Y. Сега може да знаеш, а може и още да не знаеш тези свойства на очакваните стойности и дисперсията, но ще ти ги представя пак. Няма да се впускам в някакво подробно доказателство, всъщност мисля, че такива доказатеслтва сравнително лесно се възприемат. Едно такова е, ако имам някаква трета случайна променлива, да кажем имам някаква трета случайна променлива, която е дефинирана като случайната променлива X плюс случайната променлива Y. Нека останат цветовете, за да стане всичко ясно. Случайната променлива X плюс случайната променлива Y. Каква ще бъде очакваната стойност на Z? Очакваната стойност на Z ще е равна на очакваната стойност от X плюс Y. А това е свойство на очакваните стойности – няма да го доказваме строго тук, но очакваната стойност на X плюс очакваната стойност на Y... или друг начин да разгледаме това е: средната стойност на Z е равна на средната стойност на X плюс средната стойност на Y. Друг начин да разгледаме това е: ако искаме да вземем... да кажем, че имам някаква друга случайна променлива. Свършват ми буквите. Да кажем, че имам случайната променлива А, и аз определям случайната променлива А да е равна на Х минус Y. Каква ще е нейната очаквана стойност? Очакваната стойност на А ще е равна на очакваната стойност на Х минус Y, което е равно на... можем или да го разглеждаме като очакваната стойност на Х плюс очакваната стойност на минус Y, или очакваната стойност на Х минус очакваната стойност на Y, което е равно на средната стойност на Х минус средната стойност на Y. Така че на това ще е равна нашата случайна променлива А. Всичко това е преговор и ще го използваме, когато започнем да говорим за разпределения, които представляват суми и разлики от други разпределения. Сега нека помислим каква е дисперсията на случайната променлива Z и каква е дисперсията на случайната променлива А. И така, дисперсията на Z... винаги трябва да търсим логиката, а това е логично. Ако Х е напълно независима от Y, и ако имам някаква случайна променлива, която представлява сумата от двете, тогава очакваната стойност на тази променлива, тази нова променлива ще е равна на сумата от очакваните стойности на другите две, защото те не са свързани. Ако моята очаквана стойност тук е 5, а на това другото място е 7, напълно разумно е очакваната ми стойност тук да е 12, ако приемем, че те са напълно независими. Ако имаме една такава ситуация, каква е дисперсията на моята случайна променлива Z? И пак да кажа, че тук няма да правя строго доказателство, това си е всъщност едно свойство на дисперсията. Но аз ще използвам това, за да разбера каква е дисперсията на нашата случайна променлива А. Ако квадратът на това отклонение е някаква дисперсия, и това е напълно независимо, квадратът на това отклонение е някакво разстояние, тогава дисперсията на техния сбор всъщност ще представлява сумата от дисперсиите. И това ще е равно на дисперсията на случайната променлива Х плюс дисперсията на случайната променлива Y. Или друг начин, по който да помислим за това, е, че дисперсията на Z, е равна на дисперсията на (Х + Y), е равна на дисперсията на Х плюс дисперсията на случайната променлива Y. Надявам се, че това има смисъл. Няма да ти го доказвам подробно. А и ще видиш тези неща в много статистически книги. Сега това, което искам да ти покажа, е че дисперсията на случайната променлива А всъщност ще е точно това нещо. И това е интересното, защото може би си казваш: "Хей, а защо това да не е разликата?" Имахме разликите тук. Та нека поекспериментираме малко с това. Дисперсията... само ще напиша това – Дисперсията на случайната променлива а е равна на дисперсията на... ще напиша това така – като Х – Y, което е равно на... можем да го разглеждаме така – което е равно на дисперсията на Х плюс (–Y). Това са равносилни твърдения. И това можем да го разглеждаме като равно на... само използваме това тук, сумата от тези две дисперсии ще е равна на сумата от дисперсията на Х плюс дисперсията на (–Y). Сега това, което е нужно да ти покажа, е че дисперсията на (–Y), отрицателното на тази случайна променлива, е точно равна на дисперсията на Y. Та каква е дисперсията на (–Y)? Дисперсията на (–Y) е точно равна на дисперсията на (–Y), която е равна на очакваната стойност на разстоянието между –Y и очакваната стойност на –Y, повдигнато на квадрат. Всъщност точно това представлява дисперсията. Каква е очакваната стойност на –Y тук? Всъщност, по-добре нека изнеса пред скоби –1. Какво имаме в кръглите скоби тук, това е точно равно на минус 1 на квадрат, умножено по Y плюс очакваната стойност на –Y. Т.е. това е абсолютно същото в кръглите скоби, на квадрат. И всичко, което е в лилаво, всичко в лилаво тук представлява очакваната стойност на това нещо. Каква е очакваната стойност на –Y? Очакваната стойност на (–Y)... ще я покажа тук – очакваната стойност на отрицателната случайна променлива е равна на отрицателното на очакваната стойност на тази случайна променлива. Така че, ако погледнем това, тук можем да препишем – ще направя малко повече място – можем да препишем това като очакваната стойност – дисперсията на (–Y) е очакваната стойност – която си е 1. Минус 1 на квадрат си е само 1. А тук имаме у, и вместо да пишем плюс очакваната стойност на (–Y), това ще е точно равно на минус очакваната стойност на Y. Така че имаме това, и след това всичко това на квадрат. И забележи, това е точно същото нещо по определение като дисперсията на у. И това, което току що показахме, това е дисперсията на Y. Така че показахме, че дисперсията на разликата на две независими случайни променливи е равна на сумата от дисперсиите на променливите. Това определено е вярно, имаме равенство със сумата от дисперсията на първото и дисперсията на отрицателната стойност на второто. И всъщност показахме, че дисперсията е точно равна на дисперсията на положителната версия на тази променлива, което е логично. Нашето отклонение от средната стойност ще бъде... няма значение дали вземаме положителния или отрицателния вариант на променливата. Интересува ни само абсолютното разстояние. Така че е напълно логично тази стойност и тази стойност да са равни помежду си. И причината да направим това упражнение, един вид важните изводи тук, са свързани с това, че средната стойност на отклоненията тук – мога да препиша това като средната стойност на отклоненията на случайната променлива, е равна на отклоненията на средните им стойности. И тогава другият важен извод, който ще използваме в следващите няколко клипа, е това, че дисперсията на разликата... ако определя една нова случайна променлива като разликата на две случайни променливи, дисперсията на тази случайна променлива всъщност е сборът от дисперсиите на двете случайни променливи. Така че това са двата важни извода, които ще използваме и ще надградим по-нататък. Както и да е, надявам се, че това не е било твърде объркващо. Ако е било объркващо, можеш да приемеш всичко като основни факти и да приемеш тези формули като подходящи за използване.