Ако виждаш това съобщение, значи уебсайтът ни има проблем със зареждането на външни ресурси.

If you're behind a web filter, please make sure that the domains *.kastatic.org and *.kasandbox.org are unblocked.

Основно съдържание

Матрица на Якоби

Запознаване с това как матрицата на Якоби представя как една функция на много променливи локално изглежда като линейна трансформация.

Искаш ли да се присъединиш към разговора?

Все още няма публикации.
Разбираш ли английски? Натисни тук, за да видиш още дискусии в английския сайт на Кан Академия.

Видео транскрипция

В последния видео клип разгледахме тази конкретна функция. Това е една силно нелинейна функция. Представихме я като трансформация, която взима всяка точка (х; у) в пространството и я пренася в точка (х + sin(у); у + sin(х)). След това ние "разгледахме под лупа" някаква конкретна точка. Всъщност ще запиша коя е точката, която разглеждаме – това е точката (–2; 1). Това е точката, която ще запиша тук, (–2; 1). Аз добавих още линии към мрежата около тази точка, за да можем да виждаме добре какво се случва при трансформацията с точките, които са в околността на тази точка. Това квадратче ето тук показва увеличената версия на околността на точката. Това, което виждаме, е, че макар тази функция като трансформация да изглежда много сложна, въпреки това около тази точка тя изглежда като линейна функция. Тя е локално линеализирана, така че това, което ще ти покажа, е коя е матрицата, която ни показва как изглежда линейната функция. Това е матрица две по две. Ще я направя по-голяма. Това е матрица две по две, и аз си представям първо, че се връщам в оригиналната ситуация преди трансформацията и си представям една съвсем малка стъпка надясно. Представям си едно малко, частно х. Това е една миниатюрна стъпка в посока х. Това, което се получава след трансформацията, е една малка стъпка в изходното пространство. Тук всъщност ще начертая до какво довежда тази малка стъпка. Тя вече не е изцяло по направление на х. Тя има компонент надясно. Но сега има и компонент надолу. За да мога да представя това по един добър начин, аз ще направя така, че вместо да запиша цялата функция като функция, която има на изхода си вектор, аз ще я представя като две отделни скаларни функции. Ще запиша скаларната функция f1 от (х; у) – просто давам име на (х + sin(у)), и f2 от х и у – просто означавам втората функция, която вече ни е дадена. Когато разглеждам този вектор, резултатът от малките стъпки dx във входното пространство съответства на някакво малко преместване d в изходното пространство. Компонентът х на това преместване, ако трябва да го начертая, и ако се запитам какъв е компонентът х на това преместване, то е нещо, което си представяме като малка частна промяна на f1 – х-компонентът на изходната стойност. Ако разделим това, ако вземем частно f1, разделено на размера на тази малка първоначална промяна, това по същество мащабира този вектор до един вектор с нормални размери. Това вече не е малко преместване, а нещо константно, което не се смалява, когато променяме мащаба все повече и повече. По същия начин промяната в посока у, вертикалният компонент на тази малка стъпка, пак е резултат от това dx, отново е резултат от първоначалната стъпка надясно, която е една малка, частна промяна на f2. у компонентът на изходната стойност, който разглеждаме тук в изходното пространство, е резултат от тази частна промяна в посока х. И аз пак предпочитам да разглеждам това все едно делим на една малка стойност. Това частно f2 е една наистина малка стъпка. Но като го разделим на първоначалната малка промяна, която го причинява, получаваме нещо, което всъщност е число. Нещо, което не се смалява, когато увеличаваме все повече мащаба. Така че това се случва, когато правим една малка стъпка в посока х. Другото нещо, което можем да направим, което можем да разгледаме, е една малка стъпка по посока у. Защото искаме да знаем – ако направим една малка стъпка нагоре, в какво се превръща тя след трансформацията. Изглежда, че този вектор все още има някакъв компонент нагоре. Но той има и компонент надясно. Сега ще запиша компонентите му като втори стълб на матрицата. Защото, както знаем, когато представяме една линейна трансформация като матрица, първият стълб ни показва къде отива първият базисен вектор, а вторият стълб ни показва къде отива вторият базисен вектор. Ако това ти звучи непознато, можеш да гледаш видеото, в което правим преговор, или да се върнеш и да видиш някои уроци от линейната алгебра. За да намерим координатите на този вектор, ние по същество правим същото нещо. Да кажем, че промяната в посока х – х компонентът на този вектор на преместването, ще бъде частната промяна на f1, към х-компонента на изходната стойност. Тук разглеждаме базисния вектор на изходната стойност. Имаме f1 и f2, и си задаваме въпроса какви промени възникват в резултат на малката промяна по посока у. Значи промяната на f1 е причинена от някаква малка стъпка в посока у, разделена на размера на тази малка стъпка. След това у-компонентът на нашия изходен вектор, у-компонентът на стъпката при изходната стойност, която е причинена от първоначалната малка стъпка нагоре във входното пространство. Това е промяната на f2, втория компонент на нашата изходна стойност в резултат на dy. Като е причинена от това малко частно у. Разбира се, всичко това е много специфично по отношение на точката, от която тръгнахме. Ние тръгнахме от точката (–2; 1). Значи всяка от тези частни производни е нещо, което просто казва: вземи функцията, изчисли я в точката (–2; 1), (грешно я произнася като (2; –1)) и когато я изчислиш за всяко от тези в точката (-2; 1), тогава ще получиш някакво число. (грешно я произнася като (2; –1)) Това ще ти даде една конкретна матрица две по две, която ще представя линейната трансформация, която наблюдаваме, когато разгледаме под лупа околността на тази точка. Тази матрица, която съдържа всички частни производни, си има специално име. Тя се нарича, както може би вече се досещаш, Якобиан. Още по-пълното име е матрица на Якоби. Един начин да я разглеждаме, е, че тя съдържа цялата информация за частните диференциали. Тя отчита и двата компонента на изходната стойност и двата възможни компонента на входната стойност. Тя ни дава един вид мрежата какви са всички частни производни. Надявам се, че разбираш, че това е много повече от това просто да запишем какви са частните производни. Има причина тя да бъде подредена по този конкретен начин, което е свързано с понятието локална линеаризация. Ако разбираш, че матрицата на Якоби по начало е замислена да представлява как изглежда трансформацията, ако "разгледаме под лупа" околността на една конкретна точка, тогава всичко друго ще започне да си идва на мястото. В следващото видео ще изчислим това, което виждаш тук, за да ти покажа как изглежда този процес и как резултатът, който получаваме, един вид пасва на картинката. До скоро!