If you're seeing this message, it means we're having trouble loading external resources on our website.

Ако използваш уеб филтър, моля, увери се, че домейните *. kastatic.org и *. kasandbox.org са разрешени.

Основно съдържание

Очакванията трябва да са реалистични

Бърз преглед на това, което големите езикови модели могат да правят добре, и на това, с което засега не се справят толкова добре.

Какво мога да очаквам?

Големите езикови модели като ChatGPT на OpenAI са компютърни програми, които са обучени въз основа на огромни масиви с информация да извличат смисъл от текстове и да създават езиков отговор. Тези модели се справят много добре с някои неща, но все още имат известни ограничения!
Вероятно никой не би използвал отвертка, за да забие пирон, нали? Когато използваме чатбот, базиран на ГЕМ, за задачи, за които той е предназначен, получаваме много по-добри резултати!

С какво се справят добре ГЕМ?

Справят се добре с: Обработка на езика

Големите езикови модели се справят страхотно с извличането на смисъл от езика. Те не "разбират" езика по начина, по който го разбира човек, но те могат да го анализират и да намерят смисъла в него, дори когато не е написан много ясно. Те са обучени с такъв голям обем информация, че са се научили да разпознават модели и от тези модели разпознават смисъла на думите в дадения контекст.
Опростяването и резюмирането на дълги, сложни текстове е една от суперсилите на ИИ. Той е добър в извличането на ключовите изводи, но е добра идея това да се проверява, за да не се изпуснат ключови моменти!

Справят се добре със: Създаване на текстове

Големите езикови модели са добри също така при създаване на текстове. Може да им се зададе въпрос (prompt) и те да напишат параграф или даже цяла статия, която изглежда така, сякаш е написана от човек и то човек с много добра езикова култура!

Справят се добре с: Бреймсторминг

Учителите вече използват ГЕМ, които им помагат с идеи за техните часове. Ако се зададе конкретно задание и няколко примера, ГЕМ може да генерира различни варианти, например примерни дейности в часа, интересни резюмета или примерни въпроси за тестове.

В какво не са толкова добри ГЕМ?

Не се справят толкова добре с: Понякога си измислят нещата!

Въпреки че големите езикови модели могат да обработят добре езикова информация по обикновени теми, понякога те дават грешна информация, която често изглежда като измислена. Хората в сферата на ИИ и ГЕМ наричат това "халюцинации". Причините за това може да са няколко:
  • Грешни данни за обучение: Огромните масиви с информация, с които се обучават ГЕМ, съдържат милиони думи и често са от различни източници, включително статии, книги, интернет публикации и даже постове в социалните мрежи. Ако данните, с които е извършено обучението, съдържат грешки, моделът ще усвои тези грешки. Ако данните са непоследователни или хаотични, ИИ може да използва връзки, които не съществуват, или да изкриви информацията.
  • Остарели данни за обучение: Събирането на данните, въз основа на които да се обучава даден ГЕМ, отнема дълго време, а е нужно допълнително време и за самото обучение. ГЕМ не могат просто да бъдат "актуализирани" с "цялата нова информация в интернет." Така че моделът не знае абсолютно нищо за случващото се в последно време — понякога това е до две години назад. Когато данните за обучение на един ГЕМ не дават възможност да се генерира отговор, базиран върху факти, ГЕМ започва да халюцинира. Някои търсачки работят по този проблем, като свързват моделите с интернет, но не може да се приеме автоматично, че това се отнася за всеки един ГЕМ, който използваш.

Не ги бива с математиката!

Големите езикови модели не могат да правят пресмятания самостоятелно. Когато на ГЕМ се зададе математическа задача, той генерира отговора по същия начин, по който генерира текст: въз основа на вероятности. Ето защо понякога допуска грешки дори с най-прости аритметични задачи или по-сложни математически понятия.
Моделът може да допусне грешки и ако му бъде зададено да генерира текст, който включва числа или изчисления. Ако данните за обучението му съдържат грешни пресмятания, моделът може да ги възпроизведе. Например моделът може да каже, че 3(4+2)=14.

Не се справя толкова добре с: Фалшиви уебсайтове и други “халюцинации”

Както вече казахме по-горе, ако ГЕМ не разполага с необходимите данни, за да даде отговор, той може да си измисли доста убедителен такъв, и подобни "халюцинации" се срещат често:
  • Фалшиви уебсайтове: Може да цитира URL, а такава уебстраница да не съществува.
  • Грешни уебсайтове: Може да даде линк към сайт, който няма нищо общо с темата.
  • Фалшиви цитати: Може да цитира източник, който никога не е съществувал, или да твърди, че двама реални автори, които никога не са работили заедно, са съавтори на дадено изследване, може да си измисля фалшиви имена на автори или фалшиви заглавия на статии, изследвания и книги!

Не се справя толкова добре с: Не разбира задълбочено сложни понятия и концепции

Макар големите езикови модели да обработват езика добре по общи теми, те не винаги са толкова ефективни в подробното обсъждане на високоспециализирани теми. Например, може да се затрудняват в точното определяне и обясняване на нюансите в сложна медицинска процедура. Ако бъде притиснат, ИИ може да започне да си съчинява неща (виж по-долу).

Не се справя толкова добре: Не знае какъв е конкретният контекст

Може да звучи очевидно, но нека го кажем отново – моделите не знаят цялата информация, свързана с теб и средата, която те заобикаля. Ако си ученик или учител в училище, моделът не знае нищо за седмичната учебна програма, кой има лош ден или че никога не си имал задълбочен интерес към конкретна тема по физика или по химия. Ето защо ИИ може да ти предложи идеи или да създаде текст, който е напълно безполезен за теб или за съответния урок.

Обобщение: Не се доверявай! Проверявай!

ГЕМ са специализирани инструменти, подобряващи производителността: Научи се как да ги използваш така, че да подобриш производителността си. Не ги питай за неща, които няма как да знаят, защото може да си ги измислят. Научи се да си сътрудничиш с тях, но да не зависиш от тях за творчески задачи.
Предпазливостта означава безопасност: Единственият начин да се предпазиш от халюцинациите на ГЕМ е да придобиеш навика да проверяваш фактите, които ти предлагат.
Заключение: Големите езикови модели могат да разбират езика, да генерират текстове и да отговарят на въпроси. В същото време те се затрудняват да разбират сложни понятия и да мислят логически. Освен това те не притежават “преценка”.
Но тъй като тези модели продължават да се развиват, е възможно да станат по-добри и в тези области!

Искаш ли да се присъединиш към разговора?

Все още няма публикации.
Разбираш ли английски? Натисни тук, за да видиш още дискусии в английския сайт на Кан Академия.