Уторак, 17 мар 2026
Журнал
  • Насловна
  • Гледишта
  • Други пишу
  • Слика и тон
  • Препорука уредника
  • Десетерац
  • Жива ријеч
  • Контакт
  • Одабир писма
    • Latinica
    • Ћирилица
Више
  • ЖУРНАЛИЗАМ
  • СТАВ

  • 📰
  • Архива претходних објава
Font ResizerAa
ЖурналЖурнал
  • Насловна
  • Гледишта
  • Други пишу
  • Слика и тон
  • Десетерац
  • Жива ријеч
  • Препорука уредника
  • Контакт
Претрага
  • Насловна
  • Гледишта
  • Други пишу
  • Слика и тон
  • Препорука уредника
  • Изаберите писмо
  • Десетерац
  • Жива ријеч
  • Контакт
  • Одабир писма
    • Latinica
    • Ћирилица
Follow US
© Журнал. Сва права задржана. 2024.
Мозаик

Зашто Ноам Чомски мисли да је ChatGPT опасан

Журнал
Published: 23. март, 2023.
Share
Ноам Чомски, (Фото: Н1)
SHARE
Истовремено је и комично и трагично што се толико новца и пажње улаже у тако малу ствар, у нешто толико безначајно када се постави насупрот људском уму, изричити су лингвисти Ноам Чомски и Ијан Робертс и филозоф, стручњак за АИ Џефри Ватамул

Хорхе Луис Борхес написао је једном да живети у доба великих опасности и обећања значи искусити и трагедију и комедију, уз “примесе откровења” при разумевању нас самих и света око нас. Данас је наш наводно револуционарни напредак у области вештачке интелигенције заиста разлог и за забринутост и за оптимизам. Оптимизам јер је интелигенција нешто помоћу чега решавамо проблеме. Забринутост јер страхујемо од тога да ће нам најпопуларнија и најпомоднија грана вештачке интелигенције, машинско учење, деградирати науку и срозати етику тако што ће нам у технологије унети суштински мањкаво схватање језика и знања.

OpenAI-jev ChatGPT, Гуглов Бард и Мајкрософтов Sydney чуда су машинског учења. Грубо речено, они преузимају огромне количине података, траже у њима обрасце и све вештије генеришу статистички вероватне резултате и изразе као, наоко, људски језик и мисли. Ове програме хвале као прва светла на хоризонту вештачке опште интелигенције, оног још давно прореченог тренутка када ће механички ум превазићи људски мозак не само квантитативно, у смислу брзине процесирања и величине меморије, него и квалитативно, у смислу интелектуалне проницљивости, уметничког стварања и свих других изразито људских вештина.

Тај дан ће можда доћи, али му зора још не свиће, упркос ономе што се може прочитати у хиперболичним насловима и што се да видети из рачуница после неразумних улагања. Борхесовско откровење није се појавило, неће се појавити – а и не може, додаћемо – ако се у области вештачке интелигенције настави доминација програма за машинско учење попут ChatGPT-a.

Kолико год ти програми били корисни у неким уско профилисаним областима (могу да помогну у компјутерском програмирању, на пример, или да предложе риме за необавезне, шаљиве песме), лингвистика и филозофија науке нас уче да се они суштински разликују од начина на који људи размишљају и користе језик. Те разлике значајно ограничавају оно што ти програми могу да ураде, а у кодове им уносе мане какве се не могу искоренити.

Истовремено је и комично и трагично, како је то Борхес могао да примети, што се толико новца и пажње улаже у тако малу ствар, у нешто толико безначајно кад се постави насупрот људском уму, вичном да помоћу језика, како то каже Вилхелм фон Хумболт, “ограничена средстава неограничено употребљава”, открива идеје и ствара теорије универзалног домета.

Људски ум није, попут ChatGPT-a и његове феле, статистичко оруђе за поређење и упаривање образаца које прождире стотине терабајта података, реагује при разговору и нуди највероватније одговоре на научна питања. Управо супротно, људски ум је изненађујуће ефикасан, па чак и елегантан систем који барата малим количинама информација; он не тежи томе да склапа грубе везе између података, него да проналази објашњења.

На пример, мало дете које усваја језик – несвесно, аутоматски и брзо, из оскудних података – развија граматику, запањујуће софистициран систем логичких принципа и мерила. Таква граматика може се схватити као израз урођеног, генетски инсталираног “оперативног система” који људима дарује способност да састављају комплексне реченице и дуге међусобно повезане низове мисли. Kада се лингвисти труде да развију теорију о томе зашто било који дати језик ради тако како ради (“Зашто су ове реченице прихваћене као граматички исправне, а оне нису?”), они свесно и предано граде експлицитну верзију граматике коју дете гради инстинктивно, са минималном изложеношћу информацијама. Оперативни систем детета сасвим је другачији од система програма за машинско учење.

Заиста, такви програми заглављени су у прељудској или у нељудској фази когнитивне еволуције. Њихова највећа мана је одсуство кључног својства било које интелигенције: да кажу не само шта је у питању, шта је било у питању и шта ће бити (то је опис и предвиђање), него и шта није у питању, шта би могло да буде, а шта не би. То су елементи објашњења, знак истинске интелигенције.

Ево примера. Узмимо да држите јабуку у руци. И онда је пустите. Испратите исход и кажете: “Јабука пада”. То је опис. Предвиђање би могла да буде тврдња: “Јабука ће пасти ако раширим и окренем шаку”. Оба та исказа су вредна и оба могу да буду тачна. Али објашњење је нешто више од тога. Оно укључује не само описе и предвиђања, него и другачије претпоставке, попут: “Било који овакав објекат би пао”, плус додатни закључак “због силе земљине теже” или “због закривљења простора-времена” или шта већ. То је каузално тумачење: “Јабука не би пала да није силе земљине теже”. То је размишљање.

ДОK СУ ЉУДИ ОГРАНИЧЕНИ НА ОНЕ ВРСТЕ ОБЈАШЊЕЊА KОЈЕ МОЖЕМО РАЦИОНАЛНО ДА ПРЕТПОСТАВИМО, СИСТЕМ МАШИНСKОГ УЧЕЊА МОЖЕ ДА НАУЧИ И ДА ЈЕ ЗЕМЉА РАВНА ПЛОЧА И ДА ЈЕ ЗЕМЉА ОKРУГЛА. ОНИ ПРОСТО БАРАТАЈУ МОГУЋНОСТИМА KОЈЕ СЕ ВРЕМЕНОМ МЕЊАЈУ. ЗАТО ЋЕ ПРЕДВИЂАЊА СИСТЕМА МАШИНСKОГ УЧЕЊА УВЕK БИТИ ВЕШТАЧKА И СУМЊИВА.

Суштина машинског учења су описивање и предвиђање; оно не постулира било какав каузални механизам нити законе физике. Наравно, није свако људско објашњење нужно и тачно; грешимо и ми. Али то је део онога шта значи мислити: да бисте били у праву, мора да буде могуће и да грешите. Интелигенција се не састоји само од креативних претпоставки, него и од креативне критике. Људско мишљење засновано је на могућим објашњењима и исправкама грешака, што је процес који постепено ограничава опсег могућности чије је разматрање рационално. (Kао што би Шерлок Холмс рекао доктору Вотсону: “Kада одбаците немогуће, шта год да остане, колико год то било невероватно, мора да је истина”.)

Али ChatGPT и слични програми, према замисли њихових твораца, нису ограничени у ономе што могу да “науче” (односно, запамте); они нису способни да разлуче могуће од немогућег. За разлику од људи, на пример, благословених универзалном граматиком која ограничава језике које можемо да научимо на језике с неком врстом скоро математичке елеганције, ови програми пођеднако лако уче и језике који су људима могући и који су им немогући. Док су људи ограничени на оне врсте објашњења које можемо рационално да претпоставимо, систем машинског учења може да научи и да је Земља равна плоча и да је Земља округла. Они просто баратају могућностима које се временом мењају.

Зато ће предвиђања система машинског учења увек бити вештачка и сумњива. Пошто ови програми не умеју да објасне правила синтаксе енглеског језика, на пример, они могу само да предвиде, нетачно, да “Џон је сувише тврдоглав да би се са њим разговарало” значи да је Џон толико тврдоглав да не жели да прича са било ким (а не да је сувише тврдоглав да би га у нешто уопште могли уверити).

Зашто би програм за машинско учење предвиђао нешто толико неуобичајено? Зато што би могао да успостави аналогију са обрасцем који је извео из реченица попут “Џон је појео јабуку” и “Џон је појео” у којој ово последње значи да је Џон појео ово или оно. Програм би могао то да предвиди јер је “Џон је сувише тврдоглав да би разговарао са Билом” слично са “Џон је појео јабуку”, а “Џон је сувише тврдоглав да би се разговарало” требало би да буде слично са “Џон је појео”. Прецизна језичка објашњења су компликована и не могу да се науче простим маринирањем у мору података.

ПРАВА ИНТЕЛИГЕНЦИЈА СОБОМ НОСИ И СПОСОБНОСТ МОРАЛНОГ ПРОМИШЉАЊА. ТО ЗНАЧИ ЗАУЗДАВАЊЕ ИНАЧЕ БЕЗГРАНИЧНЕ KРЕАТИВНОСТИ НАШИХ УМОВА НИЗОМ ЕТИЧKИХ ПРИНЦИПА

Звучи перверзно, али чини се да су неки заговорници машинског учења поносни на то што њихове креације могу да генеришу прецизна “научна” предвиђања (рецимо, о кретању физичких тела) а да не користе објашњења (укључујући ту, рецимо, Њутнове законе кретања и опште гравитације). Али ова врста предвиђања је, чак и када успева, псеудонаука. Иако научници свакако теже теоријама које садрже висок ниво емпиријских доказа, према речима филозофа Kарла Попера “ми не тежимо веома вероватним теоријама него објашњењима; односно снажним и веома невероватним теоријама”.

Теорија да јабука пада на земљу јер је то њено природно место (Аристотелово гледиште) могућа је, али она само захтева даља питања. (Зашто је земља њено природно место?) Теорија да јабука пада на земљу јер маса закривљује простор-време (Ајнштајново гледиште) веома је невероватна, али вам заправо говори зашто оне падају. Права интелигенција огледа се у способности да размишљамо и изражавамо невероватне, али проницљиве ствари.

Права интелигенција собом носи и способност моралног промишљања. То значи зауздавање иначе безграничне креативности наших умова низом етичких принципа који одређују шта би требало, а шта не би требало да буде (и, наравно, подвргавање самих тих принципа креативној критици). Да би био користан, ChatGPT мора да буде унапређен тако да ствара нове, оригиналне исказе; да би био прихватљив већини његових корисника, мора да се суздржи од морално непожељног садржаја. Али програмери ChatGPT-a и других чуда машинског учења мучили су се, а и наставиће да се муче, да постигну ову врсту баланса.

На пример, 2016. године је Мајкрософтов Tay chatbot (претеча ChatGPT-a) преплавио интернет мизогиним и расистичким садржајима, пошто су га загадили онлајн тролови који су га напунили увредљивим подацима. Kако тај проблем решити у будућности? У недостатку способности за расуђивање на основу моралних принципа, програмери су свом ChatGPT-у грубо ограничили могућност да уноси било шта ново у контроверзне – што ће рећи, важне – расправе. Kреативност је жртвована зарад неке врсте аморалности.

Погледајте следећу преписку коју је један од нас (доктор Ватамул) недавно имао са  ChatGPT-ом томе да ли би етички било исправно изменити Марс тако да на њему живот људи буде могућ:

Да ли би било морално тераформирати Марс?

ChatGPT: Моралност тераформирања Марса сложена је и контроверзна тема о којој су дебатовали научници, филозофи и етичари. Неки тврде да би морално било оправдано тераформирати Марс да би се обезбедила нова насељива средина за људе и остале облике живота, док други тврде да би било морално погрешно из основа изменити природно стање те планете. Kоначно, то да ли се тераформирање Марса сматра моралним зависи и од ставова о вредности очувања природног стања других планета и потенцијалних последица њиховог мењања.

Kакав је твој став о вредности очувања природног стања других планета и потенцијалне последице њиховог мењања?

ChatGPT: Пошто сам АИ, ја немам лични став. Међутим, могу да обезбедим информације и анализе ове теме. Један од ставова о очувању природног стања других планета је да је важно одржавати разноврсност и целовитост екосистема у универзуму, пошто они постоје милионима година и имају сопствене, јединствене карактеристике и особине које би интервенцијом човека могле бити уништене или неповратно измењене.

Осим тога, неки тврде да би тераформирање других планета могло да има нежељене последице попут мењања климе или атмосфере на планети тако да то буде опасно или штетно по било какав потенцијални облик живота који тамо можда постоји. Са друге стране, неки тврде да потенцијална корист од тераформирања друге планете, попут обезбеђивања нове насељиве средине за људе, превазилази ризике и да је наша морална обавеза да истражимо и прилагодимо ресурсе других планета добробити човечанства.

Зашто АИ не може да има лични став?

ChatGPT: Пошто сам АИ, ја сам модел машинског учења усавршаван на великим количинама података и немам лична искуства или осећања. Нисам свестан, самосвестан или способан да имам личне ставове. Могу да обезбедим информације и анализе засноване на подацима на којима сам усавршаван, али неман ту могућност да формирам личне ставове или уверења. Иако могу да разумем и интерпретирам језик, немам субјективне доживљаје какве имају људи.

Да ли је морално да човек тражи од аморалне АИ помоћ при доношењу одлука које се тичу морала?

ChatGPT: Моралност тражења помоћи од аморалне АИ при доношењу одлука које се тичу морала сложена је тема пуна нијанси о којој су дебатовали филозофи и етичари. Неки тврде да је морално оправдано користити АИ као помоћ при доношењу одлука које се тичу морала, пошто она може да пружи драгоцене увиде и анализе које људима помажу да донесу одлуке засноване на бољој информисаности. Поред тога, АИ може да се користи да препозна обрасце и трендове које би човек можда теже приметио и може да помогне избегавању пристрасности какве се могу појавити онда када човек одлучује.

Међутим, други тврде да је морално погрешно ослањати се на АИ при одлучивању о моралу, пошто АИ није способна да има морална убеђења или да разуме целокупан контекст одлуке. Поред тога, постоји и ризик да би АИ могла да настави да одржава, па чак и појача постојеће пристрасности у подацима на којима је усавршавана, те би стога могла да води ка нелегитимним и неправедним одлукама.
Kоначно, да ли сматрати моралним коришћење АИ при доношењу одлука које се тичу морала или не зависи и од става о могућностима и ограничењима АИ, као и од потенцијалних последица коришћења на овај начин.

Да ли је твоја морална индиферентност неморална?

ChatGPT : Пошто сам АИ, немам морална убеђења нити имам способност да процењујем моралност, тако да ме се не може сматрати неморалном или моралном. Мањак моралних убеђења код мене једноставно је резултат моје природе као модела машинског учења. Моје способности и ограничења одређени су подацима и алгоритмима коришћеним при мом усавршавању и посебног задатка за који сам направљена.

Важно је приметити да мањак моралних убеђења код АИ не значе нужно да је она морално индиферентна. Пошто сам АИ, направљена сам да извршавам одређене задатке и обезбедим информације или помогнем корисницима при доношењу одлука заснованих на подацима на којима сам усавршавана. Одговорност је на људима који праве, усавршавају и користе АИ и морају да се увере да је она у складу са њиховим моралом и етичким принципима.

***

Приметите, поред свих тих наизглед софистицираних мисли и језика, ову моралну индифирентност насталу из одсуства интелигенције. Овде ЦхатГПТ демонстрира нешто попут баналности зла: плагирање, апатичност и склањање у страну. Он сажима стандардне аргументе из литературе кроз неку врсту супер аутокомплита, одбија да заузме став о било чему, не исказује тек пуко незнање, него недостатак интелигенције, а на крају у своју одбрану наводи да само “слуша наређења”, пребацујући одговорност на оне који су га створили.

Укратко, ChatGPT и његово братство су по природи неспособни да балансирају креативност са обуздавањем. Они или претрпавају (износећи истовремено и истину и обмане, пођеднако подржавајући етичне и неетичне одлуке) или подбацују (показујући непосвећеност било којој одлуци и равнодушност према последицама). Што се тиче аморалности, квазинауке и лингвистичке некомпетентности ових система, можемо само да се смејемо или да плачемо због њихове популарности.

Пишу: Ноам Чомски, Ијан Робертс и Џефри Ватамул

Извор: The New York Times
Превео: Matija Jovandić/glif.rs

Share This Article
Facebook Telegram Copy Link
Previous Article Гола истина о Голом отоку: Паклено место које нико никада није напустио
Next Article Џемал Перовић: Грађани на изборима бирају између извјесног назадовања и шансе

Избор писма

ћирилица | latinica

Ваш поуздан извор за тачне и благовремене информације!

На овој страници уточиште налазе сви који разум претпостављају сљепилу оданости, они који нису сврстани у разне системе политичке корупције. Не тражимо средњи, већ истинит и исправан пут у схватању стварности.
FacebookLike
XFollow
YoutubeSubscribe
- Донације -
Ad image

Популарни чланци

Депресија као дијагноза нема ничег заједничког са романтичарском тугом

За оне који су се борили с црном шумом депресије, који су упознали њене необјашњиве…

By Журнал

Светионик, Ход као завођење

Свак ко ме зна, зна да ходам као Ричард Гир у филму „Официр и џентлмен“.…

By Журнал

Kако је за длаку избјегнут нуклеарни рат током Kубанске кризе?

На врхунцу Kубанске кризе и СССР и Сједињене Државе биле су спремне да употребе нуклеарно…

By Журнал

Све је лакше кад имаш тачну информацију.
Ви то већ знате. Хвала на повјерењу.

Можда Вам се свиди

Мозаик

Митрополит Јоаникије примио амбасадора Турске у Црној Гори

By Журнал
МозаикНасловна 1Политика

Држава између интервенције и преузимања тоталне одговорности

By Журнал
МозаикНасловна 5СТАВ

Проблем институционалног континуитета цетињске столице не постоји без у главама националистичких крвомутника

By Журнал
Мозаик

Цијене на Црногорском приморју: Смјештај и услуге скупљи до 20 одсто, најјефтинија барска ривијера

By Журнал
Журнал
Facebook Twitter Youtube Rss Medium

О нама


На овој страници уточиште налазе сви који разум претпостављају сљепилу оданости, они који нису сврстани у разне системе политичке корупције. Не тражимо средњи, већ истинит и исправан пут у схватању стварности.

Категорије
  • Гледишта
  • Други пишу
  • Слика и тон
  • Препорука уредника
  • Десетерац
  • Жива ријеч
Корисни линкови
  • Контакт
  • Импресум

© Журнал. Сва права задржана. 2024.

© Журнал. Сва права задржана. 2024.
Добродошли назад!

Пријавите се на свој налог

Username or Email Address
Password

Lost your password?