
Како напредује технологија за обраду природног језика, потенцијал четботова и конверзацијских ВИ система изазива све већу помпу.1 Један такав систем, Чет-ГПТ, тврди да је у стању да учествује у природном разговору с људима, па чак и да пружа корисне информације и савете. Међутим, постоји оправдана забринутост у вези са ограничењима овог и других конверзацијских ВИ система и њиховом способношћу да верно репродукују људску интелигенцију и интеракцију. Овај пасус није мој. Написао га је Чет-ГПТ, софтверски програм вештачке интелигенције (ВИ) за конверзацију, након што сам затражио да направи „уводни параграф за текст у маниру Кенана Малика, о сумњама у способности Чет-ГПТ“. Можда бих имао замерки на стил, али покушај је свакако импресиван. Није тешко разумети зашто је најновија верзија четбота изазвала такво узбуђење, чак помпу, откако је објављена претпрошле недеље.
Нахрањен огромним количинама текста разних људи, Чет-ГПТ у тим подацима тражи статистичке правилности, учи како су речи и фразе међусобно повезане, и на тај начин је у стању да предвиди ред речи у било којој реченици, као и међусобне односе целих реченица. Резултат је машина која убедљиво опонаша људски језик.
Ова способност мимикрије омогућава четботу да пише есеје и поезију, смишља вицеве, формулише програмски код и одговара на питања која постављају и деца и експерти. Притом, то ради тако добро да је протекле недеље било и славља и панике. „Есејистика је мртва“, написао је когнитивни научник Тим Кицман, и није био једини. Други тврде да ће то докрајчити Гугл као претраживач. И сам програм сматра да би могао да замени људе на пословима као што су агенти осигурања или судски стенографи. Међутим, четбот који пише есеје за најбољу оцену такође ће вам рећи да ако једна жена може да роди једну бебу за 9 месеци, 9 жена може да роди једну бебу за један месец; да је један килограм говеђег меса тежи од килограма компресованог ваздуха; да је дробљено стакло користан дијететски суплемент. Може да измисли чињенице и репродукује предрасуде људског света на ком је трениран.
Грешке овог четбота су толико убедљиве да је Стацк Оверфлоњ, платформа за дискусије компјутерских програмера, забранила корисницима да објављују његове одговоре. „Главни проблем“, објаснили су модератори, „јесте то што, иако одговори које Чет-ГПТ производи имају висок проценат грешке, делују као да су тачни“. Или, како је то рекао један критичар, тај четбот мајсторски лупета.
Неки од ових проблема ће се временом решити. Сваки разговор у ком учествује Чет-ГПТ постаје део базе података која се користи за побољшање програма. Следећа итерација, ГПТ-4, очекује се следеће године; биће убедљивија и правиће мање грешака. Иза постепених побољшања помаља се фундаментални проблем сваког облика вештачке интелигенције. Компјутер оперише симболима. Његов програм одређује скуп правила помоћу којих се један низ симбола трансформише у други или препознају статистички обрасци. Али не одређује шта ти симболи или обрасци значе. За компјутер је смисао небитан. ЦхатГПТ „зна“ (углавном) шта људима изгледа смислено, али не и оно што по себи има смисла. Тај програм је, према речима когнитивног научника Гарија Маркуса, „мимичар који не зна шта прича“.
Док мисле, говоре, читају и пишу, људи такође оперишу симболима. За разлику од компјутера, међутим, људима је смисао све. Када комуницирамо, ми саопштавамо смисао. Није нам битан само низ симбола, већ и њихово значење; не само синтакса, већ и семантика. Смисао се људима остварује кроз наше постојање као друштвених бића, оличених и уграђених у свет. Ја за себе имам смисла само у оној мери у којој живим у заједници других бића која мисле, осећају и говоре.

Наравно, људи лажу, манипулишу, привлаче их теорије завере које могу имати разорне последице. И то је саставни део постојања друштвеног бића. Али људе препознајемо као несавршене и непоштене; у стању смо да разазнамо кад лупетају или манипулишу. Кад је о машинама реч, међутим, склони смо да их третирамо или као објективне и непристрасне, или као потенцијално зле, ако су „свесне“. Често заборављамо да и машине могу бити пристрасне или да једноставно греше, јер нису утемељене у свету као људи, али и зато што их програмирају и тренирају људи, на подацима које су људи прикупили. Живимо у доба кад је појавно често важније од дубљег смисла. Доба у којем политичари пречесто воде неку политику не зато што је то неопходно или у принципу исправно, већ зато што има добру прођу у фокус групама. Доба у којем често игноришемо друштвени контекст људских поступака или изјава, заслепљени дословним глупостима. Доба у којем се ученици, како каже писац и васпитач Џон Ворнер, „награђују за прежвакавање постојећих информација“ у систему који „привилегује тачност на површинском нивоу“ уместо да „подстиче вештине писања и критичког мишљења“. То што изгледа даЧет-ГПТ тако лако пише есеје за најбољу оцену, каже он, „одражава бедни ниво нашег вредновања знања“.
Све то не пориче изванредно техничко достигнуће најновијег четбота, ни задивљујући осећај интеракције с њим. Несумњиво ће се развити у користан алат, који ће помоћи унапређење и људског знања и креативности. Али неопходно је да одржимо дистанцу. Чет-ГПТ открива не само напредак у области вештачке интелигенције, већ и њена ограничења. Такође осветљава природу људске спознаје и карактер савременог света.
На прву лопту, Чет-ГПТ отвара питање о томе како се односити према машинама које су далеко боље у лупетању и ширењу дезинформација од самих људи. С обзиром на потешкоће у решавању људских дезинформација, ово питање не треба одлагати. Није добро да нас убедљивост четбота толико опчини да заборавимо стварне проблеме које ти програми одражавају.
Кенан Малик
Извор: Преокрет