Преузимање контроле над свијетом од стране вјештачке интелигенције одгађа се на неодређено вријеме, закључак је сесије са провокативним насловом „Раскринкавање велике лажи о вјештачкој интелигенцији“, на завршетку Веб Самита, највеће глобалне ИТ конференције која је одржана у Лисабону, преноси дописник Бизниса и финансија.

Иако многи тврде да најновији језички модели, попут фамозног ГПТ-3, гдје након укуцаних неколико ријечи компјутер наставља са креирањем текста, који често изгледа сасвим логично, представља рађање вјештачке интелигенције, један од водећих интелектуалаца данашњице, лингвиста Ноам Чомски, сматра да то није случај.
Компјутер не зна шта пише
Ако систем не разумије значење ријечи, онда шта је уопште сврха модела као ГПТ-3. Његов развој не представља никакав допринос науци и у суштини ради се само о бесмисленом трошењу великих количина струје у Калифорнији, рекао је у видео обраћању учесницима конференције Ноам Чомски.
Суштински, језички модели попут ГПТ-3 базирају се на огромној количини различитих текстова којима се „нахрани“ софтвер и потом на бази укуцане почетне реченице, софтвер покушава да предвиди које би ријечи и реченице највјероватније слиједиле базирано првенствено на статистичкој вјероватноћи.
Чомски ово сматра чисто инжињерским успјехом, поредећи то са машином за чишћење снијега, чије постојање је „добра ствар пошто не морамо чистити снијег ручно“, али то не представља радикалан технолошки напредак човјечанства.
На еуфорију ватрених присталица технологије и очекивања да је појава вјештачке интелигенције, практично питање дана, Чомски је дјеловао као хладан туш.
Наводећи примјер озбиљне академске студије чији су аутори након студиозног проучавања и анализе текстова креираних моделом ГПТ-3 закључили да се ријеч „повремено“ појављује много чешће него ријеч „молекула“ зато што је у употреби у много више области него ријеч „молекула“, Чомски је саркастично прокоментарисао са „ко је то могао и да претпостави“.
Без обзира колико текста се користи за тренирање софтвера, милијарде или десетине милијарди ријечи, то неће софтвер учинити интелигентним јер машина не разумије значење ријечи, за разлику рецимо од ђеце која тек уче говорити.
Софтвер оставља тролове без посла

Гери Маркус са Њујоршког универзитета и експерт за вјештачку интелигенцију изнио је много мрачнију прогнозу, слажући се да постојећи језички модели немају везе са вјештачком интелигенцијом али да количина дезинформација која се може произвести употребом софтвера и уз ниску цијену, могла би представљати озбиљну пријетњу за демократски систем.
Осим тога Маркус вјерује да би у наредној години готово сигурно могли свједочити првом случају да ће неко умријети као резултат примјене језичких модела, схватајући озбиљно оно што машина насумично избаци, било да је ријеч о самоубиству или несретном случају.
Прича о вјештачкој интелигенцији тако се може упоредити са најавама о потпуно аутоматизованим аутомобилима којима возач неће требати. Масовна примјена ове технологије константно се најављује за „наредну годину“, али године пролазе а обећане технологије нема иако истраживачи тврде да су урадило 90 посто посла. Преосталих 10 посто у пракси би могло остати недостижно, барем када је ријеч о наредној деценији. Ова прогноза пођеднако важи за аутомобиле које „вози“ компјутер као и вјештачку интелигенцију генерално.
На овогодишњем Веб Самиту у Лисабону, од 1. до 4. новембра, било је рекордних 71.033 учесника из 160 земаља, од којих је 298 из Србије.
Дражен Симић
Извор: Бизнис и Финансије
