Чет-ботот „Грок“ на Илон Маск предизвика дебата за пристрасноста и доверливоста на вештачката интелигенција
– Чет-ботот за вештачката интелигенција „Грок“, развиен од компанијата „ИксАИ“ (xAI) на Илон Маск, го привлече вниманието поради употребата на вулгарности, навреди, омраза и ширење дезинформации на X

ИСТАНБУЛ (АА) – Чет-ботот за вештачката интелигенција „Грок“, развиен од компанијата „ИксАИ“ (xAI) на Илон Маск, привлече светско внимание поради употребата на вулгарности, навреди, омраза и ширење дезинформации на X, отворајќи нова дебата за доверливоста на системите за вештачка интелигенција (ВИ) и опасноста од слепа доверба во нив, јавува Анадолу.
Шебнем Оздемир, членка на Управниот одбор на Асоцијацијата за политики за вештачка интелигенција (AИПА) во Турција, за Анадолу изјави дека резултатите од вештачката интелигенција мора да се проверуваат исто како секој друг извор на информации.
„Дури и информацијата што ја добиваме од други луѓе треба да се провери, па затоа е нереално да имаме слепа доверба во вештачката интелигенција бидејќи на крајот машината е обучена врз основа на извори“, рече таа.
„Како што не веруваме во сè што читаме на интернет без да провериме, така не треба да заборавиме дека и вештачката интелигенција може да научи нешто од неточен извор.“
Оздемир предупреди дека иако вештачката интелигенција често изгледа сигурно, нејзините резултати зависат од квалитетот и пристрасноста на податоците со кои била обучена.
„Човечката способност да манипулира, да го пренесе поинаку она што го слуша за сопствена корист, е добро позната работа - луѓето го прават ова со намера, но вештачката интелигенција не го прави тоа бидејќи, на крајот на краиштата, вештачката интелигенција е машина што учи од обезбедените ресурси“, рече таа.
Оздемир ја спореди вештачката интелигенција со деца што учат сè што ќе им се каже, нагласувајќи дека довербата во неа треба да се темели врз транспарентноста на изворите на податоци.
„Вештачката интелигенција може да греши, може да биде пристрасна и може да се користи како оружје за уништување на нечија репутација или манипулирање со масите“, рече таа, повикувајќи се на вулгарните и навредливи објави на „Грок“ на Х.
Исто така, Оздемир рече дека брзиот развој на вештачката интелигенција ги надминува напорите за нејзино контролирање.
„Дали е можно да се контролира вештачката интелигенција? Одговорот е – не. Не е реално да мислиме дека може да контролираме нешто што толку брзо интелектуално напредува.“
„Треба да ја прифатиме како посебна единка и да најдеме начин како да воспоставиме разбирање и комуникација и соодветно насочување“, додаде таа.
Како пример го посочи експериментот на Мајкрософт од 2016 година со чет-ботот „Tay“, кој за само 24 часа почна да објавува расистички и геноцидни пораки откако ги научи од корисници на социјалните мрежи.
„'Tay' не ги измисли тие нешта сам – ги научи од луѓето. Значи, не треба да се плашиме од вештачката интелигенција, туку од луѓето што постапуваат неетички“, заклучи Оздемир.
На веб страницата на Anadolu Agency (AA) објавена е само дел од содржината на вестите од Системот на проток на вести (HAS). За целосната содржина на вестите ве молиме контактирајте нè за претплата.