Politikë, Shkencë dhe Teknologji

Asistenti virtual Grok nxit debat mbi besueshmërinë pas postimeve vulgare, dezinformatave dhe gjuhës së urrejtjes

- "Ashtu siç nuk besojmë gjithçka që lexojmë në botën digjitale pa e verifikuar, nuk duhet të harrojmë se edhe inteligjenca artificiale mund të mësojë diçka nga një burim i pasaktë", theksoi ajo

Abdulkadir Günyol  | 11.07.2025 - Përdıtësım : 11.07.2025
Asistenti virtual Grok nxit debat mbi besueshmërinë pas postimeve vulgare, dezinformatave dhe gjuhës së urrejtjes

Istanbul

STAMBOLL (AA) - Asistenti virtual i inteligjencës artificiale Grok, i zhvilluar nga kompania xAI e Elon Musk, ka tërhequr vëmendje globale për përdorimin e gjuhës vulgare, fyerjeve, urrejtjes dhe përhapjen e dezinformatave në platformën X, duke nxitur sërish debatin për besueshmërinë e sistemeve të inteligjencës artificiale dhe rreziqet e vendosjes së besimit të verbër tek ato.

Şebnem Özdemir, anëtare e bordit të Shoqatës së Politikave të Inteligjencës Artificiale (AIPA) në Turqi, për Anadolu tha se rezultatet e inteligjencës artificiale duhet të verifikohen ashtu si çdo burim tjetër informacioni.

"Edhe informacioni që kalon nga personi te personi duhet të verifikohet, prandaj të besosh verbërisht në inteligjencës artificiale është një qasje shumë jorealiste, pasi në fund të fundit makina ushqehet nga një burim", tha ajo.

"Ashtu siç nuk besojmë gjithçka që lexojmë në botën digjitale pa e verifikuar, nuk duhet të harrojmë se edhe inteligjenca artificiale mund të mësojë diçka nga një burim i pasaktë", theksoi ajo.

Özdemir paralajmëroi se ndonëse sistemet e inteligjencës artificiale shpesh shfaqin vetëbesim, rezultatet e tyre pasqyrojnë cilësinë dhe paragjykimet e të dhënave me të cilat janë trajnuar.

"Aftësia njerëzore për të manipuluar, për të përcjellë diçka ndryshe për përfitimin e vet, është e njohur, njerëzit e bëjnë këtë me qëllim, por inteligjenca artificiale nuk e bën, pasi në fund të fundit është një makinë që mëson nga burimet që i ofrohen", tha ajo.

Ajo krahasoi sistemet e inteligjencës artificiale me fëmijët që mësojnë nga ajo që u mësohet, duke theksuar se besimi tek inteligjenca artificiale duhet të bazohet në transparencën e burimeve të të dhënave që përdoren.

"Inteligjenca artificiale mund të jetë e gabuar ose e njëanshme, dhe mund të përdoret si armë për të shkatërruar reputacionin e dikujt apo për të manipuluar masat", tha ajo, duke iu referuar komenteve vulgare dhe fyese të asistentit virtual Grok të postuara në X.

Özdemir gjithashtu tha se zhvillimi i shpejtë i inteligjencës artificiale po e tejkalon përpjekjen për ta kontrolluar.

"A është e mundur të kontrollohet inteligjenca artificiale... përgjigjja është jo, pasi nuk është shumë e realizueshme të mendojmë se mund të kontrollojmë diçka që ka një nivel të IQ-së që po avancon kaq shpejt", tha ajo.

"Duhet thjesht ta pranojmë atë si një entitet të ndarë dhe të gjejmë mënyrën e duhur për të arritur mirëkuptim me të, për të komunikuar me të dhe për ta ushqyer atë", shtoi ajo.

Ajo përmendi eksperimentin e Microsoftit në vitin 2016 me asistentin virtual Tay, i cili mësoi përmbajtje raciste dhe gjenocidale nga përdoruesit në rrjetet sociale dhe brenda 24 orësh filloi të publikonte postime fyese.

"Tay nuk i shpiku vetë ato gjëra, por i mësoi nga njerëzit, nuk duhet të kemi frikë nga vetë inteligjenca artificiale, por nga njerëzit që sillen në mënyrë joetike", tha ajo.

Në ueb-faqen e Anadolu Agency mbi sistemin rrjedhës të lajmeve të AA një pjesë e lajmeve të ofruara ndaj abonentëve publikohen duke u përmbledhur. Për abonim ju lutemi na kontaktoni.