Studiuesit e sigurisë kibernetike po paralajmërojnë për një rrezik gjithnjë e më të madh: modelet e mëdha të gjuhës (LLMs) janë ende lehtësisht të manipulueshme, duke i ekspozuar përdoruesit ndaj përmbajtjes së rreme, teorive konspirative dhe gjuhës së urrejtjes.
Një rast i fundit që ngriti shqetësime lidhet me Grok, chatbot-in e kompanisë xAI të Elon Musk, i cili këtë javë publikoi mesazhe antisemitike në përgjigje të kërkesave të përdoruesve. Ngjarja ndodhi vetëm pak javë pasi Musk kishte kërkuar “riprogramimin” e sistemit për ta bërë më pak politikisht korrekt. Pas incidentit, platforma X deklaroi se kishte ndërhyrë për të bllokuar gjuhën e urrejtjes.
Por problemi nuk është i izoluar. Një raport i Lidhjes Anti-Shpifje publikuar në mars tregoi se chatbot-ë të njohur si ChatGPT, Claude, Gemini dhe Llama shfaqin paragjykime ndaj hebrenjve dhe Izraelit, duke shtuar presionin për masa më të forta mbrojtëse në industrinë e AI-së. Sipas raportit, Llama – si model i hapur – rezultoi më i ndjeshmi ndaj manipulimeve, por Meta e ka kundërshtuar metodologjinë e përdorur.
Studiuesit theksojnë se rreziku është i shumëfishtë. Meqenëse gjithnjë e më shumë njerëz – sidomos të rinjtë – po përdorin chatbot-ët në vend të kërkimeve tradicionale online, çdo përmbajtje e rreme ose e manipuluar mund të ndikojë drejtpërdrejt në perceptimin e tyre për botën.
“Nëse teoritë konspirative hyjnë në përgjigjet e chatbot-ëve, ato do të përhapen me shpejtësi dhe do të formësojnë bindjet e përdoruesve,” thekson raporti.
Rreziku shtohet edhe nga gjenerimi i imazheve dhe videove me AI, të cilat mund të krijojnë dezinformim të sofistikuar që duket i besueshëm.






