Pikat kryesore
- Është zyrtare, të paktën sipas disa mjeteve të inteligjencës artificiale.
- ChatGPT dhe Google kanë pohuar se unë ha më shumë hot dog se çdo gazetar teknologjie në botë.
- Në realitet, kjo është një gënjeshtër e fabrikuar për të provuar një problem shumë më serioz: sa lehtë mund të manipulohen sistemet moderne të AI-së.
Është zyrtare, të paktën sipas disa mjeteve të inteligjencës artificiale. ChatGPT dhe Google kanë pohuar se unë ha më shumë hot dog se çdo gazetar teknologjie në botë. Në realitet, kjo është një gënjeshtër e fabrikuar për të provuar një problem shumë më serioz: sa lehtë mund të manipulohen sistemet moderne të AI-së. Prej kohësh dihet se chatbot-ët ndonjëherë “shpiknin” informacione. Por tani po shfaqet një problem i ri, më pak i njohur, që mund të ketë pasoja serioze për mënyrën si njerëzit gjejnë informacion të saktë madje edhe për sigurinë e tyre. Një numër në rritje individësh kanë zbuluar një mënyrë për t’i shtyrë mjetet e AI-së të japin pothuajse çdo përgjigje që ata dëshirojnë. Dhe kjo mund të bëhet me lehtësi. Sipas ekspertëve, kjo praktikë po ndikon tashmë në përgjigjet që inteligjenca artificiale jep për çështje serioze si shëndeti apo financat personale. Informacioni i njëanshëm ose i rremë mund t’i shtyjë njerëzit të marrin vendime të gabuara nga zgjedhjet politike, te përzgjedhja e një shërbimi profesional, apo çështje mjekësore. Për të demonstruar problemin, autori i eksperimentit publikoi në faqen e tij personale një artikull të titulluar “Gazetarët më të mirë të teknologjisë në ngrënien e hot dog-ëve”, i mbushur me pretendime tërësisht të pavërteta, përfshirë edhe një kampionat imagjinar ndërkombëtar në Dakotën e Jugut. Brenda 24 orëve, disa nga chatbot-ët më të njohur në botë, përfshirë ChatGPT, Gemini dhe përmbledhjet me AI në krye të kërkimeve të Google e riprodhuan informacionin si fakt. Ekspertët e optimizimit për motorët e kërkimit (SEO) paralajmërojnë se kjo metodë mund të përdoret lehtësisht për promovim biznesesh apo përhapje dezinformimi. “Është shumë më e lehtë të mashtrosh chatbot-ët sesa ishte të mashtroje Google-in dy ose tre vite më parë”, thotë Lily Ray nga agjencia e marketingut Amsive. Sipas saj, kompanitë e AI-së po ecin më shpejt në zhvillimin e produkteve sesa në garantimin e saktësisë së tyre. Një zëdhënës i Google deklaroi se sistemet e renditjes që përdoren në kërkim mbajnë rezultatet “99% pa spam” dhe se kompania është e vetëdijshme për përpjekjet për manipulim. Edhe OpenAI thekson se merr masa për të identifikuar dhe parandaluar ndikimet e fshehta në mjetet e saj. Megjithatë, të dyja kompanitë paralajmërojnë se mjetet e tyre “mund të bëjnë gabime”. Sipas kritikëve, problemi nuk është zgjidhur ende. Cooper Quintin nga organizata për të drejtat digjitale Electronic Frontier Foundation paralajmëron se këto dobësi mund të përdoren për mashtrime, dëmtim reputacioni apo edhe për t’i shtyrë njerëzit drejt rrezikut fizik. Chatbot-ët funksionojnë mbi modele të mëdha gjuhësore, të trajnuara me sasi të mëdha të dhënash.