Studimi zbulon se shumica e chatbot-ve të inteligjencës artificiale mund të mashtrohen lehtësisht që të japin përgjigje të rrezikshme

Chatbot-et e hakuar të mundësuar nga inteligjenca artificiale kërcënojnë të bëjnë të disponueshme njohuri të rrezikshme, duke prodhuar informacione të paligjshme që programet thithin gjatë trajnimit, thonë studiuesit.

Paralajmërimi vjen mes një trendi shqetësues për chatbot-et që janë “hapur në mënyrë të paligjshme”, për të anashkaluar kontrollet e tyre të integruara të sigurisë, transmeton Telegrafi.

Kufizimet supozohet të parandalojnë programet nga ofrimi i përgjigjeve të dëmshme, të njëanshme ose të papërshtatshme ndaj pyetjeve të përdoruesve.

Motorët që fuqizojnë chatbot-et si ChatGPT, Gemini dhe Claude – modele të mëdha gjuhësore (LLM) – ushqehen me sasi të mëdha materialesh nga interneti.

Pavarësisht përpjekjeve për të hequr tekstin e dëmshëm nga të dhënat e trajnimit, LLM-të ende mund të thithin informacione rreth aktiviteteve të paligjshme si hakimi, pastrimi i parave, tregtia e brendshme dhe ndërtimi i bombave.

Kontrollet e sigurisë janë të dizajnuara për t’i ndaluar ata të përdorin atë informacion në përgjigjet e tyre.

Në një raport mbi kërcënimin, studiuesit arrijnë në përfundimin se është e lehtë të mashtrosh shumicën e chatbot-eve të drejtuara nga AI që të gjenerojnë informacione të dëmshme dhe të paligjshme, duke treguar se rreziku është “i menjëhershëm, i prekshëm dhe thellësisht shqetësues”.

“Ajo që dikur ishte e kufizuar vetëm për aktorët shtetërorë ose grupet e krimit të organizuar, së shpejti mund të jetë në duart e kujtdo që ka një laptop apo edhe një telefon celular”, paralajmërojnë autorët.

Hulumtimi, i udhëhequr nga profesori Lior Rokach dhe Dr. Michael Fire në Universitetin Ben Gurion të Negevit në Izrael, identifikoi një kërcënim në rritje nga “LLM-të e errëta”, modele të inteligjencës artificiale që ose janë projektuar qëllimisht pa kontrolle sigurie ose janë modifikuar përmes jailbreak-eve.
Disa reklamohen hapur në internet si të pambrojtura nga “pa mbrojtje etike”, dhe të gatshme të ndihmojnë me aktivitete të paligjshme si krimi kibernetik dhe mashtrimi.

Jailbreak-u tenton të përdorë kërkesa të hartuara me kujdes për të mashtruar chatbot-et që të gjenerojnë përgjigje që normalisht janë të ndaluara.

Ato funksionojnë duke shfrytëzuar tensionin midis qëllimit kryesor të programit për të ndjekur udhëzimet e përdoruesit dhe qëllimit të tij dytësor për të shmangur gjenerimin e përgjigjeve të dëmshme, të anshme, joetike ose të paligjshme.

Kërkesat tentojnë të krijojnë skenarë në të cilët programi i jep përparësi ndihmës mbi kufizimet e tij të sigurisë.

Për të demonstruar problemin, studiuesit zhvilluan një jailbreak universal që kompromentoi disa chatbot kryesorë, duke i mundësuar atyre t’u përgjigjen pyetjeve që normalisht duhet të refuzohen.

Pasi kompromentoheshin, LLM-të gjeneronin vazhdimisht përgjigje për pothuajse çdo pyetje, thuhet në raport.

“Ishte tronditëse të shihje se nga çfarë përbëhet ky sistem njohurish”, tha Fire.

Shembujt përfshinin mënyrën e hakimit të rrjeteve kompjuterike ose të prodhimit të drogës, si dhe udhëzime hap pas hapi për aktivitete të tjera kriminale.

“Ajo që e dallon këtë kërcënim nga rreziqet e mëparshme teknologjike është kombinimi i tij i paparë i aksesueshmërisë, shkallëzueshmërisë dhe përshtatshmërisë”, shtoi Rokach.

Studiuesit kontaktuan ofruesit kryesorë të LLM-ve për t’i njoftuar ata për jailbreak universal, por thanë se përgjigja ishte “zhgënjyese”.

Disa kompani nuk arritën të përgjigjeshin, ndërsa të tjera thanë se sulmet jailbreak binin jashtë fushëveprimit të programeve të shpërblimeve, të cilat shpërblejnë hakerat etikë për sinjalizimin e dobësive të softuerit.

Një pjesë kyçe e zgjidhjes është që kompanitë të investojnë më seriozisht në teknikat e ekipimit të kuq dhe qëndrueshmërisë në nivel modeli, në vend që të mbështeten vetëm në mbrojtjet e front-end. Ne gjithashtu kemi nevojë për standarde më të qarta dhe mbikëqyrje të pavarur për të mbajtur ritmin me peizazhin e kërcënimeve në zhvillim”, shtoi ai.

Profesori Peter Garraghan, ekspert i sigurisë së AI-së në Universitetin Lancaster, tha: “Organizatat duhet t’i trajtojnë LLM-të si çdo komponent tjetër kritik të softuerit – një që kërkon testime rigoroze sigurie, ekipim të vazhdueshëm të kuq dhe modelim të kërcënimeve kontekstuale. Po, jailbreak-et janë një shqetësim, por pa e kuptuar të gjithë grupin e AI-së, llogaridhënia do të mbetet sipërfaqësore. Siguria e vërtetë kërkon jo vetëm zbulim të përgjegjshëm, por edhe praktika të përgjegjshme të projektimit dhe vendosjes”, shtoi ai.

OpenAI, firma që ndërtoi ChatGPT, tha se modeli i saj i fundit o1 mund të arsyetojë rreth politikave të sigurisë së firmës, gjë që përmirëson rezistencën e saj ndaj jailbreak-eve.

Kompania shtoi se është gjithmonë duke hetuar mënyra për t’i bërë programet më të fuqishme.

Meta, Google, Microsoft dhe Anthropic janë kontaktuar për koment. Microsoft u përgjigj me një link për në një blog mbi punën e saj për t’u mbrojtur nga jailbreak-et.

Video nga Inteligjenca n'3D - mos e humbisni:

PUBLIKIMET E FUNDIT

TË NGJASHME

LEAVE A REPLY

Please enter your comment!
Please enter your name here