Shkencëtarët në kompaninë e inteligjencës artificiale (AI) me qendër në Singapor, Sapient, kanë zbuluar një model të ri të arsyetimit hierarkik (HRM), i frymëzuar nga mënyra se si truri i njeriut përpunon informacionin.
Duket se shkencëtarët po punojnë me shpejtësi drejt ndërtimit të modeleve të inteligjencës artificiale që i ngjajnë trurit të njeriut në aspektin e arsyetimit. Sipas raportimeve, një model i ri i AI është i aftë për arsyetim të avancuar, ndryshe nga modelet e popullarizuara të mëdha gjuhësore (LLMs), si p.sh. ChatGPT. Shkencëtarët pohojnë se po shohin performancë më të mirë në testet kryesore të standardeve.
Shkencëtarët në kompaninë e AI, Sapient, e kanë quajtur modelin e ri të arsyetimit model i arsyetimit hierarkik (HRM), dhe thuhet se është frymëzuar nga përpunimi hierarkik dhe në shumë shkallë kohore të trurit të njeriut. Kjo është në thelb mënyra se si zonat e ndryshme të trurit integrojnë informacionin gjatë kohëzgjatjeve të ndryshme, që variojnë nga milisekonda në minuta.
Sipas shkencëtarëve, modeli i ri i arsyetimit ka demonstruar performancë më të mirë se LLM-të ekzistuese dhe është i aftë të punojë në mënyrë më efikase. E gjithë kjo thuhet se është e mundur falë faktit se modeli ka nevojë për më pak parametra dhe shembuj trajnimi.
Shkencëtarët pohuan se modeli HRM ka 27 milionë parametra, ndërsa përdor 1,000 mostra trajnimi. Parametrat në modelet e AI janë variablat e mësuara gjatë trajnimit, si peshat dhe anësitë. Përkundrazi, shumica e LLM-ve të avancuara vijnë me miliarda ose trilionë parametra.
Si performon ky model?
Kur HRM u testua në standardin ARC-AGI, i cili njihet si një nga testet më të vështira për të zbuluar sa afër janë modelet për të arritur inteligjencën e përgjithshme artificiale, modeli i ri tregoi rezultate të jashtëzakonshme, sipas studimit.
Modeli shënoi 40.3% në testin ARC-AGI-1, ndërsa modeli 03-mini-high i OpenAI kishte shënuar 34.5%, Anthropic Claude 3.7 shënoi 21.2%, dhe DeepSeek R1 shënoi 15.8%. Në mënyrë të ngjashme, në testin më të vështirë ARC-AGI-2, HRM shënoi 5%, duke i tejkaluar ndjeshëm modelet e tjera.
Ndërsa shumica e LLM-ve të avancuara përdorin arsyetimin “zinxhir-i-mendimit” (CoT), shkencëtarët në Sapient argumentuan se kjo metodë ka disa të meta kyçe, si ‘zbërthimi i dobët i detyrës, kërkesat e mëdha për të dhëna dhe vonesa të larta’. Nga ana tjetër, HRM përdor detyra arsyetimi sekuencial në një kalim të vetëm dhe jo hap pas hapi.
Ai ka dy module: një modul i nivelit të lartë që kryen planifikim të ngadaltë dhe abstrakt, dhe një modul i nivelit të ulët që merret me llogaritje të shpejta dhe të detajuara. Kjo është frymëzuar nga mënyra se si rajone të ndryshme të trurit të njeriut trajtojnë planifikimin kundrejt reagimeve të shpejta.
Për më tepër, HRM përdor një metodë të njohur si përsosje iterative, që do të thotë se fillon me një përgjigje të përafërt dhe e përmirëson atë nëpërmjet shpërthimeve të shumta të shkurtra të mendimit. Sipas raportimeve, pas çdo shpërthimi, ai kontrollon nëse duhet të vazhdojë të përsoset ose nëse rezultatet janë mjaftueshëm të mira si përgjigje përfundimtare.
Sipas shkencëtarëve, HRM zgjidhi enigma Sudoku, të cilat zakonisht LLM-të normale dështojnë t’i zgjidhin. Modeli gjithashtu shkëlqeu në gjetjen e rrugëve më të mira në labirinte, duke demonstruar se mund të trajtojë probleme të strukturuara dhe logjike shumë më mirë se LLM-të.
Ndërsa rezultatet janë të jashtëzakonshme, duhet të theksohet se shkrimi shkencor, i cili është publikuar në bazën e të dhënave arXiv, ende nuk është rishikuar nga kolegët. Megjithatë, ekipi i standardit ARC-AGI u përpoq të rikrijonte rezultatet pasi modeli u bë me kod të hapur (open-source).
Ekipi i konfirmoi numrat; megjithatë, ata gjithashtu zbuluan se arkitektura hierarkike nuk e përmirësoi performancën aq shumë sa pretendohej. Ata zbuluan se një proces përsosjeje më pak i dokumentuar gjatë trajnimit ishte ndoshta arsyeja e numrave të lartë. /Korrespodenti