Nova generaciji veštačke inteligencije (koja nije LLM)
Gotovo je nemoguće proći kroz dan bez susreta sa veštačkom inteligencijom. Modeli poput ChatGPT-a, Clauda i Geminija postali su sveprisutni, delujući kao super pametni autokomplet na steroidima. Njihov zadatak je jednostavan, ali impresivan: na osnovu ogromne količine podataka na kojima su trenirani, oni predviđaju sledeću najverovatniju reč u rečenici. Oni su neverovatno korisni, ali njihov pristup je u suštini sofisticirano prepoznavanje obrazaca.
Međutim, dok smo bili zaslepljeni ovim jezičkim divovima, ispod radara se razvijala fundamentalno drugačija vrsta AI. Ona ne predviđa reči, već pokušava da zaista "razmišlja". Zastrašujuće je to što je već bolja od većine ljudi u rešavanju zadataka koje smo smatrali nemogućim za mašine. Da li je ovo početak fundamentalne promene u onome što AI može da uradi?
1. Vaš omiljeni ai zapravo ne "razmišlja" – On je samo genijalan imitator
Ali ovi modeli imaju jednu prljavu malu tajnu: oni zapravo ne razmišljaju. Njihovo fundamentalno ograničenje je to što ne rezonuju; oni su majstori prepoznavanja obrazaca, pronalazeći statističke veze u tekstu bez suštinskog razumevanja sadržaja. Najbolja analogija je sledeća:
"Oni su kao onaj student koji je naučio udžbenik napamet, ali ne može da reši nijedan problem koji prethodno nije video."
Ovo dovodi do konkretnih slabosti. Istraživanje sa MIT-a pokazalo je da LLM-ovi imaju problema sa praćenjem promena stanja. Zamislite da na stranici 50 postoji kutija, na stranici 100 mačka sedne na tu kutiju, a na stranici 150 kutija se slomi. Oni će se mučiti da pouzdano prate ovu prostu sekvencu događaja. Njihov ključni problem je što tretiraju pozicije reči kao fiksne udaljenosti, ne uzimajući u obzir stvarni sadržaj. Novi, superiorniji pristup zove se "path attention" (pažnja putanje). To je kao razlika između merenja udaljenosti na mapi (stari pristup) i stvarnog pešačenja rutom i doživljavanja terena (novi pristup).
2. Nova Generacija AI doslovno "pauzira da razmisli"
Upoznajte Velike Modele za Rezonovanje (Large Reasoning Models - LRM). Ključna razlika je u tome kako koriste računarsku snagu. Umesto da samo izbace odgovor, oni koriste ono što se naziva "test-time compute" – troše značajno više procesorske snage tokom samog procesa rešavanja problema, a ne samo tokom treninga. Ovo je proces aktivnog "razmišljanja".
Razliku najbolje ilustruje analogija sa šahom. Tradicionalni LLM je kao brzopotezni igrač koji se oslanja na prepoznavanje hiljada poznatih obrazaca. LRM je, s druge strane, kao šahovski velemajstor koji duboko proračunava 20 poteza unapred, razmatra različite strategije i prilagođava svoje razmišljanje u hodu. Njihova "tajna" metoda je rezonovanje kroz "lanac misli" (Chain of Thought). Ovi modeli generišu dugačke tokove interne logike, ponekad i hiljade reči, pre nego što daju konačan odgovor. Mogu da se vrate korak unazad kada shvate da su pogrešili i isprobaju više pristupa. Na primer, Google-ov Gemini 2.5 može da obradi milion tokena odjednom – to je kao da pročita nekoliko romana istovremeno i prati svaku nit radnje.
3. Cena pravog "razmišljanja" je vrtoglava: Do 200 dolara po odgovoru
Jedan od najšokantnijih aspekata LRM-ova je njihova cena. Cena izvršavanja jednog zadatka može se kretati od nekoliko centi do nekoliko dolara. U ekstremnim slučajevima, kao što je testiranje jednog od OpenAI-jevih najboljih modela na benčmarku za opštu inteligenciju, cena je dostigla neverovatnih 200 dolara po zadatku.
Zašto bi iko platio toliko za jedan odgovor? Zato što je tačnost neprocenjiva. Zamislite da možete da unajmite nekoga za 10 dolara ko greši u polovini slučajeva, ili nekoga za 50 dolara ko je tačan u 95% slučajeva. Kada su ulozi visoki – kao što je postavljanje medicinske dijagnoze, analiza složenog pravnog slučaja ili naučno istraživanje – tačnost postaje jedina metrika koja je važna i koja u potpunosti opravdava trošak.
4. Uprkos svemu, ovi "supermozgovi" padaju na osnovnim testovima logike
Dakle, platili biste 200 dolara za savršen odgovor, zar ne? Ali šta ako vam kažem da taj isti "supermozak" spektakularno pada na testovima koji zahtevaju istinsko rezonovanje? Uprkos tome što kineski open-source model po imenu DeepSeek R1 postiže 99.2% na elitnim matematičkim testovima, na novim benčmarcima dizajniranim da testiraju istinsku sposobnost rezonovanja, najbolji modeli postižu samo 8% tačnosti. Ljudi, sa druge strane, skoro uvek odgovaraju tačno.
Kako je jedan istraživač rekao: "Još uvek su nam potrebne nove ideje za AGI (Opštu Veštačku Inteligenciju)." Postoje i drugi problemi. Ovi modeli su izuzetno spori, do te mere da je njihovo korišćenje postalo toliko zbunjujuće za korisnike da OpenAI planira da spoji ove specijalizovane sisteme nazad u svoje glavne modele. Takođe, strategija koja je godinama funkcionisala – "samo ga učini većim" dodavanjem više podataka i procesorske snage – dostigla je svoj limit.
5. Budućnost nije veća, već "čudnija" AI: Dobrodošli u svet kvantnih hibrida i sinteze programa
Pa, gde nas to ostavlja? Upravo ovde počinju uzbudljive stvari. Najobećavajući pristup je spajanje dve različite oblasti. Zamislite to ovako: duboko učenje je "instinkt" ili prepoznavanje obrazaca. Sinteza programa je "hladna, čvrsta logika". Kada spojite to dvoje, dobijate nešto što bi zaista moglo da razmišlja.
Pored toga, istražuju se i druge "divlje ideje" koje nagoveštavaju budućnost:
- Hibridni kvantno-klasični modeli: IBM je već zabeležio skok u tačnosti od 34% koristeći svoje kvantne procesore na određenim zadacima.
- Novi, efikasniji hardver: U Kini je razvijen server veličine malog frižidera koji koristi 90% manje energije dok obrađuje pola miliona tokena u sekundi, dok se pojavljuju novi čipovi koji su 1.5 puta brži od najboljih na tržištu, koristeći samo četvrtinu energije.
Zaključak: Od predviđanja reči do razumevanja sveta
Svedoci smo ključne promene paradigme. Prelazimo sa veštačke inteligencije koja samo predviđa sledeću reč na onu koja pokušava da razume i predvidi sledeći koncept ili logički korak. Ne radi se o tome da će novi modeli zameniti stare; LRM-ovi se dodaju kao moćan, specijalizovan alat u naš postojeći set. Ovi sistemi će koegzistirati, pri čemu će svaki biti najbolji za određenu vrstu zadatka. Na kraju, pravo pitanje nije koji AI je bolji, već šta sve postaje moguće sada kada imamo oba?
Komentari
Nema komentara. Šta vi mislite o ovome?