OpenAI modeli 2025 nova generacija: Pametniji, brži… ali skloni fantaziranju?

OpenAI modeli 2025 umjetna inteligencija (AI) napreduje nevjerojatnom brzinom, a novi modeli koji izlaze iz radionice OpenAI-ja redovito postavljaju nove standarde u obradi jezika, kodiranju i logici. No što ako ti “pametniji” modeli istovremeno – češće griješe? Upravo to se, na iznenađenje mnogih, događa s nedavno predstavljenim modelima o3 i o4-mini.

Više moći, više halucinacija?

Iako se očekivalo da će novi modeli biti stabilniji i točniji, testiranja su pokazala neugodno iznenađenje – ovi modeli češće “haluciniraju”. U svijetu umjetne inteligencije, halucinacija znači da AI samouvjereno iznosi netočne ili izmišljene informacije – često toliko uvjerljivo da ih je teško odmah prepoznati kao pogrešne.

Prema službenim podacima samog OpenAI-ja, o3 je halucinirao u čak 33% slučajeva tijekom PersonQA testa (interni alat za provjeru znanja o ljudima), dok je o4-mini otišao još dalje – sa zabrinjavajućih 48%. Za usporedbu, stariji modeli poput o1 i o3-mini bili su znatno stabilniji, s halucinacijama u 16%, odnosno 14,8% slučajeva.

Više “razmišljanja” = više grešaka?

Posebno je zanimljivo (i pomalo zabrinjavajuće) da se ovo događa unatoč tome što o3 i o4-mini openAI modeli 2025 spadaju u tzv. rezonirajuće modele – modele koji bi trebali bolje “misliti”, logički povezivati informacije i zaključivati. No čini se da upravo njihova sposobnost da stvaraju uvjerljive zaključke znači i veću sklonost izmišljanju – jer, kad se jednom zalaufaju, teško je razlikovati stvarnu logiku od uvjerljive fikcije.

OpenAI je priznao da još ne zna točan razlog zašto se skaliranjem rezonirajućih modela povećava stopa halucinacija. Iako ovi sustavi briljiraju u zadacima poput kodiranja i rješavanja matematičkih problema, korisnici moraju biti posebno oprezni – jer iza točnih tvrdnji često stoje i one koje jednostavno nisu istinite.

Primjer koji govori sve

U jednom testu, model o3 je tvrdio da je pokrenuo softver na MacBook Pro iz 2021. godine izvan ChatGPT-a, a zatim prekopirao rezultate natrag u razgovor. Zvuči uvjerljivo? Svakako. Ali tehnički – nemoguće. Model nema fizički pristup uređajima, operativnim sustavima ili mogućnost “izvođenja koda izvan sebe”.

Ovakve situacije podižu ozbiljna pitanja – ne samo o točnosti, već i o povjerenju. Ako AI može toliko uvjerljivo izmišljati, kako korisnici mogu znati što je stvarno, a što fantazija?

Korištenje naprednih AI modela postaje svakodnevnica – u pisanju, kodiranju, istraživanju, čak i odlučivanju. No ove informacije nas podsjećaju na ono što često zaboravljamo:

AI nije istina. AI je model koji predviđa što bi moglo zvučati istinito.

Što donosi budućnost generativne umjetne inteligencije?

S obzirom na sve moćnije modele i rastuću primjenu u edukaciji, zdravstvu, pravosuđu i novinarstvu, odgovornost razvojnih timova nikada nije bila veća. Očekuje se da će budući AI sustavi imati ugrađene mehanizme samoprovjere i transparentnosti. U protivnom, riskiramo svijet u kojem će granica između stvarnog i izmišljenog biti sve teža za prepoznati – čak i ljudima.

Što ovo znači za budućnost umjetne inteligencije?

Iako je napredak očit – veće sposobnosti u programiranju, bolja logika i brža obrada jezika – pitanje preciznosti ostaje ključno. Halucinacije u AI modelima, gdje sustav izmišlja informacije, mogu imati ozbiljne posljedice, osobito u kontekstu obrazovanja, zdravstva i pravosuđa. Kada AI s uvjerenjem iznosi neistinu, korisnici bez tehničkog znanja teško mogu prepoznati pogrešku – a povjerenje je tada narušeno.

Neki stručnjaci tvrde da se radi o privremenoj fazi razvoja, dok drugi pozivaju na jače etičke standarde i transparentnije modele treniranja. Zabrinjavajuće je što ni sam OpenAI trenutno ne zna točno zašto novi modeli pokazuju ovakve obrasce ponašanja. Skaliranje rezonirajućih modela čini se da donosi nepredviđene nuspojave.

Gdje leži rješenje za OpenAI modele 2025

Jedan od prijedloga je tzv. fine-tuning – dodatna obuka modela s manjim skupovima podataka visoke kvalitete. Drugi put je hibridni pristup, gdje se kombiniraju klasične baze znanja i AI kako bi se smanjila mogućnost haluciniranja. Treći smjer je tzv. “AI koji zna kada ne zna” – modeli koji otvoreno priznaju nepoznanice umjesto da nagađaju. Sva ta riješenja zahtjevaju vremena i testiranja da bi došli do modela koji je pouzdaniji od 52%, te je za to potrebno vremena, truda i znanja. OpenAI modeli 2025 je još uvijek zanimljiv alat ali oprez prilikom upotrebe je jako bitan.

U svakom slučaju, jasno je da AI revolucija neće usporiti – ali mora biti odgovorna. Korištenje ovih modela u poslovanju, obrazovanju i javnom sektoru zahtijeva dodatnu pažnju i razumijevanje njihovih ograničenja. Zato svi koji se koriste OpenAI 2005 neka budu svjesni da mala naznaka “AI može pogriješiti” znači stvarno provjerite podatke koje program daje prije upotrebe, pogotovo ako ih koristite u službene svrhe.

Povjerenje u AI – ključno pitanje našeg doba

Kako se razvoj umjetne inteligencije ubrzava, ključno pitanje postaje: možemo li vjerovati sustavu koji ne zna kada griješi? Halucinacije u AI modelima ne znače samo pogrešan odgovor – one mogu značiti širenje lažnih informacija, stvaranje lažnih uvjerenja i donošenje odluka temeljenih na netočnim podacima. Zbog toga je edukacija korisnika jednako važna kao i tehnički razvoj. AI nije čarobni štapić – već alat koji treba razumjeti, koristiti pažljivo i stalno nadgledati.

Pametno korištenje AI-ja ne znači slijepo vjerovanje, nego kritičko razmišljanje, provjeru činjenica i svjesnost ograničenja umjetne inteligencije.


🔗 Izvor: Geek.hr – Novi OpenAI modeli sve više odstupaju od činjenica

WorldAmot

Scroll to Top