Dana 20. prosinca 2024., OpenAI je predstavio svoje najnovije AI modele o3 i o3-mini, označivši time značajan napredak u razvoju umjetne inteligencije. Ovi modeli, koji su dio inicijative "12 dana OpenAI-a", postavljaju nove standarde u složenom rasuđivanju i rješavanju problema. Istodobno, OpenAI poziva istraživače sigurnosti da se prijave za rani pristup kako bi testirali i unaprijedili sigurnost ovih naprednih sustava.
Izvanredne sposobnosti modela o3
Model o3 već sada demonstrira svoje superiorne performanse na nekoliko ključnih područja:
Kodiranje: o3 nadmašuje prethodne generacije umjetne inteligencije s 22,8 postotnih bodova više na SWE-Bench Verified testu, dok na platformi Codeforces postiže rejting od 2727, što je iznad razine glavnog znanstvenika OpenAI-a. Ovaj napredak omogućava brže i točnije generiranje koda.
Matematičke i znanstvene vještine: Na ovogodišnjem AIME (American Invitational Mathematics Examination), o3 postiže impresivnih 96,7%, promašivši samo jedno pitanje. Na GPQA Diamond testu model je ostvario 87,7%, nadmašujući ljudske stručnjake u ovim izazovnim kvizovima.
Frontier benchmark testovi: Model je postavio nove rekorde na testovima poput EpochAI's Frontier Math, rješavajući 25,2% problema koje drugi modeli nisu mogli savladati.
Sigurnosni izazovi i prilike za istraživače
Kako bi osigurao odgovorno korištenje novih modela, OpenAI poziva stručnjake za sigurnost da se pridruže procesu procjene. Ovaj je poziv dio šire strategije koja uključuje internu sigurnosnu provjeru te suradnju s renomiranim organizacijama poput U.S. AI Safety Institute i UK AI Safety Institute.
Ključni ciljevi sigurnosnih istraživanja:
Identifikacija potencijalnih rizika povezanih s naprednim AI sustavima.
Razrada strategija za mitigaciju rizika.
Unapređenje transparentnosti i sigurnosnih standarda za AI tehnologiju.
Detalji prijave za istraživače sigurnosti
OpenAI poziva zainteresirane istraživače da dostave svoje prijave do 10. siječnja 2025. Kako bi osigurali mjesto u ovom programu, kandidati trebaju dostaviti:
Osobne podatke i profesionalne afilijacije.
Područja interesa u sigurnosnom testiranju.
Poveznice na prethodne projekte ili znanstvene radove.
Dostupnost modela za testiranje:
o3-mini: Bit će dostupan za testiranje krajem siječnja 2025.
o3: Pristup ovom modelu očekuje se ubrzo nakon toga.
Kako o3 modeli mijenjaju AI pejzaž
Napredne sposobnosti modela o3 ne znače samo bolju preciznost, nego i povećane mogućnosti primjene u različitim industrijama. Na primjer, ovi modeli mogu transformirati:
Zdravstvo: Poboljšanje dijagnostike kroz analizu velikih količina medicinskih podataka.
Obrazovanje: Prilagođeni obrazovni alati za studente svih dobnih skupina.
Tehnologiju: Automatizacija složenih zadataka u razvoju softvera.
Međutim, s velikim potencijalom dolaze i velike odgovornosti. Sigurnost i odgovorna upotreba ostaju u središtu OpenAI-evih prioriteta.
Zašto je važno sudjelovati?
Istraživači sigurnosti igraju ključnu ulogu u osiguravanju da AI sustavi neće biti zlorabljeni. Sudjelovanje u ovom programu pruža jedinstvenu priliku za doprinos razvoju tehnologije koja će oblikovati budućnost na siguran i etičan način.
Pozivamo sve stručnjake zainteresirane za istraživanje sigurnosti da se prijave i postanu dio ove revolucije u umjetnoj inteligenciji. OpenAI nastavlja s predanošću transparentnosti, inovaciji i odgovornosti, oblikujući budućnost AI-a u korist cijelog društva.
No comments: