Prelom v umelej inteligencii: Nový model od OpenAI je podobný človeku. Premýšľa dlhšie a dokonca uvažuje
- OpenAI predstavila model s kódovým názvom Strawberry oficiálne nazvaný OpenAI o1
- Myslením sa začína podobať človeku
- Podľa vývojárov je inovatívna
- OpenAI predstavila model s kódovým názvom Strawberry oficiálne nazvaný OpenAI o1
- Myslením sa začína podobať človeku
- Podľa vývojárov je inovatívna
Žijeme v časoch, keď sa umelej inteligencii darí. Je si toho vedomá aj spoločnosť OpenAI, ktorá je tvorcom obľúbeného jazykového modelu ChatGPT. Využívajú ju firmy pri práci, jednotlivci, keď chcú niečo rýchlo vyhľadať alebo študenti, ktorí si chcú „trochu pomôcť“.
V júli sme ti priniesli článok o tom, že vyvíjajú revolučnú novinku. Projekt nazvali „Strawberry“ (čiže Jahoda). Dnes už poznáme jeho skutočné meno, nesie názov OpenAI o1, a spoločnosť tvrdí, že dokáže uvažovať. Informovali o tom na svojej stránke, kde aktualizáciu predstavili.
Prísne tajný projekt
Inovatívna aktualizácia bola dlhé mesiace prísne utajovaná. Bližšie detaily zverejnila až zahraničná agentúra Reuters, ktorá sa dostala k interným dokumentom. Na otázku o Strawberry a podrobnostiach uvedených v tomto dokumente hovorca spoločnosti OpenAI poslal len stručné vyhlásenie. „Chceme, aby naše modely AI videli a chápali svet viac ako my. Nepretržitý výskum nových schopností AI je v tomto odvetví bežnou praxou so spoločným presvedčením, že tieto systémy sa časom zlepšia v uvažovaní,“ reagoval.
Dokument opisoval projekt, ktorý využíva model Strawberry s cieľom umožniť umelej inteligencii spoločnosti nielen generovať odpovede na otázky, ale plánovať dostatočne dopredu na to, aby sa internet pohyboval autonómne. Cieľom bolo, aby spoľahlivo vykonával to, čo OpenAI nazýva „hĺbkový výskum“. A to doteraz žiadny model AI nedokázal.
Prešli len necelé tri mesiace a Jahoda je na svete. OpenAI o nej hovorí ako o niečom, čo je skutočne výnimočné. Nový model o1 patrí do rodiny modelov, z ktorých dva (o1-preview a o1-mini) sú od štvrtka dostupné pre predplatiteľov ChatGPT Plus a prostredníctvom OpenAI API. Model o1-mini je rýchlejšia a cenovo dostupnejšia verzia, zameraná najmä na generovanie kódu.
Reaguje ako človek
Na svojom webe spoločnosť patriaca Samovi Altmanovi píše, že vyvinuli novú sériu modelov AI navrhnutých tak, aby trávili viac času premýšľaním, kým zareagujú. „Dokážu uvažovať cez zložité úlohy a riešiť ťažšie problémy ako predchádzajúce modely v oblasti vedy, kódovania a matematiky,“ popisujú inováciu.
Vo štvrtok 12. septembra vydali prvú z tejto série v ChatGPT a v ich API. Píšu, že ide len o ukážku a očakávajú pravidelné aktualizácie a vylepšenia. Spolu s týmto vydaním zahajujú aj hodnotenia pre ďalšiu aktualizáciu, ktorá je momentálne vo vývoji.
„Vycvičili sme tieto modely, aby strávili viac času premýšľaním nad problémami, kým zareagujú, podobne ako človek. Tréningom sa učia zdokonaliť proces myslenia, skúšať rôzne stratégie a rozpoznávať svoje chyby,“ približuje firma.
Vysvetľujú, že v testoch ďalšia aktualizácia modelu funguje podobne ako doktorandi pri náročných benchmarkových úlohách z fyziky, chémie a biológie. Zistili tiež, že vyniká v matematike a kódovaní. „V kvalifikačnej skúške na Medzinárodnú matematickú olympiádu (IMO) GPT-4o správne vyriešil iba 13 % úloh, zatiaľ čo model uvažovania dosiahol 83 %,“ dodali s tým, že ich kódovacie schopnosti boli hodnotené v súťažiach a dosiahli 89. percentil v súťažiach Codeforces.
Je bezpečnejší
Keďže ide ešte len o prvotný model, stále nemá veľa funkcií, vďaka ktorým je ChatGPT užitočný. Ide o vlastnosti ako je prehliadanie webu kvôli informáciám a nahrávanie súborov a obrázkov. V mnohých bežných prípadoch bude teda podľa OpenAI GPT-4o v blízkej dobe schopnejší.
Ale pre zložité úlohy uvažovania je to významný pokrok a predstavuje novú úroveň schopností AI, myslia si. „Vzhľadom na to počítadlo vynulujeme späť na 1 a túto sériu pomenujeme OpenAI o1,“ popisujú vznik názvu modelu.
Ako súčasť vývoja nových modelov prišli s novým prístupom k školeniam o bezpečnosti, ktorých schopnosti uvažovania využíva, aby dodržiavali bezpečnostné pokyny a usmernenia. Tým, že dokáže uvažovať o ich bezpečnostných pravidlách v kontexte, môže ich efektívnejšie uplatňovať.
Jedným zo spôsobov, ako merajú bezpečnosť, je testovanie toho, ako dobre model naďalej dodržiava svoje bezpečnostné pravidlá, ak sa ich používateľ pokúsi obísť (známe ako jailbreak teda „útek z väzenia“). „V jednom z našich najťažších testov na útek z väzenia dosiahol GPT-4o skóre 22 (na stupnici od 0 do 100), zatiaľ čo náš o1-preview model dosiahol skóre 84,“ argumentujú.
Užitočný pre výskum
Aby sa OpenAI prispôsobila novým schopnostiam týchto modelov, posilnili svoju bezpečnostnú prácu, interné riadenie a spoluprácu federálnej vlády. Zahŕňa to prísne testovanie a hodnotenia pomocou ich rámca pripravenosti a procesov kontroly na úrovni predstavenstva, vrátane výboru pre bezpečnosť a zabezpečenie.
Aby podporili svoj záväzok k bezpečnosti AI, nedávno formalizovali dohody s americkým a britským inštitútom pre bezpečnosť AI. Tieto dohody začali uvádzať do prevádzky, vrátane poskytnutia včasného prístupu inštitútom k výskumnej verzii tohto modelu. „Bol to dôležitý prvý krok v našom partnerstve, ktorý nám pomohol vytvoriť proces výskumu, hodnotenia a testovania budúcich modelov pred a po ich zverejnení,“ dodali na svojom webe.
Tieto vylepšené možnosti uvažovania môžu byť obzvlášť užitočné, ak riešite zložité problémy vo vede, kódovaní, matematike a podobných oblastiach. Napríklad o1 môžu používať výskumníci v zdravotníctve na anotáciu údajov o sekvenovaní buniek, fyzici na generovanie komplikovaných matematických vzorcov potrebných pre kvantovú optiku a vývojári vo všetkých oblastiach na vytváranie a vykonávanie viackrokových pracovných postupov.
Po novom dokáže umelá inteligencia nielen poradiť pri domácich úlohách a výskumoch, vie vytvoriť aj jednoduchú počítačovú hru. Návod zverejnila spoločnosť na svojom Youtube kanáli.
Zdroje: Archív Startitup, OpenAI, Reuters, Youtube/OpenAI