Citat:
Självklart kan bättre prompter förklara förbättringen. CoT är en prompting-teknik som bevisat får modeller att prestera bättre. Few-shot prompting är en annan teknik. Modellen "resonerar" sig fram till rätt lösning genom att automatiskt prompta sig själv såsom en människa annars får göra i iterationer för att få ut bättre svar från modellen.Nej, förbättrade prompter kan inte förklara hur o1 kan skriva 83% rätt i matematikolympiaden, från 13%.
In a qualifying exam for the International Mathematics Olympiad (IMO), GPT-4o correctly solved only 13% of problems, while the reasoning model scored 83%.
https://openai.com/index/introducing-openai-o1-preview/
Citat:
Jag vet inte var jag har nämnt skalningslagar som något argument? Det jag däremot undrade var om det är AGI att man måste specialträna agenter av smal AI och ladda in dessa moduler i ett system. Det har vi ju i sådant fall kunnat göra länge, enda skillnaden är att vi nu har en LLM som klarar av att förstå mänsklig kommunikation, vilket ger oss en möjlighet att minska vår precision när vi instruerar datorn och ändå kan få hyfsat goda resultat.
"Skalningslagarna" tolkar jag som en halmgubbe som utgår från den falska premissen att en AI endast är en st stor språkmodell och att den nu är maximalt tränad eftersom det inte finns fler böcker. Du försöker ignorerar att ledande och framtida AI kommer att vara multimodala och inneha många olika förmågor via multipla paradigmer som t.ex matematik och forskninsmoduler. I den här nya systemdesignen finns det ingen övre gräns till hur smart den kan bli eftersom den har fått möjlighet att nyttja och på längre sikt att skala ut till många nya "dimensioner" för kunskap och förmåga.