OpenAI har tydligen fått ett dilemma på halsen: deras nästa flaggskeppsmodell, ”Orion”, riskerar att bli något av en besvikelse, skriver The Information.
När anställda testade den nya modellen "Orion" visade det sig att, trots att den presterar bättre än företagets nuvarande modeller, är förbättringen långt ifrån det tekniksprång som fanns mellan GPT-3 och GPT-4.
Ännu mer uppseendeväckande är att Orion på vissa områden, särskilt inom programmering, knappt lyckas överträffa sina föregångare.
I ett försök att vända trenden har OpenAI nu bildat ett särskilt "foundations team” med uppdrag att hitta nya vägar framåt när bristen på färsk träningsdata börjar strypa utvecklingen.
Företaget experimenterar nu med att mata ”Orion” med AI-genererad syntetisk data och försöker pressa fram förbättringar i efterbearbetningen - ett tecken på att de traditionella metoderna kanske nått vägs ände och en metod som det varnats för av olika experter och förståsigpåare tidigare.
”OpenAI Shifts Strategy as rate of GPT AI Improvements Slows”
”Some researchers at the company believe Orion isn’t reliably better than its predecessor in handling certain tasks, according to the employees. Orion performs better at language tasks but may not outperform previous models at tasks such as coding, according to an OpenAI employee. That could be a problem, as Orion may be more expensive for OpenAI to run in its data centers compared to other models it has recently released, one of those people said."
The Takeaway
• The increase in quality of OpenAI’s next flagship model was less than the quality jump between the last two flagship models
• The industry is shifting its effort to improving models after their initial training
• OpenAI has created a foundations team to figure out how to deal with the dearth of training data”
Tyvärr låst artikel;
https://www.theinformation.com/artic...ovements-slows
Diskussion: Vad anser vi om att mata modeller med ai-genererat material? Vad tror vi om Orion? Samt spørsmål och tankar kring detta i stort och smått.
När anställda testade den nya modellen "Orion" visade det sig att, trots att den presterar bättre än företagets nuvarande modeller, är förbättringen långt ifrån det tekniksprång som fanns mellan GPT-3 och GPT-4.
Ännu mer uppseendeväckande är att Orion på vissa områden, särskilt inom programmering, knappt lyckas överträffa sina föregångare.
I ett försök att vända trenden har OpenAI nu bildat ett särskilt "foundations team” med uppdrag att hitta nya vägar framåt när bristen på färsk träningsdata börjar strypa utvecklingen.
Företaget experimenterar nu med att mata ”Orion” med AI-genererad syntetisk data och försöker pressa fram förbättringar i efterbearbetningen - ett tecken på att de traditionella metoderna kanske nått vägs ände och en metod som det varnats för av olika experter och förståsigpåare tidigare.
”OpenAI Shifts Strategy as rate of GPT AI Improvements Slows”
”Some researchers at the company believe Orion isn’t reliably better than its predecessor in handling certain tasks, according to the employees. Orion performs better at language tasks but may not outperform previous models at tasks such as coding, according to an OpenAI employee. That could be a problem, as Orion may be more expensive for OpenAI to run in its data centers compared to other models it has recently released, one of those people said."
The Takeaway
• The increase in quality of OpenAI’s next flagship model was less than the quality jump between the last two flagship models
• The industry is shifting its effort to improving models after their initial training
• OpenAI has created a foundations team to figure out how to deal with the dearth of training data”
Tyvärr låst artikel;
https://www.theinformation.com/artic...ovements-slows
Diskussion: Vad anser vi om att mata modeller med ai-genererat material? Vad tror vi om Orion? Samt spørsmål och tankar kring detta i stort och smått.