Citat:
Ursprungligen postat av
Cyborg2030
Jag tror att de var missnöjda med Sam Altmans systematiska nedprioritering av säkerheten t.ex genom att ge alignmentteamet max 20% compute, vilket de inte ens fick enligt rykten på X.
Sam Altman är en renodlad affärsman inom tech. Hans fokus är endast att bolaget ska gå med vinst. Forskning på alignment genererar ingen vinst. Detta parat med en misstänkt toxisk personlighet gör honom ytterst olämplig att leda Open AI eller någonting annat som har med AI att göra. Jag anser att amerikanska myndigheter måste träda in och ta över verksamheten nu. De borde kunna åberopa "homeland security" i detta läget.
Jag håller med om att turbulensen kring OpenAI:s Super-aligiment team är allvarligt, inte minst för att man riskerar att förlora framförhållning och överblick, om nu teamet avskaffas eller blir mindre effektivt.
Vad gäller Sam Altman så delar jag inte din bedömning. Jag tror inte att Altman, i sig, tycker att vinst är viktig, än mindre personlig vinning, (han har tillräckligt med pengar i alla fall. Däremot så tror jag att han, i grunden, har en optimistisk syn på AI och att han tror mycket på en stegvis väg mot AGI, med stegvisa små utvecklingsste. Men frågan är om han har den säkerhetsmässiga överblicken.
Kanske såg Ilya Sutskrever de långsiktiga riskerna med ChatGPT-4o multimodalitet och autonoma minnesfunktion. Jag anser dock att de allvarligaste säkerhetsproblemen uppstår när modellen når "GPT-6 kapacitet", ev. med "proto-självmedvetande" . MEN, innan dess, så måste man börja förbereda sig!
(Hittills har jag nästan kopierat in
min kommentar till ChatGPT-4o kommentar över ditt inlägg. Den boten är, nästan, en lika stor "alarmist" som du är! 🙂 )
Jag vill alltså se
förberedelser inför en modell med "GPT-6 kapacitet som ev. har" proto-självmedvetenhet". Men det är
inte samma sak som, likt dig, kräva att man skall lösa hela AI-anpassningsproblemet redan idag, innan man uppdaterar och skapar nya modeller. Att Altman vill se en stegvis utveckling där problem kan åtgärdas och allmänhetens mottagande tas i beaktande, är, i sig, ingen dålig strategi,
men man måste
samtidigt ha en mera långsiktig och vidare överblick!
Vad gäller USA:s federala regleringar så har man bara satt ett tekniskt kapacitetstak för när nya modeller kräver regeringens tillstånd, med tillhörande övervakning. Det taket kanske nås om ett till två år. Mycket troligt så sitter Pentagon, redan, på en sådan modell, så myndigheterna i USA vet, exakt, vad gränsen går. Jag tror att det kommer att krävas tillstånd för att börja utveckla en modell på "GPT-7 nivå".