• 3
  • 4
2023-07-15, 19:33
  #37
Bannlyst
Citat:
Ursprungligen postat av Ola Schubert
Nr jag brjar titta nrmare p den otroligt snabba utvecklingstakten hos LLM modeller s blir hpen/rdd. Fr nr jag rknar p det s visar sig hpnadsvckande siffror. En vettig brjan fr att frst detta r att jmfra vad den kommande modellen GPT-4.5 som kommer ca ett halvr efter att GPT-4 lanserades i mars. S lt oss rkna med 6 mnaders vergripande utveckling under olika utvecklingstakt:

Scenario 1.

Vi brjar med en "lugn" utveckling. GPT-4.5 har d "bara" dubblerat GPT-4:s ursprungliga kapacitet p ett halvr. Det skulle innebra att GPT-5 fr en fyrdubblad kapacitet jmfrt med GPT-4.5 om modellen lanseras ett r efter. Men detta "lugna" scenario innebr, likt frbannat att om 10 r s har vi en modell som r mer n 1 miljon gnger kraftfullare n GPT-4 ursprungligen hade.

P 1 r 4 gnger
P 2 r 16 gnger
P 3 r 256 gnger
P 4 r 65 536 gnger

Scenario 2.

Lt oss sedan g vidare till den utvecklingshastighet som OpenAI:s modeller hade innan GPT-4, (vars exakta prestanda vi inte knner till). Denna utvecklingstakt innebr en frdubbling av vergripande kapacitet var tredje mnad och skulle ge GPT-4.5 en 8 gnger hgre vergripande kapacitet jmfrt med GPT-4 i mars.

P 1 r 16 gnger
p 2 r 64 gnger
P 3 r 4096 gnger
P 4 r 16 777 216 gnger

Scenario 3.

Ett riktigt snabbt scenario. Hr utgr vi ifrn att "AI-racet" drivit fram en frdubbling av GPT-4:s vergripande kapacitet varje mnad. D fr GPT-4.5 64 gnger hgre kapacitet n vad GPT-4 hade i mars. Resultatet r skrmmande:

P 1 r 4096 gnger
P 2 r 16 777 216 gnger

Vid scenario 1 s anser jag att vi kan vnta med en trningspaus ngra r, dock senast ngra mnader efter r tre.

Vid scenario 2 s anser jag att man br vnta med en traningspaus till ngra mnader in p r tv, typ nr vi nr ver 1000 gnger hgre prestanda n vad GPT-4 hade i mars.

Vid scenario 3 br vi trningspausa alla modeller kraftfullare n GPT-4,5.

Hur ser ni p den ytterst snabba AI utvecklingen?

Det finns saker som bde accelererar och bromsar den.
Nja, du drar lite tokiga slutsatser hr.

Det hr behver nyanseras.

Kommer ngon ChatGPT 4.5 ens?
Har ett minne av att man skippade den med minnet sviktar.

ChatGPT5 talas det om iaf. Finns en del features som r schedulerade p den.
Men dr jmras det ver otillrcklig GPU-kapacitet. Man har inte rd att trna upp en GPT5 fr nrvarandet. Det r inte billigt om man sger s.

Nvidias aktiegare rknar med att det skall kpas GPUer as if there were no tomorow. Men Kunderna har inte rd. Nvidias aktiegare kanske kan ppna plnbcker och sknka pengar till Open AI. Jag menas s Nvidia fr affrer.

Istllet tnker man hlla p och krama GPT4 s lnge.

Det lr drja flera r innan vi ser en GPT5.
Och d kan den i stllet ha lite bttre kvalitet i svaren, men lr vara ganska likartad.
Men behver komma ihg att GPT blir inte bttre n sitt indata. Det den gr r att mappa ett medelvrdesbildat indata. Mer fantastiskt n s r det inte.

Och GPT4 r trnat p ungefr hela internet.
Lite extra kan man vl krafsa ihop till trningsdata fr GPT5. S lite bttre blir den vl. Lite allts.
Jag skulle sga att vi har vldigt mycket diminishing returns p mer noder i ntet. Och med kade trningstider.

Ngon gng om ngra r kanske ngon lyckas vrka fram en modifierad arkitektur som ger lite mer.

Man skulle eventuellt kunna dra lite paralleller till AlphaZero och trning fr schack. Dom kunde kasta p mer noder och mer trningstid men spelstyrkan konvergerade mot Stockfish. Dom blev vl marginellt bttre men det stannade dr. Dom hade i sig ingen brist p indata, men det hjlper inte. vikterna i ntet blir inte direkt bttre.

Men GPT har ovanp detta problemet med "brist" p indata. Det kar ju p med tiden. Men vi talar om r hr.

Det man kan gra r antagligen frbttringar i nischer. T ex s den kan lra sig rkna.
Och kanske bli lite bttre i formuleringarna. Och s kanske man sorterar bort skrpig indata. Att anvnda inlgger p Flashback skulle ge en ganska deprimerande village idiot till ChatGpt.
Citera
2023-07-15, 19:35
  #38
Bannlyst
Citat:
Ursprungligen postat av Ola Schubert
Nvidia rknar med en miljon strre vergripande kapacitet hos LLM jmfrt med vad GPT-4 hade i mars, om tio r.
Nja, Huang refererar vl till de r som varit, fram till nu.
Citera
2023-07-15, 20:32
  #39
Medlem
Ola Schuberts avatar
Citat:
Ursprungligen postat av 8978wxu642
Varfr inte?

Om, GPT-4.5 fr en 64 gnger hgre prestanda jmfrt med GPT-4 i mars s frdubblas kapaciteten fr varje mnad. Och d, kanske, skulle GPT-5 kunna"ta ver".

Men jag hoppas p att GPT-4.5 "bara" fr frdubblad prestanda jmfrt med GPT-4 i mars.

D r det ingen fara med GPT-5 och, frmodligen inte heller med GPT-6.
Citera
2023-07-15, 20:42
  #40
Medlem
Ola Schuberts avatar
Citat:
Ursprungligen postat av Kub.Ernetes
Nja, du drar lite tokiga slutsatser hr.

Det hr behver nyanseras.

Kommer ngon ChatGPT 4.5 ens?
Har ett minne av att man skippade den med minnet sviktar.

ChatGPT5 talas det om iaf. Finns en del features som r schedulerade p den.
Men dr jmras det ver otillrcklig GPU-kapacitet. Man har inte rd att trna upp en GPT5 fr nrvarandet. Det r inte billigt om man sger s.

Nvidias aktiegare rknar med att det skall kpas GPUer as if there were no tomorow. Men Kunderna har inte rd. Nvidias aktiegare kanske kan ppna plnbcker och sknka pengar till Open AI. Jag menas s Nvidia fr affrer.

Istllet tnker man hlla p och krama GPT4 s lnge.

Det lr drja flera r innan vi ser en GPT5.
Och d kan den i stllet ha lite bttre kvalitet i svaren, men lr vara ganska likartad.
Men behver komma ihg att GPT blir inte bttre n sitt indata. Det den gr r att mappa ett medelvrdesbildat indata. Mer fantastiskt n s r det inte.

Och GPT4 r trnat p ungefr hela internet.
Lite extra kan man vl krafsa ihop till trningsdata fr GPT5. S lite bttre blir den vl. Lite allts.
Jag skulle sga att vi har vldigt mycket diminishing returns p mer noder i ntet. Och med kade trningstider.

Ngon gng om ngra r kanske ngon lyckas vrka fram en modifierad arkitektur som ger lite mer.

Man skulle eventuellt kunna dra lite paralleller till AlphaZero och trning fr schack. Dom kunde kasta p mer noder och mer trningstid men spelstyrkan konvergerade mot Stockfish. Dom blev vl marginellt bttre men det stannade dr. Dom hade i sig ingen brist p indata, men det hjlper inte. vikterna i ntet blir inte direkt bttre.

Men GPT har ovanp detta problemet med "brist" p indata. Det kar ju p med tiden. Men vi talar om r hr.

Det man kan gra r antagligen frbttringar i nischer. T ex s den kan lra sig rkna.
Och kanske bli lite bttre i formuleringarna. Och s kanske man sorterar bort skrpig indata. Att anvnda inlgger p Flashback skulle ge en ganska deprimerande village idiot till ChatGpt.

Jag hoppas faktisk att du har rtt. Annars har jag lst/sett om att GPT-4.5 kommer i oktober och att GPT-5 brjar trnas i december, vilket, iof, gr det osannolikt att modellen lanseras i juni/juli 2024.

Men dra grna ut p allting, fr jag vill ha fel!
Citera
2023-07-15, 20:50
  #41
Medlem
Ola Schuberts avatar
Citat:
Ursprungligen postat av Kub.Ernetes
Nja, Huang refererar vl till de r som varit, fram till nu.

Nja, jag tror inte det. Men med en frdubbling av modellernas kapacitet var sjtte mnad under 10 rs tid s blir det en lite mera n en miljon gnger hgre kapacitet n vad GPT-4 hade i mars.

Och jag hoppas, verkligen, att det inte kommer att g fortare n s!
Citera
2023-07-15, 20:53
  #42
Medlem
Det skulle vara en enkel ai bot i form av en chatt, men jag r inte sker p hur det knns i verkligheten.

Personligen tycker jag att den nuvarande AI r en bubbla.
Citera
2023-07-16, 08:09
  #43
Bannlyst
Citat:
Ursprungligen postat av Ola Schubert
Jag hoppas faktisk att du har rtt. Annars har jag lst/sett om att GPT-4.5 kommer i oktober och att GPT-5 brjar trnas i december, vilket, iof, gr det osannolikt att modellen lanseras i juni/juli 2024.

Men dra grna ut p allting, fr jag vill ha fel!
Ja, jag ser nu att GPT4.5 har en planerad leverans. Var nog obsolet information jag hade.
Citera
2023-07-16, 08:17
  #44
Bannlyst
Citat:
Ursprungligen postat av Ola Schubert
Nja, jag tror inte det. Men med en frdubbling av modellernas kapacitet var sjtte mnad under 10 rs tid s blir det en lite mera n en miljon gnger hgre kapacitet n vad GPT-4 hade i mars.

Och jag hoppas, verkligen, att det inte kommer att g fortare n s!
Han refererade till historiken och sger att han hoppas att man kan terupprepa det.
Den typen av frhoppningar r inte s mycket att luta sig mot.

Sedan fr man ju ocks fundera p vad man mter hr. Det r inte alldeles uppenbart tycker jag.
Fr lnge sedan var det single thread performance. Men det r det inte lngre.
Det Huang refererar till brjar mer handla om att man kan kasta in mer GPU'er.
Dvs mer plnboksrelaterat snarare n ngon slags prestanda i underliggande teknologier.
Citera
2023-07-16, 09:09
  #45
Medlem
Ola Schuberts avatar
Citat:
Ursprungligen postat av Kub.Ernetes
Ja, jag ser nu att GPT4.5 har en planerad leverans. Var nog obsolet information jag hade.

Fast det kan ju vara s att GPT-5 bde hinner grundtrnas och finjusteras p bara ett halvr med massiv hjlp av annan AI och smartare trningsmetoder

Citat:
Ursprungligen postat av Kub.Ernetes
Han refererade till historiken och sger att han hoppas att man kan terupprepa det.
Den typen av frhoppningar r inte s mycket att luta sig mot.

Sedan fr man ju ocks fundera p vad man mter hr. Det r inte alldeles uppenbart tycker jag.
Fr lnge sedan var det single thread performance. Men det r det inte lngre.
Det Huang refererar till brjar mer handla om att man kan kasta in mer GPU'er.
Dvs mer plnboksrelaterat snarare n ngon slags prestanda i underliggande teknologier.

Vi fr vl se. I en video om den hrdvara som krvs fr GPT-4, (vilket man rknat ut "bakvgen"), s verkar det som att det var mindre n vad GPT-3.5 krvde. S GPT-4 kanske inte alls startade med 10 biljoner parametrar.

Dessutom lr nya CPU, specialanpassade fr trning av LLM, sjlva, innehlla AI, vilket sker gr dem dyrare men ocks effektivare. Tillkommer sedan nya tekniska- och program-lsningar som Hyperon, Atomspace och Metta, vika ger bttre rationellt tnkande med terkopplings slingar, kad flexibilitet och mjliggr tnkande p vermnsklig niv.Hrdvarukraven fr detta knner jag inte till.
Citera
2023-07-16, 16:45
  #46
Medlem
Ola Schuberts avatar
Ok, jag r en idiot, som inte kan rkna, och vare sig med-debattrer eller AI rttar mig

Scenario 2(a) skall vara:

r 1. 16 gnger hgre kapacitet

r 2. 256 gnger hgre kapacitet

r 3. 65 536 gnger hgre kapacitet

r 4. 4 294 967 295 gnger hgre kapacitet

r 5. 1;84467441x10^19 gnger hgre kapacitet.(dvs. ca 18;5 triljoner, svenska systemet fr hga tal.)

Jmfrelsen rr den vergripande kapaciteten GPT-4 hade i mars 2023. Utvecklingshastigheten r den som OpenAI hade innan GPT-4 fr sina modeller, dvs en frdubbling av kapaciteten var tredje mnad. Nuvarande kningstakt r oknd. Men kningstakten ovan lr inte kunna upprtthllas mer n ngra r till.

S min bedmning r att en ganska lng trningspaus mste sttas in ngon gng ca efter r 2,5 r om man fortsatt med denna utvecklingstakt. D har den vergripande kapacitet hunnit ka 1000 gnger jmfrt med GPT-4 i mars 2023.

S vida nu inte GPT-x modellen, dess fr innan, gr ut med att den r medveten, har mnniskoliknande knslor och sunda intentioner och lskar oss mnniskor, och vi blir vertygade om att det r sant. D, kanske, trs vi kra p ngot r till.
Citera
2023-07-16, 17:54
  #47
Medlem
Ola Schuberts avatar
Nej jag var ingen idiot. Siffrorna ovan skall vara:

Lite frtydligande:

Scenario 2(a) skall vara:

r 1. 16 gnger hgre kapacitet

r 2. 256 gnger hgre kapacitet

r 3. 4094 gnger hgre kapacitet

r 4. 65 520 gnger hgre kapacitet

r 5. 1 048 320 gnger hgre kapacitet

r 6. 16 773 120 gnger hgre kapacitet

r 7. 268 369 920 gnger hgre kapacitet

Svrt det dr med och rkna, speciellt som jag trodde mig ha funnit en "genvg"

Hur som helst s kan Altman bara drmma om att OpenAI skall kunna hlla p till GPT-10 om man kr med samma kningstakt som man hade fr modellerna innan GPT-4.
Citera
  • 3
  • 4

Skapa ett konto eller logga in för att kommentera

Du måste vara medlem för att kunna kommentera

Skapa ett konto

Det är enkelt att registrera ett nytt konto

Bli medlem

Logga in

Har du redan ett konto? Logga in här

Logga in