Citat:
Ursprungligen postat av
JohnnyMnemonic
Sjävklart inte, ChatGPT är totalt värdelös att använda för forskning, annat än just forskning om språkmodeller.
Den klarar inte "universitetsmatte" något vidare, ingen språkmodell är i dag i närheten av att konkurrera med en människa inom matematik.
GSM8K som ingår i de benchmarks man gör med språkmodeller finns ännu ingen språkmodell som når 100% och det är grundskolematematik.
"Programmeringsuppgifter" det är skrattretande, få ChatGPT att skriva en exempel implementation av en BLIT oscillator och återkom, det är knappast någon högskolematematik eller något som kräver gedigen programmeringskunskap att ta fram, men jag kan garantera att du inte kommer få ut något fungerande.
Efter det kan du fråga om samma sak fast minBlep.
Allt detta handlar bara om definitioner om vad förståelse är. Och det är exakt lika korrekt att säga att det är stokastisk papegoja som att påstå att den har viss förståelse. Du måste förstå att en leksak, sådan som barn har som man trycker in trianglar, kvadrater, cirklar osv genom hål har exakt lika mycket förståelse för formerna på objekten som en språkmodell har på orden och meningarna du matar den med.
För det är precis vad träningen gör, och det är ingen som helst skillnad mot att träna att CNN eller ett transformer nätverk ur den aspekten, det du hoppas på är att nätverket ska formas på det sätt att det maskar/bryr sig om just de detaljer som är viktiga eller oviktiga i din källdata.
Det finns massvis som talar emot vad vissa förspråkare av språkmodeller påstår, så som att det bara är data som behövs, att man behöver blanda bild, ljud, text osv så helt plötsligt ska magi uppstå.
Hade det varit så enkelt hade folk som varit blinda eller döva varit kraftigt underrepresenterade i begåvningsmätningar osv men det finns ingen sådan trend. Och tvärtemot så har det visat sig att transformers är urbota korkade när det kommer till bild data, till skillnad från när de tränas på text då de kan ge sken av förståelse av konsekvens och orsak så lär de sig inget alls från bilder, de kan inte förstå vad som hänt om du presenterar en bild serie där du tex har en vas på ett bord och sedan nästa bild tagit bort bordet och vasen är i luften. En människa skulle omedelbart inse att vasen skulle falla till golvet, det gör inte språkmodellerna. Yann LeCun har presenterat flertalet sådana exempel på sina föreläsningar.
Ja det är att göra lätt för sig och att klappa sig själv på ryggen för att stödja sina egna argument att tänka så, det finns massvis med dimensioner på kunskapsbärning som inte en språkmodell alls behärskar idag, det finns massvis med information i betoningar som inte går att skriva ner i text och träna på heller.
attention mekaniken har inget med effektivisering att göra det innebär bara att man har en teknik som effektivt tar hänsyn till ordföljder och där med kan bilda sig en kontextuell förståelse för ord beroende på vilka ord som ligger före det. dvs det är ett smart sätt att förstå att tex ordet "mål" betyder helt olika saker i olika sammanhang.
Transformers utvecklades för att förbättra maskinöversättning, det är inget "emergent" utan ett fullt medvetet designval man gjorde. Precis som många av de andra "så kallade" emergenta förmågorna som dessutom på senare tid kunnat observeras i betydligt mindre modeller och jag har skrivit det hela tiden alla dessa sensations rapporter om "sparks of AGI" osv är marknadsföringsmaterial från Microsoft, det är bara urdåligt att folk som påstår sig använder och förstår tekniken har så otroligt dålig förståelse för den.
Har någon här hävdat att chatgpt redan används för att dra nya vetenskapliga slutsatser? Jag har inte gjort det. Men den kan redan föreslå nya intressanta forskningsproblem, nya exjobbsuppgifter och nya innovationsapproacher som lösning på olika behov, den kan generara kod som analyserar forskningsdata statistiskt, och kod som generar listor med data genom att söka i Wikidata, och den kan omformulera forskares slutsatser på ett smartare sätt.
Chatgpt gör löjliga räknefel på grundskolenivå, särskilt gratisversionen, t.ex. när den ska dividera två tal, men gör ändå avancerade lösning och fungerande python-kod, matlab-kod mm, t.ex. för numeriska metoder, köteori och signalbehandling. När man ber den köra koden upptäcker den ibland själv att den har gjort fel och åtgärdar felet.
Jag bad chatgpt 4 plotta en BLIT-genererad sågtandsvåg och dess spektrum för några olika samplingsfrekvenser, och jämföra med en ofiltrerad sågtandsvåg. Jag kan inte bedöma om resultatet är rimligt, men kurvorna är sågtandsliknande men skiljer lite. Kärnan är följande funktion som den föreslog: (Jag har tagit bort någon onödig kodrad.)
Kod:
def generate_blit(frequency, sample_rate, duration):
# Antal samples att generera
num_samples = int(sample_rate * duration)
# Tidsvektor
t = np.arange(num_samples) / sample_rate
# Antal harmoniker baserat på Nyquist-frekvensen
n_harmonics = int(np.floor((sample_rate / 2) / frequency))
# BLIT-vågform
n = np.arange(1, n_harmonics + 1)
blit_wave = np.sum(np.sin(2 * np.pi * n * frequency * t) / n, axis=0)
blit_wave *= (2 / np.pi)
return t, blit_wave
Du missförstår begreppet emergens. Kemin emergerar ur fysiken, biologin ur kemin, osv. Emergens är egenskaper som ett system inte har på låg nivå (atomär nivå) men som uppstår när man studerar ett tillräckligt stort och komplext system i sin helhet, på högre organisationsnivå. I fallet LLM menar man överaskande förmågor som inte är direkt implementerade men som uppstår för att LLM:et är tillräckligt stort och komplext. T.ex. utöver vad transformeralgoritmen klarar, och utöver dess förmåga att beräkna vilket nästa ord som är mest rimligt eller sannolikt. Vanliga exempel man brukar ge är att GPT kunde skapa programkod (GPT2 används till det i Github Copilot), poesi, mm.
Jag menar att Chatgpt har en förmåga att resonera och lösa logiska och matematiska problem, och att det är emergenta förmågor, eftersom de inte är direkt implementerade utan oväntat har uppstått för att den är tränad på stort och komplext material och för att den behärskar språk så väl. Som jag förklarar med att många mänskliga språk kan uttrycka logiska och matematiska resonemang, med mönster för lösningar där steg för steg. Som den kan översätta till nya tillämpningsexempel.
Vissa kallar istället dessa förmågor för illusionener. De säger att det inte är "riktig" resonerande och problemlösning, på det sätt människor gör det. Jag tror att det är just verbalt tänkande människor använder för att lösa sådanna problem som inte djur kan resonera om.
Vad menar du hur kan förståelse definieras? I kursplaner bör man inte skriva "kunna förstå" som lärandemål, eftersom lärare inte kan gå in i studentens hjärna och se förståelsen, utan det ska vara ett mätbart lärandemål. Vanligen skriver man "kunna förklara" eller kanske "kunna tillämpa teorin på nya problem". Så testar lärare förtåelse. Och det klarar ChatGPT!
Kanske kommer fler människoliknande egenskaper en dag att emergera när nya versioner av LLM blir tillräckligt stora och komplexa, eller träningsmaterialet utökas. T.ex. nyfikenhet, analytisk förmåga, förmåga att dra vetenskapliga slutsatser med nyhetsvärde, tro, politisk övertygelse, målmedvetenhet, samvete, empati, varierande humör, ledarskapsförmåga, förmåga att självständigt konstruera nya apparater likt en ingenjör, självförbättringsförmåga, självmedvetande. Den är ju faktiskt tränad på material där allt detta beskrivs, både genom skönlitteratur och akademisk litteratur.
Blinda som en gång som barn har sett kan lösa visuella problem mycket bättre än blinda som aldrig sett. T.ex. problem inom fysik och matematik. De har alltså utvecklat ett större syncenter. Om dövstumma kan lösa matematisk-logiska problem så beror det på att det har ett andra språk, nämligen teckenspråk, och skriftspråk. Så de har också ett språkcenter, som kan beskrivas som en stokastisk papegoja.