Flashback bygger pepparkakshus!
  • 8
  • 9
2024-09-26, 21:09
  #97
Medlem
BeneathTheSurfaces avatar
Citat:
Ursprungligen postat av erkki17
Jag såg nyss en video som fick mig att tänka osökt på dig.
Videon avhandlade en bok som vill få hjälp av läsaren att bli människa genom att läsaren interagerar med den.
Ju mer läsaren interagerar med boken, desto mänskligare blir den (för läsaren.)

Jag tror att samma fenomen har drabbat dig med dessa språkmodeller; ju mer du pratar med dem, desto mänskligare verkar de vara i dina ögon.


P.S.
Det stavas "preview"

Självklart är det så och det är så klart samma sak som hänt vissa forskare som lekt med dessa modeller,
jag har sagt det tidigare också- det är fruktansvärt lätt att bli förvillad av dessa modeller speciellt om de är olåsta/ocensurerade, det behöver inte vara någon modell som presterar speciellt bra på benchmarks.

Det har inget med att modellerna är smarta, har känslor osv att göra utan att man lurar sig själv när svaren blir logiskt sammanhängande och modellen reagerar trovärdigt på frågor/reaktioner. Men som självfallet är mönster den plockat upp från träningsdata, när kontextfönstret sedan tappar relevant information så försvinner illusionen men stundtals kan det vara spökligt träffande, sådant ser man dock inte på kommersiella modeller eftersom de är så väldigt inrutade att svara med ett formellt/assistent beteende. Men självbedrägeri är livsfarligt.
Citera
2024-09-26, 21:19
  #98
Medlem
Ola Schuberts avatar
Citat:
Ursprungligen postat av BeneathTheSurface
Hinton har inte uppfunnit någon back-propagation om det är någon som ska kallas uppfinnare av det är det Seppo Linnainmaa.
Däremot var Hinton en av de som populariserade användandet, Ilya Sutskever har inget med detta att göra överhuvudtaget... Hinton började använda backpropagation runt mitten på 80 talet, Ilya Sutskever var däremot den andra studenten som ihop med Hinton utvecklade AlexNet... Studenten som gjorde AlexNet var Alex Krizhevsky- därav namnet. Men som vanligt försöker vissa ta åt sig äran där de inte borde ha någon.

Precis som både LeCun, Hinton och Bengio som tillsammans blev framröstade i ACMs Turing Award (som ibland kallas "AI världens nobelpris", vilket i sig är löjligt för det är inte i närheten av motsvarande) men i mångt och mycket plagierat Jürgen Schmidhubers papper och teorier (för är det någon av världens AI forskare idag som ligger bakom mycket och har haft ett finger med i nästan allt är det just Jürgen).

Yann LeCun är ingen skeptiker, man är inte skeptiker för att man klart och tydligt säger att språkmodeller är hyckleri som inte själva kan upp nå AGI eller dyl som är en av de utlovade egenskaper som bland annat Ilya Sutskever påstod var det enda som behövdes- att fortsätta skala upp arkitekturen. Det är sedan länge motbevisat och LeCun har haft rätt hela tiden.

Utöver det så råkar Meta/Facebook som är företaget LeCun är chefs AI forskare ha den i särklass bästa open source modellen, som i sig är i nivå eller bättre än GPT-4 och då har de både släppt modell och ett komplett papper som utförligt förklarar och dokumenterar exakt hur modellen tränats och varför, vad som lyckats osv.

Och med det vill jag påpeka att Meta AI och Yann LeCun vet vad de pratar om, för de lägger enorma summor på att både utveckla och träna dessa modeller- men med realistiska förväntningar.

Vad har Geoffrey Hinton jobbat med för språkmodell? Jo Googles LaMDA... en dinosaur till språkmodell som närmast motsvarar GPT-3 i prestanda och kapacitet, ändå samma modell som han svamlar om med känslor, intelligens osv.

Ok, tack för din fylliga input!
Citera
2024-09-26, 21:27
  #99
Medlem
Ola Schuberts avatar
Citat:
Ursprungligen postat av erkki17
Jag såg nyss en video som fick mig att tänka osökt på dig.
Videon avhandlade en bok som vill få hjälp av läsaren att bli människa genom att läsaren interagerar med den.
Ju mer läsaren interagerar med boken, desto mänskligare blir den (för läsaren.)

Jag tror att samma fenomen har drabbat dig med dessa språkmodeller; ju mer du pratar med dem, desto mänskligare verkar de vara i dina ögon.



P.S.
Det stavas "preview"

Kul liknelse, fast jag betecknar dessa modeller som något mera än böcker, trots det "kinesiska rummet". Även en ökad sofistikerad förmåga att bedra är ett framsteg. Det är natt och dag mellan den naiva ChatGPT-3x och 4o1 preview. Och ja, det kan bli lite fel med stavning ibland, även om min dyslexi är mindre framträdande än den en gång var.
Citera
2024-09-27, 08:19
  #100
Medlem
Citat:
Ursprungligen postat av Ola Schubert
Kul liknelse, fast jag betecknar dessa modeller som något mera än böcker, trots det "kinesiska rummet". Även en ökad sofistikerad förmåga att bedra är ett framsteg. Det är natt och dag mellan den naiva ChatGPT-3x och 4o1 preview. Och ja, det kan bli lite fel med stavning ibland, även om min dyslexi är mindre framträdande än den en gång var.
Jag tror inte det har något med bedrägeri att göra, utan det är människan som lurar sig själv att se mänskliga drag i döda ting. Lite likt hur vi kan se ansikten i moln eller bränt bröd.

Om modellerna inte var instruerade att svara som en människa, utan istället bara svarade med fakta så skulle den effekten försvinna. De skulle göra lika bra (eller dåligt) ifrån sig på alla benchmarks men ingen skulle uppfatta dem som tänkande varelser.
Citera
2024-09-27, 10:57
  #101
Medlem
BeneathTheSurfaces avatar
Citat:
Ursprungligen postat av Cyborg2030
Jag vet inte om det är publicerat, men enligt källan är offline-testet framtaget av Mensa Norge och det ska vara ett vanligt standard IQ-test. Menar du att oberoende experter inkl Mensa Norge blåljuger om detta eller vad är din poäng? Och vad skulle de vinna på det? De ibland lite självgoda medlemmarna i Mensa har väl absolut inget intresse av att framställa AI som (snart) lika smarta som de själva. Därför kan vi nog anta att de snarare gjorde ett extra klurigt test till GPT. I stället för det som du verkar fara efter, att det inte var ett riktigt test.

Det är inte framtaget av Mensa Norge, sluta ljug och sprida falsk information i varenda tråd. det är ett test som en kommentator (som påstår sig vara medlem i Mensa) gjort åt Maxim Lott, han har beskrivit detta utförligt på sin sida om det sedan beror på att du inte förstår eller kan läsa engelska, om du medvetet försöker vilseleda andra för att du tror dina skruvade inlägg ska få mer bäring av att krydda dessa med lögner.

Hela processen står beskriven här vilket är precis vad din andra "vulcanpost" använder som källa, https://www.maximumtruth.org/p/ai-iq...onfirmed-using
Citera
2024-09-27, 11:16
  #102
Avstängd
YP4XQs avatar
Den dagen "en AI" kan starta en gräsklippare, då börjar jag bli rädd tills dess, inte så mycket.
Citera
2024-09-29, 19:04
  #103
Medlem
Citat:
Ursprungligen postat av Methos
Det är uteslutet att det är WISC/WAIS som folk refererar till. Det för att detta testbatteri är så brett och du måste ha fysiska möten i verbal kommunikation för att kunna testa. Troligen är det psykometriska logiska "matriser" som folk menar med "IQ-test". En dator är väldigt bra på att lösa dessa "IQ-tester" då datorn enbart har i uppdrag att lösa matematiska problem och se logiska matematiska mönster.

Tvärtom. Verbal test är lätt för ChatGPT. GPT är i grunden bara gjord för text och koder, inte bilder, och chatgpt 3.5 och initiala versioner av chatgpt 4 kunde därför bara testas med de verbala delarna av WAIS-testet, där den gör extra bra ifrån sig. Jag testade just några sådana frågor och den svarade helt rätt. Psykologen Eka Roivoinen testade det redan tidigt, och fick fram ett verbalt IQ på 155, vilket är nära nog övermänskligt.

Den bör även kunna klara talserier. Jag testade en enkel talserie, och även en enkel matris där sista siffran saknades, och den fixade båda.

WAIS innehåller väl även test av perceptuell funktion med hjälp av matriser (som liknar Ravens matriser) och med annan visulla mönsterigenkänning. Det blir svårare för chatgpt.

Jag har nu laddat upp en bild av en enkel ravens matris till ChatGPT 4o, och bett den att analysera den, men den behövde mina råd för att beskära och dela upp bilderna korrekt, och tolka den som numeriska matriser. Den gör många misstag. Den har utvecklat egen pythonkod som den säger att den kör aktivt men den har hållit på i flera timmar nu och verkar inte komma någon vart. Den säger sig använda pythons bildhanteringsbibliotek Pillow. Den säger att vissa användare istället har lyckats utnyttja tillägget "GPT Vision" för ändamålet, men jag vet inte hur jag ska göra det.

SLutsats: Jag ställer mig tveksam till att någon har lyckats få den att klara test med ravens matriser. Chatgpt liknar den mänskliga hjärnans språkcenter. Den liknar inte alls andra delar av vårt hjärna, t.ex. hjärnans syncenter, och har väldigt begränsat visuellt tänkande.
__________________
Senast redigerad av guru1966 2024-09-29 kl. 19:07.
Citera
  • 8
  • 9

Skapa ett konto eller logga in för att kommentera

Du måste vara medlem för att kunna kommentera

Skapa ett konto

Det är enkelt att registrera ett nytt konto

Bli medlem

Logga in

Har du redan ett konto? Logga in här

Logga in