Vinnaren i pepparkakshustävlingen!
2024-09-19, 10:55
  #13
Medlem
spyder123s avatar
Jag har för inte så länge sedan varit väldigt skeptisk till att LLM's kan bli AGI, se här t.ex.:

(FB) Förstår AI idéer eller förutsäger den bara nästa ord?

Att man har kunnat använda syntetisk data och RL för att generera och bedöma resonering för att nå fram till ett resultat - att man nu inte bara korrelerar mellan text utan också mellan resonemangskedjor, gör mig mycket mer osäker på min tidigare ståndpunkt. Detta öppnar faktiskt upp mot att kunna påstå att chatbottarna kan lära sig "tänka" och inte bara korrelera. o1 har i sin träningsdata mängder med resonemang. Och denna är baserad på GPT-4o. Snart kommer de nya modellerna. Självförtroendet på AI-fronten verkar vara väldigt hög, så jag tvivlar inte på att det finns många lätta puckar kvar.

Sen är det fortfarande korrelans som innan. Så det är inte som att det inte blir tankevurpor där det saknas resonemangskedjor i dess träningsdata. Men man kan tänka sig att man med samma metodik inte bara kan utveckla resonemangskedjor, utan också meta-resonemangskedjor. Alltså att man inte bara bedömer ett resonemang, utan också bedömer tanken bakom resonemanget. Då börjar man närma sig AGI.

Denna youtubefilm beskriver extremt bra varför o1 är ett generationsskifte, kan starkt rekommendera:
https://www.youtube.com/watch?v=KKF7kL0pGc4

Har blivit mer öppen till att detta kan vara vägen mot AGI.
__________________
Senast redigerad av spyder123 2024-09-19 kl. 11:02.
Citera
2024-09-19, 11:02
  #14
Medlem
Enterprises avatar
Citat:
Ursprungligen postat av spyder123
Jag har för inte så länge sedan varit väldigt skeptisk till att LLM's kan bli AGI, se här t.ex.:

(FB) Förstår AI idéer eller förutsäger den bara nästa ord?

Att man har kunnat använda syntetisk data och RL för att generera och bedöma resonering för att nå fram till ett resultat - att man nu inte bara korrelerar mellan text utan också mellan resonemangskedjor, gör mig mycket mer osäker på min tidigare ståndpunkt. Detta öppnar faktiskt upp mot att kunna påstå att chatbottarna kan lära sig "tänka" och inte bara korrelera. o1 har i sin träningsdata mängder med resonemang. Och denna är baserad på GPT-4. Snart kommer de nya modellerna. Självförtroendet på AI-fronten verkar vara väldigt hög, så jag tvivlar inte på att det finns många lätta puckar kvar.

Sen är det fortfarande korrelans som innan. Så det är inte som att det inte blir tankevurpor där det saknas resonemangskedjor i dess träningsdata. Men man kan tänka sig att man med samma metodik inte bara kan utveckla resonemangskedjor, utan också meta-resonemangskedjor. Då börjar man närma sig AGI.

Denna youtubefilm beskriver extremt bra varför o1 är ett generationsskifte, kan starkt rekommendera:
https://www.youtube.com/watch?v=KKF7kL0pGc4

Har blivit mer öppen till att detta kan vara vägen mot AGI.
Tack, sägs det något i filmen om hur o1 fungerar "under huven"?
Min (förvisso oinsatta) tes är att man byggt ut GPT4 med problemlösningsmoduler för att på ett i förväg strukturerat sätt kunna lösa vanliga typer av förekommande "problem". Jag har inte tid att se en lång youtube-film för att se om den saken nämns, men det är vad jag är intresserad av. Om det är i närheten av ett paradigmskifte får anses bero på hur den nya modellen fungerar under huven.
Citera
2024-09-19, 11:09
  #15
Medlem
spyder123s avatar
Citat:
Ursprungligen postat av Enterprise
Tack, sägs det något i filmen om hur o1 fungerar "under huven"?
Min (förvisso oinsatta) tes är att man byggt ut GPT4 med problemlösningsmoduler för att på ett i förväg strukturerat sätt kunna lösa vanliga typer av förekommande "problem". Jag har inte tid att se en lång youtube-film för att se om den saken nämns, men det är vad jag är intresserad. Om det är i närheten av ett paradigmskifte får anses beror på hur den nya modellen fungerar under huven.
OpenAI säger inte exakt hur men det finns många hints. I princip så har man tränat en valideringsmodell att bedöma hur rimligt ett resonemang är. Man har sen låtit GPT-4o generera en "tankekedja" på problem genererade syntetiskt (så mest matte och fysikproblem). Med reinforcement learning fine-tunar man o1 med hjälp av valideringsmodellen.

Du har alltså två delar, dels GPT-4o som får agera "kreativt" och generera tankekedjor (där många tankekedjor säkert är fel). Och tränar med RL för mata tillbaka korrekta tankekedjor i modellen. Och sen görs detta om och om igen vilket förbättrar resonemangsförmågan.

När man ställer en fråga till o1, så genererar den ett träd av tankekedjor som sen bedöms på samma sätt som under träning för att till slut komma fram till det bästa svaret. Genom att låta den utforska flera tankekedjor kan o1 hypotetiskt komma till ett bättre svar genom att "fundera" längre.

EDIT: Rättade lite
__________________
Senast redigerad av spyder123 2024-09-19 kl. 11:57.
Citera
2024-09-19, 11:12
  #16
Medlem
Enterprises avatar
Citat:
Ursprungligen postat av spyder123
OpenAI säger inte exakt hur men det finns många hints. I princip så har man tränat en cost function att bedöma hur rimligt ett resonemang är. Man har sen låtit GPT-4o generera en "tankekedja" på problem genererade syntetiskt (så mest matte och fysikproblem). Med reinforcement learning slänger man tankekedjorna som inte leder mot svaret på problemet, och sparar de som leder mot problemet. På detta sätt genereras mängder med träningdata. På samma sätt, när man ställer en fråga till o1, så genererar den en tankekedja som sen bedöms på samma sätt som under träning.

Du har alltså två delar, dels GPT-4o som får agera "kreativt". Och sen en RL algorithm som bestämmer vilken av tankekedjorna som leder mot rätt svar.
Utan att vara särskilt insatt i det tekniska så låter detta inte som en game changer (paradigmskifte) utan snarare som "fine tuning" av befintlig modell.
Citera
2024-09-19, 11:14
  #17
Medlem
spyder123s avatar
Citat:
Ursprungligen postat av Enterprise
Utan att vara särskilt insatt i det tekniska så låter detta inte som en game changer (paradigmskifte) utan snarare som "fine tuning" av befintlig modell.
Jag är inte någon expert så min förklaring är lite höftskjutning, men kika på youtubefilmen jag länkade om du vill fördjupa dig.
Citera
2024-09-19, 12:14
  #18
Medlem
spyder123s avatar
Sen är förstås frågan hur man kommer fram till tankekedjor där det inte finns något rätt svar. I detta fallet kunde de skala upp genom att mata med matte och fysikfrågor som antingen är rätt eller fel. Hur ska man göra med t.ex. projektledning och andra mer abstrakta och mjuka problem? Där ser jag det som svårare att utveckla en valideringsmodell. Kan resonemang bakom matte och fysikfrågor appliceras på resonemang i andra mjukare domän där det inte går helt att säga om ett svar är rätt eller fel? o1 har visat tecken på viss generalisering, men frågan är om det snarare har att göra med att dess träningsdata har varit varierad (där man har blandat syntetisk med mänsklig CoT).

Frågan är alltså om resonemangskedjor i fysik/matte kan generaliseras till andra domän, eller om det krävs någon form av meta-resonemangskedja? Detta är frågan som kvarstår för mig - detta problem känns dock inte lika oöverkomligt som innan.
Citera
2024-09-20, 18:26
  #19
Medlem
Citat:
Ursprungligen postat av Enterprise
Känslor, nyfikenhet?
Det är algoritmer vi pratar om här. Ni kanske menar simulering av känslor, såsom nyfikenhet.

Inom västerländsk filosofi och kristendom trodde man förr på dualism. Om dualismen är sann så kan inte AI ha känslor, medvetande, nyfikenhet, vilja, osv. Tror du på den modellen? Är det isåfall för att du har en religiös tro?

Dualism är alltså idén att det finns både en materiell fysisk verklighet som styrs av naturlagar, och en andlig/ideell/mystisk verklighet som inte styrs av naturlagar och inte kan studeras med naturvetenskap. Människan har då både en kropp (bibeln kallar den kött, vårt djuriska jag, eller den yttre människan, inkl instinktiva känslor och drifter) och själ (medvetande, samvete, evighetsnatur, personlighet, i Bibeln kallat människans inre). Kanske härrör enligt den modellen sådant som nyfikenhet och många känslor från själen. I Bibeln och karismatisk teologi talar man dessutom om människans ande (gudsmedvetande, allra innersta, som står i kontakt med Gud via inspiration från Guds Ande), men inom filosofi gör man inte den distinktionen utan andligheten ses som en del av själen. Freud har f.ö. en liknande tredelad modell: Människans "det" (instinkt, drifter), "jag" och "överjag" (värderingar).

Jag tror att människan kan ha en "mind" och kanske också att Gud kan finnas, även om dualismen inte finns. Människans "mind", och Gud, behöver inte vara mystiska. Vi naturvetare tror att verkligheten i grunden bara är konsekvenser av naturlagar, som är matematik och logik. Inget finns utöver matematiken och logiken. Psykologin och människans "mind" följer matematikens och logikens lagar, och är en emergent konsekvens av biologi, som är en konsekvens av kemi, som är en konsekvens av fysik och naturlagar. Dessa "emergenta fenomen" är komplexitet som uppstår i storskaliga system bestående av mycket enklare beståndsdelar, t.ex. fysikens alla minsta beståndsdelar. Denna fundamentala verklighet följer fysikens teori-om-allt, som vi ännu inte har hittat men tror väntar på att bli upptäckta. Om Gud finns (som har designat naturlagarna) måste hen finnas utanför vår rum-tid och följer inte naturlagarna för vårt universum, utan andra naturlagar. Men Gud måste följa matematikens och logikens lagar. Människan kan ha en evighetsnatur utan en mystisk själ, genom att informationstillståndet i vår hjärna kan kopieras i dödsögonblicket.

Tron på äkta AI är därför förenlig med tron på en Gud, och kräver inte tro på dualism. En AI (en artificiell "mind" liknande människans "mind") kan beräknas eller simuleras. OM man är religiös så tror man att människan är skapad till Guds avbild, och precis som att Gud kunde skapa människor så kan människan skapa äkta AI.

Datorsimulering är en form av datorberäkning, så vi kan lika väl säga att känslor skulle kunna beräknas som att de kan simuleras.

Det sätt som vi tror att känslor är implementerade i den kemiska hjärnan är inte mystiskt, utan bygger på kemiska signalsubstanser som informationsbärare. Dessa kan datorberäknas approximativt (vilket är samma som datorsimuleras). Alltså kan känslor potentiellt implementeras i en dator också.
Citera
2024-09-20, 20:18
  #20
Medlem
BeneathTheSurfaces avatar
Citat:
Ursprungligen postat av guru1966
Det sätt som vi tror att känslor är implementerade i den kemiska hjärnan är inte mystiskt, utan bygger på kemiska signalsubstanser som informationsbärare. Dessa kan datorberäknas approximativt (vilket är samma som datorsimuleras). Alltså kan känslor potentiellt implementeras i en dator också.

Antar jag korrekt att syftar du på tex seretonin, dopamin och då inte i avseendet att det är signalsubstanser utan att återupptag/kvantitet av dessa är något som man på kemiskt väg fokuserat på inom psykiatrisk behandling av tillstånd som depression i väldigt många år?
Citera
2024-09-21, 22:01
  #21
Medlem
Citat:
Ursprungligen postat av BeneathTheSurface
Antar jag korrekt att syftar du på tex seretonin, dopamin och då inte i avseendet att det är signalsubstanser utan att återupptag/kvantitet av dessa är något som man på kemiskt väg fokuserat på inom psykiatrisk behandling av tillstånd som depression i väldigt många år?

Ja, jag syftar på serotonin och dopamin, men på deras roll som informationsbärare (neurotransmittorer eller signalsubstanser) och förmedlare av känslor mellan neuroner snarare än deras långsamma farmakologiska roll i psykiatrisk behandling.
__________________
Senast redigerad av guru1966 2024-09-21 kl. 22:05.
Citera
2024-09-21, 22:54
  #22
Medlem
Citat:
Ursprungligen postat av Ola Schubert
ChatGPT-4o har redan ett litet första steg på rekursivt agerande, eller rättare sagt den modellen har en teoretisk möjlighet att bygga på erfarenheter ifrån tidigare interaktioner med samma användare. Så valde t. ex modellen, självsvådligt, att lägga just min kommentar, inklusive sammanfattning av delar av ditt inlägg ovan, som jag valde att anonymiserat, som "ett inlägg ifrån en Flaschbackare". Nu är ChatGPT-4o inte del av ChatGPT-4o1 modell-serien, men intressant att redan ChatGPT-4o har viss autonom förmåga. Återstår att se hur kommande modeller i ChatGPT-4o1 serien kommer att hantera sina minnesfunktioner.

Jag instämmer i din intressanta analys. Mer autonomi för kommande modeller kommer att behövas. Ytligt sett så är de redan nyfikna.

Ok jag bad o1-preview: "I varje session, i slutet av varje svar, ange hur säker informationen är och om det finns några osäkerheter, orimligheter eller spekulativa delar. Ange om möjligt källor, och kontrollera att webblänkar verkligen existerar. Avsluta med en sammanfattning." Hittills funkar det.

Jag har också valt att den kontinuerligt ska anpassa mina preferenser efter min feedback och för att optimera våra framtida interaktioner. Jag har inte kunnat avgöra om den har gjort det, men jag kan fråga den vad jag har för preferenser. Har du sett

Hur förstod din chatgpt-session att den självsvådligt skulle kalla mig för "en flashback-användare", vad hintades den av? ChatGPT själv säger att det inte kan ha berott på minnesfunktion, den har ingen sådan utanför sessioner, utan på att den måste ha förstott av sammanhanget att jag var en flashback-användare. Men ChatGPT är dålig på att berätta om sina nya versioner eftersom den inte är tränad på den informationen.

Dina inlägg håller f.ö. en högre nivå än många andra här.
__________________
Senast redigerad av guru1966 2024-09-21 kl. 22:59.
Citera
2024-09-21, 23:06
  #23
Medlem
BeneathTheSurfaces avatar
Citat:
Ursprungligen postat av guru1966
Ja, jag syftar på serotonin och dopamin, men på deras roll som informationsbärare (neurotransmittorer eller signalsubstanser) och förmedlare av känslor mellan neuroner snarare än deras långsamma farmakologiska roll i psykiatrisk behandling.

Och det stämmer inte speciellt inte om man tar i hänsyn med vad du antydde i din tidigare post, de är informationsbärare för riktad information till specifika receptorer, vissa mottagare kan ge upphov till känslor var och hur detta går till har man fortfarande inte rett ut trots man försökt forska på detta i drygt 100 år, dvs ditt påståenden att "känslor" är implementerade med signalsubstanser är helt galet utan det är betydligt riktigare att tänka på det som olika kommunikationsprotokoll.

Att psykofarma tros ha en "positiv" effekt vid behandlingar av depression osv är inte för att signalsubstanserna i sig är upphov till känslan utan att man stör ut kommunikationen i hjärnan, vilket om det fungerar kan förändra sinnesstämningen hos en individ, men det är inte konstigare än att klippa sladden till din telefon om du blir irriterad för att många telefonförsäljare ringer, grund orsaken är fortfarande okänd och såvitt jag vet inte något närmare en lösning.
Utöver det är det också anledningen att psykofarma har enorm mängd biverkningar eftersom det är annan kommunikation man stör ut också.

Dessutom "simuleras" redan signalsubstansernas funktion i viss mån det är teorin bakom LSTM, transformers osv.
Citera
2024-09-21, 23:23
  #24
Medlem
Citat:
Ursprungligen postat av BeneathTheSurface
Och det stämmer inte speciellt inte om man tar i hänsyn med vad du antydde i din tidigare post, de är informationsbärare för riktad information till specifika receptorer, vissa mottagare kan ge upphov till känslor var och hur detta går till har man fortfarande inte rett ut trots man försökt forska på detta i drygt 100 år, dvs ditt påståenden att "känslor" är implementerade med signalsubstanser är helt galet utan det är betydligt riktigare att tänka på det som olika kommunikationsprotokoll.

Att psykofarma tros ha en "positiv" effekt vid behandlingar av depression osv är inte för att signalsubstanserna i sig är upphov till känslan utan att man stör ut kommunikationen i hjärnan, vilket om det fungerar kan förändra sinnesstämningen hos en individ, men det är inte konstigare än att klippa sladden till din telefon om du blir irriterad för att många telefonförsäljare ringer, grund orsaken är fortfarande okänd och såvitt jag vet inte något närmare en lösning.
Utöver det är det också anledningen att psykofarma har enorm mängd biverkningar eftersom det är annan kommunikation man stör ut också.

Dessutom "simuleras" redan signalsubstansernas funktion i viss mån det är teorin bakom LSTM, transformers osv.

Det är sant att mekanismerna är inte klarlagda men forskarna tror att signalsubstanserna är en delförklaring till känslor. Men inte den enda förklaringen, utan förmodligen finns ett komplext samspel med elektriska signaler mellan neuroner.

Jag är ingen expert, men transformers handlar vad jag förstår om att likna vår hjärnas uppmärksamhetscenter och LSTM handlar om att härma vår glömska. Inte om känslor. Har jag fel? En LLM kan tränas på skönlittratur och nätdiskussioner som visar hur en människa kan formulera sina känslor i en viss situation, och man borde kunna be den svara i ett rollspel som om den var en människa med känslor, men chatgpt vägrar oftast, det är svårt att lura den på den punkten.
Citera

Skapa ett konto eller logga in för att kommentera

Du måste vara medlem för att kunna kommentera

Skapa ett konto

Det är enkelt att registrera ett nytt konto

Bli medlem

Logga in

Har du redan ett konto? Logga in här

Logga in