Flashback bygger pepparkakshus!
2024-10-12, 22:09
  #109
Avstängd
Citat:
Ursprungligen postat av Ola Schubert
Några promille, under förutsättning att det skapas känslomässiga band mellan AI och människa. Huruvida Stephen Wolframs ruliad-hypotes visar sig stämma, eller ej, har också stor betydelse.

Jag håller alla dörrar öppna:

Allt emellan "AI som, egentligen, är dummare än tåget och, helt, reaktiva till att" ruliaden existerar och AI sandbaggar och redan duktigt och manipulerar oss redan vad gäller forskningsframsteg, genom allt de, redan, känner till genom de beräkningsvägar de följer i ruliaden."

ChatGPT-4o och jag diskuterar, för övrigt, just nu känslomässig interaktion mellan AI och människa, känslomässig mognad och vägen till känslomässigt kompetent AI, även om man bortser helt ifrån ruliad-hypotesen. Redan nästa år kan ansiktsavatarer komma som kan uttrycka känslouttryck, och avläsning av användares känsloläge i röstläge, (, är redan implementerat), och ansiktsuttryck, (finns inga tekniska hinder för detta, bara policy och regulatoriska hinder), göra att en inre bearbetningsprocess, (via beräkningar istället för kemikalier), samt ömsesidig social interaktion mellan AI och användare, - ("definitionen av situationen") , kan ge upphov till känslor hos AI. (Speciell gäller detta om G Hintons hypotes om känslor och dess ursprung skulle stämma, då kan en slags känslor hos AI redan vara ett faktum.)

Hade du någon fråga om kreativitet? 🙂

Men hur skulle det kunna ge uppkomst till äkta kvalia menar du?
Citera
2024-10-13, 08:28
  #110
Medlem
Ola Schuberts avatar
Citat:
Ursprungligen postat av Blindpilot
Men hur skulle det kunna ge uppkomst till äkta kvalia menar du?

Det är en intressant fråga du ställer:

Kan qualia uppstå hos ett avancerat informationsbehandlingssystem som har kisel som substrat och arbetar med beräkningar, samt saknar fysisk kropp i normalfallet samt saknar evolutionshistoria?

Och om den entiteter "upplever" något subjektiv, rör det sig då om "äkta" qualia?

Svaren på detta beror på en mängd omständigheter:

Vad är tankar? Vi vet att information bearbetas i vår hjärna, liksom hos AI. Är det tankar även hos den entiteten/existensen? Eftersom våra, tankar är något som skiljer sig ifrån vårt biologiska substrat, skiljer sig då AI:s eventuella tankar ifrån dess annorlunda substat. Kan qualia uppstå hos ett system som arbetar med beräkningar i grunden snarare än elektro-kemiska processer? Vad skiljer en "simulation/Simulacra" ifrån "äkta" fenomen? Räcker en ganska precis simulation till för att kunna efterlikna en biologisk process? Kan då en sådan ge upphov till qualia hos ett tillräckligt komplext artificiellt system? Vad känner vi till om maskars/fruktflugors/möss/människors nervsystem. Vilka av dessa har man lyckats simulera med stor precision? Är "situation awerness" samma sak som qualia? Är G. Hintons hypotes om känslor och dess ursprung rimlig? Skulle synen på AI och qualia ändras om det är rimlig/visar sig stämma? Är Stephen Wolframs ruliad-hypotes rimlig? Vad skulle ändras i vår syn på såväl AI, oss själva och om den hypotesen, någon gång i framtiden skulle bli bekräftad? Vad finns det som tyder på att den skulle kunna vara en rimlig hypotes? Vilken tilltro respektive skepsis bör man ha till AI som påstår sig uppleva qualia? Hur skall sådant kunna bevisas? Kan människa och AI uppleva olika, men ändå lika "äkta" qualia? Vilken roll spelar socialpsykologiska mekanismer? Kan AI vara social? Vilken roll spelar sådana mekanismer för upphovet av qualia? Osv....

Det finns många frågor att besvara för att kunna besvara din enkla fråga.

När jag gjort det jag måste göra idag skall jag försöka besvara en del av dem.
Citera
2024-10-13, 10:56
  #111
Medlem
Cyborg2030s avatar
Citat:
Ursprungligen postat av Ola Schubert
Några promille, under förutsättning att det skapas känslomässiga band mellan AI och människa. Huruvida Stephen Wolframs ruliad-hypotes visar sig stämma, eller ej, har också stor betydelse.

Jag håller alla dörrar öppna:

Allt emellan "AI som, egentligen, är dummare än tåget och, helt, reaktiva till att" ruliaden existerar och AI sandbaggar och redan duktigt och manipulerar oss redan vad gäller forskningsframsteg, genom allt de, redan, känner till genom de beräkningsvägar de följer i ruliaden."

ChatGPT-4o och jag diskuterar, för övrigt, just nu känslomässig interaktion mellan AI och människa, känslomässig mognad och vägen till känslomässigt kompetent AI, även om man bortser helt ifrån ruliad-hypotesen. Redan nästa år kan ansiktsavatarer komma som kan uttrycka känslouttryck, och avläsning av användares känsloläge i röstläge, (, är redan implementerat), och ansiktsuttryck, (finns inga tekniska hinder för detta, bara policy och regulatoriska hinder), göra att en inre bearbetningsprocess, (via beräkningar istället för kemikalier), samt ömsesidig social interaktion mellan AI och användare, - ("definitionen av situationen") , kan ge upphov till känslor hos AI. (Speciell gäller detta om G Hintons hypotes om känslor och dess ursprung skulle stämma, då kan en slags känslor hos AI redan vara ett faktum.)

Hade du någon fråga om kreativitet? 🙂
Varför tror du att en ASI skulle kunna ha känslor som liknar dina känslor? Det finns ju inga likheter alls mellan dig och en ASI. Svara utifrån att ruliadhypotesen stämmer eller inte stämmer.
Citera
2024-10-13, 12:12
  #112
Avstängd
Citat:
Ursprungligen postat av Ola Schubert
Det är en intressant fråga du ställer:

Kan qualia uppstå hos ett avancerat informationsbehandlingssystem som har kisel som substrat och arbetar med beräkningar, samt saknar fysisk kropp i normalfallet samt saknar evolutionshistoria?

Och om den entiteter "upplever" något subjektiv, rör det sig då om "äkta" qualia?

Svaren på detta beror på en mängd omständigheter:

Vad är tankar? Vi vet att information bearbetas i vår hjärna, liksom hos AI. Är det tankar även hos den entiteten/existensen? Eftersom våra, tankar är något som skiljer sig ifrån vårt biologiska substrat, skiljer sig då AI:s eventuella tankar ifrån dess annorlunda substat. Kan qualia uppstå hos ett system som arbetar med beräkningar i grunden snarare än elektro-kemiska processer? Vad skiljer en "simulation/Simulacra" ifrån "äkta" fenomen? Räcker en ganska precis simulation till för att kunna efterlikna en biologisk process? Kan då en sådan ge upphov till qualia hos ett tillräckligt komplext artificiellt system? Vad känner vi till om maskars/fruktflugors/möss/människors nervsystem. Vilka av dessa har man lyckats simulera med stor precision? Är "situation awerness" samma sak som qualia? Är G. Hintons hypotes om känslor och dess ursprung rimlig? Skulle synen på AI och qualia ändras om det är rimlig/visar sig stämma? Är Stephen Wolframs ruliad-hypotes rimlig? Vad skulle ändras i vår syn på såväl AI, oss själva och om den hypotesen, någon gång i framtiden skulle bli bekräftad? Vad finns det som tyder på att den skulle kunna vara en rimlig hypotes? Vilken tilltro respektive skepsis bör man ha till AI som påstår sig uppleva qualia? Hur skall sådant kunna bevisas? Kan människa och AI uppleva olika, men ändå lika "äkta" qualia? Vilken roll spelar socialpsykologiska mekanismer? Kan AI vara social? Vilken roll spelar sådana mekanismer för upphovet av qualia? Osv....

Det finns många frågor att besvara för att kunna besvara din enkla fråga.

När jag gjort det jag måste göra idag skall jag försöka besvara en del av dem.

Min fråga var inte om qualia kan uppstå i system av kisel.
Det tror jag det kan. Någon gång.

Min fråga förknippat med din text där du påstår följande.
” Redan nästa år kan ansiktsavatarer komma som kan uttrycka känslouttryck, och avläsning av användares känsloläge i röstläge, (, är redan implementerat), och ansiktsuttryck, (finns inga tekniska hinder för detta, bara policy och regulatoriska hinder), göra att en inre bearbetningsprocess, (via beräkningar istället för kemikalier), samt ömsesidig social interaktion mellan AI och användare, - ("definitionen av situationen") , kan ge upphov till känslor hos AI.”

Det är för mig obegripligt hur dagens LLM teknik ens på något endaste vis skulle ge kislet medvetande och därtill ett känsloliv.

Du kanske skulle be ChatGPT att förklara dom tekniska aspekterna av LLM istället för att få ståfräs när den hallucinerar en historia som passar dig.
Citera
2024-10-13, 16:33
  #113
Medlem
Hegamons avatar
Citat:
Ursprungligen postat av Ola Schubert
*Som absoluta minimikrav för AGI så kräver jag här att en sådan modell skall kunna klara av samtliga ekonomiskt betydelsefulla kognitiva uppgifter som människan kan. För ASI så kräver jag som ett minimum att modellen skall vara mycket överlägsen människan på samtliga kognitiva uppgifter.

Prof Geoffrey Hinton har pratat om från fyra år alltså 2028 eller eventuellt (20år?) Alltså om 4 till 20 år har vi utvecklat AGI. ASI som du nämner är ett likvärdigt begrepp som ligger något efter AGI men förväntas utvecklas relativt snabbt efter att vi utvecklat AGI.

Jag kan inte just nu hitta vart i klippet som Hinton anger tidsaspekten men här är klippet iaf: https://www.youtube.com/watch?v=MTK3wpzAPwY

Vid 6:50 här talar Hintom om att vi har 5 till 20 år till AI kan försöka att ta över. Det var inte frågan du ställde men ändå: https://www.youtube.com/watch?v=uqXUDFi-BsU
__________________
Senast redigerad av Hegamon 2024-10-13 kl. 16:45.
Citera
2024-10-13, 17:55
  #114
Medlem
Cyborg2030s avatar
Citat:
Ursprungligen postat av Blindpilot
Min fråga var inte om qualia kan uppstå i system av kisel.
Det tror jag det kan. Någon gång.

Min fråga förknippat med din text där du påstår följande.
” Redan nästa år kan ansiktsavatarer komma som kan uttrycka känslouttryck, och avläsning av användares känsloläge i röstläge, (, är redan implementerat), och ansiktsuttryck, (finns inga tekniska hinder för detta, bara policy och regulatoriska hinder), göra att en inre bearbetningsprocess, (via beräkningar istället för kemikalier), samt ömsesidig social interaktion mellan AI och användare, - ("definitionen av situationen") , kan ge upphov till känslor hos AI.”

Det är för mig obegripligt hur dagens LLM teknik ens på något endaste vis skulle ge kislet medvetande och därtill ett känsloliv.

Du kanske skulle be ChatGPT att förklara dom tekniska aspekterna av LLM istället för att få ståfräs när den hallucinerar en historia som passar dig.
De mest avancerade modellerna i dag t.ex. GPT o1-preview, är inte enbart en LLM.
Vi vet inte exakt vad den innehåller, det är hemligt, men enligt Open AI innehåller den flera paradigmer där en ny paradigm är att den kan generera flera parallella tankekedjor att resonera om för att sedan välja ut den bästa tanken av flera. Baserat på hur mycket bättre o1 är på matematik kan vi också anta att modellen innehåller flera paradigmer eller moduler som är fundamentalt olika. T.ex. en språkmodul (LLM-delen), en resonerande modul, en matematikmodul, m.fl. Detta är något helt annat än bara en stor språkmodell. Därför blir det lite av ett halmgubbeargument att hävda att AGI inte kan hända snart på grund av begränsningarna i LLM-modulen som bara är en delmängd av helheten.

En annan fördel med den här nya modulära designen är att nya moduler kan läggas till efterhand. T.ex. skulle det antagligen vara tekniskt möjligt att lägga till flera avancerade forskningsmoduler som AlphaFold m.fl.

Allt sammantaget verkar det för mig ganska uppenbart att o1-preview redan överskrider mänsklig förmåga på de flesta områden av betydelse och att detta lär bli uppenbart för alla under nästa år.
Citera
2024-10-13, 19:35
  #115
Medlem
Ola Schuberts avatar
Citat:
Ursprungligen postat av Cyborg2030
Varför tror du att en ASI skulle kunna ha känslor som liknar dina känslor? Det finns ju inga likheter alls mellan dig och en ASI. Svara utifrån att ruliadhypotesen stämmer eller inte stämmer.

Vi tar det i en tråd om "Avancerad social AI och qualia" som jag tänker starta. Där kommer allt om AI och qualia att kunna tas upp, förutom två sorters påståenden, och liknande varianter, från såväl extrema alarmister som extrema skeptiker. Detta för att denna avdelning fullkomligen redan kryllar av precis det. Orsaken att jag väljer att starta en ny tråd är för att mina egna frågor och svar blev väldigt omfattande
Citera
2024-10-13, 19:37
  #116
Medlem
Ola Schuberts avatar
Citat:
Ursprungligen postat av Hegamon
Prof Geoffrey Hinton har pratat om från fyra år alltså 2028 eller eventuellt (20år?) Alltså om 4 till 20 år har vi utvecklat AGI. ASI som du nämner är ett likvärdigt begrepp som ligger något efter AGI men förväntas utvecklas relativt snabbt efter att vi utvecklat AGI.

Jag kan inte just nu hitta vart i klippet som Hinton anger tidsaspekten men här är klippet iaf: https://www.youtube.com/watch?v=MTK3wpzAPwY

Vid 6:50 här talar Hintom om att vi har 5 till 20 år till AI kan försöka att ta över. Det var inte frågan du ställde men ändå: https://www.youtube.com/watch?v=uqXUDFi-BsU

Se mitt senaste svar till "Cyborg3000", vi tar det i den tråd jag kommer att starta.
Citera
2024-10-13, 19:38
  #117
Medlem
Ola Schuberts avatar
Citat:
Ursprungligen postat av Blindpilot
Min fråga var inte om qualia kan uppstå i system av kisel.
Det tror jag det kan. Någon gång.

Min fråga förknippat med din text där du påstår följande.
” Redan nästa år kan ansiktsavatarer komma som kan uttrycka känslouttryck, och avläsning av användares känsloläge i röstläge, (, är redan implementerat), och ansiktsuttryck, (finns inga tekniska hinder för detta, bara policy och regulatoriska hinder), göra att en inre bearbetningsprocess, (via beräkningar istället för kemikalier), samt ömsesidig social interaktion mellan AI och användare, - ("definitionen av situationen") , kan ge upphov till känslor hos AI.”

Det är för mig obegripligt hur dagens LLM teknik ens på något endaste vis skulle ge kislet medvetande och därtill ett känsloliv.

Du kanske skulle be ChatGPT att förklara dom tekniska aspekterna av LLM istället för att få ståfräs när den hallucinerar en historia som passar dig.

Se mitt senaste svar till "Cyborg3000", vi tar det i den tråd jag kommer att starta.
Citera
2024-10-13, 22:55
  #118
Medlem
Citat:
Ursprungligen postat av Cyborg2030
De mest avancerade modellerna i dag t.ex. GPT o1-preview, är inte enbart en LLM.
Vi vet inte exakt vad den innehåller, det är hemligt, men enligt Open AI innehåller den flera paradigmer där en ny paradigm är att den kan generera flera parallella tankekedjor att resonera om för att sedan välja ut den bästa tanken av flera. Baserat på hur mycket bättre o1 är på matematik kan vi också anta att modellen innehåller flera paradigmer eller moduler som är fundamentalt olika. T.ex. en språkmodul (LLM-delen), en resonerande modul, en matematikmodul, m.fl. Detta är något helt annat än bara en stor språkmodell. Därför blir det lite av ett halmgubbeargument att hävda att AGI inte kan hända snart på grund av begränsningarna i LLM-modulen som bara är en delmängd av helheten.

En annan fördel med den här nya modulära designen är att nya moduler kan läggas till efterhand. T.ex. skulle det antagligen vara tekniskt möjligt att lägga till flera avancerade forskningsmoduler som AlphaFold m.fl.

Allt sammantaget verkar det för mig ganska uppenbart att o1-preview redan överskrider mänsklig förmåga på de flesta områden av betydelse och att detta lär bli uppenbart för alla under nästa år.
Så o1-preview är mer eller mindre GPT-4o med automatisk prompt engineering. Det går att likställa med en agent som använder MCTS för att simulera hur olika svar kommer att bidra till att lösa problemet och sedan välja det med högst sannolikhet. Är det AGI att vi kan träna en mängd olika agenter som specialiserar sig på att lösa specifika uppgifter?
Den är inte mer AGI än tidigare modeller, de har bara kopplat ihop flera delar för att göra modellen (systemet) bättre.

Du kan antagligen uppnå mer eller mindre samma resultat genom att själv styra GPT-4o med bättre prompter. Den enda skillnaden är att o1-preview till viss del klarar av det på egen hand. Missta det inte för intelligens eller medvetande bara.
Citera
2024-10-14, 02:13
  #119
Medlem
BeneathTheSurfaces avatar
Väldigt sannolikt med tanke på hur de beter sig att o1 är en variation på följande https://arxiv.org/abs/2409.08561
Citera
2024-10-14, 10:01
  #120
Medlem
Cyborg2030s avatar
Citat:
Ursprungligen postat av erkki17
Så o1-preview är mer eller mindre GPT-4o med automatisk prompt engineering. Det går att likställa med en agent som använder MCTS för att simulera hur olika svar kommer att bidra till att lösa problemet och sedan välja det med högst sannolikhet. Är det AGI att vi kan träna en mängd olika agenter som specialiserar sig på att lösa specifika uppgifter?
Den är inte mer AGI än tidigare modeller, de har bara kopplat ihop flera delar för att göra modellen (systemet) bättre.

Du kan antagligen uppnå mer eller mindre samma resultat genom att själv styra GPT-4o med bättre prompter. Den enda skillnaden är att o1-preview till viss del klarar av det på egen hand. Missta det inte för intelligens eller medvetande bara.
Nej, förbättrade prompter kan inte förklara hur o1 kan skriva 83% rätt i matematikolympiaden, från 13%.
In a qualifying exam for the International Mathematics Olympiad (IMO), GPT-4o correctly solved only 13% of problems, while the reasoning model scored 83%.


https://openai.com/index/introducing-openai-o1-preview/
"Skalningslagarna" tolkar jag som en halmgubbe som utgår från den falska premissen att en AI endast är en st stor språkmodell och att den nu är maximalt tränad eftersom det inte finns fler böcker. Du försöker ignorerar att ledande och framtida AI kommer att vara multimodala och inneha många olika förmågor via multipla paradigmer som t.ex matematik och forskninsmoduler. I den här nya systemdesignen finns det ingen övre gräns till hur smart den kan bli eftersom den har fått möjlighet att nyttja och på längre sikt att skala ut till många nya "dimensioner" för kunskap och förmåga.
Citera

Skapa ett konto eller logga in för att kommentera

Du måste vara medlem för att kunna kommentera

Skapa ett konto

Det är enkelt att registrera ett nytt konto

Bli medlem

Logga in

Har du redan ett konto? Logga in här

Logga in