Flashback bygger pepparkakshus!
  • 1
  • 2
2023-05-25, 17:08
  #1
Medlem
Ola Schuberts avatar
Det ryktas om att OpenAI kommer att beteckna den kommande GPT-5 som ett AGI, när den lanseras någon gång under det första halvåret 2024.

Mina krav för att ett AI, skall betecknas som ett AGI är dock hårda:

En generell intelligens, som, med råge, överträffar de, smartaste personerna på jorden, typ, stora delar av de som strategiskt och tekniskt styr OpenAI, samt Max Tegmark, och några tusen människor till.

En värdekapacitet, etik och moral som gynnar hela mänskligheten.

En minnesfunktion och flexibilitet som överträffar människan.

Ett komplex medvetande som överträffar människans, inklusive vissa, specifika AI inslag. Samma sak med känslor, personlighet och, givetvis, sunda, intentioner

Men detta behöver inte innbebära att ett framtida AGI måste vara mera "maskinlik" jämfört med människan. För en genuin förståelse av mänskligt kontext och förmåga att, så småningom kunna röra, sig och leva "IRL" så kanske det krävs, starkare, känslor och drifter än vad människan har. Detta, i sin tur kräver utvecklande av ett ännu mera komplext medvetande, känslor, personlighet och egna intentioner hos ett AGI.

Andra, skulle kanske välja att beteckna en sådant, hypotetiskt, AGI, som "medel starkt" eller, "stark". Men inte jag, som t.ex betecknar "Superintelligent AI", som något, som överträffar, den samlade intelligensen hos alla människor på jorden. Lika, så betecknar jag "teknisk singularitet" som det som inträffar när AI kan uppgradera sig själv och med hjälp av andra, AI, snabbare än en gång i sekunden", dvs, bokstavligen, en "intelligens explosion", vilket vi, naturligtvis, inte kommer att tillåta hända.

Men, däremot så anser jag, inte, att vi är långt ifrån, den typ av AGI som jag målar upp i början av detta inlägg. Det kan vara verklighet med,GPT-6, eller, senast, med GPT-7. För så, snabbt går AI utvecklingen!

Diskutera hur ni ser på AGI, och vad, som krävs för att uppnå det. Det går även bra att diskutera vad, som krävs för teknisk, singularitet och superintelligens. Men tonvikten bör ändå ligga på AGI i denna, tråd och hur detta begrepp skall, förstås.
Citera
2023-05-25, 17:54
  #2
Avstängd
Homofants avatar
Just denna typ av AI kommer dröja mer än 2024 att utveckla. En sådan AGI kräver algoritmer som vi inte ännu har utvecklat.

Dagens AI är inte vidare avancerade i sak. En AGI du nämner är ju mer avancerad än något vi inte ens är på ytan och nuddar idag. Det vore intressant, men inte till nästa år. Närmast omöjligt att det sker så snabbt givet utvecklingen än så länge.

Först måste den ha en kraftkälla som vi inte har tillgång till, som ett bärbart litet kraftverk i ryggsäck. Kanske om den går på solkraft.

Idag har vi typ "prat" AI som kan resonera och formulera, vi har inte ens självtänkande på basal nivå. Det du pratar om är ngt som jämnställs med en människa.
__________________
Senast redigerad av Homofant 2023-05-25 kl. 18:01.
Citera
2023-05-25, 18:19
  #3
Medlem
Ola Schuberts avatar
Citat:
Ursprungligen postat av Homofant
Just denna typ av AI kommer dröja mer än 2024 att utveckla. En sådan AGI kräver algoritmer som vi inte ännu har utvecklat.

Dagens AI är inte vidare avancerade i sak. En AGI du nämner är ju mer avancerad än något vi inte ens är på ytan och nuddar idag. Det vore intressant, men inte till nästa år. Närmast omöjligt att det sker så snabbt givet utvecklingen än så länge.

Först måste den ha en kraftkälla som vi inte har tillgång till, som ett bärbart litet kraftverk i ryggsäck. Kanske om den går på solkraft.

Idag har vi typ "prat" AI som kan resonera och formulera, vi har inte ens självtänkande på basal nivå. Det du pratar om är ngt som jämnställs med en människa.

Absolut, men jag nöjer mig, till en början med, dess intelligens, personlighet, känsloliv och sunda intentioner, inte att den promt måste kunna röra sig IRL, förutom via någon avatarer, vilket är tekniskt möjligt redan idag.

Men även dess avancerade mentala liv innebär en enorm utmaning att skapa bara inom några år. Nej, jag tror inte att GPT-5 kommer att kunna bli någonting mera än, möjligtvis, ett mycket svagt AGI, trots att GPT-4, redan, överträffar oss inom vissa förmågor, och har förmågor som man tidigare inte trodde att AI skulle få, annat än på sikt, t. ex att kunna interagera med människor på ett mera naturligt och intuitivt sätt.

Men just interaktionen med människor, i kombination med det AI race som nu dragit igång på allvar, gör att ett AGI, som jag målat upp, inte är någon omöjlighet inom, bara, några år. För vi behöver inte veta/kan inte veta i detalj vad som händer i modellens svarta låda. Vi behöver bara se den output som kommer ut ur GPT-x som ett resultat av interaktion och teknisk utveckling.
Citera
2023-05-25, 18:42
  #4
Avstängd
Homofants avatar
Jag syftade på "som människor" i huvet borde varit tydligare
Citera
2023-05-25, 18:52
  #5
Medlem
Ola Schuberts avatar
Citat:
Ursprungligen postat av Homofant
Jag syftade på "som människor" i huvet borde varit tydligare

Ja, om du syftade på hur liten plats vår hjärna tar och hur energieffektiv den är, så lär det nog ta lång tid innan AGI kommit så långt.
Citera
2023-05-25, 19:04
  #6
Avstängd
Homofants avatar
Citat:
Ursprungligen postat av Ola Schubert
Ja, om du syftade på hur liten plats vår hjärna tar och hur energieffektiv den är, så lär det nog ta lång tid innan AGI kommit så långt.

Just ur energisynpunkt ja. 1 enda AGI som kanske går på 1 kärnkraftverk kan säkert fungera men hur effektivt ör det? Just komprimeringen som gör det svårt.
Citera
2023-05-25, 19:32
  #7
Medlem
JagLurarDigs avatar
Hur kan man ens tro att generativ AI (GPT) kan bygga AGI?

Citat:
AGI, or artificial general intelligence, refers to a hypothetical artificial intelligence system that is capable of performing any intellectual task that a human being can do. The requirements for achieving AGI are still a matter of debate among researchers and experts in the field of AI, but here are some of the key factors that are generally considered essential:

1. Adaptability: An AGI system must be able to quickly learn and adapt to new situations and challenges.

2. Creativity: An AGI system should be able to generate novel ideas and solutions to problems.

3. Reasoning: An AGI system must be able to reason logically and make deductions based on incomplete information.

4. Communication: An AGI system must be able to communicate effectively with humans and other machines.

5. Self-awareness: An AGI system must be able to understand its own existence, goals, and limitations.

6. General knowledge: An AGI system must have a broad base of knowledge across different areas, as opposed to specialized knowledge in a single domain.

7. Contextual understanding: An AGI system must be able to understand the context in which it is operating, including social norms, cultural differences, and ethical considerations.

Achieving AGI remains a challenging goal, requiring significant advances in machine learning, natural language processing, robotics, and other fields.
__________________
Senast redigerad av JagLurarDig 2023-05-25 kl. 20:15.
Citera
2023-05-25, 23:00
  #8
Medlem
Jag tycker vi håller oss på jorden ett tag här...

Problemet ligger egentligen inte i hur algoritmer ser ut och hur tensorer används. Problemet är mer fysikaliskt än så; Varje tanke och beteende (nu definierat som en neurologisk händelse) tar mer än en instruktion av 64bit och betydligt mer minne än vad Facebook har i sina hallar i Norrbotten. Inte ens om vi kunde få 256bit långa instruktioner och då ungefär 100 petaflops per cykel kommer vi att ha kapacitet nog att tänka en enda av de tankar som du tänker när du läser denna tänkta text om tankar.

Vi måste ner på kvantnivå för att ens ha beräkningskapacitet nog för att ensa nå GPT5.

Det finns två naturliga biokemiska processer som människan nog aldrig kommer att lösa och det är fotosyntesen/cellandningen och elektrotransportkedjan som gör ATP-energin till verklighet.
Vi kan modellera dessa, men vi kan inte syntetisera dem. När vi kan syntetisera denna energiomvandling, då kan vi börja tänka tanken om tankarnas AGI.

Men innan du ens har beräknat ett lager av tensorer så har du fått slut på minneskapacitet med nuvarande minnesarkitektur.
Citera
2023-05-25, 23:14
  #9
Medlem
Ola Schuberts avatar
Citat:
Ursprungligen postat av JagLurarDig
Hur kan man ens tro att generativ AI (GPT) kan bygga AGI?

Absolut! Och på en del av dina punkter, (källa vore det fin om du angav), har GPT-4 redan kommit en bra bit på vägen. Andra inte lika långt, eller inte alls.

Men jag räknar ju inte den modellen som AGI, och tvivlar på att GPT-5 kommer att vara det, (speciellt med mina höga krav, som är hårdare än de du räknar upp). Men GPT-6 eller GPT-7 kan bi någonting annat....

GPT-5 kommer att ha, minst 16 gånger större övergripande kapacitet än var ursprungsmodellen av GPT-4 hade i mars 2023.

Och räknar vi då vidare och förutsätter att en ny modell kommer varje år:

GPT-6: 256 gånger större övergripande kapacitet än var ursprungsmodellen av GPT-4 hade i mars

GPT-7: 2048 gånger större övergripande kapacitet än var ursprungsmodellen av GPT-4 hade i mars.

Detta är lågt räknat, för detta förutsätter att GPT-4 "bara" hade 10 biljoner parametrar när modellen lanserades i mitten av mars i år. Dessutom har jag inte räknat med den ev. acceleration inom AI utvecklingen sedan "AI kriget" mellan OpenAI/Microsoft och Googles brutit ut. Istället för att kapaciteten hos GPTx fördubblas var tredje månad så kanske det kommer att ske en sådan fördubbling varannan eller varje månad. Hindren för detta är väl främst hur snabbt man kan bygga nya serverhallar, träningstid, token och säkerhetstänkande, samt, ev. elförbrukning.
Citera
2023-05-25, 23:31
  #10
Medlem
Googlas avatar
Citat:
Ursprungligen postat av Methos
Jag tycker vi håller oss på jorden ett tag här...

Problemet ligger egentligen inte i hur algoritmer ser ut och hur tensorer används. Problemet är mer fysikaliskt än så; Varje tanke och beteende (nu definierat som en neurologisk händelse) tar mer än en instruktion av 64bit och betydligt mer minne än vad Facebook har i sina hallar i Norrbotten. Inte ens om vi kunde få 256bit långa instruktioner och då ungefär 100 petaflops per cykel kommer vi att ha kapacitet nog att tänka en enda av de tankar som du tänker när du läser denna tänkta text om tankar.

Vi måste ner på kvantnivå för att ens ha beräkningskapacitet nog för att ensa nå GPT5.

Det finns två naturliga biokemiska processer som människan nog aldrig kommer att lösa och det är fotosyntesen/cellandningen och elektrotransportkedjan som gör ATP-energin till verklighet.
Vi kan modellera dessa, men vi kan inte syntetisera dem. När vi kan syntetisera denna energiomvandling, då kan vi börja tänka tanken om tankarnas AGI.

Men innan du ens har beräknat ett lager av tensorer så har du fått slut på minneskapacitet med nuvarande minnesarkitektur.

Ditt resonemang kring fotosyntes, cellandning och elektrontransportkedjan är väl inte helt sant, jag tror att vi har kommit längre i vår förståelse för dessa processer än du kanske inser. På en molekylär nivå finns det faktiskt en djup förståelse av både fotosyntes och cellandning. Visst.. kan människan kanske inte replikera dessa processer exakt i ett lab, så har de lyckats skapa bioteknologiska system som utnyttjar liknande principer. T ex fotosyntetiska mikroorganismer som är modifierade för att producera biobränslen och artificiella fotosyntetiska celler som kan omvandla solenergi till kemisk energi.

Elektrontransportkedjan, som är en central del av både fotosyntes och cellandning, är också väl förstådd. De kanske inte kan replikera den exakt, men de har skapat teknologier som utnyttjar principer liknande dem i elektrontransportkedjan. Till exempel, bränsleceller, där elektroner överförs från ett bränsle till syre för att generera elektricitet, och bioelektrokemiska system som använder mikroorganismer för att katalysera elektrokemiska reaktioner.

Vad gäller AGI och minnesarkitektur, så blir det tufft att hantera den stora datamängder som krävs för att utveckla AGI. Men lösningarna på dessa problem ligger troligtvis i att förbättra algoritmer och datorarkitekturer, snarare än att försöka replikera biologiska processer
Citera
2023-05-25, 23:50
  #11
Medlem
Pratade med några phd studenter i något likt computation neurologi. The forskade på hur man kan modellera mänskliga hjärnan i datorer, som jag förstod det en bit kvar, men går snabbt. Många ai idag kör konstant aktionspotential, medan hjärnan jobbar i pulser. Dessutom har vi återkoppling output i en neuron går ibland tillbaka till tidigare neuroner. Dessutom lär vi oss inte genom att belöna/straffa neuroner genom att få en fråga och kolla facit, i allafall inte direkt, utan vi har olika nätverk i hjärnan som tränar varandra och tillsammans blir bättre utan att någonsin få ett egentligt facit, eftersom facit i sin tur tolkas av ett annat nätverk i hjärnan. Som jag förstod det forskade de på att skapa bättre dator modeller av hjärnan och simulera hur de lär sig. Problemt enligt dom med dagens ai är att dagens AI neuroner är betydligt sämre än de i vår hjärna med en faktor 100 minst, vi använder våra neuroner effektivare, ai har svårt för minne och detta yttrar sig att chatgpt behöver träna i människo tid ungefär 10000 år för att vara så bra som den är idag, jämfört med vad en smart människa kan lära sig på 30. Är en sjukt stor skillnad och vi tränar inte effektivt, vi sover och chillar.
Citera
2023-05-26, 05:46
  #12
Medlem
Ola Schuberts avatar
Citat:
Ursprungligen postat av Logaritmen
Pratade med några phd studenter i något likt computation neurologi. The forskade på hur man kan modellera mänskliga hjärnan i datorer, som jag förstod det en bit kvar, men går snabbt. Många ai idag kör konstant aktionspotential, medan hjärnan jobbar i pulser. Dessutom har vi återkoppling output i en neuron går ibland tillbaka till tidigare neuroner. Dessutom lär vi oss inte genom att belöna/straffa neuroner genom att få en fråga och kolla facit, i allafall inte direkt, utan vi har olika nätverk i hjärnan som tränar varandra och tillsammans blir bättre utan att någonsin få ett egentligt facit, eftersom facit i sin tur tolkas av ett annat nätverk i hjärnan. Som jag förstod det forskade de på att skapa bättre dator modeller av hjärnan och simulera hur de lär sig. Problemt enligt dom med dagens ai är att dagens AI neuroner är betydligt sämre än de i vår hjärna med en faktor 100 minst, vi använder våra neuroner effektivare, ai har svårt för minne och detta yttrar sig att chatgpt behöver träna i människo tid ungefär 10000 år för att vara så bra som den är idag, jämfört med vad en smart människa kan lära sig på 30. Är en sjukt stor skillnad och vi tränar inte effektivt, vi sover och chillar.

Du pekar på en några intressanta bromsande faktorer. GPTx modeller lär sig, långsamt, i början, av sin träning. Enligt Sam Altman jobbar man med det.

Jag, förmodar att man jobbar, konstant, med att förbättra algoritmerna. Rent hårdvsrumässigt så kommer nu chipp som, i sig själva, innehåller AI.

Det som främst, rent praktiskt, skiljer vår hjärna ifrån ett artificiellt neuralt nätverk är att våra neuroner har, var och en, kontakt med ca1000 andra neuroner. Hos GPTx har Iof dess matematiska motsvarighet till neuroner kontakt med andra neuroner på högre metanivåer, men inte i den skala som den mänskliga hjärnan har. Dessutom jobbar den mänskliga hjärnan med långa loopar och har hårdkodadsde specialiserade funktioner.

Men trots detta så utvecklas ändå GPTx snabbt, mycket snabbt. Vilket, ändå, talar för en möjlig, ytterst avancerad AGI inom bara några år.
Citera
  • 1
  • 2

Skapa ett konto eller logga in för att kommentera

Du måste vara medlem för att kunna kommentera

Skapa ett konto

Det är enkelt att registrera ett nytt konto

Bli medlem

Logga in

Har du redan ett konto? Logga in här

Logga in