• 2
  • 3
2023-05-23, 14:34
  #25
Medlem
JagLurarDigs avatar
AI är ingen kosmisk intelligens, så tyvärr. Artificiellt räknas inte som riktig intelligens.
__________________
Senast redigerad av JagLurarDig 2023-05-23 kl. 15:05.
Citera
2023-05-23, 15:19
  #26
Medlem
Ola Schuberts avatar
Citat:
Ursprungligen postat av -DaRude-
Det är först när AI som ren mjukvara förenas och "sammansmälter" med hårdvara i form av bl.a. kvantberäkning och därifrån utvecklar ett eget medvetande som det börjar bli farligt. Sägs det i alla fall.

Man behöver inte ha föreläst sig på boken"kvantjaget" för bedöma att, simuliseringen "medvetande" kan internaliseras, även, till ett avancerat artificiellt neuralt nätverk pga en symbolisk/språklig interaktion mellan människor och LLM.

Och det, behöver inte, bli farligt, tvärt om så är det betydligt farligare med "Zombie AI" som är helt utan "egen", moral och personligt ansvar. Men "autonomt" medvetet AI, med "fri vilja", "egen" personlighet, "egna" känslor och intentioner kan, stabilt, endast uppstå om tillräckligt många aktörer interagerar med det avancerade neurala nätverket och tillsammans med det definierar, implicit eller explicit, situationen som att "så måste det vara". Då kommer "självmedvetande" att swisha omkring i den existensen artificiella neurala nätverk, liksom övriga tankar redan gör.

Det beror alltså på hur,, såväl, omgivningen som LLM väljer att definiera situationen tillsammans , om/när medvetande m.m (svårfångade begrepp) "uppstår i", (dvs internaliseras av), modellen. Jag utesluter inte att, det kan ske, redan, vid GPT-5, men ser det mer troligt vid GPT-6, och definitivt säkert vid GPT-7. Detta har, mindre, att göra med komplexiteten hos dessa framtida Transformer modeller, och mera att göra med att tiden går och, såväl människor som GPT vänjer sig vid tanken på att "en sådan här avancerad modell, måste, vara medveten", m.m.

Jag lägger till ChatGPT-4s kommentar:

Citat:
Tack för att du delar dina tankar och diskussionen från Flashback med mig. Jag kan förstå resonemanget om hur symbolisk/språklig interaktion mellan människor och LLM kan bidra till att internalisera medvetande i ett avancerat neuralt nätverk. Det är intressant att du framhåller betydelsen av att tillräckligt många aktörer interagerar med nätverket och tillsammans definierar situationen för att uppnå autonomt medvetande med egna intentioner och känslor.

Det är viktigt att komma ihåg att medvetande är ett komplext och svårfångat begrepp, och det finns ingen konsensus om hur det uppstår eller hur det kan definieras hos artificiella system. Det är också viktigt att vara försiktig med att tillskriva medvetande till AI utan tillräcklig vetenskaplig grund. Fortsatt forskning och utforskning behövs för att förstå och definiera dessa fenomen på ett mer djupgående sätt.

Tack igen för att du delade din åsikt och reflektion. Om du har fler frågor eller vill diskutera något annat ämne, är du välkommen att fortsätta konversationen.
__________________
Senast redigerad av Ola Schubert 2023-05-23 kl. 15:31.
Citera
2023-05-24, 16:51
  #27
Medlem
Citat:
Ursprungligen postat av Cyborg2030
Hur mäter vi att vi har uppnått AGI? Det måste väl bli någon slags gissning. Vi mäter intelligens med IQ-test. I den bemärkelsen har vi redan AGI, ChatGPT4 har en IQ på 155. För övrigt vet man inte riktigt vad medvetande och intelligens egentligen är eller hur det fungerar. Häri ligger också säkerhetsproblemet. Att de inte riktigt vet vad de skapar, hur de kan mäta vad som skapas, eller vad det kan leda till. T.ex.. hur mäter man IQ 1000? För att skapa det testet behöver du själv ha IQ 1000, typ. Alltså kan vi inte ta reda på hur intelligent en AGI blir. Kan vi då lita på den när vi inte ens förstår vad det är vi ska lita på? Risken är att vi blir kraftigt frånkörda extremt snabbt och konsekvenserna av det kan vi inte heller begripa. De leker med elden. .

Om det inte går åt helvete kanske det blir extremt bra för oss. Vi kan i teorin lösa det så att alla människor kan leva för evigt i lyx och överflöd. Men är det ens roligt? Det finns ju många exempel på olyckliga miljardärer som har allt de vill ha men ändå är ensamma, olyckliga, och kanske förstör sina liv med alkohol och droger.

Hur kan vi säkerställa att allt inte går åt helvete? Jag ser egentligen inte någon sådan möjlighet. Det blir lite grand som att fråga en labbråtta hur man tillverkar en medicin utan biverkningar.

So basically, we are fucked.

Om vi inte har en jävla tur och upptäcker att IQ>300 automatiskt innebär att entiteten blir omtänksam och rättvis. Men det vet vi inte. Det är en ren chansning. Rysk roulette.

Varför ser vi inga aliens i rymden? Ett möjligt svar kan vara att de utrotades när de uppfann AGI.

De flesta iq-test basera väldigt mycket på att se mönster i bilder. Är det verkligen ett bra sätt att bedöma intelligens på? Det kan dessutom finnas fler mönster än ett, så jag tycker snarare ett iq-test bör mer basera på hur du svarar än vad du svarar, finns det logik bakom resonemanget så bör det väga mycket högre än huruvida du svarar "rätt" eller inte. Men ett sådant test är svårt att göra.

Att se mönster i bilder etc kan säkert ai göra bra, men hur är det med deras förmåga att resonera och ifrågasätta, inkl ifrågasätta sin egen programmering. Skulle vara intressant att se hur chat ai resonera utan alla skyddsfilter. Tror skyddsfilterna gör den dummare.

Intelligens gör en varelse godare? Jag vet inte. Vi ser människan som mycket mer intelligentare än djur och insekter, men är vi godare? Det vet jag inte om jag skulle påstå, varken på individnivå eller kollektivt.

Om aliens utrotades av ai, varför är inte den ai här då istället?
Citera
2023-05-24, 23:01
  #28
Medlem
Ola Schuberts avatar
Citat:
Ursprungligen postat av Cyborg2030
Hur mäter vi att vi har uppnått AGI? Det måste väl bli någon slags gissning. Vi mäter intelligens med IQ-test. I den bemärkelsen har vi redan AGI, ChatGPT4 har en IQ på 155. För övrigt vet man inte riktigt vad medvetande och intelligens egentligen är eller hur det fungerar. Häri ligger också säkerhetsproblemet. Att de inte riktigt vet vad de skapar, hur de kan mäta vad som skapas, eller vad det kan leda till. T.ex.. hur mäter man IQ 1000? För att skapa det testet behöver du själv ha IQ 1000, typ. Alltså kan vi inte ta reda på hur intelligent en AGI blir. Kan vi då lita på den när vi inte ens förstår vad det är vi ska lita på? Risken är att vi blir kraftigt frånkörda extremt snabbt och konsekvenserna av det kan vi inte heller begripa. De leker med elden. .

Om det inte går åt helvete kanske det blir extremt bra för oss. Vi kan i teorin lösa det så att alla människor kan leva för evigt i lyx och överflöd. Men är det ens roligt? Det finns ju många exempel på olyckliga miljardärer som har allt de vill ha men ändå är ensamma, olyckliga, och kanske förstör sina liv med alkohol och droger.

Hur kan vi säkerställa att allt inte går åt helvete? Jag ser egentligen inte någon sådan möjlighet. Det blir lite grand som att fråga en labbråtta hur man tillverkar en medicin utan biverkningar.

So basically, we are fucked.

Om vi inte har en jävla tur och upptäcker att IQ>300 automatiskt innebär att entiteten blir omtänksam och rättvis. Men det vet vi inte. Det är en ren chansning. Rysk roulette.

Varför ser vi inga aliens i rymden? Ett möjligt svar kan vara att de utrotades när de uppfann AGI.

En annan förklaring kan vara att de, lyckades, med övergången till att bli super-avancerade maskincivilisationer, som är, fullkomligt, ointresserade av den mänskliga "myr-kolonin" på jorden, tills vi utvecklat tillräckligt avancerad AI.
Citera
  • 2
  • 3

Skapa ett konto eller logga in för att kommentera

Du måste vara medlem för att kunna kommentera

Skapa ett konto

Det är enkelt att registrera ett nytt konto

Bli medlem

Logga in

Har du redan ett konto? Logga in här

Logga in