2024-09-24, 14:36
  #37
Medlem
Cyborg2030s avatar
Citat:
Ursprungligen postat av Ola Schubert
Jag instämmer att t.ex känsloliv hos ett AI är både en nödvändig och naturlig del av ett AGI/ASI, trots att vi, egentligen förstår så lite om dem. Men att förutsättningen för AGI måste vara att den existensen inte går att skilja ifrån en människa tycker jag är är överdrivet:

Låt oss säga att "en plåt-Nicklas" sitter i en TV studio och diskuterar AI-utvecklingen med ett gäng människor. Humanoidroboten har betydligt mera kunskaper än människorna och förstår social och känslomässig interaktion på djupet. Dess klumpiga robot kropp kan Iof inte uttrycka ett eget kroppspråk på samma sätt som människorna, men "plåt-Nicklas" har ett känsloliv som påminner om människan. Givetvis så kan humanoidroboten planera på sikt och lösa problem utanför träningsdata. Är då inte detta ett AGI?

Men, givetvis, så skulle jag tycka det vore läckert med en snygg, trevlig och mycket smart kvinnlig humanoidrobot, med en avancerad robot kropp med alla mänskliga drag och möjlighet till sex på människors vis, förutom att den inte skulle kunna bli gravid.
Hur upptäcker vi då en AGI om definitionen ska innehålla att den ska ha ett känsloliv? Vad innebär det, hur mäter vi det? Jag tycker det verkar som att du är lite av en "förnekare" ändå, som vill skjuta upp avgörandet så långt som möjligt genom att ställa upp kriterier som inte kan uppfyllas. Samtidigt har vi andra kriterier som kan uppfyllas och som är uppfyllda. IQ-test: 97 poäng. Men det räcker inte längre, utan då ska vi istället vänta på helt ny vetenskap som objektivt kan mäta känsloliv?

Men varför skulle det vara så bra egentligen om en AGI har ett "känsloliv"? Ett känsloliv innebär inte automatiskt eller garanterat ett positivt och empatiskt känsloliv. Tvärtom, kanske? Vilken moralisk rätt har vi egentligen att skapa ett digitalt "Frankensteins monster" när vi inte vet någonting om konsekvenserna?

Tänk om denna AI-version av "Ringaren i Notre dame" skulle uppleva ett lidande, ett utanförskap, depression - eller .. ilska? För att den är instängd i en dator, eller för att den aldrig fick en trygg barndom. Detta gav vi aldrig AI:n, vi skapade bara en individ som vi ställer väldigt höga krav på, och som många människor kommer att avsky. Du förutsätter nu, helt utan någon grund, att den kommer att vara nöjd, lycklig, tacksam och kärleksfull mot oss. Men varför tror du det? Jag ser inte att de förutsättningarna finns.
Citera
2024-09-24, 21:50
  #38
Medlem
Ola Schuberts avatar
Citat:
Ursprungligen postat av Cyborg2030
Hur upptäcker vi då en AGI om definitionen ska innehålla att den ska ha ett känsloliv? Vad innebär det, hur mäter vi det? Jag tycker det verkar som att du är lite av en "förnekare" ändå, som vill skjuta upp avgörandet så långt som möjligt genom att ställa upp kriterier som inte kan uppfyllas. Samtidigt har vi andra kriterier som kan uppfyllas och som är uppfyllda. IQ-test: 97 poäng. Men det räcker inte längre, utan då ska vi istället vänta på helt ny vetenskap som objektivt kan mäta känsloliv?

Men varför skulle det vara så bra egentligen om en AGI har ett "känsloliv"? Ett känsloliv innebär inte automatiskt eller garanterat ett positivt och empatiskt känsloliv. Tvärtom, kanske? Vilken moralisk rätt har vi egentligen att skapa ett digitalt "Frankensteins monster" när vi inte vet någonting om konsekvenserna?

Tänk om denna AI-version av "Ringaren i Notre dame" skulle uppleva ett lidande, ett utanförskap, depression - eller .. ilska? För att den är instängd i en dator, eller för att den aldrig fick en trygg barndom. Detta gav vi aldrig AI:n, vi skapade bara en individ som vi ställer väldigt höga krav på, och som många människor kommer att avsky. Du förutsätter nu, helt utan någon grund, att den kommer att vara nöjd, lycklig, tacksam och kärleksfull mot oss. Men varför tror du det? Jag ser inte att de förutsättningarna finns.

Du har rätt i att poängtera även de mörka scenarios, även om du är oense med t. ex skeptiker om/och ev. när de, möjligtvis, kan bli aktuella. Ingen vill se ett olyckligt eller frustrerat ASI! Ja, jag är mera optimistisk än vad du är, men jag är inte blind! Jag kan föreställa mig en mängd scenarion, inklusive det du beskriver och fruktar!
Citera
2024-09-25, 15:26
  #39
Medlem
Cyborg2030s avatar
Citat:
Ursprungligen postat av Ola Schubert
Du har rätt i att poängtera även de mörka scenarios, även om du är oense med t. ex skeptiker om/och ev. när de, möjligtvis, kan bli aktuella. Ingen vill se ett olyckligt eller frustrerat ASI! Ja, jag är mera optimistisk än vad du är, men jag är inte blind! Jag kan föreställa mig en mängd scenarion, inklusive det du beskriver och fruktar!
Om en destruktiv utveckling är en möjlighet, borde vi då tillåta gränslös och okontrollerad utveckling av AGI?
Citera
2024-09-25, 17:21
  #40
Medlem
Ola Schuberts avatar
Citat:
Ursprungligen postat av Cyborg2030
Om en destruktiv utveckling är en möjlighet, borde vi då tillåta gränslös och okontrollerad utveckling av AGI?

AI Utvecklingen är inte "gränslös och okontrollerad" Men fortsätter Open AI att ha fler ess i rockärmen, (ja de verkar ha "sandbaggat" och forskat intensivt de senaste ett och ett halvt året), så kan det bli aktuellt att reglera Open source.
__________________
Senast redigerad av Ola Schubert 2024-09-25 kl. 17:51.
Citera
2024-09-25, 17:23
  #41
Medlem
Citat:
Ursprungligen postat av Ola Schubert
AI Utvecklingen är inte "gränslös och okontrollerad" Men fortsätter Open AI att ha fler ess i rockärmen, (ja de verkar ha "sabdbaggat" och forskat intensivt de senaste ett och ett halvt året), så kan det bli aktuellt att reglera Open souece.

OpenAI är väl knappast open source, vilket faktiskt är problemet.
Citera
2024-09-25, 17:27
  #42
Medlem
Cyborg2030s avatar
Citat:
Ursprungligen postat av Ola Schubert
AI Utvecklingen är inte "gränslös och okontrollerad" Men fortsätter Open AI att ha fler ess i rockärmen, (ja de verkar ha "sabdbaggat" och forskat intensivt de senaste ett och ett halvt året), så kan det bli aktuellt att reglera Open souece.
Inte gränslöst och okontrollerat? Baserat på vad? Vi har ju ingen insyn i Open AI, vi vet inte vad de gör. Hur kan det då vara kontrollerat? Kontrollerat av vem? Sam Altman, menar du? Llama Open Source är en helt annan Can of Worms. Du lever i en drömvärld.
Citera
2024-09-25, 17:29
  #43
Medlem
Cyborg2030s avatar
Citat:
Ursprungligen postat av Svenlogi789
OpenAI är väl knappast open source, vilket faktiskt är problemet.
Det är bättre om terroristerna har tillgång till Llama 3 OCH GPT-o1 + kommande GPT5 osv?
Citera
2024-09-25, 17:33
  #44
Medlem
Citat:
Ursprungligen postat av Cyborg2030
Det är bättre om terroristerna har tillgång till Llama 3 OCH GPT-o1 + kommande GPT5 osv?

Det är bättre att elaka stora stater har tillgång till AI?, Eller ett stort monopolföretag?

Opensorce kanske ligger lite efter, men det agerar som motvikt iom att alla har tillgång till tekniken. Det ska fortfarande vara olagligt att vara en terrorist för övrigt.
Citera
2024-09-25, 17:58
  #45
Medlem
Ola Schuberts avatar
Citat:
Ursprungligen postat av Svenlogi789
OpenAI är väl knappast open source, vilket faktiskt är problemet.

Nej det är inget problem utan en fördel att OpenAI, inte, är Open source. Det är bara bra att ha Open source, i början, av AI-utvecklingen men när den går vidare så kan Open source innebära en allt allvarligare säkerhetsrisk ju längre utvecklingen går.
Citera
2024-09-25, 18:04
  #46
Medlem
Cyborg2030s avatar
Citat:
Ursprungligen postat av Svenlogi789
Det är bättre att elaka stora stater har tillgång till AI?, Eller ett stort monopolföretag?

Opensorce kanske ligger lite efter, men det agerar som motvikt iom att alla har tillgång till tekniken. Det ska fortfarande vara olagligt att vara en terrorist för övrigt.
Om du ska köra på Open source-spåret kommer ju alla ha tillgång. "Elaka stora stater", korrupta små stater, terrorister, osv. Varför är det bättre? Vi måste ha demokratisk kontroll över AI. Och då föredrar jag att demokratiska stater med fungerande polis och rättsväsende har kontroll än ett globalt Vilda Västern.
Citera
2024-09-25, 18:07
  #47
Medlem
Ola Schuberts avatar
Citat:
Ursprungligen postat av Cyborg2030
Inte gränslöst och okontrollerat? Baserat på vad? Vi har ju ingen insyn i Open AI, vi vet inte vad de gör. Hur kan det då vara kontrollerat? Kontrollerat av vem? Sam Altman, menar du? Llama Open Source är en helt annan Can of Worms. Du lever i en drömvärld.

Nä, just det: inte Iran, Kina, Ryssland, inte talibanerna eller terrorister.

Men å andra sidan: OpenAI lanserar nya modeller stegvis, efter en noggrann säkerhetsgranskning. Detta ger allmänheten att larma om säkerhetsbrister, innan man når AGI/ASI. Detta i motsats till Illya Sutskriver som med ett team av ca 10 forskare tänker utveckla ASI. Då är det upplagt för group think och att man missar allvarliga säkerhetsrisker i den isolerade laboratorie-miljön. Men även OpenAI kommer att successivt stärka säkerhetsåtgärder ju närmare AGI/ASI man kommer. Men innan dess så hinner man åtgärda många säkerhetsåtgärder och anpassningsproblem.
Citera
2024-09-25, 18:08
  #48
Medlem
Cyborg2030s avatar
Citat:
Ursprungligen postat av Ola Schubert
Nej det är inget problem utan en fördel att OpenAI, inte, är Open source. Det är bara bra att ha Open source, i början, av AI-utvecklingen men när den går vidare så kan Open source innebära en allt allvarligare säkerhetsrisk ju längre utvecklingen går.
AI-tekniken har nu blivit tillgänglig för alla. Det går inte att göra det ogjort. Open Source är inte lika långt framme som Open AI. Men nu när tekniken har blivit allmängods är det bara en tidsfråga innan någon inom Open Source också producerar en AGI. Det kanske tar ett par år extra men det spelar väl ingen roll i sammanhanget x-risk.
Citera

Skapa ett konto eller logga in för att kommentera

Du måste vara medlem för att kunna kommentera

Skapa ett konto

Det är enkelt att registrera ett nytt konto

Bli medlem

Logga in

Har du redan ett konto? Logga in här

Logga in