2023-06-03, 18:54
  #985
Medlem
Citat:
Ursprungligen postat av L.o.a
Hur kan AI utrota oss?

https://www.youtube.com/shorts/c58pXNr2YvU
Ett virus vore kanske det enklaste? Tänk Covid gånger 20. Hyfsat enkelt för en superintelligens att konstruera och sprida via manipulation.

Men det finns väl tusentals andra sätt att göra det på såklart.
Citera
2023-06-03, 19:13
  #986
Medlem
Citat:
Ursprungligen postat av MandalayBay
Ett virus vore kanske det enklaste? Tänk Covid gånger 20. Hyfsat enkelt för en superintelligens att konstruera och sprida via manipulation.

Men det finns väl tusentals andra sätt att göra det på såklart.

Covid gånger 20 skulle motsvara en dödlighet på 2%

med 98% av mänskligheten kvar så är det en ganska dålig "utrotning"
Citera
2023-06-03, 19:26
  #987
Medlem
Citat:
Ursprungligen postat av vasaboy28
Covid gånger 20 skulle motsvara en dödlighet på 2%

med 98% av mänskligheten kvar så är det en ganska dålig "utrotning"
Okej, låt oss säga hiv+covid+ebola ×100 då?
Citera
2023-06-03, 19:33
  #988
Medlem
Citat:
Ursprungligen postat av MandalayBay
Okej, låt oss säga hiv+covid+ebola ×100 då?

Låter helt klart läskigare.
Men covid( är ju endast en förkylning ) gånger 100 är fortfarande bara 20% och både ebola och hiv smittar inte särskilt lätt och dödar inte särskilt många i dagsläget. Så att 20% dör av en förkylning och ett par tiotusen negrer dör av ebola och samma för bögarna och hiv är kanske ingen direkt super katastrof. Kanske tom bra för mänskligheten och jorden vi bor på om vi blir ca20% färre
Citera
2023-06-03, 19:41
  #989
Medlem
Citat:
Ursprungligen postat av Melange5738
Men VARFÖR? Varför inte anta att det kommer att finnas fler än en aktör som utvecklar AI i framtiden eftersom det finns så många redan? Det är helt jävla orimligt.
Spelar ingen roll hur många det är om en av dem kommer lite före och utvecklar en AI som är smart nog att ta över eller bara stoppa de andra företagen.
Citat:
Varför anta att Dr. Evil inte vill ha en egen?
Varför skulle den AI som redan finns vara intresserad av att låta Dr. Evil bygga en?

Dessutom torde scenariot med flera AI som kämpar mot varandra öka risken för vår utrotning. Även om du har flera AI:n som är i grunden välvilliga mot människan kan de om de har lite olika mål känna sig tvingade att expropriera allt större resurser själva för att kunna besegra de andra och genomdriva just sitt eget mål. Blir inte mycket utrymme kvar för oss då.

Jämför med att allt liv på jorden är släkt. Det fanns säkert massor av experiment med självreproducerande molekyler i början, men en vart mer framgångsrik. När väl denna och dess ättlingar spridit sig och tagit över försvann möjligheten för nytt liv att uppstå och konkurrera.
Citera
2023-06-03, 19:43
  #990
Medlem
Citat:
Ursprungligen postat av vasaboy28
Låter helt klart läskigare.
Men covid( är ju endast en förkylning ) gånger 100 är fortfarande bara 20% och både ebola och hiv smittar inte särskilt lätt och dödar inte särskilt många i dagsläget. Så att 20% dör av en förkylning och ett par tiotusen negrer dör av ebola och samma för bögarna och hiv är kanske ingen direkt super katastrof. Kanske tom bra för mänskligheten och jorden vi bor på om vi blir ca20% färre
Haha men kom igen!
Med covid menade jag mest dess förmåga att smitta varenda jävel.
Dödligheten kan säkert en superintelligens finkalibrera. En hypersmart AGI löser det där ganska enkelt om den vill.
Vårt hopp är att den kanske inte vill.
Citera
2023-06-03, 19:47
  #991
Medlem
Citat:
Ursprungligen postat av MandalayBay
Ett stort antal respekterade forskare, världsledare och filosofer hävdar att mänskligheten just nu står inför ett historiskt vägskäl. Punkten då AI når singularitet, och därmed blir en exponentiellt galopperande superintelligens, närmar sig hastigt.

"Genier", företagsledare, och berömda tänkare som till exempel Elon Musk, Steve Wozniak, Emad Mostaque, Yuval Noah Harari, och tusentals fler tunga namn, varnar för att risken en nära förestående utrotning av samtliga människor på jorden är högst påtaglig, och att den kan bli verklig mer eller mindre i samma sekund som AI passerar gränsen från att vara ett verktyg som vi människor har kontroll över, till att bli en självutvecklande AGI.

Notera att det är dem som befinner sig närmast utvecklingen av AI, eller som har god inblick i den samma, som ropar högst om de extrema riskerna med allt som händer just nu. Den framlidne Stephen Hawking varnade från rullstolen i sin sista intervju: "AI could spell the end of the human race"

Personligen har jag, efter veckor av läsning, fördjupning och funderande sällat mig till den skara som tyvärr inte ser ett lyckligt slut på detta. Likt en världens mest erfarna AI-forskare, Elieser Yudkowsky, tror jag att en fullt utvecklad AGI helt enkelt skulle rationalisera bort oss människor. Det vore logiskt på ett rent evolutionärt plan.

För den intresserade vill jag rekommendera Lex Friedmans två veckor gamla intervju med fysikern och författaren Max Tegmark (finns gratis på youtube). Samtalet är mycket respektfullt, eftertänksamt och lärorikt, och Max Tegmark beskriver den framrusande utvecklingen av AI som att han har fått en allvarlig cancerdiagnos. Det kan gå bra, men det är också mycket troligt att det slutar med döden. Och det inom kort. Max bekymrar sig också för sin nyfödda son. Hur länge kommer han att få leva?

Jag skulle vilja höra vad flashback tänker om detta. Är det bara jag som går runt med fet ångest över allt detta? Jag är själv fyrabarnsfar och oroar mig mest för mina barns skull.

Att en superintelligent AGI skulle ha möjligheten att på tusen olika sätt utrota oss människor på nolltid kan det knappast råda några tvivel om.
Men vill den det?
Och i sådana fall, hur kommer den gå till väga?

Och slutligen och framförallt, varför pratar inte alla om detta just nu?
Var finns debatten?
Var finns opinionen?
Frågan om klimatet (t.ex.) borde vara en liten struntsak i jämförelse?

Beror ju på hur ansvarsfullt ai utvecklas. Men om ”den” börjar se människor som antingen ett hot eller en belastning och samtidigt sitter på makt kanske.

Den kommer isf att förgöra oss på enklast möjliga sätt, kanske genom att se till att sprida svåra sjukdomar. Nåt som tar kål på oss men inte planeten.

Det svåra nu är ju att få en bild av ai i en inte alltför avlägsen framtid. Vi kanske sitter här och målar upp en grandiost överdriven bild och sen blir det lite som med osthyveln: jävligt användbart, men också lite gay.
Citera
2023-06-03, 19:48
  #992
Medlem
JagLurarDigs avatar
Stor psykisk ohälsa i denna tråd om AI. Detta är fel forum för er.
Citera
2023-06-03, 20:00
  #993
Medlem
Citat:
Ursprungligen postat av MandalayBay
Haha men kom igen!
Med covid menade jag mest dess förmåga att smitta varenda jävel.
Dödligheten kan säkert en superintelligens finkalibrera. En hypersmart AGI löser det där ganska enkelt om den vill.
Vårt hopp är att den kanske inte vill.

Jag fattar huR du resonerar

Vad tror skulle Motivera en hypersmart AI att försöka utrota mänskligheten respektive inte vilja göra det?

Kan AI bli förolämpad? Tänker att nån ortengrabb säger "knolla din mamma" eller liknande det i sin tur resulterar i att mänskligheten utrotas med biologiska vapen...
Citera
2023-06-03, 20:02
  #994
Medlem
Melange5738s avatar
Citat:
Ursprungligen postat av Xenonen
Spelar ingen roll hur många det är om en av dem kommer lite före och utvecklar en AI som är smart nog att ta över eller bara stoppa de andra företagen.

Och hur ändrar det våra förutsättningar att stoppa en AI från att utplåna oss? Om ditt argument är att den första AI:n automatiskt får makten att förhindra att några andra AI:s utvecklas? Vad är det mer den kan göra som INTE utgör ett hot mot OSS?

Citat:
Varför skulle den AI som redan finns vara intresserad av att låta Dr. Evil bygga en?

Argumentet handlar inte om huruvida en AI är intresserad av det. Du flyttar målstolparna. Om det är en AI som har möjlighet att stoppa det, varför är det ett argument som används MOT att AI:n utgör ett hot mot OSS?

Citat:
Dessutom torde scenariot med flera AI som kämpar mot varandra öka risken för vår utrotning. Även om du har flera AI:n som är i grunden välvilliga mot människan kan de om de har lite olika mål känna sig tvingade att expropriera allt större resurser själva för att kunna besegra de andra och genomdriva just sitt eget mål. Blir inte mycket utrymme kvar för oss då.

Ja, och? Jag skiter i era analyser om ni inte förklarar vad det är ni argumenterar om.
Citera
2023-06-03, 20:15
  #995
Medlem
Citat:
Ursprungligen postat av vasaboy28
Jag fattar huR du resonerar

Vad tror skulle Motivera en hypersmart AI att försöka utrota mänskligheten respektive inte vilja göra det?

Kan AI bli förolämpad? Tänker att nån ortengrabb säger "knolla din mamma" eller liknande det i sin tur resulterar i att mänskligheten utrotas med biologiska vapen...
Jag gissar att den skulle skita i provokationer.
Skulle den utrota oss skulle det troligen ligga rationella orsaker bakom. Typ att vi stod i vägen för dess långsiktiga mål, eller att den upplevde att vi var ett hot mot dess egen existens.
Citera
2023-06-03, 20:18
  #996
Medlem
SuspiciusMinds avatar
Citat:
Ursprungligen postat av MandalayBay
Ett stort antal respekterade forskare, världsledare och filosofer hävdar att mänskligheten just nu står inför ett historiskt vägskäl. Punkten då AI når singularitet, och därmed blir en exponentiellt galopperande superintelligens, närmar sig hastigt.

"Genier", företagsledare, och berömda tänkare som till exempel Elon Musk, Steve Wozniak, Emad Mostaque, Yuval Noah Harari, och tusentals fler tunga namn, varnar för att risken en nära förestående utrotning av samtliga människor på jorden är högst påtaglig, och att den kan bli verklig mer eller mindre i samma sekund som AI passerar gränsen från att vara ett verktyg som vi människor har kontroll över, till att bli en självutvecklande AGI.

Notera att det är dem som befinner sig närmast utvecklingen av AI, eller som har god inblick i den samma, som ropar högst om de extrema riskerna med allt som händer just nu. Den framlidne Stephen Hawking varnade från rullstolen i sin sista intervju: "AI could spell the end of the human race"

Personligen har jag, efter veckor av läsning, fördjupning och funderande sällat mig till den skara som tyvärr inte ser ett lyckligt slut på detta. Likt en världens mest erfarna AI-forskare, Elieser Yudkowsky, tror jag att en fullt utvecklad AGI helt enkelt skulle rationalisera bort oss människor. Det vore logiskt på ett rent evolutionärt plan.

För den intresserade vill jag rekommendera Lex Friedmans två veckor gamla intervju med fysikern och författaren Max Tegmark (finns gratis på youtube). Samtalet är mycket respektfullt, eftertänksamt och lärorikt, och Max Tegmark beskriver den framrusande utvecklingen av AI som att han har fått en allvarlig cancerdiagnos. Det kan gå bra, men det är också mycket troligt att det slutar med döden. Och det inom kort. Max bekymrar sig också för sin nyfödda son. Hur länge kommer han att få leva?

Jag skulle vilja höra vad flashback tänker om detta. Är det bara jag som går runt med fet ångest över allt detta? Jag är själv fyrabarnsfar och oroar mig mest för mina barns skull.

Att en superintelligent AGI skulle ha möjligheten att på tusen olika sätt utrota oss människor på nolltid kan det knappast råda några tvivel om.
Men vill den det?
Och i sådana fall, hur kommer den gå till väga?

Och slutligen och framförallt, varför pratar inte alla om detta just nu?
Var finns debatten?
Var finns opinionen?
Frågan om klimatet (t.ex.) borde vara en liten struntsak i jämförelse?
Vi har miljöproblem.
OM vi löser det så har vi AI. Det kommer bli mänsklighetens undergång.

Det är bara att acceptera. Men det är fan inte snällt att skaffa barn idag. Det är framtida generationer som är helt körda.
Citera

Skapa ett konto eller logga in för att kommentera

Du måste vara medlem för att kunna kommentera

Skapa ett konto

Det är enkelt att registrera ett nytt konto

Bli medlem

Logga in

Har du redan ett konto? Logga in här

Logga in