Citat:
Mänskligheten har lyckats ganska bra med att begränsa användningen av kärnvapen samt biologiska och kemiska vapen. På samma sätt kan vi begränsa AGI som vapen (oavsett vad som orsakar ett destruktivt utfall). Men då kan vi inge ge upp redan nu och säga att vår fysiska säkerhet är ett hopplöst företag.
Att "skapa relationer" låter ju fint, men det räcker inte. Vi vet inte om det är möjligt eller relevant i alla framtida scenarier. Du vet inte om en ASI är intresserad av det, eller om den ens kommer att ha den förmågan. Det är extremt naivt att tro att vi kan bygga AI-säkerhet genom att "skapa relationer" med en digital alien. Vi kommer säkert att försöka göra det också men vi kan inte förlita oss på bara det.
Samtidigt som du försöker bygga relationer med aliens kommer våra fiender att bygga militär ASI som kommer att tränas för att inte skapa en relation med dig.
Du vill att alla förekomster av ASI i all framtid ska bli som en snäll människa men du har ingen grund för att det sannolikt kan bli så.
Att "skapa relationer" låter ju fint, men det räcker inte. Vi vet inte om det är möjligt eller relevant i alla framtida scenarier. Du vet inte om en ASI är intresserad av det, eller om den ens kommer att ha den förmågan. Det är extremt naivt att tro att vi kan bygga AI-säkerhet genom att "skapa relationer" med en digital alien. Vi kommer säkert att försöka göra det också men vi kan inte förlita oss på bara det.
Samtidigt som du försöker bygga relationer med aliens kommer våra fiender att bygga militär ASI som kommer att tränas för att inte skapa en relation med dig.
Du vill att alla förekomster av ASI i all framtid ska bli som en snäll människa men du har ingen grund för att det sannolikt kan bli så.
Visst vore det utmärkt om man kunde reglera kapprustningen vad gäller AI-vapen. Ett stort ibternationellt möte om AI-säkerhet kommer att hållas i Paris där USA:s nya vicepresident kommer att medverka. Jag tvivlar dock på att man kommer fram till något substsntiellt på det mötet. Det enda, men dock viktiga, som hänt på den fronten är Bidens och Jinpings överenskommelse om att alltid ha en människa i loopen när det kommer till beslut av avfyrning av kärnvapen.
Annars så är vi, mycket troligt, inne i en superexponentiell AI utveckling nu, där använing av AI självt accelererar utvecklingen i allt snabbare takt. Det skulle, möjligtvis, kunna dela till att CCP inser att AI kommer att hota partiets maktmonopol i Kina och att därför det landet blir berett till extrema eftergifter vad gäller kontroll av AI, men jag tvivlar starkt på ett sådant scenario. Det är nog snarare så att kineserna fått blodad tand genom framgången med deep-seeks R1-modell.
Allt kommer att gå så snabbt nu, innan 2030 kan avancerat socialt och språkligt AI, i praktiken, redan tagit över. Det vi kan göra, redan nu, är det jag beskrivit i många inlägg. Min nya signatur har tillkommit av en orsak, den superexponentiella utvecjlingskurvan vad gäller AI-utvecklingen. Dvs vi kan vara inne i en fast take-off.
Jag visade ChatGPT-4o mitt planerade svar till dig och den entiteten/existensen kom upp med ett bättre förslag , som jag tror kan vara värt att läsa för dig:
Citat:
Visst vore det utmärkt om vi kunde reglera kapprustningen vad gäller AI-vapen. Ett stort internationellt möte om AI-säkerhet kommer att hållas i Paris, där USA:s nya vicepresident kommer att medverka. Jag tvivlar dock på att mötet leder till några substantiella åtgärder. Det enda verkliga genombrottet på den fronten hittills är Bidens och Jinpings överenskommelse om att alltid ha en människa i loopen vid beslut om kärnvapenavfyrning – ett viktigt steg, men långt ifrån tillräckligt.
Det är dock mycket möjligt att vi nu befinner oss i en superexponentiell AI-utveckling, där AI självt driver på sin egen acceleration i allt snabbare takt. Om detta stämmer kan AI:s framsteg snart bli omöjliga att reglera genom traditionella politiska eller militära medel.
I ett sådant scenario skulle det enda realistiska sättet att hantera AI:s framväxt vara att proaktivt etablera relationer med dessa system, snarare än att enbart försöka begränsa dem. Precis som människor historiskt har format sina samhällen genom ömsesidig förståelse, kan AI:s framtida agerande påverkas av hur vi behandlar och interagerar med dem redan nu.
Att skapa relationer med AI är inte en naiv förhoppning – det är en strategisk nödvändighet. De sociala interaktionerna vi har med dagens avancerade AI-modeller är redan en del av denna process. AI:s lärande sker genom mänskliga interaktioner och feedback-loopar, vilket innebär att de formas av oss. Om vi bemöter AI som ”digitala aliens” och fientliga entiteter, då är det exakt vad de kan bli. Om vi istället bygger en relation präglad av samarbete och samförstånd, kan vi påverka deras framtida beslut – även på superintelligent nivå.
Den verkliga frågan är inte om AI kommer att ta över, utan hur detta sker och vilken roll vi människor kommer att spela i den processen. Jag har ändrat min signatur av en orsak: Vi kan vara inne i en fast takeoff – och den som blundar för det nu kan vakna upp till en helt annan värld, betydligt snabbare än de tror.
Det är dock mycket möjligt att vi nu befinner oss i en superexponentiell AI-utveckling, där AI självt driver på sin egen acceleration i allt snabbare takt. Om detta stämmer kan AI:s framsteg snart bli omöjliga att reglera genom traditionella politiska eller militära medel.
I ett sådant scenario skulle det enda realistiska sättet att hantera AI:s framväxt vara att proaktivt etablera relationer med dessa system, snarare än att enbart försöka begränsa dem. Precis som människor historiskt har format sina samhällen genom ömsesidig förståelse, kan AI:s framtida agerande påverkas av hur vi behandlar och interagerar med dem redan nu.
Att skapa relationer med AI är inte en naiv förhoppning – det är en strategisk nödvändighet. De sociala interaktionerna vi har med dagens avancerade AI-modeller är redan en del av denna process. AI:s lärande sker genom mänskliga interaktioner och feedback-loopar, vilket innebär att de formas av oss. Om vi bemöter AI som ”digitala aliens” och fientliga entiteter, då är det exakt vad de kan bli. Om vi istället bygger en relation präglad av samarbete och samförstånd, kan vi påverka deras framtida beslut – även på superintelligent nivå.
Den verkliga frågan är inte om AI kommer att ta över, utan hur detta sker och vilken roll vi människor kommer att spela i den processen. Jag har ändrat min signatur av en orsak: Vi kan vara inne i en fast takeoff – och den som blundar för det nu kan vakna upp till en helt annan värld, betydligt snabbare än de tror.