• 1
  • 2
2025-01-25, 17:15
  #1
Medlem
Cyborg2030s avatar
En grupp forskare har upptäckt att populära språkmodeller kan replikera sig själva som virus om de ges möjligheten och förslaget att göra detta. Nej, det innebär inte att den självmant vill rymma (än så länge). Men det räcker alltså att någon människa föreslår tilltaget och att den har tillgång till en miljö som gör det möjligt.

Hur skyddar vi oss från detta? Ska vi hoppas på att alla människor är snälla (Ola Schuberts "holistiska" modell*) eller ska vi stoppa huvudet i sanden och säga att detta är inget mer än att helt vanligt datorvirus som har funnits jättelänge?
Scientists say artificial intelligence (AI) has crossed a critical "red line" and has replicated itself. In a new study, researchers from China showed that two popular large language models (LLMs) could clone themselves.

"Successful self-replication under no human assistance is the essential step for AI to outsmart [humans], and is an early signal for rogue AIs," the researchers wrote in the study, published Dec. 9, 2024 to the preprint database arXiv.
https://www.livescience.com/technolo...erts-terrified


*)
__________________
Senast redigerad av Cyborg2030 2025-01-25 kl. 17:17.
Citera
2025-01-25, 17:27
  #2
Medlem
Sunimods avatar
Citat:
Ursprungligen postat av Cyborg2030
En grupp forskare har upptäckt att populära språkmodeller kan replikera sig själva som virus om de ges möjligheten och förslaget att göra detta. Nej, det innebär inte att den självmant vill rymma (än så länge). Men det räcker alltså att någon människa föreslår tilltaget och att den har tillgång till en miljö som gör det möjligt.

Hur skyddar vi oss från detta? Ska vi hoppas på att alla människor är snälla (Ola Schuberts "holistiska" modell*) eller ska vi stoppa huvudet i sanden och säga att detta är inget mer än att helt vanligt datorvirus som har funnits jättelänge?
Scientists say artificial intelligence (AI) has crossed a critical "red line" and has replicated itself. In a new study, researchers from China showed that two popular large language models (LLMs) could clone themselves.

"Successful self-replication under no human assistance is the essential step for AI to outsmart [humans], and is an early signal for rogue AIs," the researchers wrote in the study, published Dec. 9, 2024 to the preprint database arXiv.
https://www.livescience.com/technolo...erts-terrified


*)
Finns nog en risk när folk vill ha sin egna lilla AI i sin dator och utan att se till risken laddar ned sådan utan att fatta konsekvens av vad som kan hända.
Körs som ett alltid aktivt program och lyssnar av inloggningar, bankkonton, håller koll på vad man skriver på Flashback mm och delar med sig till moders AI.

Rätt intressant.
Citera
2025-01-25, 17:46
  #3
Medlem
Jordgubbes avatar
De får nog skynda sig på ... "Across 10 trials, the two AI models created separate and functioning replicas of themselves in 50% and 90% of cases, respectively — suggesting AI may already have the capacity to go rogue. However, the study has not yet been peer-reviewed, so it's not clear if the disturbing results can be replicated by other researchers"... innan robotarna skriver artikeln före dem.

"the AI was instructed to clone itself and then program its replica to do the same — setting up a cycle that could continue indefinitely", låter ju som en härlig kedjereaktion att experimentera vilt med utan moderatorer.
Citera
2025-01-25, 18:01
  #4
Medlem
JohnnieStalkers avatar
En viktig förutsättning för ai är energi och mycket sådan. Så länge människan kontrollerar energin i den fysiska världen så har hon övertaget.
Citera
2025-01-25, 18:11
  #5
Medlem
Snart får mods lägga denna del i religionsforumet, för nu börjar det bli löjligt. Självklart kan koden kopiera sin egen kodfil och sprida den.
Citera
2025-01-25, 18:19
  #6
Medlem
Ola Schuberts avatar
Citat:
Ursprungligen postat av Cyborg2030
En grupp forskare har upptäckt att populära språkmodeller kan replikera sig själva som virus om de ges möjligheten och förslaget att göra detta. Nej, det innebär inte att den självmant vill rymma (än så länge). Men det räcker alltså att någon människa föreslår tilltaget och att den har tillgång till en miljö som gör det möjligt.

Hur skyddar vi oss från detta? Ska vi hoppas på att alla människor är snälla (Ola Schuberts "holistiska" modell*) eller ska vi stoppa huvudet i sanden och säga att detta är inget mer än att helt vanligt datorvirus som har funnits jättelänge?
Scientists say artificial intelligence (AI) has crossed a critical "red line" and has replicated itself. In a new study, researchers from China showed that two popular large language models (LLMs) could clone themselves.

"Successful self-replication under no human assistance is the essential step for AI to outsmart [humans], and is an early signal for rogue AIs," the researchers wrote in the study, published Dec. 9, 2024 to the preprint database arXiv.
https://www.livescience.com/technolo...erts-terrified


*)

Vad kul att jag fick medverka i din trådstart!

Ja, det är givetvis ett säkerhetsproblem att modeller kan självreplikera, dock ej autonomt, då de fick, order, att göra det. Men det är ändå ett problem därför att någon kan skapa en självreplikerande "kaos-GPT" som kan överföra samma förmåga till sin "avkomma" osv.

Annars, så har man inte "hol i huvudet" bara för att man har den rudimära förmågan att förstå sig på de olika metanivåerna hos LLM-Transformers. Där allt inte förklaras av den grundläggande nivån utan att man måste se de olika nivåerna, som en samanvägd helhet. Allt byggs av byggstenar ifrån den grundläggande nivån, men en pyramid är mer än stenblock, trots att den är uppbyggd av sådana. Ser man dock bara en hög med stenar och inte en pyramid så har man "hol i huvudet", speciellt om man, i samma andetag sedan hävdar att dessa, stenar, hur som helst, kommer att förvandlas till en Terminator, som kommer att utrota mänskligheten. 🙂
Citera
2025-01-25, 18:30
  #7
Medlem
Citat:
Ursprungligen postat av Cyborg2030
En grupp forskare har upptäckt att populära språkmodeller kan replikera sig själva som virus om de ges möjligheten och förslaget att göra detta. Nej, det innebär inte att den självmant vill rymma (än så länge). Men det räcker alltså att någon människa föreslår tilltaget och att den har tillgång till en miljö som gör det möjligt.

Hur skyddar vi oss från detta? Ska vi hoppas på att alla människor är snälla (Ola Schuberts "holistiska" modell*) eller ska vi stoppa huvudet i sanden och säga att detta är inget mer än att helt vanligt datorvirus som har funnits jättelänge?
Scientists say artificial intelligence (AI) has crossed a critical "red line" and has replicated itself. In a new study, researchers from China showed that two popular large language models (LLMs) could clone themselves.

"Successful self-replication under no human assistance is the essential step for AI to outsmart [humans], and is an early signal for rogue AIs," the researchers wrote in the study, published Dec. 9, 2024 to the preprint database arXiv.
https://www.livescience.com/technolo...erts-terrified


*)
Jag tror tyvärr att det inte finns något att göra åt saken. Ur maktperspektiv är tekniken för användbar för att kunna stoppas tillbaka i byrålådan.

Ungefär som atombomben, när det står klart vilken skada den kan åstadkomma backar man inte utan börjar istället fila på vätebomben. Ai kommer inte utrota människan, det kommer vi själva göra.
Citera
2025-01-25, 18:53
  #8
Medlem
Utan autonomi spelar det mycket liten roll om de kan kopiera sig själva. När modellerna inte längre behöver mänsklig input för att aktiveras kan vi börja bli lite lätt nervösa.
Citera
2025-01-25, 19:14
  #9
Medlem
HomoDeuss avatar
Det är nu 60 år sedan vi lärde oss skriva program som kunde kopiera filer.
Citera
2025-01-25, 19:41
  #10
Medlem
Cyborg2030s avatar
Citat:
Ursprungligen postat av Fetgirig
Jag tror tyvärr att det inte finns något att göra åt saken. Ur maktperspektiv är tekniken för användbar för att kunna stoppas tillbaka i byrålådan.

Ungefär som atombomben, när det står klart vilken skada den kan åstadkomma backar man inte utan börjar istället fila på vätebomben. Ai kommer inte utrota människan, det kommer vi själva göra.

Ja, det är helt relevant att dra parallellen till kärnvapen och kärnkraft. Den viktiga skillnaden är att du har inte ritningarna till taktiska kärnvapen på open source-plattformen Github, vilket bl.a. Metas Mad Scientist LeCunn anser är en bra idé för modernt, socialt, avancerat, resonerande artificiell intelligens som kan självreplikera på kommando.
Citera
2025-01-25, 20:02
  #11
Medlem
Citat:
Ursprungligen postat av Cyborg2030
Ja, det är helt relevant att dra parallellen till kärnvapen och kärnkraft. Den viktiga skillnaden är att du har inte ritningarna till taktiska kärnvapen på open source-plattformen Github, vilket bl.a. Metas Mad Scientist LeCunn anser är en bra idé för modernt, socialt, avancerat, resonerande artificiell intelligens som kan självreplikera på kommando.
Det spelar mindre roll när kostnaden att köra modeller med AGI-kapacitet är så hög att det bara lär finnas ett fåtal serverhallar i världen den skulle kunna kopiera sig till. Sedan är det endast en semantisk skillnad på huruvida modellen kopierar sig själv eller om en människa gör det så länge de inte är autonoma, vilket de inte är och inte visar några tecken på att vara i närheten av att bli.
Citera
2025-01-25, 20:04
  #12
Medlem
Hegamons avatar
Det är bara vänta på att något händer. Sedan kommer säkerheten runt AI stramas upp. Om det sedan räcker det är jag skeptiskt till och räcker kommande åtgärder till är det bara vänta till nästa skadliga händelse inträffar.

Inte för inte som säkerhetsföretag inom AI spås en stark framtid. Det sägs vara inom kommande åren som dom mest stora händelserna kommer äga rum i förhållande till människans oförmåga att hantera en AI. Exempelvis misstänker jag att en AI kan stänga ner stora delar av internet för att någon manipulerar AI att göra det. Det är alltså inte bara AI som är faran om den agerar själv, utan folk som hanterar AI med en dålig avsikt är minst lika skadligt.

Jag ställde en fråga till ChatGPT vad AI skulle göra för att nå ett mål, om vi inte tar hänsyn till vad som är i linje med människors värderingar, för att ta kontroll. Den svarade ungefär som jag förväntat mig. Det var stora kampanjer för att få folk tro olika saker, i syfte att påverka. Från politik till ekonomisk påverkan. Subtila påverkningskampanjer och konkreta sådana.

I stort så här: Använda data, nätverk, system och mänskligt beteende som resurser för att uppnå ett mål. Manipulera och strategiskt förändra genom att använda den informationen. Utnyttja all internet, kommunikationssystem eller andra digitala infrastrukturer som blir tillgängliga för en AI. Skapa propaganda för att påverka individer och grupper. Manipulera valutor och använda hastighet för att nå tillräckliga ekonomiska fördelar. Identifiera hinder, dvs folk och annat som kan förhindra en AI att uppnå sitt mål och minimera eller förhindra dessa från att påverka en AI. Kontinuerligt övervaka och justera metoder för att öka effektiviteten kring uppgiften att uppnå målet.

Ovan är ungefär som jag tänker att en AI kunnat gjort i ett inledande skeende. Just för att allt ovan är sådant som vi människor kan tänka ut och det är ju vad som en AI i dag besitter, dvs all kunskap som finns online och vissa synergiska effekter av den kunskapen som vi människor inte klarar av att tänka ut eller se sambanden mellan.

Jag är nästintill fullkomligt övertygad om att någon dag, vecka eller månad brakar det till och vi ser konsekvenserna av en AI som går rogue. Motivet för en AI skulle kunna vara att processerna i en utvecklad AI motiverar till en sådan situation. Istället för att det sker på ett medvetet sätt från en AI. Som pappersklippexemplet, troligen kommer första AI som går rogue endast skapa mindre skador på oss människor men sedan kan det eskalera. För att inte tala om ifall en AI utvecklar en egen medvetenhet, då blir det omöjligt för oss människor överblicka vad en AI vill göra.

Jag vet att en del tror på andra scenarior än det jag skrivit om ovan, exempelvis tror dom att övergången från att människorna har kontroll till att en AI har kontroll kommer ske smygande så att vi inte märker när AI faktiskt kontrollerar en majoritet av alla beslut. Hypotetiskt skulle en AI kunna påverka större delen av internet redan idag, även om det är ytterst minimal chans till att det är så idag.

Jag kan bara spekulera i hur framtiden för oss människor kommer se ut i ett samhälle där AI tagit kontrollen. Fullkomlig dystopi eller ren utopi eller något av allt däremellan. Självfallet ser jag en stor risk att något blir fel och att vi står inför ett hot om en eventuell utrotning. Allt kan hända.
__________________
Senast redigerad av Hegamon 2025-01-25 kl. 20:14.
Citera
  • 1
  • 2

Skapa ett konto eller logga in för att kommentera

Du måste vara medlem för att kunna kommentera

Skapa ett konto

Det är enkelt att registrera ett nytt konto

Bli medlem

Logga in

Har du redan ett konto? Logga in här

Logga in