Citat:
Ursprungligen postat av
Cyborg2030
Men det är väl en ASI? Jag känner inte till någon människa som är smartare än nobelpristagarna i ämnena "biology, programming, math, engineering, writing, etc", alltså har vi att göra med en entitet som överskrider mänsklig förmåga med råge - en superintelligens.
Ja det beror som sagt på hur man väljer att definiera det, finns inget rätt eller fel. Mest tydligt om man t.ex. kollar på wikipedia under AGI:
"Artificial general intelligence (AGI) is a type of artificial intelligence (AI) that matches or surpasses human cognitive capabilities across a wide range of cognitive tasks"
Vissa anser då att AGI innebär att AI:n är "allmänt smart" inom flera olika områden, utan att nödvändigtvis behöva vara smartast. Där är vi såklart redan nu, då många modeller placerar sig på forskarnivå inom STEM-ämnen. Men dagens AI kan inte lösa rätt enkla pussel som en människa kan, klarar inte av att på egen hand utföra uppgifter som kräver flera efterföljande steg utan kompletterande input från en människa, och en hel del andra saker som en "normal" människa klarar av även utan hög intelligens. Så i mina ögon är AI fortfarande rätt smal / narrow, även om den börjar bli mycket kunnig inom dessa områden.
Lite samma sak med "a wide range of cognitive tasks" - menar man då en handfull, ett hundratal, eller i princip alla kognitiva uppgifter som en människa klarar av?
Eftersom AI är AI redan tycker jag att det kan vara bra för sakens skull att ha en mer konservativ definition av AGI för att verkligen kunna se att man har nått en ny "brytpunkt" i AI-utveckling. Att nästa o-modell från OpenAI placerar sig några snäpp högre i diverse STEM/kodningstester innebär egentligen inte att man har gjort några banbrytande upptäckter eller förbättringar, det handlar mer om att öka mängden data som går in i modellen som tränas (och eventuellt vissa optimeringar med t.ex. minneshantering för att kunna hantera denna mängd data effektivt).
Därför gillar jag att ha rätt distinkta krav för att kalla det AGI som också per definition då visar att utvecklarna har tagit konkreta steg som innebär att AI kommer att bli ett verktyg som påverkar hela samhället, inte bara forskare på universitet (krasst uttryckt).
Egentligen är det en irrelevant fråga om vi har nått AGI eller inte, det enda som spelar någon roll är hur modellerna fungerar och vad de kan användas till. Och, ännu viktigare, när uppnår vi en fungerande RL så att AI kan förbättra sig själv helt utan mänsklig intervention så att vi kan "låta datorn stå på" och bara vänta på att AI blir övermänsklig på alla sätt och vis.
Citat:
Ursprungligen postat av
Cyborg2030
Det finns väl i princip redan i dag möjligheten att sätta upp AI-agenter som jobbar automatiserat med att träna nya AIs. T.ex. anklagar Open AI nu Deepseek för att ottillåtet ha använt deras API för att träna sin nya AI:
DeepSeek vs OpenAI: Why ChatGPT maker says DeepSeek stole its tech to build rival AI
/../ OpenAI’s suspicions were initially aroused when Microsoft’s cybersecurity team identified unusual activity involving OpenAI’s API in late 2024. This activity included large-scale data scraping, where individuals linked to DeepSeek allegedly extracted vast amounts of information from OpenAI’s systems.
https://www.digit.in/features/genera...-rival-ai.html
Vilka fantastiska nya tekniska upptäckter krävs det egentligen för att det ska kunna bli möjligt att automatisera det här? Dra igång ett antal AI-agenter som jobbar med att förbättra nästa generations AIs. Förmodligen pågår det redan på stor skala.
Rekursiv inlärning finns i olika former idag, men jag vill påstå att vi inte har nått den punkt att AI kan vidareutveckla sig själv utan yttre hjälp. Annars hade vi som sagt hört extremt mycket mer om det. Det man normalt använder nu är "RLHF", eller "recursive learning from human feedback", där AI-modeller förvisso "tränar" men det är en människa som ger tummen upp eller tummen ner om de gjorde rätt, lite förenklat.
För att AI ska kunna förbättra sig själv autonomt på det sätt som krävs för att nå ASI krävs det en hel del saker. Dels måste modellen kunna skapa stora mängder användbar syntetisk data (det finns bara en begränsad mängd information i världen att träna på, så AI måste kunna skapa egen, ny information som den faktiskt blir smartare av att studera). Detta tror jag att man har klarat av nu, sägs det.
Jag anser även att modellen måste kunna se och förstå den fysiska världen (2D, 3D) samt kunna interagera med den. Sen är det långtidsminne/korttidsminne som så vitt jag vet inte är helt löst ännu. Ja, utan att gå in på massa detaljer (och jag är själv inte forskare inom AI så det är säkert mycket jag inte vet/är uppdaterad inom) tycker jag att det är många steg kvar innan ASI över huvud taget är möjligt. Därför tycker jag att AGI kan definieras på det sätt så att när vi når dit är ASI i princip oundvikligt, eftersom vi då har löst alla förutsättningar för att nå dit (förutom eventuellt RSL, om vi förtydligar skillnaden genom att kalla det recursive self-learning, d.v.s. utan hjälp, vilket även enligt denna strikta definition inte är ett krav för att kallas AGI).
Citat:
Ursprungligen postat av
Cyborg2030
Ja, de teoretiska möjligheterna är väldigt spännande. Men det har vi ju ingen glädje av om vi som art inte överlever ASI. Högsta prio borde vara att vi säkerställer vår övlerlevnad.
Och då är vi passande nog tillbaka på topic för trådstarten (som vi gled iväg från en bit)
Jag anser att det i princip är omöjligt att sätta upp ett regelverk som AI förhåller sig till, om man också utvecklar en så pass kapabel modell så att den når definitionen av ASI. En klassiker är gem-problemet (paperclip problem):
https://cepr.org/voxeu/columns/ai-and-paperclip-problem
Jag hoppas verkligen att vi lyckas få en aligned AI som tar hänsyn till sin omgivning och ser skyddandet av människor och vår livsstil som en obrytbar grundregel. Men jag kan också tänka mig att det inte krävs mycket för att det ska gå snett. Jag är alltför oinsatt för att förstå mig på hur man kan lösa detta, men det finns gott om forskare som jobbat heltid med denna fråga i flera år som fortfarande uttrycker stor oro över att problemet inte är löst.
Här är en intressant intervju med OpenAIs före detta chef för alignment som sa upp sig från sitt jobb för ungefär ett år sedan eftersom han ansåg att OpenAI inte tar frågan om aligment på tillräckligt stort allvar:
https://spectrum.ieee.org/the-alignment-problem-openai