Citat:
Ursprungligen postat av
Ola Schubert
Ok, herre nummer 2 var alltså inte Konstantine Arkouda, de tog bara upp hans rapport. Det borde jag förstått med tanke på hur oorganiserad intervjuaren var och antalet prenumeranter på kanalen.
Däremot så har nog målstolparna flyttats. En människa ifrån 1980 skulle bli oerhört imponerad av ChatGPT-4. I boken "Microdatorernas intåg" ifrån 1979 så blev man imponerade av oändligt mycket mindre. Själv blev jag imponerad bara av en kamera som sa "load film" när man tryckte på avtryckaren knappen, början av 1980-talet.
Självklart har målstolparna flyttats, det har det gjorts åtskilliga gånger i historien och det gäller inte enbart AI men i stort sett varje gång har folk trott datorn har mänskliga egenskaper, tex folk var helt förbluffade första gången en dator kunde prata, även om talsynthes funnits tidigare än datorerna.
Citat:
Ursprungligen postat av
Ola Schubert
Vad gäller synen på LLM så har jag dock svårt att se det hela som blott en statisk låda som manipuleras, (som du jämförde med i ett annat inlägg). Visst statisk på så sätt att parametrarna låses fast. Men flexibel innut i. Låt vara ej autonomt som den mänskliga hjärnan och ej lika flexibel. Mera som att modellen, på ett automatiskt sätt förmår ändra hålen i lådan där omgivningen försöker pressa in klossar, dock ej enligt någon plan och ytterst troligt ej medvetet.
Lådan är inte statisk, hålen är heller inte statiska det är just anledningen till att neurala nätverk löser uppgifter så mycket enklare än konventionella algoritmer, det var en väldigt förenklad förklaring men i grova drag är det så det fungerar när nätverket tränas.
3Blue1Brown har en serie som pedagogiskt förklarar det bättre (med riktiga nätverk)
https://www.youtube.com/watch?v=aircAruvnKk
Annars kan du bara googla/youtube:a på "universal approximation theorem"
Citat:
Ursprungligen postat av
Ola Schubert
Så vi är inte riktigt överrens där. Och ännu mindre inför framtiden, givet att systemet grundläggande funktion kan ändras. Och det behöver inte innebära att den blir en exakt kopia av den mänskliga hjärnan. Vår hjärna har många uppgifter som ett hypotetiskt AGI kan strunta i. Dels tror jag AI-utvecklingen kommer att gå väldigt snabbt de närmaste åren och dels så tror jag att LLM:s skapare blev genuint förvånade över modellernas förmåga att generalisera. Ja t.o.m geniet Ilyan Sutskrever blev tillfälligt lurad i februari 2022 då han skrev på Twitter att modellerna kunde ha någon form av medvetsnde.
https://twitter.com/ilyasut/status/1...258368?lang=en
Och sedan ändrade han sig:
https://twitter.com/ilyasut/status/1603454190432288770
Så jag som ej datavetare må vara förlåten om jag, ibland, blivit väl mycket imponerad och duperad.
AI utvecklingen har gått snabbt framåt eftersom det kommit väldigt bra hårdvara på senare år som har mycket beräkningskraft (och jag syftar inte på LLMs då, de har gått framåt pga både det men också för att transformers bra), denna trend kommer inte pågå i oändlighet.
Och gör inte GPT-4.5, Bard osv (eller vilka som nu kommer vara först till marknaden) osv rejäla framsteg så kommer in flödet från investerare sina dramatiskt snabbt.
Konkurrenterna ligger idag efter men Meta som tex gör Llama har släppt alla sina modeller som open source hittills och enligt egen ut sägo ska de fortsätta med det, deras nästa llama modell beräknas ha paritet med dagens GPT-4 och om inte OpenAI och/eller Google drar ifrån igen så kommer det inte längre finnas någon uppenbar spelare på marknaden med ett stort framtidshopp, samtidigt så är det massvis med små startups som experimenterar med liknande teknik och som kan komma från ingenstans med revolutionerande teknik, ska man gissa utifrån historien är det Google som borde vinna det här dock eftersom de sitter på enorma mängder data men framförallt så har deras AI projekt gjort stora framgångar med tekniker (var av transformers är en av dom), samtidigt är Bard just nu markant sämre än någon av OpenAIs produkter (och då var det ändå Bard som fick Blake Lemoine att gå till media och säga att Bard var medveten).
Men ut över det så är ett annat problem som Nvidias VD Jansen Haung upplyste om detta för något år sedan när 4000 serien lanserades, att dagarna då kunder fick markant förbättrad hårdvara var förbi (som en av argumenten till varför RTX4xxx var så mycket dyrare än föregående serier).
Det är ingen tvekan om att tekniken är användbar som den är, men det innebär inte att man behöver tillskriva den egenskaper den inte har.