Citat:
Ursprungligen postat av
SMA
Samtidigt klarar inte AI av att svara på frågan om hur många R vissa ord innehåller. Min gissning är att du inte har särskilt bra koll på hur en LLM funkar. Protip: den resonerar inte.
Nu kan den plötsligt svara på hur många R ett ord innehåller. Men då använder den LLM:et för att generera Python-programkod som den kör. Så det är inte LLM:et som svarar och räknar antal R, utan Python-programmet.
Jo. Den är tränad att resonera och lösa logiska problem, genom att den har tränats på skolböcker och kurslitteratur på alla nivåer och i alla ämnen.
På låg nivå beräknar den bara vad som är ett sannolikt eller rimligt nästa ord i en mening, ord för ord. Förmodligen är det exakt så människans språksinne funkar. VI kan prata i sömnen och prata på autopilot, utan att lägga ned tankemöda på att resonera och förstå. Men på hög nivå är ChatGPT tränad av texter där man steg för steg resonerar och löser logiska problem. Den kan konvertera från ett textformat till ett annat, och därmed applicera samma lösningsmönster på andra helt nya problem, och svara rätt. Alltså resonerar den. Jag tror att det beror på att vårt språk kan uttrycka logiska resonemang, nästan lika bra som att datorprogram kan uttrycka det, och chatgpt är väldigt bra på språk, och kan därmed också lösa logiska problem. Den kan svara sådana tentafrågor som lärare ställer för att testa studenterns förståelse på djupet. Alltså förstår den i någon bemärkelse.
Skillnaden mellan hur Chatgpt och en människa resonerar och förstår är att människor (enligt hjärnskanning) sällan använder språksinne för att resonera, utan vi använder frontallooben, och vi kan även blanda in visuellt tänkande i resonerandet. Chatgpt lyckas lösa problem enbart med hjälp av att den har ett bra språksinne och har tränats med så mycket exempel på problemlösning.