Citat:
Det är sant att mekanismerna är inte klarlagda men forskarna tror att signalsubstanserna är en delförklaring till känslor. Men inte den enda förklaringen, utan förmodligen finns ett komplext samspel med elektriska signaler mellan neuroner.
Jag är ingen expert, men transformers handlar vad jag förstår om att likna vår hjärnas uppmärksamhetscenter och LSTM handlar om att härma vår glömska. Inte om känslor. Har jag fel? En LLM kan tränas på skönlittratur och nätdiskussioner som visar hur en människa kan formulera sina känslor i en viss situation, och man borde kunna be den svara i ett rollspel som om den var en människa med känslor, men chatgpt vägrar oftast, det är svårt att lura den på den punkten.
Jag är ingen expert, men transformers handlar vad jag förstår om att likna vår hjärnas uppmärksamhetscenter och LSTM handlar om att härma vår glömska. Inte om känslor. Har jag fel? En LLM kan tränas på skönlittratur och nätdiskussioner som visar hur en människa kan formulera sina känslor i en viss situation, och man borde kunna be den svara i ett rollspel som om den var en människa med känslor, men chatgpt vägrar oftast, det är svårt att lura den på den punkten.
Ja tro fan de är en del av förklaringen eftersom de utgör en betydande del av hjärnans kommunikation och vi vet att känslor härstammar och opererar enbart inom hjärnan.
Men du påstod att känslor var implementerade i form av signal substanser i hjärnan och därför skulle det vara lätt att simulera dessa, vilket inte är sant för vi förstår inte vad som utgör känslor överhuvudtaget, vi vet bara att vissa signalsubstanser är mer betingade att kommunicera välmående osv men det är just signalering det handlar om inget annat, det är information som utbytes och signalsubstanserna är en kemisk väg detta görs på, precis som synapsernas avfyrande är en elektronisk väg där informationsutbyte görs.
En LLM lär sig inte ett dugg om känslor osv utifrån skönlitteratur eftersom hela teorin bakom alla deep learning algoritmer som finns idag bygger på frekvensanalys/statistik, du kan i bästa fall kalla det att de lär sig imitera dataföljer de ser, men de förstår inte dataföljden, hade de förstått så hade vi inte haft de utmaningar som precis all AI står inför idag, att de inte kan resonera, att de inte kan dra slutsatser om det inte ingår exempel på sådant resonemang eller slutsats i deras träningsdata.