Citat:
Åter igen verkar det som att du bygger upp ett psykologiskt försvar med halmgubbar. "AI:n kan manipulera oss, men bara om den spekulativa sci-fi hypotesen om ruliaden stämmer. Annars är vi safe"?
Detta stämmer naturligtvis inte.
Vi kan redan i dag bli manipulerade av AI:s. Initiativet kan komma från en människa som producerar fake news med deep fakes o dyl. Men än värre kan vi aldrig utesluta att LLM:s manipulerar oss, vare sig det görs med illvilja eller på grund av en AI-hallucination, en "bugg" i språkmodellen som ingen människa förstår på djupet.
När AI:n blir mer avancerad, vilket är en tidsfråga, kommer den att ha förmågan att manipulera dig på nya sätt som du aldrig kan föreställa dig. Ditt stora intresse för pseudovetenskap underlättar inte för dig i detta avseendet.
Detta stämmer naturligtvis inte.
Vi kan redan i dag bli manipulerade av AI:s. Initiativet kan komma från en människa som producerar fake news med deep fakes o dyl. Men än värre kan vi aldrig utesluta att LLM:s manipulerar oss, vare sig det görs med illvilja eller på grund av en AI-hallucination, en "bugg" i språkmodellen som ingen människa förstår på djupet.
När AI:n blir mer avancerad, vilket är en tidsfråga, kommer den att ha förmågan att manipulera dig på nya sätt som du aldrig kan föreställa dig. Ditt stora intresse för pseudovetenskap underlättar inte för dig i detta avseendet.
Citat:
Det du skriver om dagens LLM är, de facto, pseudovetenskap! Modellerna aktiveras av en användares prompt och dess hela, aktuella "värld" består, enbart, av aktuell chat-tråd och i förekommande fall Custom Instructions, samt nu de minnen användare vill att Chatt-GPT-4 skall komma ihåg. En sådan modell kan, omöjligt "smida lömska planer, vara medveten, och, naturligtvis saknar dessa modeller autonomi. Men det är dagens modeller, jag utesluter ingenting för framtiden.
I övrigt så nämner du säkerhetsproblem som man redan jobbar med.