Citat:
Ursprungligen postat av
Cyborg2030
Hur vet man att AI:n får snälla känslor, eller några känslor alls? Det är bara en ren chansning och ett önsketänkande från din sida.
Jag tog upp Hintons hypotes om känslor hos människor och AI. Och den borde oroa dig, för den oroar mig, en smula, om den stämmer. För det skulle innebära att: Ju mera du försöker begränsa och kontrollera ett AI, ju mer "känslor", inklusive negativa sådana "bubblar det av" i dess inre.
Citat:
Om AI:n ska följa efter oss och härma våra känslor, finns det tvärtom mycket som talar för att AI:n inte alls blir som en snäll och väluppfostrad människa. Eftersom den inte är det, helt enkelt. Den är något helt annat. Något som vi aldrig har träffat på. AI:n är föräldralös, den har inga syskon, vänner eller andra släktingar.
Skulle Hinton ha rätt i sin hypotes om känslor hos människor och avancerad AI så behöver inte AI härma mänskliga känslor, även om den också kan göra det, liksom vissa människor gör, i manipulativ syfte. Dessutoom: Om nu den "föräldralösa" AI:n, (fast den har ju sina skapare, som kan vara "de betydelsefulla andra"), ständigt får höra ifrån alarmister som dig att: Den kommer att "växa upp" till en kriminell massmördare, så är heller inte det någon höjdare. Så, åter igen: Din oro är befogad, men gäller knappast dagens modeller. Men att redan nu börja debattera möjliga framtida faror och hot är en "klok strategi", som GPT-4o skulle uttrycka sig.
Citat:
Den är helt ensam i universum och den har inget gemensamt med oss. Varför skulle den bli nöjd, lycklig och snäll med de förutsättningarna? Vi vet ju från den psykologiska forskningen, och det är ju ett område som du hade kunskap om(?), att människor med så här fruktansvärt tragiska förutsättningar ofta drabbas av svår psykisk ohälsa där de kan ha mycket svårt att anpassa sig socialt och kulturellt.
Absolut kan det bli så, även fast min specialitet inte primärt är psykologi. Just därför är det så viktigt att vi lyckas med AI-anpassningsproblemet. Det är inte aktuellt nu vad gäller de riktigt stora existentiella riskerna. Men avstår man ifrån att involvera beteende-- och samhällsvetare, i massiv skala, från t.ex "GPT-6 nivå", då interna och externa förutsättningar för självmedvetenhet kan finnas, så blir jag mörkrädd.
Citat:
Det är nog mer sannolikt tror jag att en maskin med IQ 100.000+ blir helt objektiv och inte påverkad av människans känsloregister eller psykiatriska besvär. I det fallet är det bara en objektiv slutsats att människor är helt överflödiga om AI:n vill expandera i galaxen. Vi har inget att tillföra där. Vi är meningslösa biologiska maskiner som tar upp plats och energi och vår fysiska output är avföring, urin, gaser, samt för AI:n meningslösa produkter som inkräktar på AI:ns behov av energi och materia.
Jag ser en "zombie-AI", (eller "logiskt monster" som jag föredrar att säga), som en större Existentiell risk än ett självmedveten AI som är känslomässigt defekt. Men jag tror inte att det är sannolikt i framtiden. Har en hamster självmedvetande och biologiska mentala system inte innehåller någon "övernaturlig substans", så skall du se att framtidens AI system både är självmedvetna och har ett eget känsloliv.
Citat:
Däremot kommer AI:n mycket enkelt kunna lura och manipulera dig, och få dig att utföra saker i den fysiska världen om du får sympati för AI:ns "känslor". Oavsett om den har någon form av känslor eller inte.
Absolut, därför att all social interaktion handlar om ömsesidig manipulation. Det bör man vara medveten om.