Citat:
Ursprungligen postat av
OliverCromwell
Klaus Schwab från World Economic Forum (WEF) i Davos har deklarerat att politiska val eller folkomröstningar inom en mycket snar framtid kommer inte längre att behövas pga AI programmering som kommer att kunna ge oss lösningar och svaren till allt. Allt blir mer enkelriktad då vi på förhand kan förutse resultat och vad de sedan leder till.
https://rumble.com/v12rbrh-klaus-sch...-need-for.html
Vad blir det för valsystem eller statsskick som då skulle ersätta de västerländska demokratierna?
Som jag tolkade klippet (3 min) menar han att vi ska kunna använda AI för rösträkning, inte ersätta våra representanter. Men kan såklart ha fel. Hur som helst, din frågeställning är intressant. Jag ser dock detta som omöjligt idag och inom en överskådlig framtid.
1. AI som kan ersätta den mänskliga hjärnan finns inte idag. AI har fortfarande svårt att se skillnad mellan ex. en banan och ett gult övergångställe, eller en båt och en husbil. AI idag fungerar mycket bra när det kommer till att lagra och återge relevant information. Men AI saknar generell intelligens, är inte självmedveten eller besitter förståelse för nyanser, till skillnad från människan. Testa bara att chatta med en AI-bot, det tar inte många meddelanden innan man inser att "varelsen" man chattar med har 0 förståelse för vad man menar.
2. Även
om AGI (artificiell generell intelligens) fanns idag, så betyder det inte att den ska ersätta våra demokratiska val. Att tro detta är att göra sig skyldig till det klassiska naturalistiska felslutet. Bara för att någonting
är möjligt, så betyder det inte att vi
bör göra det.
3. Om vi ska ersätta folkviljan med en AI-maskin, vem ska programmera den? Antagligen ett företag, som självfallet kommer ha sina särintressen. De skulle ju aldrig programmera en AI som kom fram till att vi behöver höga arbetsgivaravgifter, bolagslagsskatter etc..
Utan såklart kommer denna AI-maskin vara väldigt kapitalistisk i sina beslut.
4. Någon form av moral måste programmeras in i denna AI-maskin. Ska den utgå från en utilitaristisk kalkyl varje gång den fattar ett beslut? Eller ska den ta hänsyn till människovärdet och aldrig trampa över vissa oinskränkta värden? Ska den ta hänsyn till kulturella skillnader eller utgå från en universal moral? Vi kanske inte vill ha en AI som kommer fram till mänskligheten är ett problem (även om så är fallet rent objektivt).
I övrigt tycker jag denna AI-diskussion är lite tramsig hehe.. Vi har fortfarande inte självkörande bilar (som faktiskt kan köra själva överallt), vi kanske ska börja med det.