Deras senaste artikel:
https://openai.com/blog/our-approach-to-ai-safety
Sammanfattat av GPT-4:
OpenAI arbetar aktivt fr att skerstlla att kraftfull AI r sker och gagnar alla. Organisationen inser att deras AI-verktyg, ssom ChatGPT, kan ka produktiviteten och kreativiteten hos anvndare, men ocks medfra risker. Fr att hantera dessa risker bygger de in skerhet p alla niver av systemet.
De testar grundligt sina AI-system innan de lanseras och arbetar med att frbttra deras beteende, samtidigt som de engagerar externa experter fr feedback. OpenAI anser att AI-system ska vara freml fr strikta skerhetsbedmningar och verkar fr en reglering som garanterar sdana metoder.
Eftersom det r svrt att frutse alla frdelar och missbruk av tekniken, r det viktigt fr OpenAI att lra av verkliga anvndningsscenarier och successivt frbttra AI-systemens skerhet. Detta grs genom att frsiktigt och gradvis slppa nya AI-system fr en allt bredare grupp anvndare.
OpenAI har fokus p att skydda barn och har policyer som frhindrar att deras teknik anvnds fr att skapa olmpligt eller skadligt innehll. De arbetar ocks med att frbttra den faktiska korrektheten hos sina AI-modeller, med en frbttring p 40 % i faktakorrekthet mellan GPT-3.5 och GPT-4.
Respekt fr anvndarnas privatliv r ocks centralt fr OpenAI. Organisationen arbetar fr att ta bort personlig information frn trningsdata och svarar p begranden om borttagning av personuppgifter.
OpenAI menar att det krvs mer forskning, samarbete och engagemang fr att lsa AI-skerhetsproblem. De r fast beslutna att bidra till att skerstlla att AI-utveckling och anvndning r effektivt reglerad p global niv, fr att undvika att skerhet offras fr att f frsprng.