4) Når begynte forskere å bekymre seg over kunstig intelligens? Forskere har tenkt på potensialet til AI siden de første dagene i datamaskinens historie. I
den berømte artikkelen hvor han la frem "the Turing test" for å avgjøre om et kunstig system er virkelig "intelligent", skrev Alan Turing:
"
Let us now assume, for the sake of argument, that these machines are a genuine possibility, and look at the consequences of constructing them. ... There would be plenty to do in trying to keep one's intelligence up to the standards set by the machines, for it seems probable that once the machine thinking method had started, it would not take long to outstrip our feeble powers. … At some stage therefore we should have to expect the machines to take control."
I.J. Good jobbet tett med Turing og nådde de samme konklusjonene,
i følge assistenten hans, Leslie Pendleton. I et utdrag av noen upubliserte notater som Good skrev før han døde i 2009, skriver han om seg selv i tredjeperson og bemerker en uenighet med sitt yngre selv — da han var yngre, trodde han at kraftige AI-systemer kunne være nyttige for oss, men den eldre Good forventet at AI kom til å bli slutten på oss:
[Notatene] "Speculations Concerning the First Ultra-intelligent Machine (1965) ... began: 'The survival of man depends on the early construction of an ultra-intelligent machine.' Those were his words during the Cold War, and he now suspects that 'survival' should be replaced by 'extinction.' He thinks that, because of international competition, we cannot prevent the machines from taking over. He thinks we are lemmings. He said also that 'probably Man will construct the deus ex machina in his own image.'" I det 21. århundre har datamaskiner raskt etablert seg som en transformativ kraft over hele kloden, og dette har vekket bekymring også hos yngre forskere.
Nick Böstrom er
professor ved University of Oxford, hvor han er leder for Future of Humanity Institute og deres Governance of Artificial Intelligence-program. Han forsker på
farer for menneskeheten, både i det abstrakte — som hvorfor vi tilsynelatende er alene i universet — og i mer konkrete baner, slik som å analysere teknologiske fremskritt og om de utgjør en trussel for oss. AI, konkluderte han, utgjør en trussel for oss.
I 2014
skrev han en bok hvor han forklarte risikoen vi kan forvente oss av å fortsette å utvikle generell AI, og om nødvendigheten av å gjøre det rett i første omgang. Han konkluderte at
"once unfriendly superintelligence exists, it would prevent us from replacing it or changing its preferences. Our fate would be sealed." Over hele verden har andre
kommet til samme konklusjon. En
medforfatter til Boström, AI-forsker Eliezer Yudkowsky, er grunnlegger av og forsker ved Berkeley Machine Intelligence Research Institute (MIRI) — en organisasjon som arbeider med å forbedre formelle karakteristikkerer av AI-sikkerhetsproblemet.
Yudkowsky startet karrieren sin ved å
stikke hull i andres forslag om hvordan man kan lage trygge AI-systemer, og har brukt mesteparten av den på å overbevise andre eksperter om at AI-systemer — i utgangspunktet — ikke vil være kompatibel med menneskelige verdier (ikke nødvendigvis i motsetning til, men likegyldig til menneskelige moralske verdier) — og at det vil være et stort teknisk problem å forhindre katastrofale utfall.
Forskere innså i økende grad at det kom til å bli ytterlige utfordringer som ikke var tilstede når AI-systemer var enkle.
"'Side effects' are much more likely to occur in a complex environment, and an agent may need to be quite sophisticated to hack its reward function in a dangerous way. This may explain why these problems have received so little study in the past, while also suggesting their importance in the future," konkluderte en
studie fra 2016 om problemer innen AI-sikkerhet.
Boströms bok
Superintelligence (2014) virket troverdig for mange, men det var også skeptikere. "
No, experts don't think superintelligent AI is a threat to humanity," hevdet en kronikk fra Oren Etzioni, en professor i datavitenskap ved Universitetet i Washington og direktør for Allan Institute for Artificial Intelligence. "
Yes, we are worried about the existential risk of artificial intelligence," svarte en opponerende kronikk av Stuart Russel, en pionér innen kunstig intelligens og professor ved UC Berkeley, og Allan DaFoe, en seniorforsker ved Oxford og direktør av programmet "Governance of AI" ved samme universitet.
Det er fristende å tro at dette er en spiss kamp med skeptikere på den ene siden og troende på den andre. Men i virkeligheten er ikke uenigheten så dyp som den ser ut til å være på overflaten.
Facebook sin ledende AI-forsker Yann LeCun, for eksempel, er en høylydt stemme på den skeptiske siden. Men selv om han
tror at vi ikke bør frykte AI, så tror han fortsatt at vi bør ha folk som arbeider med, og forsker på, AI-sikkerhet. Han poengterer at
"[e]ven if the risk of an A.I. uprising is very unlikely and very far in the future, we still need to think about it, design precautionary measures, and establish guidelines."Ikke at det betyr et det er konsensus blant eksperter i dette området — det er
langt fra tilfellet. Det finnes vesentlig uenighet om hvilke tilnærminger som mest sannsynlig bringer oss til generell AI, hvilke tilnærminger som mest sannsynlig bringer oss til
trygg generell AI, og hvor tidlig vi trenger å bekymre oss over noe av dette.
Mange eksperter er bekymret for at andre overselger feltet deres, og frykter det kan bety slutten på feltet når forventningene dabber av. Men uenigheten bør ikke tåke for en voksende konsensus: Dette er muligheter som er verdt å tenke over, investere i, og forske på, slik at vi har retningslinjer for når det trengs.