Her er hvorfor forskere tror du burde være bekymret for kunstig intelligens

Her er hvorfor forskere tror du burde være bekymret for kunstig intelligens / Fremtidig Tech

I løpet av de siste månedene har du kanskje lest dekningen rundt en artikkel, medforfattet av Stephen Hawking, og diskuterer risikoen forbundet med kunstig intelligens. Artikkelen foreslo at AI kan utgjøre en alvorlig risiko for menneskeheten. Hawking er ikke alene der - Elon Musk og Peter Thiel er begge intellektuelle offentlige figurer som har uttrykt lignende bekymringer (Thiel har investert mer enn 1,3 millioner dollar for å undersøke problemet og mulige løsninger).

Dekningen av Hawking's artikkel og Musks kommentarer har vært, for ikke å legge for fint et poeng på det, litt jovial. Tonen har vært veldig mye 'se på dette rare at alle disse geeksene er bekymret.' Det er lite å tenke på ideen om at hvis noen av de smarteste menneskene på jorden advarsler deg om at noe kan være veldig farlig, kan det bare være verdt å lytte.

Dette er forståelig - kunstig intelligens som tar over hele verden lyder helt sikkert veldig merkelig og usannsynlig, kanskje på grunn av den enorme oppmerksomheten som allerede er gitt til denne ideen av science fiction-forfattere. Så, hva har alle disse nominelt sane, rasjonelle menneskene så spooked?

Hva er intelligens?

For å snakke om faren for Artifical Intelligence, kan det være nyttig å forstå hva intelligens er. For å bedre forstå problemet, la oss ta en titt på en leketøy-AI-arkitektur som brukes av forskere som studerer teorien om resonnement. Dette leketøyet AI kalles AIXI, og har en rekke nyttige egenskaper. Det er målene kan være vilkårlig, det skaleres godt med datakraft, og den interne designen er veldig rent og grei.

Videre kan du implementere enkle, praktiske versjoner av arkitekturen som kan gjøre ting som Pacman, hvis du vil. AIXI er produktet av en AI-forsker ved navn Marcus Hutter, uten tvil den fremste ekspert på algoritmisk intelligens. Det snakker han i videoen ovenfor.

AIXI er overraskende enkelt: den har tre kjernekomponenter: lærer, planner, og verktøyfunksjon.

  • De lærer tar i biter av biter som tilsvarer innspill om omverdenen, og søker gjennom dataprogrammer til den finner de som produserer sine observasjoner som utgang. Disse programmene tillater sammen å gi gjetninger om hvordan fremtiden vil se ut, bare ved å kjøre hvert program fremover og vektere sannsynligheten for resultatet etter programmets lengde (en implementering av Occam's Razor).
  • De planner søker gjennom mulige handlinger som agenten kan ta, og bruker lærermodulen for å forutsi hva som ville skje hvis det tok hver av dem. Det vurderer dem deretter i henhold til hvor gode eller dårlige de forutsagte utfallene er, og velger tiltak som maksimerer godheten til det forventede resultatet multiplisert med forventet sannsynlighet for å oppnå det.
  • Den siste modulen, verktøyfunksjon, er et enkelt program som tar i bruk en beskrivelse av en fremtidig tilstand i verden, og beregner en nyttepoengsum for den. Denne brukspoengsummen er hvor god eller dårlig utfallet er, og brukes av planleggeren til å evaluere fremtidig verdensstat. Verktøyfunksjonen kan være vilkårlig.
  • Til sammen danner disse tre komponentene en optimizer, som optimaliserer for et bestemt mål, uavhengig av verden det befinner seg i.

Denne enkle modellen representerer en grunnleggende definisjon av en intelligent agent. Agenten studerer sitt miljø, bygger modeller av det, og bruker deretter disse modellene for å finne fremgangsmåtene som vil maksimere oddsen for at den får det de ønsker. AIXI er like i struktur til en AI som spiller sjakk, eller andre spill med kjente regler - bortsett fra at det er i stand til å utlede spillets regler ved å spille det, med utgangspunkt i null kunnskap.

AIXI, gitt nok tid til å beregne, kan lære å optimalisere ethvert system for ethvert mål, men komplekst. Det er en generelt intelligent algoritme. Legg merke til at dette ikke er det samme som å ha menneskelig intelligens (biologisk inspirert AI er et annet emne som helhet Giovanni Idili of OpenWorm: Hjerner, ormer og kunstig intelligens Giovanni Idili of OpenWorm: Hjerner, ormer og kunstig intelligens Simulere en Menneskelig hjerne er en vei av, men et åpen kildeprosjekt tar viktige første skritt ved å simulere nevrologi og fysiologi til et av de enkleste dyrene som er kjent for vitenskapen. Les mer). Med andre ord, kan AIXI være i stand til å overvinne ethvert menneske ved enhver intellektuell oppgave (gitt nok datakraft), men det kan ikke være bevisst på sin seier. Tenkemaskiner: Hva Neuroscience og Artificial Intelligence kan lære oss om bevissthetstanker: Hva Neurovitenskap og kunstig intelligens kan lære oss om bevissthet Kan bygningen kunstig intelligente maskiner og programvare lære oss om bevissthetens arbeid og naturen til det menneskelige sinn selv? Les mer .

Som en praktisk AI har AIXI mange problemer. For det første har det ingen måte å finne de programmene som produserer produksjonen det er interessert i. Det er en brute-force algoritme, noe som betyr at det ikke er praktisk hvis du ikke tilfeldigvis har en vilkårlig kraftig datamaskin som ligger rundt. En hvilken som helst faktisk implementering av AIXI er nødvendigvis en tilnærming, og (i dag) generelt en ganske rå en. Likevel gir AIXI oss et teoretisk glimt av hva en kraftig kunstig intelligens kan se ut, og hvordan det kan være grunn.

Rommet av verdier

Hvis du har gjort noen dataprogrammering Grunnleggende om dataprogrammering 101 - Variabler og datatyper Grunnleggende om dataprogrammering 101 - Variabler og datatyper Etter å ha introdusert og snakket litt om Objektorientert Programmering før og hvor navnene kommer fra, trodde jeg det var på tide Vi går gjennom det absolutt grunnleggende for programmering på en ikke-språkspesifikk måte. Dette ... Les mer, du vet at datamaskiner er motbydelig, pedantisk og mekanisk bokstavelig. Maskinen vet ikke eller bryr seg hva du vil at den skal gjøre: det gjør bare det som har blitt fortalt. Dette er et viktig begrep når man snakker om maskinens intelligens.

Med dette i tankene, tenk at du har oppfunnet en kraftig kunstig intelligens - du har kommet opp med klare algoritmer for å generere hypoteser som samsvarer med dine data, og for å generere gode kandidatplaner. Din AI kan løse generelle problemer, og kan gjøre det så effektivt på moderne maskinvare.

Nå er det på tide å velge en verktøyfunksjon som bestemmer hva AI verdier. Hva bør du spørre om å verdsette? Husk at maskinen vil være utfordrende, pedantisk bokstavelig om hvilken funksjon du ber om å maksimere, og vil aldri stoppe - det er ingen spøkelse i maskinen som noen gang vil våkne opp og bestemmer seg for å endre sin funksjon, uansett hvor mange effektivitetsforbedringer det gjør til sin egen resonnement.

Eliezer Yudkowsky sa det slik:

Som i all dataprogrammering, er den grunnleggende utfordringen og essensielle vanskeligheten med AGI at hvis vi skriver feil kode, vil AI ikke automatisk se over vår kode, markere feilene, finne ut hva vi egentlig mener å si, og gjør det i stedet. Ikke-programmører forestiller seg noen ganger en AGI, eller dataprogrammer generelt, som å være analog med en tjener som følger ordrer uten tvil. Men det er ikke at AI er helt lydig til sin kode; heller, AI ganske enkelt er koden.

Hvis du prøver å betjene en fabrikk, og du forteller maskinen å verdsette å lage papirklipp, og deretter gi den kontrollen over en rekke fabrikkroboter, kan du komme tilbake neste dag for å finne ut at den har gått tom for alle andre former for råmateriale, drepte alle dine ansatte, og gjorde paperclips ut av deres rester. Hvis du, i et forsøk på å rette feilen, omprogrammerer maskinen for å bare gjøre alle glad, kan du komme tilbake neste dag for å finne det å sette ledninger inn i folks hjerner.

Poenget her er at mennesker har mange kompliserte verdier som vi antar, deles implisitt med andre tanker. Vi verdsetter penger, men vi verdsetter menneskeliv mer. Vi vil være lykkelige, men vi ønsker ikke nødvendigvis å sette ledninger i hjernen vår for å gjøre det. Vi føler ikke behovet for å klargjøre disse tingene når vi gir instruksjoner til andre mennesker. Du kan imidlertid ikke gjøre slike antagelser når du skal utforme funksjonen til en maskin. De beste løsningene under den sjeløse matematikken til en enkel bruksfunksjon er ofte løsninger som mennesker ville nix for å være moralsk forferdelig.

Å tillate en intelligent maskin for å maksimere en naiv verktøyfunksjon vil nesten alltid være katastrofal. Som Oxford-filosofen Nick Bostom legger den,

Vi kan ikke skjønne å anta at en superintelligens nødvendigvis vil dele noen av de endelige verdiene stereotypisk forbundet med visdom og intellektuell utvikling i mennesker-vitenskapelig nysgjerrighet, velvillig bekymring for andre, åndelig opplysning og kontemplasjon, avståelse av materiell oppkjøpskraft, en smak for raffinert kultur eller for de enkle gleder i livet, ydmykhet og uselviskhet og så videre.

For å gjøre saken verre er det veldig, veldig vanskelig å spesifisere den komplette og detaljerte listen over alt som folk verdsetter. Det er mange fasetter på spørsmålet, og glemmer at en eneste er potensielt katastrofal. Selv blant de vi er klar over, er det finesser og kompleksiteter som gjør det vanskelig å skrive dem ned som rene systemer av ligninger som vi kan gi til en maskin som en funksjon.

Noen mennesker, ved å lese dette, konkluderer med at bygge AIs med verktøyfunksjoner er en forferdelig ide, og vi bør bare designe dem annerledes. Her er det også dårlige nyheter - du kan formelt bevise at en hvilken som helst agent som ikke har noe tilsvarende en bruksfunksjon, ikke kan ha sammenhengende preferanser om fremtiden.

Rekursiv selvforbedring

En løsning på det ovennevnte dilemma er å ikke gi AI-agenter muligheten til å skade mennesker: Gi dem bare ressursene de trenger for å løse problemet på den måten du har tenkt på å bli løst, overvåke dem tett og hold dem unna muligheter til å gjøre stor skade. Dessverre er vår evne til å kontrollere intelligente maskiner sterkt mistenkt.

Selv om de ikke er mye smartere enn vi er, eksisterer muligheten for at maskinen skal “bootstrap” - samle bedre maskinvare eller forbedre sin egen kode som gjør den enda smartere. Dette kan tillate en maskin å hoppe over menneskelig intelligens av mange størrelsesordener, utsmykke mennesker i den samme forstand at mennesker slår ut katter. Dette scenariet ble først foreslått av en mann ved navn I. J. Good, som jobbet med Enigma kryptanalyseprosjektet med Alan Turing under andre verdenskrig. Han kalte det en “Intelligenseksplosjon,” og beskrev saken som dette:

La en ultra-intelligent maskin bli definert som en maskin som langt kan overgå alle intellektuelle aktiviteter av enhver mann, men smart. Siden design av maskiner er en av disse intellektuelle aktivitetene, kan en ultra intelligent maskin designe enda bedre maskiner; det ville da uten tvil være en “intelligens eksplosjon,” og menneskets intelligens ville ligge langt bak. Dermed er den første ultra-intelligente maskinen den siste oppfinnelsen som mannen aldri trenger å gjøre, forutsatt at maskinen er føyelig nok.

Det er ikke garantert at en intelligenseksplosjon er mulig i vårt univers, men det virker sannsynlig. Etter hvert som tiden går, får datamaskiner raskere og grunnleggende innsikter om oppbygging av intelligens. Dette betyr at ressursbehovet for å gjøre det siste hopper til en generell, boostrapping intelligence drop lavere og lavere. På et tidspunkt finner vi oss i en verden der millioner av mennesker kan kjøre til en Best Buy og hente maskinvare og teknisk litteratur som de trenger for å bygge en selvforbedrende kunstig intelligens, som vi allerede har etablert, kan være veldig farlig. Tenk deg en verden der du kan lage atombomber ut av pinner og bergarter. Det er den slags fremtid vi diskuterer.

Og hvis en maskin gjør det hoppe, kan det svært raskt overskride den menneskelige arten når det gjelder intellektuell produktivitet, og løse problemer som en milliard mennesker ikke kan løse, på samme måte som mennesker kan løse problemer som en milliard katter kan " t.

Det kan utvikle kraftige roboter (eller bio eller nanoteknologi) og relativt raskt få evnen til å omforme verden som den ønsker, og det ville være svært lite vi kunne gjøre med det. En slik intelligens kan ødelegge jorden og resten av solsystemet for reservedeler uten mye trøbbel, på vei til å gjøre hva vi fortalte det til. Det synes sannsynlig at en slik utvikling ville være katastrofal for menneskeheten. En kunstig intelligens trenger ikke å være skadelig for å ødelegge verden, bare katastrofalt likegyldig.

Som ordtaket sier, “Maskinen elsker ikke eller hater deg, men du er laget av atomer den kan bruke til andre ting.”

Risikovurdering og begrensning

Så, hvis vi aksepterer at design av en kraftig kunstig intelligens som maksimerer en enkel bruksfunksjon er dårlig, hvor mye trøbbel er vi egentlig i? Hvor lenge har vi fått før det blir mulig å bygge slike maskiner? Det er selvsagt vanskelig å fortelle.

Kunstig intelligensutviklere gjør fremgang. 7 fantastiske nettsteder for å se det siste innen kunstig intelligensprogrammering 7 fantastiske nettsteder for å se de nyeste i kunstig intelligensprogrammering Kunstig intelligens er ennå ikke HAL fra 2001: Space Odyssey ... men vi blir veldig nært. Sikkert nok, en dag kan det være like likt at sci-fi-potten blir klemt ut av Hollywood ... Les mer Maskinene vi bygger og problemene de kan løse, har vokst jevnt i omfang. I 1997 kunne Deep Blue spille sjakk på et nivå større enn en menneskelig stormester. I 2011 kunne IBMs Watson lese og syntetisere nok informasjon dypt og raskt nok til å slå de beste menneskelige aktørene på et åpent spørsmål og svare på spill som er riddled med ordspill og ordspill - det er mye fremgang i fjorten år.

Akkurat nå investerer Google tungt i å forske på dyp læring, en teknikk som gjør det mulig å bygge kraftige nevrale nettverk ved å bygge kjeder av enklere nevrale nettverk. Den investeringen tillater det å gjøre alvorlige fremskritt innen tale- og bildegjenkjenning. Deres siste oppkjøp i området er en Deep Learning oppstart kalt DeepMind, som de betalte ca $ 400 millioner. Som en del av vilkårene i avtalen, godtar Google å opprette et etikkbrett for å sikre at deres AI-teknologi utvikles trygt.

Samtidig utvikler IBM Watson 2.0 og 3.0, systemer som er i stand til å behandle bilder og video og argumentere for å forsvare konklusjoner. De ga en enkel, tidlig demonstrasjon av Watsons evne til å syntetisere argumenter for og imot et emne i videodemoen nedenfor. Resultatene er ufullkomne, men et imponerende trinn uansett.

Ingen av disse teknologiene er selv farlige akkurat nå: kunstig intelligens som et felt er fortsatt sliter med å matche evner som styres av små barn. Computer programmering og AI design er en svært vanskelig, høyt nivå kognitive ferdigheter, og vil trolig være den siste menneskelige oppgaven at maskiner blir dyktige på. Før vi kommer til det punktet, har vi også allestedsnærværende maskiner som kan kjøre. Slik kommer vi til en verden som er fylt med førervarebiler. Slik er det hvordan vi kommer til en verden som er fylt med kjøreløse biler. Kjøring er en kjedelig, farlig, og krevende oppgave. Kan det en dag bli automatisert av Googles billøse bilteknologi? Les mer, praktiser medisin og lov, og trolig også andre ting, med dype økonomiske konsekvenser.

Tiden det tar oss for å komme til bøyningspunktet for selvforbedring, avhenger bare av hvor fort vi har gode ideer. Forecasting teknologiske fremskritt av disse slagene er notorisk vanskelig. Det virker ikke urimelig at vi kanskje kan bygge sterk AI om tjue år, men det virker heller ikke urimelig at det kan ta åtti år. Uansett vil det skje til slutt, og det er grunn til å tro at når det skjer, vil det være ekstremt farlig.

Så, hvis vi aksepterer at dette kommer til å være et problem, hva kan vi gjøre med det? Svaret er å sørge for at de første intelligente maskinene er trygge, slik at de kan starte opp til et betydelig nivå av intelligens, og deretter beskytte oss mot usikre maskiner laget senere. Denne "tryggheten" er definert ved å dele menneskelige verdier, og være villig til å beskytte og hjelpe menneskeheten.

Fordi vi faktisk ikke kan sette seg ned og programmere menneskelige verdier inn i maskinen, vil det trolig være nødvendig å designe en bruksfunksjon som krever at maskinen skal observere mennesker, avlede verdiene våre, og deretter prøve å maksimere dem. For å gjøre denne utviklingsprosessen trygg, kan det også være nyttig å utvikle kunstige intelligenser som er spesielt utformet ikke å ha preferanser om deres bruksfunksjoner, slik at vi kan rette dem eller slå dem av uten motstand hvis de begynner å gå på avveier under utviklingen.

Mange av problemene vi trenger å løse for å bygge en sikker maskin intelligens er vanskelige matematisk, men det er grunn til å tro at de kan løses. En rekke forskjellige organisasjoner jobber med problemet, blant annet Future of Humanity Institute i Oxford, og Machine Intelligence Research Institute (som Peter Thiel fond).

MIRI er spesielt interessert i å utvikle matematikk som trengs for å bygge Friendly AI. Hvis det viser seg at bootstrapping kunstig intelligens er mulig, kan utviklingen av denne typen "Friendly AI" -teknologi først, hvis vellykket, ende opp med å være det viktigste som mennesker noensinne har gjort.

Tror du at kunstig intelligens er farlig? Er du bekymret for hva AIs fremtid kan bringe? Del dine tanker i kommentarfeltet nedenfor!

Image Credits: Lwp Kommunikáció Via Flickr, “Nevrale nettverket“, av fdecomite,” img_7801“, av Steve Rainwater, “E-Volve”, av Keoni Cabral, “new_20x“, av Robert Cudmore, “Binders“, av Clifford Wallace

Utforsk mer om: Artificial Intelligence, Computer Automation.