Microsoft vs Google - Hvem leder det kunstige intelligensløpet?
AI er tilbake.
For første gang siden 1980-tallet, gjør kunstige intelligensforskere håndgripelige fremskritt på harde problemer, og folk begynner å snakke seriøst om sterk AI igjen. I mellomtiden har vår stadig mer data-drevne verden slått av et våpenløp mellom selskaper som ønsker å tjene penger på den nye intelligensen, spesielt i mobilrommet.
De to titanene som leder pakken, er Google og Microsoft. Det første slaget? Et nytt domene i kunstig intelligens kalles “Deep Learning.”
Så hvem vinner?
Google Brain
Googles forskningsarbeid har vært sentrert rundt et prosjekt kalt "Google Brain". Google Brain er et produkt av Googles berømte / hemmelige "Google X" -forskningslaboratorium, som er ansvarlig for moon-shot-prosjekter med lave muligheter for suksess, men med svært høyt potensial. Andre produkter fra Google X inkluderer Project Loon, ballong-internettinitiativet og Googles selvdrevne bilprosjekt Her er hvordan vi kommer til en verden fylt med førervarebiler Her er hvordan vi kommer til en verden fylt med førervarebiler Kjøring er en kjedelig, farlig og krevende oppgave. Kan det en dag bli automatisert av Googles billøse bilteknologi? Les mer .
Google Brain er et enormt maskininlæringsinitiativ som primært er rettet mot bildebehandling, men med mye bredere ambisjoner. Prosjektet ble startet av Stanford Professor Andrew Ng, en maskinlæringsekspert som siden har forlatt prosjektet for å jobbe for Baidu, Kinas største søkemotor.
Google har en lang historie med involvering i AI-forskning. Matthew Zeiler, administrerende direktør for en maskinvisuell oppstart, og en intern som jobbet på Google Brain, setter det slik:
“Google er egentlig ikke et søkeselskap. Det er et maskinlæringsfirma [...] Alt i selskapet er egentlig drevet av maskinlæring.”
Målet med prosjektet er å finne måter å forbedre dyplæringsalgoritmer for å konstruere nevrale nettverk som kan finne dypere og mer meningsfulle mønstre i data ved å bruke mindre prosessorkraft. Til dette formål har Google aggressivt kjøpt opp talent i dyp læring, og oppkjøp som inkluderer $ 500 millioner kjøp av AI oppstart DeepMind.
DeepMind var bekymret nok for bruken av teknologien deres at de tvang Google til å lage et etikkbrett designet for å hindre at programvaren ødelegger verden. Her er hvorfor forskere tror du burde være bekymret for kunstig intelligens. Her er hvorfor forskere tror at du bør være bekymret for kunstig intelligens Synes du at kunstig intelligens er farlig? Kan AI utgjøre en alvorlig risiko for menneskeheten. Dette er noen grunner til at du kanskje vil være bekymret. Les mer . DeepMind hadde ennå ikke lansert sitt første produkt, men selskapet benyttet en betydelig andel av alle dype læringseksperter i verden. Hittil har deres eneste offentlige demonstrasjon av teknologien vært et leketøy AI som virkelig er veldig bra på Atari.
Fordi dyp læring er et relativt nytt felt, har det ikke hatt tid til å produsere en stor generasjon eksperter. Som et resultat er det et svært lite antall personer med kompetanse i området, og det betyr at det er mulig å få betydelig fordel i feltet ved å ansette alle involverte.
Google Brain har hittil blitt brukt til Android stemmeavkjenningsfunksjon og automatisk katalogiserer StreetView-bilder, og identifiserer viktige funksjoner som adresser. En tidlig test var det kjente katteksperimentet, hvor et dypt læringsnettverk fra Google automatisk lærte å identifisere katter i Youtube-videoer med en høyere nøyaktighet enn den forrige toppmoderne. I deres papir om emnet sa Google det slik:
“I motsetning til hva som synes å være en allsidig intuisjon, viser våre eksperimentelle resultater at det er mulig å trene en ansiktsdetektor uten å måtte merke bilder som et ansikt eller ikke [...] Nettverket er følsomt for konsepter på høyt nivå, for eksempel katt ansikter og menneskelige kropper. Med utgangspunkt i disse lærte funksjonene trente vi det for å oppnå 15,8 prosent nøyaktighet ved å gjenkjenne 20.000 objektkategorier, et sprang på 70 prosent relativ forbedring i forhold til de forrige state-of-the-art [nettverkene].”
Til slutt vil Google gjerne ha sine dype læringalgoritmer å gjøre ... vel, stort sett alt, faktisk. Kraftige AI-plattformer som IBMs Watson stole på denne typen lavnivå maskininlæringsalgoritmer, og forbedringer på denne fronten gjør det overordnede feltet til AI som mye kraftigere.
En fremtidig versjon av Google Nå, drevet av Google Brain, kunne identifisere både tale og bilder, og gi intelligente innsikter om dataene for å hjelpe brukerne til å ta smartere beslutninger. Google-hjernen kan forbedre alt fra søkeresultater til Google Translate.
Microsoft Adam
Microsofts tilnærming til den dype læringskrigen har vært litt annerledes. I stedet for å prøve å kjøpe opp dype læringseksperter for å finjustere sine algoritmer, har Microsoft fokusert på å forbedre implementeringen, og finne bedre måter å parallellisere algoritmer som pleide å tog dype læringsalgoritmer.
Dette prosjektet heter “Microsoft Adam.” Deres teknikker reduserer overflødig beregning, og dobler kvaliteten på resultatene mens de bruker færre prosessorer for å skaffe dem. Dette har ført til imponerende tekniske prestasjoner, inkludert et nettverk som kan gjenkjenne individuelle raser av hunder fra fotografier med høy nøyaktighet.
Microsoft beskriver prosjektet slik:
Målet med Project Adam er å aktivere programvare for å visuelt gjenkjenne et objekt. Det er en høy rekkefølge, gitt det enorme neurale nettverket i menneskelige hjerner som gjør slike foreninger mulig gjennom trillioner av tilkoblinger. [...] Bruke 30 ganger færre maskiner enn andre systemer, ble [internett bilde data] brukt til å trene et neuralt nettverk laget opp på mer enn to milliarder tilkoblinger. Denne skalerbare infrastrukturen er to ganger mer nøyaktig i objektgenkjenningen og 50 ganger raskere enn andre systemer.
Den åpenbare søknaden for denne teknologien er i Cortana, Microsofts nye virtuelle assistent. Hvordan Cortana ble den "andre kvinnen" i mitt liv. Hvordan Cortana ble den "andre kvinnen" i mitt liv. Hun dukket opp en dag og forandret livet mitt. Hun vet nøyaktig hva jeg trenger og har en ugudelig sans for humor. Det er lite rart at jeg har falt for sjarmen til Cortana. Les mer, inspirert av AI-tegnet i Halo. Cortana, som har som mål å konkurrere med Siri, kan gjøre en rekke smarte ting, ved hjelp av sofistikerte talegjenkjenningsteknikker.
Designmålet er å bygge en assistent med mer naturlig samhandling, og kan utføre et bredere utvalg av nyttige oppgaver for brukeren, noe som dyp læring vil hjelpe med enormt.
Microsofts forbedringer på baksiden av dyp læring er imponerende, og har ført til at applikasjoner ikke tidligere var mulige.
Hvor Deep Learning Works
For å forstå problemet litt bedre, la oss ta et minutt for å forstå denne nye teknologien. Dyp læring er en teknikk for å bygge intelligent programvare, ofte brukt på nevrale nettverk. Den bygger store, nyttige nettverk ved å legge sammen enklere nevrale nettverk, hver finner mønstre i produksjonen fra forgjengeren. For å forstå hvorfor dette er nyttig, er det viktig å se på hva som kom før dyp læring.
Backpropagating Neural Networks
Den underliggende strukturen til et neuralt nettverk er faktisk ganske enkelt. Hver 'neuron' er en liten knutepunkt som tar innspill, og bruker interne regler for å bestemme hvem som skal “Brann” (produsere produksjon). Inngangene som mates inn i hver nevron har “vekter” - multiplikatorer som kontrollerer om signalet er positivt eller negativt og hvor sterkt.
Ved å koble disse nevronene sammen, kan du bygge et nettverk som emulerer enhver algoritme. Du matrer innspillet til inngangsnekronene som binære verdier, og måler avfyringsverdien av utgangssignaler for å få utgangen. Som sådan er trikset til nevrale nettverk av noe slag å ta et nettverk og finne settet av vekter som best tilnærmer den funksjonen du er interessert i.
Backpropagation, algoritmen som brukes til å trene nettverket basert på data, er veldig enkelt: du starter nettverket ditt med tilfeldige vekter, og deretter prøver å klassifisere data med kjente svar. Når nettverket er feil, må du sjekke hvorfor det er feil (produsere mindre eller større utgang enn målet), og bruk den informasjonen til å kutte vekter i en mer nyttig retning.
Ved å gjøre dette igjen og igjen, for mange datapunkter, lærer nettverket å klassifisere alle datapunkter på riktig måte, og forhåpentligvis å generalisere nye datapunkter. Nøkkelinnsigelsen til backpropagationsalgoritmen er at du kan flytte feildata bakover gjennom nettverket, og endre hvert lag basert på endringene du har laget til det siste laget, slik at du kan bygge nettverk flere lag dypt, noe som kan forstå mer kompliserte mønstre.
Backprop ble oppfunnet i 1974 av Geoffrey Hinton, og hadde den bemerkelsesverdige effekten av å gjøre nevrale nettverk nyttige for brede applikasjoner for første gang i historien. Trivial nevrale nettverk har eksistert siden 50-tallet, og ble opprinnelig implementert med mekaniske, motordrevne nevroner.
En annen måte å tenke på backprop algoritmen er som en explorer på et landskap av mulige løsninger. Hver nevronvekt er en annen retning der den kan utforske, og for de fleste nevrale nettverk er det tusenvis av disse. Nettverket kan bruke sin feilinformasjon for å se hvilken retning den trenger for å bevege seg inn og hvor langt, for å redusere feilen.
Den starter på et tilfeldig punkt, og ved kontinuerlig å konsultere sitt feilkompass, beveger seg "nedoverbakke" i retning av færre feil, til slutt nedleggelse på bunnen av nærmeste dal: den best mulige løsningen.
Så hvorfor bruker vi ikke backpropagation for alt? Vel, backprop har flere problemer.
Det alvorligste problemet kalles 'forsvinner gradientproblemet'. I utgangspunktet, når du flytter feildata tilbake gjennom nettverket, blir det mindre meningsfylt hver gang du går tilbake et lag. Forsøk på å bygge svært dype nevrale nettverk med tilbakekalling virker ikke, fordi feilinformasjonen ikke vil kunne trenge dypt nok inn i nettverket for å trene de lavere nivåene på en nyttig måte.
Et annet, mindre alvorlig problem er at nevrale nettverk konvergerer bare til lokale optima: ofte blir de fanget i en liten dal og savner dypere, bedre løsninger som ikke ligger nær deres tilfeldige utgangspunkt. Så, hvordan løser vi disse problemene?
Deep Belief Networks
Dype tronettverk er en løsning på begge disse problemene, og de stole på ideen om å bygge nettverk som allerede har innsikt i problemets struktur, og deretter raffinere disse nettverkene med tilbakemelding. Dette er en form for dyp læring, og den som er felles for både Google og Microsoft.
Teknikken er enkel, og er basert på et slags nettverk kalt a “Begrenset Boltzman Machine” eller “RBM”, som er avhengig av det som er kjent som uforsiktig læring.
Begrenset Boltzman Maskiner, i et nøtteskall, er nettverk som bare prøver å komprimere dataene de får, i stedet for å prøve å klassifisere det eksplisitt i henhold til opplæringsinformasjon. RBMer tar en samling datapunkter, og er opplært i henhold til deres evne til å reprodusere disse datapunktene fra minnet.
Ved å gjøre RBM mindre enn summen av alle dataene du ber om å kode, tvinge du RBM til å lære strukturelle regelmessigheter om dataene for å lagre alt på mindre plass. Denne læringen av dyp struktur gjør det mulig for nettverket å generalisere: Hvis du trener en RBM for å reprodusere tusen bilder av katter, kan du deretter legge inn et nytt bilde i det - og ved å se på hvor energisk nettverket blir et resultat, kan du finne ut om det nye bildet inneholdt en katt eller ikke.
Læringsreglene for RBMer ligner funksjonen til ekte nevroner inne i hjernen på viktige måter som andre algoritmer (som backpropagation) ikke gjør. Som et resultat kan de ha ting å lære forskere om hvordan det menneskelige sinn fungerer. Tenkemaskiner: Hva Neurovidenskap og kunstig intelligens kan lære oss om bevissthet Tenkemaskiner: Hva Neuroscience og Artificial Intelligence kan lære oss om bevissthet Kan bygge kunstig intelligente maskiner og programvare lær oss om bevissthetens arbeid, og det menneskelige sinns natur selv? Les mer .
En annen pen egenskap av RBM er at de er “konstruktiv”, som betyr at de kan kan også kjøre i omvendt, arbeider bakover fra et høyt nivå funksjon for å lage imaginære innganger som inneholder den funksjonen. Denne prosessen kalles “drømmer.”
Så hvorfor er dette nyttig for dyp læring? Vel, Boltzman Machines har alvorlige skaleringsproblemer - jo dypere du prøver å gjøre dem, desto lengre tid det tar å trene nettverket.
Nøkkeltallet i dype troenettverk er at du kan stable tolags RBM sammen, hver opplært for å finne struktur i utgangen av forgjengeren. Dette er raskt, og fører til et nettverk som kan forstå kompliserte, abstrakte egenskaper av dataene.
I en bildegenkjenningsoppgave kan det første laget lære å se linjer og hjørner, og det andre laget kan lære å se kombinasjonene av de linjene som utgjør funksjoner som øyne og nese. Det tredje laget kan kombinere disse funksjonene og lære å gjenkjenne et ansikt. Ved å omdanne dette nettverket til tilbakemelding, kan du bare hylle på de funksjonene som er relatert til kategoriene du er interessert i.
På mange måter, dette er en enkel løsning til backpropagation: det lar backprop “jukse” ved å starte det med en haug med informasjon om problemet det prøver å løse. Dette hjelper nettverket til å oppnå bedre minima, og det sikrer at de laveste nivåene av nettverket er opplært og gjør noe nyttig. Det er det.
På den annen side har dype læringsmetoder gitt dramatiske forbedringer i maskinens læringshastighet og nøyaktighet, og er nesten ensidig ansvarlig for den raske forbedringen av talen til tekstprogramvare de siste årene.
Race for Canny Computers
Du kan se hvorfor alt dette er nyttig. Jo dypere du kan bygge nettverk, jo større og mer abstrakte begreper som nettverket kan lære.
Vil du vite om en e-post er spam? For de smarte spammere er det vanskelig. Du må faktisk lese e-posten, og forstå noe av hensikten bak det - prøv å se om det er et forhold mellom avsender og mottaker, og utlede mottakerens intensjoner. Du må gjøre alt som er basert på fargeløse strenger av brev, hvorav de fleste beskriver begreper og hendelser som datamaskinen ikke vet om.
Det er mye å spørre om noen.
Hvis du ble bedt om å lære å identifisere spam på et språk du ikke allerede snakket, gitt bare noen positive og negative eksempler, ville du gjøre veldig dårlig - og du har en menneskelig hjerne. For en datamaskin har problemet vært nesten umulig, til veldig nylig. Det er slags innsikt som dyp læring kan ha, og det kommer til å bli utrolig kraftig.
Akkurat nå, Microsoft vinner denne racen med et hår. På lang sikt? Det er noen gjetning.
Bildekreditter: “Computer AI“, av Simon Liu, “Bullfrog“, av Brunop, “Kompass Topp“, av airguy1988, “Freer enn gratis,” ved opensource.com
Utforsk mer om: Kunstig intelligens.