YouTube vil bruke nevrale nettverk til å forstå videoer

YouTube vil bruke nevrale nettverk til å forstå videoer / Fremtidig Tech

Søke på YouTube Slik søker du YouTube som en PRO med Google Advanced Operators Slik søker du YouTube som en PRO med Google Advanced Operators Les mer kan være en frustrerende opplevelse; hvis du vet hva en video handler om, eller du husker innholdet, men ikke navnet, kan du søke etter svært lang tid. Det er fordi YouTube egentlig ikke se videoene måten som en person gjør. Det ser bare metadataene - tittel, beskrivelse og tagger. Og det antas at opplasteren plaget å inkludere informasjonen.

Alt dette kan endres i nær fremtid. Google har nylig innlevert et patent som indikerer at YouTube faktisk kan begynne å forstå videoene som den spiller.

Relevansbasert bildevalg

Googles patentsøknad er for “relevansbasert bildevalg,” en fancy måte å si “finne de tingene som noen søkte etter basert på hva som er i en video.” I systemet som er utarbeidet i patentet, er en algoritme opplært for å trekke ut bestemte trekk ved hver video og tildele nøkkelord til dem. Det kan da returnere en video som svar på et brukerinitiert søk som inneholder disse søkeordene.

Søknaden gir et interessant eksempel:

“[I] f brukeren går inn i søket “bilkappløp,” videosøkemotoren kan finne og returnere en bilspill scene fra en film, selv om scenen bare kan være en kort del av filmen som ikke er beskrevet i tekstmetadataene.”

Åpenbart vil dette drastisk endre hvor effektivt et YouTube-søk er. Videoer som tidligere har vært ugyldige på grunn av dårlige metadata, blir funnet. Videoer som inneholder nyttige klipp i midten, omgitt av mindre interessante ting i begynnelsen og slutten, vil være mye mer verdifulle. TED-snakkvideoer 8 TED-snakker videoer under 5 minutter lang Du vil se 8 TED-snakker videoer under 5 minutter lang du vil se Har fem minutter å drepe? Hvilken bedre måte å tilbringe den tiden enn å se på en fascinerende eller informativ TED-snakk-video. Det er mye flott innhold tilgjengelig for å se på TED, men noen ganger ... Les mer vil bli funnet basert på enkeltlinjer som er talt i dem. Du kan finne kattvideoer selv om “katt” er ikke i tittelen.

Kombinere denne teknologien med Googles allerede imponerende evne til å finne ting som er relatert til søkeordene, betyr sannsynligvis at å finne videoer vil bli en helt annen opplevelse. Du får se relaterte videoer som ikke inneholder søkeordet ditt, men inkluderer et begrep som er relatert (kanskje til og med visuelt relatert). Den visuelle ekvivalenten av søkeordplassering kan begynne å påvirke hvor en video vises i rangeringene. Hvem vet hvor avansert dette kan være?

Hvordan virker det?

Google holder forståelig nok kortene sine nær brystet på denne. Imidlertid gir følgende avsnitt i deres søknad litt lys på hvordan de får YouTube til “se” videoer:

“I ett aspekt genererer et datasystem det søkbare videoindeksen ved hjelp av en maskinlært modell 4 Maskininlæringsalgoritmer som lager livet ditt 4 Maskininnlæringsalgoritmer som lager livet ditt Du kan ikke skjønne det, men maskinlæring er allerede rundt deg og det kan utøve en overraskende grad av innflytelse over livet ditt. Tro ikke på meg? Du kan bli overrasket. Les mer om forholdene mellom funksjoner i videorammer og søkeord som beskriver videoinnhold. Videoserveringssystemet mottar et merket treningsdatasett som inneholder et sett med medieelementer (for eksempel bilder eller lydklipp) sammen med ett eller flere søkeord som beskriver innholdet i medieelementene. Video hosting system ekstrakter funksjoner karakteriserer innholdet i medieelementene. En maskinlært modell er opplært for å lære sammenhenger mellom bestemte funksjoner og søkeordene som beskrives av innholdet. Videoindeksen genereres deretter som kartbilder av videoer i en videodatabase til søkeord basert på funksjonene til videoene og den maskinlærte modellen.”

Det er mange veldig tette ting, men her er det det kommer til. En maskinalæringsalgoritme er opprettet, og for å hjelpe den å lære, viser Google det en masse videoer og gir søkeord for å fortelle det som er i videoen. Algoritmen begynner å lære å knytte spesifikke funksjoner til videoene med bestemte søkeord, og får tilbakemelding fra Googles ingeniører. Jo flere videoer og søkeord det blir vist, desto bedre blir det på prosessen.

Til slutt vil algoritmen bli introdusert i YouTube-søkemotoren, der den vil fortsette å lære og bli bedre ved å plukke ut relevante søkeord fra lyd- og videoinnhold. Mens patentsøknaden ikke spesifikt nevner nevrale nettverk Den nyeste datateknologien du må se for å tro på den nyeste datateknologien du må se for å tro Sjekk ut noen av de nyeste datateknologiene som er satt for å forandre verden av elektronikk og PCer over de neste årene. Les mer, det er veldig sannsynlig at denne typen maskinlæring vil bli brukt, da det er veldig bra for iscenesatt læring som dette.

Ved å simulere den menneskelige hjernen (eller i det minste en teoretisk modell av hvordan den lærer), kan store nevrale nettverk bli svært effektive til å lære seg selv uten tilsyn, og YouTube vil gi en helt gigantisk lekeplass der den kan lære og motta tilbakemelding . Andre typer maskinlæring kan brukes, men fra det vi kjenner for øyeblikket, ser neurale nettverk mest sannsynlig ut.

Google forsker (og “far til dyp læring”) Geoffrey Hinton antydet noe om dette i sin Reddit AMA tidligere i år.

“Jeg tror at de mest spennende områdene de neste fem årene virkelig forstår videoer og tekst. Jeg vil bli skuffet hvis vi i fem år ikke har noe som kan se en YouTube-video og fortell en historie om hva som skjedde.”

Vil det få følelse og drepe oss alle?

Dette er alltid spørsmålet som kommer opp når en ny kunngjøring om maskinlæring treffer nyheten. Og svaret er som alltid, ja Her er hvorfor forskere tror du burde være bekymret for kunstig intelligens. Her er hvorfor forskere tror du burde være bekymret for kunstig intelligens. Tror du at kunstig intelligens er farlig? Kan AI utgjøre en alvorlig risiko for menneskeheten. Dette er noen grunner til at du kanskje vil være bekymret. Les mer . YouTube vil samarbeide med Watson og Wolfram Alpha for å lure oss til underholdbarhet ved hjelp av YouTube-videoer, hvoretter de sannsynligvis vil gjøre oss til datamat. (Har du ikke sett Colossus?)

Jeg skjønner selvfølgelig. Men de potensielle implikasjonene av trening datamaskiner til å gjenkjenne ting som de “se” og “høre” i videoer er veldig imponerende. DARPA har allerede begynt å se Du vil ikke tro det: DARPA Fremtidig forskning i avanserte datamaskiner Du vil ikke tro det: DARPA Fremtidig forskning i avanserte datamaskiner DARPA er en av de mest fascinerende og hemmelige delene av den amerikanske regjeringen. Følgende er noen av DARPAs mest avanserte prosjekter som lover å forandre teknologien. Les mer på sikkerhetsimplikasjonene av denne teknologien, men det er ikke vanskelig å forestille seg at det blir brukt i lov, hjemme sikkerhet, utdanning ... ganske mye hvor som helst.

Hvorvidt Googles relevansbaserte bildevalg vil være like effektivt som vi antar at det gjenstår å bli sett, men dette kan være en potensielt banebrytende endring i videosøk. Og derfra, hvem vet? Hvis Google kan bruke sannhet som en rangeringsfaktor, kan Google bruke en algoritme til å bestemme sannheten? Kan Google bruke en algoritme til å bestemme sannheten? Google undersøker om algoritmen kan inneholde sannhet som en rangeringsfaktor. Hva betyr det for nettet? Les mer, det er ingen grunn til å tro at denne teknologien ikke vil bli utrolig kraftig. Det kan endre akkurat hvor mye av Internett virkelig forstår seg selv. Hvis den tanken ikke knytter seg i knuter, vet jeg ikke hva som vil.

Hva synes du om Googles patentsøknad? Hvilke andre bruksområder kan du forestille deg denne teknologien har? Del dine tanker nedenfor!

Bildekreditter: Willyam Bradberry via Shutterstock.com, Ciumac Sergiu via Code42, Marko Bradic via Shutterstock.com.

Utforsk mer om: Kunstig intelligens, Google Søk, Videosøk, YouTube.