En kort historie med søk og hvordan Google kom ut på toppen
Etter prøver å elske Bing Hvordan Bing Predicts har blitt så bra Hvordan Bing Predicts har blitt så bra Tid til å slutte dagjobben og begynne å spille via Bing Predictions? Ikke helt, men la oss se på hvordan Bing har blitt like god til å forutsi fremtiden. Les mer, flørt med den forbedrede personvernet til DuckDuckGo 10 Nyttige DuckDuckGo Instant svar som sparer deg tid og noen få klikk 10 Nyttige DuckDuckGo Instant svar som sparer deg tid og et par klikk Instant Answers er en samling av DuckDuckGo-godbiter som potensielt gjør ditt online-søk livet litt enklere. Her er ti fra en stor liste du kan prøve på denne alternative søkemotoren. Les mer, og (lukkeren) selv prøver å se om Yahoo var bedre enn sist jeg brukte den (ca 2004), kan jeg fortsatt ikke finne et bedre alternativ for nettlesing enn den regerende mesteren, Google.
Gapet er innsnevring, men i siste instans er Google fortsatt konge på grunn av relevansen av resultatene, hvor raskt nettsteder blir indeksert og søk utføres, og deres konstante trykk for å bli enda bedre.
Etter et halvt dusin (eller flere) mislykkede forsøk gjennom årene for å finne et bedre alternativ 13 Alternative søkemotorer som finner det som Google ikke kan 13 Alternative søkemotorer som finner det som Google ikke kan Google Søk fremdeles ikke kan gjøre alt. Disse 13 alternative søkemotorene kan ta vare på noen nisjejobber for deg. Les mer, det førte meg til å prøve og tyde på hva som gjør Google bedre enn konkurrenter i dette rommet.
Her er hva jeg fant.
En kort historie om Search Engine Tech
Først føler jeg at det er nok klokt å se på noen av teknologien som kjører søkemotorer. Hvordan fungerer søkemotorer? Hvordan jobber søkemotorer? For mange er Google Internett. Det er uten tvil den viktigste oppfinnelsen siden Internett selv. Og mens søkemotorer har endret seg mye siden, er de underliggende prinsippene likevel de samme. Les mer, og selskapene som fikk oss her.
The Creation of Archie (1990)
Archie er allment antatt å være den første søkemotoren. Selv om tilsynelatende primitive nå, var Archie et verktøy som indekserte offentlig tilgjengelige FTP-nettsteder i et forsøk på å tillate brukere å finne bestemte filer. Dette var verdensomspennende web, så du må få tilgang til Archie-serverne ved hjelp av en lokal klient eller via Telnet. Hva er Telnet og hva er det som brukes til? [MakeUseOf Forklarer] Hva er Telnet og hva er dets bruk? [MakeUseOf Forklarer] Telnet er en av de tekniske vilkårene du kan av og til høre, men ikke i en annonse eller en klesvaskliste over noe produkt du kan kjøpe. Det er fordi det er en protokoll eller et språk ... Les mer, som er en nettverksprotokoll som tillater tilkobling av to datamaskiner på samme nettverk.
Archie spurte innovasjon i flere teknologier som opererte på lignende måte, som Veronica og Jughead, VLib, Gopher og andre. Disse teknologiene var pionerene i søkebransjen, selv om de raskt ble erstattet av mer avanserte teknologier.
World Wide Web Wanderer (1993)
World Wide Web Wanderer ble laget i 1993, og den første boten ble opprettet for å indeksere nettsteder og automatisk sette dem inn i en database. Wandex begynte som en måte å måle størrelsen på nettet ved å telle aktive servere over hele verden for å måle veksten. I stedet ble det blåkopi for moderne webspiders, som er ansvarlige for å krysse nettet for å indeksere innholdet.
Excite (1993)
Excite var et prosjekt av seks studenter på Stanford University som forsøkte å bruke statistisk analyse av relasjoner på felles språk for å forbedre relevansen i indeksering. Excite - så kjent som Architext - brukte journalister for å skrive korte nettsideromtaler for bedre brukervennlighet i forhold til mer primitive linkbaserte søkemotorer og kataloger.
The Search Engine Boom (1994)
1994 var sannsynligvis det eneste største året i søkemotorenes historie. Innen en 12 måneders periode så vi lanseringen av Infoseek, AltaVista, WebCrawler, Yahoo! og Lycos.
- Infoseek: Tillat brukere å sende inn sine nettsider i sanntid og indekserte dem automatisk basert på brukerdefinerte kategorier.
- Altavista: Den første søkemotoren som bruker ubegrenset båndbredde, tillater naturspråksøk, og bruk av søkemodifiseringer for å godkjenne resultater.
- WebCrawler: Den første crawleren som indekserte hele sidene i motsetning til bare titler eller titler og beskrivelser.
- Lycos: Den første søkemotoren sorterer etter relevans. Lycos hadde også konsekvent den største databasen med lagrede nettsteder, og på topp (ca. 1996) hadde tjenesten gjennomsøkt og indeksert over 60 millioner nettsteder.
Søkemotorer i denne perioden (og flere år senere) gjorde stor bruk av metakoder som inneholdt tittel, beskrivelse og søkeordelementer lagt til nettsiden av webmaster. Disse kodene, samt søkeordets tetthet i teksten til et nettsted, var de primære rangeringsfaktorene som hjalp med edderkopper til å identifisere og indeksere innhold på riktig måte.
Det åpnet også døren for webspam, så tidlig SEO-eksperter lærte raskt å manipulere dette systemet ved å fylle inn søkeord i merker og innhold på en unaturlig måte i et forsøk på å spille systemet.
Spør / Spør Jeeves (1997)
Spør - og deres Ask Jeeves-tjeneste - brukte menneskelige redaktører til å prøve å liste populære søkesøkeforespørsler til oppføringer av både partner og betalte inkluderingssteder. Tjenesten brukte automatisering i form av et rangeringssystem kalt DirectHit, som forsøkte å rangere nettsteder etter popularitet, men de fant at dette var for enkelt å manipulere og opphørt bruken av motoren noen år senere.
MSN / Bing (1998/2009)
MSN lanserte sin egen søkemotor for å piggyback på suksessen til andre Microsoft-produkter og segue til online søk. Søkemotoren stod på Overture, Looksmart og andre betalte inkluderingskataloger for å kunne levere søkeresultater til Google viste suksess for deres tilbakekoblingsmodell.
Dette bevis på konseptet fra Google førte til at MSN vedtok en lignende strategi - men ikke så bra - i 2004.
I 2009 rebranded MSN som Bing, og forbedret brukergrensesnittet, for å inkludere inlinesøk (forslag som vises når du skriver), innhold som vises på søkeresultatsiden (i motsetning til å klikke på en kobling til et av søkeresultatene ), og en rekke nye funksjoner designet for å gjøre søk lettere og mer tilgjengelig.
Hvordan Google ble best (og hvorfor det fortsatt er)
Ved slutten av 90-tallet ble søkemotorer blitt nesten ubrukelige på grunn av relevansen (eller mangel på det) av søkeresultatene og utbredelsen av nettspam. Før lanseringen i 1998, og i et halvt tiår etter, hadde konkurrentene ikke noe svar på de monteringsproblemer som ble forårsaket av nettspam og søkemotor-manipulering - som til slutt ble kjent som SEO (søkemotoroptimalisering).
Skriv inn Google.
Google startet som et prosjekt - kjent som BackRub - av Larry Page og Sergey Brin i 1996. Målet med dette prosjektet var å revolusjonere søk ved å bruke lenker som den primære rangering metriske for å forbedre relevansen. Teorien - kjent som citation notation - dreide seg om ideen om at hvert nettsted som koblet til et annet nettsted, i hovedsak uttrykte sin tillit til innholdet som tilbys innenfor sidene. Disse koblingene fungerte som stemmer, og ankerteksten i lenken tjente som en måte å indeksere nettsteder basert på hva andre utstedte disse stemmer for.
Teknologien var spennende, og det førte Brin og Page til å forsøke å selge den til konkurrenter i søkverdenen for en rapportert $ 750.000. Heldigvis var ingen interessert. Tilbake til tegnebrettet fortsatte Page og Brin å forbedre teknologien, og i 2000 var Google den største søkemotoren i verden.
Slik går Google på toppen
Tilpasningsevne kan være den beste måten å beskrive hvordan Google er den mest brukte søkemotoren i verden. Som markedsførere og søkemotor spesialister lærer å manipulere systemet, endrer Google det. Når nye teknologier - for eksempel sosiale medier - begynner å spille en aktiv rolle i samtalene våre, finner Google en måte å integrere dem i algoritmen for å forbedre relevansen. Når søkevaner endres, endres Google med dem.
Google følger kontinuerlig, analyserer og utvikler seg. Ved å utnytte de enorme mengdene data de samler fra hver enkelt av oss, bruker de sine produkter, kan de stadig levere et bedre, mer relevant og brukervennlig produkt enn noen av sine konkurrenter.
Hva fremtiden for søk ser ut som
Mens Google er på toppen og det ikke ser ut til å være noen konkurrenter i horisonten som er i stand til å unseating dem, endres ting raskt på nettet. Her er hva Google - og andre - gjør for å forbedre relevansen av søkeresultatene både nå og i nær fremtid.
Forstå brukerintensiv og semantikk
Søkemotorer - inkludert Google - pleide å levere resultater basert på hvor godt søkene matchet opp med nettsider. Nå, Bing, Google og Yahoo! alle forsøker å forbedre sine resultater basert på å forstå hensikten bak dem, kjent som semantisk søk. Hva Semantisk Markup er og hvordan det vil forandre Internett for alltid. [Teknologi forklart]. Hva Semantisk Markup er og hvordan det vil forandre Internett for alltid. [Teknologi forklart ] Les mer .
For eksempel, hvis en bruker søker etter “Beste sjømat” - resultater i år tidligere ville stole på hvilket nettsted som ble ansett som mest autoritative for disse søkeordene. Nå legger søkemotorer større vekt på å forstå hva du leter etter spesielt, slik at de kan levere de mest optimaliserte resultatene. I dette tilfellet er brukeren mest sannsynlig ute etter de beste sjømatrestaurantene i nærheten, eller oppskrifter. Forstå at over trillioner av mulige søk er hvor ting blir komplisert.
Større vekt på plassering
Eksemplet ovenfor for en spørring om sjømat er en av hovedgrunnene til at stedet blir så viktig. Du sannsynligvis ikke ser etter sjømatrestauranter i San Francisco hvis du bor i Singapore (men hvis du er, legg bare til “i San Francisco” til spørringen din). Posisjonsbasert søk endrer alt ettersom alle store søkemotorene nå bruker posisjonen din for å kunne levere tilpassede resultater for søkene dine.
Forbedret mobilopplevelse
2015 var første gang i historien at mobiltrafikken overgikk det for bærbare datamaskiner og stasjonære datamaskiner, og det er fortsatt en trend med rask oppadgående bevegelse. Faktisk er mest webtrafikk stammer fra smarttelefoner søkrelatert. På grunn av den endrede tiden vi lever i, er det viktig å levere en polert mobilopplevelse til mobilbrukere.
Google gjør nettopp dette ved å frigjøre en ny mobilalgoritme som skjuler nettsteder som ikke vises riktig på mobile enheter. Denne algoritmiske endringen er bare for mobil trafikk, men den skal berike opplevelsen for mobilbrukere og føre vei for videre mobil innovasjon.
Yahoo! er en annen stor søkemotor med fokus på mobil. CEO Marissa Mayer (tidligere Google-ansatt) har skiftet fokus for Yahoo! for å prioritere mobil som et primært middel for å gjenvinne relevans.
Kunnskapsgraf
Bing og Google er begge stort sett investert i å utnytte sine massive databaser med informasjon for å gi rask informasjon om bestemte søkeord og setninger. For å forbedre brukeropplevelsen forsøker begge å eliminere ytterligere trinn som brukeren må ta for å finne informasjon, og i stedet stole på kunnskapsteknologi. En dybde Se på Googles nye kunnskapsgraf Se en dybde på Googles nye kunnskap Graf Les mer .
For eksempel inneholder filmer, kjendisnavn eller stedrelaterte spørringer informasjon om spørringen øverst på siden. For raske søk kan dette spare deg for ytterligere trinn for å måtte grave dypere gjennom resultatene eller besøke flere nettsteder for å finne informasjonen.
Dette har store implikasjoner på mobil, samt talesøk (for eksempel Siri eller Google Now), ettersom de fleste søk er raske forsøk på å hente infromation i motsetning til uttømmende søk på forskning.
Finne nye måter å forbedre algoritmer
Søkemotorer er stadig i krig med hverandre, så vel som de ukjente som lurker rett rundt hjørnet. I et forsøk på å være best, må hver levere svært relevante resultater og raskt. Som sådan endrer algoritmer på alle større søkemotorer stadig i et forsøk på å holde seg foran kurven, og finne nye beregninger som kan føre til bedre resultater.
Et av de mest spennende eksemplene på dette kan være Kunnskapsbasert Trust score Kan Google bruke en algoritme til å bestemme sannheten? Kan Google bruke en algoritme til å bestemme sannheten? Google undersøker om algoritmen kan inneholde sannhet som en rangeringsfaktor. Hva betyr det for nettet? Les mer, basert på et patent fra Google. Selv om Google har nektet enhver hensikt å bruke dette patentet i sin søkealgoritme i nær fremtid, er konsekvensene av det store. Hvis du noen gang har blitt lei av dårlig informasjon etter et nettbasert søk, kan dette nye scoringssystemet endre alt dette ved å rangere nettsteder basert på resultater i Googles Knowledge Vault (faktabutikker hentet fra indeksert innhold) og hvor godt de samsvarer med.
Til slutt, prøver å forutse hvilken søkemotor teknologi utenfor det neste året eller to ser ut som en høyeste øvelse i futility. Når det er sagt, bør det fortsette å komme oss et skritt nærmere en alder der vi er møtt med svaret på et spørsmål i en umiddelbar mote.
Er det en bedre søkemotor enn Google? Hva gjør det bedre? Hvilke søkerelaterte teknologier eller endringer er du mest glade for å se i nær fremtid? Lyder av i kommentarene nedenfor. Jeg vil gjerne høre din ta!
Bildekreditt: Søkemotor via Shutterstock, Firefox Mobile av Johan Larsson via Flickr, Website kodeoptimalisering via Shutterstock
Utforsk mer om: Google, Google Søk, Microsoft Bing, Websøk.