3 måter du kan fjerne uønskede bloggsider fra Google
Er du en troende i ideen om at når noe er publisert på Internett, publiseres det for alltid? Vel, i dag skal vi fjerne den myten.
Sannheten er at det i mange tilfeller er ganske mulig å utrydde informasjon fra Internett. Jo, det er en oversikt over nettsider som er slettet hvis du søker på Wayback-maskinen, ikke sant? Yup, absolutt. På Wayback Machine er det poster på nettsider som går tilbake mange år - sider som du ikke finner med et Google-søk fordi nettsiden ikke lenger eksisterer. Noen slette det, eller nettsiden ble stengt.
Så, det er ingen å komme seg rundt, ikke sant? Informasjon vil alltid bli gravert inn i stenen av Internett, der i generasjoner å se? Vel, ikke akkurat.
Sannheten er at mens det kan være vanskelig eller umulig å tørke ut store nyhetshistorier som har spredt seg fra en nyhetswebside eller blogg til en annen som et virus, er det faktisk ganske enkelt å helt utrydde en nettside eller flere nettsider fra alle poster av eksistensen - for å fjerne siden for både søkemotorer og Wayback-maskinen. Den nye Wayback-maskinen lar deg visuelt reise tilbake i Internett-tid. Den nye Wayback-maskinen lar deg visuelt reise tilbake i Internett-tid. Det virker som siden Wayback Machine-lanseringen i 2001, har nettstedseierne besluttet å kaste ut Alexa-baserte back-end og redesign det med egen åpen kildekode. Etter å ha gjennomført tester med ... Les mer. Det er selvfølgelig en fangst, men det kommer vi til.
3 måter å fjerne blogg sider fra nettet
Den første metoden er den som flertallet av eiere bruker, fordi de ikke vet noe bedre - bare å slette nettsider. Dette kan skje fordi du har innsett at du har duplikat innhold på nettstedet ditt, eller fordi du har en side du ikke vil vise opp i søkeresultatene.
Bare slett siden
Problemet med å slette sider fra nettstedet ditt er at siden du allerede har opprettet siden på nettet, er det sannsynlig at det er lenker fra ditt eget nettsted, samt eksterne lenker fra andre nettsteder til den aktuelle siden. Når du sletter det, gjenkjenner Google umiddelbart den siden din som en manglende side.
Så, ved å slette siden din har du ikke bare opprettet et problem med “Ikke funnet” gjennomsøkingsfeil for deg selv, men du har også opprettet et problem for alle som noensinne har koblet til siden. Vanligvis vil brukere som kommer til nettstedet ditt fra en av disse eksterne koblingene se 404-siden din, som ikke er et stort problem, hvis du bruker noe som Googles tilpassede 404-kode for å gi brukerne nyttige forslag eller alternativer. Men du tror at det kunne være mer grasiøse måter å slette sider fra søkeresultater uten å slå av alle de 404-er for eksisterende innkommende linker, til høyre?
Vel, det er.
Fjern en side fra Googles søkeresultater
Først av alt bør du forstå at hvis nettsiden du vil fjerne fra Googles søkeresultater, ikke er en side fra ditt eget nettsted, er du ute av lykke med mindre det er juridiske grunner eller om nettstedet har lagt ut dine personlige informasjon på nettet uten din tillatelse. Hvis det er tilfelle, bruk deretter Googles feilsøkingsverktøy for fjerning for å sende inn en forespørsel om at siden skal fjernes fra søkeresultatene. Hvis du har et gyldig tilfelle, kan det hende du finner en viss suksess når du har fjernet siden - selvfølgelig kan du ha enda større suksess, bare å kontakte nettstedets eier. Slik fjerner du False personopplysninger på Internett. Slik fjerner du False personopplysninger på Internett. Les mer som jeg beskrev hvordan å gjøre tilbake i 2009.
Nå, hvis siden du vil fjerne fra søkeresultatene er på ditt eget nettsted, har du lykke til. Alt du trenger å gjøre er å lage en robots.txt fil og sørg for at du har avvist enten den spesifikke siden du ikke vil ha i søkeresultatene, eller hele katalogen med innholdet du ikke vil indeksere. Her ser det ut som blokkerer en enkelt side.
Brukeragent: * Tillat: /mydelegget-artikkelen-dette-i-omvokset.html
Du kan blokkere bots fra å gjennomsøke hele katalogene på nettstedet ditt som følger.
Brukeragent: * Tillat: / innhold-om-personlig-ting /
Google har en utmerket støtteside som kan hjelpe deg med å opprette en robots.txt-fil hvis du aldri har opprettet en før. Dette virker veldig bra, som jeg for nylig forklarte i en artikkel om strukturering av syndikatilbud. Slik forhandler Syndication-avtaler og beskytter søkrangeringen. Slik forhandler du Syndication-tilbud og beskytter søkerangeringen. Syndicating er all raseri i disse dager. Men plutselig kan du finne at syndikeringspartneren er oppført høyere enn deg i søkeresultatene for en historie du opprinnelig skrev! Beskytt søkeordene dine. Les mer slik at de ikke gjør deg vondt (spør samarbeidspartnere om å ikke tillate indeksering av deres sider der du er syndikert). Når min egen syndikasjonspartner ble enige om å gjøre dette, forsvant sidene som ble duplisert innhold fra bloggen min helt fra søkelister.
Bare hovedwebsiden kommer opp på tredje plass for siden der de opplister tittelen vår, men bloggen min er nå oppført på både første og andre plasser; noe som ville vært nesten umulig hadde en høyere autoritet nettsted forlatt dupliserte siden indeksert.
Det mange mennesker ikke skjønner er at dette også er mulig å oppnå med Internet Archive (Wayback Machine) også. Her er linjene du må legge til i robots.txt-filen for å få det til å skje.
Brukeragent: ia_archiver Tillat: / sample-category /
I dette eksemplet forteller jeg Internett-arkivet for å fjerne noe i underkatalogen for prøvekategori på nettstedet mitt fra Wayback-maskinen. Internett-arkivet forklarer hvordan du gjør dette på hjelpesiden for utestenging. Dette er også der de forklarer det “Internettarkivet er ikke interessert i å tilby tilgang til nettsteder eller andre Internett-dokumenter hvis forfattere ikke vil ha materialet i samlingen.”
Dette flyr i motsetning til den vanlige troen på at alt som legges opp på Internett blir feid opp i arkivet for all evighet. Nope - webansvarlige som eier innholdet, kan spesifikt ha innholdet fjernet fra arkivet ved hjelp av robots.txt tilnærmingen.
Fjern en individuell side med metatagger
Hvis du bare har noen individuelle sider som du vil fjerne fra Googles søkeresultater, trenger du faktisk ikke å bruke robots.txt-tilnærmingen i det hele tatt, du kan bare legge til riktig “roboter” metakode til de enkelte sidene, og fortell robotene om ikke å indeksere eller følge koblinger på hele siden.
Du kan bruke “roboter” meta over for å stoppe roboter fra å indeksere siden, eller du kan spesifikt fortelle Google-roboten om ikke å indeksere, slik at siden bare fjernes fra Googles søkeresultater, og andre søkroboter kan fortsatt få tilgang til sidens innhold.
Det er helt opp til deg hvordan du vil styre hva roboter gjør med siden, og om siden blir oppført eller ikke. For bare noen få sider kan dette være den bedre tilnærmingen. For å fjerne en hel innholdskatalog, gå med robots.txt-metoden.
Ideen til “fjerne” Innhold
Denne typen svinger hele ideen om “sletter innhold fra Internett” på hodet. Teknisk sett, hvis du fjerner alle dine egne koblinger til en side på nettstedet ditt, og du fjerner det fra Google Søk og Internett-arkivet ved hjelp av robots.txt-teknikken, er siden for all hensikt og formål “slettet” fra internett. Den kule tingen er imidlertid at hvis det finnes eksisterende lenker til siden, vil disse koblingene fortsatt fungere, og du vil ikke utløse 404 feil for de besøkende.
Det er mer “skånsom” tilnærming til å fjerne innhold fra Internett uten å fullstendig ødelegge nettstedets eksisterende link popularitet over hele Internett. Til slutt, hvordan du går om å administrere hvilket innhold som samles inn av søkemotorer og Internett-arkivet, er opp til deg, men husk alltid at til tross for hva folk sier om levetiden til ting som blir lagt ut på nettet, er det virkelig helt innenfor din kontroll.
Utforsk mer om: Google, Google Søk, SEO, Webdesign, Verktøy for nettredaktører.