Themen
13.10.2009 SEM / SEO / SEA

SEO: Warum Websites trotz Robots.txt-Sperre in Google gezeigt werden

Matt Cutts, Leiter des Google Webspam Team, erklärt in einem Video, warum Websites im Google-Index auftauchen, obwohl explizit in der Robots.txt-Datei das Durchsuchen der Website gesperrt wurde. Grund dafür können Backlinks auf die vermeintlich gesperrte Website sein: In seinem Videobeitrag erklärt er auch, was zu unternehmen ist, wenn die Seite aus dem Google-Index entfernt werden […]

Thomas Hutter
1 Min. Lesezeit
Keine Kommentare

Matt Cutts, Leiter des Google Webspam Team, erklärt in einem Video, warum Websites im Google-Index auftauchen, obwohl explizit in der Robots.txt-Datei das Durchsuchen der Website gesperrt wurde. Grund dafür können Backlinks auf die vermeintlich gesperrte Website sein:

In seinem Videobeitrag erklärt er auch, was zu unternehmen ist, wenn die Seite aus dem Google-Index entfernt werden soll.

Kommentar via Facebook

Bitte akzeptieren Sie die Cookies um die Facebook Kommentare zu nutzen.

Schreib uns einen Kommentar

Kennst Du schon unseren wöchentlichen Newsletter?