13.10.2009 Diverses

SEO: Warum Websites trotz Robots.txt-Sperre in Google gezeigt werden

Matt Cutts, Leiter des Google Webspam Team, erklärt in einem Video, warum Websites im Google-Index auftauchen, obwohl explizit in der Robots.txt-Datei das Durchsuchen der Website gesperrt wurde. Grund dafür können Backlinks auf die vermeintlich gesperrte Website sein: In seinem Videobeitrag erklärt er auch, was zu unternehmen ist, wenn die Seite aus dem Google-Index entfernt werden […]

Thomas Hutter
1 Min. Lesezeit
Keine Kommentare

Matt Cutts, Leiter des Google Webspam Team, erklärt in einem Video, warum Websites im Google-Index auftauchen, obwohl explizit in der Robots.txt-Datei das Durchsuchen der Website gesperrt wurde. Grund dafür können Backlinks auf die vermeintlich gesperrte Website sein:

In seinem Videobeitrag erklärt er auch, was zu unternehmen ist, wenn die Seite aus dem Google-Index entfernt werden soll.

Facebook Instagram Twitter LinkedIn Xing TikTok

Möchtest Du immer auf dem neusten Stand mit unseren Newsletter sein?

Melde Dich jetzt an