13.10.2009 Diverses

SEO: Warum Websites trotz Robots.txt-Sperre in Google gezeigt werden

Matt Cutts, Leiter des Google Webspam Team, erklärt in einem Video, warum Websites im Google-Index auftauchen, obwohl explizit in der Robots.txt-Datei das Durchsuchen der Website gesperrt wurde. Grund dafür können Backlinks auf die vermeintlich gesperrte Website sein: In seinem Videobeitrag erklärt er auch, was zu unternehmen ist, wenn die Seite aus dem Google-Index entfernt werden […]

Thomas Hutter
1 Min. Lesezeit
Keine Kommentare

Matt Cutts, Leiter des Google Webspam Team, erklärt in einem Video, warum Websites im Google-Index auftauchen, obwohl explizit in der Robots.txt-Datei das Durchsuchen der Website gesperrt wurde. Grund dafür können Backlinks auf die vermeintlich gesperrte Website sein:

In seinem Videobeitrag erklärt er auch, was zu unternehmen ist, wenn die Seite aus dem Google-Index entfernt werden soll.

Facebook Instagram Twitter LinkedIn Xing TikTok

Kommentar via Facebook

Bitte akzeptieren Sie die Cookies um die Facebook Kommentare zu nutzen.

Schreib uns einen Kommentar

Möchtest Du immer auf dem neusten Stand mit unseren Newsletter sein?

Melde Dich jetzt an