SEO: Warum Websites trotz Robots.txt-Sperre in Google gezeigt werden

pin it
Share

Matt Cutts, Leiter des Google Webspam Team, erklärt in einem Video, warum Websites im Google-Index auftauchen, obwohl explizit in der Robots.txt-Datei das Durchsuchen der Website gesperrt wurde. Grund dafür können Backlinks auf die vermeintlich gesperrte Website sein:

In seinem Videobeitrag erklärt er auch, was zu unternehmen ist, wenn die Seite aus dem Google-Index entfernt werden soll.

Autor: Thomas Hutter (1243 Posts)

Thomas Hutter (38) ist Inhaber und Geschäftsführer der Hutter Consult GmbH. Er berät grosse und mittlere Unternehmen, Organisationen und Agenturen in der Schweiz, Deutschland, Österreich und Niederlanden rund um den strategischen und nachhaltigen Einsatz von digitaler Kommunikation und digitalem Marketing in und mit sozialen Netzwerken.

Author InfoAuthor InfoAuthor InfoAuthor InfoAuthor InfoAuthor InfoAuthor InfoAuthor Info

pin it
Share

NEU: Wöchentlicher Facebook Marketing Newsletter Jetzt registrieren!
Hello. Add your message here.