<< Zurück zur Übersicht |
Robots.txt Generator v1.1:Allgemein:Beschreibung:
Dies können Sie mit einer Robots.txt lösen. Beschreibung der Robots.txt Suchmaschinen besitzen Programme, die Spider genannt werden. Diese durchsuchen Ihre Webseiten nach Links. Alle gefunden Links werden dann, entsprechend der Spiderprogrammierung, soweit verfolgt, dass die Spider erkennen, wohin genau die Links führen. Mit der Datei Robots.txt, die im Hauptverzeichnis(Root) liegen muss, legen Sie entsprechende Sperren bzw. Freigaben für die Suchmaschinen fest. Dieses Script hilft Ihnen nun, Ihre Robots.txt zu erstellen, die Sie nur noch auf Ihren Webspace legen müssen. Systemanforderung:
|