yubb.de-Logo
Tutorials
yubb@yubb
yubbService
Inside yubb



Dabei gibt es verschiedene Varianten: Man kann ihnen falsche Adressen auftischen, wobei immer noch die Gefahr bleibt, dass man zufällig doch existierende Adressen in den Index der Spammer aufgenommen werden.
Besser ist es, allen Programmen, die nicht erwünscht sind, eine Fehlerseite aufzutuschen. Damit täuscht man den Programmen vor, dass die Seite nicht gefunden werden konnte, normale Benutzer können die Seite aber ohne Einschränkungen nutzen.

Dazu füge in deine .htaccess-Datei z.B. folgenden Inhalt ein:
Code:

RewriteEngine On
RewriteCond %{HTTP_USER_AGENT} ^BlackWidow [OR]
RewriteCond %{HTTP_USER_AGENT} ^Bot mailto:craftbot@yahoo.com [OR]
RewriteCond %{HTTP_USER_AGENT} ^ChinaClaw [OR]
RewriteCond %{HTTP_USER_AGENT} ^DISCo [OR]
RewriteCond %{HTTP_USER_AGENT} ^Download Demon [OR]
RewriteCond %{HTTP_USER_AGENT} ^eCatch [OR]
RewriteCond %{HTTP_USER_AGENT} ^EirGrabber [OR]
RewriteCond %{HTTP_USER_AGENT} ^EmailSiphon [OR]
RewriteCond %{HTTP_USER_AGENT} ^Express WebPictures [OR]
RewriteCond %{HTTP_USER_AGENT} ^ExtractorPro [OR]
RewriteCond %{HTTP_USER_AGENT} ^EyeNetIE [OR]
RewriteCond %{HTTP_USER_AGENT} ^FlashGet [OR]
RewriteCond %{HTTP_USER_AGENT} ^GetRight [OR]
RewriteCond %{HTTP_USER_AGENT} ^Go!Zilla [OR]
RewriteCond %{HTTP_USER_AGENT} ^Go-Ahead-Got-It [OR]
RewriteCond %{HTTP_USER_AGENT} ^GrabNet [OR]
RewriteCond %{HTTP_USER_AGENT} ^Grafula [OR]
RewriteCond %{HTTP_USER_AGENT} ^JOC Web Spider [OR]
RewriteCond %{HTTP_USER_AGENT} ^larbin [OR]
RewriteCond %{HTTP_USER_AGENT} ^LeechFTP [OR]
RewriteCond %{HTTP_USER_AGENT} ^Mass Downloader [OR]
RewriteCond %{HTTP_USER_AGENT} ^NetAnts [OR]
RewriteCond %{HTTP_USER_AGENT} ^NetSpider [OR]
RewriteCond %{HTTP_USER_AGENT} ^Net Vampire [OR]
RewriteCond %{HTTP_USER_AGENT} ^NetZIP [OR]
RewriteCond %{HTTP_USER_AGENT} ^Octopus [OR]
RewriteCond %{HTTP_USER_AGENT} ^Offline Explorer [OR]
RewriteCond %{HTTP_USER_AGENT} ^Offline Navigator [OR]
RewriteCond %{HTTP_USER_AGENT} ^WebStripper [OR]
RewriteCond %{HTTP_USER_AGENT} ^WebWhacker [OR]
RewriteCond %{HTTP_USER_AGENT} ^WebZIP [OR]
RewriteCond %{HTTP_USER_AGENT} ^Wget [OR]
RewriteCond %{HTTP_USER_AGENT} ^Widow [OR]
RewriteCond %{HTTP_USER_AGENT} ^Xaldon WebSpider [OR]
RewriteCond %{HTTP_USER_AGENT} ^Zeus
RewriteRule ^.* - [F]


Wie man an der ersten Zeile sieht, muss der Webspace das Modul "mod_rewrite" unterstützen, damit dieses Tutorial klappt.
Anschließend wird der spezifische Name des Programms mit dem die Seite aufgerufen wird, überprüft. Trifft der Name auf einen dieser Namen oben, so erhält das Programm einen Fehler als Rückmeldung und nicht die Seite.

Diese Liste ist natürlich nur ein Beispiel und lässt sich beliebig im Umfang ändern. Hierfür müsst ihr einfach nur die Syntax
Code:
RewriteCond %{HTTP_USER_AGENT} ^Programmname
einhalten.
Aber passt auf: So kann man sich auch Suchmaschinen-Bots oder echte Besucher aussperren, man muss schon Ahnung haben, WAS man da aussperrt.

Geschrieben von Phil Marx am 18.06.2004 (10196x gelesen)
weiterempfehlen weiterempfehlen   Druckversion Druckversion   kommentieren kommentieren

und wo haste das gelaut? ^^ :p
Geschrieben von michi
Ich verrate doch nicht meine Quellen
Geschrieben von Phil Marx
Völliger Blödsinn! Kein Bot-Betreiber ist do dämlich,
seinen Spider extra im User-Agent String zu markieren.
So ziemlich jeder Spider gibt sich als IE, Firefox etc.
aus. Damit wäre schonmal der Schutzefekt dahin.

Schlimmer ist nur noch, dass "Offline-Browser" und
Synchronisationsprogramme ausgesperrt werden.
Warum dürfen sich User, deren ihren INet-Zugang
nach Zeit abgerechnet wird, die Inhalte nicht am Stück
runterladen und in Ruhe offline lesen?

Der ganze Artikel zeugt von völliger Unkenntnis der
Materie und Dilletantismus auf der ganzen Linie.
Und leider gibt es genug Leute, die noch weniger
Ahnung als der Verfasser haben, und diesen Mist
einfach kopieren und anwenden...
Geschrieben von User