Aug 232010
 

Manchen Besuchern wird seit kurzem bei „Wer ist Online“ eine erweiterte Ansicht aufgefallen sein.

Wer ist Online

Die Besucher werden nun in Mitglieder, Gäste und Bots aufgeteilt. Zu letzteren erhielt ich mehrfach die Frage: „Was ist ein Bot?“

Die Antwort darauf ist eigentlich ganz einfach: Es sind Computerprogramme, die automatisiert verschiedene Aufgaben selbstständig und meist häufig wiederholt durchführen. Bots ist dabei die Mehrzahl von Bot und das wird von „robot“ abgeleitet. In diesem Zusammenhang eben Roboter.

 

Bots gibt es in verschiedenen Formen. Für Computerspiele (Zielhilfe, Ersatz für menschliche Spieler, etc.) , in Chats oder Foren (Kontrolle oder Bereinigung). Der meist anzutreffende Bot im Internet ist von Suchmaschinen, wie Google oder Bing. Hier spricht man dann von Webcrawler. Andere häufigere Webcrawler sind von der russischen Suchmaschine Yandex oder der chinesischen Suchmaschine Baidu.

Um nun bei einer Suchmaschine gefunden zu werden, müssen die Inhalte der eigenen Webseite indiziert werden. Also der Inhalt, wie Texte, Bilder oder gar Dateien (PDF, Word, etc.) wird durch den Webcrawler  eingelesen und in einem Index bei dem jeweiligen Betreiber abgespeichert. Dabei werden Links zu weiteren Webseiten berücksichtigt und ebenso aufgenommen. Abschließend erhält man einen Index mit sehr vielem Inhalt in dem gesucht werden kann.

Bei der Eingabe von einem Suchbegriff wird von der Suchmaschine der eigene Index abgefragt und anschließend das Ergebnis präsentiert. Je nach Betreiber gibt es hier Vor- und Nachteile des Suchergebnisses. Es hängt ebenso davon ab, wie man was wo eingibt.

 

Leider gibt es wie so oft auch Missbrauch bei automatisierten Abläufen. Schnell werden hier Bots generiert, die Emailadressen im Internet suchen, Sicherheitslücken auf Webseiten ausprobieren oder Anmeldedaten für Webdienste durchgehen um so Zugang zur Webseitenverwaltung oder dem Webdienst zu erhalten.

Einige dubiose Webcrawler können sehr aggressiv vorgehen und eine Webseite verlangsamen oder sogar den Aufruf unmöglich machen. Der Zweck dieser Webcrawler oft unklar – der aufgebaute Index bleibt beim Inhaber des Webcrawlers.

Auch bösartige Schadsoftware auf dem Computer sind vorhanden. Hier aber durchaus unter anderen Begriffen, wie Trojaner oder Malware.

Sobald ein Bot mit anderen Bots kommuniziert, kommt der Begriff Botnet hinzu. Also ein Netzwerk zwischen mehreren Bots, die sich gegenseitig Befehle geben können oder nur von einer Quelle Befehle erhalten. Dies kann dann eine Zusammenfassung von vielen befallenen Computern, Smartphones oder sogar Smart-TVs sein, die ohne Wissen der Eigentümer im Hintergrund automatisierte Abläufe durchführen. Klassiker: Versenden von Spam.

Natürlich ist das Versenden von Spam einer von vielen Aufgabenbereichen, den ein böser Bot machen kann. Viele von diesen Bereichen sind strafbar – zum Teil sogar schwer strafbar und können für den Eigentümer (Entwickler / Nutzer des Bots sowieso, aber im Falle von befallen Geräten ebenso der nichtsahnende Eigentümer des Gerätes) neben hohen Internetkosten vor allem Ärger mit Gericht bedeuten – also noch mehr Kosten in Form von Strafen bis hin zu Gefängnis.

 

Unter „Wer ist Online“ bedeuten die Bots fast ausschließlich dass ein Such-Bot (= Webcrawler) die Webseite für die Indizierung besucht. Oft sogar mehrmals pro Tag und dann ab und zu gleichzeitig mit anderen. Somit landet die Webseite / der Beitrag in den Ergebnissen der Suchmaschine und das ist immer gut um neue Leser zu erhalten.

weitere relevante Beiträge...

  Eine Antwort zu “Was sind Bots und wofür werden diese benötigt?”

Kommentare (1)
  1. Ganz tolle Erklärung für alle nicht so sattelfesten Computernutzer :)

 Antworten

Du kannst diese HTML Tags und Attribute benutzen: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

(erforderlich)

(erforderlich)