
Benutzerrekord!
-
- Beiträge: 8626
- Registriert: 3. Apr 2003, 02:00
- Wohnort: KS-34119 oder Nordkurve Auestadion Block 30❤
-
- Beiträge: 388
- Registriert: 5. Apr 2004, 18:50
- Wohnort: Vellmar
Jau,
ich war live dabei und konnte es kaum glauben...
Die Zahl der Benutzer schwankte minütlich um bis zu 20 Personen... mal waren es 80, dann plötzlich wieder fast 100... sehr seltsam
Die Virustheorie von Bernd finde ich sehr bedenkenswert

ich war live dabei und konnte es kaum glauben...
Die Zahl der Benutzer schwankte minütlich um bis zu 20 Personen... mal waren es 80, dann plötzlich wieder fast 100... sehr seltsam

Die Virustheorie von Bernd finde ich sehr bedenkenswert


Alle sagten: "Das geht nicht!"
Dann kam einer, der wusste das nicht
und hat´s einfach gemacht!
Dann kam einer, der wusste das nicht
und hat´s einfach gemacht!
-
- Beiträge: 1474
- Registriert: 3. Aug 2005, 03:26
- Wohnort: Vorstadt
Re: Benutzerrekord!
1 User und 100 Bots.Kaa Ess Vau hat geschrieben:Ist das wahr??? Was war denn da los?Der Rekord liegt bei 101 Benutzern am 26 Dez 2005 22:20.

-
- Beiträge: 109
- Registriert: 2. Feb 2005, 19:44
- Wohnort: Kassel - Wehlheiden
Unter einem Bot (abgekürzt vom Begriff robot abgeleitet) versteht man ein Computerprogramm, das weitgehend autonom ständig gleichen, sich wiederholenden Aufgaben nachgeht. Es handelt sich dabei meist um ein eher simples, aber effektives Programm. Gebräuchlich ist die Bezeichnung auch für quasi-selbständige Programme im Bereich der Künstlichen Intelligenz.
Beispiele für Bots sind die Webcrawler von Internet-Suchmaschinen, die selbsttätig Webseiten besuchen, wobei sie den vorhandenen Links folgen und dabei ggf. den Inhalt der Seiten auswerten. „Gutartige“ Bots halten sich dabei an die Robot Exclusion Standards, mit denen Serverbetreiber das Botverhalten kontrollieren können. „Bösartige“ Bots werden zum Sammeln von E-Mail-Adressen für Spamzwecke, für das massenhafte unautorisierte Kopieren von Webinhalten bis hin zum systematischen Ausspionieren von Softwarelücken von Servern mit dem Ziel des Hackens von Servern eingesetzt. Maßnahmen gegen das unerwünschte Spidern von Websites basieren häufig auf dem Einsatz von sog. Honeypots zur automatischen Erkennung und einer darauf folgenden IP-basierten Aussperrung.
Beispiele für Bots sind die Webcrawler von Internet-Suchmaschinen, die selbsttätig Webseiten besuchen, wobei sie den vorhandenen Links folgen und dabei ggf. den Inhalt der Seiten auswerten. „Gutartige“ Bots halten sich dabei an die Robot Exclusion Standards, mit denen Serverbetreiber das Botverhalten kontrollieren können. „Bösartige“ Bots werden zum Sammeln von E-Mail-Adressen für Spamzwecke, für das massenhafte unautorisierte Kopieren von Webinhalten bis hin zum systematischen Ausspionieren von Softwarelücken von Servern mit dem Ziel des Hackens von Servern eingesetzt. Maßnahmen gegen das unerwünschte Spidern von Websites basieren häufig auf dem Einsatz von sog. Honeypots zur automatischen Erkennung und einer darauf folgenden IP-basierten Aussperrung.
