Diese “scheinbare” “Berechnung”, durch die mein Browser “geprüft” werden “soll”, dauert auf meinem HighEnd PC ca. 2 Minuten! Solange muss ich warten! Was für ein Unsinn!
Was soll da auch berechnet werden? Im github zu Anubis steht zu lesen “Da wird die Seele deiner Verbinung gewogen und für recht befunden“! Ich habe schon vor etlichen Jahren mein Examen als evangelischer Theologe erworben und zuvor habe ich Informatik studiert. Ich kann nur sagen - sorry, was für eine “Sch…sse”.
Da steht “Leistungsstufe 6”. Was für ein Unsinn! Zudem ist für diese Seite bei mir explizit Javascript verboten bzw. wird JS ausgefiltert. Da kann also erst einmal nix berechnet werden!
Dann wird eine “Scheingeschwindigkeit” in kH/s angegeben. Welch’ ein Unsinn! Ich nutze eine Glasfaserverbindung mit 1GBits, da braucht diese Seite 2 Minuten, um 736 kH/s auszurechnen!
Zudem setzt das Ding dann unerlaubt Cookies, um mich wiederzuerkennen. Da in meinem Browser für die Cookies jeder Seite und jeden Cookie-Key explizit Regeln definiert sind, werden undefinierte Cookies augenlicklich gelöscht. Somit kann das Anubis gar keinen Effekt haben. Wenn ich die Seite neu lade, kommt der Quatsch wider.
Dann sagt bestimmt der Admin, Anubis-Cookies zulassen. Ich sage, kommt nicht in Frage. Dann discourse zukünftig nicht mehr verwenden!
Demächst sehen wir hier wohl auch noch ein pay-or-okay-Banner. Nee nee…
Da ich selbst beruflich viele Webserver und CMS administriere, rate ich dringend, diesen Unsinn hier rauszunehmen.
Da es mit Schlesien nichts zu tun hat, schiebe ich dieses Thema mal an eine andere Stelle.
Leider ist das ganz und gar kein Unsinn sondern bittere Notwendigkeit. KI-Bots stürzen sich in einem unfassbaren Umfang auf unsere Server. Nicht nur wir sind davon betroffen, sondern ganz viele weitere Betreiber.
Aktuell hilft es noch ganz gut gegen die KI-Bots, den Aufruf einer Webseite ein klein wenig teurer (im Sinne von CPU-Zeit zu machen). Nicht schön in Hinblick auf Energieverbrauch, aber was ist die Alternative? Mehr Energieverbrauch auf der Serverseite (mit entsprechenden Kosten für den Verein) oder Abschalten.
Die Begriffe sind witzig gemeint, trifft aber offenbar nicht jeden Geschmack. Aber: De gustibus non est disputandum. (Über Geschmack lässt sich nicht streiten).
Der Aussage „Das ist wirklich sehr ärgerlich!“ schließe ich mich voll an. Aber ich beziehe sie auf diese unsäglichen KI-Bots, die das Internet unbenutzbar machen. Das „Wollen“ muss man den dahinter sitzenden Menschen unterstellen.
Das kommt bei immer mehr Seiten, auch bei vielen Digitalisierungsprojekten der Uni-Bibliotheken. In den Medien waren auch die enormen Probleme, die Botbetreiber bei der Wikipedia verursachen (obwohl die Schnittstellen zur Verfügung stellt, damit sie eben nicht mittels Scraping abgefischt werden muss).
Insofern: Ärgerlich, aber die Verursacher des Grundproblems sitzen anderswo.
ohne ähnliche Kenntnisse wie “theo2” zu haben, aber doch etwas Erfahrung, stimme ich “theo2” zu.
Kann man diese “bescheuerten KI-Bots” nicht anders blockieren?
Vor etwa 20 Jahren erstellte ich testweise eine einfache Internetseite.Mit “robots.txt” konnte ich bisher diese Seite privat halten (soweit ich weiss) und die Suchmaschinen-Robots diesen Text erkennen und respektieren.
KI-Robots haben nicht alle Rechte (genauso wie die Suchmaschinen-Robots) Es muss etwas geben, um sie direkt und dauerhaft abzuweisen.
Wenn es noch keinen “ki-robots-txt” geben sollte, sollte er schnell erstellt werden und von allen ki-robots respektiert werden!
na ich verstehe ja den Beweggrund. Ich würde mir auch nicht von Murica meinen content klauen lassen. Andererseits bekommt man das Problem, dass die Site eben nicht mehr - oder nur noch eingeschränkt für die GenealogInnen nutzbar ist.
Ich weiss nicht, ob diese einfachen Tips helfen?
Es gibt ja auch noch professionelle KI-Blocker oder man konfiguriert die Firewall anders…
Was willst du machen, wenn sie sich einfach nicht daran halten und die Firmen auch noch Unterstützung ihrer Regierungen haben, also keine Verfolgung droht? Genau das ist der Fall.
Selbst das Aussperren mancher Länder in der Firewall funktioniert nicht, da die KI-Firmen Privatleute bezahlen, um deren Internetanschluss mit zu nutzen (sogenannte Residential Proxies, siehe auch Artikel in der c’t 20/2025.
Hallo Jasper, wäre eigentlich das Bot-Management von Cloudflare eine Lösung? Damit könnten CAPTCHA auf Nutzerseite und auf Vereinsseite viel Traffic vermieden werden. Für gemeinnützige Organisationen gibt es m.W. ein spezielles Programm.