Eige websiten kriegen einfach ein klein bisschen weniger Traffic
Technik
die Community für alles, was man als Technik beschreiben kann
the community for everything you could describe as technology
Beiträge auf Deutsch oder Englisch
Posts in German or English
Naja, nicht jede Webiste lässt sich ohne weiteres vermeiden:
Bei der Deutschen Bahn kann ich mich zwar einloggen. Sobald ich aber eine neue Kreditkarte hinzufügen möchte, bekomme ich auch einen Fehler
keine sorge: die bahnwebseite ist gerade auch auf chromium kaputt
auch auf windows
ohne google account bist du demnächst ein bot
Ich hab die letzten Tage auch massiv Probleme Tickets zu kaufen. Selbst über den originalen DB Navigator spinnt es dauernd rum.
Der Titel sollte "Website ist kaputt" sein. Firefox Support sollte nicht als optional impliziert sein.
Hast du mal versucht eine Erweiterung zu installieren, die einfach nur den user agent von chrome imitiert? Bei einigen gammeligen Webseiten funktioniert das wohl, wahrscheinlich will die IT Abteilung einfach ihren Code nicht für 2 Browser testen.
Warum will man eigentlich Brave benutzen? Einer der Gründe wurde bei Firefox gegangen, weil er gegen gleichgeschlechtliche Ehe ist.
So jemanden würde ich nicht unterstützen wollen.
Ich hab das Problem auch auf dem Smartphone mit GrapheneOS manchmal. Einige Seiten kann ich im Firefox-basierten Fennec-Browser nicht scrollen. Im Vanadium-Browser geht's dann aber.
Das kling mir sehr danach, dass die genannten Websites Google Recaptcha v3 einsetzen, was aufgrund der DSGVO an sich nicht zulässig ist, da Daten an Drittanbieter (Google) übertragen werden, wobei die Websitebetreiber keinerlei Kontrolle darüber haben, wie diese Daten verarbeitet werden (aus demselben Grund ist auch der Einsatz von Google Fonts nicht DSGVO-konform, sofern sie nicht auf dem eigenen Server gehostet werden).
Kurzum: Es sieht mir so aus, als ob der (unsichtbare) Bot-Schutz, den die genannten Seiten offenbar einsetzen, nicht rechtens ist. Firefox funktioniert damit mutmaßlich nicht, da ReCaptcha v3 im Prinzip Profile erstellt, an denen evaluiert wird, ob es sich um "menschliche" Nutzer handelt, also ob sich ein jeweiliger Nutzer so verhält, wie es bei einem Menschen zu erwarten ist. Bei Nutzung von Firefox liegen Google mutmaßlich nicht genug Daten über das Verhalten eines jeweiligen Nutzers vor, weshalb der Mechanismus solche Zugriffe fälchlicherweise als Bot-Traffic blockt.
Überprüft habe ich das für die genannten Seiten nicht, aber was im Artikel beschrieben ist, kling sehr danach - jedenfalls nach einem Catcha-Mechanismus.