Zacryon

joined 1 year ago
[–] Zacryon@feddit.org 2 points 1 hour ago

Now tell me again about how peaceful religions are.

[–] Zacryon@feddit.org 1 points 1 hour ago

Yes. But if the machine has proven to work reliably it will usually do so for its lifetime, while humans are prone to e multitude of errors. Especially in the medical field.

[–] Zacryon@feddit.org 2 points 1 hour ago

USA is namba waan!

[–] Zacryon@feddit.org 1 points 12 hours ago (2 children)

I trust a good machine much more than any human.

[–] Zacryon@feddit.org 3 points 12 hours ago (6 children)

That's such a fucking stupid idea.

Care to elaborate why?

From my point of view I don't see a problem with that. Or let's say: the potential risks highly depend on the specific setup.

[–] Zacryon@feddit.org 4 points 1 day ago* (last edited 1 hour ago)

Solange alles auf Korrektheit geprüft wurde und entsprechend markiert wird, habe ich keine Einwände.

Ist aber auch eine Frage dessen, was nun als "KI generiert" gilt.
Beispiele:
Orthographische Prüfung/Verbesserung? Kein Problem.
Aus einigen Stichpunkten oder grob formulierten Sätzen eine geglätte Version erzeugen? Kein Problem.
Sofern natürlich der Inhalt geprüft wird. Eine schriftliche Wettervorhersage auf Basis von entsprechenden Eingabedaten erzeugen oder den Ausgang eines Sportereignisses beschreiben? Kein Problem. Gab es prä-LLMs eh schon.

Ein wenig sehe ich die Gefahr darin, dass man sein Denken so sehr externalisiert, dass die kritische Prüfung aus Effizienzgründen irgendwann völlig unter den Tisch fällt und man fahrlässig auch grobe Fehler hinnimmt, sobald das Gewohnheit bei Nachrichtenportalen wird. Quasi hauptsache Masse, statt Klasse.

[–] Zacryon@feddit.org 2 points 1 day ago (1 children)

Alter wtf. Sozialstaat, wo?

[–] Zacryon@feddit.org 11 points 3 days ago (1 children)

though the biggest factor is that the Moon is moving away from the Earth (who can blame it)

[–] Zacryon@feddit.org 13 points 3 days ago

Lemonade stand. Spiced up with some crystal meth.

[–] Zacryon@feddit.org 5 points 3 days ago

Woops. I could have sworn there was "day" written. Misread it, haha. Thanks for the hint!

[–] Zacryon@feddit.org 6 points 3 days ago (1 children)
 
 

Ein internationales Forscherteam hat mit ScamChatBot ein KI-System gebaut, das sich als potenzielles Opfer ausgibt, um Betrüger zu enttarnen. Ziel ist es, Zahlungsinformationen aufzudecken, um so den Betrug zu bekämpfen.

Das Ziel: Sobald der Onlinebetrüger Kontodaten nennt, an die das Geld überwiesen werden soll, werden diese automatisch an Zahlungsdienstleister wie zum Beispiel PayPal weitergeleitet. Diese können dann die Konten sperren und so Internetnutzende und davor bewahren, betrogen zu werden.

Über vier Monate tauschte ScamChatBot mehr als 18.000 Chatnachrichten mit Betrügern aus. In rund 500 Fällen gelang es, konkrete Informationen zu sammeln, darunter Wallet-Adressen, PayPal-Konten oder Links zu Betrugswebseiten. Die Plattform X bestätigte gegenüber den Wissenschaftlern, dass 84 Prozent der gemeldeten Profile gegen Richtlinien verstießen und leitete Maßnahmen gegen 1,4 Millionen verknüpfte Accounts ein.

Aktuell trainieren die Forscherinnen und Forscher die KI, so dass sie auch mit Betrügern telefonieren kann.

Laut dem UN-Büro für Drogen- und Verbrechensbekämpfung in Südostasien belaufen sich die Schäden weltweit auf rund 40 Milliarden US-Dollar pro Jahr. Befördert wird das unter anderem durch den Einsatz von KI, die es den Kriminellen erlaubt, Sprachbarrieren zu überwinden und automatisiert auf viele Opfer gleichzeitig zuzugehen.

Laut den Vereinten Nationen werden in Südostasien mehr als 100.000 Menschen in sogenannten Scam-Fabriken unter Zwang festgehalten. Sie müssen unter falscher Identität betrügen, dies oft mit Hilfe von Tools wie ChatGPT. Laut UN-Analyst Benedikt Hofmann entstehen in Ländern wie Myanmar oder Laos systematisch neue Standorte für organisierten Internetbetrug, begünstigt durch instabile politische Verhältnisse.

Auch hierzulande zeigt sich das Problem: Im Jahr 2024 wurden laut Bundeslagebild Cybercrime mehr als 130.000 Fälle mit Tatort in Deutschland erfasst, dazu rund 202.000 Taten, deren Ursprung im Ausland liegt, die aber in Deutschland ihre Wirkung entfalten. Das Bundeskriminalamt nennt vor allem "Cybercrime-as-a-Service" als wachsenden Faktor: Kriminelle mieten sich Dienstleistungen vom Fake-Profil bis zur automatisierten Zahlungsaufforderung.

Doch auch die Cyberkriminellen entwickeln sich immer weiter. In etwa jedem vierten Fall stellte das Forscherteam fest, dass die Betrüger selbst automatisierte Texte verwendeten. Manche Online-Betrüger reagierten etwa in unter einer Sekunde, was ein Hinweis auf Bot-Nutzung ist. "Wir stehen erst am Anfang", sagt IT-Sicherheitsforscher Thorsten Holz. "Die nächste Welle an Betrugs-KI ist bereits unterwegs."

 
 
 
 
 
 
 

Heute ist übrigens Tag der Zugvögel.

Zeigt mir eure Zugvögel.

 
view more: next ›