Die Digitalisierung wird weiter in allen Bereichen vorangetrieben und ganz offensichtlich scheint es den Großteil der Bevölkerungen nicht im Geringsten zu interessieren, welche Gefahren damit einhergehen. Seien es die Themen Überwachung, Kontrolle oder Arbeitsplatzverlust – keines dieser Themen (und weitere) veranlassen auch nur einen Teil der Menschen kritisch gegen die zunehmende Digitalisierung im Alltag Stellung zu beziehen. Zwar mögen inzwischen mehr von ihnen mit den Begriffen digitale ID oder CBDCs anfangen zu können, aber welches Missbrauchspotenzial damit einhergeht, interessiert oder stört dabei die wenigsten. Obwohl die Macht der Digital-/Finanzkonzerne oder die Gefahren von digitalem Missbrauch immer offensichtlicher werden, wie die beiden nachfolgenden Beispiele zeigen:
KI-gesteuerte Betrugserkennung: BioID
Der jüngste Lunch Talk der European Association for Biometrics (EAB) befasst sich mit der Bedrohung durch Deepfakes und damit, was getan werden kann, um deren Missbrauch zuverlässig zu erkennen. Das Unternehmen BioID hat nach eigenem Vernehmen eine „Lösung“ dafür, und die Vizepräsidentin für Geschäftsentwicklung des deutschen Biometrieunternehmens, Ann-Kathrin Freiberg, erklärt, wie es dazu kam und warum die Erkennung von Deepfakes ein (*Ironie ein*) „wichtiges Instrument zur Bekämpfung von politischer Desinformation, Identitätsdiebstahl und Betrug mittels Videoanrufe“ ist.
BioID ist ein „forschungsorientiertes Unternehmen (research-focused company,)“, sagt Freiberg – und kennt daher das Ausmaß dessen, was mit der Deepfake-Technologie möglich ist. Während Pornografie nach wie vor die treibende Kraft für Deepfakes ist, sei die politische Einmischung eine drohende Gefahr, da gegnerische Nationen versuchen, sich in die Wahlen ihrer Rivalen einzumischen.
„Die Wahlen in den USA sind stark von anderen Nationen beeinflusst worden (U.S. elections have strongly been influenced by other nations)“, sagt Freiberg. Sie weist darauf hin, wie weit sich gefälschte Inhalte in kurzer Zeit verbreiten können:
Das Problem ist, dass selbst wenn man später herausfindet, dass das Material nicht echt ist, der Schaden bereits angerichtet ist.
—
(The issue is, even if you can find out later that the material is not genuine, the damage has already been done.)
Die technologische Entwicklung, sagt sie, überholt die Medienkompetenz. Erwachsene neigen dazu, zu glauben, sie wüssten, was Sache ist, aber neue KI-Tools zur Täuschung haben ein erhöhtes Bewusstsein erforderlich gemacht, um zu vermeiden, dass man auf Desinformationen hereinfällt. Das Ergebnis ist ein erhöhtes Risiko von Identitätsdiebstahl, Rufschädigung und finanziellen Verlusten – aber auch auf gesellschaftlicher Ebene eine Bedrohung für die öffentliche Sicherheit und die Meinungsfreiheit.
Das menschliche Auge, so Freiberg, ist nicht darauf trainiert, Deepfakes zu erkennen, und wird Schwierigkeiten haben, sie zu identifizieren, wenn es nicht auf die Bedrohung aufmerksam gemacht wird. Selbst mit Training kann es schwierig sein, gefälschte Bilder zu erkennen.
Im Moment gibt es einzelne Hinweise, die die Deepfakes (noch) erkennbar machen. Deformierte Bereiche, unscharfe Texturen, fehlendes Blinzeln und skizzenhafte Zähne sind allesamt Anzeichen dafür, dass Medien mithilfe von KI oder Deep Learning erstellt wurden. Aber das Tempo der Entwicklung bedeutet, dass diese Artefakte wahrscheinlich eher früher als später verschwinden werden.
„Wenn wir noch ein paar Monate warten, wird es diese unrealistischen Teile eines Deepfakes wahrscheinlich nicht mehr geben (If we wait a few more months, then those unrealistic parts of a deepfake probably won’t be there anymore)“, sagt Freibeg, „denn die Technologie entwickelt sich so schnell und wird immer besser (because the technology develops so quickly and gets better and better)“.
Derzeit umfasst das Deepfake-Arsenal Gesichtstausch, Gesichtsnachstellung, Manipulation von Gesichtsattributen (die allesamt bestehende Bilder verändern) und generative KI, die komplett gefälschte Bilder synthetisiert. Text-to-Video-Plattformen wie Sora und Pika Labs ermöglichen die Erstellung von gefälschten Videos durch Eingabeaufforderungen.
Aber es zeichnen sich bereits weitere Taktiken ab, mit Tools wie Picsi.AI, die hybride Versionen der Deepfake-Erstellung anbieten. Und die derzeitigen Beschränkungen hinsichtlich Zeit und Fähigkeiten werden nicht von Dauer sein. Freiberg zitiert eine Aussage von Netflix, das „plant, die Möglichkeit zu schaffen, dass Einzelpersonen sich ihren Film innerhalb der nächsten Nacht wünschen können, und dann wird innerhalb eines Tages ein vollständiger Film für sie erstellt (planning to have the possibility for individuals to wish for their movie within the next night, and then within one day a full movie will be created for them)“.
Die sozialen Medien sind ein besonderes Minenfeld. KI-Modelle haben bereits Unmengen von Followern auf Instagram und bringen den Agenturen, die sie erstellen, Tausende von Euro pro Monat ein. Das mag ein lukratives Geschäft sein, aber es ist auch eine potenzielle Goldgrube für Betrüger. Freiberg merkt an, dass es auf vielen Plattformen derzeit keine Kontrollen gibt, ob die Identität echt ist.
BioID ist Teil des wachsenden Ökosystems von Unternehmen, die algorithmische Abwehrmaßnahmen gegen algorithmische Angriffe anbieten. Es bietet ein automatisiertes Echtzeit-Tool zur Erkennung von Fälschungen bei Fotos und Videos, das Einzelbilder und Videosequenzen analysiert und nach Anomalien zwischen einzelnen Bildern oder Videocodecs sucht. Der Algorithmus ist das Produkt einer deutschen Forschungsinitiative, die eine Reihe von Institutionen aus verschiedenen Bereichen zusammengebracht hat, um gemeinsam an einer Strategie zur Erkennung von Fälschungen zu arbeiten. Das Unternehmen verfeinert aber auch weiterhin sein neuronales Netzwerk, um mit dem unerbittlichen Tempo des KI-Betrugs Schritt zu halten.
„Wir befinden uns in einem ständigen Kampf von KI gegen KI (We are in an ongoing fight of AI against AI)“, sagt Freiberg. „Wir können uns nicht einfach zurücklehnen, entspannen und verkaufen, was wir haben. Wir arbeiten kontinuierlich daran, die Genauigkeit unserer Algorithmen zu erhöhen. (We can’t just just lean back and relax and sell what we have. We’re continuously working on increasing the accuracy of our algorithms.)“
Dennoch scheint Freiberg nicht ihren Humor verloren zu haben, wenn sie auf die KI-Botschafterin des ukrainischen Außenministeriums, Victoria Shi, als Beispiel für den Einsatz von Deepfake-Technologie in „nicht betrügerischer Absicht“ verweist (*Ironie aus*).
Unter der Bezeichnung des „Spielplatzes (Playground)“ bietet BioID einen Test für KI-Deepfakes an, dort können Nutzer Medien hochladen und BioID beurteilen lassen, ob sie echt sind oder nicht.
Letztlich plädiert Freibeg für einen ganzheitlichen Ansatz, der Medienkompetenz mit effektiver digitaler Regulierung und technischer Unterstützung kombiniert, einschließlich Wasserzeichen oder digitaler Berechtigungsnachweise.
Mastercards Identitäts- und Attributprüfung
Mastercard hat einen Dienst zur Überprüfung von Identitätsattributen für Online-Transaktionen vorgestellt, der auf den neuen Branchenspezifikationen von EMVCo basiert.
Der Dienst wird demnächst in die Produktion gehen und es den vertrauenden Parteien ermöglichen, Attribute wie Alter und Adresse zu verifizieren, wie das Unternehmen mitteilte.
Der Prozess wird als „im Hintergrund (in the background)“ ablaufend beschrieben, d. h. eine Anfrage der vertrauenden Partei an Mastercard und eine anschließende Validierung der angeforderten Daten, die auf der Grundlage von Informationen zurückgegeben wird, die das Zahlungsnetzwerk bereits mit der Zahlungskarte des Kunden gespeichert hat.
Der Entwurf der EMV 3-D Secure Attribute Verification Message Extension v1.0 wurde am 31. Juli veröffentlicht.
„Mit Hilfe der Technologie, die hinter einer Zahlungskarte steckt, werden unsere Lösungen es unseren Partnern ermöglichen, nahtlos zu überprüfen, ob ein Verbraucher die Kriterien für bestimmte Waren und Dienstleistungen erfüllt und gleichzeitig seine Privatsphäre zu schützen (Using the technology behind a payment card, our solutions will allow our partners to seamlessly verify that a consumer meets the criteria for certain goods and services while protecting their privacy)“, schreibt Dennis Gamiello, Executive Vice President of Identity Products and Innovation bei Mastercard. „Damit entfällt die oft mühsame Aufgabe, Dokumente wie Lichtbildausweis, Wohnsitznachweis oder Reisepass hochzuladen. (Doing so eliminates the often cumbersome task of uploading documents like photo ID, proof of residency or passport.)“
Gamiello erklärt außerdem, dass der Dienst den Grundsätzen des „Privacy by Design“ entspricht, da nur die Daten weitergegeben werden, denen der Nutzer zustimmt, um die Transaktion abzuschließen.
Der Dienst wird zunächst in „einigen Ländern in Europa (a few countries across Europe)“ eingeführt und dann 2025 auf weitere Länder ausgedehnt.
Mastercard hat seine Dienste für Identitätsüberprüfung, KYC und Zahlungsauthentifizierung mit Initiativen wie der Verpflichtung zu Passkeys und der Einführung biometrischer Checkouts schnell ausgebaut. Während viele der jüngsten Ankündigungen des Unternehmens, wie z. B. der Identitätsattribut-Verifizierungsdienst, in Bezug auf Online-Transaktionen beschrieben werden, ging Gamiello in einer kürzlich erschienenen Episode des Unternehmenspodcasts auch auf die „Vision von Mastercard für persönliche Überprüfungen mit biometrischen Merkmalen“ ein.
Conclusio
Auch wenn mir bewusst ist, dass der Weg noch lange und steinig ist, denn die Internationalisten/Globalisten/Eliten (IGE) mit ihrer vollumfänglichen Digitalisierung noch zu gehen haben, sie sicherlich auch an der einen oder anderen Stelle auf Schwierigkeiten und Probleme treffen werden, bis dahin, dass sie in Teilbereichen scheitern werden, sollten diese Entwicklungen nicht dergestalt täuschen, dass „Nichts davon kommen wird“, dass die IGE „das nicht realisieren werden können“, da die Gesellschaft sich weigern wird bzw. die alten Menschen damit nicht klar kommen oder es zu Problemen bei der Implementierung aufgrund der verschiedenen Lösungen/Standards kommen wird. Das sind in den Augen der IGE nur Randprobleme, weil sie ganz einfach sagen werden: „Friss oder stirb.“, „Mach mit oder grenze dich gesellschaftlich aus.“ Und wie unsere Gesellschaft tickt, wird man alsbald wieder wunderbar in Kalifornien beobachten können, wo ab dem 1. November in bestimmten Bereichen wieder eine Maskenpflicht herrschen wird. Wollen wir wetten, dass sich der Großteil dem wieder unterwerfen wird – jenseits der Logik und der eigenen Gesundheitsinteressen?
Quellen BioID:
EAB Lunch Talk – Deepfake Detection to Stop Impersonation & Fake News
Deepfake threat still stirring concern about election integrity
Webseite – bioid.com
RAND warns of hostile use of AI deepfakes, risks to privacy, democracy
New studies warn of difficulty detecting audio deepfakes, but progress is being made
AI deepfakes are wreaking havoc on an unprepared financial industry
AI deepfakes are everywhere and regulators are working out how to respond
Free face swap tool goes to number one on GitHub
Deepfake videos looked so real that an employee agreed to send them $25 million
Machine Learning Netflix
BioID launches new version of deepfake detection software
AI potential outweighs deepfake risks only with effective governance: UN
Tweet – MFA of Ukraine
Welcome to the BioID Playground!
Global efforts to combat deepfakes intensify with new laws, biometric tools
Quellen Mastercard:
EMV® 3-D Secure Attribute Verification Message Extension
Mastercard commits to passkeys for payment, full tokenization in EU by 2030
Mastercard’s Biometric Checkout Program arrives in Europe
Biometrics cutting the line of in-person payments innovations: Mastercard
Quellen weiteres:
Mask mandates returning to several Bay Area counties
Mask mandates are coming back to the Bay Area. Here’s where