Der Wettlauf um eine bessere Möglichkeit, KI zu kennzeichnen
Ein Internetprotokoll namens C2PA verwendet Kryptografie, um Bilder, Videos und Audio zu kennzeichnen
Dieser Artikel stammt aus The Technocrat, dem wöchentlichen Tech-Policy-Newsletter von MIT Technology Review über Macht, Politik und Silicon Valley. Um es jeden Freitag in Ihrem Posteingang zu erhalten, melden Sie sich hier an.
Kürzlich habe ich eine Kurzgeschichte über ein von einigen großen Technologie- und Medienunternehmen unterstütztes Projekt geschrieben, das dabei helfen soll, durch KI erstellte oder veränderte Inhalte zu identifizieren.
Angesichts des Booms von KI-generierten Texten, Bildern und Videos fordern sowohl Gesetzgeber als auch durchschnittliche Internetnutzer mehr Transparenz. Auch wenn es wie eine sehr vernünftige Aufforderung erscheint, einfach ein Etikett hinzuzufügen (was es auch ist), ist es eigentlich keine einfache Aufgabe, und die vorhandenen Lösungen, wie KI-gestützte Erkennung und Wasserzeichen, weisen einige schwerwiegende Fallstricke auf.
Wie meine Kollegin Melissa Heikkilä geschrieben hat, haben die meisten aktuellen technischen Lösungen „gegen die neueste Generation von KI-Sprachmodellen keine Chance“. Dennoch ist der Wettlauf um die Kennzeichnung und Erkennung von KI-generierten Inhalten im Gange.
Hier kommt dieses Protokoll ins Spiel. C2PA (benannt nach der Gruppe, die es erstellt hat, die Coalition for Content Provenance and Authenticity) wurde 2021 ins Leben gerufen und ist eine Reihe neuer technischer Standards und frei verfügbarer Codes, die Inhalte sicher mit Informationen kennzeichnen, die verdeutlichen, woher sie stammen aus.
Das bedeutet, dass ein Bild beispielsweise durch das Gerät, von dem es stammt (z. B. eine Telefonkamera), durch Bearbeitungswerkzeuge (z. B. Photoshop) und letztendlich durch die Social-Media-Plattform, auf die es hochgeladen wird, mit Informationen markiert wird. Im Laufe der Zeit erstellen diese Informationen eine Art Verlauf, der vollständig protokolliert wird.
Die Technologie selbst – und die Art und Weise, wie C2PA sicherer ist als andere KI-Kennzeichnungsalternativen – ist ziemlich cool, wenn auch etwas kompliziert. Ich gehe in meinem Beitrag ausführlicher darauf ein, aber es ist vielleicht am einfachsten, es sich wie eine Nährwertkennzeichnung vorzustellen (was die bevorzugte Analogie der meisten Leute ist, mit denen ich gesprochen habe). Hier können Sie ein Beispiel für ein Deepfake-Video sehen, dessen Label von Truepic, einem Gründungsmitglied von C2PA, mit Revel AI erstellt wurde.
„Die Idee der Herkunft besteht darin, den Inhalt auf interoperable und manipulationssichere Weise zu kennzeichnen, damit er mit dieser Transparenz und dieser Nährwertkennzeichnung durch das Internet verbreitet werden kann“, sagt Mounir Ibrahim, Vizepräsident für öffentliche Angelegenheiten bei Truepic.
Bei seiner Einführung wurde C2PA von einer Handvoll namhafter Unternehmen unterstützt, darunter Adobe und Microsoft, doch in den letzten sechs Monaten ist die Mitgliederzahl um 56 % gestiegen. Erst diese Woche gab die große Medienplattform Shutterstock bekannt, dass sie C2PA zur Kennzeichnung aller ihrer KI-generierten Medien verwenden wird.
Es basiert auf einem Opt-in-Ansatz, d. h. Gruppen, die überprüfen und offenlegen möchten, woher Inhalte stammen, beispielsweise eine Zeitung oder ein Werbetreibender, entscheiden sich dafür, die Anmeldeinformationen einem Medium hinzuzufügen.
Einer der Projektleiter, Andy Parsons, der für Adobe arbeitet, führt das neue Interesse an und die Dringlichkeit von C2PA auf die Verbreitung generativer KI und die Erwartung von Gesetzen sowohl in den USA als auch in der EU zurück, die ein neues Maß an Transparenz vorschreiben .
Die Vision ist großartig – die Beteiligten gaben mir zu, dass der wirkliche Erfolg hier von einer breiten, wenn nicht sogar universellen Akzeptanz abhängt. Sie hofften, dass alle großen Content-Unternehmen den Standard übernehmen würden.
Dafür ist laut Ibrahim die Benutzerfreundlichkeit entscheidend: „Sie möchten sicherstellen, dass es, egal wo es im Internet landet, auf die gleiche Weise gelesen und aufgenommen wird, ähnlich wie bei der SSL-Verschlüsselung.“ So skaliert man online ein transparenteres Ökosystem.“
Dies könnte eine entscheidende Entwicklung zu Beginn der US-Wahlsaison sein, in der alle Augen nach KI-generierten Fehlinformationen Ausschau halten werden. Forscher des Projekts sagen, dass sie vor dem erwarteten Ansturm darum kämpfen, neue Funktionen zu veröffentlichen und mehr Social-Media-Plattformen zu bewerben.
Derzeit arbeitet C2PA hauptsächlich an Bildern und Videos, obwohl Mitglieder sagen, dass sie an Möglichkeiten arbeiten, mit textbasierten Inhalten umzugehen. Ich gehe in dem Artikel auf einige der anderen Mängel des Protokolls ein, aber was wirklich wichtig ist zu verstehen, ist, dass selbst wenn der Einsatz von KI offengelegt wird, der Schaden durch maschinell erzeugte Fehlinformationen möglicherweise nicht eingedämmt wird. Social-Media-Plattformen müssen weiterhin entscheiden, ob sie diese Informationen auf ihren Websites behalten, und Benutzer müssen selbst entscheiden, ob sie den Inhalten vertrauen und sie teilen möchten.
Es erinnert ein wenig an die Initiativen von Technologieplattformen in den letzten Jahren, Fehlinformationen zu kennzeichnen. Facebook hat im Vorfeld der Wahl 2020 über 180 Millionen Beiträge als Fehlinformation eingestuft, und offensichtlich gab es immer noch erhebliche Probleme. Und obwohl C2PA nicht beabsichtigt, den Beiträgen Indikatoren für die Genauigkeit zuzuordnen, ist es klar, dass die bloße Bereitstellung weiterer Informationen über den Inhalt uns nicht unbedingt vor uns selbst retten kann.
Forscher versuchen immer noch herauszufinden, wie sich Social-Media-Plattformen und ihre Algorithmen auf unsere politischen Überzeugungen und den bürgerlichen Diskurs auswirken. Diese Woche zeigten vier neue Studien über die Auswirkungen von Facebook und Instagram auf die Politik der Nutzer während der Wahl 2020, dass die Auswirkungen recht kompliziert sind. Die von der University of Texas, der New York University, Princeton und anderen Institutionen veröffentlichten Studien ergaben, dass die auf den Plattformen gelesenen Nachrichten zwar ein hohes Maß an Trennung nach politischen Ansichten aufwiesen, das Entfernen erneut geteilter Inhalte aus Feeds auf Facebook jedoch keine politische Veränderung bewirkte Überzeugungen.
Der Umfang der Studien macht sie diese Woche zu einer großen Sache in der akademischen Welt, aber die Forschung wird aufgrund ihrer engen Zusammenarbeit mit Meta einer gewissen Prüfung unterzogen.
Mehr als 140 Marken werben auf Farmseiten mit minderwertigem Content – und das Problem wächst schnell.
Kann eine massive Geldspritze für die Herstellung von Computerchips die Wirtschaft von Syrakus verändern und uns zeigen, wie wir die industrielle Basis des Landes wieder aufbauen können?
Die Abstimmung zum AI Act wurde mit überwältigender Mehrheit angenommen, die endgültige Fassung dürfte jedoch etwas anders aussehen
Es könnte eine neue Ära der KI-gestützten Innenpolitik kommen. Achten Sie auf diese Meilensteine, um zu erfahren, wann es angekommen ist.
Entdecken Sie Sonderangebote, Top-Storys, bevorstehende Veranstaltungen und mehr.
Vielen Dank für die Übermittlung Ihrer E-Mail!
Es sieht so aus, als wäre etwas schief gelaufen.
Beim Speichern Ihrer Einstellungen ist ein Problem aufgetreten. Versuchen Sie, diese Seite zu aktualisieren und sie noch einmal zu aktualisieren. Wenn Sie diese Nachricht weiterhin erhalten, wenden Sie sich an [email protected] mit einer Liste der Newsletter, die Sie erhalten möchten.
Was ich diese Woche leseWas ich diese Woche gelernt habe