Der Weg zu verantwortungsvoller Innovation
Der Weg zur Verantwortung ist mit vielen Entscheidungen verbunden. Als führendes Technologieunternehmen berühren die Produkte von Adobe Milliarden von Menschen, und die Entscheidungen, die wir darüber treffen, wie wir sie ausliefern – und nicht nur, was wir ausliefern – sind wichtig. Erst vor einem Jahr haben wir Adobe Firefly, unser erstes generatives KI-Grundlagenmodell, auf den Markt gebracht. Während des gesamten Entwicklungsprozesses haben wir intensiv über kommerzielle Sicherheit, den Schutz von Urheber*innen und KI-Konzepte nachgedacht, die Innovationen fördern und gleichzeitig die Sicherheit unterstützen, und uns mit den Auswirkungen von KI auf Deepfakes auseinandergesetzt. Das ist eine umfangreiche Agenda, aber KI ist eine transformative Technologie, die transformatives Denken erfordert.
Priorität: Kommerzielle Sicherheit
Wir haben uns dafür entschieden, unser erstes Basismodell für Firefly auf lizenzierten Inhalten zu trainieren, um unseren Kund*innen eine Lösung zu bieten, die die Streitigkeiten um das Urheberrecht beim Training von generativen KI-Modellen vermeidet. Das war ein strategischer Kompromiss und eine deutliche Abweichung vom vorherrschenden Marktansatz beim Training von KI-Modellen, da bekannt ist, dass mehr Daten dazu beitragen können, die KI genauer zu machen und Bias zu verringern. Aber wir haben uns der technischen Herausforderung gestellt, Firefly zu einem erstklassigen Programm zu machen, das auf lizenzierten Inhalten trainiert wird, und wir freuen uns, dass der Markt positiv reagiert hat, indem er den Wert eines kommerziell sicheren Angebots, das nicht gegen die Rechte Dritter verstößt, bestätigt hat.
Kürzlich habe ich mit der Leiterin der Rechtsabteilung eines Fortune-500-Unternehmens zu Abend gegessen. Sie erzählte mir, dass sie nur generative KI-Optionen in Erwägung zieht, die urheberrechtlich unbedenklich sind, da sie nicht in der Falle sitzen möchte, Workflows um ein Modell herum aufzubauen, das später möglicherweise wieder abgeschafft werden muss. Die verantwortungsbewusste Erstellung von Modellen ist umso wichtiger geworden, je mehr wir über die Auswirkungen offener Trainings erfahren. Wir alle haben inzwischen von Leuten gehört, die schädliche Bilder von Prominenten oder Politiker*innen gemacht haben, die unter anderem den Ruf schädigen; von Modellen, die auf unsicheren Bildern trainiert wurden; und von Modellen, die auf urheberrechtlich geschützten Bildern trainiert wurden.
KI ist einfach: Was reingeht, kommt auch raus. Wer nicht mit unsicheren Bildern trainiert, minimiert das Risiko, dass das Modell sie überhaupt produziert. Wenn ihr auswählt, welches Modell ihr in eurem Workflow verwendet, entscheidet ihr, welches Risiko ihr bereit seid, einzugehen. Aus diesem Grund haben wir im vergangenen Jahr die erste generative KI-Entschädigungsregelung ihrer Art angekündigt, die hinter unseren kommerziell sicheren Modellen steht. Angesichts der Art und Weise, wie wir Firefly trainieren, haben wir das rechtliche Risiko seiner Verwendung bereits minimiert, aber wir freuen uns, denjenigen, die dies wünschen, zusätzlichen rechtlichen Schutz zu bieten.
Einsatz für Urheberrechte
Verantwortungsvolle KI-Innovation geht über die Lösung technischer Probleme hinaus. Wir müssen auch über die breiteren gesellschaftlichen Auswirkungen der Technologie nachdenken, sowohl im Guten als auch im Schlechten. Wie können wir zum Beispiel Künstler*innen helfen, ihre wirtschaftliche Existenz in einer Welt zu schützen, in der KI den Zugang zu Daten braucht, um zu gedeihen? Die Urheber*innen sind besorgt, dass eine auf ihren Werken trainierte KI konkurrierende Produkte in ihrem einzigartigen Stil schaffen kann. Deshalb arbeiten wir gemeinsam mit dem Kongress an der Einführung eines neuen Rechts im Zeitalter der KI, das Urheber*innen Schutz vor Stilmissbrauch bietet. Warum sollten Urheber*innen nicht in der Lage sein, gegen Personen vorzugehen, die KI nutzen, um sie zu imitieren und sie auf dem Markt für ihre eigenen Werke zu unterbieten? Der von uns vorgeschlagene Federal Anti-Impersonation Right Act ist ein Ansatz, um diese Rechte zu schützen und dazu beizutragen, dass wir in einem neuen Zeitalter der KI-gestützten Kreativität gleiche Ausgangsbedingungen haben.
KI-Ethik & standardisierte Sicherheit
Ethik ist ein wichtiger Aspekt verantwortungsvoller Innovation. Adobe hat vor vier Jahren ein KI-Ethik-Engineering-Team eingerichtet, um unsere Entwicklungspraktiken mit den KI-Ethik-Prinzipien – Rechenschaftspflicht, Verantwortung und Transparenz – in Einklang zu bringen. Unsere Ankündigung des neuen KI-Assistent in der Adobe Experience Plattform (AEP) ist das jüngste Beispiel für unseren KI-Ethik-Entwicklungsprozess, mit dem wir die KI-Implikationen verstehen und angehen, bevor wir sie ausliefern. Unsere Ingenieur*innen haben eine Bewertung der Auswirkungen von KI durchgeführt, um die Anwendungsfälle einzuordnen, und haben technische Beschränkungen hinzugefügt, um die Zuverlässigkeit und Genauigkeit zu verbessern und das Potenzial für Schäden und Verzerrungen zu verringern. Gemeinsam mit unserem Datenschutzteam haben wir sichergestellt, dass der AEP KI Assistent so konzipiert wurde, dass er die Datenpräferenzen aller Kund*innen vor dem Training respektiert. Auf der Grundlage unserer praktischen Erfahrungen bei der Entwicklung und Steuerung von KI, für uns selbst und Tausende unserer Kund*innen, haben wir diese Erkenntnisse an Regierungen und Unternehmen auf der ganzen Welt weitergegeben, um das richtige Gleichgewicht zwischen Innovation und Verantwortung zu finden.
Wir haben die freiwilligen KI-Verpflichtungen des Weißen Hauses unterzeichnet und Anregungen zur KI-Verordnung des Weißen Hauses gegeben, wir haben mit der Europäischen Kommission zusammengearbeitet, um Feedback zum kürzlich verabschiedeten KI-Gesetz zu geben, und wir haben vor kurzem gemeinsam mit führenden Technologieunternehmen wie Microsoft, Google, OpenAI, TikTok und anderen das „Tech Accord to Combat Deceptive Use of AI in 2024 Elections“ unterzeichnet. Um eine erfolgreiche KI-Strategie zu entwickeln, müssen Unternehmen intern eine Governance aufbauen, aber auch extern zusammenarbeiten, um sicherzustellen, dass die KI, die sie anbieten, die sich entwickelnden Kriterien erfüllt, die in den weltweiten Vorschriften festgelegt sind. Angesichts der zu erwartenden staatlichen Maßnahmen zur Bekämpfung von Fehlinformationen, einschließlich neuer Anforderungen an Plattformen und Anbieter von KI-Modellen, war es noch nie so wichtig, vorbereitet und bereit zu sein, darauf zu reagieren.
Unser jüngster politischer Vorschlag, der sich auf die Beschleunigung von KI-Innovationen konzentriert und gleichzeitig Verantwortung in großem Maßstab ermöglicht, besteht darin, eine von der Regierung verwaltete, standardisierte Reihe von Test-Prompts zu erstellen, um klare und erreichbare Standards für Voreingenommenheit, Sicherheit und Schaden zu schaffen. Dieser Ansatz stützt sich auf die praktischen Erfahrungen, die wir in den letzten vier Jahren bei der Verwaltung unseres eigenen KI-Ethikprogramms gemacht haben. Eine solche „Test-Prompt-Datenbank“ würde über vorab genehmigte Prompts verfügen, die so konzipiert sind, dass sie bei jedem Modell verschiedene ethische und sicherheitsrelevante Probleme hervorrufen. Darüber hinaus gäbe es eine Reihe genehmigter Benchmarks für jede ethische Dimension, gegen die getestet werden könnte. Mit der Prompt-Bank und den Benchmarks könnten die Modellbauer*innen objektiv feststellen, wie ihre Modelle im Vergleich zu den von der Regierung genehmigten Sicherheitsstandards abschneiden.
Wir sind der Meinung, dass Industrie und Regierung zusammenkommen sollten, um globale Prompt-Datenbanken einzurichten, die globale Sicherheitsstandards festlegen. Auf diese Weise erhalten die Unternehmen klare Standards und sind rechenschaftspflichtig. Wer die Standards erfüllt, kann liefern. Werden die Standards nicht erfüllt, muss das Problem behoben werden. Sicherheit fördert Investitionen, Investitionen fördern Innovationen, und dies ist ein großartiger Ort für Regierungen, um beim Aufbau einer KI-Wirtschaft die Führung zu übernehmen.
Der Kampf gegen gefährliche Deepfakes
Angesichts der generativen KI, die es praktisch allen ermöglicht, in Sekundenschnelle irreführende Inhalte zu erstellen und zu verbreiten, nimmt das Problem der Fälschungen zu – bedroht Wahlen und verunsichert die Verbraucher*innen Tag für Tag. Wir sind stolz auf die Arbeit, die Adobe als Vorreiter eines branchenweiten Ansatzes zur Bekämpfung von Deepfakes leistet, indem wir mit Content Credentials Transparenz und Herkunftsnachweise fördern. Content Credentials sind eine Art Nährwertkennzeichnung für digitale Inhalte.
Durch die Bereitstellung wichtiger Informationen, wie z. B. wer, wo, wann und mit welchem Tool ein Inhalt erstellt oder bearbeitet wurde, können wir den Verbraucher*innen die Informationen geben, die sie benötigen, um zu verstehen, was echt ist. Wir freuen uns sehr, dass der Standard an Bedeutung gewinnt – von Leica, die die erste Kamera mit eingebetteten Content Credentials ausgeliefert hat, bis hin zu OpenAI, Meta, Google und BBC, die erst vor wenigen Wochen ihre Unterstützung für den Standard angekündigt haben. Angesichts der bevorstehenden globalen Wahlen müssen alle, von der Industrie über die Regierungen bis hin zur Öffentlichkeit, zusammenarbeiten, um das Vertrauen in digitale Inhalte wiederherzustellen.
Wahl der Kund*innen
Wir bei Adobe wollen unseren Kund*innen die Wahl lassen: Möchtet ihr ein kommerziell sicheres Modell, das ihr bedenkenlos nutzen könnt? Möchtet ihr ein großes Sprachmodell eines Drittanbieters verwenden, um euren KI-unterstützten Workflows Text hinzuzufügen? Wir sind bestrebt, euch eine Auswahl an erstklassigen Technologien und verantwortungsvollen Innovationen zu bieten. Der vor uns liegende Weg wird eine aufregende Reise sein, die sowohl von bahnbrechenden Innovationen als auch von schwierigen, unerwarteten Entscheidungen geprägt sein wird. Wir freuen uns darauf, diese Reise mit euch zu unternehmen.