Verantwortungsvolle Innovation im Zeitalter der generativen KI
Bild kreiert mit Adobe Firefly
Generative KI verändert die Art und Weise, wie wir alle über Kreativität denken. Geben Sie „3D-Rendering eines Papierdrachens, Fotografie im Studio-Stil" ein und Sie erhalten sofort mehrere Varianten eines Porträts einer wilden Origami-Kreatur. Oder kombinieren Sie ein paar Datenpunkte mit einfachen Anweisungen und ein Chatbot spuckt eine überzeugende Marketing-E-Mail aus. Es ist leicht zu erkennen, welche Möglichkeiten diese Technologie sowohl für Kunstschaffende als auch für Unternehmen eröffnet. Mit generativer KI können Menschen mit Text statt mit Pixeln (oder Farbe) malen. Unternehmen können durch automatisch generierte Texte, E-Mails und Inhalte effizient mit Ihren Kund*innen in Kontakt treten. Richtig eingesetzt, bringt generative KI Präzision, Leistung, Geschwindigkeit und Einfachheit in Ihre bestehenden Arbeitsabläufe und ermöglicht es den Mitarbeitenden, sich auf strategischere oder kreativere Teile ihrer Arbeit zu konzentrieren.
In diesem Artikel
- Ethik und Verantwortung als Grundlage
- Transparenz schafft Vertrauen
- Respekt vor den Entscheidungen und der Kontrolle der Schöpfer*innen
- Eine fortlaufende Reise
Generative KI öffnet auch die Tür zu neuen Fragen über Ethik und Verantwortung im digitalen Zeitalter. Während Adobe und andere Unternehmen die Möglichkeiten dieser Spitzentechnologie nutzen, müssen wir uns branchenübergreifend zusammentun, um eine Reihe von Leitplanken zu entwickeln, diese dann zu implementieren und zu respektieren, um eine verantwortungsvolle Entwicklung und Nutzung dieser Technologie zu ermöglichen.
Ethik und Verantwortung als Grundlage
Jedes Unternehmen, das generative KI-Tools entwickelt, sollte mit einem KI-Ethik-Framework beginnen. Eine Reihe prägnanter und umsetzbarer KI-Ethikgrundsätze und ein formeller Überprüfungsprozess, der in die Entwicklungsstruktur eines Unternehmens integriert ist, können dazu beitragen, dass KI-Technologien ̶ einschließlich generativer KI ̶ auf eine Weise entwickelt werden, die Kund*innen respektiert und mit den Unternehmenswerten in Einklang steht. Der Kern dieses Prozesses sind Schulungen, Tests und ̶ wenn nötig ̶ menschliche Aufsicht.
Generative KI ist, wie jede künstliche Intelligenz, nur so gut wie die Daten, mit denen sie trainiert wird. Der erste Schritt um schädliche und unerwünschte Ergebnisse zu verhindern, ist das Erstellen von sicheren und umfassenden Datensätzen, die zum Trainieren genutzt werden können. Das erste Modell unserer Firefly-Familie, die aus kreativen generativen KI-Modellen von Adobe besteht, wird beispielsweise auf Adobe Stock-Bildern, frei lizenzierten Inhalten und gemeinfreien Inhalten, deren Urheberrecht abgelaufen ist, trainiert. Das Training auf kuratierten und vielfältigen Datensätzen verschafft ihren Modellierungen einen Wettbewerbsvorteil, wenn es darum geht, kommerziell sicher und ethisch einwandfrei zu sein.
Aber es geht nicht nur darum, was in ein Modell einfließt. Es geht auch darum, was dabei herauskommt. Denn selbst mit guten Daten kann man immer noch eine voreingenommene KI erhalten, die unbeabsichtigt diskriminieren oder herabsetzen kann und dazu führt, dass sich Menschen weniger wertgeschätzt fühlen. Deshalb braucht es rigorose und kontinuierliche Tests. Unter der Leitung unseres KI-Ethik-Teams testen wir bei Adobe unsere Modelle ständig intern auf Sicherheit und Voreingenommenheit und stellen diese Ergebnisse unserem Entwicklungsteam zur Verfügung, um etwaige Probleme zu beheben. Darüber hinaus verfügen unsere KI-Funktionen über Feedback-Mechanismen, so dass die Nutzer*innen etwaige Bedenken melden können, wenn die KI-Modelle öffentlich verfügbar sind. So können wir Maßnahmen ergreifen. Es ist wichtig, dass Unternehmen diesen zweiseitigen Dialog mit der Öffentlichkeit pflegen, damit wir gemeinsam daran arbeiten können, generative KI für alle besser zu machen.
Zusätzlich zum Training können Unternehmen verschiedene technische Maßnahmen einbauen, um die Ethik ihrer Produkte zu verbessern. Sperrlisten, Ablehnungslisten und NSFW-Klassifikatoren können implementiert werden, um schädliche Verzerrungen in der Ausgabe eines KI-Modells zu verhindern. Wenn ein Unternehmen immer noch unsicher oder unzufrieden mit dem Ergebnis ist, kann es jederzeit einen Menschen in die Schleife einbeziehen, um sicherzustellen, dass das Ergebnis den Erwartungen entspricht.
Und wann immer ein Unternehmen KI von einem externen Anbieter bezieht ̶ sei es zur Integration in Workflows oder in seine eigenen Produkte ̶ sollte im Vendor Risk Process sichergestellt werden, dass die KI den ethischen Standards des Unternehmens entspricht..
Transparenz schafft Vertrauen
Wir brauchen auch Transparenz über die Inhalte, die generative KI-Modelle produzieren. Denken Sie an das Beispiel vom Beginn des Textes, aber tauschen Sie den Papierdrachen gegen die Rede eines Staatsoberhauptes. In einer digitalen Welt, die bereits von Fehlinformationen überflutet ist, wirft generative KI mit ihrer Fähigkeit überzeugende synthetische Inhalte zu erzeugen Bedenken auf. Da die Menge an KI-generierten Inhalten zunimmt, wird es immer wichtiger, Menschen eine Möglichkeit zu bieten, eine Nachricht zu übermitteln und gleichzeitig zu überprüfen, ob sie wahr ist.
Bei Adobe haben wir diese Transparenz mit den Content Credentials in unsere Produkte integriert. Mit Content Credentials können Ersteller*innen Informationen zu einem Inhalt hinzufügen, z. B. ihren Namen, das Datum sowie die zur Erstellung verwendeten Werkzeuge. Diese Informationen werden mit dem Inhalt mitgeschickt, so dass Nutzer*innen genau wissen, woher der Inhalt stammt und welche Veränderungen er durchlaufen hat, bevor sie ihn sehen.
Und daran arbeiten wir nicht allein: Vor vier Jahren haben wir die Content Authenticity Initiative gegründet, um diese Lösung so offen zu gestalten, dass jedes Unternehmen sie in seine eigenen Produkte und Plattformen integrieren kann. Mittlerweile zählt die Initiative über 900 Mitglieder aus allen Bereichen der Technologie, der Medien und Politik, die sich zusammengeschlossen haben, um dieser Lösung zum weltweiten Erfolg zu verhelfen.
Und speziell für generative KI fügen wir automatisch Content Credentials hinzu, um zu kennzeichnen, dass etwas mit generativer KI erstellt oder verändert wurde. Auf diese Weise können Menschen nachvollziehen, wie ein Inhalt entstanden ist, und fundiertere Entscheidungen darüber treffen, ob sie ihm vertrauen können.
Bild kreiert mit Adobe Firefly
Respekt vor den Entscheidungen und der Kontrolle der Schöpfer*innen
Urheber*innen wollen selbst bestimmen, ob ihre Arbeit zum Training generativer KI verwendet wird oder nicht. Einige wollen, dass ihre Inhalte nicht in die KI einfließen. Andere wiederum freuen sich, wenn sie in den Trainingsdaten verwendet werden, um dieser neuen Technologie zum Durchbruch zu verhelfen ̶ vor allem, wenn sie die Urheberschaft für ihre Arbeit behalten können. Mithilfe der Provenance-Technologie können die Urheber*innen eine „Do Not Train"-Kennzeichnung anbringen, die ihre Inhalte überallhin begleitet. Dadurch kann verhindert werden, dass Webcrawler Werke mit „Do Not Train"-Kennzeichnung als Teil eines Datensatzes verwenden. Zusammen mit der Erprobung von Möglichkeiten, Urheber*innen für ihre Beiträge zu entlohnen, können wir eine generative KI entwickeln, die den Urheber*innen mehr Rechte einräumt und ihre Erfahrungen verbessert.
Eine fortlaufende Reise
Wir kratzen gerade erst an der Oberfläche von den Möglichkeiten generativer KI und die Technologie wird jeden Tag besser. Mit ihrer Weiterentwicklung wird die generative KI neue Herausforderungen mit sich bringen. Es ist unerlässlich, dass Wirtschaft, Politik und Gesellschaft zusammenarbeiten, um diese zu lösen. Durch den Austausch über Best Practices und die Einhaltung von Standards zur verantwortungsvollen Entwicklung generativer KI können wir die unbegrenzten Möglichkeiten dieser Technologie nutzen und einen vertrauenswürdigeren digitalen Raum schaffen.
Möchtet ihr mehr über den Adobe Summit erfahren?
Bleibt auf dem Laufenden mit den neuesten Informationen von Veranstaltern, Partnern und Sponsoren.