Wie Marketer mit Hilfe der erweiterten Smart Tags Funktion von Adobe die relevantesten UGC Videos finden
Allein in den USA stecken Marketer jedes Jahr satte zehn Milliarden Dollar in Content, davon fließt die Hälfte in die Erstellung von neuen Inhalten. Umso überraschender ist daher, dass knapp zwanzig Cent pro investiertem Dollar verschwendet sind – über das Jahr gesehen summiert sich der Verlust auf eine Milliarde Dollar. Schuld sind ineffiziente Prozesse. Hinzu kommt, dass 2018 nur 28 Prozent der Marketer erkennbare Erfolge für ihre Content Marketing Kampagnen vorzeigen konnten. Mit der Feststellung, dass das Content Marketing ernsthafte Skalierungsprobleme hat, lehnt man sich also nicht wirklich weit aus dem Fenster.
Die Anzahl der Contents und Devices steigt ungebremst, Marken sind mit einer Welt konfrontiert, die nach immer mehr neuen Inhalten verlangt, gleichzeitig aber auch mehr Personalisierung fordert. Die Lösung: User Generated Content (UGC). UGC ist nicht nur günstig – so man die Rechte erwirbt, meistens sogar kostenlos –, er ist außerdem authentischer und performt besser. 64 Prozent der Social Media Nutzer suchen aktiv nach UGC bevor sie eine Kaufentscheidung treffen. Diese Videos haben dabei zehn Prozent mehr Views als Clips, die von Marken hochgeladen wurden. Etablierte Marken wie Apple oder Starbucks setzen deshalb bereits seit Jahren auf UGC für ihre Content Marketing Strategien. Das heißt aber auch: Marketer müssen unzählige Social Media Posts sichten, um die Nadel im Heuhaufen zu finden.
Mit KI den besten UGC finden
Um Marketern diese Herausforderung abzunehmen und die zuvor von Hand getroffene Auswahl des UGC zu automatisieren, setzt Adobe auf Künstliche Intelligenz. Das durch Adobe Sensei, dem Framework für KI und maschinelles Lernen von Adobe, unterstützte Smart Tags Tool durchsucht Bilder automatisch. Die Software identifiziert das Hauptmotiv, die Objektkategorien und die ästhetischen Eigenschaften. Das Ergebnis wird in deskriptiven Tags festgehalten. Marketer können so diejenigen Bildinhalte aussieben, die nicht ihren Suchkriterien entsprechen. Doch obwohl Smart Tags eine große Hilfe für die Bildsuche bietet: Die Hauptwährung im Web sind Videos.
Das Videoangebot wächst rasant – laut Cisco werden bis 2021 Videos 82 Prozent des gesamten Web Traffics ausmachen. Allein auf Instagram wurden letztes Jahr vier Mal mehr Videos hochgeladen. Für Marketer und Technologen ist das eine Herausforderung. Um Video Content auszuwählen und relevantes Material zu finden, müssen sie unzählige Videos anschauen. Da Videos umfangreicher und zeitintensiver als einzelne Bilder sind, ist das Klassifizieren, Filtern und Verschlagworten erheblich aufwändiger. Deshalb haben wir uns mit Adobe Research und dem Search Team von Adobe zusammengeschlossen, um die aktuellen Smart Tags des Adobe Experience Managers für die UGC Videoklassifikation anzupassen.
Der Weg zur Implementierung von Video Smart Tags in den Adobe Experience Manager
Zur Aufgabe haben wir es uns gemacht, eine Reihe relevanter Tags für Video automatisch zu vergeben. Das Ergebnis: Der Video Auto Tag Adobe Sensei Service. Für bis zu sechzig Sekunden lange Videos werden dabei zwei Arten von Tags festgelegt. Das erste fasst die im Video identifizierten Objekte, Szenen und Attribute zusammen, das zweite die Handlungen. Das Suchen und Wiederfinden von Videos wird so erheblich einfacher.
Grundlage des Video Auto Tag Service ist unsere bereits bestehende Auto-Tagging Technologie für Bilder. Diese anhand der umfassenden internen Adobe Bilddatenbank trainierte Software verfügt über einen großen Begriffswortschatz. Dieser ermöglicht es ihr, die entsprechenden Tags zuzuordnen. Da ein Video eine Abfolge von mehreren Frames ist, können wir den Bild-Auto-Tagger auf diese Einzelframes ansetzen. Die Ergebnisse der Einzelbilder lassen sich dann zu einem Tag-Satz für das gesamte Video zusammenfassen. So entstehen mehrere Tags, die die Objekte, Szenen und Attribute des Videos widerspiegeln – denn genau dafür wurde der Auto-Tagger für Bilder entwickelt.
Neben den Objekten, Szenen und Attributen ist es entscheidend, auch zeitabhängige Ereignisse – Handlungen und Aktivitäten –, beispielsweise „trinken“ oder „springen“, zu klassifizieren. Hierfür wird der Bild-Auto-Tagger mithilfe zuvor durch User mit Tags versehener, actionreicher Videos aus dem internen Adobe Datensatz darauf trainiert, einzelne Handlungen zu erkennen. Dieser Action-Auto-Tagger wird dann auf mehrere Frames im Video angewendet. Die Ergebnisse werden zu einem Action-Auto-Tag für das gesamte Video zusammengefasst.
Welche Learnings ergeben sich für Marketer, Data Scientists und Development Teams?
UGC ist ein essentielles Tool, um Content Marketing Kosten einzusparen, Kampagnen effektiver zu machen und die Herausforderungen anzupacken, mit denen Marketer heute konfrontiert werden. Die Teams, die diese Marketer unterstützen, erhalten jetzt ihrerseits Unterstützung durch Software, die Videos versteht und mit Tags versieht. Die Identifikation und Einbindung von wertigem USG wird so erheblich effizienter.
Wir bieten ausgewählten Gruppen an, eine Betaversion des Video-Auto-Taggers zu testen. Klicken Sie hier, um mehr zu erfahren.