Adobe erweitert die Sprachfunktionen in der Adobe Experience Cloud
Marketingverantwortliche haben heute gute Gründe, sich ein wenig paranoid zu fühlen: Bei den rasant wachsenden Möglichkeiten in der Konsumentenansprache, befürchten viele Marken immer wieder, den nächsten großen Trend zu verpassen – so wie damals, als einige den Durchbruch des Smartphones glatt verschliefen. Und tatsächlich scheint sich bereits der nächste große Trend durchzusetzen: Die Menschen sprechen immer mehr mit ihren Geräten. Eine neue Adobe-Umfrage ergab, dass 76 Prozent der Nutzer von intelligenten Lautsprechern den Einsatz von Sprachassistenten im vergangenen Jahr erhöht haben. Bei Konsumenten ohne smarte Lautsprecher berichten immerhin 38 Prozent, dass sie ihre Sprache immer häufiger zur Steuerung nutzen, von Smartphones und Laptops über Wearables bis hin zu vernetzten Autos.
Die gute Nachricht für alle Marketer: Adobe kann sie und ihre Marken dabei unterstützen, diesen Trend für sich zu nutzen. Die Adobe Experience Cloud bietet die Werkzeuge, um überzeugende, konsistente und kontinuierliche Erlebnisse bereitzustellen. Wir waren die ersten, die Voice Analytics für Marken eingeführt haben, um besser zu verstehen, wie Kunden mit sprachaktivierten Geräten arbeiten. Schon heute hat Adobe die Spracherlebnisse von Kunden wie ESPN, CNBC, CVS Health, Marriott Hotels, PGA Golf, Newsquest (UK), Woolworths Supermarket (AUS) und anderen verbessert. Jetzt gehen wir noch einen Schritt weiter: Ab sofort erweitern wir die Sprachfunktionen der Adobe Experience Cloud, um das sprachbasierte Kundenerlebnis weiter voranzutreiben.
Erweiterte Sprachdatenanalyse
Attribution IQ innerhalb Adobe Analytics wird ab sofort die Sprache in seine Attributionsmodelle einbeziehen. Marketer stehen häufig vor der großen Herausforderungen, die Auswirkungen von Kundeninteraktionen zu verstehen, um die Gesamtstrategie voranzutreiben und Ressourcen zu sichern. Dieser Prozess wurde lange mit Scheuklappen angegangen – mit einem großen Schwerpunkt auf der First-Touch- (d.h. der Website einer Marke) und Last-Touch- (d.h. Warenkorb-Kauf) Attribution. Alles dazwischen wird noch heute allzu häufig negiert, wie zum Beispiel das Engagement in sozialen Netzwerken. Mit Attribution IQ für Sprache kann nun jede Sprachinteraktion auf jedem Gerät angemessen gewürdigt werden. Eine Hotelkette kann nun zum Beispiel zeigen, wie der Einsatz von Alexa und Amazon Echo-Geräten im Zimmer dazu beiträgt, die Gesamtperformance und Loyalität zu steigern. Und genau das wird immer wichtiger: 16 Prozent der Verbraucher nutzen bereits einen intelligenten Lautsprecher, wenn sie für sich nach einem passenden Hotel oder Flug suchen (Adobe-Umfrage).
Auch die wichtigsten Funktionen von Adobe Analytics werden um Sprachfunktionen erweitert, um den Marken tiefere und aussagekräftigere Einblicke in das Kundenverhalten zu ermöglichen. Sprachdaten können in der Flow-Analyse genutzt werden, indem die Sprachbefehle den einzelnen Kanälen zugeordnet und darüber festgellt wird, wo es Fallouts gibt und wo sich die Kunden von der Marke abwenden. Die Beitragsanalyse auf Basis von Adobe Sensei, dem Framework für künstliche Intelligenz und maschinelles Lernen von Adobe, kann nun auf der Grundlage von Sprachdaten genutzt werden. So lassen sich mühelos Faktoren identifizieren, die zu Anomalien wie Benutzerabbrüchen oder einem Umsatzanstieg beitragen. Schließlich wird Segment IQ (ebenfalls powered by Adobe Sensei) Sprachdaten nutzen, um Benutzersegmente besser bilden und ansprechen zu können. Besonders wichtig ist dies für die Ansprache jüngerer Benutzersegmente, die Sprachsteuerung schon heute häufig nutzen – laut der Umfrage von Adobe sind 40 Prozent der Besitzer von smarten Lautsprechern zwischen 18 und 34 Jahre alt.
Bessere Sprachinhalte
Viele der weltweit größten Marken verwalten ihre Inhalte mit dem Adobe Experience Manager. Marken sind damit in der Lage, Content und Kundenerlebnisse zu kreieren und direkt auf jeden Kanal zu implementieren. Die sogenannten Fluid Experiences innerhalb des Experience Managers erstrecken sich jetzt auch auf neu entstehende Kanäle, einschließlich der Sprache. Marketer können so ganz flexibel neue Inhalte auf sprachbasierten Geräten bereitstellen und dabei Doppelungen und inkonsistene Kundenerlebnisse verhindern. Ein Einzelhandelskunde, der sein Einkaufserlebnis auf dem Desktop beginnt, erhält z. B. die gleichen aktualisierten Produktdetails, Promotionen und Blog-Inhalte, wenn er die Marke über eine Sprachschnittstelle wie ein Amazon Echo oder über sein Smartphone aktiviert. Dieses nahtlose, geräteübergreifende Erlebnis wird im Einzelhandel immer wichtiger, da immer mehr Verbraucher über intelligente Lautsprecher in die Shopping Journey einsteigen. 47 Prozent nutzen die smarten Geräte für die Produktsuche/-forschung, 43 Prozent für die Erstellung von Einkaufslisten und 32 Prozent für den Preisvergleich (Adobe-Umfrage).
Verbesserte Personalisierung
Marketingentscheider, die mit Adobe Analytics Sprachdaten erfassen, haben jetzt noch tiefergehende Einblicke in die Interaktion mit der Marke. 71 Prozent der Nutzer von intelligenten Lautsprechern verwenden sie mindestens täglich, 44 Prozent von ihnen mehrmals pro Tag (Adobe-Umfrage). Die Daten selbst sind zwar aggregiert und anonym, liefern aber reichhaltige Signale für Präferenzen und Verhaltensweisen. Viele von ihnen geben zudem Aufschluss darüber, wie sich Marken an anderer Stelle engagieren. In Adobe Target, der Personalisierungs-Engine in der Adobe Experience Cloud, bieten wir neue Funktionen, die entsprechende Sprachinformationen der Kunden nutzen, um die Personalisierung auf weiteren Kanälen wie Desktop Web und mobilen Endgeräten voranzutreiben. Nehmen wir zum Beispiel einen Reiseveranstalter, der ein Segment von Sprachnutzern ausmacht, die im Winter über Islandreisen recherchiert: Mit Adobe Target können Unternehmen diese Erkenntnisse ganz einfach nutzen, um mehr Island-basierte Inhalte und Werbeaktionen auf der Website und in der mobilen App zu bewerben.