Warum Dynamic Publishing-Projekte scheitern

Teil I: Produktdatenmanagement – Erfolgsfaktor und Hindernis zugleich

Dieser Text ist Teil einer vierteiligen Reihe von Werk II und Laudert rund um das Thema „Warum Dynamic Publishing-Projekte scheitern“. Eingeleitet wurde sie mit einem Webinar. Sie kommen hier zur Aufzeichnung.

Produktdaten. Eines dieser Buzzwords, von dem jeder eine andere Vorstellung hat. Inhaltlich ist die Definition recht klar. Es geht um Produktinformationen, von den Stammdaten (Artikelnummer, Produktbezeichnung, Preis…) über die technischen Daten (Höhe, Länge, Gewicht…) bis hin zu den Inszenierungsdaten (Produktbeschreibungen, werbliche Texte, Bilder, Videos…).

Die Bedeutung dieser Daten in modernen Marketingprozessen, insbesondere auch im Dynamic Publishing, ist enorm hoch. Tendenz: Weiter steigend. Ohne Produktdaten ist eine Produktkommunikation schlicht nicht möglich. Sie stellen dem Kunden die Waren nicht nur als individuelle Produkte mit Bedeutung und Eigenschaften vor, sondern ermöglichen auch eine Vergleichbarkeit zwischen ähnlichen Produkten innerhalb einer Produktpalette. Vorausgesetzt, die Datenqualität stimmt.

Unsere Erfahrung als Medien- und IT-Dienstleister Laudert zeigt aber auch: Es gibt eine gewisse Diskrepanz zwischen dem Gefühl, das Unternehmen für die Qualität ihrer Daten entwickelt haben, und der tatsächlichen Datenqualität. Ironischerweise ist es meist so, dass gerade die Unternehmen, die eher an der Qualität zweifelten, die beste Produktdatenqualität vorweisen konnten.

Aufwand des Datenmanagements anerkennen

Der Aufwand für das Produktdatenmanagement ist einer der am meisten unterschätzten Zeit- und Kostenfaktoren – übrigens in fast allen Bereichen der Produkt- und Marketingkommunikation: Bei der Implementierung neuer IT-Systeme ebenso wie bei der Einrichtung eigener Online-Shops, der Anbindung an Marktplätze oder eben dem Dynamic Publishing. Zeitpläne für die Bereitstellung von Produktdaten sind dabei häufig enorm unrealistisch, weil die benötigte Manpower unterschätzt wird.

Beispielrechnung Aufwand Datenmanagement für ein fiktives Unternehmen, moderate Annahmen:

  • 4000 Artikel/Jahr
  • 50% der Daten können direkt von den Lieferanten übernommen werden/ sind schon vorhanden
  • Zeitaufwand pro Attribut: 60s inklusive Quality Assurance
  • 5 Attribute pro Artikel

Zeitaufwand in Minuten: 400.000 x 50% x 5 = 1.000.000
In Stunden: 16.666,67
In Arbeitstagen zu je acht Stunden: 2083,33

Sofort ist die Dimension des Aufwands im Datenmanagement erkennbar. Datenqualität ist nur dann sichergestellt, wenn den Daten innerhalb des Unternehmens überhaupt erst die entsprechende Signifikanz und damit als Folge auch die notwendige Manpower eingeräumt wird. Salopp gesagt: „Machen wir nebenher“ ist der erste Schritt in den Abgrund.

Hochwertige Daten erfordern Fachpersonal

Wo wir gerade bei salopp dahergesagten Sätzen sind: Auch wenn es um die Qualität der einzelnen Attribute geht, gibt es den ein oder anderen Klassiker, über den man als Dienstleister stolpert. Einer davon ist: „Das Datenmanagement können Aushilfen und studentische Kräfte übernehmen.“ Wirklich? Schauen wir uns das im Detail mal an:

Stammdaten

Stammdaten fallen meist „automatisch“ aus dem Produktlebenszyklus an, also aus dem ERP oder dem PLM. In der Praxis sind sie meist unkritisch, hier treten nur sehr selten Probleme oder Aufwände auf.

Technische Daten

Technische Daten stammen häufig aus der Fertigung oder dem Einkauf. Sind die Daten unvollständig oder müssen angereichert werden, wird nicht unerhebliches Fachwissen benötigt.

Ohne Fachwissen ist für viele Produkte eine korrekte, fachliche Datenerfassung schwierig. Und der Kaninchenbau kann je nach Produkt beachtlich tief sein. Bei den Inszenierungsdaten (Produkttexte und Beschreibungen, Fotografien für die unterschiedlichen Ausleitungskanäle) kommen noch viele weitere Faktoren hinzu.

Besonders relevant für das Dynamic Publishing sind die Texte: Auf Werbematerialien wie Handouts, Flyern und dem klassischen Katalog werden sie benötigt. Eine „Single Source of Truth“ ist also auch für die Produkttexte in ihren Ausführungen (werblich, sachlich, kanalspezifisch) notwendig. Zentrale Datenvorhaltung, einheitliche Kommunikation und effiziente Ausspielung sind hier die Key-Faktoren. Für jede einzelne Publikation die Textlänge mit dem Mund malen widerspricht der Idee, mit sauberen Prozessen Geschwindigkeit aufzunehmen.

Stolperfalle Bildverschlagwortung

Etwas einfacher gestaltet sich die Bildverschlagwortung. Trotzdem ist sie kein Nebenprodukt. Einfache Fehler schleichen sich schnell ein. Um im Schraubenbeispiel zu bleiben: „Wo ist bei einer Schraube vorne?“ Für eine saubere Bild-Verschlagwortung sind geschulte Personen gefragt (zum Beispiel das darauf spezialisierte Content-Services-Team von Laudert).

Automatisierung „Das kann doch alles die KI“

Gerade im Bereich der Verschlagwortung fällt immer wieder das Stichwort Künstliche Intelligenz. „Die könne das ja übernehmen.“ Grundsätzlich hat KI enormes Potenzial. Doch der Nutzen hängt stark von den Aufgaben ab, über die man spricht – denn KI ist Musterkennung und kein Allheilmittel. Eine KI kann etwa sehr gut erkennen, ob sich auf einem Bild Menschen, Häuser, Bäume oder Sonnenuntergänge wiederfinden. Oder ob die Personen fröhlich oder traurig sind, einen Bart tragen oder mit oder ohne Mütze abgebildet sind. In eine entsprechende Taxonomie eingebettet kann KI hier sehr nützlich sein.

Im Bereich der Produktbilder sind die Einsatzbereiche allerdings noch begrenzt. Gut funktionieren Freistellungen und Masken – aber natürlich nur so gut wie das Trainingsmaterial der KI. Und: Eine KI ist auf ihren singulären Anwendungszweck spezialisiert.

KI ist eine Entscheidung, für die man sehr genau verstehen muss, was man selbst erreichen möchte – und was die KI dazu beitragen kann. Auch muss man sich überlegen, für welche Aufgaben man eine „öffentliche“ KI verwenden möchte (z.B. Google Vision) – zu deren Training man dann seine Daten bereitstellt, und welche KI man lieber hausintern entwickeln und trainieren möchte.

Beim Datenmanagement muss Effizienz auf Qualität treffen

Als Grundlage für Dynamic Publishing und die gesamte Produkt- und Markenkommunikation sind hochwertige Produktdaten ein Schlüsselfaktor. Selbst mit hohem Automatisierungsgrad sowie effizienten Prozessen und Workflows bleibt ein beachtlicher Aufwand für die Unternehmen bestehen. Um diesen Aufwand zu meistern, ist ein Bewusstsein für die Komplexität unabdingbar.

Egal, ob man sich final für eine interne Bearbeitung entscheidet, oder auf professionelle Unterstützung, wie etwa die Content Services, von Laudert setzt: Gute Produktdaten sind Trumpf – schlechte Produktdaten ein Grund, warum Dynamic Publishing-Projekte scheitern

Login