Eintauchen in den Data Lake

Neben Arbeit, Kapital und Umwelt sind Daten ein neuer, immer wichtiger werdender Produktionsfaktor geworden. Big Data ist der große Überbegriff. Nicht nur die Menge der Daten ist exponentiell angestiegen, sondern es sind auch neue Typen von Daten hinzugekommen, u. a. technische Logdateien, Sensordaten oder Daten aus Social Media. Mittels Datenanalyse soll Nutzen aus Big Data – also der Masse an Daten – gezogen werden.

Bis vor wenigen Jahren war man sich stets bewusst, mit welchen Daten man es zu tun hat – in der Regel Finanzdaten und Daten aus dem operativen Geschäft. Diese wurden manuell gesammelt und ausgewertet. Als diese Datenflut kontinuierlich wuchs, wurde Data Warehouse geschaffen, welches Daten automatisiert aus verschiedenen, unabhängigen Quellen sammelt und strukturiert ablegt. Anschließen konnte man mit Hilfe verschiedensten Tools und Technologien den vorhandenen Geschäftsprozessen ausgewertet. Man kannte also den Input ebenso wie den erwarteten Output.

Mit der Weiterentwicklung der Technologien wurden Daten immer besser technisch verfügbar und somit nutzbar – allerdings war man sich immer weniger bewusst, wofür. Daten werden gesammelt, weil sie gesammelt werden können. Und damit ist eine strukturierte Ablage schwierig geworden.

Dafür entstand die Data Lake Technologie. Mit Daten wird toleranter umgegangen. Unstrukturierte Quellen wie Text-, Bilder oder Sensordaten werden in ihrer Ursprungsform abgelegt und nur dann umgewandelt und verfügbar gemacht, wenn ein entsprechender Bedarf besteht. Dieses „Schema-on Read“ ist der grundlegende Unterschied zu einem Data Warehouse, dass das „Schema-on-Write“ nutzt.

Data Warehouse vs Data Lake

Durch die Nutzung eines Data Lake kann agil auf Veränderungen reagiert werden. Sobald sich eine neue Fragestellung ergibt, kann der „Daten See“ nach Daten durchfischt werden, die für die konkrete Fragestellung zur Lösung beitragen können. Mit einem Data Warehouse werden Analyseergebnisse für eine beschleunigte Entscheidungsfindung generiert, während mit einem Data Lake Data Scientists arbeiten, die Daten zusammenführen und daraus ganz neue Fragen und entsprechende Antworten entwickeln.

Die Rohdaten für ein Data Warehouse müssen also vorbereitet werden, was den gesamten Prozess aufwendig und teuer macht. In einem Data Lake wird erst einmal nur unabhängig gesammelt. Die Speicherung im Hadoop ist nahezu kostenlos. Damit wächst aber auch die Gefahr, im Datenwust zu ersticken und den Datalake zu einem Datensumpf umzufunktionieren.

Jeder von uns kennt das im alltäglichen Leben. Während früher Fotos sehr bewusst geschossen wurden und diese dann in Alben o. ä. abgelegt wurden, kann heute jeder so viel Fotos kostenlos machen wie es ihm beliebt. Das Smartphone quillt über von Fotos. Nicht nur die selbst gemachten, auch gesendete Fotos „verunreinigen“ die Ablage. Die Übersicht fehlt und erst bei Bedarf werden diese Bilder gesichtet, abgelegt, bearbeitet oder – das Schicksal der meisten Bilder – einfach gelöscht, weil sie keine Verwendung finden. So oder so ähnlich darf man sich das Prinzip eines Data Lake vorstellen.

Vom Chaos zur Struktur

Unsere intelligenten Smartphones helfen uns schon automatisch: Sie strukturieren in eigene Aufnahmen, sortieren und legen ab nach Datum, Ort etc. Ebenso müssen auch die Daten im Data Lake mit Attributen und Metadaten versehen sein, um sie für einen möglichen Einsatz gezielt suchen und finden zu können.

Mittlerweile bieten auch Unternehmen Data Lake Technologien zum Sammeln, Ablegen, Bearbeiten und Analysieren der Daten an. Eine der bekanntesten Lösungen ist z.B. der Microsoft Azure Data Lake. Ausgestattet mit allen erforderlichen Funktionen für Entwickler, Scientists und Analysten können die Daten unabhängig von Größe, Format und Geschwindigkeit gespeichert werden. Analysen können mit Batch-, Streaming und interaktiven Analysen schnell ausgeführt werden. Zudem lässt sich ein Azure Data Lake mit vorhandenen IT-Systemen für Identitäten, zur Verwaltung und Sicherheit einsetzen und an ein vorhandenes Data Warehouse anbinden – nutzbar beispielsweise für Power BI. Daten werden bei Bedarf verarbeitet, bezahlt wird pro Auftrag.

Die Anzahl der Anwender in Europa für Data Lake / Hadoop Lösungen steigt kontinuierlich, auch wenn sie weit hinter der Nutzerzahl in Nordamerika zurück bleibt.

Customer Intelligence und Predictive Analytics sind die am häufigsten umgesetzten Projekte. Anwender sehen diese neuen Technologien vor allem als (potentielle) Technologie zur Umsetzung neuartiger Anwendungsfälle.

Fazit

Data Lake bzw. Hadoop ist eine Technologie zum Sammeln von Daten ohne über die Verwendung Bescheid zu wissen. Das ist der Trick. Analysten und Scientists wollen neue Fragen stellen bevor sie zu Antworten kommen. Gesammelt werden z. B. Social Media Daten (Texte, Bilder) oder auch Protokolle von Webseitennutzungen. Hieraus werden neue Erkenntnisse gewonnen, die dann geschäftsunterstützend angewendet werden können – vielleicht strukturiert in einem Data Warehouse.

Bei Fragen zu Ihrer Datenarchitektur und Möglichkeiten zur professionellen Analyse unterstützen wir Sie gerne – nehmen Sie einfach Kontakt mit uns auf.

Metadaten-Management Teil I – Grundlagen und Einsatz von Metadaten

Metadaten bzw. Metainformationen sind strukturierte Daten, die Informationen über andere Informationsressourcen enthalten. Ein Metadatenmanagement ist nötig, um große Datenmengen zu verwalten – ansonsten hat man lediglich einen Haufen unstrukturierter Daten, die man nicht gezielt einsetzen kann. Metadaten bilden also einen gewaltigen Pool an Informationen.

Als Beispiel sei die Analyse von Geschäftszahlen genannt. Dabei ist mindestens genauso wichtig, wie sich das Geschäft weiter entwickeln wird und wie diese Entwicklung zielgerecht gesteuert werden kann. Es werden also nicht nur die aktuellen Geschäftsdaten und Trends aus der Vergangenheit betrachtet, sondern auch zukünftige Daten. Aber woher bekommt man die? Sie existieren noch nicht, sie müssen gebildet werden, es wird versucht sie wissenschaftlich vorherzusagen. Hier sind u. a. Metadaten eine wichtige Quelle. Diese zu analysieren erlaubt tiefe Einblicke in Beziehungen betreffend Kultur, Lokalitäten, Wirtschaft, sozioökonomische Beziehungen, menschlichem Handeln, Wünsche und Begehrlichkeiten.

Um es an einem alltäglichen Beispiel zu verdeutlichen sind Metadaten zu einem Buch beispielsweise:
• Autor
• Titel
• Verlag
• Erscheinungsjahr
• Anzahl der Seiten
• ISB Nummer (ISBN)

Der geschriebene Inhalt des Buches sind dagegen keine Metadaten.

Ein weiteres Beispiel, das in der Öffentlichkeit oft diskutiert wird sind die Verkehrsdaten (Telefonie) im Zusammenhang mit der Vorratsdatenspeicherung. Dabei werden als Metadaten definiert:

• Der verwendete Telefondienst
• Die Nummer oder die Kennung der beteiligten Anschlüsse (Absender / Empfänger)
• Personenbezogene Berechtigungskennungen
• Die Kartennummer (für mobile Telefonie)
• Standortdaten (u. a. für Mobiltelefone)
• Beginn und Ende der Verbindung, Dauer
• Die übermittelten Datenmengen

Die Inhalte von Gesprächen, SMS etc. sind dagegen wieder keine Metadaten.

Analysemöglichkeiten am Beispiel der Verkehrsdaten

Verkehrsdaten erlauben Rückschlüsse auf die individuelle Nutzung des Internets, Gesprächspartner am Telefon und auch Aufschluss auf die Inhalte von Kommunikation, nämlich bei E-Mails und SMS, wo technische Daten und Inhalte nicht trennbar sind. So ist es im Allgemeinen möglich, auch anonyme Äußerungen im Internet einem Telefonanschluss und damit wieder einer realen Person oder Organisation zuzuordnen.

Die Fortschritte der Technologie und die Zunahme der Metadaten-produzierenden Geräte wie Smartphones führen zu ergiebigen Daten. In vielen Bereichen des Lebens können durch Analyse dieser Metadaten-Spuren Details erkannt werden, die ergiebiger sind als der tatsächliche Inhalt der Kommunikation.

Ein öffentlichkeitswirksames Beispiel für die Mächtigkeit von Metadaten lieferte der Grünenpolitiker Malte Spitz. Er hat erfolgreich die Herausgabe der ihn betreffenden Vorratsdaten von der Telekom eingeklagt. Alle seine Bewegungen konnten im Detail nachvollzogen werden. Diese Geodaten wurden mit im Netz frei verfügbaren Informationen aus dem Leben von Malte Spitz (Twitter, Blogeinträge, Webseiten) verknüpft. Aus diesen Informationen wurde ein Video erstellt, welches detailliert zeigt, wann der Politiker wo war und was er dort gemacht hat, mit wem er gesprochen hat und zu welchem Thema. Hieraus ergeben sich sehr detaillierte Personenprofile (Interessen, Vorlieben etc.). Über einen Zeitraum von einem halben Jahr wurden über 35.000 Metadaten gesammelt von einem einzigen Smartphone (Quelle: Netzpolitik).

Mit den Spuren, die wir im Netz hinterlassen, verdienen Konzerne wie Google & Co. Geld. Es handelt sich um wertvolle personifizierte Daten, die für Werbezwecke monetarisiert werden. Dies soll von unserer Seite nicht bewertet werden, es bringt für den Nutzer auf der einen Seite durch personalisierte Dienste zahlreiche Vorteile, währen sich auf der anderen Seite Politik, Staat und Gesellschaft sehr viel langsamer entwickeln als die Technologie. Entsprechende hinken Regeln und der transparente Umgang mit der Verwendung von Daten den Möglichkeiten hinterher. Beispiele: Netzdurchdringungsgesetz, Vorratsdatenspeicherung, Nutzung von Daten durch die Strafverfolgung und für vorbeugende Taten.

Metadaten sind also ein heißes Thema in unserer Gesellschaft. Auf der einen Seite stiften Sie einen enormen Nutzen, auf der anderen Seite ist beim Thema Datenschutz sicher noch einiges nachzubessern.

Nachdem wir nun geklärt haben, was Metadaten eigentlich sind und wie sie eingesetzt werden können, werde ich in meinem nächsten Beitrag vorstellen, wie Händler die Informationen gezielt nutzen, um bestehenden und potentiellen Kunden ein besseres Erlebnis zu bieten.

Was wäre wenn? What-If Analysen als digitale Glaskugel

Heute wollen wir uns mal wieder in technische Details einer Datenanalyse stürzen. Power BI bietet nämlich eine neue Möglichkeit, um den Einfluss der Veränderung spezifischer Parameter zu simulieren. In einem der letzten Updates von Power BI Desktop wurde von Microsoft die Möglichkeit implementiert, über What-If Parameter (Was-Wäre-Wenn) Einfluss auf die bestehenden Daten zu nehmen und Einflüsse verschiedener Parametern auf andere Kennzahlen oder Parameter zu erkennen.

Im Folgenden möchte ich am Beispiel des Umsatzes zeigen, wie ein What-If Parameter eingesetzt werden kann.

In Power BI Desktop gibt es im Menü „Modeling“ den Punkt „New Parameter“:

What-If-Analyse Modeling

Hierüber erstelle ich einen What-If Parameter. Das sich öffnende Menü schaut wie folgt aus:

What If Parameter Übersicht

Hier kann ich die Eigenschaften des Parameters definieren.
Name: Name des Parameters unter dem er später angezeigt und verwendet werden kann
Data Type: Datentyp des Parameters (Ganze Zahl, Dezimalzahl)
Minimum/Maximum: Hier kann die Range (von-bis) des Parameters definiert werden
Increment: Legt die Schrittgröße fest, welche beim Verschieben des Slicers verwendet werden soll
Default: Legt den Standardwert des Parameters fest

Hier ein Beispiel, wie so ein Parameter ausschauen könnte:

What If Parameter Beispiel

Add Slicer to this page: Ist diese Checkbox aktiviert, wird nach dem Betätigen des OK-Buttons direkt ein Slicer im Report angezeigt.

What If Slicer

Neben dem Slicer wird im aktuelle Modell noch eine Tabelle für den What-If Parameter generiert:

What If Tabelle

Diese enthält neben dem eigentlichen Parameter auch noch ein neues „Measure“ (=Maß). Nachfolgend sehen wir, was sich im Detail hinter den beiden neuen Einträgen verbirgt.

Parameter:

What If Parameter Umsatz

Im Parameter wird letztendlich das wiedergegeben, was wir im Menü zur Anlage des Parameters definiert haben. Min/Max Wert sowie die Schrittgröße (Increment).

Measure:

What If Measure

Im Measure wird das Ergebnis des Parameters als Measure wiedergegeben.
Setze ich den Wert im Parameter auf 25 wird dieses Ergebnis im Measure widergespiegelt:

What If Veränderung

Hier nochmal ein genereller Überblick, was beim Erstellen eines neuen What-if Parameters automatisch generiert wird:

What If Analyse Übersicht

Nun möchte ich den neuen Parameter mit einem bestehenden Measure verknüpfen. In meinem Beispiel soll mit dem Parameter mein Umsatz beeinflusst werden.
Hierzu lege ich das Measure Umsatz Whatif an und addiere den prozentualen Wert aus dem Parameter auf mein eigentliches Umsatz-Measure:

What If Umsatz Measure

Im folgende Ausschnitt ist eine Gegenüberstellung des ursprünglichen Umsatz-Measures gegen das durch Parameter veränderte Umsatz-Measures dargestellt.

What If Parameter Veränderung

Dies ist nur ein kleiner Überblick über die Möglichkeit des What-If Parameters.
Nachfolgend habe ich noch ein Beispiel beigefügt, welches eine mögliche Visualisierung von What-If Parametern zeigt. Hier können Sie den Report auch direkt interaktiv testen, indem sie einfach direkt rein klicken:

pixi und die Herausforderungen der Datenextraktion

pixi ist ein Warenwirtschaftssystem, welches speziell für Händler im E-Commerce entwickelt wurde. Es unterstützt die Händler bei der Automatisierung ihrer internen Prozesse und kann somit zur Kostensenkung und Wachstum beitragen. pixi selbst betont besonders ihr umfangreiches Serviceangebot, ein großes Partnernetzwerk und das Schnittstellenangebot.

pixi-Kunden sind Pureplayer, Markenhersteller, Fulfiller oder Großhändler im B2B-Bereich. Ca 1.500 erfolgreiche Onlineshops werden mit pixi betrieben und Händler versenden jeweils zwischen 30 bis 10.000 Sendungen am Tag und haben einen Jahresumsatz von 200.000 EUR bis 60 Mio. Euro. pixi gibt an, der Einsatz Ihres Systems amortisiere sich bei allen Kunden im Durchschnitt zwischen 8 und 15 Monaten.

Auch einige unserer Kunden haben das Warenwirtschaftssystem pixi im Einsatz. Daher haben wir uns näher mit der Schnittstelle beschäftigt, um die Daten unserer Kunden zu extrahieren sowie Analysen und Berichte zur Verfügung stellen zu können. Nur so erhalten E-Commerce Händler einen ganzheitlichen Überblick ihrer Prozesse, Verkäufe, Kampagnen und Kanäle.

Bei der Extraktion der Daten hat pixi uns vor einige Herausforderungen gestellt. Während unserer Entwicklung hatten wir vor allem mit den folgenden Punkten zu kämpfen:
– pixi lässt keinen Massenexport der Daten zu.
– Die Struktur der Schnittstelle kann sich über die Jahre ändern.
– Eine stabile Verbindung zu pixi ist nicht immer gewährleistet.
– Bei verschiedenen Kunden verhält sich die Schnittstelle unterschiedlich.

Schließlich konnten wir aber alle Herausforderungen lösen und pixi in unsere Analytics-Anwendung integrieren. Diese Integration ist deshalb so wichtig, damit man als Händler einen umfassenden Blick erhält. Kosten und Erträge aus dem Online-Shop und Kanälen wie Ebay, Amazon oder Google müssen vereint ausgewertet werden um zu beurteilen, ob sich die Marktplätze und Marketingaktionen wirklich lohnen. Dies ist nur möglich, wenn die Daten aus den verschiedenen Systemen miteinander in Verbindung gebracht werden.

pixi Analyse

Beispiel Google AdWords & Google Analytics

Mit der Anbindung des Google-Kontos kann zum Beispiel der Deckungsbeitrag II nach Abzug der Google AdWords-Kosten dargestellt werden. So können Händler den Erfolg der AdWords Kampagnen umfassend bewerten. Aus pixi werden dafür die Aufträge mit dem jeweiligen Bestellwert, Stornos, Rabatte, Retouren und der Einkaufspreis für den jeweiligen Artikel gezogen. Aus Google AdWords extrahiert man die AdWords-Kosten.

Für die Abbildung der Google AdWords- und Google Analytics-Daten gibt es zwei Voraussetzungen. Nur dann können die Daten in einem Dashboard veranschaulicht werden:

  1. Das E-Commerce-Modul ist in Google Analytics aktiviert. Somit können die Webshop-Transaktion in Google getrackt werden.
  2. Die Webshop-Transaktionen werden an pixi übermittelt, um eine Verbindung zwischen pixi und Google herstellen zu können.

Unsere pixi-Kunden können mit der Zusammenführung dieser Systeme auf Knopfdruck erkennen, ob sich einzelne AdWords-Kampagnen wirklich lohnen. Zudem können sie analysieren, in welcher Kampagne sich die Kostentreiber verstecken.

Beispiel Amazon

Um keine Umsätze beim Verkauf über Amazon Marketplace zu verlieren, müssen Händler auch hier die Zahlen im Auge zu behalten.  Bei Amazon können die benötigten Daten ebenfalls extrahiert werden, um den Deckungsbeitrag II nach Abzug der Amazon-Kosten zu erhalten. Aus pixi werden dafür wieder die Aufträge mit dem jeweiligen Bestellwert, Stornos, Rabatte, Retouren und der Einkaufspreis für den jeweiligen Artikel gezogen. Aus Amazon extrahiert man die Amazon-Kosten. Durch die Übermittlung der Amazon FBA-Kosten (= Fulfillment-Kosten) und die darin inkludierten Kosten z.B. für das Lager, erhält man hiermit eigentlich sogar den DB III von Amazon.
Für die Zusammenführung der benötigten Daten ist es wiederum nötig, dass Amazon die Transaktionen und Artikel an pixi übermittelt, um somit eine Verbindung zwischen pixi und Amazon herstellen zu können.

Beispiel Ebay

Auch mit dem Marktplatz eBay ist eine Verknüpfung der Daten möglich. Voraussetzung ist wieder, dass sie Webshop-Transaktionen und Artikel an pixi übermitteln, um somit eine Verbindung herstellen zu können.

Für alle Anbindugen gilt, dass – wenn die Daten nicht zu pixi übertragen werden – alternativ die Möglichkeit besteht, diese Informationen über die Anbindung des Webshops zu erhalten. In den meisten Fällen wird pixi neben einem Webshop-System betrieben. Die Daten aus beiden Systemen (pixi und Webshop) ergänzen sich und ermöglichen Analysen, Berichte und Auswertungen.

 

FAZIT

Für eine Analyse auf Knopfdruck und einen schnellen, allumfassenden Überblick ist die Anbindung aller Systeme mit einem Analysetool unumgänglich. Die Grundlagen in der Anbindung von pixi sind von System zu System identisch. Jedoch hat sich herausgestellt, dass jede Anbindung eines pixi-Systems seine eigenen Herausforderungen mit sich bringt, welche individuell bewertet und in der Anbindung selbst berücksichtigt werden müssen.

Eine Sichtung der Daten sowie eine Vorab-Analyse der Schnittstelle sollten somit grundsätzlich durchgeführt werden, um die möglichen Herausforderungen besser bewerten zu können.

Der erste Schritt zur Stammkundengewinnung

Für fast jedes Unternehmen ist es überlebenswichtig, Stammkunden zu gewinnen und einen langfristigen Kundenstamm aufzubauen. Dazu muss man die Kunden gezielt ansprechen und mit den richtigen Angeboten zur richtigen Zeit zu einem Kauf animieren.

Information gibt es heutzutage im Überfluss, aber die Aufmerksamkeit der Kunden hat dadurch natürlich nicht zu-, sondern abgenommen. Entsprechend muss man sich von der Masse abheben um beim Kunden Gehör zu finden. Am besten gelingt dies durch eine individuelle Ansprache.

Den Kunden kennen – der Schlüssel zum Erfolg

Entsprechend beginnen alle Bemühungen mit dem Sammeln und Auswerten der Kundendaten, um die Interessen der Kontakte zu identifizieren. Da online bereits viele Daten anfallen, ist dies prinzipiell einfach – trotzdem lassen viele Unternehmen dieses Potential nach wie vor ungenutzt.

Dabei ist das Ziehen von Rückschlüssen nicht schwer: Kleidung, die heute online bestellt wird, verrät z.B. bereits viel über dessen Käufer. Adresse, Geschlecht und Kleidergrößen sind essenziell, um den Verkauf überhaupt abwickeln zu können. Mittels Warenkorbanalyse über verschiedene Käufe und Kunden hinweg, können Rückschlüsse auf die Geschmäcker der Kunden gezogen werden.

So gewonnene Erkenntnisse lassen sich auch auf weitere Kunden übertragen, um diese mit passenden Angeboten anzusprechen.

Es gibt bestimmte Artikel, die in Kombination mit anderen Artikeln von Kunden häufiger gekauft werden. Als einfaches Beispiel wird ein Kunde, der ein Fahrrad kauft, potentiell auch einen Fahrradhelm brauchen. Aber auch weniger offensichtliche Zusammenhänge können mit einer Warenkorbanalyse erkannt und im Nachgang zum speziellen Bewerben dieser Artikel genutzt werden.

Im stationären Handel sind zur Abwicklung des Kaufs deutlich weniger Daten erforderlich – der Kunde kommt in den Laden, kauft einen Artikel und ist wieder verschwunden. Trotzdem gibt es Möglichkeiten, mehr Daten zu gewinnen. Man kann z.B. mit Anreizen arbeiten, um Kunden zu bewegen, mehr Daten von sich preiszugeben und die Angebote besser auf sie zuschneiden zu können. Kundenkarten sind in diesem Zusammenhang nur ein Beispiel zur fortwehrenden Erhebung von Kundendaten. Je mehr Kunden diese nutzen, umso besser lässt sich das Kaufverhalten analysieren.

Wer online wie stationär unterwegs ist, kann Kunden anbieten, die Kundenkarte mit dem Onlineprofil zu verbinden. Dies lässt weitere Rückschlüsse auf den Kunden und die verschiedenen Berührungspunkte zum Unternehmen zu. Der Blick auf den Kunden wird ganzheitlich.

Welche Daten sollten erhoben und analysiert werden?

Die Online-Welt macht es uns wieder einfach. Ein detailliertes Besuchertracking ist auf der Website mit ein wenig investierter Zeit recht leicht erstellt. Die Zahl der Erstbesuche sowie wiederkehrende Besuche und Aufenthaltsdauer auf den einzelnen Webseiten sind im Onlinehandel gängige und wichtige Kennzahlen zur Identifizierung des Einkaufsverhaltens der Kunden und der Besucher

Für den stationären Handel wurden nun – auch dank einiger technischer Innovationen – neue Kennzahlen entwickelt, die mit Hilfe von Kamerazählung, WLAN-Sensoren, Kassendaten und Bluethoot Beacons erhoben werden können. Folgende Kriterien lassen sich damit messen

– das Ranking Ihrer Filiale
– die Loyalität Ihrer Besucher
– die Abschöpfungsquote
– die Gesamtfrequenz von Besuchern
– neue Besuche, wiederkehrende Besucher und Passanten
– der Umsatz
– Prognosedaten, z.B. anhand von Wettervorhersagen

Die Einschätzung und Analyse der Kunden sowie potentieller Kunden wird mit diesen Kennzahlen erheblich vereinfacht. Mit der Verbindung aller Daten erhalten Sie einen ganzheitlichen Blick Ihrer Kunden und können diese mit gezielten Angeboten ansprechen um Zusatzverkäufe zu generieren und Ihre Kontakte langfristig zu binden.