Im Jahre 1776 legt der schottische Ökonom und Moralphilosoph Adam Smith mit seinem Werk “An Inquiry into the Nature and Causes of the Wealth of Nations” den Grundstein der modernen Ökonomie. Die erste industrielle Revolution nimmt ihren Lauf. Dampfmaschinen ersetzen erstmals die Muskelkraft und die liberale Wirtschaftstheorie eines freien Marktes setzt sich durch.Die zweite industrielle Revolution findet ihren Ursprung Ende des 19. Jahrhunderts in Nordamerika. Unter Einsatz elektrischer Maschinen werden Arbeitsprozesse automatisiert. Die Fließbandarbeit nach dem Vorbild des Ingenieurs Frederick Taylor ermöglicht durch eine effiziente Arbeitsteilung großindustrielle Massenproduktionen.
In faszinierender Art und Weise beruht unser ökonomisches Grundverständnis bis heute maßgeblich auf diesen beiden industriellen Revolution. Die Theorien von Adam Smith und Frederick Taylor dominieren in wesentlichem Maß unser ökonomisches Wertesystem und damit unser alltägliches Denken und Handeln. Ganz selbstverständlich setzen wir unternehmerischen Erfolg mit ökonomischem Gewinn, gleich. Umsätze müssen maximiert und Kosten minimiert werden, um diesen Erfolg zu erzielen. Der Markt führt zu einer natürlichen Regulierung und Selektion über Angebot und Nachfrage. Am Markt erfolgreich ist, wer mit Hilfe der eigenen Wettbewerbsvorteile Produkte und Dienstleistungen erzeugt, die möglichst hohe Mehrwerte schaffen und sich dabei möglichst günstig produzieren lassen. Ein stetiges Wachstum ist erforderlich, um Skaleneffekte zu erzielen und langfristig wettbewerbsfähig zu bleiben.
Dieses ökonomische Grundverständnis erscheint uns als nahezu universell gültig. Bis heute. Es basiert jedoch auf einer Theorie der Knappheit: Es gilt, die knappen Ressourcen bestmöglich einzusetzen, um größtmöglichen Wert zu schaffen. Die digitale Revolution jedoch stellt diese Theorie auf den Kopf. In einer vernetzten Welt sind viele Ressourcen, allen voran Information, im Überfluss vorhanden. Die digitale Revolution verändert darum etablierte Wertschöpfungsstrukturen radikal. Sie definiert Wert- und Kostenstrukturen grundlegend neu. Viele der etablierten ökonomischen Modelle führt sie sukzessive an die Grenze ihrer Gültigkeit. Und darüber hinaus. Willkommen in einer weiteren kurzen Geschichte der Revolution.
Die Anfänge: Mikrochips und das Moore‘sche Gesetz
Die Anfänge der digitalen Revolution verbinden viele Menschen ganz intuitiv mit dem Moore‘schen Gesetz. Es besagt, dass sich die Anzahl der Schaltkreise auf einem integrierten Chip in etwa alle 18 bis 24 Monate verdoppelt. Die genauen Details dieser Gesetzmäßigkeit wie auch ihre Haltbarkeit in der Zukunft sind Inhalt zahlreicher Studien und Debatten. Ihr Kern jedoch, nämlich eine exponentielle Steigerung der Kosteneffizienz moderner Personal Computer, markiert in der Tat einen Grundstein der digitalen Revolution. Schließlich begründet das Moore’sche Gesetz, wie es möglich ist, dass in den 1970er Jahren erstmalig Personal Computer auf den Markt kommen, deren Preis von deutlich unter eintausend Dollar sie über die Forschung hinaus auch für Privatkunden, für kleine und mittlere Betriebe wie auch für Bildungseinrichtungen erschwinglich machen.
Software: Das ökonomisch perfekte Produkt
Als Mittel zum Zweck bieten bereits diese ersten Personal Computer ein Betriebssystem und erste Programmiersprachen. Kaum ist der Markt für Personal Computer, also Hardware, eröffnet, schaffen sie somit eine gänzlich neues Produktgattung: Software. Personal Computer versetzen mit ihrer Entwicklungsumgebung aus Betriebssystem und Programmiersprache eine breite Anwenderschsft in die Lage, Algorithmen und andere Programme in Software, genau genommen in Anwender-Software, zu gießen und über Datenträger zu vervielfältigen. Erst bei genauerem Hinsehen wird deutlich, wie revolutionär diese Entwicklung bis heute ist. Bis dato ist die Herstellung von Produkten immer zwangsläufig mit der Verarbeitung von Material einher gegangen und bestimmt ganz wesentlich den Erfolg eines Produkts am Markt. Die Grenzkosten, also die Kosten, die zur Herstellung einer zusätzlichen Einheit des Produkts erforderlich sind, bestimmen ganz wesentlich die Preisgestaltung und der Herstellprozess, also die Art und Weise der Materialverarbeitung bestimmt ganz wesentlich die Produktqualität. Software dagegen führt als immaterielles Produkt dieses Modell ad absurdum: Nachdem das Moore‘sche Gesetz auch vor den Speicherkosten keinen Halt macht, lässt sich Software zu immer geringeren Kosten und außerdem instantan und verlustfrei, also ohne Qualitätseinbußen, reproduzieren. Wie Chris Anderson in seinem Buch „Free“ beschreibt, ist es wenig zielführend, die sinkenden Grenzkosten von Software in das bewährte betriebswirtschaftliche Modell von Angebot und Nachfrage zu pressen und damit die Revolution zu leugnen. Fakt ist: Die Grenzkosten von Software streben gegen null, was zur Folge hat, dass sie bei der Preisgestaltung quasi keine Rolle mehr spielen und eine beliebig große Nachfrage durch entsprechende Skalierung ohne große Mühe gedeckt werden kann.
Das Internet als Katalysator
Parallel zum wachsenden Software-Markt, bahnt sich in den 1990er Jahren eine weiterer digitaler Quantensprung an: Das Internet. Schon seit Mitte der 1960er Jahre werden erste Großrechner über Netzwerke miteinander verbunden, damals jedoch nur zu Forschungszwecken. Der Begriff „Internet“ wird geprägt, als 1973 die ersten Großrechner interkontinental miteinander verbunden werden. Bereits zu diesem Zeitpunkt realisiert das Internet die grundlegenden Konzepte der Netzwerktechnik, die bis heute erfolgreich im Einsatz sind. Technologisch schafft es die Möglichkeit, Daten mit rapide sinkenden Kosten und Latenzzeiten weltweit unbegrenzt zu verteilen. Die Distribution digitaler Produkte und Dienstleistungen ist nun vollständig digitalisiert. Die Kommerzialisierung des Internet nimmt endgültig ihren Lauf mit der Veröffentlichung des „World Wide Web“ im Jahr 1991, mit dem Ziel der Bereitstellung und Verteilung von Informationen über verschiedenste Endgeräte, Technologien und Nutzergruppen hinweg. Software kann nun nicht nur kostenlos reproduziert und vertrieben, sondern auch direkt an die richtigen Nutzergruppen vermarktet werden. Das World Wide Web ermöglicht die Zusammenarbeit in virtuellen Teams. Die Hardware-/Software-Entwicklungsumgebungen werden zu digitalen Ökosystemen, in denen Software durch eine wachsende Community kontinuierlich und zu einem signifikanten Anteil unentgeltlich weiterentwickelt und gepflegt wird.
Goldgräberstimmung: Der Dotcom-Boom
Begründet duch die explosionsartige Verbreitung des World Wide Web entwickelt sich in den 1990er Jahren eine rasante wirtschaftliche Dynamik, die die gesamte Branche der Informations- und Telekommunikationstechnologie erfasst. Sinngemäß etabliert sich der Begriff der „New Economy“, der dem fundamentalen Wandel von materiellen hin zu immateriellen digitalen Produkten und Dienstleistungen Rechnung trägt. Mit beispiellosen Wachstumsraten vor Augen, fließt das Geld vieler Investoren in den neuen Markt und befeuert weiter den technologischen Fortschritt. Notebooks, Personal Digital Assistants und Handies ergänzen den Hardware-Markt um mobile Endgeräte. Interessant ist, dass sich auch um Personal Digital Assistants ein digitales Ökosystem bildet, das einmal mehr deren Macht und Geschwindigkeit demonstriert. Binnen kürzester Zeit steht aus der wachsenden Entwickler-Community auch für diese Nische quasi jede erdenkliche Software-Anwendung zu Verfügung. Große Verbreitung finden File-Sharing-Anwendungen, die es ermöglichen, ausgewählte Dateien auf dem eigenen Computer über das Internet für andere Nutzer freizugeben. So schnell wie sie sich verbreiten, geraten sie jedoch aufgrund lizenzrechtlicher Verstöße und potentieller Sicherheitslücken wieder in Verruf.
Der sogenannte “Dotcom-Boom” der 1990er Jahre findet sein jähes Ende im Börsencrash um das Jahr 2000. Seit der Veröffentlichung des World Wide Web neun Jahre zuvor hat sich der Wert des technologiebezogenen NASDAQ Index an der New Yorker Wallstreit in etwa verzehnfacht. Nun wird jedoch offensichtlich, dass dem exponentiellen Wachstum vieler Unternehmen der New Economy keine adäquaten und nachhaltigen Werte entgegen stehen. Es findet eine grundsätzliche Neubewertung des Marktes statt, die viele Unternehmen ihre Existenz und viele Investoren ihre Einlagen kostet.
Monopole in der digitalen Welt: Der Netzwerk-Effekt
Betriebswirtschaftlich gesehen bleibt aus dem Dotcom-Boom besonders ein bemerkenswerter Effekt übrig, den bereits die ersten digitalen Öko-Systeme und File-Sharing-Anwendungen zeigen und der bis heute die Grundlage der erfolgreichsten digitalen Geschäftsmodelle ist: Der “Netzwerk-Effekt”. Der Netzwerk-Effekt besagt, dass der Wert eines digitalen Systems für dessen Nutzer mit dessen Verbreitung steigt. Damit widerspricht er der klassischen Wirtschaftstheorie, die eine Wertsteigerung im Gegenteil für eine Verknappung des Angebots vorhersagt. Im Jahr 1995 wird das Unternehmen Ebay gegründet, dessen Kern, eine digitale Auktionsplattform, als erste ihrer Art weltweit auf genau diesem Effekt beruht. Eine Plattform, genauer gesagt eine „Multi-sided Platform“, bezeichnet einen virtuellen Marktplatz, der verschiedene Akteure und mit ihnen Angebot und Nachfrage, zusammenbringt, die verschiedenen Schritte der Transaktion nach eigenen Regeln standardisiert und sich meist durch Provisionen auf die zustande kommenden Transaktionen selbst finanziert. Für die Käufer schafft die digitale Plattform maximale Transparenz und damit maximalen Wettbewerb zwischen den Anbietern, was minimale Preise ermöglicht und den Einkauf sehr komfortabel und einfach gestaltet. Für die Verkäufer schafft die digitale Plattform einen direkten Zugang zu einem großen Markt, was für sich gesehen höhere Margen durch die Vermeidung von Umschlags-, Marketing- und Vertriebskosten ermöglicht. Insgesamt löst die digitale Plattform sogenannte „Informations-Asymmetrien“ auf, macht also den Markt transparenter und effizienter. Dies geschieht zum klaren Nachteil, mit zum Teil existenzbedrohenden Folgen, für alle die sich in traditionellen Geschäftsmodellen aus diesen Informations-Asymmetrien finanzieren, beispielsweise Makler, Reseller oder Produktberater. Es geschieht jedoch zum klaren Vorteil, zumindest kurzfristig, für die Käufer und in weiterer Folge potentiell auch für die Verkäufer. Sind die realisierten Vorteile für die Akteure groß genug, generiert eine digitale Plattform mit wachsendem Bekanntheitsgrad den beschriebenen Netzwerk-Effekt mit exponentiellen Wachstumsraten. Die generierte Marktmacht kann so groß werden, dass sie in ihrer Wirkung ganz klar klassischen Monopolen gleicht. Wettbewerber der Plattform mit demselben Geschäftsmodell haben in diesem Fall quasi keine Überlebenschance mehr und auch viele Verkäufer sind dann auf Gedeih und Verderb der Plattform ausgesetzt, um überhaupt kostendeckende Mindeststückzahlen am Markt generieren zu können.
Schließlich hat sich nicht umsonst die Redewendung „Wer die Plattform hat, hat die Macht“ in der Branche etabliert.
Wer die Plattform hat, hat die Macht.
Gewinner in diesem Geschäftsmodell ist der Betreiber der digitalen Plattform, der in einem gewissen Rahmen, gleich wie in einem Monopol, Preise diktieren und dementsprechend hohe Gewinnmargen erzielen kann. Die Gewinnmargen sind durch die Digitalisierung umso größer, da die Plattform, zumindest in ihrer Reinform, auf den Vertrieb eigener insbesondere materieller Produkte verzichtet und sich auf die Vermittlung von Transaktionen beschränkt, deren Grenzkosten gegen null laufen.
Web2.0: Social Media
Nach dem Dotcom-Crash um das Jahr 2000 beginnt eine neue Ära des World Wide Web, die sinngemäß auch als Web2.0 bezeichnet wird. Während das Web1.0 bisher vorwiegend aus statischen Inhalten besteht, die von einer relativ kleinen Anzahl von Autoren verfasst und von der breiten Nutzerschaft konsumiert werden, zeichnet sich das Web2.0 als Social Media insbesondere durch die dynamische Generierung und kollaborative Zusammenstellung von Inhalten durch ihre Nutzer selbst aus. So werden in den Jahren nach der Jahrtausendwende zahlreiche soziale Netzwerke gegründet, die bis heute enorme Nutzerzahlen aufweisen, wie beispielsweise MySpace (2003), LinkedIn (2003), Facebook (2004), Flickr (2004), YouTube (2005), Twitter (2006), Instagram (2010), Pinterest (2010) und Snapchat (2011). Sie perfektionieren den Netzwerk-Effekt und realisieren exponentielle Wachstumsraten, ohne selbst den wesentlichen Anteil der Wertschöpfung erbringen zu müssen. Dies macht etwa Facebook bis heute zu einem der wertvollsten Unternehmen der Welt.
Der Aufstieg der Digital Giants
Genau genommen rangiert Facebook Stand Mitte 2018 aber nur auf Platz 5 auf der Liste der wertvollsten Unternehmen der Welt. Auf den ersten Plätzen befinden sich, in dieser Reihenfolge, die Unternehmen Apple, Amazon, Alphabet und Microsoft, die allesamt einfach aber treffend als „Digital Giants“ bezeichnet werden (Apple gelang es im Jahr 2018 als erstes Unternehmen überhaupt, einen Börsenwert von einer Billion US Dollar zu generieren). Die Geschäftsmodelle aller dieser Unternehmen basieren im Wesentlichen auf den bereits genannten Effekten. Über die vergangenen etwa 20 Jahre haben sie es geschafft, integrierte digitale Ökosysteme, bestehend aus Hardware, Software, Plattformen und Services, zu etablieren und sukzessive auf verschiedene Bereiche und Anwendungen des täglichen Lebens auszuweiten. Damit besetzen und optimieren sie gezielt die sogenannten „Touchpoints”, die Interaktionspunkte mit dem Nutzer, und schaffen ein einheitliches und optimal auf die jeweilige Nutzergruppe abgestimmtes Nutzererlebnis, eine “Customer Journey”. Das komplette Ökosystem als Ganzes schafft also nochmals deutlich mehr Wert für seine Nutzer als die Summe seiner einzelnen Teile. Es schafft ein wahres Erlebnis. Und je mehr Elemente der Nutzer zu diesem Erlebnis kombiniert, desto schwieriger fällt ihm der Umstieg auf ein anderes Ökosystem, was auch als „Lock-in Effekt“ bezeichnet wird und den Betreibern als sehr effektive Eintrittsbarriere gegenüber neuen Wettbewerbern dient. Bis heute ist das Ökosystem mit seinen Eigenschaften und Fähigkeiten zum vorrangigen Kaufkriterium geworden, noch vor dem Preis-Leistungs-Verhältnis seiner einzelnen Produkte und Dienstleistungen. Das bedeutet, Käufer treffen heute ihre Kaufentscheidung für ein Endgerät weniger aufgrund der Eigenschaften des Endgeräts selbst als mehr aufgrund des umgebenden Ökosystems.
Convenience is king.
Bemerkenswert ist, dass ein Großteil des Mehrwerts eines Ökosystems nicht zwangsläufig durch zusätzliche Funktion geschaffen wird, sondern oft in der Einfachheit seiner Bedienung liegt: “Convenience is king.”
Zum Beispiel wird ein einheitliches Nutzerkonto für alle Dienste verwendet, Einstellungen können über alle Geräte hinweg synchronisiert werden und Daten werden ohne Zusatzaufwand im Hintergrund in einem virtuellen Speicher gesichert.
Data is the new oil
Für die Digital Giants geht der Wert ihrer Ökosysteme noch weit über den direkten Vertrieb ihrer Produkte und Dienstleistungen hinaus. Der „Lock-in Effekt“ ermöglicht ihnen eine maximale Kundenbindung und hohe Margen im Vertrieb der einzelnen Elemente, die sich nahtlos in das Ökosystem integrieren. Ihre wesentliche Stärke besteht jedoch darin, die Nutzungsdaten an sich zu monetarisieren, die die Nutzer zumeist bereitwillig zur Verfügung stellen oder gar zwangsweise zur Verfügung stellen müssen, um die Vorteile des Ökosystems zur Gänze nutzen zu können. Die Datenmengen, die soziale Netzwerke und digitale Ökosysteme dabei produzieren nehmen nie dagewesene Ausmaße an und erfordern neue Speicher- und Analysekonzepte.
Schnell etabliert sich sinngemäß der Begriff „Big Data“, der sich ursprünglich nach Umfang, Wachstum, Komplexität und Struktur der Daten definiert, heute aber auch allzu häufig als unscharfer Modebegriff Verwendung findet. Big Data Analytics dient den Digital Giants insbesondere dazu, ihre Produkte und Dienstleistungen mit Hilfe von Nutzungsdaten sukzessive weiter zu optimieren und zu personalisieren. Damit widerspricht im Grunde genommen auch dieser Effekt der klassischen Wirtschaftstheorie: Während materielle Produkte sich grundsätzlich abnutzen, also über ihre Nutzungsdauer einem Wertverfall unterliegen, werden digitale Produkte durch ihre Nutzung immer besser. Big Data Analytics verwandelt also Daten in kundenrelevante Mehrwerte. Daten werden zum Treibstoff des Unternehmenserfolgs.
So formuliert 2006 der britische Mathematiker Clive Humby den viel zitierten Satz “Data is the new oil“, der nicht nur diese neuartige ökonomische Gesetzmäßigkeit beschreibt, sondern auch den fundamentalen Wandel der digitalen Revolution treffend wieder gibt.
Data is the new oil.
Clive Humby, 2006
Die Dimensionen, die Big Data in der Zwischenzeit erreicht hat, sind schwer in Worte zu fassen. Zum Vergleich: Mittlerweile sind etwas mehr als vier Milliarden Menschen mit dem Internet verbunden, also mehr als die Hälfte der Weltbevölkerung. Etwa drei Viertel davon nutzen soziale Netzwerke und produzieren dabei einen Großteil des globalen Datenvolumens. Schätzungen zufolge umfasst dieses globale Datenvolumen mittlerweile mehrere zig “Zettabytes”, wobei nur eines dieser “Zettabytes” etwa der Anzahl der Sandkörner aller Strände dieser Erde entspricht. Und das globale Datenvolumen wächst weiterhin rasant. Derzeit geht man von einer Verdoppelung alle drei Jahre aus. Besonders anschaulich erscheint eine Analyse aus dem Jahr 2016, derer zufolge 90% dieses globalen Datenvolumens allein in den vorhergehenden zwei Jahren produziert wurden. Und davon sei bislang nur ein einziges Prozent analysiert worden.
Cloud-Computing: Revolution für jedermann
Die Digital Giants setzen schon früh auf ein Server-Infrastruktur-Konzept, das nicht nur in der Lage ist, Big Data zu verarbeiten, sondern auch weitere Effizienzvorteile und neue Anwendungsmöglichkeiten im Betrieb der digitalen Ökosysteme bietet: Cloud Computing. Cloud Computing beschreibt den Betrieb einer verteilten aber für den Nutzer abstrahierten Server-Infrastruktur aus Hardware und Software, die bedarfsgerecht und dynamisch partitioniert und über das Internet genutzt wird. Grundsätzlich wird zwischen den Kategorien „Infrastructure-as-a-service“ (IaaS), „Plattform-as-a-service“ (PaaS) und „Software-as-a-Service“ (SaaS) unterschieden, je nachdem, welche Schichten der Infrastruktur zur Nutzung angeboten werden. Das Konzept des Cloud Computing ist bereits lange vor den digitalen Ökosystemen bekannt, kann sich bis dahin aber insbesondere aufgrund des hohen Bandbreiten-Bedarfs noch nicht etablieren. Die digitalen Ökosysteme generieren nun in den Jahren nach der Jahrtausendwende einen hohen Bedarf nach effizient skalierbaren und hochverfügbaren Speicher- und Rechenkapazitäten und die Internet-Bandbreiten erreichen ein Niveau, auf dem die Vorteile einer dezentralen Datenspeicherung gegenüber den Nachteilen höherer Latenzzeiten überwiegen. Amazon etwa erkennt schon sehr früh den großen Bedarf an hochverfügbarer Server-Infrastruktur, allein schon für die wachsende Anzahl eigener Web-Anwendungen. Außerdem steht das Unternehmen vor der Herausforderung, dass der Bedarf an Rechenleistung in Spitzenzeiten, wie etwa im Weihnachtsgeschäft, wesentlich höher liegt als im regulären Geschäft über den Rest des Jahres. Darum investiert Amazon schon über Jahre hinweg in eigene leistungsfähige skalierbare Cloud-Infrastruktur, erkennt gleichzeitig den wachsenden Bedarf am Markt und entscheidet sich schließlich im Jahr 2006, die Cloud-Infrastruktur unter dem Namen „Amazon Web Services“ auch externen Nutzern zur Verfügung zu stellen. Stand Ende 2018 hält Amazon Web Services als größter Cloud-Infrastruktur-Anbieter der Welt etwa ein Drittel des Marktes und generiert ein Umsatzvolumen von etwa 25 Milliarden US Dollar pro Jahr.
Cloud Computing geht also mit digitalen Ökosystemen und Big Data Hand in Hand. Geboren aus dem intrinsischen Bedarf an skalierbaren Server-Konzepten, ermöglicht es heute Unternehmen beliebiger Größe, einfach und komfortabel voll ausgereifte Server-Infrastrukturen einzusetzen und nahezu grenzenlos und vor allem maximal effizient zu skalieren. Hardware- und Software-Umgebungen, die bis vor einigen Jahren nur finanzstarken und spezialisierten Unternehmen vorbehalten waren, stehen dadurch heute bereits kostengünstig und bedarfsgerecht zu Verfügung, was zur Folge hat, dass auch die Grenzkosten des Betriebs digitaler Produkte und Dienstleistungen gegen null laufen.
Fazit: Zero Marginal Cost Economics
Wenngleich der Startpunkt der digitalen Revolution eine technische Innovation im Bereich der Halbleitertechnik ist, so sind es doch erst die sozioökonomischen Folgeerscheinungen, die die Bezeichnung “Revolution” rechtfertigen. Auf den ersten Blick sieht es so aus, als fielen seit ihrem Beginn in den 1970er Jahren mehrere weitgehend unabhängige ökonomische Entwicklungen, gesellschaftliche Strömungen und politische Ereignisse zusammen und brächten in ihrer mehr oder weniger zufälligen Kombination die nächste Stufe der technologischen Evolution hervor. Diese Behauptung ist nicht ganz von der Hand zu weisen. Und doch gibt es ein außergewöhnliches Muster, eine bahnbrechende Neuerung, auf die die allermeisten der beobachteten Effekte zurückzuführen sind: Cero Marginal Cost Economics. Die ersten Personal Computer markieren den Beginn eines Zeitalters, in dem die Grenzkosten informationsbasierter Wertschöpfung systematisch gegen null laufen. Während die Vervielfältigung, die Distribution, die Verwendung, materieller Produkte bis dato immer verlustbehaftet ist und substanzielle Ressourcen kostet, erfolgen diese im Fall informationsbasierter immaterieller Produkte und Dienstleistungen quasi verlustfrei und somit ohne signifikante Mehrkosten. Dieses Phänomen, heute bekannt als „Zero Marginal Cost Economics“, hat in den letzten etwa 50 Jahren völlig neue Geschäftsmodelle hervor gebracht. Viele etablierte Industrien stellt dies jedoch vor existenzielle Herausforderungen. In einer Welt, in der Kosten keinen substanziellen Wettbewerbsvorteil mehr darstellen, müssen etablierte Unternehmen sich kontinuierlich neu erfinden und konsequent auf die Generierung neuer kundenrelevanter Mehrwerte konzentrieren.