Gerald Lembke

Digitalisierung im deutschen Mittelstand


Скачать книгу

V, dem Value, das den neuen Mehrwert aus der Kombination der vier Vs definiert (vgl. Rossa/Holland 2014, S. 255). Durch traditionelle Datenanalyseverfahren hingegen sind die Art und Anzahl von Daten im Big Data nicht mehr handhabbar und bleiben in unverarbeiteter Form nutzlos (vgl. Klein et al. 2013, S. 319).

      In der Praxis kann Big Data zur Etablierung von Wettbewerbsvorteilen genutzt werden (vgl. Schermann et al. 2014, S. 284), für die Planung, Steuerung und Kontrolle eines Unternehmens, die Optimierung der Prozesse und die Erstellung eines umfassenden Kundenprofils zur besseren Individualisierung von Preisen oder Produktangeboten (vgl. Buhl et al. 2013, S. 63). „Dadurch bestehen überdurchschnittliche Wachstumschancen“ (Buhl et al. 2013, S. 63).

      Wege für ein besseres Datenmanagement werden durch fortschrittliche Technologien bereitet. Hierzu zählen zum einen Quantum-Computing, das die Grenzen der Informatik durch den Einbezug von Quantenmechanik überwindet, um komplexere Datenstrukturen verarbeiten zu können. Zum anderen In-Memory-Datenbanksysteme, die eine derart komplexe Verarbeitung auf einem lokalen Rechner vornehmen können sowie Speicherarchitekturen im Cloud-Bereich. Daten können dadurch effizient gespeichert, verteilt und bereitgestellt werden (vgl. Klein et al. 2013, S. 322).

      Doch wie sollen Datenmassen greifbar werden, wenn sie über das menschliche Verständnis hinausgehen? Die Selektion der richtigen Daten und deren Analyse erfordern neue Denkmuster (vgl. Klein et al. 2013, S. 322). Eine weitere Herausforderung stellt die Erwartung an die Datenqualität dar. Zeitkonsistente Daten, die über verschiedene Kanäle gesammelt werden, werden ebenso verlangt wie inhalts- und bedeutungskonsistente Daten, die eine eindeutige Identifizierung erlauben. Anschließend sollen diese Informationen dann verständlich und verlässlich sein (vgl. Buhl et al. 2013, S. 65).

      Der letzte Aspekt betrachtet somit die Datenvielfalt und -glaubwürdigkeit, der untrennbar mit dem Datenschutz in Verbindung steht.

      Eine wichtige Frage hierzu lautet: Wie gehen die Unternehmen mit Big Data um, um trotz der immensen Datensammlung und -auswertung den unbeliebten gläsernen Menschen zu verhindern (vgl. Zwick 2013, S. 47)? Da personenbezogene oder personenbeziehbare Daten hierzulande derzeit durch das deutsche Bundesdatenschutzgesetz (BDSG) geschützt sind, gilt das Verbotsprinzip mit Erlaubnisvorbehalt. Die Erhebung, Verarbeitung und Nutzung dieser Daten werden also nur durch die ausdrückliche Einwilligung der betroffenen Person ermöglicht (vgl. Rossa/Holland 2014, S. 287).

      Allerdings sind laut Datenschützern die gesetzlichen Regelungen zum Schutz der Privatheit länderspezifisch uneinheitlich und den aktuellen Anforderungen nicht angepasst (vgl. Seemann 2014, S. 118). Deshalb können Unternehmen mittels der De-Kontextualisierung persönliche Daten verwenden, ohne dass die Dateneigner zugestimmt haben, indem sie diese anonymisieren und eine bestimmte Person nicht mehr zu identifizieren ist. Dadurch ist es Datensammlern auch erlaubt, die Daten länger aufzubewahren. Über eine Re-Identifikation, bei der mittels Analysetechniken Datensätze wieder einzelnen Personen zuzuordnen sind, werden die Nutzer nicht informiert (vgl. acatech 2013). Aus diesem Grund fordern Datenschützer eine einheitliche Definition in der EU-Datenschutzverordnung.

      Laut Tams (2014, S. 337) planen bisher nur 23% der Unternehmen in Deutschland eine Big-Data-Strategie und nur 14% besitzen bereits eine. Sollten sich die Datenschützer allerdings durchsetzen, würde dies das Ende von Big Data bedeuten (vgl. Seemann 2014, S. 118).

      Big Data wird als disruptive Technologie die Unternehmenskultur verändern, nachdem die Unternehmen eine kundenorientierte Datennutzung etabliert haben.

      Thesen als Basis für den Leitfaden:

      · Unternehmen verwenden Big Data, um sich Vorteile wie die Personalisierbarkeit der Kundenkommunikation zu erschließen.

      · Sie nutzen Big Data im Rahmen der gesetzlichen Vorgaben, da sie rechtliche Konsequenzen durch eine unangemessene kundenorientierte Datenverarbeitung fürchten.

      · Eine Investition in herausragende Big-Data-Technologien lohnt sich aufgrund der hohen Kosten derzeitig nur für große Unternehmen.

      3.2 Cloud Computing

      Cloud Computing bedeutet das Anmieten von Rechenleistung, Datenspeicher oder Software via Web, um IT-Ressourcen dynamisch über das Internet oder ein Intranet zur Verfügung zu stellen (vgl. ENISA 2009). Die eigene IT-Infrastruktur wird angepasst bzw. für neue Dienste externer Anbieter, vom Softwaredienstleister oder Speicherservice geöffnet. Somit können Unternehmen auch ihre eigenen IT-Ressourcen flexibel einsetzen und ihre IT-Systeme weltweit durch die Nutzung externer Rechenleistungen und Speicherkapazität über das Internet optimieren (vgl. BSI 2015).

      Grundsätzlich können drei verschiedene Kategorien von Servicemodellen unterschieden werden. Infrastructure as a Service (IaaS) stellt einen Nutzerzugang von virtualisierten Computerhardware-Ressourcen wie Rechner, Netzwerke und Speicher zur Verfügung. Dabei ist es den Nutzern möglich, eigene virtuelle Computer-Cluster zu gestalten (vgl. Jamsa 2013, S. 43f). Dagegen wird bei dem PaaS-Modell (Platform as a Service) eine komplette Infrastruktur (Plattform) mit standardisierten Schnittstellen durch einen Provider zur Verfügung gestellt. Nutzer können ihre eigene Software-Anwendung entwickeln oder ausführen lassen (vgl. Jamsa 2013, S. 31f.). Die dritte Ausprägung bietet Zugang zu Software-Sammlungen und Anwendungsprogrammen (SaaS – Software as a Service) (vgl. Jamsa 2013, S. 17 - 20).

      Dabei kann der Cloud-Service auf unterschiedliche Weisen bereitgestellt werden. Sind die Daten öffentlich und können daher von der Allgemeinheit oder einer größeren Gruppe genutzt werden, spricht man von einer Public Cloud (öffentliche Rechnerwolke). Die Private Cloud (private Rechnerwolke) dagegen bietet nur Zugang innerhalb der eigenen Organisation, da der Datenverkehr innerhalb der Cloud verschlüsselt wird. Bei der Community Cloud wird die Infrastruktur von mehreren Interessengruppen geteilt. Wenn mehrere, in sich eigenständige Cloud-Infrastrukturen, über standardisierte Schnittstellen gemeinsam genutzt werden wird dies ‚Hybrid Cloud‘ genannt (vgl. Jamsa 2013, S. 6).

      Das National Institute of Standards and Technology (2015) definiert fünf charakteristische Eigenschaften eines Cloud Services: Sie können schnell bzw. flexibel zur Verfügung gestellt werden (Rapid Elasticity) und sind dabei nicht an einen bestimmten Client gebunden, sondern über Standard-Mechanismen über das Netzwerk verfügbar (Broad Network Access). Die Ressourcen des Anbieters liegen in einem Pool vor (Resource Pooling). Die Provisionierung der Ressourcen läuft automatisch und ohne Interaktion mit dem Service-Provider ab (On-demand self-service). Es ist möglich, die Nutzung der Ressourcen zu messen und zu überwachen (Measured Services).

      Die Nutzung von Cloud Computing hat in den letzten Jahren stetig zugenommen und ist in vielen Bereichen bereits zum Standard avanciert (vgl. BSI 2015). „Immer mehr deutsche Unternehmen setzen auf Cloud Computing. 70% der Firmen hierzulande haben ihre Daten zumindest teilweise in einer virtuellen Wolke gespeichert“ (Vehlow 2011). Dadurch können langfristig Kosten gespart und weltweit auf Dokumente und Anwendungen zugegriffen werden. Zu den wichtigsten positiven Auswirkungen der Nutzung von Cloud-Lösungen zählen die bessere Skalierbarkeit von IT-Leistungen, der verringerte IT-Administrationsaufwand sowie der einfache Zugriff auf geografisch verteilte IT-Ressourcen.

      Trotzdem liegt bei vielen Unternehmen eine große Skepsis gegenüber der Datensicherheit (bzgl. unerlaubten Zugriffs Dritter auf die Daten) vor und die Angst, dass Daten verloren gehen bzw. Viren oder Schadprogramme die Endgeräte schädigen (vgl. Vehlow 2011).

      In Zukunft wird Cloud Computing disruptive Auswirkungen auf Unternehmen haben, da diese Technologie die Aspekte der Infrastruktur, der Plattform und der Software zusammenführt und ort- und zeitunabhängiges Arbeiten in Unternehmen ermöglicht.

      Thesen als Basis für den Leitfaden:

      · Ein Großteil der Unternehmen kann mit dem Begriff Cloud Computing zwar etwas anfangen, hat sich jedoch noch keine Gedanken über einen konkreten Einsatz gemacht.

      · Immer mehr Unternehmen stehen dem Thema Cloud Computing aufgeschlossen und interessiert gegenüber.