Insights.NowNews.Now

BA & BI Datenschutz & Compliance

Was Entscheider*innen bei der Wahl der Datenstrategie beachten müssen

Die Datenflut in Unternehmen nimmt durch neue Technologien immer weiter zu. Mit diesen Tipps aus einer neuen Forrester-Studie im Auftrag von Dell Technologies lassen sich Daten zu Datengold erheben, besser strukturieren und sinnvoll nutzen.

24. August 2021

4 Min. Lesezeit

Datenstrategie Quelle: pixabay/Pexels

Die überbordende Datenflut entwickelt sich immer mehr zu einer der größten Hürden bei der digitalen Transformation von Unternehmen, wie eine neue Forrester-Studie im Auftrag von Dell Technologies belegt. 63 % der befragten deutschen Firmen geben an, dass sie Daten schneller sammeln, als sie sie verarbeiten und analysieren können. Gleichzeitig sagen mit 58 % fast ebenso viele, dass sie mehr Daten für ihren Geschäftserfolg benötigen. Dieser Widerspruch lässt sich unter anderem damit erklären, dass Unternehmen ihre Daten im zentralen Rechenzentrum hosten und nicht dort, wo sie generiert werden – etwa an der Edge.

Hinzu kommt eine weitere Herausforderung: Die Zeiten, in denen IT-Verantwortliche ihren jährlichen Speicherbedarf einigermaßen planen konnten, sind längst vorbei. Gleichzeitig steht Unternehmen von Flash bis Cloud ein breites Technologieangebot zur Verfügung, und selbst das Tape feiert in Zeiten von Ransomware ein stilles Comeback. Die Verantwortlichen sollten deshalb bei ihrer Datenstrategie drei grundlegende Punkte beachten – vom Datenort über die Speichertechnologie bis zum Betriebsmodell. 

1. On-premises ergibt für geschäftskritische Prozesse nach wie vor Sinn:

Ganz klassisch bewahren viele Unternehmen ihre Daten im eigenen Rechenzentrum auf. Praktisch jede Firma hat dabei zumindest eine Schlüsselanwendung, die als Mission-critical eingestuft werden kann und die die Sicherheit und Verfügbarkeit eines High-End-Storage voraussetzt. Einfache Backup- und Recovery-Produkte allerdings sind ebenso wie asynchrone Replikationslösungen im unteren Bereich einer „Verfügbarkeitspyramide“ anzusiedeln. An der Spitze der Pyramide stehen Systeme, die einen unterbrechungsfreien Betrieb gewährleisten und auf Fehler reagieren, bevor diese zu einem Ausfall führen. Das schließt den Ausfall einzelner Komponenten wie Controller oder eines kompletten Standorts ebenso ein wie unerwartete Nachfragespitzen und geplante Wartungen, die ebenfalls zu Auszeiten führen können.

Gleichzeitig darf es durch diese Vorfälle zu keinen Leistungseinbrüchen kommen. Daneben ist vor dem Hintergrund zunehmender Cyber-Attacken ein Backup weiterhin die Ausgangsbasis für zuverlässigen Datenschutz. Ein reines Offline-Medium, also ein externes Band, das irgendwo verstaut wird, reicht jedoch nicht aus. Ransomware-Angriffe laufen inzwischen so gezielt ab, dass selbst die Backup-Repositories und -Datenbanken, die wissen, wo welche Daten wie gesichert sind, um diese wiederherstellen zu können, zerstört oder mitverschlüsselt werden. Daher ist es notwendig, eine komplette Backup-Umgebung inklusive der Management-Tools zum Recovery in einer abgeschotteten Umgebung vorzuhalten.

2. Hybrid Cloud vereint das Beste aus zwei Welten:

Längst haben Cloud-Lösungen aufgrund ihrer Vorteile in puncto Agilität, geringerer Anfangskosten und Geschwindigkeit Einzug in die Unternehmen gehalten. Nicht selten kommt es vor, dass kostenlose Cloud-Speicher sogar für wichtige Geschäftsprozesse und Unternehmensdaten genutzt werden, wobei die Sicherheitsrisiken nicht zu unterschätzen sind. Zwar sind Anbieter wie Amazon, Microsoft und Google für den Schutz der von ihnen zur Verfügung gestellten Plattformen zuständig, die Absicherung der Daten aber liegt weiterhin in der Hand der Unternehmen. Ohne eine grundlegende Strategie laufen Firmen zudem Gefahr, weitere Silos aufzubauen und den Managementaufwand zu erhöhen. Cloud-Anwendungen, On-premises-Lösungen und Legacy-Systeme, die lediglich punktuell miteinander verbunden sind, führen zu einer starken Fragmentierung der Unternehmens-IT und damit zu einer deutlich höheren organisatorischen Komplexität.

Ein echter hybrider Ansatz erlaubt es, die unterschiedlichen Umgebungen mit einem einzigen Control Panel zu überwachen und zu automatisieren. Unternehmen erhalten damit auch die notwendige Transparenz über ihre Daten, unabhängig davon, wo sie sich befinden.

3. Storage flexibel konsumieren:

As-a-Service-Betriebsmodelle sind dabei die Türöffner zur hybriden Cloud. Bei einem Software-definierten Rechenzentrum wird die gesamte Infrastruktur virtualisiert und als Service bereitgestellt. So lassen sich verschiedenste Dienste kurzfristig dazubuchen, und auch die generelle Kapazitätserweiterung ist mehr als einfach: Die benötigten Storage-Ressourcen können flexibel angepasst werden, ohne dass dazu neue physische Komponenten erworben werden müssen.

Management, Security und Monitoring laufen ebenso vollständig softwarebetrieben und können damit schnell an den individuellen Bedarf angepasst werden. Das Zubuchen von Kapazitäten, das sich genau am momentanen Bedarf orientiert, verlagert die Kosten von der Capex- auf die Opex-Seite. Das bringt für Unternehmen eine hohe Flexibilität mit sich: Sie müssen nicht Unsummen investieren, ohne zu wissen, wie sich das Geschäft in den nächsten Jahren entwickelt. Vielmehr können sie klein anfangen und bei Bedarf nach oben oder unten skalieren.