Der ultimative Guide zu Datacenter, Colocation & Outsourcing

Inhaltsverzeichnis

Datacenter – eine Definition

Ein Datacenter beinhaltet IT-Hardware (wie Server, riesiger Speicher, Netzwerk-Geräte und Racks) und die umgebende System-Infrastruktur mit dem Gebäude, Klimatisierung, Stromversorgung und schnellen Internet-Anbindungen. Betreiber eines Datacenters vermieten Unternehmen die Infrastruktur, damit diese im Datacenter ihre eigenen Server betreiben können. Zu den typischen Service-Leistungen eines Datacenter-Betreibers gehören hoch performante Anbindungen an Energie und Kommunikation, leistungsfähige Stromleitungen, Ausfallsicherheit und Redundanz bei Strom und effizienter Kühlungstechnik, höchste Verfügbarkeit bei der ganzen Infrastruktur, gute Isolierung des Gebäudes und hohe, mehrstufige physische Sicherheit.

Der Datacenter-Betreiber übernimmt somit die Verantwortung für die physische Sicherheit und Verfügbarkeit der Unternehmens-IT.

In der Vergangenheit betrieben Unternehmen häufig ihre eigenen Rechenzentren, was aber angesichts des hohen Stromverbrauchs der nicht ökologisch optimierten Rechenzentren zu hohen Kosten führt. Aktuell gehen viele Unternehmen daher dazu über, ihr Rechenzentrum auszulagern und Anwendungen in der Cloud zu betreiben.

Strom und Effizienz als Messgrösse

Die Stromkosten eines Datacenters setzen sich aus zwei Kostenblöcken zusammen: Dem Verbrauch der IT-Systeme (Server, Storage und Netzwerk) und den restlichen Systemen der Gebäudetechnik (hauptsächlich Kühlung und Gebäudestrom).

Der entscheidende Faktor ist dabei die Power Usage Effectiveness (PUE), die beschreibt, wie gut das Datacenter den Strom in Rechenleistung umsetzt und wie viel für Kühlung und Gebäudemanagement aufgewendet wird. Je höher der Stromverbrauch und je ineffizienter der PUE, umso höher fallen die Kosten für den Rechenzentrumsbetrieb aus.

Jedes Kilowatt an Systemleistung in einem Datacenter mit schlechtem PUE-Wert kostet Geld ohne Gegenwert. Viele inhouse-Rechenzentren haben einen PUE von über 2. Damit kostet der Betrieb doppelt so viel, wie in einem ökologisch konzipierten Datacenter. Dazu kommen stetig neue Vorschriften zur Energieeffizienz. Betreiber eines Rechenzentrums mit einem PUE über 2 sollten über eine Zusammenarbeit mit einem externen RZ-Betreiber nachdenken.

 

stromverbrauch-3

 

Netrics-DC-1887-2

Colocation-Datacenter als Lösung

Manche Unternehmen können aus technischen, regulatorischen oder Sicherheitsgründen ihre Anwendungen nicht in die Cloud verlagern. Ein Aufrüsten oder Modernisieren des eigenen Rechenzentrums erscheint aber häufig nicht wirtschaftlich und ist mit grossen Aufwänden für Personal und Technik verbunden.

Eine Lösung dafür ist die Nutzung eines Colocation-Datacenters. Dies sind externe Rechenzentren, in denen sich ein Unternehmen Gebäude-Infrastruktur wie Fläche, Stromversorgung, Kühlung und schnelle Internetanbindung mietet, um darin die eigenen IT-Systeme zu betreiben. Sie sind durch schnelle Glasfaser-Datenleitungen optimal an das eigene Unternehmen und ans Internet angebunden, räumlich aber vom Unternehmensstandort entkoppelt.

Der Vorteil für Unternehmen ist, dass sie kein eigenes Rechenzentrum unterhalten müssen, aber dennoch die eigenen IT-Systeme weiter betreiben können. Das bietet etliche Kostenvorteile, weil die Gesamtkosten eines Datacenters auf alle Nutzer eines Colocation-Datacenters verteilt werden. Um das Thema Sicherheit und Redundanz kümmert sich der Betreiber des Colocation-Datacenters.

Üblicherweise sind Colocation-Datacenter in räumlicher Nähe zum Unternehmensstandort zu finden, sodass die eigenen Techniker vor Ort Wartungsarbeiten an den IT-Systemen vornehmen können. Viele Anbieter von Colocation-Datacentern bieten ihren Kunden aber auch Hands-&-Eyes-Services, also Wartungstätigkeiten als Dienstleistung an (sogenannte Managed Colocation-Datacenter), welche den Einsatz des eigenen Personals im Datacenter vor Ort reduziert.

Weiter Kostenvorteile entstehen dadurch, dass Unternehmen die Miete des Colocation-Datacenters direkt als laufende Kosten verbuchen können (OPEX) und somit keine lange Abschreibung (CAPEX) nötig ist. Ausserdem kann die IT-Hardware aus dem bestehenden Rechenzentrum migriert und damit weiter genutzt werden. Grössere Investitionen in Hardware-Infrastruktur ist somit nicht oder nur im geringen Masse nötig.

Datacenter-Trends für 2021 und 2022

Das Home-Office als Arbeitsplatz hat Pandemie-bedingt einen enormen Zulauf erlebt. 80% der Unternehmen in der Schweiz haben Home-Office für ihre Mitarbeitenden angeordnet und 67% haben die digitale Kommunikation forciert. Dieser Trend spiegelt sich auch in den Ausgaben der Unternehmen für ihre IT-Infrastruktur wider (Quelle: MSM Research).

ICT-Betrieb


Allerdings gibt es eine grosse Planungsunsicherheit, wie es in 2021 und 2022 weiter geht. Zu erwarten ist, dass den ICT-Markt in den nächsten beiden Jahren ein gewisser Nachholbedarf kennzeichnet, der sich aber hauptsächlich im Bereich Services und Outsourcing bewegen wird. Haben laut MSM Research 2017 noch 57% der Unternehmen ihre IT selbst gehostet, werden es 2022 nur noch 28% sein. 39% werden dafür Public-Cloud-Dienste und 33% auf Private-Cloud und externe Datacenter setzen.

Der Anteil der Unternehmen, die überhaupt keine ICT-Infrastruktur nach aussen verlagert, beträgt nur noch 14%.

Den grössten Shift in SaaS- und Cloud-Lösung gibt es für Software im Bereich Office/SharePoint/Exchange: Hatten Schweizer Unternehmen diesen Bereich im Jahr 2020 bereits zu 50% ausgelagert, so wird das sich bis 2022 auf 76% steigern. Auch in anderen Bereichen wie ERP, CRM, Business Analytics und EMC wachsen die Anteile um 60% bis 90%.

Getrieben werden die Entwicklungen zusätzlich durch einen starken Home-Office-Trend, der auch nach der Pandemie anhalten wird. Viele Unternehmen betrachten diesen Wandel als Chance. 80% sehen dadurch eine höhere Attraktivität der Arbeitsplätze (insbesondere auch für neue Fachkräfte, die schwer zu bekommen sind), 63% gefällt die Steigerung von Flexibilität, Innovation und Reaktionszeiten für Home-Office-Mitarbeiter.

Hinzu kommen geringere Reisekosten, eine Verbesserung der Ökobilanz durch wenige Fahrten zum Arbeitsplatz, geringere Standort- und Parkplatzkosten und schnellere Abstimmungen im Team durch Ad-hoc-Online-Konferenzen.

Diese Umwälzungen erzwingen einen Strukturwandel bei der ICT-Infrastruktur. Unternehmen brauchen die Cloud und leistungsfähige Datacenter, die über eine performante Anbindung, hohe Redundanzen und aktuelle Sicherheitsmechanismen verfügen. Viele Unternehmen mit einer rapide wachsenden Zahl an Home-Office-Mitarbeitern haben schnell erkannt, dass eine simple VPN-Anbindung an das interne Rechenzentrum relativ langsam und teuer ist.

Im Trend sind ausserdem Edge-Datacenter, die Kunden lokal mit Private-Cloud-Lösungen unterstützen: Lokale und zeitkritische Applikationen für IoT, Visualisierungen, Real-Time-Anwendungen und Augmented Reality erfordern möglichst kurze Latenzen. Möglich machen dies Edge-Datacenter, die physisch nah dort positioniert werden, wo grosse Datenmengen entstehen. So können sie flexibel und in Echtzeit Daten verarbeiten und punkten mit kurzen Latenzzeiten und persönlichen Service.

Netrics-DC-121

Standort Schweiz für Rechenzentren

Die Schweiz – insbesondere mit den Regionen Zürich und Genf – gehört in Europa bereits zu den beliebtesten Datacenter-Standorten. Zürich liegt nach London, Frankfurt, Amsterdam, Paris und Dublin auf Platz sechs. Während in Frankfurt und Amsterdam erst jüngst die Verwaltungen aus Energieknappheitsgründen regulierend eingreifen mussten, um das Wachstum zu steuern, sind die Voraussetzungen in der Schweiz für den Ausbau von Datacenter nach wie vor hervorragend.

Zum einen hat die Schweiz hohe Datenschutzrichtlinien, die aber unabhängig von der DSGVO sind und Unternehmen grosse Rechtssicherheit bieten. Zum anderen bieten viele Kantone eine schnelle Glasfaseranbindung an schnelle Internet-Knotenpunkte (wie Zürich) und genug Kapazitäten für den grossen Strombedarf von Rechenzentren. Auch grosse Hyperscaler wie Google, Microsoft und Amazon bauen in der Schweiz ihre Kapazitäten aus, um ihren Kunden ortsnah schnelle Anbindungen anbieten zu können. Kurze Latenzzeiten und hohe Energieeffizienz sind dabei kritische Grössen, die Datacenter in der Schweiz problemlos garantieren können.

Der grösste Zuwachs erfolgt über Unternehmen aus dem Finanzsektor, Fin-Techs und international agierenden Schweizer Unternehmen, die ihre IT zunehmend in die Cloud und Datacenter verlagern. Aktuell sind ca. 19% der Rechenzentren-Kapazitäten in der Schweiz noch frei, weitere Projekte sind allerdings schon in Bau und Planung. Dabei gewinnen Rechenzentren in den einzelnen Regionen aufgrund der Nähe zu ihren Kunden laufend an Bedeutung.

 

Rechenzentrumsflächen in der Schweiz 2021Netrics_Datacenter_Karte

Wissen Sie, was Sie Ihr eigenes Rechenzentrum kostet?

Viele Unternehmen betreiben eigene Rechenzentren, führen aber die verschiedenen Kostenpunkte in separaten Kalkulationen. Eine Gesamtkostenrechnung fehlt. Wir helfen Ihnen, die «Total Cost of Ownership» (TCO) Ihres Rechenzentrums zu errechnen.
Nehmen Sie mit uns Kontakt auf

Wichtige Anwendungsfälle eines Datacenters

Die Verlagerung von Anwendungen, Daten und Datenverarbeitung in die Cloud hat für Unternehmen häufig viele Vorteile. Es gibt jedoch etliche Anwendungsfälle, in der die Latenzzeiten und Übertragungsraten eher für den Einsatz eines externen Rechenzentrums sprechen. Dies ist dann der Fall, wenn schwankende Datenraten über das Internet und grössere Latenzzeiten bei der Verarbeitung von grösseren Datenmengen zu viel Zeit kosten:

  • Bei sehr hohen Datenvolumina kann ein ERP betrieben aus der Cloud an seine Grenzen kommen.
  • IoT-Devices generieren oft grosse Datenmengen in kurzer Zeit, die sofort verarbeitet und gefiltert werden müssen. Hier bietet sich ein Edge-Datacenter an, dass nah an der Datenquelle steht und sofort auf besondere Situationen reagieren kann.
  • Virtual- und Augmented Reality-Anwendungen verarbeiten sehr grosse Datenmengen und brauchen eine schnelle Anbindung über dezidierte Leitungen zu einem nahegelegenen Colocation-Datacenter, um einen ‹ruckelfreien› 3D-Eindruck schaffen zu können.
  • Realtime-Anwendungen in Produktionsumgebungen müssen in Millisekunden auf komplexe Situationen reagieren können und brauchen daher sowohl hohe Rechenleistung als auch möglichst geringe Latenzen.

Erst die direkte Anbindung der jeweiligen IT-Infrastruktur über eine eigene Leitung zum Datacenter garantiert die kurzen Reaktionszeiten, die für zeitkritische Anwendungen wesentlich sind.

Darüber hinaus hat ein Unternehmen in einem Colocation-Datacenter weiterhin die volle Kontrolle über ihre eigenen Server und IT-Hardware und kann bereits installierte IT-Infrastruktur weiternutzen. Auch Software, für die es noch keinen adäquaten Ersatz in der Cloud gibt, kann so weiterhin effizient betrieben werden. Die Verlagerung der IT in ein Datacenter kann somit ein erster Schritt in Richtung Hybrid Cloud sein.

Netrics-DC-1722-crop

Netzwerk-Architektur eines Datacenters

Die Virtualisierung von Hardware macht nicht bei Servern halt: Sie setzt sich natürlich auch bei intelligenten Netzwerken in Form von Software-Defined-Networks (SDN) und Network Function Virtualization (NFV) fort. Trotz aller Virtualisierung müssen aber letztlich alle Daten noch über physische Leitungen zwischen Servern, Switches und anderer Netzwerk-Hardware transportiert werden. Die Architektur des Netzwerks in einem Datacenter spielt dabei eine wichtige Rolle. Da spätere Änderungen an der Netzwerk-Architektur grosse Kosten nach sich ziehen, ist es sinnvoll, sich zu Beginn Gedanken über die Nutzung des
Netzwerks zu machen.

Netwerk-Architektur-2


Das klassische Datacenter-Netzwerk hat drei Schichten:

  • Den Access Layer: Das sind die Switches, welche die Server im Rack miteinander verbinden. Die Access-Switches befinden sich oft oben im Rack (Top-of-Rack, ToR).
  • Den Aggregation Layer: Er verbindet die verschiedenen Access Layer. Aggregation-Switches segmentieren Zonen und besitzen eine höhere Funktionalität für Firewall, SSL, Intrusion Detection und Netzwerk-Analyse.
  • Der Core Layer: Core-Switches sorgen für High-Speed-Verbindung von und ins Internet, in WAN-Netze und zwischen verschiedenen Aggregation-Layern.

Alle Access-Layer-Switches in einem Aggregation Layer bilden ein eigenes VLAN, innerhalb dessen virtualisierte Server beliebig verschoben werden können, ohne IP-Adressen oder Default-Gateways ändern zu müssen.

Klassischerweise gab es in Datacentern bisher viel Nord-Süd-Traffic, weil Client-Anwendungen Daten angefordert, diese nach unten an einen Server weitergereicht und die Antworten wieder nach oben zurück und an den Client transferiert wurden. Hierbei kommt das Spanning-Tree-Protocol (STP) zum Einsatz. Ein direkter Datenaustausch zwischen den Aggregation Switches findet nicht statt und ist auch selten nötig (dann läuft er über die Core-Switches).

Moderne Software-Architekturen erfordern eine andere Netzwerk-Struktur. Sie nutzen mehrere virtuelle Server gleichzeitig, um eine Aufgabe zu erledigen und vernetzten mehrere Cloud-Anwendungen untereinander, die nicht alle im gleichen Aggregation Layer liegen. Virtualisierungsplattformen wie Hadoop verteilen hunderte virtuelle Server, die alle parallel arbeiten und Daten austauschen. Das führt zu einem grösseren sogenannten Ost-West-Traffic und erfordert eine gänzlich andere Netzwerk-Architektur und leistungsfähigere Aggregation- und Core-Switches, um den steigenden Traffic im Datacenter zu bewältigen.

Laut Cisco ist bereits heute 77% des Datacenters interner Traffic (Ost-West). Hinzu kommt Datacenter-zu-Datacenter-Verkehr für Redundanz und Backup und nur noch 14% ist Netzwerk-Traffic, den Clients ausserhalb des Rechenzentrums verursachen.

Für die Aussenanbindung ist es wichtig, dass ein Datacenter über einen eigenen hervorragenden Backbone verfügt und dort Direct-Connects und Peerings zu anderen Providern anbietet.

Sicherheit im Datacenter

Anbieter von (Colocation-)Datacenter sorgen vor allem für Gebäude-, Brand- und Zugangskontrollschutz, also die physische Sicherheit und garantieren den 99,999-prozentigen Betrieb. Die IT-Sicherheit der eigenen Server-, Security- und Netzwerk-Infrastruktur verbleibt in der Verantwortung des Kunden, der die IT-Systeme im Datacenter betreibt.

Zu den wichtigsten physischen Sicherheitsmassnahmen eines Datacenters zählen:

  • Physische Abschottung durch Zäune und Video-Überwachung aller Aussengrenzen mit automatischen Alarmen und Wachpersonal
  • Mehrstufige Zutrittskontrolle mit Vereinzelungsanlagen (es kann nur eine Person durch eine Sperre hindurchgehen) und Schleusen sowie mit biometrischer und Multifaktor-Authentifizierung
  • Kurze Wege zu allen Bereichen, um einen schnellen Zugriff des Sicherheitspersonal zu ermöglichen
  • Fensterlose Räume, um einen Einbruch und das vorherige Ausspionieren zu erschweren
  • Brandschutzfrüherkennung und automatische Aktionen bei Erkennung von Bränden über Sensoren (Räumungsalarm, Benachrichtigung von Feuerwehr und Rettungsleuten, eventuell Gaslöschung mit ungiftigem Gas)

Zu den wichtigsten technischen Massnahmen eines Datacenter zählen:

  • Elektronische Zutrittskontrollen an der Geländegrenzen, vor Gebäuden, vor einzelnen Bereichen, Räumen und Racks inklusive Logging und Videoaufzeichnung
  • Kamera- und Video-Überwachung mit Infrarotausleuchtung aller kritischen Türen und Zugänge
  • Rund um die Uhr besetzte Sicherheitszentrale, die in wenigen Minuten nach einem Alarm eingreifen sowie Polizei und Feuerwehr anfordern können
  • Sensoren, die an ein Gebäude-Management-System angeschlossen sind und anormale Werte bewerten und gegebenenfalls automatisch Alarm auslösen
  • Stromgeneratoren, die bei Stromausfällen den Betrieb aufrechterhalten
  • Statistische Auswertungen und Mustererkennung per KI zur Aufdeckung von Schwachstellen und Angriffsversuchen
  • Dokumentation und transparente Prozesse für Personen, die Zugang zum Datacenter erhalten sollen und hatten.

Darüber hinaus ist es wichtig, dass das Sicherheitspersonal des Datacenters nur dann dort arbeiten darf, wenn es einem ausführlichen Sicherheitscheck unterzogen wurde und zahlreiche, einsatzspezifische Trainingsmassnahmen durchlaufen hat. Lokale Feuerwehren und Sicherheitsbehörden werden bei Ortsbegehungen auf die Besonderheiten der Anlage hingewiesen und können sich so im Einsatzfall bestmöglich orientieren und eingreifen.

Ausserdem sollte ein Datacenter-Betreiber durch Zertifizierungen gemäss ISO 27001 und ISO 22301 mit regelmässigen externen Audits nachweisen, dass er das ganzheitliche Betriebs- und Sicherheitskonzept korrekt umsetzt.

Netrics-DC-1824

Optimale Leistungsausbeute (PUE) – wichtige Indikatoren für höchste Effizienz

Rechenzentren sind grosse Stromverbraucher – was sich auf die Ökologie und den eigenen Geldbeutel auswirkt. Es lohnt sich also aus mehreren Gründen, den Strom möglichst effizient zu nutzen.

Da die Stromkosten die grössten Kosten beim Betrieb eines Rechenzentrums sind, ist der PUE-Wert für Kunden eine wichtige Grösse, denn sie bezahlen durch die Miete des Datacenters diese «Stromnebenkosten» mit.

Datacenter unterscheiden sich deutlich darin,

  • wie effizient die Kühlung erfolgt und wie hoch die Leistungsdichte der IT ausgelegt werden kann
  • ob die Abwärme noch genutzt wird, um ein Nahwärmenetz zu speisen oder Energie zurückzugewinnen
  • ob im Winter das Gebäude mit Aussenluft oder im Sommer mit Grundwasser gekühlt wird, um Stromkosten zu sparen
  • wie gut das Gebäude isoliert ist, um im Sommer weniger kühlen zu müssen
  • die Dachfläche zur Stromgewinnung über Photovoltaik genutzt wird, um so die ökologische Gesamtbilanz zu verbessern
  • wie es die Kunden des Datacenters unterstützt, Strom zu sparen und effiziente Hardware einzusetzen.

Häufig sind betriebsinterne Datacenter schlicht zu gross dimensioniert. Das führt dazu, dass zu grosse Luftmengen umgewälzt werden. Hier helfen Raum-in-Raum-Lösungen, um die Mengen zu begrenzen. Ebenso sind die klare Trennung von warmer und kalter Luft wichtig, wie auch die Einhausung von Kalt- und Warmwasserkreisläufen. Zur Senkung der Kühlkosten kann auch die Umgebungsluft («freie Kühlung») und – falls erlaubt – das Grundwasser herangezogen werden.

Eine deutliche Senkung der Stromnebenkosten gelingt nur durch ein abgestimmtes Konzept aller Massnahmen und einem kontinuierlichen Monitoring, das den Strombedarf des Datacenters und die IT-Last in Beziehung setzt.

Ab einem PUE von 2 sollte eine Ablösung des Rechenzentrums und eine Auslagerung in ein ökologischeres Rechenzentrum ins Auge gefasst werden. Die Kosten für den Betrieb eines Datacenters mit PUE 2 und mehr sind deutlich zu hoch.

Weitere Informationen hierzu vom Bundesamt für Energie BFE

Datacenter-Klassifizierungen: Das bedeuten Tier 1 bis Tier 4

Die Einstufung von Rechenzentren in Tier-Klassen gibt den Kunden eine einfache Möglichkeit, die Ausfallsicherheit und mögliche Ausfallzeiten pro Jahr abzuschätzen. Sie legt fest, welche technischen Eigenschaften und Redundanzen es besitzen muss, um eine bestimmte Einstufung zu erhalten. Diese Kriterien sind in der ISO 2701 und EU-Norm 60001 festgelegt.

Tier I

Verfügbarkeit: 99,67 Prozent – mögliche Ausfallzeit pro Jahr: 28,8 Stunden

Ein Tier-I-Rechenzentrum besitzt keine redundanten Systeme. Es gibt also keine Ersatzsysteme für Strom, Internet und Klimatisierung, was bei Reparaturen oder Instandhaltung zu Ausfällen führt. Damit ist es nicht fehlertolerant. Diese Form des Rechenzentrums findet man nur noch in Unternehmen mit alter IT-Infrastruktur.

Tier II

Verfügbarkeit: 99,75 Prozent – mögliche Ausfallzeit pro Jahr: 22 Stunden

In einem Tier II-Rechenzentrum gibt es redundant ausgelegte Komponenten für Stromversorgung und Kühlungssysteme, wie zusätzliche Kühleinheiten, Pumpen, Generatoren und USV-Module. Server sind aber nicht redundant ausgelegt, auch die Internet-Anbindung ist nur einfach.

Tier III

Verfügbarkeit: 99,98 Prozent – mögliche Ausfallzeit pro Jahr: 1,6 Stunden

Am häufigsten sind Tier-III-Rechenzentren anzutreffen. Sie sind fehlertolerant und wartungsfreundlich, weil alle wesentlichen Komponenten redundant vorhanden sind. Dazu gehören auch Server und die Internet-Anbindung über aktive und passive Verbindungswege. Gebäudebereiche haben ebenfalls mehrfach ausgelegte Strom- und Kühlungssysteme und sind durch Brandabschnitte voneinander getrennt. Der besondere Unterschied zu Tier II ist, dass in einem Tier-III-Rechenzentrum Wartungsarbeiten ohne Unterbrechung des laufenden Betriebs vorgenommen werden können.

Tier IV

Verfügbarkeit: 99,991 Prozent – mögliche Ausfallzeit pro Jahr: 0,8 Stunden

Die höchste Klasse ist Tier IV – quasi die Premium-Variante mit höchster Redundanz und Ausfallsicherheit, aber auch entsprechenden Kosten. In diesen Datacentern verfügen alle Systemelemente (Netzwerk, Strom, Kühlsysteme, Server) über Automatismen, die bei funktionellen Anomalien selbstständig Reaktions- und Abwehrmechanismen auslösen, um einen Ausfall zu verhindern. Damit gibt es in Tier IV-Rechenzentren keine Elemente mehr, die einen Totalausfall herbeiführen könnten (kein Single Point of Failure, SPOF). Sie sind oft auch im Katastrophenfall noch einsatzfähig.

Green-IT: Mit Colocation die Umwelt entlasten

Rechenzentren benötigen viel Strom, in der Schweiz sind es nach einer aktuellen Studie bereits 3,6% des gesamten Strombedarfs. Viele Kantone haben aus ökologischen Erwägungen heraus Energieeffizienz-Gesetze verabschiedet, nach denen der jährliche Stromverbrauch kontinuierlich zu senken ist. Der Bundesrat hat darüber hinaus die Energiestrategie 2050 verabschiedet.

Green-IT, also der sorgsame Umgang mit der Natur beim Einsatz von IT, ist seit Jahren ein grosses Thema für Unternehmen. Hierbei spielt der Einsatz von Materialien, aber natürlich auch und insbesondere die Energieeffizienz eine grosse Rolle.

Vergleicht man interne Rechenzentren in Unternehmen mit Colocation-Datacentern, wird klar, warum unter ökologischen Gesichtspunkten die internen Datacenter schlechter abschneiden:

  • Kleinere Rechenzentren (wie man sie häufig in Unternehmen findet), haben eine wesentlich schlechtere Ökobilanz, da ihre Kühlung selten optimiert und Abwärme kaum genutzt wird. Ihr PUE liegt oft über 2.
  • Inhouse-Rechenzentren müssen sich über eine lange Laufzeit amortisieren, was häufige Optimierungen der Energieeffizienz aus Budgetgründen erschwert.
  • Colocation-Datacenter werden fortlaufend auf Stromverbrauch hin optimiert, um die strengen gesetzlichen Vorgaben zu erfüllen und Kosten zu senken.
  • Colocation-Datacenter können Skaleneffekte besser nutzen. Im Gegensatz zu alten Unternehmensrechenzentren wurde sie schon baulich so geplant, dass sie energieeffizient betrieben werden können.
  • Colocation-Rechenzentren haben oft einen PUE-Wert unter 2, bei Netrics sogar unter 1,3. Inhouse-Rechenzentren liegen oft zwischen 2,5 bis 3.

Jedes Kilowatt an Systemleistung in einem Rechenzentrum kostet den Kunden Geld, ohne dass er eine Gegenleistung dafür erhält. Je grösser der PUE-Wert, um so mehr Geld wird sinnlos verbrannt und die Umwelt unnötig belastet. Unternehmen können mit der Auslagerung ihrer IT in ein Colocation-Datacenter ihren ökologischen Fussabdruck massiv verbessern und gleichzeitig ihre Betriebskosten deutlich senken.

ISO 50001: Die internationale Norm ISO 50001 liefert Richtlinien für ein funktionierendes Energiemanagementsystem. Dieses dient dazu, die Energieeffizienz eines Unternehmens stetig und nachhaltig zu verbessern. Eine entsprechende internationale Zertifizierung weist nach, dass die Norm erfolgreich umgesetzt wird und zeigt Kunden, dass ein Colocation-Datacenter effizient betrieben wird.

Netrics-DC-1604

Zeitgemässes Datacenter-Monitoring

Das digitale Herzstück eines Unternehmens, das Datacenter, erfordert eine lückenlose Überwachung und Monitoring aller Systeme, inklusive des Gebäudes, der Server und der darauf laufenden Anwendungen.

Ein zeitgemässes Monitoring beschränkt sich deshalb nicht nur auf die IT-Systeme, sondern bindet in das Monitoring auch die Gebäude-Systeme, Temperaturüberwachung, Kühlsysteme, Sicherheitszugänge und vieles mehr ein. Es prüft auch die installierten Software-Anwendungen und deren Reaktionsfähigkeit.

Ziel ist es, über ein einheitliches System alle Aspekte permanent, 24/7/365, zu überwachen, Anomalien vorzeitig festzustellen und auch Auswertungsmöglichkeiten für mögliche Optimierungen zu schaffen. Das Monitoring-System muss dabei möglichst flexibel zu handhaben sein, um auf die individuellen Bedürfnisse des Kunden zugeschnittene Dashboards zu erstellen und Automatisierungen einzurichten, die auf bestimmte Konstellationen sofort reagieren. Dazu gehört auch ein ausgefeiltes Alerting-System, das schnell auf irreguläres Verhalten und Angriffe reagiert.

Darüber hinaus muss das Monitoring-System auch in der Lage sein, Daten verschiedenster Rechner- und Steuerungssysteme modular einzubinden und zu verarbeiten. Dazu gehören Schnittstellen zu IT-System-Anbietern wie Dell, HP, Lenovo und Netzwerk-Ausstattern wie Cisco oder Huawei.

Ausserdem erstellen moderne Monitoring-Systeme auch passiv (also ohne installierte Software-Agenten) ein vollständiges Inventar aller Systeme. Sie können anschliessend auf fehlende Patches von Software und Schwachstellen hinweisen. Durch eine permanente Überwachung der Netzwerk-Daten entdecken Sie ebenfalls neu auftauchende Systeme im Netzwerk oder plötzliche Veränderungen im Datenstromverhalten.

Disaster Recovery und 100%ige Verfügbarkeit

Ein Datacenter beherbergt in der Regel alle wichtigen IT-Systeme, die für das Unternehmen für den Betrieb unabdingbar notwendig sind. Sie sollten im besten Fall nie ausfallen und eine 100%ige Verfügbarkeit haben. Natürlich hält nichts ewig, auch nicht in der IT. Ausfälle einzelner Systeme oder erfolgreiche Hackerangriffe werden also vorkommen – genauso wie Naturkatastrophen wie Überschwemmungen, Hagelstürme oder Feuer sich nicht 100%ig ausschliessen lassen.

Beim Betrieb eines Datacenters ist es daher wichtig, auf solche Ereignisse vorbereitet zu sein, um einen unterbrechungsfreien Betrieb (Stichwort: Business Continuity) zu gewährleisten. Falls das nicht gelingt, muss es Pläne für ein Disaster Recovery geben, um auch bei schweren Störungen schnell wieder Daten restaurieren und den Betrieb aufnehmen zu können.

In der Regel gelingt eine Absicherung gegen schwere Störung nur durch Redundanz und Backups, am besten örtlich getrennt in einem zweiten Datacenter, das bei Störungen nahtlos übernehmen kann.

Wichtig bei der Planung der Redundanzen und Disaster-Recovery-Vorfällen: Sie müssen in unregelmässigen Abständen getestet und geübt werden, damit im Ernstfall jeder weiss, was zu tun und welche Schritte unternommen werden müssen. Dies gilt sowohl für «kleine» Ausfälle von einzelnen Servern bis hin zu Bränden, dem Ausfall einer Internet-Leitung oder der Kühlung.

Im Falle des Zurückspielens von Daten aus Backups muss ausserdem im Vorfeld schon geklärt sein, wie gross die Zeitspanne zwischen einzelnen Backups sein darf und welchen Datenverlust ein Unternehmen bereit ist, im Ernstfall hinzunehmen.

Virtuelle Cloud-Datacenter

Heutzutage lassen sich alle Teile eines Datacenters komplett virtualisieren. Dies gilt nicht nur für die Server-Hardware, sondern auch für Speicherkomponenten (Storage) und das Netzwerk. Bei entsprechender Planung und Umsetzung lässt sich ein komplettes Datacenter virtualisieren und in die Cloud migrieren.

Ein solches virtuelles Cloud-Datacenter (VDC genannt) hat für Unternehmen diverse Vorteile:

  • Es ist hocheffizient, weil Unternehmen nur die Leistung bezahlen, die das Datacenter tatsächlich benötigt. Das gilt nicht nur für die Serverleistung, sondern auch für Storage und Netzwerk.
  • Ein VDC lässt sich hochflexibel in kurzer Zeit auf neue Anforderungen erweitern (oder verkleinern) und an andere (Cloud-)Systeme anbinden.
  • Durch die Virtualisierung ist das VDC optimal schützt, sowohl gegen Angriffe von aussen als auch vor Übergriffen von anderen Servern im Datacenter. Vorkonfigurierte Firewalls lassen sich beispielsweise per Klick hinzufügen.
  • Die Administrierung vereinfacht sich, weil der Overhead sinkt und das gesamte Datacenter von einer Oberfläche aus überwacht und gesteuert wird.
  • Hohe Verfügbarkeit, da in kürzester Zeit weitere virtuelle Hardware zur Verfügung steht
  • Flexible Backup-Szenarien und Desaster-Recovery in kürzester Zeit.

Ein virtuelles Cloud-Datacenter verbindet die Flexibilität und Kostenvorteile einer Cloud-Lösung mit der Sicherheit und Kontrolle eines eigenen Datacenters.

Migrationskosten und anschliessende Kostensenkungspotenziale

Wenn Sie Ihr Datacenter migrieren wollen, gilt es die Risiken, die Migrationskosten und die Einsparpotenziale gegeneinander abzuwägen. Dabei stellt sich natürlich die Frage, welche Kosten eine Migration verursacht.

Zuerst müssen Sie entscheiden, ob bei der Migration auch Modernisierungsvorhaben umzusetzen sind. Eine reine Migration ohne grössere Veränderungen an der IT-Infrastruktur lässt sich leichter abschätzen und umsetzen. Sie birgt ausserdem weniger Risiken durch den Umzug.

Zu den Aufwänden einer Migration gehören:

  • Bildung einer Projektgruppe mit Projektleitung
  • Erstellen eines Budget- und Kostenplans für die Migration
  • Auswahl eines Anbieters, Vertragsverhandlungen und Abschluss
  • Erstellen eines Plans inklusive Erfassung des Inventars von Hardware und Software
  • Abbau des bestehenden Datacenters, Transport zum neuen Datacenter
  • Vorbereitungsarbeiten im neuen Datacenter, Aufbau der Hardware
  • Inbetriebnahme des neuen Datacenters
  • Doppelte Kosten im alten und neuen Datacenter für eine Übergangszeit
  • Kosten für die Downtime des Datacenters
  • Kosten für die Auflösung der übriggebliebenen Bestandteile des alten Datacenters.

Je nach Grösse und Umfang des alten Datacenters sind das fünf- oder sechsstellige Summen.

Dem gegenüber stehen allerdings diverse Kosteneinsparungen, die den Umzug in der Regel in wenigen Jahren amortisieren:

  • Deutlich geringere Stromkosten durch Einsparungen und Skaleneffekte beim Betrieb des Datacenters (geringerer PUE-Wert)
  • Einsparungen beim Personal, das das Rechenzentrum als Gebäudeteil gemanagt und für die permanente Sicherheit gesorgt hat
  • Keine Service- und Wartungskosten mehr für Kühlungs-Technologie, Brandbekämpfung, USV-Stromversorgung und Notstromaggregate
  • Geringere Internetkosten durch günstigere Volumentarife des Datacenter-Betreibers
  • Wegfall von Zertifizierungen für die Gebäudesicherheit und Einhaltung gesetzlicher Vorgaben
  • Umnutzungsmöglichkeit der freigewordenen Fläche für neue Büros oder Produktionsanlagen
  • Bei Abbau des alten Rechenzentrums: Keine Instandhaltungskosten für das Gebäude.
  • Einsparung von Software-Lizenzen zur Absicherung des Datacenters nach aussen.
Netrics-DC-1935

Dienstleistungen für IT-Outsourcing von Netrics

Sowohl bei der Migration des eigenen Datacenter in ein Colocation-Datacenter mit der dazu notwendigen Planung und Analyse des Ist-Zustandes steht Ihnen Netrics mit seinem umfangreichen Know-how zur Seite. Wir begleiten Sie bei der Analyse der bestehenden IT-Infrastruktur, der Evaluation, der Migration und natürlich dem Betrieb Ihres Colocation-Datacenters. Auf Wunsch kümmern wir uns um das Recycling alter Geräte, unterstützen bei der Umnutzung der alten Rechenzentrumsräume und übernehmen eventuell ihre Spezialisten.

Inspiration

Was kann ich tun, wenn ein weiterer Ausbau meines Rechenzentrums ansteht und ich keinen Platz mehr habe?
Wie kann ich die Kosten meines Datacenters senken?
Wie kann ich den Betrieb meines Datacenters professionalisieren?
Wie kann ich den ökologischen Fussabdruck meines Unternehmens verringern?
Wie kann ich performant modernste Anwendungen mit AI oder IoT bereitstellen?

Analyse

Mein Datacenter ist end-of-life. Soll ich in eine Erneuerung investieren?
Was kostet mich mein bestehendes Rechenzentrum?
Mein Unternehmen hat eine Cloud-Strategie, wir haben aber noch viel Hardware. Was kann ich tun, um diese nicht abschreiben zu müssen?
Wie kann ich teure Investitionen in eigene Rechenzentrums-Infrastruktur in Zukunft vermeiden?
Wie kann ich meine Infrastruktur in ein Datacenter migrieren und meine bestehenden Verbindungen weiter nutzen?
Ich brauche einen geografisch getrennten Backup-Standort. Wie kann ich eine georedundante Datenhaltung für mein Unternehmen realisieren?
Ist der Bau eines eigenen internen Rechenzentrums trotz strenger Auflagen möglich und sinnvoll?

Evaluation

Haben meine Anwender dasselbe Benutzererlebnis, obwohl sich die Daten in einem externen Rechenzentrum befinden?
Werden meine Daten an zwei geografisch getrennten Orten gespeichert?
Wie kann ich Anwendungen in meinem Unternehmen, zum Beispiel aus der Produktion, mit Infrastruktur im externen Datacenter oder der Cloud verknüpfen?

Realisation

Wie kann ich mein Datacenter effizient migrieren, obwohl Wissen oder Ressourcen fehlen?
Was mache ich mit meinen Racks, Klimaanlagen, Generatoren sowie dem Raum, den ich nun nicht mehr brauche?

Betrieb

Wie stelle ich in einem externen Datacenter die nötige Reaktions- und Interventionszeit sicher?
Wie kann ich im Datacenter die ISO-Vorgaben meines Unternehmens erfüllen?
Wie kann ich prüfen, ob mit meinen Daten im Rechenzentrum alles ok ist?

Weiterentwicklung

Wie stelle ich eine performante Anbindung meiner Infrastruktur mit den Hyperscalern sicher?
Wie manage ich meine Infrastruktur, die sich sowohl im externen Datacenter als auch in der Public Cloud befindet?
Wie kann ich meine IT nach und nach modernisieren?

Netrics bietet mit dem «Move, lift & shift»-Ansatz die schrittweise und kontrollierte Transformation hin zu einer Hybrid Cloud. So übernehmen wird die Migration Ihrer bestehenden Infrastruktur in unser Datacenter und betreiben wiederum andere Applikationen in unserer Private Cloud sowie ausgewählte Anwendungen aus der Public Cloud.

Mehr zu «Rechenzentren: Selbst bauen oder mieten», lesen Sie in unserem Blogartikel.


move-lift-shift

 

Datacenter-Security-Services von Netrics

Die Sicherheit Ihrer IT-Infrastruktur in einem Colocation-Datacenter hängt von mehreren Faktoren ab: Zum einen von der IT-Sicherheit ihrer eigenen IT, die Sie selbst im Colocation-Datacenter betreiben, zum anderen von der Infrastruktur eines Betreibers wie Netrics.

Zu unserem Sicherheitsportfolio gehören:

  • Redundante Internet-Anbindung (Dual-Homing) über mehrere, verschiedene Internet-Provider (Dual-Providing). Über BGP wird automatisch auf einen anderen Provider umgeschaltet, sollte eine Leistung ausfallen. Dies passiert unmerklich für Anwender und Kunden.
  • Glasfaser-Anbindung über mehrere Points-of-Presence (POPs) in der Schweiz und internationale Austauschpunkte in Frankfurt und Amsterdam. Das sichert hohe Verfügbarkeit, Skalierbarkeit und Sicherheit.
  • Garantierte Verfügbarkeit von 99,999%
  • ISO-Zertifizierung nach ISO 27001 und FINMA-Konformität
  • Tier-Level-III-zertifiziert
  • Biometrische Zugangssysteme und Personenvereinzelungsanlagen beim Zugang zum Gebäude
  • Modernste Brandschutzanlagen mit gasbasierten Feuerlöschsystemen (die zu keinen Schäden der IT-Hardware im Brandfall führen)
  • Mehrfach redundante Stromversorgung (2N)
  • Kälteanlage mit redundanter Produktion, Speicherung und Verteilung der Kältemittel
  • Eigene private Räume («Private Cage») für besonders sicherheitsrelevante Server und IT-Hardware (ab 20 m²)
  • Hands-&-Eyes- und IMAC-Services (Install, Move, Add & Change) für den direkten Zugriff auf Ihre IT-Hardware durch geschultes Netrics-Personal vor Ort

Gründe für die Auslagerung in ein Schweizer Datacenter von Netrics

Nicht nur für Schweizer Unternehmen, sondern auch für international agierende Firmen ist ein Datacenter in der Schweiz sehr attraktiv.

Netrics als Partner ist dabei die beste Wahl, weil wir nicht nur topmoderne, hocheffiziente und sichere Datacenter an vier verschiedenen Standorten (Zürich, Basel, Biel, Solothurn) in der Schweiz betreiben, sondern auch ein umfangreiches Service- und Leistungsspektrum für unsere Kunden anbieten können. So können wir nicht nur Platz, Strom und Netzwerk-Anbindung zur Verfügung stellen, sondern auch weitreichende Serviceangebote zum Betrieb ihrer IT-Infrastruktur realisieren.

Als Fullservice-Datacenter-Betreiber unterstützten wir Sie ausserdem vollumfänglich bei der Planung und Migration Ihres Rechenzentrums in eines unserer Colocation-Datacenter und kümmern uns dabei auch um die Anbindung ihrer Firmen-IT an das Datacenter. Nicht zuletzt können Sie uns auch mit dem Recycling ihrer alten Anlagen beauftragen – ein Angebot, das viele Unternehmen zu schätzen wissen.

Unsere Datacenter arbeiten höchst effizient: Der Datacube in Münchenstein wurde wegen seines extrem niedrigen PUE-Wertes von 1,24 vom Förderprogramm PUEDA des Bundesamts für Energie BFE ausgezeichnet.

Ebenfalls eine Besonderheit: Wir unterhalten Beziehungen zu 40 Internet-Providern in der Schweiz, die eine schnelle Anbindung ans Internet per Glasfaser anbieten und können unseren Kunden daher herstellerunabhängig höchste Verfügbarkeit zu sehr attraktiven Konditionen anbieten, die eine maximale Internet-Verfügbarkeit garantiert. Ausgefallene Internet-Leitungen gehören damit der Vergangenheit an.

Wir legen ausserdem grossen Wert auf einen ökologischen Fussabdruck, verwenden Aussenluft und Grundwasserkühlung, um den Energieverbrauch der Gebäude zu senken und nutzen die Abwärme zur Beheizung naheliegender Gebäude. Mehr zum Thema Ökologie finden Sie im Beitrag «Warum Colocation umweltfreundlicher als der Betrieb eines eigenen Rechenzentrums ist».

beitragsbild_blog_datacube

Edge Computing und Edge Datacenter mit geringen Latenzen

Mit Industrie 4.0 und IoT hat ein grundsätzlicher Wandel in der produzierenden Industrie stattgefunden. Moderne Produktionsanlagen erzeugen heutzutage eine Unmenge an Daten, um eine effektive Steuerung zu gewährleisten und mögliche Ausfälle rechtzeitig zu erkennen und gegenzusteuern (Predictive Maintenance). Die Turbine eines modernen Verkehrsflugzeugs liefert beispielsweise 10 Terabyte in 30 Minuten.

Solche grossen Datenmengen lassen sich nicht ungefiltert in die Cloud schicken und dort in Echtzeit verarbeiten. Auch die Latenzzeiten für eine Echtzeitsteuerung wären dabei zu gross. Abhilfe schafft hier ein Edge-Datacenter von Netrics. Es wird möglichst nah an den Datenquellen platziert, um die grossen Datenmengen direkt auszuwerten, entsprechende Aktionen zu veranlassen und nur die Daten an die Cloud oder entfernte Datacenter weiterzuleiten, die dort benötigt werden. Die Steuerung des Datenstroms übernehmen spezielle Edge-Gateways. Diese Struktur garantiert kurze Latenz- und Reaktionszeiten.

Der Vorteil eines Edge-Datacenters von Netrics gegenüber einem eigenen Datacenter vor Ort ist, dass Sie sich als Unternehmen nicht um die Anbindung ans Internet, die gesetzlichen Vorgaben, Kühlung, Stromversorgung und das Thema «effizienter Betrieb» kümmern müssen. Mit einem Edge Datacenter erhalten Sie ein effizientes und hochperformantes Rechenzentrum für ihre Produktion, ohne es selbst betreiben zu müssen.

Managed Colocation Services von Netrics

Der typische Anwendungsfall bei einer Migration Ihres Rechenzentrums in ein Colocation-Datacenter von Netrics ist, dass Sie ihre Server und IT-Hard- und Software weiterhin selbst betreuen – insbesondere, wenn das Colocation-Datacenter in der Nähe ihres Unternehmens steht.

Es kann aber sinnvoll sein, Teile des IT-Supports und IT-Managements an Netrics auszulagern, um sich so Wege, Personal und Kosten zu sparen. Dazu bieten wir sogenannte Managed Colocation Services an, von denen die meisten rund um die Uhr (24/7/365) zur Verfügung stehen. Dazu gehören:

Systemadministration – Das Installieren und Updaten von (Betriebssystem-)Software und Einspielen von Sicherheitspatches; Netzwerkfehlersuche; Neustarten von Systemen

Hardware-Tätigkeiten – Installieren von neuer Hardware oder Austausch bestehender Systeme; physisches Überprüfen von Storage und Netzwerk-Systemen (Hands & Eyes, Remote Hands Services)

Aktive Überwachung – Unser Monitoring kann ihre Server-Aktivitäten permanent überwachen und im Falle von Abweichungen sofort reagieren und Techniker mit dem Beheben der Probleme beauftragen.

Backup-Services – Wir übernehmen für Sie gerne auch das komplette Backup- und Disaster-Recovery-Management und stellen dafür High-Speed-Hardware und -Leitungen zur Verfügung.

Netzwerk-Management – Auf Wunsch übernehmen wir auch die komplette Netzwerkbetreuung ihrer Switches, VPN, Firewalls und Security-Devices, überwachen die Netzwerk-Aktivitäten und beheben aktiv Probleme wie zu hohe Auslastung, Packet-Loss oder Routing-Probleme.

Planung und Organisation – Datacenter Consulting, Plan, Build & Run: Wir unterstützen Sie in allen Phasen und Prozessen bei der Migration in Ihr neues Datacenter.

Fragen Sie uns nach unseren Dienstleistungen!

Wechseln Sie zu Netrics, dem führenden Datacenter-Anbieter in der Schweiz

Das Outsourcing des eigenen Rechenzentrums ist neben technischen Aspekten vor allem auch eine Frage des Know-hows und des Vertrauens.

Netrics hat schon viele Unternehmen bei der erfolgreichen Migration begleitet. Unsere Kunden schätzen besonders den reibungslosen Übergang, den umfassenden Service, die hohe Sicherheit und niedrigen Betriebskosten. Das kontinuierliche Wachstum des Unternehmens zeigt, dass wir offensichtlich vieles richtig machen.

Setzen Sie deshalb beim Outsourcing ihrer IT-Infrastruktur auf Netrics. Sie profitieren von der sprichwörtlichen Schweizer Zuverlässigkeit, dem hohen Sicherheitsniveau und einem minimalen ökologischen Fussabdruck. Hinzu kommen die verlässlichen politischen Rahmenbedingungen und hohen Datenschutzvorgaben.

Sind Sie interessiert? Dann nehmen Sie Kontakt zu uns auf. Wir freuen uns darauf, ihre IT zu optimieren!

eBook Datacenter

Laden Sie hier den ultimativen Guide zu Datacenter, Colocation und Outsourcing als pdf herunter. Erfahren Sie alles, was Sie schon immer über Rechenzentren wissen wollten. 

Laden Sie hier diesen Guide als eBook herunter
Netrics_Datacenter_ebook_mockup-1