Rechenzentren im Check : Datencenter: Was sie können, was sie kosten

Generell ist die Wahl des Standorts für ein Data Center nicht ganz einfach. Einer der wichtigsten Punkte ist die Netzanbindung.
- © Ou Dongqu Xinhua / Eyevine / picturedesk.comDatendienste sind aus modernen Unternehmen nicht mehr wegzudenken. Mailservices, CRM-Tools, Datenbanken oder auch ERP-Systeme in Fertigungsunternehmen sind IT-Aufgaben, die für das Funktionieren von Industriebetrieben essentiell geworden sind. Die Wartung und Sicherung der Dienste bedeuten aber einen großen personellen und zeitlichen Aufwand. Der ist in letzter Zeit durch eine Vielzahl von neuen Zertifizierungsaufgaben sogar noch stark gewachsen.
Um die firmeneigene IT zu entlasten, bietet sich eine Zusammenarbeit mit einem Data Center an. Data Center offerieren eine hohe Datensicherheit und Verfügbarkeit, erledigen Back-ups automatisch und helfen auch bei einer Desaster Recovery.
Data Center auch mitten in der Stadt
Wer an Data Center denkt, dem fallen vielleicht zuerst solche tief in den Berg verbauten, ultrasicheren Anlagen ein, wie etwa das Swiss Fort Knox in den Schweizer Alpen. Oder in Österreich auch der EarthDATAsafe, betrieben von Kapsch in einem alten 30 Meter tiefen Stollen in der Steiermark. In der Realität sind die Rechenzentren meist nicht ganz so spektakulär untergebracht – bisweilen genügt auch schon ein unscheinbares Gebäude in der Innenstadt. So betreibt etwa next layer, ein IT-Infrastrukturanbieter für Connectivity, Cloud- und Colocation-Services ein Data Center am Wiener Fleischmarkt, mitten in der Stadt. „Wir haben den Standort vor Jahren übernommen und ihn technisch komplett modernisiert. “, erinnert sich Georg Chytil, CEO von next layer. „So kann man ein Rechnerzentrum auch direkt in der Innenstadt betreiben.“
Generell ist die Wahl des Standorts für ein Data Center aber nicht ganz einfach. Einer der wichtigsten Punkte ist die Netzanbindung. Garantierte synchrone Gigabyte-Verbindungen sind hier gefordert. Bei synchroner Datenspiegelung ist zudem die Latenz entscheidend. „Das muss dann aber auch das Telekom-Netz hergeben“, weiß Bernhard Peham, Leiter des IT-Infrastrukturprovider eww ITandTEL aus der Praxis zu berichten.
Nahversorger für Datendienste
Peham nennt seinen Betrieb einen „Nahversorger“ für Datendienste. Für Kunden ist der persönliche Kontakt wichtig, aber auch die räumliche Nähe. ITandTEL betreibt sogenannte Colocation Center. In Colocation Center können sich Unternehmen einmieten und dort ihre eigenen IT-Systeme betreiben. Der Betreiber des Centers kümmert sich dabei auch um Themen wie Kühlung, Redundanz oder Zertifizierungen. Nur um die Anwendungen, die auf den Servern laufen, müssen sich die Unternehmen weiter selbst kümmern.
Colocation Center, von denen es derzeit fast 30 in Österreich gibt, sind aber nur eine Möglichkeit die IT auszulagern. In einem Managed Service Rechenzentrum etwa können sich Unternehmen die komplette Infrastruktur und die Ausrüstung eines Anbieters mieten. Der kümmert sich auf Wunsch auch um Systemadministration, Überwachung, und Verwaltung. Ein weitere Möglichkeit ist es, Rechenleistungen und Speicher in die Cloud auslagern. Dafür sind dann oft die sogenannten Hyperscaler zuständig, Unternehmen wie Microsoft, Amazon oder AMS. Deren Rechenzentren sind aber bisweilen über die ganz Welt verstreut.

10 Punkte-Check für die Anbieterauswahl:
- Wie gut ist der Ruf des Anbieters in der Branche?
- Hat der Anbieter Sicherheitszertifizierungen nach ISO 27001/EN50600?
- Wie schnell ist die Anbindung an das Internet?
- Wie hoch sind die Latenzzeiten für die Verbindung zum Unternehmen?
- Wie gut ist das Sicherheitskonzept?
- Gibt es Garantien für Verfügbarkeit, Leistung und Sicherheit (Service Level Agreement)
- Wie umfangreich und flexibel ist der Leistungskatalog?
- Ist der Standort schnell und einfach erreichbar?
- Wie energieeffizient arbeitet der Anbieter?
- Was kostet der Strom?
- Wie gut ist der Support?
Einstieg für deutlich unter 1000 Euro pro Monat
Die Grenzen zwischen den Angeboten sind fließend. So haben viele Anbieter von Rechenzentren einen Leistungskatalog in der Lade liegen, aus dem fix und fertige Pakete gebucht werden können, wie etwa ein Sicherheitspaket für die Abwehr von Denial of Service (DoS) Angriffen. Das Einmieten selbst muss nicht teuer sein. Das Einstiegsangebot, das für viele Anwendungen bereits genügt, liegt bei deutlich unter 1000 Euro. Es inkludiert einen Server-Stellplatz in einem Viertel-Schrank und eine schneller Internetanbindung. Hilfe beim Einrichten gibt es obendrauf.
Hinzukommen allerdings noch die Stromkosten, die durchaus einen erheblichen Betrag ausmachen können. Die werden in aller Regel individuell abgerechnet, erhalten aber einen Aufschlag für den „Allgemeinstrom“, der über die Power Usage Effectiveness (PUE) berechnet wird. PUE gibt das Verhältnis des Gesamtstromverbrauchs des Rechenzentrums zum Stromverbrauch der IT-Komponenten an. Unter dem Strich ergibt das derzeit einen Preis von etwa 40 Cent pro Kilowattstunde, Tendenz leicht fallend.
Neben dem Preis und dem Angebot von Zusatzleistungen spielt auch die Ausfallsicherheit für die Wahl des Anbieters ein Rolle. Die Datencenter werden hierfür in vier Gruppen, Tier I bis Tier IV eingeteilt. Dabei hat Tier I eine Verfügbarkeit von 99,67 Prozent, was 28,8 Stunden mögliche Ausfallzeit pro Jahr bedeutet. Tier IV hingegen garantiert eine Verfügbarkeit von 99,991 Prozent, entsprechend 0,8 Stunden potentielle Ausfallzeit. Doch eine solche Sicherheit kostet Geld. Weswegen sich die meisten Datencenter mit maximal Tier III genügen, dessen mögliche Ausfallzeit bei 1,6 Stunden pro Jahr liegt.
Beratung ist essentiell
Woher weiß man nun, welche Lösung für sein Unternehmen die Richtige ist? „Die Beratungsleistung ist ein kritischer Punkt“, sagt Chytil. Für kleine Unternehmen führt der Weg oft über den lokalen IT-Betreuer. Insbesondere für Cloudservices bieten aber manche Anbieter wie hosttech.ch auch einen Webkonfigurator an, mit dem eine komplette Cloudinfrastruktur online zusammengestellt werden kann. Größere Unternehmen hingegen wenden sich direkt an die Data Center Betreiber.
Chytil glaubt aber nicht, dass es nur den einen Anbieter gibt. Er glaubt an die Hybride-Cloud. „In der Vergangenheit haben viele Unternehmen ihre IT oft zu einem Colocation-Anbieter ausgelagert und aus Kostengründen bisweilen auch wieder zurück. Später haben sie auch Cloud-Dienste von Hyperscalern genutzt. Ich denke heute nutzen die Unternehmen einen Mix aus allen. Sie nutzen die Dienste, die für sie am effektivsten sind“.
Wobei für Start-ups noch eigene Gesetze gelten. Sie beginnen oft mit einer Cloud-only-Lösung. Doch sobald es einen dedizierten Server-Raum gibt, wird es nach Ansicht von Chytil Zeit darüber nachzudenken, die Dienste eines Datencenter-Betreibers in Anspruch zu nehmen. „Die IT-Services und Daten sind extrem wichtig für die Unternehmen. Sie brauchen deshalb eine Sicherheitsumgebung mit Rechenzentrum-Qualität.“

10 potentielle Vorteile bei der Nutzung eines Datencenters
- Verringerter Arbeitsaufwand für die IT
- Leichte Skalierbarkeit
- Geringere Zertifizierungslasten
- Höchste Datensicherheit
- Verbesserte Verfügbarkeit
- Höhere Effizienz
- Ersparnis beim Personal und bei Brandschutzmaßnahmen
- Effektive Back-up und Disaster-Recovery-Dienste
- Einfaches Monitoring
- Schnelle und zuverlässige Internetanbindung
Sind Data Center Stromfresser?
Durchaus ein großes Thema im Zusammenhang mit Datencentern ist die Energiebilanz. Datencenter gelten als regelrechte Energiefresser und die EU versucht den Appetit durch neue Verordnungen zu zügeln. Auch in den einzeln Ländern gibt es entsprechende Bestrebungen – etwa in Deutschland. Dort ist vor allem die PUE ein großes Thema.
Im geplanten Energieeffizienzgesetz (EnEfG ) ist ein Wert von 1,2 vorgesehen, eine durchaus sportliche Ansage. Derzeit gelten erst Werte von über 2 als ineffektiv. „Wir haben zwar Rechenzentren, die mit einem PUE-Wert von unter 1,2 betrieben werden, aber das funktioniert nur, wenn das Rechenzentrum voll ausgelastet ist, der IT-Strom also sehr groß ist“, gibt Peham zu bedenken. Chytil stößt in das gleiche Horn: „PUE ist ein durchaus wichtiger und gut verständlicher Wert. Schaut man aber genau hin, dann sagt er nicht wirklich etwas über die Effizienz eines Datencenters aus.“
Abwärmenutzung (noch) schwierig
Für Österreich gibt es noch keine wirklichen Pläne für Grenzwerte. Das ist vielleicht auch nicht unbedingt notwendig, denn den Betreibern der Rechenzentren ist die Problematik durchaus bewusst. Strom ist ein großer Kostenfaktor und sie versuchen seit Jahren ihre Anlagen energieeffizient zu betreiben und etwa auch die Abwärme zu nutzen. Aber das ist bisher von wenig Erfolg gekrönt. Noch werden die Systeme hauptsächlich mit Luft gekühlt, und die hat dann mit 30 bis 40 Grad zu niedrige Temperaturen, um etwa in einem konventionelles Fernwärmenetz genutzt zu werden.
Auch Bernhard Peham kennt das Problem: „Wir wollen Teil der Energiewende sein. Aber um ehrlich zu sein, es ist uns noch nicht gelungen unsere Abwärme auszukoppeln.“ Und das, obwohl sein Unternehmen auch ein eigenes Fernwärmnetz betreibt. Peham nimmt deshalb auch die Hardwarehersteller in die Pflicht: „Wenn Flüssigkeit statt Luft für die Kühlung verwendet würde, wäre die Weiternutzung deutlich einfacher. Aber bisher sind selbst unsere neuen Nvidia GPU, die wir für KI einsetzen, immer noch luftgekühlt.“
Immerhin gibt es ein paar Pilotprojekte, die die prinzipielle Machbarkeit zeigen. Dazu gehört etwa ein Rechenzentrum von Digital Reality, dessen Abwärme von der Wien Energie für die Beheizung der Klinik Floridsdorf genutzt wird. Die Caldoa GmbH aus Friedrichshafen am Bodensee propagiert derzeit eine Entwicklung, die auf kalte Wärmenetze setzt. Dabei wird die Abwärme über eine Kaltwasserringleitung zu einem Wohnquartier geführt und dort mit Hilfe von Wärmepumpen nutzbar gemacht. Das von etwa 12 Grad auf 6 Grad abgekühlte Wasser wird wieder zum Rechenzentrum zurückgeführt und dort für die Kühlung eingesetzt. Allerdings: Bis sich solche Technik auf breiter Front durchsetzt, wird es wohl noch eine Zeit dauern.