« Alle Blog Einträge

In eigener Sache: servinga GmbH zählt zu Deutschlands am schnellsten wachsenden Technologieunternehmen

Frankfurt am Main, 15.03.2024 — Die servinga GmbH ist gestern Abend mit dem Deloitte Technology Fast 50 Award ausgezeichnet worden. Mit dem Award prämiert die Beratungs-und Prüfungsgesellschaft Deloitte jedes Jahr die 50 am schnellsten wachsenden Unternehmen der Tech-Branche, basierend auf ihrem prozentualen Umsatzwachstum der vergangenen vier Geschäftsjahre. Ausschlaggebend für diesen Erfolg war die selbst entwickelte Cloud Infrastruktur-Technologie.

Durch kontinuierliche Innovation hat die servinga GmbH in den vergangenen Jahren eine eigenständige Cloud-Umgebung entwickelt, die es Kunden ermöglicht, skalierbare Cloud-Ressourcen an über neun Standorten weltweit eigenständig zu erstellen und zu verwalten. Besonderen Wert legen wir dabei auf die Einhaltung europäischer Datenschutzstandards, die Nachhaltigkeit im kontinuierlichen Betrieb, sowie auf einen umfassenden Support, der keine Kundenwünsche offen lässt.

Adam Lakota, Mitgründer und Geschäftsführer der servinga GmbH, freut sich, beim renommierten Technology Fast 50 Award für die eigene Unternehmensleistung ausgezeichnet worden zu sein. Er sagt: „Unser Engagement für höchste Qualität und unsere Fähigkeit, maßgeschneiderte Lösungen zu entwickeln, haben es uns ermöglicht, uns als vertrauenswürdiger Partner für Unternehmen aller Größenordnungen zu etablieren.“.

„Der Fast 50 Award ist nicht bloß ein Preis – er repräsentiert unsere Wertschätzung für die leidenschaftliche Innovation und das unerschütterliche Unternehmertum, das die Tech-Szene vorantreibt. Seit 1995 weltweit und seit 2003 in Deutschland zelebrieren wir mit diesem Award den beeindruckenden Ideenreichtum und die außergewöhnliche Durchhaltekraft in der Welt der Start-ups“, hebt Andreas Reuß, Partner bei Deloitte, hervor.


Über die servinga GmbH:

Die servinga GmbH, mit Sitz in Frankfurt am Main, ist ein führender deutscher Anbieter von individuellen Hosting-Infrastrukturlösungen. Seit über sechs Jahren bietet das Unternehmen maßgeschneiderte Cloud- und Hosting-Lösungen für Kunden sowohl in Deutschland als auch international an. Neben dem Betrieb von Umgebungen legt die servinga GmbH einen starken Fokus auf individuelle Managed Services, die das Leistungsspektrum abrunden. Die Expertenteams des Unternehmens arbeiten eng mit ihren Kunden zusammen, um deren spezifischen Anforderungen zu verstehen und maßgeschneiderte Lösungen zu entwickeln. Dabei wird nicht nur auf den reibungslosen Betrieb der Infrastruktur geachtet, sondern auch auf die Integration von Managed Services, um den Kunden ein ganzheitliches Hosting-Erlebnis zu bieten.

Die servinga GmbH bietet eine Vielzahl von Hosting-Services, darunter dedizierte Server, virtuelle private Server (VPS), Cloud-Hosting und mehr. Mit ihrer eigen entwickelten Cloud – Infrastruktur und ihrem erstklassigen Kundensupport ist die servinga GmbH die ideale Wahl für Unternehmen, die nach zuverlässigen und skalierbaren Hosting-Lösungen suchen.

« Alle Blog Einträge

Eine Einführung in Infrastructure-as-a-Service (IaaS)

IaaS, PaaS, SaaS – diese Abkürzungen haben Sie sicherlich schon einmal gehört. Aber was genau verbirgt sich dahinter? In diesem Artikel wollen wir uns IaaS, kurz für Infrastructure-as-a-Service, widmen und Ihnen nicht nur das Prinzip erklären, sondern auch, welche Vorteile IaaS-Lösungen für Ihr Unternehmen bieten können. 

Was ist IaaS? Definition

IaaS steht für Infrastructure-as-a-Service und bezeichnet Dienstleistungen im IT-Bereich, bei denen IT-Anbieter ihre Infrastruktur Unternehmen zur Verfügung stellen. Dabei betreibt der Anbieter eigene Rechenzentren, in denen seine Hardware untergebracht ist. Per Cloud-Technologie können Kunden dann auf diese Ressourcen zugreifen und frei für ihre Zwecke nutzen. 

Dasselbe Prinzip gilt übrigens auch für Platform-as-a-Service (PaaS) und Software-as-a-Service (SaaS). Hier wird jedoch keine IT-Infrastruktur vermietet, sondern dementsprechend der Zugriff auf eine Plattform oder eine Software. Dies läuft ebenfalls über Cloud-Technologie. Zudem stellt IaaS auch die Grundlage für PaaS- und SaaS-Dienstleistungen dar. 

Warum IaaS? Die Vorteile der gemieteten IT-Infrastruktur

Viele Unternehmen setzen auf Infrastructure-as-a-Service-Lösungen, weil sie von der schnellen Skalierbarkeit profitieren. Außerdem ermöglicht es IaaS, die eigene IT-Abteilung klein zu halten und nicht von Grenzen innerhalb des Unternehmens ausgebremst zu werden. Der Platzbedarf für eigene Server entfällt und wenn der Bedarf an IT-Ressourcen steigt, können sie bei einer IaaS-Lösung flexibel hinzugebucht werden, ohne eine räumliche und personelle Vergrößerung nach sich zu ziehen. 

Des weiteren wird die Wartung der Hardware sowie Backups ausgelagert und das bedeutet, dass Ihr Unternehmen sich ganz auf sein Geschäft konzentrieren kann, anstatt viel Zeit darauf zu verwenden, die Arbeitsmittel und IT-Kapazitäten einsatzbereit zu halten. 

Public IaaS, Private IaaS oder Hybrid-IaaS?

Bei einer IaaS-Lösung übernimmt der Anbieter für Sie die Hardwarebeschaffung und Wartung. Anstatt jedoch einen dedizierten Server nur für Sie zu betreiben, bietet der Betreiber Ihnen Speicherkapazitäten und weitere Ressourcen in seiner Cloud an. Netzwerk, Speicher, Virtualisierung und Server liegen in der Verantwortung des Anbieters. 

Sie entscheiden über das Betriebssystem, die Daten, die Sie in der Cloud speichern möchten sowie die Anwendungen, die Sie über die Cloud laufen lassen möchten. Dabei gibt es bezüglich der Cloud drei verschiedene Möglichkeiten. Sie kann als Private Cloud, Public Cloud oder Hybridvariante betrieben werden. 

Bei einer Private Cloud gibt es eine unternehmensinterne Cloud, die von einer eigenen IT-Abteilung betrieben wird. Diese kümmert sich dann um die Zuteilung der Ressourcen für einzelne Abteilungen. Genau genommen wird hier die Hardware nicht ausgelagert, aber zentral für das gesamte Unternehmen verwaltet. Dies ist insbesondere dann attraktiv, wenn sensible Firmendaten ein hohes Maß an Sicherheit benötigen und daher im eigenen Netzwerk verbleiben sollen.

Die am meisten verbreitete IaaS-Variante ist allerdings die Public Cloud eines externen Anbieters. Dieser vermietet seine Cloud-Ressourcen an verschiedene Kunden, losgelöst von der physischen Infrastruktur. Hybrid-IaaS nutzt sowohl die Public Cloud als auch unternehmensinterne IT-Ressourcen, um die Vorteile beider Methoden anwenden zu können. 

Wie kann Infrastructure as a service aussehen? Beispiele

Nicht nur, wenn Ihr Unternehmen wächst, können Sie plötzlich mehr IT-Ressourcen wie Speicherplatz und Serverkapazitäten benötigen. Ein typisches Beispiel für ein Unternehmen oder eine Abteilung, die auf IaaS setzt, ist ein Online-Shop. Aufgrund von saisonal unterschiedlicher Nachfrage, Stichwort Oster- oder Weihnachtsgeschäft, aber auch Werbekampagnen oder weiteren Promotionen kann es zu Lastspitzen kommen.

Diese Lastspitzen müssen kurzfristig und flexibel abgefangen werden können, damit die Website nicht zusammenbricht und für die Kunden erreichbar bleibt. Außerhalb der Zeit werden die Ressourcen dafür aber nicht benötigt. Eine eigene Infrastruktur müsste, um die Verfügbarkeit zu gewährleisten, also auf diese Lastspitzen ausgelegt sein. Aber auch, wenn die Zugriffe niedrig sind, müsste die Hardware gewartet und gelagert werden. 

Eine IaaS-Lösung schafft hier Abhilfe. Eine Public Cloud bietet die nötigen Ressourcen, um Lastspitzen abzufangen, wenn die Ressourcen jedoch nicht benötigt werden, müssen sie nicht gemietet und somit auch nicht bezahlt werden. Der Anbieter kann diese dann einfach anderweitig verwenden.

Für wen eignet sich IaaS?

Ebenfalls kann IaaS genutzt werden, wenn Sie für ein zeitlich begrenztes Projekt oder bestimmte Projektphasen zusätzliche IT-Ressourcen benötigen. Dies ist zum Beispiel in der Softwareentwicklung der Fall, wenn Testumgebungen eingerichtet werden müssen, die nach erfolgreicher Entwicklung eines Features oder Beheben eines Bugs nicht mehr notwendig sind. 

Infrastructure-as-a-Service eignet sich nicht nur für größere Unternehmen, die ihre IT-Infrastruktur auslagern wollen. Auch kleinere Unternehmen und Startups profitieren von IaaS-Lösungen, gerade, wenn die Bedürfnisse an Ressourcen keine eigene IT-Abteilung rechtfertigen oder noch keine langfristigen Investitionen in eigene Hardware gemacht werden können. 

Warum der richtige IaaS-Anbieter so wichtig ist

Wenn Sie sich für IaaS für Ihr Unternehmen entscheiden, ist es wichtig, dass Sie bei der Auswahl des IaaS-Anbieters sorgfältig vorgehen. Sie möchten Ihre Daten schließlich in gute Hände geben und keine Abstriche bei der Verfügbarkeit Ihrer Daten und Dienste machen müssen. Eine Migration zu einem anderen Anbieter kann sich aufgrund der hohen Datenmenge und der Tatsache, dass Sie selbst nicht die notwendige Infrastruktur besitzen, aber auf diese angewiesen sind, etwas schwierig gestalten. 

Ihr IaaS-Anbieter sollte also neben flexiblen Skalierungsmöglichkeiten und der nötigen Hardware auch insbesondere auf Datenschutz und Disaster Recovery setzen. Obwohl das Potenzial, Kosten einzusparen, ein schlagendes Argument für IaaS ist, müssen Sie prüfen, ob Ihr Anbieter bestimmte Standards einhält. Bei einer nicht ausreichenden Backup-Strategie oder Verletzungen des Datenschutzes wird aus einem vermeintlich guten Deal schnell ein kostenintensiver Skandal. 

Datenschutz und Disaster Recovery sind das A und O

Darum sollte Ihr IaaS-Anbieter hohe Standards bezüglich Datenschutz setzen. Bei personenbezogenen Daten von Nutzern aus der EU gilt dabei die DSGVO, die beachtet werden muss. Aber auch weitere sensible Daten möchten Sie gut geschützt wissen. Deshalb ist eine gute Firewall und gegebenenfalls Verschlüsselung Pflicht. 

Vor Datenverlusten schützen regelmäßige Backups sowie Redundanz. Redundanz bedeutet dabei, dass Daten öfter vorhanden sind als notwendig. Wenn ein Datensatz beschädigt wird, kann problemlos auf eine zweite Kopie zurückgegriffen werden. Idealerweise wird dies als Geo-Redundanz umgesetzt, das heißt, die Kopien der Daten sind räumlich voneinander getrennt, auf verschiedenen physischen Servern oder sogar verschiedenen Rechenzentren. 

Selbst, wenn also ein Rechenzentrum komplett ausfallen sollte, sind Ihre Daten immer noch an anderer Stelle vorhanden und Sie merken womöglich gar nicht, dass Sie nicht mehr mit derselben Kopie arbeiten. 

IaaS von servinga – Cloud Services aus Deutschland

servinga bietet Ihnen eine flexible IaaS-Lösung aus Frankfurt am Main an. Damit garantieren wir nicht nur die Einhaltung aller deutschen Datenschutzbestimmungen, sondern sind auch bestens vernetzt. Ihre Daten sind in unserer OpenStack-IaaS-Umgebung in guten Händen und werden mit dreifacher Redundanz in Tier-3-Rechenzentren gesichert. Unsere erfahrenen Mitarbeiter sorgen dafür, dass Sie unsere Services komplett wartungsfrei genießen können. 

Zusammenfassung

IaaS bietet eine flexible Lösung mit schneller Skalierbarkeit für Unternehmen jeder Größe. Unabhängig von eigener Hardware können Lastspitzen abgefangen oder große Mengen an Daten gespeichert werden und auf Top-Leistung zurückgegriffen werden. Mit zunehmender Vernetzung setzen immer mehr Unternehmen auf IaaS-Lösungen. 

« Alle Blog Einträge

Die Architektur von Kubernetes – So ist die Anwendung zur Containerverwaltung aufgebaut

Eine kleine Einführung in die Kubernetes-Architektur haben wir bereits in einem früheren Artikel behandelt. In diesem Artikel möchten wir jedoch mehr in die Tiefe gehen und den Aufbau der beliebten Plattform zur Verwaltung von Anwendungscontainern detailliert vorstellen. Denn von der Komplexität von Kubernetes sollten Sie sich nicht abschrecken lassen – genau diese macht das Tool so leistungsstark. 

Was ist Kubernetes?

Kubernetes ist eine Open-Source-Plattform zur Verwaltung von Anwendungscontainern. Das Tool ist ein wahrer Allrounder, da er nicht an eine Software zur Containererstellung gebunden ist, sondern mit vielen Tools kompatibel ist. Mit Hilfe von Plattformen wie Kubernetes können Container schnell skaliert und flexibel gemanagt werden. 

Auch bei servinga setzen wir auf den Marktführer im Bereich Containerverwaltung und bieten Managed Kubernetes Hosting als IaaS-Lösung an.  

Wie ist sieht der Aufbau von Kubernetes aus?

Kubernetes ist hierarchisch aufgebaut und besteht aus mehreren Ebenen. Die kleinste Einheit in Kubernetes selbst sind dabei die Pods. Genau genommen geht es jedoch noch kleiner: In den Pods liegen die Container. Mehrere Pods fügen sich zu Nodes zusammen, die wiederum in Clustern, der größten Einheit in Kubernetes, organisiert sind. 

Auf jeder der Kubernetes-Ebenen bieten sich Ihnen Monitoring- und Orchestrierungsmöglichkeiten, sodass Sie selbst entscheiden können, wie umfassend oder spezifisch Sie Änderungen vornehmen möchten. 

Pods: Die kleinste Kubernetes-Einheit

In Kubernetes können Pods aus einem oder mehreren Container-Images bestehen. Mehrere Container werden beispielsweise in einem Pod untergebracht, wenn sie auf dieselben Ressourcen zugreifen müssen. Sie teilen sich sowohl den Speicherplatz als auch die Netzwerkressourcen sowie die Anweisungen zur Ausführung der Container. Innerhalb eines Pods können die Container ebenfalls untereinander kommunizieren. 

Am häufigsten wird die Variante verwendet, in der nur ein Container in einem Kubernetes-Pod liegt. Wenn die Container jedoch relativ eng miteinander zusammenhängen, können fortgeschrittene User mehrere Container in einem Pod versammeln. Ein Beispiel hierfür wären ein Web Server und ein Sidecar-Container, der die Daten auf dem Web Server aktualisiert. 

Kubernetes selbst hat die Pods so konzipiert, dass jeweils eine einzelne Instanz einer Anwendung in einem Pod laufen soll. Für die horizontale Skalierung empfiehlt Kubernetes daher, pro Pod eine Instanz zu nutzen. Auf diese Weise replizierte Pods lassen sich als Gruppe gemeinsam verwalten. 

Nodes: Die nächsthöhere Einheit in Kubernetes

Mehrere Pods werden auf der nächsthöheren Ebene in Nodes organisiert. Ein Node kann eine virtuelle Maschine oder auch ein physischer Server sein. Für die Skalierbarkeit eignen sich insbesondere virtuelle Maschinen, da sie nicht an physische Hardware gebunden sind und leicht erweitert werden können. Jeder Node kann mithilfe der Control Planes verwaltet werden. 

Zusätzlich zu den Pods befinden sich in einem Node auch ein Kubelet und ein Kube-proxy. Das Kubelet ist für die Kommunikation mit der Control Plane zuständig und führt die Container den Anweisungen entsprechend aus. Das Kube-proxy hingegen kümmert sich um die Netzwerkkommunikation 

Cluster in Kubernetes: Die höchste Ebene der Kubernetes-Architektur

Ein Cluster besteht in Kubernetes üblicherweise aus mehreren Nodes. Es ist jedoch auch möglich, nur einen Node in einem Cluster zu verwalten. Das ist in der Regel der Fall, wenn Sie den Umgang mit Kubernetes erlernen möchten oder Ihnen nur begrenzte Ressourcen zur Verfügung stehen. Cluster können sowohl als IaaS- als auch als On-Premise-Lösung realisiert werden – hybride Lösungen sind jedoch nicht möglich. In dem Fall müssen Sie verschiedene Cluster erstellen. 

Das Herzstück zur Verwaltung und Orchestrierung Ihrer Container in Kubernetes ist die Control Plane. Die Control Plane erlaubt den Zugriff auf die Schnittstellen, die für die Erstellung eines Containers sowie die Verwaltung während des Lebenszyklus’ der Container verantwortlich sind. Des weiteren ermöglicht sie ebenfalls, globale Entscheidungen für das gesamte Cluster zu treffen sowie Ihr Cluster mit dem API des Cloud-Anbieters zu verbinden.

Wie verhalten sich Cluster zu Nodes und Nodes zu Pods im Kubernetes-Aufbau?

Zumeist sind es mindestens drei Nodes, die einen Cluster ergeben: zwei Worker Nodes und ein Master Node. Innerhalb eines Clusters können auch die Nodes untereinander 

kommunizieren, nach außen stellt das Kubernetes-Cluster eine geschlossene Einheit dar. 

Der API-Server stellt die Masterkomponente dar, die Remote-Services zur Verfügung stellen kann. Mithilfe der API wird außerdem der gewünschte Zustand des Clusters definiert. Der gewünschte Zustand beschreibt, welche Anwendungen oder Workloads auf welchen Ressourcen laufen sollen und wird in Form von sogenannten Manifests, die zu Konfigurationsdateien zusammengefasst werden, kommuniziert. 

Wenn der gewünschte Zustand definiert wurde, ist Kubernetes so aufgebaut, dass es diesen automatisch umsetzt. Hier kommen auch die Selbstheilungskräfte von Kubernetes ins Spiel: Falls einzelne Container und Replikationen ausfallen, kann Kubernetes selbstständig neue Replikationen erstellen und so die geforderte Zahl der Container aufrechterhalten. 

Die Rolle der Control Plane im Aufbau von Kubernetes 

Die Control Plane besteht aus dem API Server, dem Scheduler, dem Controller sowie dem etcd-Backendspeicher. Im etcd werden die gesamten Daten über die Clusterkonfigurationen sowie seinen Zustand gespeichert. Kubernetes empfiehlt, für diese Daten einen Backupplan zu haben, da sie essentiell für den Betrieb Ihres Clusters sind.

Der Scheduler verteilt neue Pods auf Nodes und der Controller überwacht Tasks und Prozesse auf mehreren Kubernetes-Ebenen und führt notwendige Änderungen aus. Dazu zählen unter anderem die Nodes und die Replikationsprozesse, aber auch weitere Prozesse. 

Managed Kubernetes Hosting – Kubernetes made easy

Die Komplexität der Kubernetes-Architektur kann auf den ersten Blick einschüchternd wirken. Aber Sie müssen kein erfahrener Programmierer sein oder eine umfassende IT-Abteilung besitzen, um Kubernetes zu nutzen. Im Managed Kubernetes Hosting übernimmt der Hosting-Anbieter für Sie die Implementierung Ihrer Kubernetes-Cluster und vereinfacht Ihnen die Nutzung von Kubernetes. 

Bei servinga übernehmen wir das Management Ihrer Cluster, aber gewähren Ihnen gleichzeitig vollen Zugriff auf das Kubernetes-Dashboard. Auch Backup und Monitoring können Sie uns überlassen. Unsere Mitarbeiter stehen gerne für Ihre Fragen rund um Kubernetes zur Verfügung. 

Mithilfe des Managed Kubernetes Dashboards können Sie jederzeit die Performance und Auslastung Ihres Clusters einsehen. Auch Skalierung sowie Up- und Downgrades sind mit wenigen Klicks umsetzbar. Mehr über Managed Kubernetes und die Vorteile für Ihr Unternehmen erfahren Sie auch in unserer Übersicht im Blog

Zusammenfassung

Wenn Sie Kubernetes selbst hosten möchten, kann die Installation, Verwaltung und Überwachung einige Zeit zur Einarbeitung und Aufrechterhaltung benötigen. Mithilfe von Managed Kubernetes Services können Sie sich die Implementierung einer Kubernetes-Architektur sowie Verwaltung und Monitoring vereinfachen und dennoch von allen Vorteilen von Kubernetes profitieren. 

« Alle Blog Einträge

OpenStack Cloud Guide – Alles, was Sie wissen müssen

Was genau ist OpenStack und wie schneidet es im Vergleich zu Kubernetes und Openshift ab? Welche Vorteile bietet die OpenStack Cloud? Was hat es mit OpenStack Swift auf sich und lassen sich OpenStack und Terraform gemeinsam verwenden? Diese Fragen und mehr beantworten wir in diesem ausführlichen OpenStack Cloud Guide. 

OpenStack: Die Basics

OpenStack ist eine frei verfügbare Open-Source-Software für die Virtualisierung und die Bereitstellung von Storage. Ursprünglich angestoßen von Rackspace und der NASA wird es ebenfalls von zahlreichen anderen Firmen wie beispielsweise Red Hat, Huawei, Intel und IBM unterstützt. OpenStack bildet eine optimale Basis für eine Cloud-Infrastruktur und ermöglicht, diese mit größtmöglicher Datensicherheit auszustatten. 

OpenStack wird jedoch nicht nur von namhaften Firmen unterstützt, es ist auch die am weitesten verbreitete Open-Source-Software für die Cloud. Es wurde geschaffen, um große Mengen an Speicher und Netzwerkressourcen über ein gemeinsames Datacenter zu verwalten. 

Die allererste Version von OpenStack wurde im Herbst 2010 veröffentlicht. Die derzeit neueste und zweiundzwanzigste Version, Version 2021.1 mit Namen Wallaby, wurde am 14. April 2021 released. Programmiert wird OpenStack in der Programmiersprache Python. Verfügbar ist OpenStack unter einer Apache-Lizenz. 

Die Vorteile von OpenStack

Ein großer Vorteil von OpenStack ist seine hohe und flexible Skalierbarkeit. Gerade, wenn sich die Anforderungen und Auslastung Ihrer IT-Infrastruktur stetig ändert, können Sie mithilfe von OpenStack Ihre Kosten und Ressourcen flexibel gestalten und müssen nicht permanent alle Ressourcen für die Maximalauslastung bereithalten. Sie bezahlen nur, was Sie auch in dem Moment nutzen und benötigen. 

Davon profitieren beispielsweise Websites, die saisonal oder durch Werbung bedingt kurzfristig viel Traffic erhalten, der jedoch schnell wieder abflacht. Diese Lastspitzen müssen gut abgefangen werden können, um Ausfälle und Hardwareüberlastung zu vermeiden. Die OpenStack Cloud leistet genau das. 

Zudem sind Ihre Daten dank Redundanz gut vor Verlusten geschützt. Dadurch, dass der Zugang ortsunabhängig über das Internet möglich ist, vereinfacht es kollaboratives Arbeiten und benötigt keine spezielle Hardware. Somit können auch Teammitglieder mit unterschiedlichen technischen Voraussetzungen gut miteinander über OpenStack arbeiten. 

Die Bestandteile von OpenStack

OpenStack ist ein komplexes System aus mehreren Komponenten, die jeweils ihre eigenen Funktionen haben. Dank dieses Aufbaus kann OpenStack für viele verschiedene Anwendungen eingesetzt werden. Wir werden Ihnen die sieben Komponenten und ihre Funktionen detailliert vorstellen.

OpenStack Swift – Skalierbarer Objekt-Storage 

OpenStack Swift ist die Komponente von OpenStack, die für die Bereitstellung des Objektspeichers zuständig ist. Der Speicher ist beinahe beliebig skalierbar und eignet sich daher perfekt für große Datenmengen. Dazu zählen nicht nur Bilder und Videos, sondern auch beispielsweise Virtual-Machine-Images. 

Die redundante Speicherung der Daten ist zudem bereits integriert, sodass Ihre Daten gut gegen Ausfälle gesichert sind. Eine dreifache Replikation ist problemlos möglich, aber auch weitere Backups können eingestellt werden. Fällt ein Speicherplatz aus, wird sofort eine neue Kopie an einem anderen Ort abgelegt, sodass zu jedem Zeitpunkt die geforderte Anzahl an Replikationen vorliegt. 

In OpenStack Swift werden die Daten über HTTP gespeichert und abgerufen. Eine REST-HTTP-API ermöglicht den Zugriff auf die Daten. Bei der Speicherung der Daten arbeitet OpenStack Swift zudem mit Containern, in denen die Daten abgelegt werden. Diese Container speichern ebenfalls Metadaten und können verschiedenen Accounts zugeordnet werden. 

OpenStack Swift kann außerdem als Backend für die OpenStack Komponenten Cinder und Glance eingesetzt werden. 

OpenStack Nova – Verwalter virtueller Maschinen

Die OpenStack-Komponente Nova ist für Gruppen von virtuellen Maschinen zuständig. Mithilfe von Nova können virtuelle Maschinen erstellt werden, es kann jedoch auch für physische Server genutzt werden. Auch Systemcontainer werden begrenzt von OpenStack Nova unterstützt. 

Sie erstellen eine beliebige Anzahl an Compute-Knoten, auf die Sie anschließend die virtuellen Maschinen aufteilen können. Um Nova zu verwenden, benötigen Sie eine Datenbank. Für die Verwaltung von Nova existiert eine REST API. Auch weitere OpenStack-Services und -Komponenten sind für den Betrieb von OpenStack Nova notwendig. Keystone, Glance und Neutron werden wir im Folgenden ebenfalls vorstellen, für Nova wird zusätzlich noch Placement benötigt, was für das Tracking verfügbarer Cloud-Ressourcen verwendet wird. 

Über den OpenStack Client können Sie den Großteil der relevanten Befehle, nicht nur für die Nova-Komponente, sondern auch für die restlichen Bestandteile, eingeben. Falls Sie jedoch sehr spezifische, fortgeschrittene Funktionen und Befehle nutzen möchten oder als Admin agieren, gibt es noch den Nova Client, der diese speziellen Befehle unterstützt. 

OpenStack Glance – Der Image-Service

Glance ist der Image-Service von OpenStack. Er stellt den Nutzern Images der virtuellen Maschinen zur Verfügung. Nova benötigt diese Images zur Verwaltung der einzelnen VM-Instanzen. Auch die Metadaten können von OpenStack Glance bereitgestellt werden. 

Diese Images können an verschiedenen Orten gespeichert werden, von einfachen Dateisystemen bis hin zu Objektspeichern wie OpenStack Swift. Glance verfügt über einen Metadef-Katalog, der auf OpenStack-Ressourcen angewandt werden kann. Der Zugriff erfolgt über eine RESTful API. 

OpenStack Keystone – Zuweisung von Rechten

Die Keystone-Komponente wird für das Zuweisen von Rechten für Nutzer der Cloud verwendet. Sie ist also unverzichtbar für die Administratoren der Cloud. Auch die Authentifizierung über ein Tokensystem oder andere Authentifizierungsmethoden wie LDAP kann mithilfe von Keystone geregelt werden. Für den Zugriff auf ein Projekt wird ein sogenannter Mandant angelegt, dem wiederum mehrere Benutzer zugeordnet werden können. 

OpenStack Cinder – Virtueller Blockspeicher

Mithilfe von Cinder können Sie virtuellen Blockspeicher bereitstellen. Dieser steht in Form von virtualisierten Speichermedien zur Verfügung, die Sie mit virtuellen Maschinen verbinden können. Sie können ebenfalls eine Verbindung zwischen OpenStack Cinder und OpenStack Swift herstellen und so die Kommunikation zwischen Blockspeichermedien und Objektspeicher ermöglichen. 

Außerdem können Sie mehrere Backends definieren und Speicherklassen, bei OpenStack Volume Type genannt, anlegen und bei der Erstellung eines neuen Volumes ein bestimmtes Storage-Backend zuweisen. 

OpenStack Neutron – Der Netzwerkdienst

OpenStack Neutron ist ein Modul zur Verwaltung von Netzwerken, Subnetzen und IP-Adressen. Auch sogenannte Floating IPs, die Schnittstellen zwischen dem internen und dem öffentlichen Netz, lassen sich von OpenStack Neutron verwalten. Es bietet quasi “Network connectivity as a service”. 

Mandanten können mit Neutron mehrere private Netzwerke erstellen und kontrollieren, welche IP-Adressen auf diese Netzwerke zugreifen dürfen. Für die Sicherheit Ihres Netzwerkes ist Neutron also unerlässlich. 

OpenStack Horizon – Das Web Interface

Das Web Interface von OpenStack, ein Dashboard namens Horizon, ist templatebasiert. Es vereint die wichtigsten Komponenten und ihre Funktionen in einem einzigen Dashboard. Provider von Cloud Hosting Services können das Dashboard optisch personalisieren und weitere Funktionen integrieren. Je nachdem, bei welchem Anbieter Sie OpenStack Cloud-Dienste beziehen, kann das Dashboard also unterschiedlich aussehen und einen unterschiedlichen Funktionsumfang bieten. 

OpenStack vs. Kubernetes

Nachdem wir nun ausführlich die verschiedenen Hauptkomponenten von OpenStack behandelt haben, möchten wir aus das Thema OpenStack vs. Kubernetes eingehen. Wobei, so ganz stimmt dies nicht, denn es muss nicht unbedingt ein entweder-oder sein. Obwohl Kubernetes und OpenStack teils ähnliche Funktionen anbieten, bedeutet dies keinesfalls, dass sie einander ersetzen müssen. Im Gegenteil, es kann sogar von Vorteil sein, Kubernetes und OpenStack zu kombinieren. 

Was ist Kubernetes und wo liegen die Unterschiede zu OpenStack?

Kubernetes ist in erster Linie ein Tool zur Orchestrierung und Skalierung von Containern. Genau wie OpenStack ist Kubernetes als Open-Source-Software verfügbar. Container können anstelle von und in Kombination mit virtuellen Maschinen verwendet werden. 

Ein Container kann als kleines, kompaktes Softwarepaket bezeichnet werden. Anstelle für jede Anwendung eine virtuelle Maschine zu erstellen, können sie in Containern voneinander getrennt auf derselben Maschine laufen und sich die Ressourcen teilen. Innerhalb von Kubernetes existieren Cluster, die wiederum aus Nodes bestehen. In diesen Nodes liegen Pods, in denen sich wiederum die Container selbst befinden. 

Kubernetes überwacht die Performance der Container innerhalb der Cluster. Ähnlich wie OpenStack kann auch in Kubernetes eine Redundanz eingebaut werden und das Cluster kann so programmiert werden, dass es im Falle von Ausfällen quasi selbstheilend ist. 

Im Gegensatz zu Kubernetes ist OpenStack nicht nur auf Container festgelegt, sondern eignet sich auch für virtuelle Maschinen und physische Server. Die beiden Programme sind jedoch untereinander kompatibel. In Kombination kann die schnelle Skalierbarkeit und Automatisierung noch besser genutzt werden. OpenStack kann beispielsweise die Grundlage für ein Cloud-Netzwerk bieten, während Kubernetes die Performance der Container optimiert und auf diesem Netzwerk läuft. 

OpenStack vs. OpenShift

Bei OpenShift handelt es sich um einen wirklichen Konkurrenten von OpenStack. Die Plattformen bieten ähnliche Funktionen, setzen jedoch den Fokus auf unterschiedliche Methoden. Während OpenStack verschiedene Komponenten bietet, sind es bei OpenShift verschiedene Features. 

Ähnlich wie Kubernetes legt OpenShift den Fokus auf Container-Technologie. Um OpenShift zu nutzen, sollten Sie mit Container-Tools wie Docker und Kubernetes vertraut sein. Die Funktionen von OpenShift sind zudem perfekt auf die Appentwicklung zugeschnitten, während OpenStack etwas breiter aufgestellt ist. OpenShift bietet seinen Nutzern Templates für die Appentwicklung für alle gängigen Programmiersprachen und unterstützt viele beliebte Entwicklungsumgebungen.

Sowohl OpenStack als auch OpenShift erlauben den Zugriff auf das Dashboard beziehungsweise in OpenShift die Web Console über den Browser, sodass nicht zwingend besondere Software für den Verwaltungszugang vorhanden sein muss. 

Welches System Sie nutzen sollten, hängt also davon ab, was genau Sie in der Cloud-Umgebung machen möchten. Wenn Sie überwiegend mit Containern arbeiten, könnte OpenStack für Sie eine gute Lösung darstellen. Aber auch eine Kombination aus OpenStack und Kubernetes würde sich anbieten. So halten Sie sich weitere Optionen offen und können auch hybride Umgebungen gestalten. Theoretisch ist allerdings auch die Nutzung von OpenShift und OpenStack gemeinsam möglich.

Wie Sie OpenStack gemeinsam mit Terraform nutzen

Gerade, wenn Sie sich entscheiden, mit OpenStack in Kombination mit anderen Programmen und Anbietern zu arbeiten, können Sie noch mehr von OpenStack profitieren, wenn Sie es mit Terraform kombinieren. Was ist Terraform? Terraform erfüllt letztendlich dieselbe Funktion wie OpenStack Heat, eine weitere OpenStack Komponente. Indem es Konfigurationsdateien definiert, hilft es dabei, die Cloud-Infrastruktur effizient zu managen. 

Während OpenStack Heat jedoch nur für OpenStack gedacht ist, ist Terraform mit vielen Anbietern kompatibel. Von Containern über virtuelle Maschinen und physische Server assistiert Terraform bei der Verteilung von Ressourcen und ermöglicht es Ihnen, unterschiedliche Anbieter gemeinsam zu koordinieren. 

Mit Terraform können Sie einen Plan erstellen, wie der gewünschte Zustand Ihrer Infrastruktur aussehen soll und wie dieser erreicht werden soll. Dann setzt es diesen Plan um und passt auf, dass alle Prozesse in der richtigen Reihenfolge ausgeführt werden. 

Gerade für komplexe Systeme und mehrere Anbieter, die gemanaged werden müssen, eignet sich daher eine Kombination aus OpenStack und Terraform. Wenn Sie aber noch mehr über OpenStack Heat erfahren möchten, können Sie sich auch hier im Detail einlesen, wie die Orchestrierung mit OpenStack Heat gelingt. 

Die OpenStack Cloud – So finden Sie den richtigen Anbieter

OpenStack ist ein weit verbreitetes Tool für Cloudumgebungen. Darum ist es gar nicht so einfach, den richtigen Anbieter zu finden, auf dessen OpenStack-basierte Cloud Sie setzen möchten. Zudem ist wie oben bereits angesprochen das Horizon-Dashboard in Teilen personalisierbar und bietet nicht bei jedem Anbieter denselben Funktionsumfang. 

Für reibungslose und sichere Prozesse in der OpenStack Cloud ist vor allem wichtig, dass die Redundanzeinstellungen so konfiguriert sind, dass genügend Replikationen erstellt werden und Ihre Daten vor Verlusten geschützt sind. Bei servinga setzen wir beispielsweise nicht nur auf eine dreifache Replikation Ihrer Daten, auch Festplatten, Netzteile und Netzwerkanbindung sind redundant abgesichert. 

Als Objektspeicher nutzen wir bei servinga Ceph Storage. Hier werden auch unsere virtuellen Instanzen abgelegt. Dabei kommen ausschließlich hochwertige SSD-Festplatten zum Einsatz. Diese Festplatten sind sehr robust und ermöglichen den schnellen Zugriff auf Speicher und Daten. 

Zur Vernetzung verschiedener Standorte bieten wir ebenfalls VPN as a service an. Sie können so einfach eine sichere Verbindung zwischen Ihrer lokalen Infrastruktur und der OpenStack Cloud herstellen. Hinzu kommt noch unser Firewall as a service Angebot, mit dem Sie bis ins kleinste Detail regeln können, wer auf Ihre Cloud-Ressourcen zugreifen darf und wen Sie blockieren möchten. 

Auch, wenn Sie OpenStack gemeinsam mit Kubernetes nutzen möchten, bieten wir Ihnen eine Lösung. Unsere Managed Kubernetes Services bieten Ihnen Ihr eigenes Kubernetes Cluster basierend auf der servinga OpenStack Cloud. 

Sie möchten mehr über die OpenStack Cloud von servinga erfahren? Hier erhalten Sie einen Überblick über unsere Leistungen und bei Fragen können Sie uns selbstverständlich jederzeit gerne kontaktieren. 

Zusammenfassung

OpenStack ist ein komplexes, aber auch sehr leistungsstarkes Tool zum Aufbau und Management einer Cloud-Infrastruktur. Nicht umsonst ist es eines der beliebtesten Cloud-Computing-Tools. Da es sehr breit aufgestellt ist, eignet es sich auch für hybride Umgebungen, während ähnliche Tools den Fokus oft auf eine bestimmte Technologie legen. 

Aufgrund der guten Skalierbarkeit sowie der hohen Datensicherheit ergibt es Sinn, auf einen Anbieter zu setzen, dessen Cloud auf OpenStack basiert. Services wie OpenShift, Kubernetes und Terraform stellen nicht nur Konkurrenz dar, sondern können ebenfalls komplementär zur OpenStack Cloud verwendet werden, um das Beste aus allen Tools herauszuholen. 

« Alle Blog Einträge

Was sind Cloud Native Anwendungen für Unternehmen? Definition und Beispiele

Cloud-Technologien haben sich in den letzten Jahren für zahlreiche Anwendungen und Zwecke etabliert. Eine Vielzahl an Daten wird mittlerweile in Private und Public Clouds gespeichert, um flexibel abrufbar zu sein. Aber auch ganze Anwendungen können direkt in der Cloud ausgeführt werden. Hier kommen Cloud Native Anwendungen ins Spiel. In diesem Artikel verraten wir Ihnen, was Cloud Native genau bedeutet und wie Sie Cloud Native Anwendungen in Ihrem Unternehmen gewinnbringend einsetzen können. 

Was ist eine Cloud Native Anwendung? – Eine Definition

Native kann im Deutschen mit gebürtig oder einheimisch übersetzt werden. Da IT-Anwendungen nicht im herkömmlichen Sinne geboren, sondern entwickelt werden, bedeutet dies, dass eine Cloud Native Anwendung gezielt dafür geschaffen ist, in einer Cloudumgebung ausgeführt zu werden. 

Eine Anwendung kann jedoch nicht nur in einer Cloud ausgeführt, sondern bereits in derselben Umgebung entwickelt werden. Sowohl bei der Ausführung als auch bei der Entwicklung einer Anwendung in der Cloud kann dies einige Vorteile im Vergleich zu herkömmlichen Methoden bieten. 

Exkurs: Was versteht man unter einer Cloud? 

Eine Cloud ist im Grunde ein Netzwerk aus mehreren Rechnern, die über das Internet verbunden sind. Anstelle jedoch auf einzelne Rechner zuzugreifen, werden die vorhandenen Ressourcen und Hardware gebündelt und auf einer abstrakten Ebene zugänglich gemacht. 

Es ist also nicht mehr relevant, auf welchem Rechner im Netzwerk Ressourcen wie zum Beispiel Speicherplatz vorhanden sind. Stattdessen steht über die Cloud der gesamte Speicher zur Verfügung und kann flexibel auf verschiedene Anwendungen aufgeteilt werden. Meist kann über einen Webbrowser auf die Cloud zugegriffen werden. 

Welche Vorteile bieten Cloud Native Anwendungen?

Mithilfe von Cloud-Technologien können Sie eine höhere Wirtschaftlichkeit sowie eine kürzere Time-to-Market erreichen. Auch können Sie eine Anwendung in einzelne Microservices aufteilen, die unabhängig voneinander existieren. Diese Microservices können Sie nicht nur für eine Anwendung entwickeln, sondern auch kopieren und für andere Anwendungen weiterverwenden. Sie verfügen über eine API-Schnittstelle, mithilfe derer sie untereinander kommunizieren können.

Da der Zugriff üblicherweise über den Webbrowser erfolgt und die Anwendung nicht On-Premise installiert wird, gestaltet sich ebenfalls das Ausrollen von Updates wesentlich einfacher. Nutzer sind also nicht darauf angewiesen, sich ein Update herunterzuladen, um auf neue Funktionen und Verbesserungen zugreifen zu können. Sobald Sie ein Update in der Cloud live schalten, nutzen alle Anwender die aktuellste Version. 

Cloud Native steht für plattformübergreifend und flexibel

Der größte Vorteil von Cloud-Anwendungen ist jedoch, dass sie plattformübergreifend funktionieren. Ihre Kunden müssen also nicht über ein bestimmtes Betriebssystem oder eine bestimmte Hardware verfügen. Diese Hürde, die oft als Argument gegen eine Umstellung auf eine neue Software ins Feld gebracht wird, existiert nicht für Cloud Native Anwendungen und macht die Umstellung für Unternehmen deutlich einfacher und attraktiver. Meist wird lediglich ein Internetzugang benötigt, um auf die Anwendung zuzugreifen. 

Ein weiterer Vorteil ist die flexible Gestaltung von Zahlungsmodellen. Anstelle einen hohen einmaligen Preis für On-Premise Software anzusetzen, werden Cloud Native Anwendungen oft im Rahmen eines Abomodells zugänglich gemacht. Upgrades können ohne lange Installationszeiten schnell durchgeführt werden und die Kunden genießen eine hohe Flexibilität. Üblich sind monatliche oder jährliche Zahlungen, die teilweise noch durch die Möglichkeit, quartalsweise oder für lebenslangen Zugang zu zahlen, ergänzt werden. 

Wie Sie eine Cloud Native Anwendung entwickeln können

Mit den richtigen Tools und Technologien können Sie eine Anwendung optimal mithilfe von und für die Cloud entwickeln. Ein wichtiges Stichwort sind hierbei Container. Die Container-Technologie eignet sich perfekt für die Entwicklung von Cloud Native Anwendungen. 

Microservices und Container als Basis für Ihre Cloud Native Anwendung

Ein Container ist quasi ein kleines, kompaktes Softwarepaket, das eine einzelne kleine Aufgabe ausführt. Container sind portabel und skalierbar. Sie können also Ihre Anwendung in Microservices aufsplitten, die jeweils in Containern laufen. Auch zum Testen neuer Services eignen sich Container. Cloud Native Anwendungen laufen insbesondere dann gut, wenn DevOps-Prozesse etabliert sind oder werden. Eine enge Zusammenarbeit zwischen Entwicklern (Dev) und dem Betrieb (Ops) wird durch Containertechnologie vereinfacht und gefördert. 

Auch wenn die Aufteilung in viele kleine Aufgaben sehr zielgerichtetes Arbeiten am Code  sowie die Verbesserung einzelner Features ermöglicht und vereinfacht, machen Sie sich vielleicht Sorgen, dass dies letztendlich zu unübersichtlich wird. Genau zu diesem Zweck gibt es sogenannte Container-Orchestrierungstools. Eines davon ist die Open-Source Software Kubernetes. 

Mit Programmen wie Kubernetes können Sie Container einfach verwalten, ihre Performance überwachen und bei Bedarf schnell skalieren. Mehr über Kubernetes und Container erfahren Sie auch in unserem Übersichtsartikel. 

Cloud Native Anwendungen: Beispiele 

Cloud Native Anwendungen sind nicht nur für Software-Experten relevant und werden auch oft außerhalb von Unternehmen genutzt. Es ist gut möglich, dass Sie bereits im Alltag Cloud Native Anwendungen nutzen, ohne es zu wissen! 

Ein Beispiel wäre ein Streamingdienst für Musik oder Filme. Seit 2016 setzt Streaming-Gigant Netflix komplett auf Cloud Native Technologie und besitzt keine eigenen Rechenzentren mehr. Wenn Sie sich einen Film für einen gemütlichen Fernsehabend empfehlen lassen, läuft dies über eine Cloudanwendung. Wenn gemeinsam mit Ihnen noch zahlreiche andere Kunden auf die neueste Folge Ihrer Lieblingsserie zugreifen wollen, skaliert Netflix über Cloud Computing schnell seine Rechenleistung in die Höhe und so können Sie trotz des hohen Traffics reibungslos gleichzeitig schauen. 

Weitere Beispiele können unter anderem eine Personalmanagement-Software sein oder ein cloud-basiertes Tool zur Datenanalyse, das Sie an Ihrem Arbeitsplatz nutzen. Generell lassen sich unzählige Anwendungen als Cloud Native realisieren und immer mehr Unternehmen setzen bei der Entwicklung von Apps auf agile Technologien wie Container und DevOps-Prozesse. 

Managed Services für Cloud Native Anwendungen

Eine zusätzliche Möglichkeit, um einfach Cloud Native Anwendungen entwickeln und betreiben zu können, sind Managed Services und Dienstleistungen wie Managed Kubernetes Hosting. Bei servinga kümmern wir uns um das Aufsetzen sowie die Wartung und den Betrieb Ihrer Cloud-Umgebung, während Sie sich ganz auf die Entwicklung Ihrer Anwendungen konzentrieren können. 

Zusammenfassung

Cloud Native Anwendungen bieten sowohl für Entwickler und Anbieter als auch für deren Kunden zahlreiche Vorteile. Mithilfe einer sicheren, flexiblen Cloud-Umgebung, die eine schnelle Skalierbarkeit bietet sowie Cloud Native Technologien sind Sie bestens ausgestattet, um Ihre eigenen Cloud Native Anwendungen zu entwickeln. 

« Alle Blog Einträge

Online-Shop hosten: Alles, was Sie wissen müssen

Egal, ob Sie einen Shop für ein neues Unternehmen aufsetzen, den Verkauf in Ladengeschäften mit einer Onlinepräsenz ergänzen oder den Anbieter eines bestehenden Online-Shops wechseln möchten: Bei der Wahl des Hosting-Anbieters gibt es einiges zu beachten. In diesem Artikel erklären wir nicht nur die Vorteile von selbst gehosteten Online-Shops, sondern stellen Ihnen ebenfalls die verschiedenen Anbieter vor und zeigen, wie Sie mit Ihrem Shop erfolgreich sein können. 

Online-Shop selbst hosten oder gehostete Lösungen?

Grundsätzlich gibt es für die Erstellung und den Betrieb von Online Shops zwei Möglichkeiten: Gehostete Lösungen wie Shopify oder Jimdo werden vom Anbieter gehostet, sodass Sie sich nicht um das Hosting kümmern müssen. Auch Themen wie Updates und Sicherheit können Sie ganz dem Anbieter überlassen. 

Dies bedeutet jedoch, dass Sie vom Anbieter in diesen und weiteren Punkten abhängig sind. Beispielsweise bezahlen Sie über die gesamte Laufzeit Ihres Shops die Hostinggebühren. Außerdem gibt es bei solchen Baukastenprinzipen weniger Möglichkeiten, Ihren Shop zu individualisieren. 

Wenn Sie Ihren Online-Shop selbst hosten möchten, profitieren Sie von einer größeren Flexibilität und Kontrolle. Sie sind nicht an die Hostingbedingungen des Tools zur Shoperstellung gebunden und können sich den besten Hostinganbieter suchen. Mithilfe von selbst gehosteten Shop-Lösungen erstellen Sie Ihren Online-Shop und genießen dabei viele Freiheiten. In vielen Fällen können Sie diese CMS-Systeme kostenfrei nutzen. 

Warum Sie Ihren Online-Shop selbst hosten sollten

Während für hobbymäßig betriebene oder kleine Shops ein Baukastensystem völlig ausreichen kann, kommen Sie bei komplexeren Online-Shops schnell an Ihre Grenzen. Gerade, wenn Sie hohe Anforderungen in Bezug auf Skalierbarkeit und Sicherheit haben oder einen Shop aufbauen möchten, der sich von anderen Online-Shops abhebt und besondere Features besitzt, zahlt es sich aus, Ihren Online-Shop selbst zu hosten. Dabei haben Sie die Wahl zwischen eigenen oder dedizierten Servern – und besonders Cloud Hosting stellt gerade für Online-Shops eine gute Option dar. 

Wenn Sie mehr über die unterschiedlichen Hostingmöglichkeiten für Daten erfahren möchten, haben wir die genauen Unterschiede zwischen Cloud Hosting, dedizierten Servern, Colocation und On-Premise Lösungen in einem früheren Artikel erklärt. 

Schnelle Skalierbarkeit für Ihren Online-Shop dank Cloud Hosting

Wenn Sie beispielsweise auf flexibles Cloud-Hosting setzen, sind Sie nicht durch Abo-Limits und den technischen Kapazitäten des Shop-Anbieters oder Ihrer eigenen oder dedizierten Server begrenzt. Durch saisonal schwankende Nachfrage oder Trafficanstiege dank gezielter Werbung können Server schnell an ihre Grenzen kommen oder müssen von vornherein so geplant werden, dass sie diese Spitzen abfangen können, auch, wenn die Leistung den Rest der Zeit nicht benötigt wird. 

Ist Ihr Online-Shop in einer Cloud gehostet, können Sie schnell bei Bedarf weitere Kapazitäten hinzubuchen, diese jedoch, wenn sie nicht mehr benötigt werden, auch genauso einfach wieder abbestellen. Sie bezahlen nur für die Kapazitäten, die Sie auch tatsächlich verbrauchen. So müssen Sie sich keine Sorgen machen, dass zum Beispiel im Weihnachtsgeschäft Server zusammenbrechen, die den Rest des Jahres brach liegen. 

Auch, wenn Ihr Shop wächst, müssen Sie keine Veränderungen an der Hardware vornehmen, sondern profitieren davon, dass Ihr Hosting-Anbieter Ihnen sehr kurzfristig weitere Speicherkapazitäten zur Verfügung stellen kann. 

E-Commerce Hosting: Die Konsequenzen Ihrer Entscheidung für die Erstellung Ihres Shops

Sie sehen also, dass die Wahl der Hostingstrategie auch beeinflusst, mit welchem Tool Sie Ihren Shop erstellen können. Dies sollten Sie in jedem Fall bedenken, bevor Sie sich für ein Baukastensystem oder ein eigenständiges Shopsystem für Ihren Online-Shop entscheiden. 

Im Folgenden stellen wir Ihnen das Hosting mit WooCommerce, Magento und Shopware und die Vor- und Nachteile der einzelnen Anbieter vor. Diese Tools zur Erstellung Ihres Online-Shops können mit allen Varianten, bei denen Sie Ihren Shop selbst hosten, kombiniert werden.

WooCommerce Hosting: Die perfekte Lösung für WordPress-Nutzer

WooCommerce ist ein auf WordPress basierendes Open-Source-Tool zur Erstellung von E-Commerce-Webseiten, funktioniert jedoch ebenfalls als Baukastensystem mit festgelegten Hostingpartnern. Als Plugin kann es problemlos in eine bestehende WordPress-Seite eingefügt werden. Es überzeugt durch zahlreiche Personalisierungsmöglichkeiten, kann aber auch durch die Auswahl von voreingestellten Optionen ohne viel Programmierung aufgesetzt werden. 

Auch mit weiteren Tools, die Sie zur Verwaltung Ihrer Website nutzen, ist WooCommerce bereits verbunden. Insights erhalten Sie einfach über das integrierte Google Analytics. Eine eigene App ermöglicht Monitoring und Bearbeiten Ihres Shops von unterwegs. 

WooCommerce überzeugt durch eine intuitive Bedienung und ist besonders für kleine und mittelgroße Shops eine bezahlbare, schnell einsatzfähige Lösung. Die Erweiterung der Funktionalität geschieht durch zusätzliche Plugins. Desweiteren gibt es eine große Auswahl an frei verfügbaren Themes, um den eigenen Online-Shop zu designen. 

Magento E-Commerce Hosting: Besonders für komplexe Shops geeignet

Magento ist ein Open-Source-Tool, das zu Adobe Inc. gehört. Wobei, so ganz stimmt dies nicht: Magento existiert in verschiedenen Formen, wobei die kostenlose Open-Source-Plattform nur eine Variante davon darstellt. Zusätzlich dazu gibt es noch das kostenpflichtige Magento Commerce als Platform as a Service (PaaS) Lösung und Magento Commerce (On-Premise). Die On-Premise-Lösung basiert auf der Open-Source-Variante und richtet sich gezielt an Großunternehmen. Dabei bietet sie erweiterte Funktionen und Wartungsservices. 

Während die PaaS-Variante das Hosting beinhaltet, ist es sowohl bei der Open-Source- als auch bei der On-Premise-Variante nicht mit inbegriffen und kann selbst gewählt werden. 

Magento ist ein umfangreiches System, das ein wenig Einarbeitung erfordert. Dafür können jedoch auch mehrsprachige Online-Shops betrieben und relativ komplexe Produkte mit beispielsweise Personalisierungsfunktion eingefügt werden. Viele Plugins und Schnittstellen sind verfügbar, allerdings nicht alle kostenfrei. 

Shopware Ecommerce Hosting: Cloud Hosting oder On-Premise

Die dritte Shoplösung, die wir vorstellen möchten, ist Shopware. Das System wird in Deutschland entwickelt und bietet in der aktuellen Version Support für Online-Shops, die in der Cloud oder On-Premise gehostet sind. In Deutschland liegt Shopware zudem vor dem amerikanischen Marktführer Magento. 

Obwohl es verglichen mit WooCommerce und Magento weniger Plugins anbietet, sorgt die strenge Qualitätskontrolle für Plugins dafür, dass Sie sich auf die Qualität der angebotenen Erweiterungen verlassen können. Genau wie Magento nutzt Shopware PHP als Basis. Ein großer Vorteil im Vergleich zu Magento ist der deutschsprachige Support. Magento bietet lediglich englischsprachigen Support an. Die kostenfreien Versionen beider Programme enthalten jedoch keinen Support. 

Desweiteren bietet Shopware umfangreiche Möglichkeiten für SEO und eine Steuerung von Social-Media-Kanälen. 

Welches Tool ist das richtige für meinen Online-Shop?

Welche Lösung sich für Sie am besten eignet, um Ihren Online-Shop aufzusetzen, hängt ganz von Ihren Anforderungen ab. Auch, wenn die genannten Tools mehr Flexibilität und Customization bieten als Baukastensysteme, unterscheiden sie sich hinsichtlich der Optionen. WooCommerce bietet zum Beispiel viele kostenfreie Themes, während Magento mehr Möglichkeiten für komplexe Produkte, wie beispielsweise personalisierbare Produkte, eröffnet. Der deutschsprachige Support sowie die Qualitätskontrolle der Plugins bei Shopware kann gerade, wenn Sie noch nicht viel Erfahrung im E-Commerce-Bereich gesammelt haben, einen deutlichen Mehrwert darstellen. 

Genauso können Ihre internen IT-Kapazitäten und die Größe Ihres Shops beeinflussen, ob Sie eher auf WooCommerce, das sich auch für kleine Shops sehr gut eignet oder doch auf die Enterprise-Version von Shopware oder Magento setzen sollten.

So finden Sie den richtigen Hostinganbieter für Ihren Online-Shop

Wenn Sie sich dafür entschieden haben, Ihren Shop selbst zu hosten und vielleicht auch schon ein Tool für die Programmierung Ihres Shops ausgewählt haben, müssen Sie lediglich noch den richtigen Hostinganbieter finden. Dabei spielen nicht nur die bereits angesprochene Skalierbarkeit, sondern auch die Sicherheit Ihrer Daten eine Rolle. 

Die folgenden Fragen können Ihnen bei der Auswahl helfen: 

  • Welche präventiven Maßnahmen ergreift der Anbieter, um Ihre Daten und Anwendungen jederzeit verfügbar zu halten? 
  • Sind die Daten Ihrer Kunden dort vor unbefugten Zugriffen und nach DSGVO-Richtlinien geschützt?
  • Bezahlen Sie auch nur für die Ressourcen, die Sie tatsächlich in Anspruch nehmen? 
  • Kennt sich der Anbieter mit dem Hosting von E-Commerce-Anwendungen aus? 
  • Welcher Service ist im Angebot mit inbegriffen?

Bei servinga bieten wir Ihnen unter anderem für das Cloud Hosting Ihres Online-Shops sowohl eine schnelle Skalierbarkeit für Lastspitzen im E-Commerce als auch eine dreifache Redundanz für alle Datensätze, sodass Sie jederzeit ohne Ausfälle auf Ihre Daten zugreifen können. Auch die Daten Ihrer Kunden sind sicher bei uns nach den aktuellsten Datenschutzbestimmungen gelagert. 

Zusammenfassung

Obwohl die Komplexität und Verantwortung bei einem selbst gehosteten Online-Shop auf den ersten Blick groß wirken können, gibt es doch zahlreiche Vorteile gegenüber Baukastensystemen. Kombiniert mit Cloud Hosting profitieren Sie von einem hohen Individualisierungsgrad, optimaler und kosteneffizienter Ressourcennutzung, Flexibilität und schnelle Skalierung für Lastspitzen.

« Alle Blog Einträge

Wie Disaster Recovery Ihrem Unternehmen hilft

Hackerangriffe, Hardwareprobleme, Stromausfälle oder weitere unvorhergesehene Zwischenfälle können schnell für Probleme sorgen. Mit einem guten Plan für die Disaster Recovery betreiben Sie Schadensbegrenzung und können Daten und Services schnell wiederherstellen. In diesem Artikel erfahren Sie, was genau unter Disaster Recovery verstanden wird, was Sie beachten müssen und wie Ihr Notfallplan aussehen kann. 

Was ist Disaster Recovery?

Der Sinn der Disaster Recovery ist es, nach einem Ausfall möglichst schnell und mit möglichst geringen Datenverlusten den Betrieb wiederherzustellen. Auch wenn Sie derartige Fälle möglichst ganz vermeiden möchten und dafür bereits Vorkehrungen treffen, ergibt es Sinn, sich für den Fall vorzubereiten, dass diese Vorkehrungen versagen. 

Die Disaster Recovery beschreibt einen Maßnahmenkatalog, den Sie für diesen Fall erstellen, damit Ihre Mitarbeiter wissen, was zu tun ist und die Maßnahmen schnell umgesetzt werden können. 

Woraus besteht ein Plan zur Disaster Recovery?

Ein Plan zur Disaster Recovery, abgekürzt DRP, besteht aus mehreren Teilen. Zum einen enthält er Kontaktdaten von Ansprechpersonen, sodass die Zuständigen zeitnah informiert werden können. Außerdem listet er Maßnahmen auf, die unmittelbar nach dem Zwischenfall ergriffen werden müssen. Ebenfalls gibt es detaillierte Hinweise zur Datenwiederherstellung. 

Dazu zählen beispielsweise die Software und Systeme, die benutzt werden sollen und wie der Zugriff auf die Backups erfolgen soll. Ergänzend kann die technische Dokumentation für die Wiederherstellungstechnologie enthalten sein. Des Weiteren können Kommunikationsmaßnahmen beigefügt werden, wie ein Datenleck, Datenverlust oder Dienstausfälle intern an Mitarbeiter, aber auch extern an Kunden und Medien kommuniziert werden müssen. Auch rechtliche Hinweise, die zu beachten sind, können inkludiert werden. 

RTO & RPO – Zwei wichtige Kennzahlen für Ihren Disaster Recovery Plan

Bei der Erstellung eines Disaster Recovery Plans sind zwei Akronyme für Sie relevant. RTO steht für Recovery Time Objective und beschreibt die Zeit, die vom Ausfall oder Schaden bis hin zur vollständigen Wiederherstellung vergehen soll. Das kann bei kritischen Systemen und Prozessen den Wert 0 betragen, das heißt, dass die Systeme nahtlos weiterlaufen müssen, oder auch weit höher sein, wenn Downtimes zwar ärgerlich sind, aber ohne größere Verluste in Kauf genommen werden. 

Das zweite Akronym, RPO, bedeutet Recovery Point Objective. Das RPO definiert die Zeit, die maximal zwischen zwei Datensicherungen vergehen darf und damit auch, wie viel Datenverlust akzeptiert werden kann. Auch hier gibt es einen Spielraum von keinem hinnehmbaren Datenverlust, also einer RPO von 0 Sekunden, bis hin zu längeren Zeiträumen, wenn seltener Änderungen an Daten vorgenommen werden und so die Wiederherstellungspunkte weiter auseinander liegen können. 

Je nachdem, welche RTO und RPO Sie für Ihr Unternehmen oder Ihren Prozess definiert haben, ergeben sich mehr oder weniger umfangreiche Maßnahmen für Ihren Disaster Recovery Plan hinsichtlich Backups, aber auch lagernden Ersatzteilen für Hardwareausfälle und beispielsweise Serviceverträge. 

Disaster Backup – Der Schlüssel zur erfolgreichen Recovery

Das Rückgrat einer erfolgreichen Wiederherstellungsstrategie sind sorgfältige Backups sowie eine transparente Datenstruktur. Bei der Auswahl einer Methode zur Datensicherung sollten Sie stets für den schlimmsten Fall vorsorgen und Ihre Backup-Anzahl und den Speicherrhythmus darauf auslegen. 

Wenn Sie Daten mehrfach an physisch getrennten Orten speichern, können Sie auch, wenn ein Teil der Hardware ausfällt, sichergehen, dass noch Kopien der Daten existieren. Falls möglich, können Sie die Backups sogar in verschiedenen Bauwerken aufbewahren. Dies kann beispielsweise im Brandfall relevant werden, sodass Sie, selbst wenn Hardware zerstört wird, nicht alle Daten verlieren. Das Stichwort zu mehrfach angelegten Datensätzen ist Redundanz. Indem die Daten öfter vorhanden sind als eigentlich notwendig und zum Beispiel auf voneinander unabhängigen Speichermedien vorliegen, kann der Ausfall eines Speichermediums kompensiert werden.

Wenn Sie Ihre Daten bei einem externen Anbieter hosten, beispielsweise in einer Cloud, müssen Sie auf Sicherheit nicht verzichten. In der servinga-Cloud führen wir eine 3-fache Replikation durch und bieten auf Wunsch auch eine Geo-Redundanz an, also die eben angesprochene räumliche Trennung der Datensätze auf verschiedenen Racks. Später werden wir noch darauf eingehen, worauf Sie bei Backup-Hosting bei externen Anbietern achten müssen. 

Wie oft soll ich meine Daten zum Wiederherstellen sichern?

Ein weiterer wichtiger Punkt ist die Backup-Frequenz sowie die Art der Backups. Backups können täglich, wöchentlich oder monatlich geschehen sowie in individuell festgelegten Abständen. 

Sie können inkrementelle, differentielle sowie Vollbackups erstellen. Vollbackups sollten Sie in regelmäßigen Abständen erstellen, aber Sie müssen nicht jedes Mal ein komplettes Backup durchführen. Mit inkrementellen oder differentiellen Backups sparen Sie Speicherplatz und Zeit, denn hier werden zwischen Vollbackups jeweils nur die Änderungen gesichert. 

Im Rahmen Ihres Budgets und Ihrer Kapazitäten sollten Sie Ihre Daten lieber öfter als seltener speichern. In den Fällen, in denen Daten nicht automatisch gesichert werden können, empfiehlt es sich zudem, Ihre Mitarbeiter entsprechend zu schulen, dass sie entweder selbst Backups erstellen oder ihre Daten an Orten speichern, wo diese automatisch angelegt werden. 

Was Sie bei externem Backup-Hosting beachten müssen 

Für den Fall, dass Sie keine On-Premise-Lösung verwenden, sondern Kapazitäten auf gemieteten Servern oder in der Cloud verwenden, sollten Sie bei dem Hosting Ihrer Daten auch Wert auf die Datensicherung legen. Bei einem guten Anbieter sollte dies sowieso enthalten sein. Erkundigen Sie sich vor Vertragsabschluss am besten direkt nach der Disaster Recovery Policy des Hostinganbieters oder lassen Sie sich zu verschiedenen Sicherungsmöglichkeiten beraten, um später nicht unangenehm überrascht zu werden. 

Ein Vorteil bei externem Backup-Hosting ist, dass bei Schäden, die Ihre Gebäude betreffen, die Daten auf jeden Fall davon unberührt bleiben. Dennoch unterliegt der Hosting-Anbieter denselben Risiken wie Sie, wenn Sie Backups vor Ort aufbewahren. Wenn Sie sich nicht selbst um die Disaster Recovery kümmern, ist es daher wichtig, dass Sie sich auf Ihren Hosting-Partner verlassen können. Bei servinga legen wir viel Wert auf Transparenz und erklären Ihnen gerne unsere Pläne für die Disaster Recovery Ihrer Daten. 

Genauso kann es wichtig sein, die Recovery Policies von Softwareanbietern, auf deren Software Sie angewiesen sind, zu kennen, damit Sie durch unerwartete Downtimes keine wertvolle Arbeitszeit verlieren und wichtige Prozesse ununterbrochen laufen können. Sprechen Sie mit Anbietern, welche Möglichkeiten Sie haben und welche Maßnahmen der Anbieter selbst für eine exakte Datenwiederherstellung ergreifen. 

Zusammenfassung

Wie umfangreich Ihr Disaster Recovery Plan aussehen muss, hängt ganz von Ihren Prozessen und Anforderungen ab. Auf jeden Fall sollten Sie jedoch einen Plan aufstellen, um im Ernstfall schnell handeln zu können und nur minimale Datenverluste hinnehmen zu müssen. Der zusätzliche Aufwand, den Sie und Ihre Mitarbeiter betreiben müssen, zahlt sich aus, wenn Daten im Nu vollständig wieder hergestellt werden. Zum Thema Disaster Recovery und Backup-Hosting in der Cloud beraten wir Sie zudem jederzeit gerne.

« Alle Blog Einträge

Ab in die Cloud – So gelingt die Migration Ihrer Daten in die Cloud

Die Cloud-Technologie stellt für viele Unternehmen eine wirtschaftliche Alternative für eigene, physische Datenspeicher dar. Sogar die IT-Infrastruktur kann ganz oder teilweise in eine Cloud ausgelagert werden. Damit der Umzug in die Cloud reibungslos gelingt, erfahren Sie in diesem Artikel, was Sie bei der Datenmigration beachten sollten. 

Die Vorteile der Migration in die Cloud

Privat nutzen längst viele Menschen die Vorteile der Cloud-Technologie, um schnell Dateien zu teilen, von überall auf sie zugreifen zu können und nicht selbst in teure Speicher-Hardware investieren zu müssen, die beschädigt werden oder verloren gehen kann. Dieselben Vorteile stehen auch Unternehmen zur Verfügung, die ihre Daten und Anwendungen in eine Cloud auslagern möchten. Hardwarekosten lassen sich auch dadurch sparen, dass Anwendungen direkt in der Cloud ausgeführt werden können.

Aus diesen Gründen kann ein Umzug in die Cloud für Unternehmen verschiedenster Größen eine gute und effektive Lösung darstellen. Die Cloud-Technologie kann beispielsweise kleineren Unternehmen den Start erleichtern, da sie keine eigenen Server besitzen müssen. Auch die Teamarbeit profitiert von Cloud-basierter Arbeit, wenn Dateien gleichzeitig bearbeitet werden können und nicht in zahlreichen verschiedenen Versionen auf unterschiedlichen Rechnern gespeichert sind. Großkonzerne möchten vielleicht sogar eine eigene Cloud aufsetzen und somit die Vernetzung und Datenspeicherung vereinfachen.

Wann lohnt sich ein Umzug in die Cloud?

Da die Anbieter von Cloud-Lösungen über wesentlich mehr Speicherplatz verfügen, als ein einzelner Kunde benötigt, kann dies die schnellere Skalierung ermöglichen. Speicherplatz, der nicht mehr oder nur temporär benötigt wird, muss zudem nicht ungenutzt verfallen oder physischen Platz beanspruchen – und zudem müssen Sie nicht dafür bezahlen, wenn Sie ihn nicht brauchen. Gleichzeitig steht er, wenn Sie ihn benötigen, schnell zur Verfügung.  Saisonal unterschiedliche Speicherplatzanforderungen sind jedoch nur ein Anwendungsbeispiel, für das sich Cloud-Lösungen sehr gut eignen. 

Auch kontinuierlich wachsende Datenmengen und komplexe Tools profitieren von der schnellen Skalierbarkeit in der Cloud. Um Support und Wartung kümmern sich zudem die Mitarbeiter des Cloud-Anbieters, sodass hier ebenfalls Ressourcen gespart werden können.

Was muss ich bei der Datenmigration beachten?

Nicht immer ist es sinnvoll, bestehende Datenbanken eins zu eins in die Cloud zu migrieren. Stattdessen ist ein Umzug in die Cloud eine gute Gelegenheit, die organisch gewachsenen Datenbanken und ihre Strukturen bei Bedarf in einem mit umzustrukturieren und aufzuräumen. Dieser zusätzliche Arbeitsaufwand mag vielleicht zunächst abschrecken, trägt jedoch mittelfristig dazu bei, dass Sie noch mehr aus der Cloud herausholen und die Vorteile komplett nutzen können. Außerdem sparen Sie so Kosten, da Sie nicht unnötig Speicherplatz in der Cloud beanspruchen. 

Im Folgenden möchten wir Ihnen eine kleine Checkliste an die Hand geben, mit der Sie sich bestens auf den Umzug Ihrer Daten vorbereiten können. 

Ihre Checkliste für die Datenmigration

Was muss ich bei der Auswahl eines Cloud-Anbieters beachten? 

  1. Welche Daten sollen in der Cloud gespeichert werden?

Wenn die Entscheidung für die Cloud gefallen ist, sollten Sie zunächst einmal festlegen, welche Daten überhaupt in der Cloud gespeichert werden müssen oder können. Dafür ist unter anderem wichtig, ob die Daten aktiv genutzt werden, aber auch, welche Sicherheitsbedürfnisse für die einzelnen Datensätze gelten. Die Wahl des Cloud-Anbieters kann ebenfalls beeinflussen, welche Daten dort gespeichert werden können. Insbesondere bei personenbezogenen Daten muss sichergestellt werden, dass der Cloud-Anbieter DSGVO-konform arbeitet. 

  1. Wie sollen die Daten gesichert werden? 

Aus dem ersten Punkt ergeben sich auch Anforderungen zur Sicherung und für Back-Ups. Stellen Sie sicher, dass Ihre Daten auch bei Wartungen oder Ausfällen zur Verfügung stehen. Ein seriöser Anbieter wird immer automatisch mit Back-Ups arbeiten. Die Umstellung auf Cloud-Technologie sollte keinesfalls mit schlechteren Sicherungsstandards einhergehen. 

  1. Welche Unterstützung bietet der Anbieter bei der Migration selbst? 

Ein Cloud-Anbieter, der Ihnen bei der Migration behilflich ist und Sie bei der Aufbereitung Ihrer Datenbank unterstützt, ist Gold wert. So können Sie sich sicher sein, dass Ihre Daten sich in guten Händen befinden und können zudem einen Teil der Vorbereitung auch auslagern. Wir bei servinga bieten beispielsweise nicht nur die Infrastruktur, sondern stehen Ihnen auch bei dem Umzug Ihrer Daten zur Seite. 

Wie bereite ich meinen Betrieb auf die Migration vor?

  1. Berechtigungen festlegen

Wenn bereits im Vorfeld entschieden wird, wer auf welche Daten Zugriff und Bearbeitungsrechte erhalten soll, vereinfacht das die Umstellung und minimiert das Risiko, dass Unbefugte Zugriff auf Daten haben, die sie nicht benötigen. 

  1. Eine einheitliche Benennung der Daten festlegen

Falls noch nicht geschehen, ist die Bereinigung der Datenbank vor dem Umzug in die Cloud eine optimale Möglichkeit, gleichzeitig einheitliche Regelungen zur Benennung von Dateien einzuführen. Das erlaubt es, den Überblick zu behalten und sich auch in der neuen Umgebung gut zurechtzufinden. 

  1. Die Datenbankstruktur und Plattform überdenken

Es bietet sich an, den Umstieg auf eine neue Plattform mit der Migration in die Cloud zu kombinieren. Da die Datenbanken ohnehin bereinigt und überarbeitet werden müssen, kann hier gezielt an der Architektur der Datenbanken geschraubt werden, sodass weitere Faktoren, die die Effizienz beeinflussen, in einem eliminiert werden können. Des Weiteren gibt es Systeme, die etwas mehr oder weniger geeignet sind für eine Cloud-Lösung. Durch eine Kombination sparen Sie Kosten und nutzen das volle Potenzial des Umstiegs, falls Ihr bisheriges System nicht auf Cloud-Technologie ausgelegt ist.

Daten migrieren braucht Zeit

Wichtig ist auch, dass Sie mit realistischen Erwartungen an die Migration herangehen. Die Wahl des richtigen Anbieters, die Selektion der Daten sowie die Bereinigung der Datenbanken und die Migration selber nehmen Zeit in Anspruch. Gerade bei größeren Unternehmen und entsprechend komplexen Datenbanken kann dies einige Wochen bis Monate dauern. Langfristig lohnt sich der Umstieg für die meisten Unternehmen jedoch auf jeden Fall. 

Die Zeit, die Sie für den Umzug in die Cloud sowie für die Vorbereitung darauf investieren, zahlt sich aus, wenn Sie später Betriebs- und Wartungskosten sparen und von der Flexibilität und Skalierbarkeit profitieren. Ein kompetenter Anbieter kann Ihnen hierbei entgegenkommen und Sie nicht nur beratend, sondern auch aktiv dabei unterstützen, die Migration schnellstmöglichst umzusetzen. 

Zusammenfassung

Es gibt einige wichtige Punkte, die für eine gelungene Migration in die Cloud berücksichtigt werden müssen. Mit einer guten Vorbereitung sorgen Sie jedoch dafür, dass Sie die Vorteile der Cloud voll ausschöpfen können und optimieren nicht nur Ihren Speicher, sondern Ihr gesamtes Datenbanksystem gleich mit.

« Alle Blog Einträge

Cloud, dediziert, Colocation oder On-Premise – Wie soll ich meine Daten hosten?

Es gibt zahlreiche Möglichkeiten, Daten zu hosten und jedes Modell hat seine individuellen Vor- und Nachteile. Ob etablierte Methoden wie dedizierte Server oder das zunehmend an Beliebtheit gewinnende Cloud-Hosting die beste Lösung für Sie sind, lässt sich nicht pauschal beantworten. Einen Überblick über die verschiedenen Modelle, für welche Anwendungen sie sich eignen sowie Kombinationsmöglichkeiten der Modelle untereinander erhalten Sie in diesem Artikel. 

Cloud-Hosting – Modernes und flexibles Hosting 

Cloud-Hosting ist das jüngste Hosting-Modell in dieser Übersicht. Bei einer Cloud handelt es sich um virtuelle Online-Server, die für verschiedene Zwecke individuell konfiguriert werden können. Cloud-Server sind auf einem physischen Server gehostet, der den virtuellen Servern Ressourcen zuweisen kann. 

Dies bietet eine erhöhte Flexibilität, da die Server gelöscht und neu konfiguriert werden können, ohne, dass zwingend Veränderungen an der Hardware vorgenommen werden müssen. Zudem müssen vom Kunden nicht genutzte Kapazitäten auf den Servern des Cloud-Anbieters nicht konstant mitbezahlt werden, können jedoch bei Bedarf problemlos in Anspruch genommen werden.. Cloud-Hosting überzeugt durch seine schnelle Skalierbarkeit, einfache Datenmigration und reduzierte Ausfallzeiten.

Hosting auf dedizierten Servern – Die klassische Art

Bei dedizierten Servern handelt es sich um Server, die Ihnen komplett und alleine zur Verfügung stehen, entweder vor Ort in Ihrem Unternehmen oder beim Anbieter selber. Da nur Sie auf die Server zugreifen, können Sie diese ganz nach Ihren individuellen Anforderungen zusammenstellen lassen. Dedizierte Server sind also perfekt auf Ihre Anwendung zugeschnitten. 

Dies macht sie jedoch auch etwas weniger flexibel, wenn sich die Anforderungen ändern. Dedizierte Server stellen eine in sich geschlossene Einheit dar, die die gesamte notwendige Hardware enthält. Es ist auch möglich, ein Cluster aus mehreren dedizierten Servern zu betreiben, in der Regel gibt es pro Produkt oder Anwendung aber nur einen dedizierten Server.

Des Weiteren können dedizierte Server auch die Grundlage für virtuelle Server bieten. 

Colocation Hosting – Server einfach außerhalb unterbringen

Colocation Hosting ähnelt in seiner Form dem Hosting auf dedizierten Servern. In diesem Fall stellt das Rechenzentrum jedoch nicht die Server zur Verfügung, sondern lediglich den Platz und Service, den die Server benötigen. 

Das Unternehmen bringt also einen Teil oder seine gesamten Server in einem Rechenzentrum unter und der Anbieter kümmert sich um die Stromversorgung und Kühlung. Die Hardware verbleibt komplett im Firmenbesitz. Dank Colocation Hosting können die Kunden von den Vorteilen eines Rechenzentrums profitieren, ohne dort physische Server mieten zu müssen. 

On-Premise Hosting – Die Lösung vor Ort

On-Premise bedeutet auf Deutsch genau das, “vor Ort” und beschreibt eine Variante des Hostings, bei der alle Daten und Hardware im Unternehmen selbst aufbewahrt werden. 

Dies bedeutet die größtmögliche Kontrolle und Zugangsregulierung, gleichzeitig jedoch auch, dass Wartung und weitere Services auch im und vom Unternehmen selbst organisiert und durchgeführt werden müssen. Dasselbe gilt für die Skalierung, für die gegebenenfalls neue Ressourcen angeschafft werden müssen. 

Welches Hosting-Modell ist das beste für mich? 

Auch, wenn Cloud-Computing in Zukunft weiter an Bedeutung gewinnen wird und virtuelle Server viele Vorteile bieten, heißt dies nicht, dass die anderen Modelle automatisch veraltet sind. Die vorgestellten Modelle müssen sich nicht gegenseitig ausschließen. Im Gegenteil, in vielen Fällen kann eine Hybrid-Strategie genutzt werden, die die Stärken mehrerer Modelle kombiniert und eine effiziente und sichere Möglichkeit darstellt. Lassen Sie uns jedoch zunächst kurz die Vorteile der einzelnen Modelle zusammenfassen. 

Vorteile von Cloud-Hosting vs. dedizierte Server

Cloud-Hosting ist eine Möglichkeit, ohne eigene Server zu arbeiten und notwendige Kapazitäten einfach zu mieten. Sie bezahlen nur für die Ressourcen, die Sie auch verbrauchen und können bei Bedarf schnell und unkompliziert den benötigten Platz vergrößern oder verringern. Die Verantwortung für die Hardware liegt allein beim Hosting-Anbieter. Mithilfe von Cloud-Lösungen können auch kleine Unternehmen ohne eigene Server und Hardware ihre Daten und Anwendungen problemlos hosten.

Ein weiterer Vorteil liegt in der Virtualisierung der Hardware, die eine größere Freiheit und Unabhängigkeit von den physischen Ressourcen bietet. Die vorhandene Hardware eines Cloud-Netzwerks kann beliebig und flexibel auf virtualisierte Server verteilt werden und ist nicht von den Leistungsbeschränkungen eines einzigen Computer abhängig.  

On-Premise vs. Cloud – Größtmögliche Unabhängigkeit bei der Hardware-Konfiguration

Sowohl beim Colocation Hosting als auch bei der On-Premise-Variante sind Unternehmen nicht von der Hardware des Anbieters abhängig und können über Konfigurationen komplett selbst bestimmen. Mit dieser Unabhängigkeit geht gleichzeitig mehr Verantwortung einher. Bei einer On-Premise-Lösung kommen Kühlung und Wartung noch dazu und liegen im Zuständigkeitsbereich des Unternehmens. 

Auch Cloud-Technologie kann als On-Premise genutzt werden. Cloud-Hosting kann auf privater Infrastruktur aufgesetzt werden und als private Cloud fungieren oder als Public Cloud genutzt werden. Diese Lösung eignet sich beispielsweise für große Unternehmen mit umfangreichen Daten, für die besonders hohe Anforderungen bezüglich der Sicherheit bestehen.

Dedizierte Server als Colocation oder On-Premise 

Dedizierte Server lassen sich sowohl On-Premise als auch als Colocation-Lösung realisieren. Auch können sie in Rechenzentren gemietet werden, sodass, anders als bei der Cloud, nur ein Kunde auf einen einzelnen physischen Server zugreift. Genauso ist es möglich, dedizierte Server vor Ort auszulagern, wenn die Wartung und der Service nicht mehr zu bewältigen ist. 

Ein Nachteil von dedizierten Servern ist die Beschränkung durch physische Hardware. Eine Erweiterung ist nicht immer technisch möglich und erfordert zeitlichen Aufwand. Auch Wartung und Migration bedeuten Ausfallzeiten, in denen der Server nicht zur Verfügung steht. Durch ihre individuelle Konfiguration sind dedizierte Server jedoch sehr leistungsstark und Ihnen steht jederzeit die gesamte Leistung des Servers zur Verfügung. 

Wie hybride Hostinglösungen Ihnen helfen können

Je nach Art der Daten oder Anwendungen, die gehostet werden sollen, können Sie ein entsprechendes Hosting-Modell wählen, um maximale Kosteneffizienz bei optimaler Leistung zu erhalten. Besonders sensible Daten möchten Sie vielleicht auf einem dedizierten Server vor Ort behalten, um sicherzustellen, dass nur befugte Mitarbeiter Zugriff auf diese Daten haben. 

Für die Bereitstellung von Anwendungen eignet sich gegebenenfalls Cloud-Hosting am besten, um eine hohe Verfügbarkeit zu gewährleisten und Downtimes zu vermeiden. Ebenso ergibt es Sinn, für Aufgaben, die zeitweise sehr viele, dann wieder weniger Ressourcen benötigen, auf das flexible Cloud-Hosting zu setzen. Ein Beispiel wäre hier ein Online-Shop, der für das Weihnachtsgeschäft hohe Kapazitäten benötigt, die aber für den Rest des Jahres nicht genutzt werden. 

Wenn die hauseigenen Kapazitäten für das Hosting nicht mehr ausreichen, gibt es auch mehrere Möglichkeiten, die Ressourcen zu erweitern. Sie können beispielsweise Ihre gesamten Daten in eine Cloud auslagern, dedizierte Server in einem Rechenzentrum mieten oder Ihre eigenen dort unterbringen. Damit Sie Ihre ideale Hostinglösung finden, beraten wir Sie bei servinga gerne, für welche Anwendungen Cloud-Hosting eine gute Wahl darstellt und wie Sie dies in Ihre Hosting-Strategie integrieren können. 

Zusammenfassung

Es ist nicht einfach, bei den verschiedenen Hosting-Modellen den Überblick zu behalten. Das liegt nicht zuletzt daran, dass verschiedene Daten und Anwendungen unterschiedlich von den Hosting-Modellen profitieren. Es lohnt sich, sowohl neuen Technologien wie der Cloud-Technologie eine Chance zu geben als auch etablierte Modelle nicht komplett abzuschreiben.

« Alle Blog Einträge

Eine Einführung in Kubernetes Storage

Ein wichtiger Bestandteil bei der Anwendung von Containertechnologien sowie der Containerverwaltung mit Programmen wie Kubernetes ist der Umgang mit Speicherplatz und verschiedenen Speichervarianten. Zudem können Sie mit einer guten Strategie zum Umgang mit Storage noch mehr aus Kubernetes herausholen. In diesem Artikel erfahren Sie grundlegende Informationen zu Kubernetes Storage und den verschiedenen Möglichkeiten, die die Technologie  bietet. 

Kubernetes Storage: Viele Möglichkeiten zur Speicherung

Kubernetes ist eine Plattform zur flexiblen Verwaltung und schnellen Bereitstellung von Containern, beispielsweise für die Anwendungsentwicklung. Dabei erlaubt Kubernetes Ihnen auch, die Ressourcen wie CPU, Speicherplatz und Memory, auf die die Container zugreifen, zu verwalten und zuzuweisen oder diese Prozesse zu automatisieren. Da Kubernetes die Container selbst nicht erstellt, benötigen Sie dafür eine externe Technologie.

Hier ist Kubernetes sehr flexibel und unterstützt alle gängigen Technologien zur Containererstellung. Während allein die Umstellung von Virtual Machines auf Containertechnologie zur Virtualisierung bereits viel Speicherplatz und Ressourcenauslastung spart, bietet Kubernetes Storage noch mehr Potenzial, diese Belastung zu reduzieren.

Kubernetes unterstützt verschiedene Arten von Storage und lässt Ihnen daher die Wahl, mit welchen Methoden Sie Ihre Daten sichern wollen. Dennoch hat die Auswahl der Speichermethode unter Umständen Einfluss auf die Flexibilität und Portabilität Ihrer Daten und Anwendung. Dies betrifft ebenfalls die Nutzung und Auslastung von Prozessoren, Storage und Memory. Zudem verwalten und ändern Sie mithilfe von StorageClasses in Kubernetes Speicher und Speichermethoden einfach und zentral. Nutzern ist es auch möglich, den Speicher, den sie benötigen, anzufragen.

Wie Sie StorageClass in Kubernetes nutzen

Eine StorageClass in Kubernetes beschreibt ein definiertes Set an Einstellungen für die Speicherung für ein bestimmtes Cluster. Eine alternative Bezeichnung für StorageClass in vergleichbaren Programmen ist auch Profil. Mit StorageClasses organisieren Sie in Kubernetes verschiedene Speicheranforderungen schnell und übersichtlich.

Gerade, wenn Sie verschiedene Projekte und Cluster mit Kubernetes verwalten, die unterschiedliche Policies zu beispielsweise Datenspeicher, Backupfrequenz oder Backupanzahl haben, können Sie so für jedes Set an Einstellungen eine StorageClass einrichten. Auch mehrere Projekte können einer StorageClass zugewiesen werden, sodass Sie Änderungen direkt für die gesamte StorageClass und die Einstellungen nicht für jedes Projekt, Cluster, Pod oder Node einzeln anpassen müssen. 

Ein weiterer Vorteil von StorageClasses ist, dass der Administrator eines Clusters verschiedene Speicherkonfigurationen zentral anbieten kann und die Nutzer selbst nicht mit den Details konfrontiert werden. Über Persistent Volume Claims, auf die weiter unten ausführlicher eingegangen wird, können Nutzer den Speicherplatz mit den spezifischen Eigenschaften, die sie benötigen, anfragen und der Administrator wählt dann die passende StorageClass oder definiert eine neue. 

Persistent Storage und Non-Persistent Storage in Kubernetes

Mit Kubernetes können Sie sowohl persistenten, als auch nicht-persistenten, also flüchtigen Speicher nutzen. Flüchtiger Speicher stellt hierbei die einfachste Variante dar. Der Speicher kann direkt in einen Container geschrieben werden, ist dann jedoch auch an diesen gebunden und kann von anderen Containern innerhalb eines Pods nicht verwendet werden. Flüchtiger Speicher kann jedoch auch in Form eines emptyDirs in alle Container eines Pods gemountet werden. Wird der Pod, in dem er erstellt wurde, gelöscht, verschwindet der Speicher ebenfalls. 

Persistenter Speicher ist ebenfalls verfügbar. Kubernetes unterstützt zahlreiche Speicherklassen verschiedenster Cloud-Technologien und -Anbieter. Auch Datenbanken und physischer Speicher sind möglich. Für Persistent Storage sind zudem Persistent Volume (PV) und Persistent Volume Claims (PVC) relevant. Diese beiden Methoden werden verwendet, um die Anforderungen für Speicher und Anwendungen zu definieren.

Kubernetes Persistent Volume – Unabhängig vom Pod

Bei Kubernetes Persistent Volume handelt es sich um eine Entkopplung der Speicherimplementierung von der Speicherfunktion. Der Speicher ist innerhalb eines Kubernetes Clusters portabel, jedoch nicht über dessen Grenzen hinweg. Mithilfe der StorageClass werden die Eigenschaften für den bereitzustellenden Speicher festgelegt. 

Alternativ kann aber auch ein Administrator die Parameter einzeln definieren. Im Gegensatz zum nicht-persistenten, flüchtigen Speicher, der an den Lebenszyklus des Pods, in den er geschrieben wurde, gebunden ist, ist Persistent Volume unabhängig von der Existenz des Pods, der ihn beansprucht. 

Persistent Volume Claims – Einfach Speicher beanspruchen

Persistent Volume Claims beschreiben die Verbindung zwischen den Nutzern oder Anwendungen, die die Ressourcen und den Speicher benötigen und dem geschriebenen Speicher selbst. Das Verhältnis zwischen Persistent Volume Claims und Persisten Volume ist dabei vergleichbar mit dem zwischen Pod und Nodes. Während ein Pod die Ressourcen eines Nodes braucht, greift ein Persistent Volume Claim auf den Persistent Volume, also den persistenten Speicher, zu. Mithilfe eines Persistent Volume Claims kann der Nutzer alle notwendigen Eigenschaften des Speichers spezifizieren und ihn beim Administrator anfragen. Dazu zählen die Größe des benötigten Speicherplatzes sowie die AccessModes, also Zugriffsmöglichkeiten.

Persistent Volume kann statisch oder dynamisch bereitgestellt werden. Statisch bedeutet hier, dass der Administrator mehrere Persistent Volumes für ein Cluster erstellt und diese dann für die Nutzer verfügbar sind. Dynamisch heißt, dass, falls die bereits vorhandenen Persistent Volumes nicht dem Persistent Volume Claim des Nutzers entsprechen, das Kubernetes Cluster selbst versucht, die entsprechende PV zu kreieren, der genau auf den PVC zugeschnitten ist. Dies funktioniert jedoch nur, wenn die passende StorageClass bereits im Vorfeld angelegt wurde. 

Shared Storage und Local Storage in Kubernetes

Weitere Speichermöglichkeiten mit Kubernetes betreffen Shared und Local Storage, also geteilten und lokalen Speicher. Eine lokale Persistent Volume ist eine Disk, die mit einem einzelnen Node verbunden ist. Für die Nutzung dieser Speichermethode ist das Local Persistent Volume Plugin verfügbar. 

Es ist ebenfalls möglich, dass innerhalb eines Pods mehrere Container untereinander Daten austauschen und teilen. In diesem Fall wird erneut auf non-persistent, also flüchtigen Speicher zurückgegriffen. Auch Persistent Volumes bieten die Option, dass mehrere Pods auf sie zugreifen. Dazu muss dies als Zugriffsmöglichkeit definiert werden. 

Welche Speicherstrategien sind für mich am besten geeignet?

Dies hängt ganz von Ihrem Projekt und Ihren individuellen Bedürfnissen ab und kann nicht pauschal beantwortet werden. Damit Sie sich jedoch nicht selbst mühsam einen Überblick verschaffen müssen, stehen wir Ihnen gerne zur Seite. 

Im Rahmen unseres Managed Kubernetes Hostings bei servinga beraten wir Sie selbstverständlich auch zu diesem Thema und helfen Ihnen auf Wunsch bei der Einrichtung von StorageClasses sowie von Kubernetes generell.

Fazit

Mit Kubernetes verfügen Sie über vielfältige Möglichkeiten, Ihren Speicher innerhalb eines Clusters zu verwalten und Nutzern bereitzustellen. Die zahlreichen Optionen ermöglichen Ihnen eine Speicherverwaltung, die genau auf Ihre Bedürfnisse zugeschnitten ist und erlaubt es, Ihre Cluster flexibel zu gestalten. Selbst wenn die Einarbeitung ein wenig Zeit in Anspruch nehmen kann, profitieren Sie später deutlich von der Vielseitigkeit von Kubernetes Storage.