mirror of
https://gitlab.com/ser-cal/m346.git
synced 2024-11-22 17:41:57 +01:00
Auftrag B) ergänzt
This commit is contained in:
parent
b55662f7b9
commit
434881f1c7
@ -122,6 +122,8 @@ Kombiniert man den **Auto Scaler** mit den **Load Balancer**, erhält der dahint
|
||||
|
||||
Momentan aber schauen wir diese beiden Dienste noch losgelöst voneinander an. Im folgenden Auftrag geht es deshalb nur um die Vorzüge des **Auto Scalers**. Er stellt sicher, dass meine Ressourcen **immer** dem gewünschten Zustand (Desired state) entsprechen. Im folgenden Challenge setzen wir diesen Dienst so auf, dass **immer mindestens zwei** EC2-Instanzen laufen. Falls eine Instanz wegfällt (z.B. versehntlich terminiert, SW-Issue oder technischer Defekt) wird automatisch eine neue Instanz hochgefahren.
|
||||
|
||||
Gleichzeitig erkennt man hier aber sofort auch die **Grenzen** des **Auto Scalers**. Er ist zwar in der Lage, aufgrund von **status checks** und **CloudWatch-Metrics** den Gesundheitszustand der Instanzen zu checken und entsprechend zu reagieren (z.B. beim Ausfall einer EC2-Instanz eine Ersatz-Instanz hochzufahren), aber er ist alleine **nicht** in der Lage, die Last gleichmässig zu verteilen und dabei auch die neuen Instanzen einzubinden. Und genau hier kommt ihm sein bester Freund, der **Load Balancer**, zur Hilfe. Der **Auto Scaler** sorgt also quasi **im Hintergrund** dafür, dass **immer** ausreichend (nicht zuviel, aber auch nicht zuwenig) Ressourcen vorhanden sind, während der **Load Balancer** vorne praktisch als **Türsteher** dafür sorgt, dass diese Ressourcen **gleichmässig** genutzt werden. Weil diese Ressourcen über zwei oder mehrere **Availability Zones** verteilt werden, spricht man bei einer solchen Konfiguration von einer **High Availability-Architektur**.
|
||||
|
||||
|
||||
#### Anleitung:
|
||||
Als erstes werden Sie ein Launch Template erstellen.
|
||||
|
Loading…
Reference in New Issue
Block a user