mirror of
https://gitlab.com/ser-cal/m346.git
synced 2024-11-22 17:41:57 +01:00
KN06 Auftrag Challenge C) ergänzt
This commit is contained in:
parent
73582b4d6c
commit
830b3061f2
18
KN06/KN06.md
18
KN06/KN06.md
@ -87,6 +87,16 @@ Beachten Sie ausserdem die [llgemeinen Informationen zu den Abgaben](../Abgaben.
|
||||
:bookmark: Für dieses Lab verwenden Sie in der **AWS Academy** das **Learner Lab**.
|
||||
|
||||
In diesem Challenge werden Sie eine **Auto Scaling Group** erstellen und später beim Erstellen von neuen EC2-Instanzen nutzen.
|
||||
Der **Load Balancer** aus dem letzten Challenge und die **Auto Scaling Group** können unabhängig voneinder eingesetzt werden. Gemeinsam Kombiniert sind diese beiden Dienste allerdings unschlagbar und in einer **High Availability Umgebung** nicht wegzudenken.
|
||||
|
||||
Zuerst aber schauen wir diese beiden Dienste losgelöst voneinander an. Im folgenden Auftrag geht es deshalb nur um die Vorzüge des **Auto Scalers**. Er stellt sicher, dass meine Ressourcen **immer** dem gewünschten Zustand (Desired state) entsprechen. Im folgenden Challenge setzen wir diese Dienst so auf, dass **immer mindestens zwei** EC2-Instanzen laufen. Falls eine Instanz wegfällt (z.B. versehntlich terminiert, SW-Issue oder technischer Defekt) wird automatisch eine neue Instanz hochgefahren.
|
||||
|
||||
Kombiniert man diesen Dienst mit dem **Loadbalancer** aus dem letzten Challenge, kann man sicherstellen, dass der Service eine um einiges höhere Verfügbarkeit erhält. Beim Ausfall einer Site (z.B. Datacenter Stromausfall) wird der Traffic automatisch auf die andere Site umgeleitet. Zusätzlich kann man diesen Dienst auch noch ergänzten mit Metrics. Z.B. Falls die CPU-Auslastung einen Grenzwert überschreitet, soll dynamisch eine weitere Instanz hochgefahren werden. Das ganze funktioniert auch umgekehrt. Falls die CPU-Auslastung unter den Grenzwert fällt, wird die zusätzliche Instanz automatisch terminiert. Man spricht in diesem Fall von **Elasticity**. Im Gegensatz zum Begriff **Scalability** (z.B. Einbau einer weiteren SSD) kann die Plattform "on-demand" Ressourcen hinzufügen oder entfernen.
|
||||
|
||||
|
||||
#### Anleitung:
|
||||
Als erstes werden Sie ein Launch Template erstellen.
|
||||
|
||||
|
||||
##### Launch template erstellen:
|
||||
Setzen Sie als erstes ein Launch-Template auf. Wählen Sie dazu links in der **Navigation Bar** unter **`Instances`** den Buttom **`Create Launch template`** aus. Dann konfigurieren Sie das LaunchTemplate mit folgenden Parametern:
|
||||
@ -105,4 +115,10 @@ Setzen Sie als erstes ein Launch-Template auf. Wählen Sie dazu links in der **N
|
||||
|
||||
|
||||
##### Auto Scaling Group erstellen:
|
||||
Wählen Sie wieder links in der **Navigation Bar** unter **`Auto Scaling`** das Unterverzeichnis **`Auto Scaling Groups`** aus. Dann konfigurieren Sie das LaunchTemplate mit folgenden Parametern:
|
||||
Wählen Sie wieder links in der **Navigation Bar** unter **`Auto Scaling`** das Unterverzeichnis **`Auto Scaling Groups`** aus. Dann klicken Sie auf den orangen Buttom **`Create Auto Scaling group`**. Danach erscheint eine neue Seite mit dem Titel **Choos launch template**, welches Sie wie folgt ausfüllen:
|
||||
- Name:
|
||||
- Auto Scaling group name: `KN06_XXX_AutoScalingGroup`
|
||||
- Launch Template: `KN06_XXX_LaunchTemplate`
|
||||
|
||||
...sonst nichts ändern und mit **Next** bestätigen.
|
||||
Es erscheint eine neue Seite mit dem Titel **Choos launch options**, welches Sie wie folgt ausfüllen:
|
||||
|
Loading…
Reference in New Issue
Block a user