Nem is olyan régen így kezdem az egyik AWS-es cikket:
A felhő is csak akkor gazdaságos, ha okosan használjuk
És volt már szó az Azure Spot VM-ről is, ami egy olyan típusú virtuális gép, amelyet az Azure a kihasználatlan kapacitásaiból kínál rendkívül kedvező áron. Ma tovább lépünk.
Az Azure használata során hamar szembesülhetünk azzal, hogy a felhőszolgáltatások költségei gyorsan megnövekedhetnek. Szerencsére a Microsoft kínál megoldásokat arra, hogy optimalizáljuk a kiadásainkat: két népszerű lehetőség a Savings Plan és a Reserved Instance (RI). Ebben a cikkben bemutatom, hogyan működnek ezek az ajánlatok, mik az előnyeik, hátrányaik, és milyen helyzetekben érdemes az egyiket vagy a másikat választani.
Mi az az Azure Savings Plan?
Az Azure Savings Plan egy rugalmas megtakarítási konstrukció. Lényege, hogy vállalod egy meghatározott, óránkénti összeg elköltését az Azure-ban, 1 vagy 3 éves időszakra. Ezért cserébe jelentős kedvezményeket kapsz az on-demand (normál) díjszabásokhoz képest.
Az óránkénti költési szint szabadon felhasználható többféle szolgáltatásra és régióra, például virtuális gépekre (VM-ekre), App Service-re vagy más compute-alapú erőforrásokra.
Előnyei:
Nagy rugalmasság: bármilyen támogatott compute szolgáltatásra elkölthető.
Nincs szükség konkrét erőforrás vagy régió előzetes megkötésére.
Könnyebb alkalmazkodni a változó igényekhez.
Hátrányai:
Ha nem használod ki az óránkénti költési vállalásodat, akkor is ki kell fizetned.
Kevésbé kedvező ár a Reserved Instance-hez képest ugyanazon VM-ekre.
Mi az az Azure Reserved Instance?
A Reserved Instance (foglalt példány) egy klasszikusabb megközelítés: itt konkrét virtuális gép típusra, régióra és üzemidőre vállalsz elköteleződést egy vagy három évre. Cserébe jelentősen olcsóbban használhatod az adott VM-et, akár 72%-os megtakarítást is elérve az on-demand árhoz képest.
Előnyei:
Nagy megtakarítás fix VM használat esetén.
Tervszerű, stabil költségtervezés hosszú távra.
Átadható más előfizetésbe vagy eladható a Reserved Instance Marketplace-en.
Hátrányai:
Kevés rugalmasság: kötött VM méret, típus, régió.
Ha változnak az igények (pl. más méret vagy régió kell), nehezebb alkalmazkodni.
Savings Plan vs Reserved Instance – Összehasonlítás
Jellemző
Savings Plan
Reserved Instance
Rugalmasság
Magas
Alacsony
Megtakarítás mértéke
Közepes (~20-65%)
Nagy (~30-72%)
Elköteleződés
Óránkénti költési vállalás
Konkrét VM, régió, időtartam
Átadhatóság
Nem
Igen (Marketplace-en értékesíthető)
Igényváltozások kezelése
Rugalmasabb
Korlátozott
Mikor melyiket válasszam?
Savings Plan
Ha még nem tudod pontosan, milyen erőforrásokat fogsz hosszú távon használni.
Ha dinamikusan változik a compute igényed (például szezonális terhelés esetén).
Ha többféle compute szolgáltatást kombinálnál (pl. VM-ek, App Service, Functions).
Reserved Instance
Ha pontosan tudod, milyen típusú VM-et, melyik régióban, hosszú távon fogsz futtatni.
Ha stabil, kiszámítható workloadod van, például állandóan futó alkalmazásszerverek.
Ha maximalizálni akarod a megtakarítást, és nem zavar a rugalmasság hiánya.
Összegzés
Mind a Savings Plan, mind a Reserved Instance remek eszköz arra, hogy csökkentsd az Azure költségeidet. A választás attól függ, mennyire tudod előre megjósolni a jövőbeni erőforrásigényedet. Ha bizonytalan vagy, a Savings Plan által kínált rugalmasság előnyösebb lehet. Ha viszont stabil, kiszámítható rendszered van, akkor a Reserved Instance adja a legjobb ár-érték arányt.
Ne feledd! Ez minden esetben elköteleződéssel jár. Azaz akkor is fizetned kell, ha nem használod ki a hűségszerződésben foglaltakat. Ezért jól gondold át, mielőtt beleugrasz.
A megfelelő költségkezelés a felhő egyik kritikus része. Minden oktatásomon el is hangzik a következő mondat:
A felhő is csak akkor gazdaságos, ha okosan használjuk
Az egyik korábbi cikkemben már bemutattam a költséghatékonyság kapcsán a Spot Instance-ot, amely olyan virtuális gép (EC2 instance), amit az AWS fel nem használt kapacitásából kínál. Mivel ezek az erőforrások „feleslegesek”, az áruk jelentősen alacsonyabb, mint az on-demand (igény szerinti) vagy reserved instance-oké.
Azt talán nem szükséges ecsetelni, hogy az AWS-felhőszolgáltatásai rugalmasak és nagy teljesítményűek, de a használatuk ára gyorsan emelkedhet, ha nem figyelünk a költségekre. Éppen ezért kínál az AWS olyan konstrukciókat, mint a Savings Plan és a Reserved Instance (RI), amelyekkel jelentős megtakarítást érhetünk el.
Alapfogalmak
Mindkét konstrukció alapja a hosszú távú elköteleződés egy adott futtatási kapacitás mellett. Ezért cserébe akár 72%-os megtakarítást is elérhetünk az on-demand (azonnali) árakhoz képest. A különbség főként a rugalmasságban és a használati feltételekben rejlik.
Reserved Instance (RI) – Lefoglalt példány
A Reserved Instance egy meghatározott régióra, géptípusra és gyakran operációs rendszerre szóló foglalás. Az elköteleződés (hűségszerződés) 1 vagy 3 évre történik.
Előnyök:
Jelentős megtakarítás az On-Demand árakhoz képest (akár 72%)
Teljesítménygarancia, mert a példány le van foglalva
Költség előre jól tervezhető
Korlátok:
Merev: példánytípus, régió, OS, fizetési konstrukció kötött
Ha megváltozik az igény, a foglalás nem feltétlenül használható jól
Csak EC2-re és néhány más szolgáltatásra vonatkozik
Savings Plan – Rugalmasabb megtakarítási terv
A Savings Plan inkább az elköltött összegre vonatkozik, nem konkrét példányokra. Megadhatjuk, hogy napi szinten mekkora összeget vállalunk 1 vagy 3 évre. Ezt az AWS automatikusan optimalizálja a háttérben.
Két típus létezik:
Compute Savings Plan: Rugalmasan használható bármely régióban, bármely példánytípusra, akár AWS Fargate és Lambda esetén is.
EC2 Instance Savings Plan: Kötöttebb – egy régióhoz és géptípus családhoz kötött, de géptípus szinten rugalmasabb, mint az RI.
Előnyök:
Nagy rugalmasság – könnyebb alkalmazkodni a változó igényekhez
Automatikus alkalmazás, nem kell példányokat lekötni
Szélesebb szolgáltatási kör (Lambda, Fargate is)
Korlátok:
Kisebb megtakarítás, mint a teljesen lekötött RI esetén (max. ~66%)
Előzetes költési elköteleződés szükséges
Ha kevesebbet használunk, mint amennyit lekötöttünk, nincs visszatérítés
Mikor melyiket? Felhasználási esetek
Reserved Instance javasolt, ha:
Tudjuk, hogy hosszú távon fix kapacitásra lesz szükségünk (pl. 7×24-ben futó webalkalmazás)
Nem várható jelentős változás a példánytípusban, régióban vagy OS-ben
Az EC2 az elsődleges költségforrásunk
Savings Plan javasolt, ha:
Gyakran változik a példánytípus, régió, vagy konténeres/Lambda alapú az architektúra
Több szolgáltatás költségét akarjuk optimalizálni egyszerre
Nem szeretnénk példányhoz kötött döntéseket hozni
Összegzés
Mind a Reserved Instance (foglalt példány), mind a Savings Plan (megtakarítási terv) hatékony eszköz az AWS költségek optimalizálására. A választás kulcsa az, hogy mennyire fix az infrastruktúránk és mennyire fontos a rugalmasság. Kezdőként érdemes a Savings Plan-nel kezdeni, különösen ha dinamikus vagy kísérletezős környezetben dolgozunk. Ha viszont stabil termékkörnyezetet futtatunk, a Reserved Instance biztosíthatja a legnagyobb megtakarítást.
Savings Plan vs Reserved Instance – Gyors összehasonlítás
Tulajdonság
Savings Plan
Reserved Instance (RI)
Rugalmasság
Magas (Compute SP szinten kiemelkedő)
Alacsony (kötött példánytípus, régió stb.)
Megtakartítható költség
Közepes–magas (akár ~66%)
Magas (akár ~72%)
Elköteleződés időtartama
1 vagy 3 év
1 vagy 3 év
Példány típusának változtatása
Lehetséges (Compute SP esetén)
Nem lehetséges
Szolgáltatások köre
EC2, Fargate, Lambda
Főleg EC2
Felhasználás módja
Automatikusan alkalmazva költés alapján
Előre lefoglalt példányhoz kötött
Legjobb felhasználási eset
Dinamikus vagy konténeres környezet
Állandó példányhasználat fix igényekkel
Fizetési lehetőségek
Előre, részben előre vagy havi
Ugyanez (No Upfront, Partial, All Upfront)
Ez a táblázat segíthet gyorsan átlátni a fő különbségeket, és a saját igényeinkhez legjobban illeszkedő megoldást választani.
Ne feledd! Ez minden esetben elköteleződéssel jár. Azaz akkor is fizetned kell, ha nem használod ki a hűségszerződésben foglaltakat. Ezért jól gondold át, mielőtt beleugrasz.
Ahogy a legutóbbi cikkemben írtam a felhőben időről-időre lesznek olyan fel nem használt szabad kapacitások, amelyek bizonyos szempontból veszteséget termelnek a szolgáltatónak. Kíváncsi vagyok, vajon azóta megismerd-e az Azure Spot VM-et. Ennek párja az AWS-ben az EC2 Spot Instance (röviden: Spot Instance). Ma ezt szeretném nektek bemutatni kicsit közelebbről, hátha kedvet kaptok és kipróbáljátok, vagy éppen olyan projekten dolgoztok, ahol ez a tökéletes választás.
Tehát az Amazon Web Services (AWS) is lehetőséget kínál arra, hogy akár 90%-kal olcsóbban használjunk számítási erőforrásokat – ez a Spot instance. Ez a lehetőség különösen vonzó lehet fejlesztőknek, startupoknak és minden olyan technológiai csapatnak, amely rugalmas workload-okon dolgozik, és szeretné optimalizálni az infrastruktúra költségeit.
Mi az az AWS Spot instance?
Az AWS Spot instance olyan virtuális gép (EC2 instance), amit az AWS fel nem használt kapacitásából kínál. Mivel ezek az erőforrások „feleslegesek”, az áruk jelentősen alacsonyabb, mint az on-demand (igény szerinti) vagy reserved instance-oké.
A felhasználók licitálás nélkül, rugalmas áron vehetnek igénybe Spot Instance-okat, és az AWS bármikor visszavonhatja őket, ha a kapacitásra másnak van szüksége. Ezért a Spot instance nem minden megoldáshoz ideális – de bizonyos esetekben hatalmas előnyt jelent.
Mikor érdemes Spot instance-ot használni?
A Spot instance különösen hasznos olyan feladatoknál, amelyek:
Nem időkritikusak (azaz nem okoz üzletileg kárt, ha a gép leáll)
Rövid ideig tartanak vagy batch jellegűek (20 perc – 1 órás feladatok, vagy olyan tömegesen futtatandó script-ek amelyeknek rövid időre nagy számítási kapacitásra van szüksége. Pl.: CI/CD pipeline-ok, konténeres munkafolyamatok)
Párhuzamosíthatók (pl. batch feldolgozás)
Ár és megtakarítás
A legnagyobb előny az ár: Spot instance-ok akár 70-90%-kal olcsóbbak lehetnek az on-demand áraknál. Az ár dinamikusan változik a kereslet-kínálat alapján, de nem kell manuálisan licitálni – az AWS automatikusan a legalacsonyabb aktuális áron biztosítja az erőforrást.
Korlátok és kockázatok
A Spot instance legnagyobb hátránya a bizonytalan rendelkezésre állás. Ha az AWS-nek szüksége van az erőforrásra, akkor értesítést küld a leállításról, és 2 percen belül leállítja az instance-ot. Ezért fontos olyan megoldásokat futtatni rajta, amelyek képesek kezelni ezt a megszakítást.
További korlátok:
Nem garantált a futási idő (lehet hogy több hét, lehet hogy csak egy óra)
Egyes régiókban vagy instance típusoknál korlátozott a kapacitás
A Spot instance-ok nem csak egyedi EC2 példányokhoz érhetők el. Az AWS világa számos olyan szolgáltatást kínál, ahol beépítve használhatjuk a Spot kapacitást – akár automatikus méretezéssel, konténerkezeléssel vagy teljesen menedzselt környezetekkel kombinálva. Íme néhány jelentős terület:
1. EC2 Auto Scaling Group (ASG)
Az Auto Scaling Group lehetővé teszi vegyes példánytípusok és ármodellek használatát. Például beállíthatjuk, hogy a csoport 70%-a Spot, 30%-a on-demand példányokból álljon. A rendszer automatikusan pótlást végez, ha egy Spot példány megszűnik.
2. Elastic Beanstalk
A Beanstalk egy platformszintű szolgáltatás, amely leegyszerűsíti az alkalmazások telepítését. Beállítható, hogy a háttérben futó EC2 példányok részben vagy teljesen Spot instance-ok legyenek. Ez ideális webalkalmazások költséghatékony futtatásához.
3. Amazon EKS (Elastic Kubernetes Service)
Az EKS Kubernetes klasztereknél támogatja a Spot alapú node-okat. Vegyes node pool segítségével lehetőség van kevésbé kritikus podokat Spot gépekre ütemezni, míg fontos szolgáltatásokat on-demand node-okon futtatunk.
4. AWS Batch
Az AWS Batch egy batch-alapú feldolgozási szolgáltatás, amely automatikusan skálázza az erőforrásokat – beleértve a Spot instance-okat is. Ez ideális például tudományos szimulációk, nagy volumenű renderelés vagy adatelemzés során.
5. Amazon EMR (Elastic MapReduce)
EMR használható Spot instance-okra építve is, főleg Hadoop, Spark vagy Presto alapú analitikai feladatokra. A nem kritikus worker node-ok Spot alapon futtathatók, míg a master node on-demand példány lehet a stabilitás érdekében.
6. Amazon ECS (Elastic Container Service)
Konténeres környezetben, főleg Fargate spot üzemmóddal vagy EC2 alapú klaszterekben, költséghatékonyan futtathatók konténerek Spot instance-okon, ideális CI/CD pipeline-okhoz vagy rövid életű mikroszolgáltatásokhoz.
7. SageMaker
A SageMaker modellek tanításánál is használható Spot training, amely jelentős költségcsökkentést kínál hosszabb, erőforrás-igényes tréning folyamatok során. Az AWS automatikusan menti az állapotot és folytatja, ha egy Spot gép kiesik.
8. Dev/Test környezetek
Fejlesztési és tesztelési környezetek gyakran nem kritikusak – ideális jelöltek a Spot instance-alapú futtatásra. Automatikusan indíthatók, leállíthatók és újraindíthatók anélkül, hogy ez éles rendszereket veszélyeztetne.
9. CI/CD pipeline-ok
Build, teszt és deploy pipeline-ok gyakran futnak rövid ideig és gyakran – ezek kiválóan optimalizálhatók Spot példányokkal, főleg ha konténeres vagy serverless architektúrában futnak.
10. Gépi tanulás, renderelés, transzkódolás
Minden olyan folyamat, ami párhuzamosítható, szakaszos és újraindítható – például videók transzkódolása, képfeldolgozás vagy gépi tanulásos modellek tanítása – ideálisan futtatható Spot példányokon.
Hogyan lehet biztonságosan használni?
Spot Fleet vagy Auto Scaling Group Automatikusan kezeli az elérhető Spot instance-okat, és ha kell, más instance típussal pótolja.
Checkpointing A folyamat időszakos mentése lehetővé teszi a gyors visszaállást.
Mixed Instance stratégia Kombinálható on-demand és Spot példányokkal egy szolgáltatás, így növelve a rendelkezésre állást.
Containerizáció és Kubernetes A konténeres architektúrák, különösen az EKS, ideálisan kezelik a dinamikusan változó Spot környezeteket.
Összefoglalás
Az AWS Spot instance egy kiváló eszköz azoknak, akik költséghatékonyan szeretnék működtetni nem kritikus feladataikat a felhőben. Bár kompromisszumot igényel a rendelkezésre állás terén, megfelelő architektúrával és tervezéssel rengeteg pénzt lehet vele megtakarítani.
A Spot instance-ok ma már szinte minden jelentős AWS szolgáltatásba integrálhatók. Nem csak a költségek csökkentését szolgálják, hanem lehetőséget nyújtanak a rugalmas, skálázható és optimalizált architektúrák kialakítására is.
A kulcs a tudatos tervezés – meg kell érteni, hol van szükség állandó rendelkezésre állásra, és hol engedhetjük meg a rugalmas, megszakítható infrastruktúrát.
A felhőszolgáltatások világában egyre több lehetőség nyílik arra, hogy költséghatékonyan működtessük rendszereinket. Ez azonban mindig relatív és érdemes helyén kezelni ezt a „költséghatékony” szót, hiszen sok összetevő alapján jelenthetjük ki csupán, hogy valami valóban alacsonyabb áron vehető igénybe. Az egyik ilyen lehetőség az Azure Spot Virtual Machines (röviden: Spot VM). Ha szeretnél többet kihozni a költségkeretedből, de közben elfogadod a némi rugalmasságot igénylő működést, akkor ez a technológia neked szól!
Mi az az Azure Spot VM?
Mindegyik felhőszolgáltató esetén igaz, hogy készen kell állni a felhasználók növekvő és azonnali igényeire. Emiatt folyamatosan bővítik a kapacitásukat. Emellett az ügyfelek nem csupán bővítik rendszereiket, hanem a skálázáson keresztül igyekeznek optimalizálni a rendszer kapacitását és a költségeket. Ennek következménye, hogy a felhőben időről-időre lesznek olyan fel nem használt szabad kapacitások, amelyek bizonyos szempontból veszteséget termelnek a szolgáltatónak. Ezt felismerték a felhőszolgáltatók (Azure, AWS, Google) és ezt a szabad, fel nem használt kapacitást igyekeznek tovább értékesíteni ügyfeleik részére. És így jelent meg minden szolgáltatónál a Spot VM.
Az Azure Spot VM egy olyan típusú virtuális gép, amelyet az Azure a kihasználatlan kapacitásaiból kínál rendkívül kedvező áron. Ezeket a VM-eket lényegesen olcsóbban bérelheted, mint a hagyományos, „pay-as-you-go” típusú VM-eket – akár 70-90%-os megtakarítás is elérhető.
Mikor érdemes használni?
A Spot VM ideális olyan feladatokhoz, amelyek:
Nem időkritikusak (azaz nem okoz üzletileg kárt, ha a gép leáll)
Rövid ideig tartanak vagy batch jellegűek (20 perc – 1 órás feladatok, vagy olyan tömegesen futtatandó script-ek amelyeknek rövid időre nagy számítási kapacitásra van szüksége)
Példák:
Adatfeldolgozás
Tesztelés és CI/CD pipeline futtatás
Machine learning modellek tanítása
Nagy számításigényű, de megszakítható feladatok
Ár és költségelőnyök
A Spot VM-ek ára dinamikusan változik, attól függően, hogy mennyi szabad kapacitás áll rendelkezésre az Azure régióiban. Nincs garantált ár, de jellemzően jóval olcsóbb, mint a standard VM-ek, amelyeket listaáron vehetünk igénybe. Az árak követésére és előrejelzésére az Azure kínál API-kat és kalkulátorokat is. Emellett van egy kimondottan erre szakosodott weboldal, amit én is rendszeresen használok: https://instances.vantage.sh/azure
Ha valaki elmélyed ebben, akkor hamar rájön, hogy igen jó áron lehet így virtuális gépekhez jutni.
Fontos: Ellentétben a foglalt példányokkal (reserved instance) vagy költségcsökkentési tervekkel (savings plan) szemben, itt nincs kötelezettségvállalás – csak addig fizetsz, amíg használhatod a VM-et.
Milyen korlátai vannak?
Ez eddig nagyon jól hangzik. Igaz? Természetesen a Spot VM-ek használata bizonyos kockázatokat és korlátozásokat hoz magával:
Bármikor megszakíthatók előzetes értesítés nélkül, ha az Azure-nak szüksége van az erőforrásra.
Nincs SLA (Service Level Agreement), tehát nem garantált a rendelkezésre állás.
Nem minden VM-típus és régió támogatja.
Általában nem alkalmas folyamatosan elérhető szolgáltatások futtatására (pl. webalkalmazások backend komponense).
Hogyan működik a megvonás?
Mivel ez a termék a felhőszolgáltató szabad kapacitását kínálja eladásra, így szükséges tudnunk, hogyan vonja meg tőlünk a szolgáltató az általunk igényelt Spot VM-et, amikor eljön az idő. Itt két lehetőség lehetséges:
Kapacitás alapján: Az Azure akkor szakítja meg a VM-edet, ha már nem tudja fenntartani a kapacitást. Tehát szksége van erre a kapacitásra azon ügyfeleinek, akik listaáron vásárolnak számítási kapacitást.
Ár alapján: Ha az aktuális ár meghaladja az általad beállított maximális árat, a gépet leállítják.
Használati lehetőségek és best practice-ek
Scale set-ekkel együtt: Érdemes Spot VM-eket autoscale beállításokkal, standard VM-ek mellett használni. Csak Spot VM-et nem szabad használni.
Állapotok mentése: Mentsd rendszeresen a munkát vagy modellek állapotát, hogy egy megszakítás után folytatni tudd. (fejlesztői környezeteknél fontos)
Mixelt környezet: Érdemes Spot és standard VM-eket kombinálni a költség és megbízhatóság optimalizálása érdekében.
Beállítás egyszerűen
Az Azure Portalon, CLI-n vagy Terraform segítségével is könnyedén indíthatsz Spot VM-et. A létrehozáskor csak be kell pipálnod a „Futtatás Azure Spot-kedvezménnyel” opciót, és megadhatod a maximális árat vagy választasz kapacitás alapú prioritást.
A többi lépés teljesen megeggyezik azzal, amikor egy hagyományos virtuális gépet hozunk létre.
Összefoglalás
Tulajdonság
Spot VM
Ár
Nagyon kedvező (akár -90%)
SLA
Nincs
Megszakíthatóság
Bármikor leállhat
Alkalmas
Rugalmas, nem időérzékeny munkákhoz
Nem ajánlott
Állandó, üzletkritikus szolgáltatásokhoz
Az Azure Spot VM kiváló választás, ha szeretnél költséget csökkenteni azokon a területeken, ahol megengedhető a megszakítás vagy a leállás. A tudatos tervezéssel és jó automatizációval a legtöbbet hozhatod ki ebből a lehetőségből – akár a fejlesztői környezetedben, akár a machine learning feladataid során.
Tipp: Kezdd el kis projektekkel és mérd fel, hogyan reagál a rendszered a megszakításokra. Így biztonságosan építhetsz rá éles rendszert is – ott, ahol érdemes!
Ha szeretnéd, elkészíthetek egy konkrét példát is, hogyan lehet Azure CLI-al vagy Terraform-mal Spot VM-et indítani. Érdekelne?
Korábban írtam már az infrastruktúra automatizálásáról és a DevOps megközelítés fontosságáról az informatikai projektekben. Ezen megközelítés neve Infrastructure as Code (IaC). A Terraform-al már kicsit ismerkedtünk, de minden felhőszolgáltatónak van valamilyen IaC megoldása. Olvashattál már az Azure esetén az ARM-ről és a Bicep-ről is.
AWS-ben a CloudFormation az a szolgáltatás, amely lehetővé teszi, hogy az infrastruktúrát kódként kezeljük – azaz sablonfájlok segítségével automatikusan hozzuk létre és kezeljük az AWS erőforrásokat.
Mi az AWS CloudFormation?
A CloudFormation egy sablonalapú eszköz, amely lehetővé teszi, hogy JSON vagy YAML fájlban írjuk le, milyen AWS erőforrásokat szeretnénk létrehozni – például EC2 példányokat, S3 tárolókat, IAM szerepköröket, VPC-ket stb.
A sablon betöltése után a CloudFormation létrehozza ezeket az erőforrásokat Stack formájában. A stack egy logikai egység, amely tartalmazza az összes erőforrást, amit egy adott sablon alapján hoztunk létre.
Miért érdemes a CloudFormation-t használni?
Az alábbi lista önmagáért beszél:
Kód nézet: YAML vagy JSON formátumban írhatjuk meg a sablonokat – ez könnyen verziózható, visszakövethető, automatizálható.
Grafikus nézet: Az AWS Console-on belül vizuálisan is megtekinthetjük a sablon struktúráját (Resource Map), így könnyen átlátható, mi mivel áll kapcsolatban.
Újrahasználhatóság: A sablonok paraméterezhetők, így ugyanaz a sablon használható több környezetben (pl. dev, test, prod).
Exportálás: Egy meglévő környezetből könnyen generálhatunk sablont, amit újra felhasználhatunk máshol.
Rollback és állapotkezelés: Ha egy stack létrehozása során hiba történik, a CloudFormation automatikusan visszaállítja a korábbi állapotot.
Integráció más AWS eszközökkel: Például CodePipeline vagy Service Catalog támogatás.
Ha megnézzük ezt a listát, akkor láthatjuk, hogy a CloudFormation erősségei vitathatatlanok.
Egyszerű példa: Egy S3 tároló létrehozása
Ez a példa bemutatja, hogyan lehet egyetlen S3 tárolót létrehozni YAML-ben:
Ezek használatáról egy következő cikkben írok részletesebben.
Az AWS CloudFormation hatalmas segítség mindazok számára, akik szeretnék infrastruktúrájukat kóddá alakítani. Kezdőknek is ideális, mivel a sablonokat akár vizuálisan is generálhatják és módosíthatják, míg a haladó felhasználók számára teljes automatizálást tesz lehetővé CI/CD pipeline-okban.
Ha komolyan gondolod a felhőalapú rendszerek kiépítését, a CloudFormation ismerete egy igazi svájcibicska lehet a kezedben. 🙂
Minden informatikai rendszerben kiemelkedő szerepet tölt be a jogosultságkezelés, hiszen ez határozza meg, hogy a rendszer mely részéhez ki és hogyan férhet hozzá. Ezzel egyidőben a jogosultságkezelési megoldások bonyolulttá tehetik ezt a területet, amelybe sokszor belezavarodhatunk. Ez sajnos egy valós probléma a mindennapokban.
A felhőben sincs ez másképp. Minden felhőszolgáltató, kicsit másképp oldja meg ezt a feladatot, annak ellenére, hogy az alapelv emögött ugyanaz: mindenki a számára kijelölt szerepkörök szerint férjen hozzá a felhő szolgáltatásaihoz.
AWS-ben az IAM (Identity and Access Management) rendszeren keresztül tudjuk kezelni a jogosultságokat. Itt azonban nem csupán a jól ismert felhasználók, felhasználói csoportok szerepelnek, hanem szerepkörök (role) és jogosultságpolitika (policy) is. Ezek használata azonban habár jól körülhatárolható, mégis sok fejfájást okoz a kezdőknek.
AWS-ben gyakran találkozom én is azzal a kérdéssel, hogy mi az a IAM szerepkör (IAM Role), és miben különbözik a jogosultságpolitika (IAM Policy). Sokan nehezen értik meg ezt a két fogalmat, pedig az IAM (Identity and Access Management) az egyik legfontosabb biztonsági pillére a felhőalapú rendszereknek.
Ebben a cikkben ehhez szeretnénk egy kis segítséget adni, bemutatva a különbségeket, használati eseteket, és gyakorlati példákat is, hogy értsd, ne csak használd az AWS jogosultságkezelését.
Mi az IAM (Identity and Access Management)?
Az IAM lehetővé teszi, hogy meghatározd:
Ki léphet be az AWS-be
Milyen műveleteket hajthat végre
Mely erőforrásokon
Az IAM az alábbi fő elemekkel dolgozik:
Elem
Leírás
IAM User
Egy AWS felhasználó (pl. fejlesztő, tesztelő)
IAM Group
Több user közös kezelése
IAM Policy
JSON-alapú jogosultságlista
IAM Role
Ideiglenes szerepkör, amelyet user vagy szolgáltatás vehet fel
IAM Policy – Mit lehet csinálni?
Egy IAM Policy (jogosultságpolitika) egy JSON formátumú dokumentum, amely pontosan meghatározza, hogy egy adott felhasználó, csoport vagy szerepkör milyen műveleteket hajthat végre, milyen AWS-erőforrásokon, és milyen feltételek mellett.
Ez a dokumentum a következőket tartalmazza:
Effect: A művelet engedélyezése ("Allow") vagy tiltása ("Deny").
Action: Az engedélyezett vagy tiltott AWS műveletek (pl. s3:PutObject, ec2:StartInstances).
Resource: Az érintett AWS-erőforrások, például egy konkrét S3 bucket vagy EC2 instance.
Condition(opcionális): További megszorítások, pl. csak bizonyos IP-címről vagy csak többfaktoros hitelesítés esetén érvényes a policy.
Miért fontos?
Az IAM Policy határozza meg, hogy valaki mit tehet meg az AWS-ben és mit nem. Ezáltal kulcsszerepe van az AWS-fiók biztonságos és kontrollált használatában.
Előre adott, vagy nekem kell kitalálni?
Amikor a policy-k szóba kerülnek az alábbi kérdés is felvetődik:
A policy-ket nekem kell megírnom, vagy vannak előre elkészített sablonok is?
A válasz pedig: mindkettő lehetséges, az AWS kétféle policy-típust támogat:
A. Managed Policies – előre definiált, újrahasznosítható
Ezeket az AWS hozta létre, és sok tipikus szerepkört lefednek (pl. olvasás S3-ból, teljes hozzáférés DynamoDB-hez).
Ez a policy lehetővé teszi, hogy a megcélzott szereplő olvasni tudjon a egy-pelda-bucket nevű S3 tárolóból, de nem tud írni vagy törölni.
IAM Role – Ki és mikor kaphat jogosultságokat?
Egy IAM Role, vagyis szerepkör, egy olyan AWS-identitás, amely nem egy adott felhasználóhoz van kötve, hanem ideiglenesen felvehető jogosultságokat biztosít különböző szolgáltatásoknak, más felhasználóknak, vagy akár külső AWS-fiókoknak.
Miért hasznos?
Nem kell hozzá felhasználónév vagy jelszó, sem hozzáférési kulcs.
A szerepkört fel lehet venni egy adott helyzetben — például amikor egy Lambda függvény elindul, vagy amikor egy EC2 példány hozzáfér egy S3 buckethez.
A role-hoz tartozó policy-k határozzák meg, hogy az adott szerepet viselő milyen AWS-műveleteket hajthat végre.
Példák szerepkör használatra:
Szituáció
Szerepkör célja
Egy Lambda függvénynek adatot kell írnia egy DynamoDB táblába
A Lambda felveszi a „DynamoDBWriterRole”-t, amely ehhez jogot ad
Egy EC2 instance fájlokat tölt fel egy S3 bucketbe
Az EC2 példány a hozzárendelt szerepkörrel teheti ezt
Egy külső felhasználó ideiglenes admin hozzáférést kap
Az IAM Role ad neki meghatározott időre jogokat
Fontos: A Role csak addig érvényes, amíg „fel van véve” – ezáltal sokkal biztonságosabb hosszú távon, mint ha kulcsokat vagy jelszót adnál ki egy szolgáltatásnak.
Hogyan „veszi fel” egy AWS-identitás az IAM Role-t?
Attól függően, hogy ki vagy mi szeretné használni a szerepkört, a felvétel módja eltér. Alapvetően három fő helyzetvan:
A. AWS szolgáltatás (pl. EC2, Lambda) automatikusan felveszi a szerepkört
Amikor egy AWS-erőforráshoz (pl. EC2 példányhoz vagy Lambda függvényhez) hozzárendelsz egy IAM role-t, akkor az AWS rendszer automatikusan „felveszi” azt a szerepet a szolgáltatás nevében futásidőben.
Példa:
Létrehozol egy role-t, ami engedélyezi PutObject műveletet egy S3 bucketre.
Ezt a role-t hozzárendeled egy EC2 példányhoz.
Amikor a példány fut, és az alkalmazás próbál írni az S3 bucketbe, az AWS automatikusan „aláírja” a kérést a role jogosultságaival.
Tehát nem kell semmit kézzel csinálni – a role automatikusan aktiválódik.
B. Egy emberi felhasználó (IAM User vagy Federated User) kézzel veszi fel a szerepkört
Ez történik például akkor, amikor:
Belépsz az AWS Management Console-ba, és ott manuálisan „Assume Role”-t (szerepváltás, szerep felvétel) végzel.
CLI-ból vagy SDK-ból használsz sts:AssumeRole hívást egy másik szerepkör felvételére.
Amikor egy AWS-identitás (pl. ember vagy szolgáltatás) ideiglenesen magára ölt egy másik jogosultságkészletet, azt nevezzük „Assume Role”-nak, azaz szerepkör felvételének.
Ez a parancs egy másik szerepkört aktivál a felhasznalo1, majd visszaad egy ideiglenes hozzáférési kulcsot, amelyet a CLI vagy SDK automatikusan használ a következő hívásokhoz. Ez hasznos például akkor, ha egy fejlesztő csak ideiglenesen akar admin jogosultságot — a role 1 órára „felvehető”, utána lejár.
C. Egy külső AWS-fiókból vagy identitásszolgáltatóból (pl. Azure EntraID, Google Workspace) történik a role felvétel
Ez akkor történik, ha van egy cross-account access (amikor egy AWS-fiók felhasználója vagy szolgáltatása hozzáférést kap egy másik AWS-fiók erőforrásaihoz, jellemzően IAM szerepkörön keresztül.) vagy federált hitelesítés (amikor egy külső identitásszolgáltató – pl. Google, Azure EntraID, vállalati SSO – felhasználói AWS-hozzáférést kapnak anélkül, hogy külön IAM felhasználót hoznánk létre nekik.):
A külső felhasználó azonosítja magát (pl. SAML vagy OIDC segítségével).
Az AWS STS (Security Token Service) engedélyezi, hogy felvegyen egy role-t, amit előre engedélyeztél neki.
Ekkor is ideiglenes tokeneket kap, amelyeket aztán használhat.
Ez a technika például Single Sign-On (SSO) esetén működik így.
IAM Role vs Policy – A teljes kép
Elem
Leírás
Policy
Meghatározza, mit lehet csinálni (pl. olvasás, írás, törlés), hol (melyik erőforráson), milyen feltételekkel
Role
Meghatározza, ki és mikor kaphatja meg ezeket a jogosultságokat – a policy-t tartalmazza
Mikor lehet összekeverni?
Sok kezdő azon akad fenn, hogy a policy-k önmagukban nem „élnek”. Csak akkor működnek, ha:
Hozzá vannak rendelve egy user-hez, group-hoz vagy role-hoz.
A role-t valaki vagy valami ténylegesen „felveszi”.
Tippek a biztonságos használathoz
Használj role-t szolgáltatásokhoz, ne kulcsokat.
Csak annyi jogosultságot adj, amennyi szükséges – ez a „least privilege principle”.
Kerüld az Action: "*" és Resource: "*" használatát, kivéve teszteléskor.
Használj IAM policy simulator-t, hogy kipróbáld, mit engedélyez a policy.
Auditáld a role használatot a CloudTrail segítségével.
Összegzés
A szerepkör olyan, mint egy színes sapka, amit ideiglenesen felvehetsz – ez mutatja, milyen szerepben vagy. A policy pedig az a szabálykönyv, ami meghatározza, hogy az adott sapka viselője mit tehet meg.
Az IT világában egyre többen fordulnak a felhőtechnológiák felé, és sokan azzal a meggyőződéssel kezdenek neki a tanulásnak, hogy egy tanúsítvány megszerzése az első lépés a sikeres karrier felé. De vajon valóban ez a helyes út? Ebben a cikkben igyekszem objektíven, mégis a saját véleményemet megformálva megvizsgálni a tanúsítványok és a valós tapasztalatok szerepét a felhőalapú karrierépítésben.
A tanúsítványok szerepe
A tanúsítványok kétségtelenül fontosak az IT világában. Több szempontból is hasznosak lehetnek:
Strukturált tanulási útmutató: Segítenek a tanulóknak egy jól meghatározott tananyagot követni.
Álláspályázati előny: Sok munkaadónál előnyt jelent, ha valaki rendelkezik releváns tanúsítványokkal (pl. AWS Certified Solutions Architect, Azure Administrator, Google Cloud Professional Engineer, stb.).
Bizonyíték a tudásról: Egy jól megválasztott tanúsítvány igazolhatja az adott terület elméleti ismeretét.
Mindezek ellenére a tanúsítvány nem cél, hanem eszköz. Ha csak a tanúsítványra koncentrálsz, az tévútra vezethet, mert egy papír önmagában nem ad valódi tudást. A sikeres felhő karrierhez először értsd meg, próbáld ki, építs vele – a tanúsítvány pedig majd igazolja, hogy valóban értesz hozzá!
A valós tapasztalat elengedhetetlen
A valódi munkakörnyezetben egy tanúsítvány önmagában nem elegendő. Az alábbi tények ezt támasztják alá:
Az IT problémák nem feleletválasztósak: A legtöbb tanúsítvány-vizsga tesztalapú, de a való életben a hibakeresés, teljes rendszerek kiépítése és optimalizálása nem ABC-válaszokból áll.
A gyakorlati tapasztalat bizonyítja a kompetenciát: Egy interjún könnyen kiderül, ha valaki csak elméletben ismeri a technológiákat, de még sosem telepített, konfigurált vagy üzemeltetett éles rendszereket.
A komplex rendszerek nem taníthatók meg kizárólag könyvből: Egy multi-cloud vagy nagyvállalati felhőkörnyezet megértése sokkal több, mint az egyes szolgáltatások definícióinak ismerete.
A vizsgák csak a bevált gyakorlatokra koncentrálnak: A vizsgákon azt kell bizonyítanod, hogy ismered a gyártók által ajánlott legjobb gyakorlatokat. A való életben viszont ezek önmagukban nem elegendők. Ahhoz, hogy időtálló, költséghatékony és az ügyfél igényeire szabott megoldásokat építs, többre van szükség: kreativitásra, problémamegoldásra és alkalmazkodóképességre. Ha csak a vizsgák anyagára támaszkodsz, hamar olyan helyzetekbe kerülhetsz, ahol a tankönyvi válaszok nem működnek.
Mennyi idő után érdemes a tanúsítványra koncentrálni?
A tapasztalatok alapján egy minimum 6-12 hónapos gyakorlati időszak ajánlott, mielőtt valaki komolyan elkezdene készülni egy tanúsítvány megszerzésére. Ez idő alatt érdemes:
Saját projekteket építeni AWS, Azure vagy GCP környezetben.
Hibakeresési és optimalizálási feladatokat végezni, akár saját környezetben, akár valós munkakörnyezetben.
Valós infrastruktúrát menedzselni, még ha csak egy kísérleti laborban is.
Ez a tapasztalat segít abban, hogy a tanúsítvány megszerzése ne csak egy elméleti tudást igazoljon, hanem valódi kompetenciát is tükrözzön.
A vizsgára külön készülni kell
A tanúsítvány megszerzése nem csupán technikai tudást igényel. A vizsgák speciális nyelvezettel rendelkeznek, amelynek értelmezése önmagában kihívás lehet.
Magabiztos angol nyelvtudás szükséges: A vizsgákon sokszor összetett mondatokkal és egyedi kifejezésekkel találkozunk. A kérdések gyakran nem egyértelműek, és ha valaki nem érti pontosan a megfogalmazást, könnyen hibás választ adhat.
A vizsganyelvezet külön tanulást igényel: A kérdések sokszor rejtett célzásokat tartalmaznak, ezért nem elég csupán a szolgáltatások működését ismerni – „olvasni kell a sorok között”.
Érdemes vizsgafelkészítő tananyagokat és próbateszteket (brain dump) használni, hogy megértsük a gyakran alkalmazott megfogalmazásokat és logikát.
A helyes megközelítés
Ha valaki valóban sikeres akar lenni a felhőtechnológiák világában, az alábbi stratégiát érdemes követnie:
Gyakorolj és építs saját projekteket: Használj AWS ingyenes szolgáltatásokat, Azure Bicep-et vagy GCP Sandboxot saját rendszerek kialakítására. A felhőtechnológiák elsajátítása hosszú távú befektetést igényel. Az ingyenes lehetőségek jó kiindulópontot jelentenek, de a valódi tudás megszerzéséhez előbb-utóbb érdemes anyagi ráfordítást is tervezni. Nem kell hatalmas összegeket költeni, de a hatékony fejlődés érdekében érdemes havi néhány tízezer forintot szánni fizetős felhőszolgáltatásokra és laborkörnyezetekre. Ezek a befektetések jelentősen felgyorsítják a tanulási folyamatot és valós tapasztalatokat nyújtanak.
Vegyél részt open-source projektekben: GitHub-on rengeteg olyan projekt található, amelyben a felhőalapú technológiák alkalmazása révén valós tapasztalatot szerezhetsz.
Keress online képzéseket: A Gerilla Mentor Klubnál sok-sok képzés (soft- és hard skill) közül választhatsz. Vagy ott van az Udemy, ahol sokszor, csupán néhány forintért juthatsz a legjobb anyagokhoz.
Használj interaktív laborkörnyezeteket: KodeKloud és hasonló platformok kínálnak éles környezetben végrehajtható gyakorlati feladatokat.
Tanúsítványt akkor szerezz, ha már van mögötte tudás – Így a vizsga valódi visszaigazolása lesz annak, amit már tudsz, és nem egy gyorsan megszerzett papír.
Következtetés
A tanúsítványok értékesek, de csak akkor, ha mögöttük valódi tapasztalat áll. Ha valaki kizárólag a tanúsítványokra koncentrál, az tévútra vezethet, mert a munkaerőpiacon az éles helyzetek kezelése és a valódi problémamegoldó képesség a legfontosabb.
Először értsd meg, próbáld ki, játsz vele – a tanúsítvány pedig majd igazolja, hogy valóban értesz hozzá!
Amikor valaki a Docker-ről olvas, vagy tanul, szinte meseszerű annak története és már használatba is vennék, hiszem megváltoztatja a világot. Akkor mire is várunk? Mint minden területen, itt sem felhőmentes az égbolt. A Docker-es, konténeres világ is küzd bizonyos kihívásokkal.
A konténerek kiváló módot kínálnak az alkalmazások csomagolására, szállítására és futtatására
– ez a Docker mottója.
A fejlesztői élmény jelentősen javult a konténereknek köszönhetően. A konténerek lehetővé tették a fejlesztők számára, hogy könnyedén hozzanak létre konténerképeket (docker image), egyszerűen megosszák azokat tároló rendszereken keresztül (DockerHub, ACR, ECR), és hatékony felhasználói élményt biztosítsanak a konténerek kezeléséhez.
Azonban a konténerek nagy léptékű kezelése és egy biztonságos, elosztott alkalmazás tervezése a mikroservices alapelvei szerint komoly kihívást jelenthet.
Hatékony lépés egy folyamatos integrációs és telepítési (CI/CD) folyamat kialakítása a konténerképek építéséhez, teszteléséhez és ellenőrzéséhez. Olyan eszközök, mint a Spinnaker, a Jenkins és a Helm hasznosak lehetnek ezen automatizmusok kialakításában és megvalósításában. Ez segít megbirkózni a folyamatosan változó környezet kihívásaival, és biztosítja, hogy a konténerek megfeleljenek a minimális követelményeknek.
Ezután szükséged lesz egy fürtre (cluster), amelyen futtathatod a konténereidet. Egy olyan rendszerre is szükség van, amely elindítja a konténereket, figyeli őket, és hiba esetén lecseréli vagy helyettesíti azokat. A gördülékeny frissítések és az egyszerű visszaállítások is kiemelten fontosak, valamint a nem használt erőforrások eltávolítása is elengedhetetlen.
Mindezek a műveletek rugalmas, skálázható és könnyen használható hálózati és tárolási megoldásokat igényelnek. Mivel a konténerek bármely munkavégző szerver tagon (worker node) elindulhatnak, a hálózatnak biztosítania kell az erőforrások összekapcsolását más konténerekkel, miközben a forgalmat biztonságosan el kell különíteni másoktól. Emellett olyan tárolási struktúrára van szükség, amely zökkenőmentesen biztosítja, újrahasznosítja vagy felszabadítja a tárhelyet.
Amikor Kubernetes választ ad ezekre a kérdésekre, az egyik legnagyobb kihívás mégis maguk az alkalmazások, amelyek a konténerekben futnak. Ezeket meg kell írni vagy újra kell írni úgy, hogy valóban megbízható és rugalmasan kapcsolódó mikroservice-ek legyenek. Egy jó kérdés, amin érdemes elgondolkodni:
Ha telepítenéd a Chaos Monkey-t, amely bármikor véletlenszerűen leállíthat bármelyik konténert, vajon az ügyfeleid észrevennék?
A konténerek forradalmasították az alkalmazásfejlesztést és -üzemeltetést, de a skálázhatóság, biztonság és automatizáció kihívásai miatt önmagukban nem elegendőek. A Kubernetes olyan eszközt biztosít, amely segít ezeket a problémákat kezelni, ám a sikeres bevezetéshez nemcsak az infrastruktúrát kell megfelelően kialakítani, hanem az alkalmazásokat is a konténerizált, elosztott rendszerek sajátosságaihoz kell igazítani.
A megfelelő CI/CD folyamatok, az erőforráskezelés és a skálázható architektúra kialakítása kulcsfontosságú a konténeres környezetek hatékony működtetéséhez. Végső soron a cél egy olyan rendszer kialakítása, amely nemcsak rugalmas és automatizált, hanem ellenálló is a meghibásodásokkal szemben – annyira, hogy akár egy Chaos Monkey sem tudná megingatni.
A Kubernetes lehetőséget biztosít arra, hogy a konténerizált alkalmazások kezelése egyszerűbbé és hatékonyabbá váljon, de a siker kulcsa a jól megtervezett architektúra és a folyamatos optimalizáció.
A következő lépés annak feltérképezése, hogy saját alkalmazásaink mennyire felelnek meg ezeknek az elveknek – és ha szükséges, hogyan alakíthatók át a jövőbiztos működés érdekében.
Sorozatunk előző részében megismerhettük a Kubernetes történetét, eredetét és hogy ki is fejleszti. Most megyünk tovább és rátérünk arra, hogyan is változtatta meg a világot a Kubernetes és a Docker.
A Kubernetes használata és a konténeres alkalmazások üzembe helyezése alapjaiban változtatja meg a fejlesztési és rendszergazdai megközelítést az alkalmazások telepítésében. Hagyományosan egy alkalmazás – például egy webszerver – monolitikus formában, egy dedikált szerveren futott. A növekvő webes forgalom hatására ezt az alkalmazást finomhangolták, majd egyre nagyobb teljesítményű hardverre költöztették. Idővel jelentős testreszabásokra volt szükség annak érdekében, hogy megfeleljen az aktuális terhelési igényeknek. Ez általában sok nehézséggel és magas költséggel társult. Ráadásul a tervezési feladatok (költség, kapacitás és üzemeltetés) sok emberi erőforrást emésztett fel.
A Kubernetes ehelyett egy teljesen más megközelítést kínál: egyetlen nagy teljesítményű szerver helyett számos kisebb szervert, azaz mikroservice-eket üzemeltet. Az alkalmazás szerver- és kliensoldali komponensei eleve úgy vannak kialakítva, hogy több ügynök (agent) legyen elérhető a kérések kiszolgálására. Ez a megoldás lehetővé teszi a dinamikus skálázást és a rugalmasságot. A klienseknek számítaniuk kell arra is, hogy a szerverfolyamatok időnként leállhatnak és újak veszik át a helyüket, ami a tranziensekre épülő szerverüzemeltetés alapja. Egy klasszikus Apache webszerver helyett például sok kisebb nginx szerver működik párhuzamosan, amelyek egyenként válaszolnak a bejövő kérésekre.
A Kubernetes előnyei: rugalmasság és automatizáció
A kisebb, átmeneti szolgáltatások használata lehetővé teszi a lazább komponenskötéseket (decoupling). A monolitikus alkalmazás egyes részeit dedikált, de tranziensebb mikroservice-ek vagy ügynökök váltják fel. Az egyes ügynökök és azok helyettesítői közötti kapcsolatot szolgáltatásokkal (services) biztosítjuk. Egy szolgáltatás összeköti a forgalmat az egyik komponensről a másikra (például egy frontend webszerverről egy backend adatbázisra), és kezeli az új IP-címeket vagy egyéb információkat, ha valamelyik komponens meghibásodik és újat kell beállítani helyette.
A kommunikáció teljes mértékben API-hívásokon alapul, ami nagy rugalmasságot biztosít. A Kubernetes a konfigurációs adatokat JSON formátumban tárolja az etcd adatbázisban, de a közösség általában YAML formátumban írja ezeket. A Kubernetes agent-ei a YAML fájlokat JSON formátumba alakítják át, mielőtt az adatbázisba mentenék őket. Ez lehetővé teszi az egyszerű konfigurálást és a gyors módosításokat.
Egy modern megoldás a skálázhatóságra
A Kubernetes alapját a Go programozási nyelv adja, amely egy hordozható és hatékony nyelv, egyfajta hibrid a C++, Python és Java között. Egyesek szerint ezeknek a nyelveknek a legjobb (mások szerint a legrosszabb) elemeit ötvözi. A Kubernetes használatával az alkalmazásüzemeltetés kevésbé függ a hardvertől, és inkább az automatizált skálázásra és a magas rendelkezésre állásra épít.
A Kubernetes nem csupán egy új technológia – egy új szemléletmód is, amely lehetővé teszi az alkalmazások hatékonyabb és rugalmasabb működését. A dinamikus skálázás, az automatizált erőforráskezelés és a mikroservice-alapú architektúra révén a modern alkalmazásüzemeltetés alapvető eszközévé vált.
A modern alkalmazásfejlesztés egyik alappillére a konténerizáció. Az olyan eszközök, mint a Docker, lehetővé teszik, hogy alkalmazásainkat izolált, skálázható konténerekben futtassuk. A konténerizációhoz azonban szükség van egy megbízható tárhelyre, ahol a konténerképeket tárolhatjuk, kezelhetjük és megoszthatjuk.
Pontosan ezt a bevezetőt írtam az AWS ECR-ről szóló cikkben is. Úgy gondoltam, hogy ebben sem lesz ez másképp. Most azonban az Azure tárólóregisztrációs adatbázisáról lesz szó, az ACR-ről.
Az Azure Container Registry (ACR) egy teljes mértékben felügyelt, privát konténerregiszter az Azure felhőplatformon, amely lehetővé teszi a Docker és OCI (Open Container Initiative) kompatibilis konténerek tárolását és kezelését. Az ACR különösen hasznos azoknak, akik Kubernetes-t (AKS – Azure Kubernetes Service) vagy más konténeres megoldásokat használnak, de kezdők számára is könnyen érthető és kezelhető.
Miért van szükség az ACR-re?
A konténerizált alkalmazások egyik alapvető eleme a konténerregiszter, amely a konténerképek tárolására és elérhetővé tételére szolgál. Bár használhatunk publikus tárolókat is, például a Docker Hub-ot, a vállalati vagy biztonsági szempontból érzékeny környezetekben érdemes egy privát megoldást választani, mint az ACR.
Előnyei:
Privát és biztonságos: Csak az engedélyezett felhasználók és szolgáltatások férhetnek hozzá.
Azure integráció: Könnyen csatlakoztatható Azure Kubernetes Service-hez (AKS), App Service-hez és más Azure szolgáltatásokhoz.
Automatizált építés és frissítés: Beállíthatunk automatikus képépítést és frissítést webhookok vagy DevOps pipeline-ok segítségével.
Geo-replikáció: Több régióban is elérhetővé tehetjük a konténerképeket.
Az ACR struktúrája
Az ACR egy hierarchikus struktúrát követ, amely lehetővé teszi a különböző konténerképek és adattárolók rendezett kezelését:
Registry: Az ACR legfelső szintje, amely az összes tárolt képet kezeli.
Repository: Egy adott alkalmazás vagy verziótároló helye, ahol különböző verziójú képek találhatók.
Tag-ek: A különböző verziókat és build-eket azonosítják, például node-webapp:3.0.0, node-webapp:latest.
Hogyan tölthetek fel képet az ACR-be?
Ha van egy helyi Docker image, amelyet szeretnénk az ACR-be feltölteni:
Tag-elés az ACR nevével:
docker tag node-webapp:4.0.0 acrregistryneve.azurecr.io/node-webapp:4.0.0docker tag node-webapp:4.0.0 acrregistryneve.azurecr.io/node-webapp:latest
az acr repository list --name acrregistryneve --output table
Alkalmazás indítása az ACR-ben tárolt képből
A legegyszerűbb módja egy ACR-ben tárolt konténer futtatásának az Azure Container Instances (ACI) használata. Az ACI lehetővé teszi, hogy néhány parancs segítségével elindítsuk az alkalmazásunkat anélkül, hogy egy teljes Kubernetes klasztert kellene kezelni.
ACI erőforrás létrehozása és az ACR-ből való kép futtatása
az container show --resource-group eroforrascsoport --name node-container --query "{FQDN:ipAddress.fqdn}" --output table
Ez az egyszerű megoldás lehetővé teszi, hogy gyorsan és könnyedén futtassunk egy alkalmazást az ACR-ben tárolt képből anélkül, hogy mélyebb Kubernetes ismeretekre lenne szükség.
Életciklus és tárhely kezelés
Az ACR lehetőséget biztosít az életciklus és tárhely kezelésére:
Retention Policies: Beállíthatunk automatikus törlési szabályokat az elavult vagy nem használt képek eltávolítására.
Tiered Storage: Az ACR támogatja a különböző szintű tárhelyeket (Basic, Standard, Premium) az igényekhez igazítva.
Garbage Collection: Az ACR automatikusan törli a nem használt rétegeket, csökkentve ezzel a tárhelyhasználatot.
ACR integráció más Azure szolgáltatásokkal
Az ACR könnyen integrálható más Azure szolgáltatásokkal:
Azure Kubernetes Service (AKS): Automatikusan betölthető konténerképek az ACR-ből.
Azure DevOps: Pipeline-ok segítségével automatizálhatjuk a képépítést és publikálást.
Azure Functions: Konténerizált funkciók futtatása közvetlenül az ACR-ből.
Azure App Service: Webalkalmazások közvetlenül ACR-ből történő futtatása.
Összegzés
Az Azure Container Registry egy kiváló eszköz a konténerizált alkalmazások tárolására és kezelésére az Azure környezetben. Az ACR segítségével biztonságosan és hatékonyan dolgozhatunk konténerképekkel, integrálhatjuk azokat DevOps pipeline-okba, és közvetlenül felhasználhatjuk Azure szolgáltatásokban. Kezdőként érdemes kísérletezni az ACR használatával, és megtapasztalni, hogyan egyszerűsítheti a konténerkezelési folyamatokat.
Szerinted is jobb biztonságosan tárolni az alkalmazásainkat?