Mint biztosan tudod, az Amazon Web Services (AWS) a világ egyik vezető felhőszolgáltatója, amelyet világszerte cégek, fejlesztők és tanulók egyaránt használnak. Eddig ez volt az egyetlen szolgáltató, akinél nem kaphattunk ingyenes keretet arra, hogy kipróbáljuk a képességeit.
Ez azonban nemrég megváltozott. Így, ha most gondolkodsz azon, hogy kipróbáld az AWS szolgáltatásait, jó hírem van: 2025 július 15-től, az új fiók létrehozásakor minden felhasználó automatikusan 200 USDértékű ingyen kreditet kap. Ez a kedvezmény nagy segítséget jelenthet azoknak, akik szeretnék megismerni a felhő alapjait, kísérletezni szeretnének különböző szolgáltatásokkal, vagy elindulnának a felhőalapú tanulás útján.
Az AWS két konstrukciót kínál a kredit felhasználására. Az első lehetőség, hogy a teljes 200 USD keretet 6 hónapon belül elhasználjuk. Ebben az esetben, ha a keret elfogy, vagy lejár a határidő, a fiók nem használható tovább. Ez ideális választás azoknak, akik intenzíven szeretnének tesztelni és rövid idő alatt szeretnének minél több tapasztalatot szerezni.
A második lehetőség a hagyományos Pay-As-You-Go modell. Itt a kredit felhasználása után a rendszer automatikusan a megadott bankkártyáról vonja le a további használat költségeit. Ez a konstrukció rugalmasabb, és azoknak ajánlott, akik hosszabb távon is szeretnének AWS-t használni, vagy akár éles projekteket futtatni a felhőben.
Az AWS által kínált 200 USD kredit remek belépési lehetőség mind kezdőknek, mind haladó felhasználóknak. Az ingyenes keret segítségével biztonságosan, kockázatmentesen próbálhatók ki olyan szolgáltatások, mint az EC2 virtuális gépek, az S3 tárhely, a RDS adatbázisok, vagy akár a modern AI és gépi tanulási megoldások.
Ha tehát szeretnél lépést tartani a jövő technológiáival és gyakorlatban is kipróbálni a felhőmegoldásokat, érdemes kihasználni ezt a lehetőséget.
Az AWS fiók regisztrációja egyszerű, néhány perc alatt elvégezhető, és az ingyen kredit segítségével azonnal elkezdheted a gyakorlati tanulást.
Ugye nem is olyan bonyolult. Neked van már AWS fiókod?
Az elmúlt hónapokban többször írtam már a Kubernetes fejlődéséről, arról, hogyan vált a modern alkalmazásfejlesztés egyik legfontosabb alapkövévé. Szó esett a fürtök (cluster) működéséről, a kapszulák (pod) rugalmasságáról és arról, miként segíti a technológia a cégeket digitális jelenlétük megerősítésében. Most elérkeztünk egy újabb fejezethez: nézzük meg közelebbről, mi is az a csomópont (node), amely nélkül egy Kubernetes környezet nem létezhetne.
Képzeljünk el egy várost, ahol minden ház más-más feladatot lát el. Van, amelyikben ételt főznek, másutt ruhát készítenek, máshol pedig tudást gyűjtenek. A város lakói a központi tér körül gyűlnek össze, ahol szabályok szerint szervezik a közös életet. A Kubernetes világában ez a „város” a fürt, a „házak” pedig a csomópontok – mindegyikük a maga erőforrásaival és feladataival járul hozzá a közösség működéséhez.
Mi az a csomópont?
A csomópont (node) egy olyan API objektum, amely a fürt részeként jelenik meg. Gyakorlatilag egy gépet jelent – lehet fizikai szerver vagy virtuális gép –, amely futtatja a kapszulákat. A vezérlő sík (control plane) mindig Linux alapú, a munkavégző (worker) csomópontok azonban lehetnek akár Microsoft Windows Server rendszeren is.
Minden csomópontot csak akkor lehet bevonni a fürtbe, ha a szükséges szoftverek telepítve vannak rá, és képes kommunikálni az API szerverrel. Új csomópont hozzáadására például a kubeadm join parancs szolgál, míg a vezérlő síkot a kubeadm init segítségével hozhatjuk létre.
Mi történik, ha egy csomópont „eltűnik”?
A Kubernetes folyamatosan figyeli, hogy a csomópontok rendben működnek-e. Ha az API szerver öt percen át nem tud kommunikálni a csomóponton futó kubelet-tel, a rendszer automatikusan „nem elérhetőnek” jelöli azt. Ilyenkor a kapszulák kényszerített törlése helyett azok evakuálása történik, majd később, a kapcsolat helyreállásakor újra elérhetővé válnak.
Minden csomópont objektum a kube-node-lease névtérben található. Ha teljesen el akarunk távolítani egy csomópontot a fürtből, a folyamat kétlépcsős: először a kubectl delete node <node-név> paranccsal töröljük az API szerverből, majd a kubeadm reset segítségével kitisztítjuk a fürtspecifikus adatokat. Újrafelhasználás esetén még az iptables szabályokat is érdemes eltávolítani.
Hogyan figyelhetjük az erőforrásokat?
A kubectl describe node parancs részletes képet ad a csomópont aktuális állapotáról: láthatjuk a CPU és memória kapacitást, a futó kapszulákat, valamint a kért és limitált erőforrásokat. Ez a mindennapi üzemeltetés egyik kulcseszköze, hiszen segít a tervezésben és a problémák gyors diagnosztizálásában.
Összegzés A csomópontok a Kubernetes fürt alapvető építőkövei. Nélkülük nem tudnának futni a kapszulák, és nem lenne értelmezhető maga a rendszer. A csomópontok biztosítják az erőforrásokat, és a vezérlő sík által meghatározott szabályok szerint működnek. Megértésük nélkülözhetetlen a Kubernetes működésének átlátásához.
Sokat tudunk már a Kubernetes-ről a korábbi cikkek alapján. A következő cikkekben egy egész más világba szeretnélek elkaluzolni Titeket. És mielőtt ezt megtenném, ismételjünk kicsit. Ahhoz, hogy még jobban megértsük, hogyan működik ez a konténer-orchesztrációs rendszer, érdemes újra áttekinteni a legfontosabb építőelemeket.
Alapvető felépítés
Egy Kubernetes klaszter két fő részből áll:
vezérlősík (control plane): itt találhatók azok a komponensek, amelyek a teljes klasztert irányítják és a döntéseket hozzák.
munkacsomópontok (worker nodes): itt futnak ténylegesen a kapszulák, vagyis a felhasználói alkalmazások és szolgáltatások.
Egy kis ismétlés
Kube-apiserver
A kube-apiserver a központi kommunikációs csatorna. Minden komponens ezen keresztül lép kapcsolatba egymással. Ez biztosítja az API felületet, amelyen keresztül a felhasználók, az adminisztrátorok és a klaszteren belüli szolgáltatások utasításokat adhatnak.
etcd
A Kubernetes állapotát és konfigurációs adatait az etcd adatbázis tárolja. Ez egy kulcs-érték alapú, nagy megbízhatóságú adattár, amely csak a kube-apiserveren keresztül érhető el. Így garantált, hogy minden állapotváltozás központilag kerül kezelésre.
Az etcdctl parancssori eszközzel lehet közvetlenül lekérdezni az adatbázist, például a fürt aktuális állapotának ellenőrzésére.
Hálózat és cilium
A Kubernetes egyik kulcskérdése a hálózat. Minden kapszulának stabil hálózati azonosítóval kell rendelkeznie, és kommunikálnia kell más kapszulákkal vagy szolgáltatásokkal.
A cilium egy hálózati plugin, amely fejlett megoldásokat kínál a hálózati forgalom irányítására, szűrésére és megfigyelésére. Segítségével jobban átláthatóvá válik, hogyan működik a kapszulák közötti hálózati kapcsolat.
Miért fontos a komponensek megértése?
A Kubernetes erőssége abban rejlik, hogy a komplex rendszert modulokra bontja. A vezérlősík komponensei biztosítják a stabilitást, a munkacsomópontok pedig a kapszulák futtatásáért felelősek. A két réteg között a kube-apiserver a „híd”, amely mindent összeköt.
Aki megérti ezeket az alapokat, sokkal könnyebben tud:
hibát keresni és elhárítani,
teljesítményt optimalizálni,
új szolgáltatásokat telepíteni,
vagy akár saját kiegészítőket fejleszteni.
Összegzés
A Kubernetes architektúra központi eleme a kube-apiserver, amely minden kommunikációt koordinál, és az etcd, amely az állapot tárolását biztosítja. Ezek köré épül a teljes rendszer, amely kapszulák futtatására, skálázására és kezelésére szolgál. A komponensek megismerése nélkülözhetetlen ahhoz, hogy magabiztosan dolgozhassunk Kubernetes környezetben.
Internetezési szokásaink sokat változtak az elmúlt években. Emellett az AI megjelenésével, egy új trend is megjelent: mindenki AI-t akar használni mindenhol. Mondhatjuk, hogy fejetetejére állt a világ, hiszen 2022 óta egy technológiai forradalom zajlik.
Ebben a hatalmas változásban, azt gondolnánk, hogy minden technológia új, úttörő és innovatív. Ez azonban nem nem teljesen igaz. Az internet és az ehhez kapcsolódó technológiák alapja még mindig ugyanaz, mint amikor megjelentek. Annak ellenére is, hogy körülöttük, szinte minden megváltozott. Ma egy ilyen megoldás kapcsén szeretnék nektek bemutatni egy Azure szolgáltatást.
Az interneten minden weboldal és alkalmazás mögött IP-címek állnak. Ezek a számok nehezen megjegyezhetők, ezért használjuk a domain neveket. A DNS (Domain Name System) olyan, mint egy univerzális telefonkönyv: amikor beírsz egy webcímet, a DNS kikeresi a megfelelő IP-címet. Erről, már az AWS Route 53 DNS megoldásáról szóló cikkben írtam, most pedig azt nézzük meg, hogyan működik mindez az Azure DNS szolgáltatásban.
Mi az Azure DNS?
Az Azure DNS egy felhőalapú névkiszolgáló, amely lehetővé teszi az általad birtokolt domain zónáinak és rekordjainak kezelését. Az Azure globális infrastruktúráját használja (ez azt jelenti, hogy a Microsoft világszerte elhelyezett adatközpontjaiban és peremhálózati (edge) helyein futnak a DNS-szerverek), így biztosítja a gyors, megbízható és magas rendelkezésre állású névfeloldást. A kezelése egyszerű, mert ugyanazokon az eszközökön keresztül történik, mint más Azure-erőforrásoké: Azure Portal, CLI, PowerShell, REST API vagy akár infrastruktúra mint kód megoldásokkal (pl. Terraform).
Miért érdemes használni?
Hagyományosan a DNS-t külön szolgáltatóknál vagy domain-regisztrátoroknál kezelték. Ha azonban már eleve Azure-t használsz, logikus lépés lehet a DNS-t is ide integrálni, hogy minden egy helyen kezelhető legyen. Ez egységesebb, biztonságosabb és könnyebben automatizálható üzemeltetést jelent. Emellett igen kényelmes is ez a helyzet.
Erősségek
Mik is az Azure DNS erősségei?
Megbízhatóság: A Microsoft globális névszerver-hálózata biztosítja, hogy a DNS-lekérdezések mindig gyorsak és elérhetők legyenek.
Biztonság: Az Azure Active Directory (EntraID) integráció lehetővé teszi a kifinomult jogosultságkezelést.
Egységes kezelés: Az összes erőforrásodhoz hasonlóan a DNS is ugyanazon az Azure-felületen kezelhető, így nem kell új rendszert megtanulni.
Automatizálhatóság: Könnyen integrálható CI/CD folyamatokba és infrastruktúra mint kód megoldásokba.
Privát DNS-zónák: Nemcsak publikus, hanem belső (pl. több virtuális hálózat között megosztott) DNS-szolgáltatást is nyújt.
Lehetőségek és korlátok
Domain-regisztráció az Azure-ban:
Az Azure DNS önmagában nem regisztrátor, de az App Service-tartomány szolgáltatáson keresztül közvetlenül is vásárolhatsz domaint az Azure Portalról.
Ezt a Microsoft a GoDaddy partneren keresztül biztosítja, így egyszerű a kezelés, de technikailag nem az Azure DNS maga regisztrálja a domaint.
Fontos korlát, hogy .hu végződésű domaint nem lehet így regisztrálni, azt csak más szolgáltatón keresztül lehet megvenni, majd delegálni az Azure DNS-re.
Költségek: Árazása rendkívül kedvező (alapesetben nagyjából 200 Ft/zóna/hónap). A zónák fenntartása olcsó, és a lekérdezések díja is minimális, így a legtöbb szervezet számára elhanyagolható költséget jelent. Csak extrém nagy forgalom mellett érdemes előre kalkulálni.
Csak névfeloldás: Az Azure DNS nem kínál webtárhelyet vagy e-mail szolgáltatást, kizárólag a névkiszolgálást biztosítja.
Felhasználási esetek
Céges weboldal kezelése: Ha az alkalmazásaid Azure App Service-ben futnak, kényelmes a DNS-t is az Azure-ban kezelni.
Belső hálózatok: Privát DNS-zónák segítségével egyszerűbb a több Azure VNet összekapcsolása.
Globális alkalmazások: Az Azure DNS kombinálható az Azure Traffic Managerrel, így a felhasználók mindig a legközelebbi szerverhez jutnak.
DevOps folyamatok: Ha Terraformot vagy más IaC megoldást használsz, a DNS is ugyanabban a kódbázisban kezelhető, verziókövetve.
Mikor érdemes választani?
Már Azure-t használsz, és szeretnéd egy helyen kezelni az erőforrásaidat.
Fontos a magas rendelkezésre állás és a globális teljesítmény.
Nagyvállalati szintű biztonságra és jogosultságkezelésre van szükséged.
Összefoglalás
Az Azure DNS tehát modern, megbízható és biztonságos megoldás, amely lehetővé teszi, hogy a DNS-t is ugyanabban a felhőalapú környezetben kezeld, mint az alkalmazásaidat. Bár önmagában nem domain-regisztrátor, az App Service-tartományon keresztül domain is vásárolható, a .hu végződés kivételével. Ez a rugalmasság és integráció teszi különösen vonzóvá azoknak, akik már Azure környezetben dolgoznak.
Próbáld ki az Azure DNS-t saját projektedben, és tapasztald meg, milyen egyszerű a domain-kezelés a felhőben.
Minden nap sok weboldalt böngészünk, akár órákon keresztül. Biztos vagyok benne, tudod, hogy a weboldalak szervereken futnak. A sok felhasználót, akik látogatják a legnépszerűbb oldalakat, nem egy szerver szolgálja ki. Esetekben ez több mint 10 vagy akár száz is lehet. Ekkor pedig felvetődik a kérdés: A felhasználó, hogyan. éri el például az Intagram szervereit, vagy terheléselosztóját?
A helyes kérdés azonban: A számítógépem, hogyan tudja melyik szervert kell meglátogatnia, ha beütöm a böngészőmbe a CloudMentor weboldalának címét?
És itt jön képbe a DNS. Ahogy az internet egyre nagyobb szerepet tölt be a mindennapi és üzleti életben, úgy válik egyre fontosabbá az, hogy hogyan jut el a felhasználó egy weboldalhoz, alkalmazáshoz vagy API-hoz. Ebben központi szerepe van a DNS-nek (Domain Name System), ami a domainnevek és IP-címek között teremt kapcsolatot.
Most bemutatom a DNS működését, elmagyarázom, hogyan illeszkedik ebbe a rendszerbe az Amazon Route 53 szolgáltatás, és mikor érdemes használni. MEgmutatom neked azt is, hogyan használható a Route 53 egy .hu végződésű domain esetében.
Mi az a DNS és hogyan működik?
A DNS (Domain Name System) az internet telefonkönyveként működik. Ahogy a telefonkönyv segítségével egy név alapján megtalálod valaki telefonszámát, a DNS is egy domainnév (pl. cloudmentor.hu) alapján megmondja, melyik IP-címet kell elérnie a számítógépnek vagy a böngészőnek.
A folyamat lépései leegyszerűsítve a következők:
A felhasználó beír egy webcímet.
A számítógép DNS-lekérdezést indít, hogy megtudja a hozzá tartozó IP-címet.
Autoritatív névszerverek (például amit a Route 53 vagy az Azure DNS biztosít)
A böngésző megkapja az IP-címet, és elkezdi letölteni az oldalt.
Ez a folyamat rendkívül gyors, de kulcsfontosságú a webes szolgáltatások működése szempontjából.
Mi az az Amazon Route 53?
Az Amazon Route 53 egy nagy rendelkezésre állású, skálázható DNS-szolgáltatás, amelyet az Amazon Web Services (AWS) kínál. A neve a DNS-szolgáltatás TCP/UDP portjáról kapta: 53.
A Route 53 három fő szolgáltatást kínál:
DNS névfeloldás – villámgyors és globálisan elérhető IP-cím-lekérdezések.
Domain regisztráció – bizonyos végződéseket az AWS felületén keresztül is megvásárolhatsz.
Routing és monitoring – intelligens forgalomirányítás és elérhetőség-ellenőrzés.
Erősségek és lehetőségek
Nagy megbízhatóság – az AWS globális infrastruktúrájára épül, így a névszerverek hibatűrők és földrajzilag elosztottak.
Gyors válaszidő – anycast routing révén mindig a legközelebbi Route 53 szerver válaszol a lekérdezésre.
Routing policy-k támogatása – támogatja a failover, latency-alapú, weighted és geolocation routingot is.
Health check funkció – figyelheted a cél IP-címed elérhetőségét, és automatikusan átválthatsz másik IP-re, ha a fő szolgáltatás elérhetetlenné válik.
Integrálható AWS szolgáltatásokkal – EC2, ELB, CloudFront, S3, API Gateway, stb.
Korlátai
Fizetős szolgáltatás – a hosted zone-ökért, lekérdezésekért és health check-ekért külön díjat számítanak fel.
Nem támogat minden domain végződést – például a .hu domaint nem lehet regisztrálni az AWS felületén.
Haladó beállításokhoz technikai tudás szükséges – bár a kezelőfelület felhasználóbarát, a komplex routing logikákhoz ismeretek kellenek.
Hogyan? – Több régiós webáruház DNS irányítása
Képzeld el, hogy van egy webáruházad, amelynek van egy szerverpéldánya Frankfurtban és egy másik Oregonban. A cél az, hogy az európai látogatók Frankfurtba, az amerikaiak Oregonba kerüljenek – ezzel csökken a késleltetés és gyorsabb lesz az oldal.
A Route 53 geolocation vagy késleltetés (latency) alapú routing policy segítségével automatikusan oda irányítja a látogatót, amelyik földrajzilag vagy válaszidő szerint a legmegfelelőbb.
Továbbá, ha az egyik szerver kiesik, a Route 53 észleli a hibát (health check segítségével), és automatikusan a működő példányra irányítja a forgalmat – mindezt felhasználói beavatkozás nélkül.
Hogyan? – .hu domain használata Route 53 névszerverként
Az Amazon Route 53 sajnos nem támogatja a .hu végződésű domainek regisztrációját, így ezeket nem tudod közvetlenül az AWS-en keresztül megvásárolni. Ennek ellenére teljes mértékben használhatod a Route 53-at névszerverként – a DNS-zóna kezelése átadható az AWS-nek.
Így használd Route 53-at egy más szolgáltatónál regisztrált .hu domainnel:
Hozz létre egy Public Hosted Zone-t az AWS Route 53-ban Például pelda.hu néven. Ekkor automatikusan kapsz egy NS rekordot, amely 4 AWS névszervert tartalmaz (pl. ns-123.awsdns-45.com, stb.).
Másold át ezeket az NS rekordokat a domainregisztrátorod admin felületére Ezáltal a domainhez tartozó névfeloldás innentől kezdve a Route 53-on keresztül történik.
Kezeld a DNS rekordokat Route 53-ban A, AAAA, CNAME, MX, TXT, SRV, ALIAS rekordokat is hozzáadhatsz, amelyek az infrastruktúrádra vagy külső szolgáltatásokra mutatnak.
Ez a módszer lehetővé teszi, hogy magyar domainnel is élvezd az AWS DNS-kezelés előnyeit – például intelligens routing, gyors válaszidők, monitoring és könnyű automatizálás formájában.
Összegzés
A DNS a modern internet gerince, és aki webes szolgáltatást üzemeltet – akár kis projektről, akár globális platformról van szó – annak előbb-utóbb szüksége lesz megbízható, gyors és rugalmas DNS-kezelésre. Az Amazon Route 53 pontosan ezt nyújtja: ipari szintű megbízhatóságot, haladó routing képességeket, és kiváló integrációt az AWS többi szolgáltatásával.
Akkor is megéri használni, ha a domain nem az AWS-nél van – akár .hu domain esetén is egyszerűen beállítható, hogy a Route 53 végezze a névfeloldást. Ezáltal egységesíthető és automatizálható az infrastruktúra DNS-kezelése, amit hosszú távon minden fejlesztő és üzemeltető értékelni fog.
A mesterséges intelligencia és a gépi tanulás területén az elmúlt években hatalmas a hype. Egyre több vállalat szeretné az adatait hatékonyabban használni, előrejelzéseket készíteni, automatizált döntéstámogatást bevezetni. A probléma legtöbbször az, hogy a gépi tanulás bevezetéséhez általában Data Scientist-okra (adatkutató, adatszakértő), fejlesztőkre és komoly programozói háttérre van szükség. Emellett a megfelelő minőségű eredmény hihetetlenül sok adatot ás így rengeteg időt kíván.
Ezt a belépési korlátot oldja fel az Amazon Web Services (AWS) egyik szolgáltatása, a SageMaker Canvas, amely a NoCode megközelítésnek köszönhetően egyszerűsíti le a gépi tanulás folyamatát.
Mi az a SageMaker Canvas?
A SageMaker Canvas az AWS SageMaker család része, amelyet kifejezetten úgy terveztek, hogy kódírás nélkül is lehessen prediktív modelleket létrehozni. A felület egy vizuális, drag-and-drop alapú eszköz, ahol a felhasználó a teljes gépi tanulási folyamatot végigviheti:
adatforrások csatlakoztatása,
adattisztítás és előfeldolgozás,
modellépítés és tanítás,
predikciók készítése és megosztása.
Mindez úgy történik, hogy közben nincs szükség Python-kódra vagy statisztikai algoritmusok mély ismeretére. A Canvas a háttérben az AWS erőforrásait használja, és automatikusan a legmegfelelőbb algoritmusokat választja ki az adott feladathoz.
Hogyan működik a gyakorlatban?
A SageMaker Canvas első lépésként adatkapcsolatok felépítését teszi lehetővé. Ide csatolhatók CSV fájlok, Amazon S3-ban tárolt adatok, vagy akár relációs adatbázisok. Ezután a rendszer segít az adatok előkészítésében:
hiányzó értékek kezelése,
duplikált sorok kiszűrése,
típuskonverziók,
vizualizációk létrehozása az adatok megértéséhez.
A következő lépés a modellépítés, ahol a felhasználónak mindössze ki kell választania, hogy milyen típusú előrejelzést szeretne: például osztályozás (igen/nem döntés), regresszió (számérték előrejelzés) vagy idősort elemző predikciók. A Canvas az AutoML (automated machine learning) módszereit használja: több algoritmust futtat párhuzamosan, és kiválasztja a legjobban teljesítőt.
A modell elkészülte után a felhasználó azonnal kipróbálhatja a predikciókat. Például új adatokat adhat meg, és megnézheti, hogyan reagál a modell. A végeredmény exportálható és megosztható másokkal, vagy integrálható üzleti folyamatokba.
Erősségei
NoCode használat – Teljesen grafikus, kódírás nélküli környezet.
Gyors prototípus-készítés – Az üzleti oldalon dolgozó kollégák gyorsan tudják validálni ötleteiket.
AWS integráció – Könnyen összekapcsolható más AWS szolgáltatásokkal (pl. S3, Redshift).
Automatizált modellezés – Nem szükséges az algoritmusok közötti választás, a Canvas maga találja meg a legjobbat.
Vizualizációk és magyarázhatóság – Grafikonokkal és elemzésekkel segít megérteni, hogy a modell miért hozott adott döntést.
Korlátai
Komplex projektekhez kevés – Ha speciális algoritmusokra vagy finomhangolásra van szükség, a Canvas már nem elegendő.
Adatminőség (kritikus) – A rossz adat nem ad jó eredményt, még akkor sem, ha az eszköz egyszerű.
Költségvonzat – A Canvas mögött futó számítások AWS erőforrásokat igényelnek, amelyek költsége gyorsan nőhet nagy adatállományoknál.
Nem minden üzleti kérdésre jó – A modell típusai korlátozottak, így nem minden problémát lehet vele lefedni.
Kapcsolódó AWS megoldások a SageMaker Canvas mellett
A SageMaker Canvas önmagában is hasznos NoCode eszköz, de az AWS-en belül több kapcsolódó szolgáltatás is erősíti a képességeit. Ezek együtt egy teljes gépi tanulási életciklust fednek le:
Amazon SageMaker Studio A Canvas „profi testvére”. Egy teljes körű fejlesztői környezet (IDE), ahol adattudósok és fejlesztők kódolva készíthetnek és finomhangolhatnak modelleket. A Canvas felhasználói gyakran ide továbbítják a sikeres prototípusokat további optimalizálásra.
Amazon S3 Az egyik legfontosabb adatforrás és adattár. A legtöbb felhasználó ide tölti fel a modellhez használt nyers adatokat, amelyekhez a Canvas közvetlenül kapcsolódhat.
Amazon Redshift Ha a vállalat nagy mennyiségű strukturált adatot kezel adatbázisban, a Canvas képes közvetlenül csatlakozni a Redshifthoz, és onnan beolvasni az adatokat modellezéshez.
AWS Glue Adat-előkészítési és ETL (Extract, Transform, Load) folyamatokhoz használható. Segít megtisztítani és átalakítani az adatokat, mielőtt azok a Canvas-ba kerülnek.
Amazon QuickSight Az előrejelzések és eredmények vizualizálásához használható BI (Business Intelligence) eszköz. A Canvas által készített predikciók integrálhatók QuickSight dashboardokba, így az üzleti döntéshozók egyszerűen láthatják az elemzések eredményeit.
AWS Identity and Access Management (IAM) Fontos kiegészítő, amely biztosítja, hogy a különböző felhasználók csak a számukra engedélyezett adatokhoz és Canvas-funkciókhoz férjenek hozzá.
Ezek a szolgáltatások együtt alkotják azt a környezetet, ahol a SageMaker Canvas valóban ki tudja bontakoztatni a NoCode gépi tanulási lehetőségeit: a nyers adatok betöltésétől kezdve a modellezésen át egészen az üzleti irányítópultokig.
Kinek való a SageMaker Canvas?
A Canvas ideális választás azok számára, akik szeretnének a gépi tanulás világába belépni, de nem rendelkeznek fejlesztői tudással. Például:
Üzleti döntéshozók: gyors előrejelzésekhez, üzleti forgatókönyvek modellezéséhez.
Adatelemzők: akik szeretnének kódírás nélkül kísérletezni ML-modellekkel.
Oktatók és diákok: akik bevezetésként ismerkednek a gépi tanulással.
Kisebb cégek: ahol nincs külön adatkutató csapat, de mégis szeretnének adatvezérelt döntéseket hozni.
Jöjjön egy példa
Képzeljünk el egy üzletláncot, amelynek több telephelye van Magyarország különböző városaiban. A vállalat rendelkezik több évre visszamenőleg bevételi adatokkal, beleértve a világjárvány időszakát is. A cég elemzői most a vezetőség számára szeretnének egy minimum hat hónapos előrejelzést (predikciót) készíteni minden egyes üzlet jövőbeli bevételére.
A SageMaker Canvas lehetővé teszi, hogy az elemzők feltöltsék az eddigi adatokat, és kiegészítsék azokat olyan külső tényezőkkel, mint például a magyarországi nemzeti ünnepek és munkaszüneti napok. Így a modell nemcsak a múltbeli trendekből tanul, hanem figyelembe tudja venni azokat az időszakokat is, amikor az üzletek forgalma rendszerint megváltozik.
Miért tökéletes megoldás erre a Canvas?
Nincs szükség programozói tudásra, az elemzők önállóan tudják használni
Könnyen integrálhatók külső tényezők, például ünnepnapok vagy speciális időszakok
Gyorsan elkészíthető prototípus, ami azonnali üzleti értéket ad
A modell eredményei egyszerűen megoszthatók a vezetőséggel, vizualizációk formájában
Az így elkészült prediktív modell pontosabb előrejelzéseket ad a bevételekre, ami segíti a vezetőséget a készletezésben, a munkaerő-beosztás megtervezésében, valamint a marketingkampányok időzítésében.
Összegzés
A SageMaker Canvas az egyik legígéretesebb NoCode eszköz arra, hogy a gépi tanulás világát közelebb hozza azokhoz, akik nem fejlesztők vagy adatkutatók. Könnyű használata révén üzleti szakemberek is képesek lesznek prediktív modelleket készíteni, és ezzel adatvezérelt döntéseket hozni. Bár nem helyettesíti a szakértői munkát, remek eszköz gyors prototípusokhoz, hitelesítéshez és az AI használatának bevezetéséhez egy szervezetben.
A modern világunkban az adat az egyik legértékesebb erőforrás. Az üzleti döntések, a marketingkampányok és a működés hatékonysága mind azon múlnak, hogy a szervezetek mennyire tudják kiaknázni a rendelkezésre álló információkat, mind időben, mind minőségben. Gondoljunk bele, a mesterséges intelligencia is a tengernyi adaton tud csupán jól és hatékonyan működni.
Az adatok azonban gyakran széttagoltak: különböző adatbázisokban, fájlokban, rendszerekben léteznek és legtöbbször eltérő formátumban. Emiatt szükségük van egy olyan eszközre, amely segít ezeket egységesíteni, megtisztítani, átalakítani és feldolgozni. Erre nyújt megoldást az Azure Data Factory (ADF), amely a Microsoft Azure-on érhető el.
Mi az Azure Data Factory?
Az Azure Data Factory egy felhőalapú ETL (Extract, Transform, Load) és ELT (Extract, Load, Transform) szolgáltatás. Lényege, hogy adatokat tud kinyerni (Extract) különböző forrásokból, azokat átalakítani (Transform), majd a célrendszerbe betölteni (Load). Ezzel hidat képez az eltérő rendszerek és az üzleti intelligencia eszközök között.
Mivel teljesen felügyelt szolgáltatás, a felhasználónak nem kell szerverek karbantartásával, skálázásával vagy szoftverfrissítésekkel foglalkoznia. Az ADF vizuális, drag-and-drop alapú felületet kínál, de támogatja az adatfolyamok kód alapú megírását is. Így mind az üzleti felhasználók, mind a fejlesztők megtalálhatják benne a számításaikat.
Egy nagytudású NoCode megoldás, amely segít az üzleti integrációban is, de kiszolgálja a fejlesztői igényeket is.
Főbb építőelemei
Pipeline (csővezeték): Egy adott adatfeldolgozási folyamat leírása, amely több lépésből is állhat.
Activity (tevékenység): Egy pipeline egy-egy művelete, például adatmozgatás vagy átalakítás.
Data Flow (adatfolyam): Kifejezetten adattisztításra és transzformációra szolgáló vizuális eszköz.
Linked Service (kapcsolódó szolgáltatás): Az adatforrás vagy a célrendszer konfigurációja, pl. SQL adatbázis vagy blob tárhely.
Dataset (adathalmaz): A feldolgozott adatok logikai egysége, amelyet egy pipeline vagy activity használ.
Ezek az építőelemek együtt adják az ADF rugalmasságát és sokoldalúságát.
Erősségei
Az Azure Data Factory legnagyobb előnye a széles körű integráció. Több mint 90 különböző adatforráshoz kínál beépített csatlakozót, amelyek között megtaláljuk az SQL adatbázisokat, CSV fájlokat, NoSQL rendszereket, API-kat vagy akár SAP rendszereket is.
Másik erőssége a skálázhatóság: akár kis mennyiségű adatot, akár petabájt méretű adathalmazokat is képes kezelni, anélkül, hogy a háttérben nekünk kellene erőforrást biztosítani.
Kiemelendő az adattisztítási képessége, amely lehetővé teszi a duplikált elemek kiszűrését, a hiányzó vagy hibás értékek javítását, és a különböző formátumok egységesítését. Ez rendkívül fontos, mert a tisztítatlan adatok gyakran félrevezető jelentésekhez és rossz üzleti döntésekhez vezethetnek.
Lehetőségei
Az ADF nemcsak egyszerű adatmozgatást, hanem komolyabb adatintegrációs feladatokat is támogat:
Automatizálás és ütemezés: Beállítható, hogy a pipeline-ok meghatározott időpontokban, például óránként vagy naponta fussanak.
Big Data feldolgozás: Az Azure Synapse Analytics-szel vagy a Databricks-szel kombinálva nagy mennyiségű adatot is képes feldolgozni.
Hybrid környezet támogatása: Nemcsak a felhőből, hanem hagyományos (on-premise) rendszerekből is be tud gyűjteni adatokat.
DevOps integráció: Támogatja a Git verziókezelést, így a folyamatok fejlesztése és karbantartása könnyebben követhető.
Monitorozás: Az ADF képes részletes log-okat és figyelmeztetéseket küldeni, hogy lássuk, mikor és hol futott hiba a folyamatban.
Korlátok
Bár sokoldalú, nem minden helyzetben a legjobb választás. Például:
A valós idejű feldolgozás csak korlátozottan érhető el, főként kötegelt feldolgozásra optimalizált.
A komplex logikai átalakítások esetében gyakran érdemes külső szolgáltatásokkal (pl. Databricks) kombinálni.
A költségek nagy mennyiségű adat esetén gyorsan növekedhetnek, így fontos a folyamatok optimalizálása.
Felhasználási esetek
Kereskedelmi vállalat: Egy online áruház a webes rendelések adatait, a raktárkészlet-információkat és a fizikai üzletek eladásait szeretné egy helyen elemezni. Az ADF összegyűjti az adatokat, megtisztítja azokat, majd az Azure Synapse Analytics-be tölti, ahol a menedzsment valós idejű riportokat készíthet.
Banki szektor: Egy bank különböző rendszerekből (tranzakciók, ügyféladatok, CRM) gyűjt adatokat, majd azokat normalizálja és tisztítja. Az így előkészített adatokból megbízható fraud detection modellek építhetők.
Gyártóipar: Egy gyártó cég különböző szenzorokból származó adatokat integrál az ADF segítségével, majd előkészíti azokat gépi tanulási modellekhez, amelyek előrejelzik a gépek meghibásodását.
Tanulság kezdőknek
Ha most ismerkedsz az adatintegráció világával, az Azure Data Factory kiváló belépési pont. Egyszerre biztosít vizuális, kódmentes megoldást és fejlesztőbarát rugalmasságot. A kulcs az, hogy először kisebb, egyszerűbb pipeline-okat hozz létre, majd fokozatosan bővítsd a tudásod összetettebb adatfolyamokkal és tisztítási feladatokkal.
A Mentor Klubban, 2025. szeptemberétől elérhető NoCode és LowCode megoldások Azure-ban és AWS-ben képzési anyagban is testközelből láthatod ennek működését.
Összegzés
Az Azure Data Factory ideális választás mindenkinek, aki adatvezérelt működésre szeretne átállni. Megbízhatóan kapcsolja össze a különböző rendszereket, tisztítja és feldolgozza az adatokat, majd elérhetővé teszi azokat riportokhoz, elemzésekhez vagy mesterséges intelligencia modellekhez. Bár vannak korlátai, a rugalmassága és az egyszerű kezelhetősége miatt az egyik legfontosabb adatfeldolgozó eszköz az Azure ökoszisztémában.
Én például a DJ fellépéseimhez szükséges zenei tárház elemeit szoktam ezzel tisztítani, mielőtt elküldöm a MAHASZ felé.
Eddig is úgy gondoltam, hogy az Amazon S3 a világ legjobb felhő tárolási megoldása, hiszen olyan széleskörűen, egyszerűen és költséghatékonyan használható, hogy azzal magasan lekörözi versenytársait.
Teszi ezt úgy, hogy az AI megjelenésével továbbra is az egyik legszélesebb körben használható tárolási megoldás maradt. Az Amazon azonban nem elégedett meg ezzel, hanem tovább dolgozott és nemrég be is jelentették, hogy az Amazon S3 mostantól natívan támogatja a vektorokat.
Ez nem csupán egy egyszerű frissítés, hanem egy komoly lépés afelé, hogy az AI-alapú keresések és alkalmazások még gyorsabbak és hatékonyabbak legyenek, ráadásul közvetlenül ott, ahol az adatokat tároljuk: az S3-ban.
Mi is az az Amazon S3 Vector?
Az Amazon S3 Vector egy új lehetőség arra, hogy vektorokat – azaz gépi tanulási modellekből származó tömörített adatreprezentációkat – natívan tároljak és kereshetővé tegyek az S3-ban. Korábban, ha például képeket, szövegeket vagy videókat szerettem volna hasonlóság alapján keresni, az adataimat először külön vektor adatbázisba kellett töltenem (pl. Weaviate), ahol a hasonlóságkeresést elvégezhettem. Mostantól ez közvetlenül az S3-ban is elérhető.
Ez hatalmas előrelépés – nemcsak egyszerűsíti az architektúrát, hanem csökkenti a késleltetést, az összetettséget és a költségeket is.
Vector Store (vektortár) – Ebbe töltöm fel a vektorokat és a hozzájuk tartozó metainformációkat.
Ingest API – Ezen keresztül adhatom meg a vektorokat és az indexelendő adatokat.
Query API – Ezzel tudok hasonlóság alapján keresni (pl. „melyik képek hasonlítanak erre a képre?”)
Minden vektor egy rekord részeként kerül be, amely lehetővé teszi, hogy ne csak vektor alapján, hanem metaadatok szerint is tudjak szűrni, például dátum, fájltípus vagy címke alapján.
Példák a használatra
1. Dokumentumkeresés
Egy nagy mennyiségű belső dokumentumot tartalmazó gyűjteményben szerettem volna hasonló jelentésű dokumentumokat megtalálni. Ahelyett, hogy kulcsszavas keresést használtam volna, minden dokumentumhoz vektort generáltam egy nyelvi modell segítségével, és azokat töltöttem fel az S3 Vectorba.
Ezután egy új keresés során elég volt megadnom egy kérdést vagy egy rövid szövegrészletet – és az S3 azonnal visszaadta azokat a dokumentumokat, amelyek a legjobban illeszkedtek a jelentésük alapján.
2. Képalapú hasonlóságkeresés
Egy e-kereskedelmi oldalon képek alapján szerettem volna hasonló termékeket ajánlani. A termékfotókat vektorizáltam egy gépi látás modell segítségével, majd betöltöttem az S3 Vectorba. Így amikor egy vásárló feltöltött egy képet, a rendszer pillanatok alatt megtalálta a hozzá leginkább hasonlító termékeket – anélkül, hogy külön vektor-adatbázist kellett volna karbantartanom.
Miben más ez, mint a meglévő megoldások?
A legtöbb vektoros keresési rendszer eddig úgy működött, hogy külön adatbázist kellett használni (pl. Pinecone, Weaviate, FAISS, Qdrant). Ez viszont újabb infrastruktúrát, szinkronizációs feladatokat és összetettebb architektúrát igényelt. Az Amazon S3 Vector ezt az egészet leegyszerűsíti: egy helyen tárolom és keresem az adatokat.
Azt is kiemelném, hogy mivel az S3 Vector az Express One Zone megoldásra épül, ezért alacsony késleltetésű hozzáférést kapok – mindezt az S3 skálázhatóságával és megbízhatóságával együtt.
Korlátok és tudnivalók
Természetesen nem minden esetben ez a legjobb megoldás. A jelenlegi verzió:
csak az S3 Express One Zone-on keresztül működik,
maximum 250 kB méretű rekordokat támogat,
és előzetes (preview) státuszban van, így még nem éles környezetbe szánt végleges termék.
A vektorok betöltéséhez és a keresésekhez is REST API-t használhatok, de egyelőre nincs közvetlen AWS konzolos támogatás.
Mikor érdemes használni?
Én akkor fogom választani az S3 Vector-t, ha:
már eleve S3-ban tárolok adatokat (képeket, szövegeket),
AI-alapú hasonlóságkeresésre van szükségem,
és szeretném leegyszerűsíteni az architektúrát, elkerülve a külön vektor-adatbázisokat.
Összegzés
Az Amazon S3 Vector egy fontos mérföldkő a natív, felhőalapú AI-alkalmazások területén. Ha te is vektoros keresést építenél, és az adataid már most is S3-ban vannak, akkor ez egy kiváló lehetőség arra, hogy gyorsan és hatékonyan vezess be intelligens keresési képességeket – közvetlenül a tárhelyeden.
Ha szeretnél még többet megtudni, akkor becsatolom ide a hivatalos blog cikket.
Én biztosan tesztelek vele a következő AI-projektem során. Ha te is érdeklődsz a hasonló technológiák iránt, most érdemes elkezdeni a kísérletezést.
Az Amazon Simple Storage Service, rövidebb nevén Amazon S3, az egyik legismertebb és leggyakrabban használt felhőalapú tárolási szolgáltatás. Az AWS kínálatának alappillére, és szinte minden modern, felhőben futó alkalmazásban megtalálható valamilyen formában. Aki most ismerkedik az AWS-el, annak ez egy kiváló belépési pont a felhőalapú adattárolás világába.
Mi az az Amazon S3?
Az Amazon S3 egy objektumalapú tárolási megoldás, amely lehetővé teszi, hogy szinte korlátlan mennyiségű adatot tároljunk biztonságosan és elérhetően. Az Amazon S3-ban az adatokat bucket-ekbe (ejtsd: „bakit”) rendezzük. Egy bucket úgy működik, mint egy mappa a számítógépen, amelyben különféle fájlokat tárolunk.
A bucket-ben minden fájl (például egy kép, dokumentum vagy videó) objektumként szerepel, és mindegyik kap egy egyedi azonosítót. Ez az azonosító olyan, mint egy fájlnév a számítógépen – ennek köszönhetően tudjuk pontosan, melyik fájlhoz akarunk hozzáférni.
Fontos különbség a hagyományos fájlrendszerekhez képest, hogy az S3 nem egy hagyományos mappastruktúrát vagy merevlemezt használ. Nem „blokkokba” írja az adatokat, mint egy fizikai winchester, hanem objektumként tárolja őket, metaadatokkal és egyedi azonosítóval együtt.
Az adatokhoz két fő módon férhetünk hozzá:
AWS Management Console: Ez egy webes felület, ahol kattintgatással lehet fájlokat feltölteni, letölteni vagy törölni, hasonlóan a OneDrive-hoz vagy Dropbox-hoz.
API / SDK: Ez fejlesztőknek való módszer, ahol programkódból vagy parancssorból tölthetünk fel és kezelhetünk adatokat.
Egyszerűen fogalmazva: az S3-ban minden adat egy „felhőmappában” van, és egyedi neve vagy azonosítója alapján bármikor, bárhonnan előhívható – nem számít, hogy egy fotóról, videóról vagy akár egy nagy adatfájlról van szó.
Miért ennyire népszerű?
Skálázhatóság: Az S3 automatikusan alkalmazkodik az igényekhez – nincs felső határ az adatmennyiségre vonatkozóan.
Magas rendelkezésre állás: A szolgáltatás több zónában és régióban is replikálja az adatokat.
Biztonság: Támogatja az adatátviteli és tárolási titkosítást, valamint integrálható IAM-mel (azonosság- és hozzáférés-kezelés).
Egyszerű integráció: Szinte minden AWS-szolgáltatással közvetlenül együttműködik, és külső rendszerekkel is könnyen használható.
Költséghatékonyság: A használatalapú fizetési modellnek köszönhetően csak azért fizetünk, amit valóban használunk.
Tárolási osztályok: melyiket mikor?
Az Amazon S3 egyik különlegessége, hogy több tárolási osztályt is kínál. A tárolási osztály azt határozza meg, milyen módon és feltételekkel tárolja az S3 az adatokat, például:
hány példányban őrzi meg azokat,
milyen gyorsan érhetők el,
mennyibe kerül a tárolás és a lekérés.
Ez azért fontos, mert nem minden adatot használunk egyformán:
Van, amit naponta többször is elő kell venni (például egy weboldal képei).
Más fájlokat csak havonta egyszer, vagy még ritkábban érünk el (például archívumok vagy biztonsági mentések).
A megfelelő tárolási osztály kiválasztásával optimalizálhatjuk a költségeket, hiszen a ritkán használt adatok olcsóbb, de lassabban elérhető tárolóba kerülhetnek, míg a gyakran használt fájlok gyors, de drágább osztályban maradhatnak.
Egyszerűen fogalmazva: a tárolási osztály olyan, mint egy csomag a felhőtárolásban – te döntöd el, mennyiért és milyen gyors hozzáféréssel szeretnéd tárolni az adataidat.
S3 Standard: Általános célra szánt tárolás, gyakori elérésű adatokhoz. Magas rendelkezésre állás és alacsony késleltetés.
S3 Intelligent-Tiering: Automatikusan áthelyezi az adatokat a legköltséghatékonyabb tárolási osztályba a hozzáférési szokások alapján.
S3 Standard-IA (Infrequent Access): Ritkán elérendő, de gyorsan elérhető adatokhoz. Alacsonyabb tárolási költség, de lekéréskor külön díj van.
S3 One Zone-IA: Mint az IA, de csak egyetlen rendelkezésre állási zónában tárolja az adatokat.
S3 Glacier: Archiváláshoz használható. Lekérés néhány perctől órákig tarthat.
S3 Glacier Deep Archive: Hosszú távú archiválás, nagyon alacsony költséggel, de lekérés akár 12 óráig is eltarthat.
Egyszerű példa: Weboldal statikus tartalmainak kiszolgálása
Képzeljünk el egy céget, amely egy modern weboldalt üzemeltet. A HTML, CSS, JavaScript és képek statikus fájlokként tárolhatók az S3-ban, a bucket-et pedig nyilvánosan elérhetővé lehet tenni. Ezzel egy rendkívül gyors, skálázható, biztonságos és alacsony költségű megoldást kapunk, CDN-nel (például Amazon CloudFront-tal) kombinálva pedig globálisan optimalizált élményt biztosíthatunk a felhasználóknak.
Mikor érdemes S3-at használni?
Statikus weboldalak és mobilalkalmazások háttértárolásához
Biztonsági mentésekhez és archiváláshoz
Nagy adatmennyiségű adatfeldolgozási folyamatok (pl. Big Data, AI) bemeneti és kimeneti fájljainak kezelésére
Alkalmazások fájlfeltöltésének kezelésére (pl. profilképek, dokumentumok)
Bár az S3 sokrétű és megbízható, fontos tisztában lenni a korlátokkal is:
Objektumalapú tárolás: nem használható klasszikus fájlrendszerként vagy adatbázisként
Adathozzáférési költségek: külön díj vonatkozik a letöltésre és a zónák közti adatmozgásra
Verziókövetés és lifecycle beállítások külön konfigurációt igényelnek
Nem helyettesíti az adatmentési stratégiát önmagában, különösen, ha más régióba vagy platformra is kell menteni
Összefoglalás
Az Amazon S3 egy megbízható, skálázható és költséghatékony megoldás adataink felhőben történő tárolására. A különböző tárolási osztályok és a könnyű integrálhatóság révén ideális választás kezdő és haladó felhasználók számára is. Legyen szó statikus weboldalról, adatarchiválásról vagy éppen alkalmazások kiszolgálásáról, az S3 minden esetben biztos alapot nyújt.
Ha még nem próbáltad ki, hozz létre egy saját bucket-et az AWS konzolban, és tölts fel egy fájlt – így első kézből tapasztalhatod meg, milyen egyszerű a használata.
Ma is egy Kubernetes-el foglalkozó cikket hoztam nektek. És ma is egy olyan Kubernetes szolgáltatást nézünk meg közelebbről, amely közben felhőszolgáltató specifikus is.
Azt már többször többféle módon is elmondtam, hogy a konténertechnológia forradalmasította a modern alkalmazásfejlesztést (a legismertebb konténertechnológiai megoldás a Docker): egyszerűbbé vált az alkalmazások csomagolása, szállítása és futtatása különböző környezetekben. Az Azure Kubernetes Service (AKS) ebbe a világba nyújt belépőt, méghozzá teljes mértékben menedzselt formában. A kezdők számára különösen előnyös, mert elrejti a komplexitás nagy részét, miközben erős kontrollt és rugalmasságot biztosít.
Az Amazon Elastic Kubernetes Service (EKS) egy menedzselt Kubernetes-szolgáltatás az AWS-en, amely lehetővé teszi a konténeres alkalmazások egyszerű futtatását, skálázását és biztonságos üzemeltetését. Ha modern alkalmazásokkal dolgozol, és szeretnéd kihasználni a Kubernetes nyújtotta rugalmasságot anélkül, hogy a fürtkezelés technikai részleteivel kellene foglalkoznod, az EKS ideális választás lehet.
Mi az Amazon EKS?
Az Amazon EKS a Kubernetes nyílt forráskódú rendszerét kínálja menedzselt formában. Ez azt jelenti, hogy az AWS üzemelteti a Kubernetes vezérlősíkját, így neked nem kell bajlódnod a vezérlősík (control plane) telepítésével, frissítésével, vagy a rendelkezésre állás biztosításával. Az EKS lehetővé teszi, hogy a megszokott kubectl parancsokkal és deklaratív YAML-fájlokkal dolgozz, miközben kihasználod az AWS infrastruktúra erejét.
EKS felépítése
Az EKS-ben két fő összetevővel találkozol:
Vezérlősík (control plane): Teljes mértékben az AWS kezeli. Automatikusan elérhető és hibatűrő.
Munkacsomópontok (worker nodes): Ezek az EC2 példányok (vagy Fargate egységek), amelyeken a kapszulák (pods) ténylegesen futnak.
Az EKS támogatja az EC2 alapú, Fargate alapú, vagy ezek kombinációjából álló fürtöket is, így választhatsz a teljes kontroll (EC2) vagy a szerver nélküli működés (Fargate) között.
EKS erősségei
Felügyelt Kubernetes: Nem kell telepítened vagy karbantartanod a Kubernetes vezérlő komponenseit.
Biztonság: Az AWS integráció lehetővé teszi az IAM-alapú hitelesítést és az egyéb biztonsági eszközök (pl. Secrets Manager, KMS) használatát.
Integráció más AWS szolgáltatásokkal: Könnyen összeköthető például az ELB-vel, CloudWatch-csal, vagy az IAM-mel.
Skálázhatóság: Használhatsz automatikus skálázást az EC2 Auto Scaling Group-ok vagy a Kubernetes Horizontal Pod Autoscaler révén.
Sztenderd Kubernetes: A nyílt forráskódú Kubernetes-t használja, így hordozhatóságot biztosít más környezetek felé is (pl. on-premise vagy más felhők).
EKS korlátai
Összetettebb kezdeti beállítás: A konfigurálás komplexebb lehet, mint más, egyszerűbb konténeres szolgáltatásoknál (pl. App Runner).
Költségek: Az EKS control plane külön díjat számol fel (ez nagyjából 70 EUR havonta), az EC2 példányok vagy Fargateegységek díján felül.
Tanulási idő: A Kubernetes alapjainak elsajátítása időt igényel, főként azok számára, akik most ismerkednek vele.
Mikor érdemes EKS-t használni?
Az EKS különösen akkor hasznos, ha:
Már Kubernetes-t használsz helyben vagy más felhőben, és szeretnél migrálni AWS-re.
Mikroszolgáltatás-alapú, skálázható és konténeresített alkalmazásokat futtatsz.
Fontos számodra a rugalmas, nyílt szabványokon alapuló infrastruktúra.
Nagyobb cégek számára, ahol a felhő más szolgáltatásait is ki tudja használni.
Felhasználási esetek
Tegyük fel, hogy egy SaaS alkalmazást építesz (egy több ezer felhasználót kiszolgáló webshop ahol blog is található), amelyet folyamatosan frissítened kell. Több mikroszolgáltatásból áll, ekkor az alábbiakat fogod mindenképpen használni: hitelesítés (felhasználói bejelentkezések), termékkatalógus, rendeléskezelés, hírlevelek, stb. Az EKS lehetővé teszi, hogy ezeket elkülönítve futtasd kapszulákban, frissítsd őket „rolling deployment”-el, és automatikusan skálázd a forgalom (terhelés) alapján. Közben mindezt úgy, hogy nem kell a Kubernetes fürtöd vezérlősíkját manuálisan karbantartanod.
Emellett azért is hasznos az EKS, mert az AWS többi szolgáltatásával együtt, bármilyen komplex és biztonságilag kifogástalan megoldást meg lehet vele valósítani. Például lehetővé válik az EKS integrálása a VMware Cloud on AWS-sel. Ezzel együtt használjuk az AWS DevOps eszközöket az alkalmazások modernizálásának felgyorsításához.
Ezzel csupán azt szerettem volna szemléltetni, hogy „felhőben bármi lehetséges”.
Milyen más Docker-alapú szolgáltatások érhetők el az AWS-ben?
Az AWS több más konténeres szolgáltatást is kínál, amelyekről részletesen külön cikkekben is olvashatsz:
Amazon ECS (Elastic Container Service): AWS-specifikus konténerorchesztrátor, egyszerűbb, mint Kubernetes.
AWS Fargate: Szerver nélküli konténer futtatási lehetőség, amelyet EKS-szel vagy ECS-sel kombinálhatsz.
Amazon App Runner: Egyszerű konténer-alapú webalkalmazás telepítés.
AWS Lambda (konténer támogatással): Rövid ideig futó funkciók konténer image-ből.
AWS Batch: Nagy számítási igényű kötegfeldolgozás konténerek segítségével.
Amazon Lightsail (konténer támogatással): Egyszerű, kezdőknek szánt konténeres alkalmazás hosztolás.
Összefoglalás
Az Amazon EKS azok számára ideális, akik Kubernetes-t szeretnének használni az AWS környezetében anélkül, hogy a vezérlősík üzemeltetésével bajlódnának. Robusztus, skálázható és integrálható megoldás, ugyanakkor komplexebb bevezetést igényel, mint más konténeres szolgáltatások. Ha hosszú távú, mikroszolgáltatás-alapú stratégiában gondolkodsz, az EKS megbízható alap lehet.
Ha most ismerkedsz a Kubernetes világával, az EKS tökéletes kiindulópont. Ne csak olvass róla – gyakorolj, építs, és lépj egy szinttel feljebb a felhőben!