Aki régóta dolgozik AWS-el, mint én is, jól ismeri azokat az értesítéseket, amelyekben a szolgáltató biztonsági vagy karbantartási okokból módosításokat kér az infrastruktúrán. Október végén ismét érkezett egy ilyen e-mail, ezúttal az Amazon Bedrock felhasználóinak címezve. A levélben az Anthropic Claude 3.7 Sonnetmodell kivezetéséről (deprecation) értesítik az ügyfeleket.
A Claude 3.7 Sonnet modellt az AWS Bedrockon keresztül sok fejlesztő és szervezet használta az elmúlt hónapokban különféle természetes nyelvi feldolgozási (NLP) és generatív AI feladatokra. Az Anthropic most hivatalosan megkezdte ennek a modellnek a kivezetését, amely több lépcsőben történik.
A legfontosabb dátumok
2026. január 27. – a modell az úgynevezettExtended Accessállapotba kerül. Ez a szakasz már nem tartalmaz új kvótanöveléseket, és a támogatás is korlátozott lesz.
2026. április 28. – a modell End-of-Life (EOL) státuszba kerül, vagyis végleg elérhetetlenné válik. Ezt követően minden, a Claude 3.7 Sonnet modell ID-jére küldött kérés automatikusan hibát fog adni.
Érintett régiók
A változás az összes fő Bedrock-régiót érinti, többek között az európai adatközpontokat is (pl. eu-central-1, eu-north-1, eu-west-1, eu-west-3).
US-EAST-1
US-EAST-2
US-WEST-2
AP-NORTHEAST-1
AP-NORTHEAST-2
AP-NORTHEAST-3
AP-SOUTH-1
AP-SOUTH-2
AP-SOUTHEAST-1
AP-SOUTHEAST-2
EU-CENTRAL-1
EU-NORTH-1
EU-WEST-1
EU-WEST-3
Mit kell tenni?
Az AWS azt javasolja, hogy a felhasználók mielőbb váltsanak az Anthropic Claude Sonnet 4.5 modellre. Ez az új verzió fejlettebb teljesítményt és jobb biztonsági támogatást kínál.
Frissítés lépései az AWS Bedrock konzolon:
Lépj be az Amazon Bedrock konzolra.
A bal oldali menüben válaszd a Model catalog menüpontot.
Keresd meg a Claude 3.7 Sonnet modellt, és jegyezd fel a modellazonosítót (Model ID).
Ezután válaszd ki az új Claude 4.5 Sonnet modellt a listából (Model ID).
A fejlesztői környezetedben (például Python SDK-ban vagy API hívásban) cseréld le a régi modellazonosítót az újra.
A dokumentációkban pontos példák is találhatók, hogyan frissíthető a modell az API-hívásokban vagy SDK-ban. Ezek a Bedrock Model IDs és a Bedrock API Reference oldalon érhetők el.
Összefoglalva
A Claude 3.7 Sonnet kivezetése egy tervezett, fokozatos folyamat, amely 2026 tavaszára zárul le. Akik jelenleg is használják a modellt, érdemes minél előbb átállni a Claude Sonnet 4.5 verzióra, hogy az alkalmazások működése zavartalan maradjon.
Amikor az OpenAI bejelentette a ChatGPT Atlas-t, azonnal letöltöttem és feltelepítettem a gépemre, hogy kipróbáljam. Első gondolatom az volt, hogy a ChatGPT vastagkliensét használom. Majd ahogy elmélyedtem benne, rájöttem, hogy ez egy teljesen más megközelítése az internetezésnek.
Az AI alapvetően a kérdéseinkre válaszol és az utasításainkat követi, de közben teljesen kihasználja azt, hogy ez egy böngésző. Amikor egy linkre kattintok a megszokott kinézetű chat-ablakban, osztott képernyőn megnyílik a weboldal. Itt lehetőségem van arra, hogy a megnyitott weboldal tartalmaival kiegészítve beszélgessek tovább az AI-val. Ez olyan érzés, mintha a GitHub CoPilot-ot használnám a Visual Studio Code-ban – csak éppen a teljes interneten.
Szerintem ez mindenképpen egy új dimenzióba helyezi az online böngészést. Talán ahhoz tudnám hasonlítani, amikor Elon Musk előrukkolt a Tesla-val, vagy Steve Jobs bemutatta az első iPhone-t. És ezen hasonlatokban nem arra gondolok, hogy valami forradalmian újat mutattak be, hanem arra, hogy újragondolták azt, amit addig ismertünk. A ChatGPT Atlas is ilyen – az internetes élményt formálja újra, alapjaiban.
Amit viszont nem értek: miért nem a Google-nak jutott ez eszébe? Megöregedtek? Elfáradtak? A Google mesterséges intelligencia-kiegészítése a keresőben amúgy is inkább vicces, mint hasznos. Nem ezt vártam. Bár tudom, ha a keresőóriás meglépte volna azt, amit most az OpenAI az Atlas-szal, akkor elesett volna sok milliárdnyi reklámbevételtől.
Nem véletlen, hogy az elmúlt egy évben már nem használom a Google keresőjét – egyszerűen elavult és szinte használhatatlan. A ChatGPT Atlas viszont megmutatta, hogyan nézhet ki a böngészés a jövőben, ha a mesterséges intelligencia nem csak válaszol, hanem valóban együtt gondolkodik velem.
Amikor a böngésző és az AI összeér, megszűnik a határ az információ és a megértés között. Nem kell külön keresnem, olvasnom, értelmeznem, majd kérdeznem – a rendszer ezt mind egyben teszi. Az Atlas nem egyszerűen egy böngésző: ez az első olyan felület, ahol az internet és az AI világa egyesül. És ahogy most látom, ez csak a kezdet.
Mitől különleges ez a böngésző?
A ChatGPT Atlas nem egyszerűen egy új termék, hanem az internethasználat újragondolása. Az OpenAI szerint ez a böngésző „a ChatGPT-vel a középpontban” készült, és célja, hogy a felhasználó munkáját, kontextusát és eszközeit egyetlen, intelligens felületen egyesítse.
A tavalyi évben a ChatGPT-ben megjelent a keresés funkció, amely azonnal az egyik legnépszerűbbé vált. Most azonban az OpenAI ezt a funkcionalitást egy teljes böngészőbe emelte át. Az Atlas lehetővé teszi, hogy a ChatGPT mindenhol ott legyen – megértse, mit csinálok, és segítsen anélkül, hogy másik oldalt vagy alkalmazást kellene megnyitnom.
A böngésző emlékezete („Browser memories”) teljesen opcionális, és a felhasználó kezében marad az irányítás – az adatok bármikor törölhetők, archiválhatók, vagy kikapcsolható a funkció.
Agent mód: Ez az egyik legizgalmasabb rész – bizonyos előfizetési szinteken (Plus, Pro, Business) elérhető. Az Agent (ügynők) mód segítségével az AI nem csak beszélget, hanem „kattint, navigál, feladatokat végez” a böngészőn belül. Például: „Keresd meg ezt az éttermet, rendeld meg az alapanyagokat”, „Készíts piackutatást a versenytársakról, majd írj belőle összefoglalót” – mindez anélkül, hogy külön programban kellene dolgoznom.
Az OpenAI hangsúlyozza, hogy a biztonság és adatvédelem kiemelt: az AI nem fér hozzá automatikusan a fájlrendszerhez, nem futtat kódot, és minden érzékeny műveletnél megerősítést kér a felhasználótól. Az Atlas jelenleg macOS-re áll rendelkezésre, más platformokra (Windows, iOS, Android) hamarosan érkezik.
Hol tart most és mit érdemes tudni?
Az Atlas most indul – egy ígéretes, de még fejlődő termék. A korai felhasználói élmények szerint bár az integráció izgalmas, néhány funkció még finomításra szorul. Például a keresési eredmények listája korlátozott, és a folyamatok még nem mindig zökkenőmentesek. Biztonsági szakértők figyelmeztettek, hogy az AI-alapú böngészők érzékenyek lehetnek a „prompt-injection” típusú támadásokra – vagyis olyan webes instrukciókra, amelyek képesek befolyásolni az AI viselkedését. Az OpenAI szerint dolgoznak a védelem erősítésén.
Miért érdekes ez nekünk?
Ha kezdő vagy az AI és az internetes böngészés ilyen modern formái felé, akkor az Atlas számunkra több okból is izgalmas:
Egyszerűbbé tesszük az internetezést: nem kell külön alkalmazást megnyitni, nem kell másolgatni-beilleszteni a tartalmakat a ChatGPT-be – mindent egy helyen tehetek.
Azonnali segítséget kapok: ha találok egy weboldalt, és nem vagyok biztos a tartalmában, az AI-val azonnal beszélhetek róla: „Mi a lényege?”, „Mi az, amit kiemelnél?”, „Hol van erre alternatív forrás?” – így nem csak passzívan olvasok, hanem aktívan gondolkodom.
Több időm marad a tényleges feladatra: mivel az AI képes részmunkákat átvenni (pl. Agent mód), nekem nem kell annyit kattintgatnom – az értelmezésre, döntéshozatalra koncentrálhatok.
Ha vállalati környezetben dolgozom, akkor ez komoly lehetőség: gyorsabban készíthetek elemzést, összegzést, mert a böngészőm és az AI egyben van.
Összegzés
Én úgy látom, hogy a ChatGPT Atlas nem csupán egy új böngésző. Ez egy lépés afelé, hogy a webes szokásunk egyre inkább „agentikus” legyen – vagyis a rutinmunkákat átruházhassuk egy intelligens asszisztensre, miközben mi a lényegre koncentrálhatunk.
Ez egy hatalmas erejű eszköz, amelytől nem magát az AI-tól kell tartanunk, hanem attól, hogy mi emberek talán még nem nőttünk fel a felelősségteljes használatához.
Azért, mint minden AI alapú megoldást, ezt is kezeljük a helyén. Ne hagyatkozzunk rá mindig!
A mesterséges intelligencia és a gépi tanulás területén az elmúlt években hatalmas a hype. Egyre több vállalat szeretné az adatait hatékonyabban használni, előrejelzéseket készíteni, automatizált döntéstámogatást bevezetni. A probléma legtöbbször az, hogy a gépi tanulás bevezetéséhez általában Data Scientist-okra (adatkutató, adatszakértő), fejlesztőkre és komoly programozói háttérre van szükség. Emellett a megfelelő minőségű eredmény hihetetlenül sok adatot ás így rengeteg időt kíván.
Ezt a belépési korlátot oldja fel az Amazon Web Services (AWS) egyik szolgáltatása, a SageMaker Canvas, amely a NoCode megközelítésnek köszönhetően egyszerűsíti le a gépi tanulás folyamatát.
Mi az a SageMaker Canvas?
A SageMaker Canvas az AWS SageMaker család része, amelyet kifejezetten úgy terveztek, hogy kódírás nélkül is lehessen prediktív modelleket létrehozni. A felület egy vizuális, drag-and-drop alapú eszköz, ahol a felhasználó a teljes gépi tanulási folyamatot végigviheti:
adatforrások csatlakoztatása,
adattisztítás és előfeldolgozás,
modellépítés és tanítás,
predikciók készítése és megosztása.
Mindez úgy történik, hogy közben nincs szükség Python-kódra vagy statisztikai algoritmusok mély ismeretére. A Canvas a háttérben az AWS erőforrásait használja, és automatikusan a legmegfelelőbb algoritmusokat választja ki az adott feladathoz.
Hogyan működik a gyakorlatban?
A SageMaker Canvas első lépésként adatkapcsolatok felépítését teszi lehetővé. Ide csatolhatók CSV fájlok, Amazon S3-ban tárolt adatok, vagy akár relációs adatbázisok. Ezután a rendszer segít az adatok előkészítésében:
hiányzó értékek kezelése,
duplikált sorok kiszűrése,
típuskonverziók,
vizualizációk létrehozása az adatok megértéséhez.
A következő lépés a modellépítés, ahol a felhasználónak mindössze ki kell választania, hogy milyen típusú előrejelzést szeretne: például osztályozás (igen/nem döntés), regresszió (számérték előrejelzés) vagy idősort elemző predikciók. A Canvas az AutoML (automated machine learning) módszereit használja: több algoritmust futtat párhuzamosan, és kiválasztja a legjobban teljesítőt.
A modell elkészülte után a felhasználó azonnal kipróbálhatja a predikciókat. Például új adatokat adhat meg, és megnézheti, hogyan reagál a modell. A végeredmény exportálható és megosztható másokkal, vagy integrálható üzleti folyamatokba.
Erősségei
NoCode használat – Teljesen grafikus, kódírás nélküli környezet.
Gyors prototípus-készítés – Az üzleti oldalon dolgozó kollégák gyorsan tudják validálni ötleteiket.
AWS integráció – Könnyen összekapcsolható más AWS szolgáltatásokkal (pl. S3, Redshift).
Automatizált modellezés – Nem szükséges az algoritmusok közötti választás, a Canvas maga találja meg a legjobbat.
Vizualizációk és magyarázhatóság – Grafikonokkal és elemzésekkel segít megérteni, hogy a modell miért hozott adott döntést.
Korlátai
Komplex projektekhez kevés – Ha speciális algoritmusokra vagy finomhangolásra van szükség, a Canvas már nem elegendő.
Adatminőség (kritikus) – A rossz adat nem ad jó eredményt, még akkor sem, ha az eszköz egyszerű.
Költségvonzat – A Canvas mögött futó számítások AWS erőforrásokat igényelnek, amelyek költsége gyorsan nőhet nagy adatállományoknál.
Nem minden üzleti kérdésre jó – A modell típusai korlátozottak, így nem minden problémát lehet vele lefedni.
Kapcsolódó AWS megoldások a SageMaker Canvas mellett
A SageMaker Canvas önmagában is hasznos NoCode eszköz, de az AWS-en belül több kapcsolódó szolgáltatás is erősíti a képességeit. Ezek együtt egy teljes gépi tanulási életciklust fednek le:
Amazon SageMaker Studio A Canvas „profi testvére”. Egy teljes körű fejlesztői környezet (IDE), ahol adattudósok és fejlesztők kódolva készíthetnek és finomhangolhatnak modelleket. A Canvas felhasználói gyakran ide továbbítják a sikeres prototípusokat további optimalizálásra.
Amazon S3 Az egyik legfontosabb adatforrás és adattár. A legtöbb felhasználó ide tölti fel a modellhez használt nyers adatokat, amelyekhez a Canvas közvetlenül kapcsolódhat.
Amazon Redshift Ha a vállalat nagy mennyiségű strukturált adatot kezel adatbázisban, a Canvas képes közvetlenül csatlakozni a Redshifthoz, és onnan beolvasni az adatokat modellezéshez.
AWS Glue Adat-előkészítési és ETL (Extract, Transform, Load) folyamatokhoz használható. Segít megtisztítani és átalakítani az adatokat, mielőtt azok a Canvas-ba kerülnek.
Amazon QuickSight Az előrejelzések és eredmények vizualizálásához használható BI (Business Intelligence) eszköz. A Canvas által készített predikciók integrálhatók QuickSight dashboardokba, így az üzleti döntéshozók egyszerűen láthatják az elemzések eredményeit.
AWS Identity and Access Management (IAM) Fontos kiegészítő, amely biztosítja, hogy a különböző felhasználók csak a számukra engedélyezett adatokhoz és Canvas-funkciókhoz férjenek hozzá.
Ezek a szolgáltatások együtt alkotják azt a környezetet, ahol a SageMaker Canvas valóban ki tudja bontakoztatni a NoCode gépi tanulási lehetőségeit: a nyers adatok betöltésétől kezdve a modellezésen át egészen az üzleti irányítópultokig.
Kinek való a SageMaker Canvas?
A Canvas ideális választás azok számára, akik szeretnének a gépi tanulás világába belépni, de nem rendelkeznek fejlesztői tudással. Például:
Üzleti döntéshozók: gyors előrejelzésekhez, üzleti forgatókönyvek modellezéséhez.
Adatelemzők: akik szeretnének kódírás nélkül kísérletezni ML-modellekkel.
Oktatók és diákok: akik bevezetésként ismerkednek a gépi tanulással.
Kisebb cégek: ahol nincs külön adatkutató csapat, de mégis szeretnének adatvezérelt döntéseket hozni.
Jöjjön egy példa
Képzeljünk el egy üzletláncot, amelynek több telephelye van Magyarország különböző városaiban. A vállalat rendelkezik több évre visszamenőleg bevételi adatokkal, beleértve a világjárvány időszakát is. A cég elemzői most a vezetőség számára szeretnének egy minimum hat hónapos előrejelzést (predikciót) készíteni minden egyes üzlet jövőbeli bevételére.
A SageMaker Canvas lehetővé teszi, hogy az elemzők feltöltsék az eddigi adatokat, és kiegészítsék azokat olyan külső tényezőkkel, mint például a magyarországi nemzeti ünnepek és munkaszüneti napok. Így a modell nemcsak a múltbeli trendekből tanul, hanem figyelembe tudja venni azokat az időszakokat is, amikor az üzletek forgalma rendszerint megváltozik.
Miért tökéletes megoldás erre a Canvas?
Nincs szükség programozói tudásra, az elemzők önállóan tudják használni
Könnyen integrálhatók külső tényezők, például ünnepnapok vagy speciális időszakok
Gyorsan elkészíthető prototípus, ami azonnali üzleti értéket ad
A modell eredményei egyszerűen megoszthatók a vezetőséggel, vizualizációk formájában
Az így elkészült prediktív modell pontosabb előrejelzéseket ad a bevételekre, ami segíti a vezetőséget a készletezésben, a munkaerő-beosztás megtervezésében, valamint a marketingkampányok időzítésében.
Összegzés
A SageMaker Canvas az egyik legígéretesebb NoCode eszköz arra, hogy a gépi tanulás világát közelebb hozza azokhoz, akik nem fejlesztők vagy adatkutatók. Könnyű használata révén üzleti szakemberek is képesek lesznek prediktív modelleket készíteni, és ezzel adatvezérelt döntéseket hozni. Bár nem helyettesíti a szakértői munkát, remek eszköz gyors prototípusokhoz, hitelesítéshez és az AI használatának bevezetéséhez egy szervezetben.
Eddig is úgy gondoltam, hogy az Amazon S3 a világ legjobb felhő tárolási megoldása, hiszen olyan széleskörűen, egyszerűen és költséghatékonyan használható, hogy azzal magasan lekörözi versenytársait.
Teszi ezt úgy, hogy az AI megjelenésével továbbra is az egyik legszélesebb körben használható tárolási megoldás maradt. Az Amazon azonban nem elégedett meg ezzel, hanem tovább dolgozott és nemrég be is jelentették, hogy az Amazon S3 mostantól natívan támogatja a vektorokat.
Ez nem csupán egy egyszerű frissítés, hanem egy komoly lépés afelé, hogy az AI-alapú keresések és alkalmazások még gyorsabbak és hatékonyabbak legyenek, ráadásul közvetlenül ott, ahol az adatokat tároljuk: az S3-ban.
Mi is az az Amazon S3 Vector?
Az Amazon S3 Vector egy új lehetőség arra, hogy vektorokat – azaz gépi tanulási modellekből származó tömörített adatreprezentációkat – natívan tároljak és kereshetővé tegyek az S3-ban. Korábban, ha például képeket, szövegeket vagy videókat szerettem volna hasonlóság alapján keresni, az adataimat először külön vektor adatbázisba kellett töltenem (pl. Weaviate), ahol a hasonlóságkeresést elvégezhettem. Mostantól ez közvetlenül az S3-ban is elérhető.
Ez hatalmas előrelépés – nemcsak egyszerűsíti az architektúrát, hanem csökkenti a késleltetést, az összetettséget és a költségeket is.
Vector Store (vektortár) – Ebbe töltöm fel a vektorokat és a hozzájuk tartozó metainformációkat.
Ingest API – Ezen keresztül adhatom meg a vektorokat és az indexelendő adatokat.
Query API – Ezzel tudok hasonlóság alapján keresni (pl. „melyik képek hasonlítanak erre a képre?”)
Minden vektor egy rekord részeként kerül be, amely lehetővé teszi, hogy ne csak vektor alapján, hanem metaadatok szerint is tudjak szűrni, például dátum, fájltípus vagy címke alapján.
Példák a használatra
1. Dokumentumkeresés
Egy nagy mennyiségű belső dokumentumot tartalmazó gyűjteményben szerettem volna hasonló jelentésű dokumentumokat megtalálni. Ahelyett, hogy kulcsszavas keresést használtam volna, minden dokumentumhoz vektort generáltam egy nyelvi modell segítségével, és azokat töltöttem fel az S3 Vectorba.
Ezután egy új keresés során elég volt megadnom egy kérdést vagy egy rövid szövegrészletet – és az S3 azonnal visszaadta azokat a dokumentumokat, amelyek a legjobban illeszkedtek a jelentésük alapján.
2. Képalapú hasonlóságkeresés
Egy e-kereskedelmi oldalon képek alapján szerettem volna hasonló termékeket ajánlani. A termékfotókat vektorizáltam egy gépi látás modell segítségével, majd betöltöttem az S3 Vectorba. Így amikor egy vásárló feltöltött egy képet, a rendszer pillanatok alatt megtalálta a hozzá leginkább hasonlító termékeket – anélkül, hogy külön vektor-adatbázist kellett volna karbantartanom.
Miben más ez, mint a meglévő megoldások?
A legtöbb vektoros keresési rendszer eddig úgy működött, hogy külön adatbázist kellett használni (pl. Pinecone, Weaviate, FAISS, Qdrant). Ez viszont újabb infrastruktúrát, szinkronizációs feladatokat és összetettebb architektúrát igényelt. Az Amazon S3 Vector ezt az egészet leegyszerűsíti: egy helyen tárolom és keresem az adatokat.
Azt is kiemelném, hogy mivel az S3 Vector az Express One Zone megoldásra épül, ezért alacsony késleltetésű hozzáférést kapok – mindezt az S3 skálázhatóságával és megbízhatóságával együtt.
Korlátok és tudnivalók
Természetesen nem minden esetben ez a legjobb megoldás. A jelenlegi verzió:
csak az S3 Express One Zone-on keresztül működik,
maximum 250 kB méretű rekordokat támogat,
és előzetes (preview) státuszban van, így még nem éles környezetbe szánt végleges termék.
A vektorok betöltéséhez és a keresésekhez is REST API-t használhatok, de egyelőre nincs közvetlen AWS konzolos támogatás.
Mikor érdemes használni?
Én akkor fogom választani az S3 Vector-t, ha:
már eleve S3-ban tárolok adatokat (képeket, szövegeket),
AI-alapú hasonlóságkeresésre van szükségem,
és szeretném leegyszerűsíteni az architektúrát, elkerülve a külön vektor-adatbázisokat.
Összegzés
Az Amazon S3 Vector egy fontos mérföldkő a natív, felhőalapú AI-alkalmazások területén. Ha te is vektoros keresést építenél, és az adataid már most is S3-ban vannak, akkor ez egy kiváló lehetőség arra, hogy gyorsan és hatékonyan vezess be intelligens keresési képességeket – közvetlenül a tárhelyeden.
Ha szeretnél még többet megtudni, akkor becsatolom ide a hivatalos blog cikket.
Én biztosan tesztelek vele a következő AI-projektem során. Ha te is érdeklődsz a hasonló technológiák iránt, most érdemes elkezdeni a kísérletezést.
Többször mutattam már be LLM-eket korábban. A mesterséges intelligencia világában azonban nagyon magas fordulaton pörögnek a dolgok. Ennek megfelelően várható volt, hogy újabb LLM fejlesztés érkezik ezen a nyáron. 2025. augusztus 7-én az OpenAI bemutatta GPT‑5-öt, a legújabb, legfejlettebb mesterséges intelligencia modelljét. Most a GPT‑5 működését, erősségeit, lehetőségeit és korlátait szeretném bemutatni.
Mi az a GPT-5?
A GPT-5 egy olyan mesterséges intelligencia, amely képes automatikusan eldönteni, hogy a gyors válaszokra optimalizált modellt vagy a részletesebb, alaposabb gondolkodást végző („thinking”) modellt használja. A választás valós időben történik, a kérdés bonyolultsága és a felhasználó célja alapján. A GPT-5 mindenki számára elérhető: a Plus és Pro előfizetők nagyobb használati kerettel dolgozhatnak, a Pro csomag előfizetői pedig hozzáférhetnek a fejlettebb „thinking-pro” változathoz is.
Erősségei
Széles körű szakértői teljesítmény: kiváló képességekkel rendelkezik kódolásban, matematikában, írásban, egészségügyben és bonyolult feladatokban is.
Hatékonyság és racionalitás: gyorsabb válaszokat ad, kevesebb téves információt (hallucinációt), és jobb strukturáltságot nyújt.
Fejlett kódolási képességek: a SWE‑bench Verified kódolási teszten 74,9%-os eredményt ért el, szemben az o3 elődjének 69,1%-ával, miközben kevesebb eszközhívást és tokenfogyasztást igényelt OpenAI.
Felhasználóbarát működés: az intelligens router rendszer automatikusan kiválasztja a feladatnak legjobban megfelelő modellt, megkönnyítve ezzel a használatot különösen kezdőknek.
Integrációk és személyre szabás (Ügynökökkel): Gmail és Google Naptár csatlakozással, valamint személyiségtónus‑beállításokkal bővül a felhasználói élmény.
Lehetőségei
Mindenki közelebb az intelligens asszisztenshez: olvasók, értékesítők, pénzügyi szakemberek mind profin kidolgozott tartalmakat generálhatnak, adatokat összefoglalhatnak vagy folyamatokat optimalizálhatnak akár extra előképzettség nélkül.
Fejlesztők hatékonyabb eszköze: komplex hibák felismerésére, több lépéses feladatok kezelése, teljes körű fejlesztési folyamatok támogatása.
Soknyelvű hozzáférés: nyelvi képességek fejlesztése, így globálisan is szélesebb körben alkalmazható. A magyar nyelvet is tovább csiszolták.
Korlátai
Nem általános mesterséges intelligencia (AGI): bár a GPT-5 teljesítménye sok területen egy PhD-szintű szakértőhöz mérhető, nem rendelkezik azzal a képességgel, hogy önállóan, folyamatosan tanuljon és bármilyen feladatot megoldjon, mint egy ember. Ez azt jelenti, hogy a GPT-5 egy rendkívül fejlett eszköz, de nem az a fajta univerzális mesterséges intelligencia, amely minden helyzetben képes emberi szintű gondolkodásra és döntéshozatalra.
Teljesítmény-ingadozás: eddigi tapasztalatok alapján az automatikus modellválasztás néha bizonytalan minőséget eredményez.
Régebbi modellek korlátozott elérhetősége: GPT‑4 és korábbi modellek már nem állnak a legtöbb felhasználó rendelkezésére, ami szerintem prolémás.
Használati korlátok inaktív felhasználóknak: ingyenes felhasználók díjmentes hozzáférést kapnak, de szigorúbb használati korlátokkal kell számolniuk.
Összegzés
A GPT-5 technológiailag kiemelkedően fejlett, mégis időnként meglepően korlátozottnak tűnik, mintha bizonyos helyzetekben gyengébben teljesítene, mint elődei. Tartalmazza a gyors reagálást, a mélyebb gondolkodást, támogat fejlesztőknek és üzleti felhasználóknak egyaránt, miközben a felhasználói élményt helyezi előtérbe. Ugyanakkor fontos szem előtt tartani a jelenlegi korlátokat, mint az AGI hiánya, teljesítmény-ingadozás vagy a régebbi modellek eltűnése.
Érthető az irány, de egyelőre további fejlesztésre szorul az általános mesterséges intelligencia irányába.
Mióta megjelent az AI és berobbant a köztudatba, folyamatosan ezt hallani: „Elveszi a munkánkat! Jajj, mi lesz velünk? Nem kellenek programozók!”. Mivel én folyamatosan figyelemmel követem ezt a területet, úgy gondoltam, bármennyire is fejlődik az AI, ettől még nagyon messzire vagyunk.
Erre 2025. májusában bejelentette az OpenAI legújabb eszközét a ChatGPT Codex-et. Ekkor még csak külön hozzáféréssel tudtam tesztelni, azonban júniustól, már bárki számára elérhető.
Tehát az elmúlt időszakban volt alkalmam testközelből megszemlélni ezt a megoldást és azt kell mondjam, hogy hatalmas segítséget kaptak a kezdő programozók és DevOps szakemberek.
Ebben a cikkben megpróbálom átadni a ChatGPT Codex hozadékát és azt, hogy miért mérföldkő ez a programozás területén.
A programozás világába való belépés vagy új nyelvek felfedezése gyakran tűnhet bonyolultnak. Az OpenAI ChatGPT Codex megoldása ezt a belépési küszöböt csökkenti. A Codex egy olyan fejlesztés, amely lehetővé teszi, hogy természetes nyelvű utasításokból programkódot generáljunk, közvetlenül a böngészőben, telepítés nélkül.
Mostantól nem kell telepíteni semmilyen fejlesztőkörnyezetet ahhoz, hogy kipróbálj vagy létrehozz egy egyszerű szkriptet vagy progrmokat. Csak nyisd meg a chatgpt.com/codex oldalt, és kezdj el írni – a Codex pedig kódra fordítja az elképzelésedet.
Miért hasznos?
Természetes nyelv alapján is tud kódot írni.
Nem szükséges előzetes fejlesztői környezet vagy telepítés.
Egyetlen felület a kódolásra, futtatásra és hibakeresésre.
Tanulási célokra (pl. „Írj egy Python kódot, amely beolvas egy fáljt”)
Webes sablonok vagy HTML/CSS oldalak gyors összeállítására
Egyszerű adatbázis-lekérdezések vagy API-hívások kipróbálására
Kísérletezésre, új ötletek gyors ellenőrzésére
Miért nagy mérföldkő?
A Codex lehetővé teszi, hogy ne kelljen fejlesztői háttérrel rendelkezned ahhoz, hogy működőképes kódot hozz létre. A korábbi eszközökkel ellentétben itt egy interaktív, kétirányú felületen kommunikálhatsz a modellel: írsz egy szöveget, ő kódot ad – vagy elmagyarázza a meglévőt.
Ez különösen fontos kezdők számára, akik gyakran küzdenek a fejlesztői eszközök bonyolultságával.
Jelentkezz be OpenAI fiókoddal (ingyenesen is használható).
Válaszd ki a kívánt nyelvet vagy kérd meg, hogy javasoljon.
Írj egy természetes nyelvű utasítást, pl. „Írj egy Python függvényt, ami megmondja, hogy egy szám prímszám-e.”
A Codex automatikusan kódot javasol, amit módosíthatsz, lefuttathatsz, és kérhetsz magyarázatot is hozzá.
Mennyibe kerül?
Az alapfunkciók elérhetők a ChatGPT Plus előfizetés keretében.
A Codex jelenleg a GPT-4 modellek részeként működik.
A ChatGPT Plus előfizetés ára: 8900 Ft/hó
Nincs külön díj a Codex funkcióért – ha GPT-4-et használsz, automatikusan elérhető.
Mire alkalmas már most is, és mire nem?
Mire alkalmas:
Kód írása természetes nyelvű utasításból
Egyszerű szkriptek, algoritmusok generálása
Oktatás, példák kipróbálása, tanulás támogatása
HTML, CSS, SQL minták készítése
Mire nem ajánlott:
Nagy, komplex projektek önálló generálása
Biztonságkritikus, validált kód írása emberi átnézés nélkül
Teljes alkalmazások generálása tesztelés és kontroll nélkül
GitHub-integráció: automatikus kódmentés Pull Request formájában
És most jön a legjobb rész! A ChatGPT Codex nemcsak arra képes, hogy egy természetes nyelvű utasításból működő kódot hozzon létre – hanem a megírt kódot automatikusan el is tudja küldeni egy GitHub repóba. Ez különösen hasznos azoknak, akik már valamilyen projektet vezetnek, csapatban dolgoznak, vagy szeretnék elmenteni és verziókövetni saját kódgenerálásaikat. Sőt, kezdőknek kimondottan hasznos, hiszen nem csupán a programozást sajátíthatjék el könnyedén, hanem megérthetik, a modern szoftverfejlesztés folyamatait is.
Ehhez a funkcióhoz csak a következőkre van szükséged:
Legyen egy GitHub-fiókod, és hozz létre egy repository-t (vagy használd a meglévőt).
A chatgpt.com/codex felületen a beállításoknál engedélyezd a GitHub-integrációt.
Válaszd ki a célrepo-t és a branchet.
Írj egy természetes nyelvű, szöveges utasítást, például: „Készíts egy Python-függvényt, ami eldönti egy számról, hogy prímszám-e, és add hozzá a repository-hoz”
A Codex megírja a kódot, commitol-ja, majd Pull Request-et (kód összefűzési kérést) hoz létre a megadott repository-ban.
Látogasd meg a chatgpt.com/codex oldalt, és válaszd ki az Új környezet létrehozása lehetőséget, majd válaszd ki a repository-dat a listából.
Majd adjuk ki a chat mezőbe az utasítást: „Írj egy Python függvényt, ami megmondja, hogy egy szám prímszám-e.” Ekkor elkezdődik a kód generálása és amikor kész, el is magyarázza mit csinl a kód.
A kódunk kész és akár ki is próbálhatjuk, vagy módosíthatjuk, kedvünk szerint.
Ha pedig elégedettek vagyunk a végeredménnyel, akkor jöhet a verziókezelt tárolás a GitHub repository-ban. Hogyan? Egyszerűen megkérjük a modelt, hogy: „Add hozzá a repository-hoz a fájlt”
Ugye, hogy semmi külön prompt engineering tudás nem kellett? Mégis ami következik, az szuper. Létrehoz egy új branch-et a módosításokkal, majd létrehoz hozzá egy Pull Request-et is, amit azonnal ellenőrizhetünk a GitHub-on.
Miután ellenőriztük a módosítások helyességét, máris elvégezhetjük a kódbázis összefűzését.
És még a dokumentációt is írathatunk erről a kódról, vagy tetszőlegesen módosíthatjuk a meglévő kódjainkat.
Ez persze csak egy nagyon egyszerű példa volt. A lehetőségeink elég széles spektrumon mozognak. Javaslom, hogy próbáld ki Te is.
Összefoglalás
A ChatGPT Codex új szintre emeli a programozást: szöveges utasításból kódot generál, lefuttatja, megmagyarázza, és ha szeretnéd, automatikusan GitHub repóba menti Pull Request formájában.
Kezdőknek és haladóknak egyaránt hasznos eszköz, akár tanulásra, akár gyors prototípusokra.
Ha még nem próbáltad, itt az ideje kipróbálni!
Látogasd meg a chatgpt.com/codex oldalt, és próbálj ki egy saját példát – vagy keress meg engem, és szívesen megmutatom, hogyan működik ez a gyakorlatban is.
A Terraform az egyik legnépszerűbb infrastruktúra mint kód (IaC) eszköz, amely lehetővé teszi, hogy kód segítségével építsünk és kezeljünk felhő- vagy helyi infrastruktúrát. Egy ilyen rendszer működésének kulcsa az úgynevezett state, vagyis az állapotfájl, amely tartalmazza, hogy milyen erőforrásokat hoztunk létre és azok milyen állapotban vannak. Az állapot tárolása mindig is központi szerepet játszott a Terraform használatában.
2025. májusában a HashiCorp bejelentette az MCP Servert (Model Context Protocol Server), amely egy új protokollal és megközelítéssel egyszerűsíti a távoli állapotkezelést.
Mi az a Terraform MCP Server?
A Terraform MCP Server egy háttérszolgáltatás, amely REST API-n keresztül biztosít állapotkezelési funkciókat a Terraform számára. Az MCP (Model Context Protocol) szabványos módot biztosít arra, hogy a Terraform CLI távoli szerveren kezelje az állapotot – olvassa, frissítse és zárolja azt, megakadályozva a versenyhelyzeteket.
Ez a megközelítés kiváltja a korábban használt, néha bonyolultan konfigurálható backendeket, például az S3 + DynamoDB kombinációt.
Hogyan működik?
A terraform init során a CLI kapcsolódik az MCP Serverhez, és regisztrálja az állapot útvonalát.
A terraform plan és apply hívások során az MCP Server biztosítja az aktuális állapotot, zárolja azt, majd a frissített állapotot eltárolja.
Az egész folyamat HTTP API-n keresztül zajlik, így jól integrálható más rendszerekkel is.
Előnyök
Egyszerűbb bevezetés: Nincs szükség felhőalapú tárolókra és külön lock mechanizmusokra.
Nyílt protokoll: Bárki írhat saját MCP-kompatibilis szervert.
Fejleszthető és tesztelhető: Lokális fejlesztési környezetben is könnyen kipróbálható.
Integrációs lehetőségek: Könnyedén monitorozható, naplózható, és jól működik DevOps pipeline-ok részeként.
Korlátok
Még új technológia: Bár stabil, éles környezetben fokozott figyelmet igényel.
Kevés implementáció: Egyelőre a HashiCorp hivatalos szervere az egyetlen széles körben elérhető változat.
Bevezetéshez tanulás szükséges: Másképp működik, mint a korábbi, megszokott backend-ek.
Felhasználási példa: Helyi laborkörnyezet állapotkezelése
Tegyük fel, hogy DevOps mérnökként több Terraform projektet futtatsz egyetlen gépen. Nem akarsz minden alkalommal külön S3 bucket-et vagy felhő backend-et beállítani. Egy egyszerű, saját gépen futó MCP Server lehetővé teszi, hogy a projekteket biztonságosan, de mégis helyileg kezeld. Nincs szükség internet kapcsolatra vagy hitelesítő adatok konfigurálására – csak elindítod a szervert, és használod.
Hogyan lehet kipróbálni?
Ahhoz, hogy első kézből tapasztald meg az MCP Server működését, kövesd az alábbi lépéseket:
1. MCP Server elindítása
Ha van Docker-ed, máris elindíthatod a szervert egyetlen paranccsal:
docker run -p 9701:9701 hashicorp/terraform-mcp-server:latest
Ez elindít egy konténert, amely hallgatózik a http://localhost:9701 címen. Ide fog kapcsolódni a Terraform.
2. Egy egyszerű Terraform projekt létrehozása
Készíts egy új mappát, és hozz létre benne egy main.tf fájlt például ezzel a tartalommal:
Ez a konfiguráció megmondja a Terraform-nak, hogy a state fájlt mostantól az MCP Server-en kezelje, mcp-projekt/terraform.tfstate logikai útvonallal.
3. Inicializálás és alkalmazás
A következő parancsokkal inicializálhatod és futtathatod a projektet:
terraform init
terraform apply
Mit fogsz tapasztalni?
A terraform.tfstate fájl nem jelenik meg helyben, mert az MCP Server tárolja.
A terraform apply létrehozza a hello.txt fájlt.
A konténer logjaiban látni fogod az állapotkezelési műveleteket: lock, write, unlock.
Ez egy remek lehetőség, hogy megértsd a modern state-kezelés működését – mindezt saját gépen, bármilyen felhőfiók nélkül.
Összefoglalás
A Terraform MCP Server a jövő egyik ígéretes megközelítése az állapotkezelésre. Segítségével egyszerűbbé válik a távoli state konfiguráció, különösen fejlesztői és oktatási környezetekben. A REST-alapú protokoll nyitottsága révén új integrációs lehetőségeket is megnyit, miközben a Terraform megszokott működése megmarad. Ebből is látszik, hogy az MCP nem csupán a mesterséges intelligenciában lehet hasznos.
Ha szeretnél megszabadulni a bonyolult backend konfigurációktól, ugyanakkor biztonságosan és szabályozottan kezelni az állapotokat – próbáld ki az MCP Servert.
Kiváló kiindulópont lehet saját fejlesztésű megoldásokhoz vagy modern Terraform platformok kiépítéséhez.
A mesterséges intelligencia (MI) világa folyamatosan látványos fejlődést mutat. Az egyik legérdekesebb irány a VLM, vagyis a Vision Language Model technológia. Ezek a modellek nemcsak szövegeket értenek meg, mint a hagyományos nyelvi modellek (LLM-ek), hanem képeket is képesek értelmezni.
Koncepció – Mit jelent a VLM?
A VLM (Vision Language Model) olyan mesterséges intelligenciát takar, amely egyszerre képes szöveges és képi információt értelmezni. Ez új szintre emeli az MI lehetőségeit, hiszen az eddigi rendszerek vagy csak szöveggel, vagy csak képpel dolgoztak. A VLM viszont multimodális: a kettőt egyszerre kezeli.
Hasonlat – Mintha egy gyerek könyvből tanulna
Képzeljünk el egy kisgyermeket, aki egy képeskönyvet nézeget. Megnézi a képet, majd a szöveg alapján próbálja megérteni, mi történik. A Vision Language Model ugyanezt teszi: képeket lát és szövegeket olvas, majd ezekből közösen von le következtetéseket.
Hol hasznos ez a technológia?
Egészségügy: orvosi képek (pl. röntgen) értelmezése, diagnosztikai támogatás.
Oktatás: multimodális tananyag-elemzés, képekhez kapcsolódó tartalomgenerálás.
Kereskedelem: termékek automatikus leírása képek alapján.
Grafikon- és diagramértelmezés: üzleti jelentések automatikus értelmezése.
Hogyan működik?
A hagyományos LLM (Large Language Model), mint például a GPT, kizárólag szöveggel tud dolgozni. Amikor beírunk egy kérdést vagy dokumentumot, azt a modell token-ekre bontja – ezek a nyelv számszerű leképezései. Az LLM ezeket a token-eket ú.n. figyelmi mechanizmusok segítségével elemzi, feltárja a közöttük lévő összefüggéseket, majd ezek alapján állít elő egy új szöveges választ.
De mi van akkor, ha a dokumentum képeket tartalmaz? Bonyolult grafikon? Szkennelt ábra? Egyhagyományos LLM nem tud mit kezdeni ezekkel. Itt lép be a képbe a VLM.
A VLM úgy működik, hogy egy új modult vezet be: a vision encoder-t. Ez a rész nem szavakat, hanem képeket dolgoz fel. A képből kinyeri a fontos jellemzőket – formákat, textúrákat, éleket, viszonyokat – és ezt egy úgynevezett feature vector-rá alakítja, vagyis egy tömör, számszerű leképezéssé.
Ezek azonban még nem kompatibilisek az LLM szöveges token-jeivel, ezért egy projektor nevű modul átalakítja őket úgynevezett kép-token-ekké. Most már van szöveg-token-ünk és kép-token-ünk, és ezeket együtt tudja kezelni az LLM. A modell ezek után együttesen értelmezi a szöveget és a képet, és ezek összefüggése alapján ad választ.
Például:
VQA (Visual Question Answering): Megmutatunk egy képet egy forgalmas utcáról, és megkérdezzük: „Mi történik itt?” A válasz lehet: „Egy piros lámpánál várakozó autó, gyalogosok átkelnek.”
Képaláírás generálás: Egy kutyát ábrázoló képre a válasz: „Golden retriever labdát kerget egy parkban.”
Számlák vagy bizonylatok feldolgozása: Szkennelt PDF beolvasása után a modell képes kiolvasni a szöveget, struktúrába rendezni, sőt, összefoglalni a lényeget.
Grafikon-elemzés: Egy pénzügyi jelentésben található diagram alapján kérdezhetjük: „Mi a bevételi trend?” – és a modell választ ad rá.
Miért újdonság?
A LLM-ek már régóta képesek értelmes szöveget generálni, de teljesen vakok voltak a képi információkra. A VLM az első valódi megoldás arra, hogy a mesterséges intelligencia ne csak olvasson, hanem „lásson” is. Ez új távlatokat nyit, hiszen az emberi gondolkodás sem csak szavakból áll – képeket, helyzeteket, kontextusokat is értelmezünk.
A technológia azonban nem hibátlan:
A képek feldolgozása sokkal erőforrásigényesebb, mint a szövegé.
A modell hallucinálhat – azaz olyan válaszokat adhat, amelyek jól hangzanak, de nem igazak, mivel statisztikai minták alapján következtet.
Bias (torzítás) is jelen lehet: ha a tanítóadatok túlnyomórészt nyugati kultúrkörből származnak, más régiók képeit félreértelmezheti.
Miért lesz hasznos a jövőben?
A jövő mesterséges intelligenciája egyre inkább hasonlít majd az emberi gondolkodásra. A VLM-ek ezt a folyamatot gyorsítják fel, hiszen már nemcsak beszélnek, hanem látnak is. Ezáltal sokkal hatékonyabban alkalmazhatók például:
összetett döntéshozatalban,
automatizált dokumentumfeldolgozásban,
vagy akár vizuális tanulási rendszerekben.
VLM vs. LLM – Hasonlóságok és különbségek
LLM (Large Language Model)
VLM (Vision Language Model)
Alap
Nagy nyelvi modell
Nagy nyelvi modell + vizuális feldolgozó modulok
Bemenet
Csak szöveg
Szöveg és kép
Képességek
Szövegalapú válaszadás, szövegírás
Szövegalkotás képi információk alapján is
Kontextus
Csak nyelvi összefüggések értelmezése
Nyelvi és vizuális kontextus együttes értelmezése
Felépítés
Tokenizálás → nyelvi feldolgozás
Kép → feature vector → kép-token → közös feldolgozás
Modulok
Csak nyelvi feldolgozás
Vision encoder, projektor, nyelvi feldolgozás együtt
A Vision Language Model nem egy forradalmi újdonság, sokkal inkább a mesterséges intelligencia természetes fejlődési lépése. Az eddigi nyelvi és vizuális modellek ötvözésével a VLM-ek lehetővé teszik, hogy az MI ne csak olvassa, hanem értelmezze is a képi világot.
Ez új lehetőségeket nyit például dokumentumfeldolgozásban, oktatásban vagy egészségügyben – olyan területeken, ahol eddig emberi látásra és megértésre volt szükség. Bár a technológia még fejlődik, az irány egyértelmű: a mesterséges intelligencia egyre közelebb kerül ahhoz, hogy több érzékszervhez hasonlóan működjön – és ezzel valóban új minőséget képviseljen.
Te hogyan hasznosítanád ezt a tudást a saját területeden?
Legutóbb az MCP-ről írtam egy cikket, majd hamar rájöttem, hogy lehet kicsit lőre szaladtunk. Ezért ma egy kicsit visszalépünk és összehasonlítom nektek a 2025-re beharangozott Agentic AI-t és a már jól ismert genratív AI-t.
A generatív AI már sokak számára ismerős: képes szöveget írni, képet alkotni vagy kódot generálni egy adott utasítás alapján. Azonban a legújabb irányzat az úgynevezett Agentic AI, amely nemcsak válaszol, hanem keres, dönt és cselekszik.
Most jöjjön, hogy mit is jelent az Agentic AI, hogyan viszonyul a generatív AI-hoz, mik az előnyei és korlátai, és milyen szerepet játszik ebben az új protokoll, az MCP.
Mit jelent az Agentic AI?
Az Agentic AI olyan mesterséges intelligencia-rendszer, amely képes autonóm (önálló, független) módon döntéseket hozni és hosszabb távú célokat követni. Ez nem csupán egy „okos chatbot”, hanem egy mesterséges ügynök (agent), amely képes:
feladatokat önállóan lépésekre lebontani és megtervezni
több lépésen keresztül végrehajtani folyamatokat
külső eszközökkel vagy rendszerekkel interakcióba lépni (az illesztett külső alkalmazásokon keresztül)
alkalmazkodni a változó feltételekhez vagy felhasználói visszajelzésekhez
Az Agentic AI tehát nemcsak választ ad, hanem proaktívan cselekszik is. Működését legegyszerűbben úgy képzelhetjük el, mint egy digitális asszisztenst, amely nem várja meg, hogy minden utasítást megadjunk neki, hanem felismeri a célunkat, és ennek megfelelően saját maga tervezi meg a szükséges lépéseket.
Például ha azt mondjuk neki, hogy „segíts egy bulit megszervezni”, akkor nem csak naptárbejegyzést hoz létre, hanem utánanéz a szabad időpontoknak, összehangolja a résztvevőkkel, lefoglal helyszínt, és elküldi a meghívókat – mindezt úgy, hogy közben kérdéseket tesz fel, amelyek alapján döntéseket hoz, és ha változás történik (pl. valaki lemondja, vagy esős idő várható), képes újratervezni az egészet.
Ez a működésmód alapjaiban különbözik a klasszikus AI megközelítéstől, ahol minden lépést nekünk kellett megadnunk. Az Agentic AI lényege tehát a „kezdeményezőképesség” és az alkalmazkodóképesség: nemcsak végrehajt, hanem „gondolkodik” is a cél érdekében.
Ez különösen hasznos ott, ahol a feladat nem egyértelműen definiált, vagy ahol sok apró döntés és külső tényező befolyásolja a végeredményt – például projektmenedzsment, személyi asszisztencia, IT-automatizálás vagy ügyfélszolgálati folyamatok terén.
Ezen automatikus működés, természetesen nem önállóan jön létre, hanem a fejlesztőknek a megfelelő ügynököket rendszerbe kell szerveznie, hogy az AI azokat képes legyen használni, mint egy szakember a szerszámait.
Automatizálni kell egy komplex feladatot (pl. heti riportok lekérése, elemzése és továbbítása)
Egy AI-nak döntéseket kell hoznia (pl. melyik ügyfélnek küldjön follow-up üzenetet)
Több rendszer együttműködésére van szükség (pl. CRM + e-mail + naptár integrációja)
Milyen lehetőségeket kínál az Agentic AI?
Skálázhatóság: Egyszerre több folyamatot képes kezelni emberi beavatkozás nélkül.
Rugalmasság: Képes reagálni a váratlan helyzetekre és tanulni a visszajelzésekből.
Produktivitás: Feladatokat vesz le a vállunkról, amiket eddig manuálisan végeztünk.
Milyen korlátai vannak?
Megbízhatóság: Ha rossz adatból tanul, rossz döntéseket hozhat.
Átláthatóság: Nehéz lehet követni, mi alapján dönt egy komplex rendszer.
Etikai kérdések: Ki a felelős, ha az AI hibás döntést hoz?
Mi az MCP, és hogyan kapcsolódik az Agentic AI-hoz?
Az MCP (Model Context Protocol) egy újfajta szabványosított kommunikációs forma, amely lehetővé teszi, hogy különböző AI modellek és rendszerek hatékonyan együttműködjenek. Az Agentic AI gyakran több különálló képességet és modellt kombinál (pl. adatlekérdezés, döntéshozatal, visszacsatolás). Az MCP biztosítja, hogy ezek a részek egységes módon beszéljenek egymással – hasonlóan, mint az USB-C szabvány a különböző eszközök világában.
Ez különösen fontos, mert az Agentic AI rendszer gyakran több specializált modellt használ (pl. egy nyelvi modellt, egy naptárkezelőt, egy keresőt), és ezek koordinációjához elengedhetetlen a szabványos protokoll, amit az MCP kínál.
Összefoglalás
A Generative AI és az Agentic AI nem versenytársai egymásnak, hanem eltérő igényekre adnak választ. Míg a generatív AI akkor hasznos, ha tartalmat szeretnénk gyorsan előállítani, az agentic AI akkor segít, ha automatizálni akarunk összetett, több lépésből álló munkafolyamatokat. Ahogy én látom, a jövőben a két megközelítés egyre gyakrabban dolgozik majd együtt, szabványosított keretek között – épp ebben segít az MCP.
Ha megérted ezt a különbséget, könnyebben dönthetsz arról, mikor melyik technológiát érdemes alkalmazni a saját projektjeidhez.
Ezután pedig megérkezel az AI egy magasabb szintjére. 🎯
Az utóbbi hetekben sokat olvastam az OpenAI új fejlesztéseiről, és úgy gondoltam, érdemes megosztanom a legfrissebb tapasztalataimat veletek. Azt tudjuk, hogy a jelenlegi világunkban nincs megállás. Folyamatosan rohanunk, ha kell, ha nem. A mesterséges intelligencia területén pedig ez hatványozottan igaz. A nemrég az OpenAI három vadonatúj modellt mutatott be, amelyek jelentős előrelépést hoznak a mesterséges intelligencia terén, különösen azok számára, akik fejlesztői feladatokhoz keresnek megbízható megoldásokat.
A legfontosabb újdonság a GPT-4.1 család: a GPT-4.1, a 4.1 mini és a 4.1 nano modellek. Ezeket kifejezetten fejlesztőknek szánták, és rengeteget fejlődtek a kódolás, utasításkövetés és funkcióhívások terén. Ami engem a legjobban lenyűgözött, az a kontextuskezelés: akár 1 millió tokenes szöveget is képesek átlátni és értelmezni. Ez a valós projektekben hatalmas segítség, mert végre nem kell trükközni az adatok darabolásával.
Miért kiemelkedő ez a szám? Nekem eddig is a GPT-4o volt a kedvencem, mert valódi programozói társam volt. Azonban voltak korlátai. Sok esetben kellett egy-egy komplex gondolatmenet közepén úgy beszélgetést indítanom, ami lelassította munkát és több esetben frusztrált engem. Az új modelltől azt várom, hogy még jobban segíti a munkám és nem ütközöm a korábban említett korlátokba.
Külön öröm számomra, hogy a GPT-4.1 modellek ismét olcsóbbak lettek (26%-al) az elődjüknél, a GPT-4o-nál. A nano verzió pedig minden eddiginél gyorsabb és költséghatékonyabb – ez például tökéletes, ha kisebb, de sokszor ismétlődő feladatokat automatizálok. Itt Te is kipróbálhatod: GPT-4.1
Nem csak a GPT-4.1 újdonságairól érdemes beszélni. Az OpenAI bemutatta az o3 és o4-mini modelleket is. Ezek az érvelési, logikai feladatokban jeleskednek: kódolás, matematika, tudományos problémák és képfeldolgozás terén is kiemelkedőek. Egyik kedvencem az új válaszfolyamat megjelenítés, amely lépésről lépésre mutatja, hogyan gondolkodik a modell a végső válasz előtt. Ez fejlesztőként hatalmas előnyt jelent, hiszen átlátom az AI döntési logikáját. Eddig is voltak eszközök, amelyekkel figyelemmel lehetett kísérni, de most már ezt beépítettem megkapjuk.
Az elmúlt hetekben egyre több fejlesztőtől olvastam véleményeket, akik már most ezeket a modelleket használják a munkájukhoz. Nem véletlenül: gyorsak, pontosak, olcsóbbak és megbízhatóbbak, mint a korábbi verziók. Én is elkezdtem őket tesztelni a saját projektjeimen, és eddig nagyon pozitív tapasztalataim vannak.
Ha te is érdeklődsz a mesterséges intelligencia gyakorlati alkalmazása iránt, mindenképp érdemes kipróbálnod ezeket az új modelleket. A hivatalos dokumentációban minden szükséges információt megtalálsz. Ha elakadsz, akkor pedig szívesen segítek neked.
Én már alig várom, hogy mit hoz a következő OpenAI fejlesztés, mert hamarosan itt az újabb. 🙂
Te melyik modellt használod vagy próbáltad már ki?