Céges mesterséges intelligencia oktatás EL AL légitársaság
Hogyan lehet AI-t vállalati környezetben biztonságosan használni? EL AL referencia oktatás: kockázatok, megelőzési logika, beállítások és betartható csapat-szintű szabályrendszer.

Rövid összefoglaló:
- EL AL légitrásaság grund crew-ja számára AI oktatás vegyes (fiatal és idősebb) csapatnak
- Fő fókusz: AI által generált biztonsági kockázatok, kockázati helyzetek és megelőzési logika
- Általános, edukáló áttekintés az AI működéséről és a “miért tud meggyőzően tévedni” kérdésről
- ChatGPT és más nagy nyelvi modellek bemutatása biztonsági beállításokkal és használati kerettel
- Kitekintés AI eszközökre és AI böngészőkre – hol nő meg a kockázati felület, mire figyeljünk
Tanuld meg, hogyan írj profi promptokat ChatGPT-hez! Mutatom a legfontosabb alapokat és példákat, hogy jobb válaszokat kapj.
Mi volt a probléma az adott cégnél?
Az EL AL-nál a kiindulópont nem az volt, hogy “használjunk több AI-t”, hanem hogy a csapat értse – milyen biztonsági és működési kockázatot jelent, ha AI-eszközök kontroll nélkül kerülnek be a mindennapi munkába. Egy légitársasági környezetben a kockázati küszöb alacsonyabb: már egy rossz adatkezelési reflex, egy félreértett beállítás vagy egy túl őszinte prompt is olyan információk kikerüléséhez vezethet, aminek nem lenne szabad.
Vegyes korosztályú csapattal dolgoztunk – nagyon fiatal és idősebb munkavállalók is részt vettek. Ez tipikusan azt jelenti, hogy a “digitális magabiztosság” és az AI-hoz való viszony nagyon eltér: van, aki kísérletezik, van, aki óvatos, és van, aki egyáltalán nem látja, hol a kockázat. Ilyenkor a legnagyobb veszély nem a technológia, hanem a széteső használati kultúra.
Mi volt a megoldás az adott problémára?
A program célzottan szemléletformáló és edukáló volt, biztonsági fókuszú kerettel. Nem “AI tréninget” tartottunk a klasszikus értelemben, hanem egy olyan áttekintést, ami segít a csapatnak tisztán látni:
- hogyan működnek az AI rendszerek és a nagy nyelvi modellek a gyakorlatban
- hol keletkezik biztonsági kockázat a mindennapi használat során
- milyen szabályok és beállítások szükségesek ahhoz, hogy a használat kontrollált maradjon
A képzés elején egy közös, általános áttekintés ment végig az AI működési logikáján (mit csinál “valójában” a modell, miért tud meggyőzően tévedni, miért kell ellenőrzési pont). Erre épült rá a fő blokk: AI által generált biztonsági kockázatok, tipikus hibák, és a megelőzés kerete.
ChatGPT és nagy nyelvi modellek – biztonsági szemlélettel
A tréningen bemutattam a ChatGPT-t és más hasonló nagy nyelvi modelleket úgy, hogy a fókusz végig a biztonság és a kontroll maradt. Az egyik kulcsmegkülönböztetés az volt, hogy a csapat ne “eszközként” gondoljon rá, hanem kockázati felületként is: mit adunk be, mit kérünk ki, hogyan ellenőrizzük, és milyen helyzetben kell egyáltalán tiltani a használatot.
Kiemelt részek voltak:
- tipikus adatkezelési hibák promptoláskor (mit szabad, mit nem)
- “hallucináció” és téves következtetések kockázata – és hogyan építsünk ellenőrzési rutint
- a legfontosabb biztonsági beállítások és használati keretek: szerepkör, jogosultság, jóváhagyás, kontrollpontok
A cél itt nem az volt, hogy “mindenki profin promptoljon”, hanem hogy mindenki értse: mikor veszélyes, mikor hasznos, és hogyan marad kontroll alatt.
AI böngészők és az ökoszisztéma – hol nő meg a kockázat?
A kitekintés része volt az AI ökoszisztéma is: olyan eszközök és AI-böngészők, amelyek a nagy modelleken túl további lehetőségeket adnak – és ezzel együtt új kockázati felületeket is. Ezeknél a hangsúly azon volt, hogy a csapat felismerje:
- mikor van “láthatatlan” adatáramlás egy eszközben
- hogyan változik a kockázat, ha a rendszer külső forrásokból dolgozik
- mi az a minimális működési szabályrendszer, amivel vállalati környezetben is kezelhető marad a használat
Az ilyen oktatásoknál az a fordulópont, amikor a csapat nem félelemből áll meg (“inkább ne nyúljunk hozzá”), hanem tudatosan használ: van keret, van tiltott zóna, van ellenőrzési pont, és a vezetői oldal is látja, miért ez a helyes irány.
Mi lett az eredmény és miért működött?
A legnagyobb eredmény a közös szemlélet lett: a résztvevők egységesebb képet kaptak arról, hogy az AI nem csak produktivitási eszköz, hanem biztonsági és működési kockázat is. Vegyes korosztályú csapatnál ez különösen fontos, mert a kockázat sokszor pont abból fakad, hogy mindenki “másképp” használja ugyanazt.
A tréning olyan alapot adott, amire később rá lehet építeni:
- biztonságos használati szokások és ellenőrzési rutin
- közös nyelv arról, mi fér bele és mi nem
- tudatosabb eszközhasználat – nem tiltásból, hanem kontrollból
Ha az AI alapok és vállalati bevezetési keret érdekel mélyebben is, a kapcsolódó pillér anyag itt található: Mesterséges intelligencia, ChatGPT és Gemini. A cikk végi Instagram-poszt is kapcsolódik ehhez, és érdemes belenézni a témához kapcsolódó YouTube videóba is – ott rövidebben, képekkel is megmutatom, hogyan néz ki a “biztonságos AI használat” keretrendszere csapatban.
Kapcsolódó referenciám:
5 tipp, amit te is azonnal használni tudsz
- Legyen “tiltott zóna” és legyen kimondva
Írd le, milyen adat nem kerülhet AI-ba, és mikor kötelező az anonimizálás. A szabály hiánya a leggyorsabb út a későbbi teljes tiltáshoz. - Vezess be ellenőrzési rutint, ne “bizalmat”
Az AI outputját ne igazságként kezeld. Legyen kontrollpont: forrás, számok, állítások ellenőrzése, különösen érzékeny területen. - Taníts “biztonságos promptolást”
Nem a hosszú prompt a lényeg, hanem hogy a kérésben benne legyen: mi a cél, mi a kontextus, mit nem szabad beletenni, és milyen formában kérsz választ. - Ne eszközt válassz, hanem feladatot
Először azt döntsd el, melyik feladatra kell AI (összefoglaló, vázlat, struktúra), és csak utána, hogy melyik eszköz. Így kevésbé csúszik szét a használat. - Vegyes csapatnál különösen kell a közös nyelv
Ha a csapatban eltérő a digitális rutin, a kockázat is nő. A közös definíció és a standard használati keret gyorsabban csökkenti a hibákat, mint bármilyen “szabályzat”.
Összefoglaló
Az EL AL-nál tartott AI biztonsági fókuszú oktatás lényege az volt, hogy a csapat egységes képet kapjon az AI működéséről, és felismerje a vállalati környezetben megjelenő kockázatokat. A ChatGPT és más nagy nyelvi modellek bemutatása mellett a hangsúly a beállításokon, a használati kereteken és az ellenőrzési pontokon volt.
Az ilyen programok akkor működnek jól, amikor nem ijesztgetésből állnak, hanem kontrollt adnak: mit szabad, mit nem, hogyan ellenőrzünk, és hogyan vezetjük be csapat-szinten úgy, hogy a haszon megmaradjon, a kockázat pedig kezelhető legyen. A végén ez nem csak AI tudás, hanem működési kultúra – ami hosszú távon is stabilabbá teszi a csapatot.
Letölthető AI használati kutatás
Gyakran ismételt kérdések
Csak ChatGPT-ről szólt az oktatás?
Nem. A ChatGPT mellett kitekintettünk más nagy nyelvi modellekre és az AI ökoszisztémára is, valamint olyan AI-eszközökre és AI böngésző jellegű megoldásokra, amelyek új lehetőségeket adnak – és ezzel együtt új kockázati felületeket is nyitnak. A cél az volt, hogy a csapat tudja: mikor melyik típusú eszköz a megfelelő, és milyen kontrollal.
Mi a leggyakoribb hiba AI biztonsági képzésnél?
Az, amikor a képzés ijesztgetés vagy túl elméleti. Ilyenkor a csapat vagy tiltani akar mindent, vagy ugyanúgy használ tovább, csak “bűntudattal”. A jó megközelítés kontrollt ad: világos kereteket, konkrét példákat, ellenőrzési rutint – így a használat nem leáll, hanem biztonságossá válik.

Török Balázs
Török Balázsnak hívnak, azt szoktam mondani, hogy digitális marketinggel foglalkozom. Azt gondolom ugyanis, hogy az ügyfeleimnek jellemzően valamilyen marketing-sales problémájuk van és emiatt keresnek meg. Erre kínálok nekik megoldást, fejlesztem a digitális ökoszisztémájukat, megoldásaikat. Olvasd el az esettanulmányaimat, vagy nézz bele a tartalmaimba a YouTube-on, TikTok-on vagy írj nekem a LinkedIn oldalalamon!




