Az elmúlt napokban felröppent a hír az OpenAI rendszerét érintő adatszivárgásról. Bár kiderült, hogy a közvetlen felhasználói beszélgetések nem kerültek veszélybe, az eset egy égető problémára világított rá, ami minden cégvezetőt érint.
Ha céges adatokat, dokumentumokat vagy belső információkat adsz be bármilyen AI-nak, ott mindig van kockázat. És ez az a pont, amit a legtöbb felhasználó – és sajnos sok munkavállaló – egyszerűen nem tud, vagy nem vesz figyelembe a napi darálóban.
Ez a cikk azért készült, hogy tisztán láss: mit szabad, mit tilos, és hogyan használd a ChatGPT-t vállalati környezetben úgy, hogy ne a te céged legyen a következő negatív esettanulmány.
Biztonságos-e érzékeny adatokat feltölteni a ChatGPT-be?
A rövid válasz: a nyilvános verzióba semmiképp.
Sok vezető legyint: „Mi baj lehet? Hiszen ez csak egy AI, segít megírni az e-mailt.” Csakhogy van egy óriási különbség a magáncélú és az üzleti felhasználás között.
A ChatGPT ingyenes, Plus és Pro verziói nem vállalnak olyan adatvédelmi garanciákat, amelyek céges vagy bizalmas dokumentumokra alkalmasak lennének.
Ez a gyakorlatban azt jelenti: szerződéseket, HR-iratokat, pénzügyi riportokat tilos a „sima” ChatGPT-be másolni. Nem azért, mert valaki folyamatosan olvassa a chatjeidet, hanem azért, mert nem rendelkezel vállalati szintű jogi védelemmel az adataid felett. Fogyasztó vagy, nem vállalati partner.
A tiltólista: 7 dolog, ami soha ne kerüljön nyilvános AI-ba
Mielőtt a kollégák megnyitják a chatablakot, ezt a listát érdemes a fejükbe vésni:
- Személyes adatok (GDPR): Név, lakcím, telefonszám, e-mail listák. Ha nincs adatfeldolgozói szerződésed a szolgáltatóval, ez azonnali szabálysértés.
- Ügyféladatok és CRM listák: Az egyik leggyakoribb hiba. „Csak elemeztesd ki ezeket a vásárlási szokásokat” – és máris feltöltötted az ügyfeleid adatait egy külső szerverre.
- HR és bérügyek: Teljesítményértékelések, fegyelmik, bérlisták. Ezeknek semmi keresnivalójuk egy nyilvános chatbotban.
- Szerződések és jogi iratok: Tipikus eset: „Magyarázd el ezt a szerződést egyszerűbben!” Ezzel a bizalmas jogi tartalom kikerült a céges felügyelet alól.
- Egészségügyi adatok: Szigorúan tilos. Itt nincs mérlegelés, csak dedikált, HIPAA-kompatibilis rendszerek jöhetnek szóba.
- Műszaki specifikációk és K+F: Gyártási tervek, kódok, szabadalmaztatás előtti ötletek. Ez a te szellemi tulajdonod, ne ajándékozd oda a modellnek.
- Stratégiai belső anyagok: Üzleti tervek, árazási stratégiák, felvásárlási tervek. Ha ez kiszivárog, az nem IT hiba, hanem üzleti katasztrófa.
Ökölszabály: Ha nem tennéd ki nyilvánosan a weboldaladra vagy a Facebookra, ne írd be a nyilvános ChatGPT-be sem.
Ha mégis szeretnél biztonságosan AI-t használni: milyen biztonsági szintek léteznek?
A ChatGPT-nek három, egymástól nagyon eltérő biztonsági kategóriája van (pontos és friss csomagok itt https://chatgpt.com/pricing)
ChatGPT (Free, Plus, Pro)
- fogyasztói szolgáltatás
- alap adatvédelem, NEM vállalati
- üzleti adatokra nem alkalmas
- adattréning kikapcsolható, de ez nem jelent vállalati garanciát
Kinek való?
magánhasználat, általános ötletelés, tanulás
ChatGPT (Business és Enterprise)
| Funkció / Tulajdonság | ChatGPT Business | ChatGPT Enterprise |
|---|---|---|
| Kinek való? | Kis- és középvállalatoknak, akik sokat dolgoznak AI-jal, és belső csapatnak adnak hozzáférést. | Nagyvállalatoknak, erősen szabályozott iparágaknak, kritikus belső adatot kezelőknek. |
| Adatvédelem | A vállalati adatok nem kerülnek felhasználásra modelltréningre | Teljes adatleválasztás + Zero Data Retention (semmit nem tárol a rendszer) |
| Biztonsági szint | Magas vállalati szint | Legmagasabb szint, szabályozott iparágakhoz is |
| Titkosítás | Végpontok közötti (E2E) | Végpontok közötti + extra vállalati kulcskezelés |
| Adminisztráció | Csapat- és felhasználókezelés, hozzáférési jogosultságok | Kiterjesztett admin, audit naplók, hozzáférés-szabályozás rendszerszinten |
| SSO / SAML / Enterprise Login | Igen | Igen, fejlettebb vállalati megfelelőséggel |
| Felhasználószám | Minimum 2 felhasználó | Minimum 150 felhasználó (nagyvállalati licenc) |
| Árazás | 30 USD / hó / felhasználó (éves előfizetéssel 25 USD) | Egyedi ajánlat alapján (vállalati tárgyalás) |
| Tokenkeret / használati limit | Plusznál nagyobb kvóta, de limitált | Korlátlan üzenet- és tokenkeret |
| Modellhozzáférés | GPT-5.1, GPT-4o, GPT-4.1, GPT-4o mini | Ugyanaz + vállalati modellek + testreszabási lehetőség |
| Munkaterület | Közös team workspace | Teljes vállalati környezet, dedikált infrastruktúrával |
| Integrációk | Slack, Google Drive, SharePoint, GitHub | Ugyanez, plusz vállalati szintű API hozzáférés és fejlettebb integrációk |
| SLA (szolgáltatásgarancia) | Nincs | Igen, dedikált SLA és support |
| Adatmegőrzés | Standard (vállalati szintre tervezve) | Zero-retention: semmit nem tárol a rendszer |
Mit tegyen egy cégvezető ma?
A legfontosabb lépések a biztonságos AI-használat felé
A generatív AI már a legtöbb szervezet mindennapjaiban jelen van — sokszor úgy, hogy erről a vezetőség vagy az IT csapat egyáltalán nem tud. A dolgozók teljesen természetes módon kezdik el használni a ChatGPT-t, gyakran anélkül, hogy tisztában lennének azzal, milyen típusú adatot adnak be a rendszerbe, vagy hogy mindez milyen üzleti, adatvédelmi és reputációs kockázattal járhat.
Ez nem rossz szándék eredménye. Egyszerűen arról van szó, hogy a technológia gyorsan fejlődik, sokak számára még mindig „misztikus” terület marad, és nehéz átlátni a mögötte húzódó kockázatokat. Éppen ezért a biztonságos AI-használat alapja mindig az információ, az átláthatóság és a tudatos irányítás.
1. Készítsetek egy belső felmérést
Tudjátok meg, milyen adatokat visz be a szervezet az AI-rendszerekbe.
A legelső lépés, hogy pontos képet kapjatok arról, hogyan használja a szervezet az AI-t jelenleg. Ehhez érdemes egy átfogó, de egyszerű belső felmérést indítani, amelyben minden érintett területet megkérdeztek: ki mire használja a ChatGPT-t, milyen típusú dokumentumokat tölt be, és milyen célból veszi igénybe az AI eszközöket.
Nagyon fontos hangsúlyozni, hogy ennek a felmérésnek nem a „hibakeresés” vagy a felelősségre vonás a célja. Éppen ellenkezőleg: ez az első lépés ahhoz, hogy később biztonságosan engedélyezni lehessen az AI használatát a szervezeten belül. A tapasztalat azt mutatja, hogy már ez a lépés is rengeteget segít abban, hogy a vezetőség tisztábban lássa a rejtett kockázatokat és a valós használati mintákat.
2. Dolgozzatok ki egy hivatalos, céges AI-használati szabályzatot
Ha megvan az átláthatóság, a következő feladat a keretek kijelölése. Nem kell bonyolult, több tíz oldalas szabályzatra gondolni — sokkal fontosabb, hogy érthető, praktikus és napi szinten használható legyen.
Érdemes leülni az IT vezetővel, a jogi csapattal vagy szükség esetén külső szakértővel, és közösen kialakítani, hogy:
- milyen típusú dokumentumokat lehet AI-rendszerekbe tölteni,
- milyen adatokat kell teljes mértékben tiltani,
- milyen csatornákon engedélyezett az AI használata,
- milyen kockázatos eseteket hogyan kell kezelni,
- és mely területeken lehet az AI használatát bátorítani.
Ha szükséges, ebben a folyamatban természetesen mi is tudunk segíteni — akár a szabályzat struktúrájának kialakításában, akár abban, hogy ez valóban illeszkedjen a vállalat napi működéséhez.
3. Tudatosan válasszátok ki, milyen AI-alkalmazások és biztonsági szintek illenek a szervezethez
A felelős AI-használat nem egyetlen eszköz bevezetéséről szól, hanem egy egész vállalati AI-ökoszisztéma kialakításáról. Ez nemcsak adatbiztonsági kérdés, hanem működési és stratégiai döntés is.
Érdemes végiggondolni:
- milyen rendszerekkel dolgozik a szervezet,
- milyen folyamatokba kerülhet be az AI,
- milyen adatok mozognak a vállalat különböző területein,
- és melyik AI eszköz milyen biztonsági szintet tud garantálni.
Ebben a döntésben nagy különbséget jelent, hogy egy cégnek elég-e a ChatGPT Business, szüksége van a ChatGPT Enterprise-ra, vagy adott esetben még ennél is magasabb szintű, zárt, iparág-specifikus AI-megoldásra.
A megfelelő AI-alkalmazások kiválasztása egyszerre adatvédelmi, működési és hosszú távú üzleti kérdés — a cég méretétől, iparágától és kockázati profiljától függően.
Ha még nagyobb adatbiztonság kell…
A generatív AI bevezetése ma már nem technológiai kérdés, hanem stratégiai döntés: hogyan építjük be a működésünkbe úgy, hogy abból valódi üzleti előny szülessen.
Ha szeretnétek támogatást abban, hogy milyen AI eszközök illenek a szervezetetekhez, csapatunk szívesen tart egy rövid, díjmentes tájékoztatást a vezetőségnek, írj egy emailt a hello@justbeedigital.hu email címre.
Ez már nem futurisztikus technológiai kérdés. Ez üzleti kockázatkezelés.
A cikk szerzője:

Pásti Edina
Generatív AI szakértő









