Magyarországon az AI lett a legnagyobb üzleti fenyegetés

A mesterséges intelligenciához kapcsolódó fenyegetések 2026-ra a klasszikus kibertámadások elé kerültek. Magyarországon a rangsor még látványosabb változást mutat: a hazai felmérésekben az AI-hoz köthető kockázatok kerültek az első helyre, megelőzve a korábban domináns kiberincidenseket. A változás nem technológiai ugrást jelez, hanem azt, hogy az AI gyors ütemben épült be a vállalati működésbe, miközben a használatának biztonsági és megfelelési keretei sok helyen hiányoznak.

A gyakorlatban az AI-használat több ponton ütközik a jelenlegi vállalati működéssel. Sok szervezetnél nincs átlátható nyilvántartás arról, milyen adat kerül be külső AI-szolgáltatásokba, ki fér hozzá ezekhez, és milyen következményekkel járhat az adatmozgás. A hozzáférési és jogosultsági struktúrák gyakran rendezetlenek, a döntési folyamatok pedig nem visszakövethetők, ami jelentős kockázatot jelent szabályozási oldalról is.

A helyzetet tovább erősíti, hogy a NIS2 és a GDPR már nem engedi meg a szabályozatlan adatkezelési és információbiztonsági működést. A szervezeteknek bizonyítható módon kell kezelniük a kockázatokat, dokumentálniuk kell az adatfolyamatokat, és átlátható, ellenőrizhető struktúrát kell kialakítaniuk. Az AI terjedése olyan új kockázati pontokat hoz létre, amikre a jelenlegi vállalati szabályozások többsége nincs felkészítve. Ugyanakkor tekintettel arra, hogy az AI a vállalati működés szinte minden részében megjelenhet, a nemzetközi szakmai, módszertani ajánlások nem a meglévő, egy-egy szabályozási területet lefedő szabályzatok átdolgozását vagy kiegészítését, hanem egy átfogó, új és önálló AI szabályzat készítését és bevezetését javasolják, mivel az eddigi tapasztalatok szerint ez a leghatékonyabb módja az AI használatára vonatkozó szabályozásnak, és az AI-al kapcsolatban megjelenő egyre több, új jogszabályi követelménynek történő folyamatos megfelelésnek egyaránt.

A gyakorlat azt mutatja, hogy a legtöbb AI-val kapcsolatos incidens nem támadásból, hanem teljesen hétköznapi munkafolyamatból indul. Elég egy rosszul használt eszköz, és kritikus üzleti adat kerül ki a szervezetből.

Tipikus eset, amikor egy kolléga a gyorsabb munkavégzés érdekében feltölti a vevőlistát, egy belső szerződésmintát vagy egy új ajánlatot egy AI-platformra, majd az adatok — a szolgáltató működése miatt — később más felhasználók számára is hozzáférhetővé válnak. Előfordult olyan is, hogy egy értékesítési stratégia került ki így, gyakorlatilag versenyelőnyt adva a konkurenciának.

Ezek a hibák nem technikai meghibásodások, hanem működési hiányosságok következményei. És az üzleti hatásuk egyértelmű: adatvesztés, ügyfélbizalom-csökkenés, szerződéses felelősség, vezetői accountability és akár több millió forintos bírság. A NIS2 és a GDPR követelményei miatt a vezetői felelősség ma már nem elméleti kockázat — a dokumentálatlan adatmozgás vagy a rendezetlen hozzáférés tényleges következményekkel jár.

Ha ezt el akarod kerülni, akkor olyan működési keretre van szükség, ami nem engedi, hogy ezek a hibák csendben megtörténjenek.

A HANGANOV -nál ezt a problémát működésbiztonsági oldalról kezeljük: feltárjuk, hol fordulhat elő ilyen típusú adatvesztés, meghatározzuk a NIS2 és GDPR szempontjából kritikus pontokat, és kialakítjuk azokat a kontrollokat és folyamatokat, amelyek valóban megakadályozzák az üzleti adatok kiszivárgását .

A következő időszak nem arról szól, hogy a vállalatok használnak-e AI-t, hanem arról, hogy képesek-e úgy használni, hogy közben ne veszítsék el a legértékesebb adatvagyont,és ne kerüljenek működési vagy szabályozási kockázatba.

Forrás: https://commercial.allianz.com/news-and-insights/reports/allianz-risk-barometer.html

Többet szeretne tudni?
Kérjen ajánlatot!

Küldjön nekünk üzenetet vagy kérjen ajánlatot gyorsan pár kattintással! Ajánlatkérésnél kérjük, hogy adja meg telefonszámát is, hogy mielőbb fel tudjuk venni Önnel a kapcsolatot az ajánlat részletes tartalmának egyeztetése céljából!

Ajánlatkérés - ajanlat@hanganov.hu