A CCBE (Európai Ügyvédi Kamarák Tanácsa) 2025. szeptemberében elfogadta a generatív mesterséges intelligenciával kapcsolatos útmutatását, melynek magyar nyelvű fordítása a Magyar Ügyvédi Kamara honlapján elérhető, az eredeti, angol nyelvű kiadvány pedig a CCBE honlapján tekinthető meg. Az abban foglaltakat alapul véve e bejegyzésemben szeretném felhívni a figyelmet arra, hogy
a mesterséges intelligencia (AI) használata korántsem veszélytelen!
Az AI, különösen a generatív megoldások térnyerése jelentős lehetőségeket kínál például az adminisztratív szolgáltatások területén is. Ugyanakkor ezek alkalmazása során elengedhetetlen a kapcsolódó kockázatok alapos ismerete és tudatos kezelése, különös tekintettel az adatvédelemre, a titoktartásra és a szakmai felelősségre.
AI használata – a legfontosabb kockázati tényezők
Magánélet és adatvédelem
A generatív AI-eszközök használata során a felhasználók gyakran észrevétlenül adhatnak meg olyan adatokat, amelyek bizalmas vagy érzékeny információkat tartalmaznak. Ezek az adatok – bizonyos esetekben – a modellek továbbfejlesztéséhez is felhasználásra kerülhetnek, ami adatvédelmi szempontból komoly kockázatot jelent.
Pontatlan vagy félrevezető válaszok (hallucinációk)
Az AI-rendszerek időnként valótlan vagy logikailag hibás információkat generálhatnak. Ez különösen veszélyes lehet olyan adminisztratív feladatoknál, ahol a pontosság alapvető követelmény.
Elfogultság és túlzott alkalmazkodás
A mesterséges intelligencia működését befolyásolhatják a tanítási adatokból eredő torzítások. Emellett megfigyelhető az úgynevezett „hízelgés” jelensége is, amikor a rendszer a felhasználó vélt elvárásaihoz igazítja válaszait, akár szakmailag indokolatlan módon is.
Átláthatóság hiánya („fekete doboz” jelenség)
Sok AI-alapú rendszer működése nem átlátható. A döntéshozatali folyamatok gyakran nehezen értelmezhetők, ami megnehezíti a kockázatok pontos felmérését és a felelősségi kérdések tisztázását.
Szellemi tulajdon kérdései
Nem minden esetben egyértelmű, hogy a modellek milyen adatokat használtak fel a tanulás során. Ez szerzői jogi problémákat vethet fel, különösen akkor, ha a kimenet felismerhetően tartalmaz védett tartalmakat.
Kiberbiztonsági kockázatok
Az AI-eszközök használata új támadási felületeket nyithat meg. A rosszhiszemű szereplők kihasználhatják a rendszerek sérülékenységeit, ami adatvesztéshez vagy jogosulatlan hozzáféréshez vezethet.
Csalás és visszaélések (deepfake, szintetikus identitások)
A mesterséges intelligencia segítségével egyre kifinomultabb csalási módszerek jelennek meg, amelyek komoly reputációs és pénzügyi kockázatot hordoznak.
A „FOMO” hatás és a rossz döntések veszélye
Az adminisztratív szolgáltatásokat nyújtó egyéni vállalkozók körében is megjelenhet a „fear of missing out” (FOMO), vagyis a kimaradástól való félelem. Ez könnyen oda vezethet, hogy valaki kellő szakmai felkészültség nélkül kezd el új AI-eszközöket használni.
Márpedig a nem megfelelően megválasztott technológia adatvédelmi incidensekhez, bizalmas információk kiszivárgásához, vagy akár jogi következményekhez is vezethet.
A legtöbb modern AI-megoldás felhőalapú infrastruktúrán működik. Ez különösen fontos kérdéseket vet fel, hiszen az adatok gyakran az Európai Gazdasági Térségen kívül kerülnek feldolgozásra, a felhasználó nem tudja ellenőrizni az adatkezelés pontos körülményeit, és nincs tisztában azzal, hogy a különböző országok jogszabályai eltérő védelmi szintet biztosítanak számára és ügyfelei számára.
Tipikus példa erre az időmérő vagy produktivitást követő szoftverek használata, amelyek akár folyamatos képernyőfigyelést is végezhetnek. Ezek az eszközök bizony sokszor a szükségesnél jóval több adatot gyűjtenek felhasználóikról.
Fontos tisztában lenni azzal, hogy az adatok anonimizálása gyakran egyáltalán nem olyan egyszerű, mint amilyennek tűnik. A nevek vagy helyszínek eltávolítása egy dokumentumból önmagában nem elegendő, mivel csupán a kontextus alapján kikövetkeztethető lehet a tartalom, az egyedi események vagy részletek azonosíthatóvá tehetik az egyes személyeket, sőt, már az érintettek körének leszűkítése is sértheti a titoktartást.
Szakmai felelősség és tudatos eszközhasználat
Minden adminisztratív szolgáltatást nyújtó egyéni vállalkozó számára alapvető kell, legyen, hogy
- kizárólag olyan szoftvereket alkalmazzon, amelyek megfelelnek az adatvédelmi és titoktartási követelményeknek,
- minden új eszköz bevezetése előtt alapos kockázatértékelést végezzen,
- ne adjon engedélyt arra, hogy az általa kezelt adatokat harmadik fél AI-tanítási célokra használja fel.
WEBÍRNOK – Minőség mindenek felett!
Adminisztratív jellegű szolgáltatásokat nyújtó egyéni vállalkozóként tisztában vagyok azzal, hogy a munkavégzés minősége nem áldozható fel a mennyiség növelése érdekében. Éppen ezért egyéni vállalkozóként az első pillanattól kezdve alapelvemnek tartom, hogy
- csak annyi megbízást vállalok el, amennyit magas szakmai színvonalon el tudok látni,
- az ügyfelek érdekeit minden körülmények között előtérbe helyezzem,
- a technológiai fejlődést pedig tudatosan, nem pedig kényszerből követem.
Munkám során kiemelt figyelmet fordítok az adatbiztonságra. Vállalkozásomban az offline munkavégzést preferálom, s meggyőződésem, hogy bizonyos esetekben a fizikailag tárolt adatok lényegesen nagyobb védelmet nyújtanak, jobban kontrollálhatók, és kisebb kockázatot jelentenek, mint egyes felhőalapú megoldások.
A mesterséges intelligencia hatékony eszköz lehet az adminisztratív feladatok támogatásában, de kizárólag tudatos, körültekintő használat mellett.
Számomra a megfelelő egyensúly megtalálása a hatékonyság és az adatbiztonság között nemcsak technikai, hanem etikai és szakmai kérdés is.
Célom, hogy ügyfeleim számára megbízható, biztonságos és magas színvonalú szolgáltatást nyújtsak olyan módon, amely hosszú távon is védi az érdekeiket.
Keressen bizalommal!
Fotó: Pixabay