Emberközpontúság kontra vállalati érdekek az EU mesterséges intelligencia szabályozásában

Ha digitális technológiákról van szó, az Európa Unió progresszív és emberközpontú mesterséges intelligencia politikájával határozza meg a globális kodifikációs teret.  Az európai technológiai szabályozás a centralista Kína és a decentralista Amerikai Egyesült Államok között helyezkedik el, úgy igyekszik kialakítani mesterséges intelligencia stratégiáját, hogy ösztönözze a tudományos és vállalati innovációt, ugyanakkor megvédje a társadalmat a túlkapásoktól. Mindezt teszi úgy, hogy a digitális térben ugyanazon jogokat és kötelezettségeket kívánja garantálni, amelyek az offline térben megilletik a polgárokat.

Az Európai Unió intézményeiben 2018-óta aktív diskurzus folyik az MI technológiák fejlesztését és alkalmazását szabályozó folyamatok kialakításáról, ahogy az UNESCO és más nemzetközi szervezetek is figyelemmel kísérik a technológia evolúcióját. Az EU mesterséges intelligenciával kapcsolatos politikai vitáinak alapjai az etikai keretek, az irányelvek, az értékelés, valamint az ágazati ajánlások. A politikai diskurzust a megbízhatóság, a kiszámíthatóság, az átláthatóság, az emberközpontúság, fenntarthatóság és a diverzitás értékei vezetik. 

A megbízható mesterséges intelligencia etikai irányelvei hét olyan kulcsfontosságú követelményt tartalmaznak, amelyeknek meg kell felelniük ahhoz, hogy megbízhatónak minősüljenek. 

Az emberközpontúság elvének több definíciója is lehet, társadalomtudományi oldalról vizsgálva a technológiai fejlesztés célja az emberi evolúció előmozdítása, vagyis a gép az ember szolgálatába állítása. Biztonságtudományok területéről vizsgálva az emberközpontúság olyan technológiai megoldást is jelent, amely a végső irányítást meghagyja az embernél, a biztonságos mesterséges intelligencia addig garantálható, ameddig az ember felelős végső soron az irányításért olyan döntéseknél, amelyek káros hatásúak is lehetnek. Jogtudományi szempontból a technológiai fejlesztéskor az egyetemes emberi jogoknak érvényesülniük kell. 

A mesterséges intelligencia tanításához adatokra van szükség, viszont az adatokat létrehozó személynek vagy csoportnak engedélyeznie kell adatuk felhasználásának célját. A magánélet és az adatvédelem teljes körű tiszteletben tartása mellett megfelelő adatkezelési mechanizmusokat is biztosítani kell, figyelembe véve az adatok minőségét és integritását, valamint az adatokhoz való legitim hozzáférést. Erre a Mesterséges Intelligencia Jogszabálycsomagban (AI Act) a szabványosítás jelenthet némiképp megoldást. A jelenleg gyártott MI modellek többsége fekete doboz-szerű, felépítésükből fakadóan működési mechanizmusuk nem elemezhető az ember által, hiszen több milliárd információból állít elő egy újat. Az adatkezelési hozzájárulásnál az átláthatóság elve azt is jelölheti, hogy az MI rendszerek működését és azok döntéseit az érintett felekhez igazodó módon kell elmagyarázni, illetve a rendszerek képességéről és korlátairól tájékoztatást adni. Erre a GDPR rendelettel kötelezővé tett adatkezelési tájékoztatók jóváhagyása nem jelent teljeskörű megoldást, hiszen az adatok szolgáltatói legtöbb esetben nem értelmezik a hozzájáruláshoz szükséges rendelkezést. Fontos lenne az is, hogy egy kijelölt ellenőrző hatóság felelősségre vonható legyen a mesterséges intelligencia rendszerek tevékenységeiért.

A sokszínűség előmozdítása érdekében a mesterséges intelligencia rendszereknek mindenki számára hozzáférhetőnek kell lenniük, ehhez azonban olyan képzési rendszerre van szükség, amelyre még nem képszült fel a tömegoktatás. A sokszínűség elvének érvényesülése azt is jelenti, hogy törekedni kell arra, hogy egyik népcsoport se marginalizálódhasson, így a mesterséges intelligencia fejlesztéséhez használt adatokra a lehető legszínesebb adatbázist kell építeni. Az MI rendszereknek minden ember javát kell szolgálniuk, beleértve a jövő generációit is. Ezért biztosítani kell, hogy ezek fenntarthatóak és környezetbarátak legyenek, és alaposan meg kell fontolni társadalmi hatásukat.

A felelősség és elszámoltathatóság érvényesülésében az auditálhatóságnak kulcsszerepe van. Utóbbi lehetővé teszi az algoritmusok, adatok és tervezési folyamatok értékelését, különösen a kritikus alkalmazásokban a megfelelő jogorvoslat lehetőségének megteremtésével. jelenleg nincs politikai konszenzus abban, hogy ki a felelős az MI hibáiért, mert a fejlesztők nem okolhatók miután modelljeiket legyártották, azok az alkalmazottak pedig, akik a rendszerek működését biztosítják, egy szabályozott protokollt követnek, amitől eltérő hibáért nem vonhatók felelősségre.

A jogalkotás során arra törekednek Európa-szerte, hogy mindig legyen emberi felelős és jogorvoslati szint is a mesterséges intelligencia rendszer mögött. Ezzel szemben az EU jelenlegi politikája és stratégiája az „algoritmus hibáztatása” megközelítést ösztönzi, amely a vállalati érdekeket jobban szolgálja, mint az polgári jogokat.

Ha az EU versenyezni szeretne a Szilícium-völgy innovációs piacával a mesterséges intelligencia szektorban, az emberközpontú technológiai megközelítést háttérbe kellene szorítani a vállalati érdek érvényesüléséhez. Az Európai Unió Tanácsának cseh elnökségi prioritásai között szerepel a mesterséges intelligencia jogszabálytervezet körüli vita sürgetése, jelenleg a mesterséges intelligencia szűkebb definíciójának kidolgozása zajlik, amely az európai alapokmányokban foglalt értékek érvényesítésére törekszik, azonban a politikai viták erősen átitatottak a vállalati lobbi befolyásával. A cseh elnökség júliusban a definíció pontosítása mellett a magas kockázatú MI rendszerek listájának felülvizsgálatát és lerövidítését, az MI  igazgatótanács szerepének megerősítését és a nemzetbiztonsági mentesség átfogalmazását javasolta. 2024-ben a magyar elnökség idején várható a jogszabály elfogadása.

2022.08.26. Pató Viktória Lilla

Kép: Flickr