Testhezálló online & offline szövegek

Szövegszabász

Szövegszabász

Az AI és a forgóajtó szédülete

2025. január 16. - Szövegszabász

ai.jpg

Ahogy a 2000-es évek elején az okostelefonok megjelenése, úgy most az AI mindenen átgázoló elterjedése borítja fel a kommunikációnkat. És az még hagyján, hogy felforgatja, de egy sor megválaszolatlan jogi kérdést is felvet a Mesterséges Intelligencia alkalmazása. Erről beszélgettem, Hortobágyi Ágostonnal, az ELTE ÁJK JOTOKI Mesterséges Intelligencia és Technológiai Jogi Szak szakokleveles jogászával.

2022 decemberében robbant be a köztudatba az AI a chat GPT-vel (később pedig a Gemini). Nyilván, a mesterséges intelligencia fejlesztése évekkel korábban kezdődött, csak a munka 2022 végén ért el oda, hogy az AI tesztelését a tömegekre bízták  időt és dollármilliárdnyi forrást spórolva a fejlesztőnek. És ekkor kellett volna valahol a jogi környezettel is találkoznia…

Vagyis kimaradt egy lépés?

Itt egy kicsit jogászkodnunk kell, mivel alapesetben a legtöbb innováció európai szinten nehezen szabályozható. Méghozzá azért, mert kétféle, markáns jogi gondolkodás van jelen a világban. Az európai, a római jogot veszi alapul, az amerikai típusú jogalkotás pedig a precedensre épül.

Az európai úgynevezett korlátozó jog, amiben a jogalkotó igyekszik minden helyzetet előre modellezni és leszabályozni. A római jog és ebből következően a mi joggyakorlatunk is mindig a felelősből indul ki. Ha európai gondolkodással próbálunk meg innoválni (valami újat létrehozni, és eljutni oda, ahol a komfortzóna véget ér), abban a pillanatban jönnek a jogászok, akik elmondják, hogy ezt jogilag miért nem lehet megtenni. Az európai és benne a magyar jogrend  fogalmazzunk úgy, nem annyira innováció-barát.

Ezzel szemben az amerikai jogrend alapja a precedens jog, ami szerint mindaddig teheted, amit szeretnél, amíg azzal nem ártasz másoknak. Ha viszont perre kerül a sor, akkor visszakeresnek addig, amíg hasonló ügyet nem találnak és az ott alkalmazott jogszabályokat vagy döntéseket érvényesítik a kérdéses esetben. Ha pedig nem volt még precedens, akkor most biztosan létre fog jönni egy olyan döntés, mely a későbbi, hasonló eseteknek fog alapot szolgáltatni. 

A jog empirikus tudomány, tehát a már megtörtént eseteket veszi alapul, vagy azokból kiindulva próbál valamilyen következtetést levonni. Az AI pedig miközben mi most beszélgetünk már emberi aggyal felfoghatatlan mennyiségű ismeretet sajátított el, tanult. Hogyan tudja a statikus jog követni ezt a fejlődést?

A jogrendszer minden esetben jogkövető magatartást vár el az állampolgároktól. Azaz, a kereteket a törvények, szabályok adják.

És épp ez a baj az AI-jal, aminek nem ismerjük a határait. Olyan, mint egy amőba, aminek nincs határozott kiterjedése és ráadásul másodpercenként változik, így lehetetlen keretek közé szorítani.

 
Ez a képlékenység kontra európai szabályozottság az oka, hogy az innovátorok a jogba ütközve inkább a tengerentúlon próbálnak szerencsét. Érteni vélem a jogászok abbéli szándékát, hogy ezt a megfoghatatlan dolgot igyekeznek megfoghatóvá tenni, de ezzel az innovációt éppen azon jellemzőitől fosztják meg, amitől újdonságként, különlegességként hat.

Ezek szerint az AI-t a jog jelenleg nem tudja kezelni? 

Természetesen létezik valamiféle válasz a kérdésre, az unió az AI ACT-tal megalkotta a mesterséges intelligenciára kialakított jogszabályi környezetét. Ezt az uniós normát aztán az egyes tagállamok beemelik a saját jogszabályi környezetükbe.
Az AI ACT előírja, hogy a mesterséges intelligencia alapú ökoszisztémákat veszélyességük alapján három kategóriába (alacsony, közepes és magas kockázatú) szolgáltatásként kell kezelni. A csavar ott van a történetben, hogy mely kategóriába soroljuk az adott szolgáltatást, azt maga a szolgáltató határozza meg.

Itt mit értünk veszélyesség alatt?

A személyes adatokhoz való hozzáférés mindenképpen kockázati tényező, de az is ide tartozik, hogy milyen tudásanyaggal tanítjuk az AI-t. Ezen felül pedig az is fontos kérdés, hogy mely területeken hagyjuk önállóan dönteni, vagy hol szükséges még emberi döntést tenni az AI által előkészített folyamatok végére.
És a fenti logikából következik az is, hogy innentől kezdve nem igazán akad majd senki, aki önálló AI algoritmus fejlesztésébe fog, hanem azt a piacon lévő nagy multiktól vásárolja majd meg. Így nem az ő dolga lesz az adott algoritmust kategorizálni, nem neki kell érte felelősséget vállalni. Azaz a techóriásokon kívül az összes többi szereplő csupán felhasználó lesz.

Mindez azért van így, mert jogilag nehéz (ha nem lehetetlen) meghatározni a mesterséges intelligenciát?

Nem algoritmust gyártani nehéz, hanem azt kompatibilissé tenni a joggal! Én missziómnak tekintem, hogy egy asztalhoz ültessem az informatikusokat és a jogászokat, hogy megszülethessen egy olyan szoftver, ami megfelel a jogszabályoknak is. Meglehetősen Don Quijote-i kihívás ez, mert az informatikusok félnek a jogászoktól, a jogászok meg elvesznek a forráskódok világában. Most a helyzetet tovább bonyolította az ember által előáll

ított algoritmus, amit nekünk kell információval megtölteni. A leglényegesebb pont pedig az, hogy olyan adatokkal kell felokosítani, amelyekkel a végeredmény mind jogilag mind technikailag használható lesz.

Hogy a mesterséges intelligencia mennyire beette magát a köztudatba, azt az is jól mutatja, hogy már “köznevesült” az elnev ezés és megjelent az “AI-jozik” kifejezés. Nyilvánvalóan ez a szakmámat is érinti. Megfelelő promtolással akár Hortobágyi Ágostont rossz színben feltüntető tartalmakat is elő tudok állítani néhány másodperc alatt. Ha ennek büntetőjogi következményei lesznek, ki a felelős? Az algoritmus vagy én?

Egyértelműen az, aki a feladattal megbízta a mesterséges intelligenciát! És ha ezek a rám nézve negatív tartalmak kikerülnének, természetesen azonnal perelnék. Na de kit? Jelenleg sajnos azt nem tudjuk bebizonyítani, hogy ki kérte meg az AI-t, hogy írjon rosszat rólam! Ezért most ezek a számonkérések elmaradnak! Erről még beszélünk a későbbiekben, hogy a digitális tér személyazonosságának hiánya mekkora károkat okoz és milyen veszélyeket hordoz magában. 

De hadd magyarázzam el miben élünk most! A világunk olyan, mint egy épület, amiben az egyik szoba a digitális tér, a másik pedig a fizikai. Köztük pedig egy szállodai forgóajtó van, az AI. 

A mesterséges intelligencia Janus-arcúsága abból fakad, hogy a fizikai térben keletkezett adatokkal, információkkal tanítjuk az online platformon létező robotunkat, mégis a digitális világ kihívásaira nyújt megoldást a végső soron a való életből merített válaszokkal.

 
Az előző példa paradoxonnál maradva, jelenleg a forgóajtóban állunk, mivel egyszerre vagyunk jelen mindkét térfélen. Amíg például most online beszélgetünk, a fizikai valóságban az irodámban ülök és ha hozzám szólnak a kollégáim, akkor természetesen “élőben” válaszolok nekik.

Mi ezzel a probléma?

A digitális tér jelenlegi legnagyobb hiányossága, hogy nincs mindenkire, általánosan kiterjedő személyazonosságunk. A fizikai térben bevett dolog, hogy legtöbbször papíralapú okmánnyal kell igazolnunk magunkat. Az online térben nincs ilyen, mint ahogy nincs egységes jogszabályi háttér sem az identifikációra. És persze, nincs egységes képzés sem. És megint csak oda jutottunk, hogy nem tudjuk: a betáplált adatok honnan, kitől származnak.

Érdekes, mert az EU az élelmiszer előállítás során már régóta megköveteli a teljes nyomkövetést…

Az AI-nál nem tudjuk visszafejteni az adatokat az egyes személyig. Oktatjuk az AI-t, ami valamilyen következtetésre jut, de hogy mire, és hogy egyáltalán milyen alapokra hivatkozva hozza meg a döntését, azt már nem tudjuk leellenőrizni.

Meglehetősen ijesztőnek hangzik ez így. Ebben a digitális apokalipszisben hogyan lehet rendet tenni?

Megszületett a DSA, a nagy techcégeket, social media platformokat szabályozó törvény. Ez kimondja, hogy a náluk megjelenő tartalmakért ők, azaz a platformokat üzemeltető multik a felelősök. Így fordulhatott elő, hogy 2024-ben az X (leánykori nevén Twitter) több milliárd forintnyi büntetést kapott azért, mert ezen a felületen terjedtek leginkább az ukrajnai háborúval kapcsolatos dezinformációk.

Mivel jószerével bárki, bármit feltehet az online platformokra, ezért az egyetlen felelősségre vonható szereplőt, a platform üzemeltetőjét számoltatják el. Vagyis tőlük várják el, hogy a fals információkat házon belül kiszűrjék. (Ennek némileg ellentmond az a tény, miszerint napokban jelentette be Mark Zuckerberg, hogy a tényellenőrzés korábbi formája megszűnik a Meta univerzumban.)

Ha a social media platformokra bízzák, hogy saját hatáskörben szorítsák ki a gyűlöletbeszédet és a visszaéléseket, akkor tartok tőle még nagyobb káoszra számíthatunk. Mi a megoldás?

Ezért vagyok a DÁP (Digitális Állampolgárság) híve, mert az online térben megteremtené az állam által biztosított személyazonosítás lehetőségét. Az okmányszintű azonosítást már megszoktuk,

itt az ideje, hogy megbarátkozzunk a digitális ID-vel is. Ha csak ennek birtokában gyárthatunk és publikálhatunk online tartalmakat, megszüntethető lesz a mostani anomália.

 
Jelenleg az a képtelen helyzet áll fenn, hogy a fizikai térben ismert jogszabályok alapján döntenek a digitális térben elkövetett hibákról, visszaélésekről. A probléma gyökere pedig az: a jog nem akarja elengedni azt a logikát, hogy akár az egyik szobában, akár a másikban, akár a forgóajtóban állunk, mindig kell egy azonosítható személy, akinek vállalnia kell a felelősséget a történtekért.

A bejegyzés trackback címe:

https://szovegszabasz.blog.hu/api/trackback/id/tr218776164

Kommentek:

A hozzászólások a vonatkozó jogszabályok  értelmében felhasználói tartalomnak minősülnek, értük a szolgáltatás technikai  üzemeltetője semmilyen felelősséget nem vállal, azokat nem ellenőrzi. Kifogás esetén forduljon a blog szerkesztőjéhez. Részletek a  Felhasználási feltételekben és az adatvédelmi tájékoztatóban.

Nincsenek hozzászólások.
süti beállítások módosítása