4 perc olvasási idő (830 szó)

A mesterséges intelligencia 3 fő társadalmi veszélye - 2. rész

Amikor a jövő nagy társadalmi kérdéseiről beszélünk, eszünkbe juthat mondjuk a szegénység és túlnépesedés, a klímaváltozás, a migráció vagy épp a mesterséges intelligencia (MI) kérdése. Ez utóbbi talán távolinak, s mégis annyira lerágott csontnak tűnhet a szemünkben, hogy nem is foglalkozunk annyit vele a közbeszédben. Annál is inkább, mivel a technológiai fejlődés menetébe, úgy tűnhet, nincs sok beleszólása az átlagembernek. Másrészt az MI-re szeretünk kizárólagosan lehetőségként tekinteni, és a vele kapcsolatos kritikáink a Skynethez hasonló sci-fikben akár ki is merülnek. Pedig nem kell elérnünk a technológiai szingularitást ahhoz, hogy az MI – számos előnye mellett – káros hatást gyakoroljon a társadalomra.

A cikk két részben jelenik meg. Az első részért kattints ide.

2.Kémkedés, megfigyelés

Először is tudjuk, hogy az internetes platformok és közösségi médiaoldalak adatokat gyűjtenek rólunk (remélem, nem leptelek meg). A világ piaci versenyen alapuló gazdasága úgy épül fel, hogy az adat a legértékesebb termék, nagyobb az értéke, mint az erőviszonyokat alapjaiban formáló kőolajnak.[1] Azt is tudjuk, hogy a közösségi médián megosztott adatainkat könnyedén felhasználhatják profilkészítésre, a személyiségünk feltérképezésére – nem csupán a személyre szabott hirdetésekről van szó, a megfelelő módszerekkel cégek rendkívül mélyre tudnak ásni „bennünk".[2] Alapvetően ezeket az adatokat törvényes piaci előnyszerzés céljából használják fel a felületek használatából eredő hallgatólagos beleegyezésünk mellett. Ha azonban az adatok felelőtlen felhasználásából vagy külső digitális támadásból (hackelésből) következően ezek az adatok „rossz kezekbe" kerülnek, az veszélyt jelenthet a társadalomra. Ha csak az MI szerepére gondolunk ebben a kérdésben, a segítségükkel illetéktelen személyek törhetik fel fiókjainkat és számítógépeinket pillanatok alatt, ha önálló problémamegoldásra képes algoritmusokat használnak. A személyes adatainkat átadhatják cégeknek, külföldi kormányoknak, de akár bűnszervezeteknek is. Az MI segítségével beazonosíthatják a perifériás vagy kiszolgáltatott helyzetben lévő embereket, és bűncselekmények elkövetésére szervezhetik be őket.[3]

Az államok biztonságára is veszélyt jelenthet az MI törvénytelen felhasználása. A hackelést végző személyek, szervezetek vagy országok az adatok MI-vel történő kielemzésével tisztességtelen üzleti előnyökre tehetnek szert[4]; információt szerezhetnek kényes (pl. katonai) adatokról; illetve akár meg is károsíthatnak rendszereket, vagy át vehetik felettük az irányítást.

3.Gyilkos robotok

A mesterséges intelligenciát a hadviselés területén is előszeretettel fejlesztik és alkalmazzák. Az MI által támogatott kiberhadviselésre már kitértem az előző fejezetben. Jelenleg, ha a fegyverekre és harci járművekre gondolunk, az MI olyan ártalmatlan funkciók ellátásában segédkezik, mint a repülőgépek autonóm fel- és leszállása, vagy bejövő lövedékek észlelése, kivédése. De mi történik, ha a fegyver magától visszalő?

Számos ország, szervezet, cég, üzletember és szakember felhívta már a figyelmet a jelenleg is fejlesztés alatt álló ún. autonóm fegyverek vagy „gyilkos robotok" jelentette veszélyre az elmúlt évtizedben.[5] Ezek a fegyverek képesek lennének emberi beavatkozás nélkül kiválasztani és megtámadni a célpontjaikat a harcmezőn. A világ katonai nagyhatalmai (pl. USA, Kína, Oroszország, Egyesült Királyság, Izrael) például önállóan közlekedő és tüzelő tankokat, hajókat, cirkálórakétákat, rajban közlekedő drónokat és helyhez kötött célzórendszereket fejlesztenek, melyek közül többet elméletben már be is tudnának vetni.

Bár az ezeket használó országoknak lehet, hogy megérné a gyilkos robotok bevetése, hiszen a háború katonai áldozatai csökkennének az ő oldalukon, így pedig a hátország is könnyebben viselné és jobban támogatna egy esetleges háborút. Nemzetközi kontextusban viszont kitesszük mind a katonákat, mind a civileket annak a veszélynek, hogy egy olyan algoritmus döntsön az életükről, amely ki van téve technikai meghibásodásoknak, valamint emberellenes (pl. terrorista) szervezetek általi hackelésnek, digitális támadásnak vagy eltérítésnek. A hadiipar ilyen mértékű fejlődése növelné a háború iránti „igényt", illetve könnyen egy olyan fegyverkezési versenybe torkollhat, mint amelyet az atomfegyverek esetében tapasztalhatott a világ.

Összegzés

A mesterséges intelligencia fogalma alatt nem érdemes csupán az emberként viselkedő, komplex gondolkodású robotokat, vagy az emberiség intelligenciáját messze meghaladó, futurisztikus szuperintelligenciát értenünk. Az MI szűk, specifikus használata már nagyon is jelen van a mindennapjainkban, és egyre komolyan szerephez jut majd nem csak az átlag felhasználó eszközeinek kényelmesebbé tételében, de a gazdasági és politikai elemzésben és döntéshozatalban is. Fontos, hogy tájékozódjunk az MI fejlődéséről, hiszen egy olyan társadalmi kérdésről – és potenciális kihívásról – van szó, amely a ma felnövő aktív fiatalság korában már Magyarországon is fontos kérdéssé válhat. Mi fejlesztjük, vagy hagyjuk, hogy nekünk fejlesszék ki? Milyen alapelvek mentén és, főként, mire használjuk majd fel?


kép forrása: pixabay.com

hivatkozások:

[1] https://www.northridgegroup.com/blog/more-valuable-than-oil-data-reigns-in-todays-data-economy/ (2020. 07. 27.)

[2] A Cambridge Analytica nevű brit cég 2013-2018 között a Facebook adataiból számos ország polgárairól tömeges szinten politikai-pszichológiai profilt készített MI segítségével, és az adatok felhasználásával és kereskedelmével számos ország választásaiba és népszavazásaiba törvénytelenül beavatkozott, köztük olyanokba, mint a 2016-os amerikai elnökválasztás vagy a Brexit-népszavazás. A témához lásd a The Great Hack című filmet (2019) a Netflixen.

[3] Prakash, Abishur (2020): Go.AI - A mesterséges intelligencia geopolitikája. Pallas Athéné Könyvkiadó, Budapest.

[4] Ha például egy erre kifejlesztett mesterséges intelligencia átvizsgál bizonyos műholdfelvételeket, információt szerezhet az adott gazdaság tendenciáiról, amelyeket az adott állam alapvetően titkolni próbálna (Ibid).

[5] Az autonóm fegyverek fejlesztésével szembeni kritikus hangokat az Állítsuk meg a Gyilkos Robotokat nemzetközi Kampány (Campaign to Stop Killer Robots) fogja össze, amely az Egyesült Nemzetek Szervezetében (ENSZ) lobbizik egy előzetes nemzetközi jogi tiltó szerződés elkészítése érdekében. A témában lásd: www.stopkillerrobots.org. (2020. 07. 27.)


A jog és a demokrácia összecsapása
A mesterséges intelligencia 3 fő társadalmi veszél...

Kapcsolódó hozzászólások

 

Hozzászólások

Még nincs ilyen. Legyél te az első hozzászóló.
Already Registered? Login Here
Vendég
2024. április 19. péntek