Talán nem az állásunk esetleges azonnali elvesztése lehet a legaktuálisabb félelmünk, hanem sokkal inkább az, hogy mindenféle rossz célokra használják ezt az egészet. A United Healthcare ransomware incidense és annak vezetője ellen elkövetett merénylet kapcsán pedig van még egy érdekes említésre méltó AI szál is a mai történetben.
Minden tudást, erőforrást lehet jó és rossz célokra használni egyaránt, ahogy ez például az atomerőmű és az atombomba esetében is szemléletesen látszik. Az AI is egy olyan lehetőség, amelyet például a vírusvédelmi cégek is a különböző munkafolyamataikban, vírusminta feldolgozásban, heurisztikában és egyéb feladataikban már évek óta használnak.
De említhetjük a gépi tanulás jótékony hasznát az orvosi röntgenképek kiértékelésében is, ahol hihetetlen sebességgel átpörgetett felvételek közül gyorsan kiválasztható az az x darab páciens, akit vissza kell hívni további vizsgálatokra.
A kártékony célok érdekében való felhasználás sem váratott magára sokáig, a nyelvtanilag helyes spamek és megtévesztő üzenetek már bármely nyelven könnyen legenerálhatóak.
A rosszindulatú kódok generálására is létrejöttek a darkneten különféle előfizetői konstrukciók, például a WormGPT, FraudGPT, Chaos GPT, PoisonGPT, DarkBart, DarkBert - amelyek igénybevételével most különösebb szakértelem nélkül bárki lehet "vegyi Ali".
Ha még emlékszünk a United Healthcare történetre, már helyből sem volt egy sima sztori. Kezdődött az egész azzal, hogy az ALPHV/BlackCat zsarolóvírust terjesztő bűnözői kör egy alvállalkozói csoportja megtámadta a Change Healthcare egészségügyi szolgáltató rendszereit, letitkosítva és ellopva 6 TB bizalmas adatot. 2024. március 1-én a UnitedHealth 22 millió dollár összegű váltságdíjat fizetett ki az adataik visszaszerzéséért és a lopott adatok nyilvánossá tételének megakadályozásáért.
A váltságdíjat eredetileg bezsákoló affiliate partnert azonban pár nap múlva az ALPHV/BlackCat vezetősége felfüggesztette, és a számlájukról az ott tárolt teljes összeget elvették tőlük.
A következő lépésben a hoppon maradt segédbűnözők a RansomHub zászlaja alatt újabb követelést szegeztek az intézménynek, és ebben a második fordulóban 12 napon belül váltságdíjat követeltek a még birtokukban lévő ellopott adatokra hivatkozva. Nem fizetés esetén pedig azzal fenyegetőztek, hogy árverésen eladják ezeket a legmagasabb ajánlatot tevőnek.
A támadás már alapból is megsemmisítő hatással járt: osztályok leállása, tervezett és sürgősségi műtétek elmaradása, betegek átirányítása más intézményekbe, leletek online kiadása helyett utazgatás, számítógép helyett papír, ceruza, kartoték, telefon és fax, plusz a teljes társadalombiztosítási elszámolás rendszerének, valamint az orvosok munkaidő elszámolásának földbeállása.
Az incidens roppant nagy károkat okozott, hiszen 100 millió ember egészségügyi adata szivárgott ki, és bár erről még nem kaptunk részletesebb tájékoztatást, szinte biztos, hogy a védekezés-megelőzés területén voltak hiányosságaik.
Aztán közben történt egy gyilkosság, amely bejárta a világsajtót. Fényes nappal lelőtték Brian Thompsont, a UnitedHealthcare amerikai egészségbiztosító vezérigazgatóját egy New York-i hotel előtt.
Bár az elkövető Luigi Mangionét később elfogták, a kommentfalakon furcsa mód sokan ünnepelték a cselekedetét, aminek a lehetséges magyarázata a folyamatosan egyre dráguló, ám eközben egyben egyre kevesebb szolgáltatást nyújtó amerikai betegbiztosításokkal való tömeges elégetlenség.
Egy 2010-ben megjelent Delay, Deny, Defend című könyv szerint a nyereségérdekelt biztosítók a bevételeik növelése és a költségeik csökkentése jegyében drasztikusan éltek a fenti elvekkel, és jogi manőverekkel szisztematikusan bújnak ki a kezelések kifizetése alól. (Érdekességképpen pont ezek a szavak voltak a töltényhüvelyekre vésve.) A UnitedHealth Group csak 2023-ban 22 milliárd dolláros nyereségről számolt be, ebből 5.5 milliárd dollár a negyedik negyedévben keletkezett náluk.
És itt jön be a mesterséges intelligenciával kapcsolatos emlegetett szál a képbe, ugyanis a UnitedHealthcare és további más egészségbiztosítók is mesterséges intelligencia alapú rendszereket alkalmaznak a biztosítási igények elbírálásában. Ezek gyakran automatikusan utasítanak el kérelmeket, ami növeli a biztosítók profitját, de közben jelentős elégedetlenséget vált ki az ügyfelek körében.
Jennifer D. Oliva, az Indiana Egyetem Maurer School of Law jogász professzora publikált egy tanulmányt az Indiana Law Journal számára, amelyben azt hozza fel, hogy az ilyen AI vezérelt algoritmusok hogyan dehumanizálják puszta számsorokká a betegeket, és könnyítik meg a biztosítási igények tömeges elutasítását. Például a Cigna biztosító két hónap alatt több, mint 300 ezer ilyen kérelmet utasított el úgy, hogy azokat átlagosan 1.2 másodperc alatt automatikusan bírálták el, gyakran anélkül, hogy alaposan megvizsgálták volna az adott páciensek adatait.
Ha egyáltalán lehet itt bármilyen tanulságfélét emlegetni, annyi bizonyos, hogy az AI etikus felhasználása ügyében még rengeteg lesz a kihívás és egyben a tennivaló.
Nyilván semmit nem old meg egy hidegvérű gyilkosság virtuális ünneplése, ám az biztos, hogy a betegbiztosítóknak ideje lenne átgondolni saját működésüket, illetve a törvényalkotóknak is megfelelő szabályozást kellene ezzel kapcsolatban megalkotniuk.