3000%-kal több lett, maradhat?

2024. február 26. 12:07 - Csizmazia Darab István [Rambo]

A deepfake hamisítással összekötött adathalászat mértéke a tavalyi évben rekordot döntve elképesztő mértékben nőtt. A szakértők véleménye szerint viszont csak most kezd majd igazán erősödni.

1988. - ebben az évben jelent meg a nagy sikerű PhotoShop képmanipulátor program első verziója, sokan a blog olvasói közül talán még meg sem születtek ekkor. A korábbi alapállás, amit persze a korabeli fényképek laboros hamisítása azért kicsit befolyásolt: lásd Sztálin féle retusált történelem, vagy a Loch Ness-i szörnyről, jetiről, bigfootról, ufókról készített állítólagos fotók - előtte azért mégiscsak az volt, hogy kevés kivételtől eltekintve hihetünk a szemünknek.

Ennek tette be a kaput látványosan a PhotoShop eleinte csak a címlapon szereplők megszépítésével, a későbbi tömeges használattal aztán már bármire és akármire használták, és persze az internetes csalásokban is kivette a részét.

Bár csak 2017-ben jelent meg az első deepfake videó, ahol látszólag Obama beszélt, de egy másik ember tátogott a szájával, innentől aztán rohamtempóban felgyorsultak az események.

Az egyre jobb minőségű deepfake mellett a Samsung labor 2019-ben már egyetlen állóképből is tudott egyszerűen hamisított kezdetleges videót készíteni, amit szépen be is mutattak Mona Lisa, Einstein, Raszputyin, Salvador Dali és Marilyn Monroe főszereplésével.

Ez a technika hamarosan átverésekben, fakenews hírekben is felbukkant, például egy hamis Zelenszkij filmben, amiben látszólag a háború feladására szólított fel.

Állóképek terén is forradalmi változások jöttek a Dall-E, Tengr.ai, Midjourney, Leonardo.ai, Clipdrop, Wonder,
Stable Diffusion, Freepik, Dreamstudio és hasonló képgenerátoroknak köszönhetően, így láthattuk olyan soha meg nem történt eseményeket, mint a pufi-dzsekis Pápa, Trump tucatnyi rendőr általi letartóztatását, vagy robbantást a Fehér Házban.

A programok egyre komolyabb tudásúak, villámgyorsak és szinte bármit el lehet készíteni a segítségükkel.

Végül pedig megérkezett a Google Lumiere és rövid idővel utána az OpenAI SORA alkalmazása, amely parancssor alapján már nem csak állóképet, hanem valósághű mozgó videót is képes generálni. Ezek tudásáról érdemes megnézni a bemutató videókat is, van ebben állókép egy részletének animálásától kezdve meglévő videó módosításán át prompt alapján készíthető élethű film is.

Bárkit érhet ilyen típusú hamisítás, például legutóbb Taylor Swift került a célkeresztbe, akinek a videójára ismeretlenek ráhamisítottak egy Trumpot éltető zászlót.

A gépi tanulással segített átverések már jó ideje egyre gyakoribbak lettek, és bár a fenti felsorolásból kimaradt a hang hamisítása, ez is már évek óta lehetséges, így például volt rá eset, hogy a DeepVoice hangszintetizálás segítségével 220 ezer euró összeget csaltak ki egy cég igazgatójától, és ebben magyar szál is szerepelt.

Sajnos a hétköznapokba is betört mindezt, például a klasszikus "öregezés" modernizált változatában a gyerek hangján hívják fel a szülőket, aki látszólag elmondja, hogy elrabolták és csak váltságdíj ellenében engedik szabadon.

A 2023. áprilisi esetnél szerencsére a dolog kamu volt, és az iskolás lány mindeközben egészségben és biztonságban síelt az osztálytársaival.

A mostani jelentés egybecseng az IT biztonsági cégek trendeket elemző korábbi éves jóslataival, ennek pedig az a fő oka, hogy mára már rengeteg ingyenes vagy igen olcsó fejlett mesterséges intelligencia-modell érhető el, amelyek használatához alig vagy egyáltalán nem szükséges semmilyen kódolási tudás.

Az AI használatával kapcsolatosan a fő félelem nem is az, hogy a Skynet egy napon majd öntudatra ébred és megöli Sarah Connort, hanem hogy a bűnözők egyre inkább rossz célokra használják.

A megelőzés-védekezés témához sok apró elemnek kellene a helyén lennie, elsősorban a biztonságtudatosság terén akár magánfelhasználókról, akár munkavállalókról beszélünk. Tisztában kell lenni az aktuális kockázatokkal, a fiókjainkban erős egyedi jelszó használat, kétfaktoros autentikáció elengedhetetlen, és segíthet az ismerkedés az AI alkalmazásokkal is, hogy lássuk, mire képesek ezek egyáltalán.

A nagy nyelvi modellekkel már nyelvtanilag közel hibátlan szövegeket lehet alkotni, így pusztán a helyesírás és nyelvhelyesség alapján egyre nehezebb a csalások egyszerű felismerése.

A gyanús, szokatlan, kéretlen megkeresések, a klasszikus sürgetés-fenyegetés mindenképpen intő jel kell, hogy legyen. A virtuális emberrablásnál pedig olyan nem közismert kérdések, mint korábbi családi eseményekre való utalás, a családon belül emlékezetes alkalmakra, időpontokra, ismerősökre való rákérdezés vagy előre megállapodott kulcsszavakra való hivatkozás segíthet a hanggal vagy videóval visszaélő csalók lebuktatásában.

Egy azonban biztos, egyre több kísérletet egyre nehezebb lesz majd a jövőben felismernünk.

Szólj hozzá!

Kommentek:

A hozzászólások a vonatkozó jogszabályok  értelmében felhasználói tartalomnak minősülnek, értük a szolgáltatás technikai  üzemeltetője semmilyen felelősséget nem vállal, azokat nem ellenőrzi. Kifogás esetén forduljon a blog szerkesztőjéhez. Részletek a  Felhasználási feltételekben és az adatvédelmi tájékoztatóban.

Nincsenek hozzászólások.
süti beállítások módosítása