Technológia

Mesterséges intelligencia: könnyebb átverni minket, ha a hangja hasonlít a sajátunkra!

2025-03-05

Szerző: Luca

Egy új német kutatás kimutatta, hogy annál inkább bíznak az emberek a mesterséges intelligenciában, minél inkább hasonlít a hangja a sajátjukra. A PLOS One szaklapban publikált tanulmány arra figyelmeztet, hogy ez a tendencia komoly veszélyt hordozhat magában, különösen a deepfake technológia és a manipulációs küszöbök terjedésével kapcsolatban.

A mesterséges intelligencia fejlődésével ma már elképesztően könnyedén képes különféle hangokat utánozni, ha elegendő adat áll rendelkezésre. Ezt a képességet számos ártalmatlan célra is fel lehet használni, például vicces videók készítésére vagy személyre szabott MI-asszisztensek fejlesztésére. Ugyanakkor a deepfake technológia megjelenése számos potenciális veszélyt is jelent, hiszen a német kutatók megállapítása szerint sokkal könnyebb befolyásolni minket olyan generált felvételekkel, amelyek a saját hangunkhoz hasonlítanak, mert így jobban megbízunk bennük.

Minden ember hangja egyedi lenyomattal rendelkezik, amely magában foglalja a hangszínt, a hanglejtést és a beszédtempót. Az új kutatás szerint a mesterséges intelligencia képes ezeket a jellemzőket felhasználni, hogy a felhasználókat jobban manipulálni tudja. Ráadásul ma már sokkal kevesebb felvételre van szükség az egyedi hangok előállításához, amennyiben ismerjük a hanglenyomatokat. Ez a folyamat jelentősen leegyszerűsödik: az eredeti hangból sokkal kevesebb felvétel szükséges, és a generálási idő is lerövidül.

A kutatás megállapította, hogy ha az MI-hangok hasonlítanak a miénkhez, akkor azokat sokkal inkább kedveljük és megbízhatóbbnak tartjuk. Felhívták a figyelmet arra is, hogy a hasonlóság és a megbízhatóság közötti összefüggés az emberi észlelés sebezhetőségére utal. Képzeljük el, hogy a jövőben a marketing, a politika vagy akár a közösségi média is manipulálhatja a véleményünket azáltal, hogy a mesterséges intelligencia által generált hangokat a sajátunk kaliberével manipulálja!

Ez a jelenség különösen fontos lehet az elektronikus asszisztensek, az online kereskedelem és a politikai kampányok világában. A kutatás figyelmeztet arra, hogy milyen könnyen manipulálhatók az emberek, ha a mesterséges intelligencia hangja hasonlít a sajátjukra. Összességében ez a trend komoly etikai kihívásokat jelent, és sürgeti a biztonságosabb technológiai fejlesztések iránti igényt.