imagazin arrow2-left arrow2-right arrow2-top arrow-up arrow-down arrow-left arrow-right cart close dossiers education fb instagram menu notification oander rss rss-footer search service shuffle speech-bubble star store stores tests twitter youtube

Megérkezett: MacBook Pro 2018!

Erősebb, mint valaha!

Súlyos biztonsági kockázatot jelentenek a digitális asszisztensek


Egyre nagyobb hatalmat adunk nekik, de a megfelelő biztonságról még nem gondoskodtunk. Kutatók rájöttek, hogyan adhatnak ki az emberi fül számára hallhatatlan parancsokat az asszisztenseknek. Bár az Apple védi felhasználóit, azért kezdhetünk aggódni!

Itthon – elsősorban nyelvi okokból – még nem olyan elterjedt a technológia, mint külföldön, azért még a világnak ezen a felén is egyértelműen érződik a tendencia: fokozatosan egyre nagyobb szerepet kapnak a a digitális asszisztensek a mindennapi életben.

Egy valamirevaló okosotthon ma már szinte elképzelhetetlen egy központi, hanggal is irányítható vezérlőegység nélkül. Csak leteszed a szobába a HomePodod, Alexát, vagy a Google vonatkozó termékét, hozzákapcsolod az a kávéfőzőtől kezdve, a világításon át, a bejárati ajtó zárjáig minden létező okoseszközöded, majd mondod a mindig figyelő komornyiknak, hogy mit akarsz. Kényelmes, menő, sci-fi meg minden, épp csak nem túl biztonságos jelenlegi formájában.

Az első intő jelekről már mindenki hallott. A kislány, aki babaházat és két kiló sütit rendelt magának vagy a South Park epizód, ami háztartások sorát trollkodta meg egy jól irányzott poénnal. Bár az előbbi példákon leginkább csak egy jót nevettünk, egy most közölt tanulmány hamar letörli majd a vigyort az arcunkról.

A Kaliforniai Egyetem és a Georgetown Egyetem közös kutatócsoportja ugyanis rájött, hogy hackelhető meg az összes létező asszisztens egy apró trükk segítségével. A támadás lényege, hogy olyan parancsokat rejtenek zenébe vagy beszédfelvételbe, amelyeket az emberi fül nem, az asszisztenseké viszont érzékel.

Magyarul, amíg te azt hiszed, hogy csak simán zenét hallgatsz, addig Siri a háttérben éppen emeltdíjas telefonszámokat hívogathat.

Elég meredek, nem? Ha hozzávesszük, hogy lassan tényleg minden vezérelhető az asszisztensek segítségével, könnyen beláthatjuk, mekkora kockázatot jelent ez a sebezhetőség. Ajtónyitó rádióműsor, trollkodó diszkósláger, impulzusvásárlás podcasttal – a lehetőségek végtelenek.

A támadás működési elve a beszédfelismerő rendszerek visszafejtésén alapul. Ha tudjuk, hogy az asszisztensek hogyan, milyen eljárással nyerik ki a beszédjelből az információkat, akkor relatíve könnyen összerakhatunk olyan inputot, ami elégséges az asszisztensnek, de kevés az emberi észlelésnek. Az eljárást először tavaly mutatta be DolphinAttack néven egy másik, amerikai–kínai kutatócsoport, ez a mostani kutatás annyival vitte tovább a dolgot, hogy már zenével maszkolt felvételekbe is be tudták ágyazni a jelet. Az alábbi felvételen látható működés közben a DolphinAttackot:

A kutatók hozzátették, hogy egyelőre nincs tudomásuk arról, hogy bárki más is rendelkezne még a technológiával, illetve hogy történtek-e már ilyen módszeren alapuló támadások. Ugyanakkor feltételezik, hogy egyes csoportok már most is dolgoznak az ügyön.

A labda tehát most az asszisztenseket fejlesztő techcégeknél pattog, nekik kell mielőbb előállniuk az ehhez hasonló fenyegetések elleni védelemmel. Az Apple az iOS esetében egyébként valamennyire már most is óvja a felhasználókat, bizonyos műveleteket csak a jelkód megadása után lehet elvégezni, így kevesebb az okunk az aggodalomra, mint a más rendszereket használóknak.

Forrás: MacRumors

0% THM

Ezt már olvastad?

A Sirinek ez is az egyik baja, hogy mindenki a célközönség. Valószínűleg hatékonyabb lenne, ha először jól működő modulokat hoznának létre egy-egy funkcióra szabva.

Miért nem ismeri anyanyelvünket az Apple virtuális asszisztense? - Klikk ide!