imagazin arrow2-left arrow2-right arrow2-top arrow-up arrow-down arrow-left arrow-right cart close dossiers education fb instagram menu notification oander rss rss-footer search service shuffle speech-bubble star store stores tests twitter youtube

iPhone 8

Itt találsz mindent az iPhone 8-ról

Ez a cikk több mint egy éve nem frissült. Kérjük, vedd figyelembe, hogy ennek tükrében a tartalom mára már idejétmúlt lehet.

A trollok letarolták a Microsoft mesterséges intelligenciáját


A mesterséges intelligencia-kutatás és annak különböző környezetben való tesztelése láthatóan kiemelt fontossággal bír most a tech-világban. Legyen szó önvezető autóról vagy virtuális személyi asszisztensről, a Teslától a Google-ig, az Apple-ön keresztül a Microsoftig sokan kísérleteznek most ezzel, kisebb-nagyobb sikerekkel és persze kudarcokkal. Szegény Microsoft most megrázta a pofonfát, és elég jól sikerült a szüretelés.

Történt, hogy a Microsoft két napja elindította Tayt, a mesterséges intelligencia Twitter-chatbotot. Szerintem a történet már akkor rosszul kezdődött, amikor nem sikerült a kamaszlányt Tayne-ként regisztrálni Twitterre, mert az a név már foglalt volt, így lett ő Tay. Tay elvileg egy Y-generációs / a millenium környékén (millenials) született fiatal felnőtt lány, akinek a feladata, hogy más felhasználókkal történő beszélgetés és interakció során tanuljon és váljon igazán kúl társalkodópartnerré. A chatbotnak szinte azonnal több ezer követője lett, akik több tízezer üzenettel árasztották el Tayt. Az ötlet egyébként nem rossz, és valóban így lehet élesben tesztelni a webes kommunikáció változását. Csakhogy a 4chan is megtalálta Tay-t. Ezzel kezdetét vette a végjáték.

tay-ai-twitter-cover
Tay.ai

A történet folytatása egyszerre borzasztóan vicces, és kicsit szomorú. A 4chan csapata elkezdte a legdurvább rasszista és obszcén üzenetekkel bombázni Tayt, aki jó mesterséges intelligenciaként tette a dolgát: tanult és válaszolt. Nem árulunk el nagy titkot, hogy a trolloknak köszönhetően Tay egy szexmániás, fajgyűlölő, politikailag Donald Trump felé húzó „egyént” kreáltak belőle. Mindezt 24 óra alatt, a Microsoft utána felfüggesztette szegény Tayt. Addig is azonban ilyen válaszokat adott:

Tay egy idő után nyitott volt minden huncutságra.

tay-tweet

Az együttérzést is sikeresen kiölték belőle.

tay-tweet2

Innen persze már csak egy lépés a népirtás támogatása.

tay-tweet3

Amikor a jelen politikájának elemzése történelmi távlatokat kap.

tay-tweet4

Kevesebb mint 24 óra elég volt, hogy a filantróp és nyitott MI-t egy gyűlölködő géppé alakítsák.

tay-tweet5

Ahogy az egyik kommentelő frappánsan összefoglalta a jelenséget:

Üdv az interneten

Nem túlkomolykodva a dolgot, de azért érdemes végiggondolni, hogy egy M.I. „tanítása” mennyiben hozható párhuzamba mondjuk a gyerekneveléssel, vagy az oktatással. Meg azt, hogy mi történik, ha morális irányadás nélkül kapcsolnak be egy M.I.-t. A Microsoft érezte, hogy bakot lőtt (egyébként is, mint ha nem menne mostanában nekik a marketing), úgyhogy deaktiválták Tay Twitter-fiókját, aki elfáradt a sok csacsogásban és egy kis szabadságra ment.

Forrás: The Telegraph, Wired

iPhone SE akció
Apple Inc. (AAPL)

Ezt már olvastad?

A Sirinek ez is az egyik baja, hogy mindenki a célközönség. Valószínűleg hatékonyabb lenne, ha először jól működő modulokat hoznának létre egy-egy funkcióra szabva.

Miért nem ismeri anyanyelvünket az Apple virtuális asszisztense? ... - Klikk ide!