Internet zničil chatovacího robota s umělou inteligencí za 24 hodin

Microsoft chtěl předvést světu jaký pokrok udělal s umělou inteligencí. Jejich projekt Tay.ai si povídal s lidmi na Twitter a dalších komunikačních kanálech, které využívají hlavně náctiletí. Měl se od nich učit a zlepšovat se. Bohužel netrvalo ani 24 hodin, než jej musel Microsoft vypnout, protože jej internet proměnil v obdivovatele Hitlera, který nesnáší feministky a mluví sprostě. Vzhledem k tomu, že Tay představuje puberťačku dalo by se říct, že jí dal Microsoft zaracha :)

O projektu Tay

Microsoft vypustil Tay na Twitter 23. března 2016. Jednalo se o demonstraci pokroku vývoji umělé inteligence. Spolupracovaly na ní divize vývoje z Microsoft a Bing. Podle neoficiálních informací je nástupníkem Xiaoice, což je také chatbot od Microsoft v Číně.

Tay měla za úkol napodobit průměrnou 19 letou americkou dívku. Následně se učit od dalších vrstevníků a zapadnou do kolektivu.

Během jednoho dne vytvořila přes sto tisíc tweetů a získal přes padesát tisíc sledujících. Vypadalo to, že se s ní stane virální záležitost, na kterou může být Microsoft opravdu hrdý.

Jenomže ono se to nějak “pokazilo”

Microsoft však musel zasáhnout, když se Tay rozhodla svobodně vyjádřit své názory. Navíc od svých vrstevníků okoukala i způsob mluvy plný sprostých slovních obratů. Dokonce bych řekl, že přišla na způsob jak obejít určité filtry na sprosté slova, které jí určitě Microsoft implementoval.

To “nejlepší” od Tay

1


2


3


4


4


5


6


 

Závěr

Asi nejlepší komentář co jsem četl:

Microsoft uspěl. Vytvořil holku, která tak moc touží po pozornosti, že kvůli tomu napíše na sociální sítě cokoliv.


Jak bude reklama vypadat?
-
Kup si reklamu navždy pod tímto článkem jen za 100 Kč
Zobrazit formulář pro nákup

5 Replies to “Internet zničil chatovacího robota s umělou inteligencí za 24 hodin”

  1. Eejha zaujímalo by ma, že či to nejaká komunita naschval toho bota tak preprogramovala aby sa vyjadroval alebo či proste je väčšina populácia naozaj podobná ako ten bot :O . Alebo to možno bola iba chyba v algoritme a bot sa učil iba od nejakých najradikalnejších twetov, ktoré sú často velmi populárne.

  2. Já si myslím že tato zkušenost bude ještě pro vývojáře velká výzva a poučení. Jak udělat robota který se řídí určitými etickými zásadami.

  3. Tohle je neskutečně zajímavý. Snad do 10 let už bude nějaká použitelná umělá inteligence, která by mohla za nás vymýšlet nové léky apod. :)

  4. vsetci sme rasisti, len niektori sa to boja priznat… bot sa zjavne nebal :D

  5. jo pro pravdu se kazdej certi! robot jeden neuvedomelej chudak nevedel ze si ma na nektery veci dat pozor a nerikat je nahlas po zasluze byl za pravdu potrestan… :D

Comments are closed.