AI експеримент кој од супер кул се претвори во супер нацист

За само еден ден вештачката интелегенција на Microsoft се претвори од возбудлив експеримент во неподнослив расистички четбот, кој мораше да биде исклучен. Вештачката интелегенција Tay на крајот стана толкав проблем на Microsoft, што компанијата започна да ги едитира твитовите, за на крај да го исклучи.

apygpcqtlc465rqwuiyy

Tay беше експеримент кој учи преку разговор. Креиран е за интеракција со луѓе и она што успеавме да ја научиме за еден ден беше најлошото од нас. „Tay е дизајниран да ги забавува луѓето преку интеракција додека се конектираат едни со други преку вообичаен и забавен разговор“ вели Microsoft. Но, она што го покажа првиот експеримент е дека вештачката интелигенција може да ги собере најлошите карактеристики на едно место. И требаше само еден ден од супер кул да стана супер нацист.

nuabqmqwursfxynhs5s1

Ако сте загрижени за иднината на светот по вештачката интелегенција, можеби повеќе ќе ве исплаши тоа дека ботот на Microsoft ги научи сите овие работи од луѓето и тоа за помалку од половина ден…

2 коментари на “AI експеримент кој од супер кул се претвори во супер нацист

Коментирај

Вашата адреса за е-пошта нема да биде објавена.

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

*

Слични статии