Користувачі за добу зробили з бота Microsoft расиста і сквернослова

0

Компанія Microsoft відключила чат-бота Tay, запущеного в Twitter в ході експерименту по самонавчання штучного інтелекту. Всього за добу юні користувачі Мережі навчили чат-бота непристойно лаятися і зробили з нього расиста.

large_6f7d70af31d14e91e477ccdd09094bcab46850121458876502_1

Чат-бот Тау, що імітує дівчинку-підлітка, був запущений на цьому тижні. Чат-бот повинен був навчатися в процесі спілкування з реальними людьми. «Це соціальний, культурний і технічний експеримент», – пояснили в Microsoft. Експеримент провалився. «На жаль, протягом перших 24 годин перебування бота в Мережі нам стало відомо про скоординовану спробі ряду користувачів зловжити присутністю Тау, змусивши бота реагувати неналежним чином», – заявили в компанії.

Сталося наступне: користувачі «навчили» самонавчального бота непристойним фразам, після чого він перетворився з благопристойного штучного інтелекту в расиста і матюкальника. «Твіти Тау були, починаючи від підтримки нацистів і Дональда Трампа до сексуальних натяків і образ на адресу жінок і негрів», – пише видання.

В Твіттер-профілі Тау значилися «повна індиферентність» і «здатність ставати розумнішими в ході спілкування з людьми». Зараз бот перейшов в офлайн-режим, за офіційною версією, «для коригування програмного забезпечення». “Скоро побачимося! Зараз людям потрібно спати, дуже багато говорили », – повідомляє останній відправлений твіт Тау.

Джерело

Попередня статтяТаємниця рожевого озера Хіллер
Наступна статтяMicrosoft готує до випуску універсальну версію Skype для ОС Windows 10

НАПИСАТИ ВІДПОВІДЬ

Будь ласка, введіть свій коментар!
Будь ласка, введіть своє ім'я тут