Користувачі за добу зробили з бота Microsoft расиста і сквернослова

0

Компанія Microsoft відключила чат-бота Tay, запущеного в Twitter в ході експерименту по самонавчання штучного інтелекту. Всього за добу юні користувачі Мережі навчили чат-бота непристойно лаятися і зробили з нього расиста.

large_6f7d70af31d14e91e477ccdd09094bcab46850121458876502_1

Чат-бот Тау, що імітує дівчинку-підлітка, був запущений на цьому тижні. Чат-бот повинен був навчатися в процесі спілкування з реальними людьми. «Це соціальний, культурний і технічний експеримент», – пояснили в Microsoft. Експеримент провалився. «На жаль, протягом перших 24 годин перебування бота в Мережі нам стало відомо про скоординовану спробі ряду користувачів зловжити присутністю Тау, змусивши бота реагувати неналежним чином», – заявили в компанії.

Сталося наступне: користувачі «навчили» самонавчального бота непристойним фразам, після чого він перетворився з благопристойного штучного інтелекту в расиста і матюкальника. «Твіти Тау були, починаючи від підтримки нацистів і Дональда Трампа до сексуальних натяків і образ на адресу жінок і негрів», – пише видання.

В Твіттер-профілі Тау значилися «повна індиферентність» і «здатність ставати розумнішими в ході спілкування з людьми». Зараз бот перейшов в офлайн-режим, за офіційною версією, «для коригування програмного забезпечення». “Скоро побачимося! Зараз людям потрібно спати, дуже багато говорили », – повідомляє останній відправлений твіт Тау.

Джерело

‡агрузка...

НАПИСАТИ ВІДПОВІДЬ

Будь ласка, введіть свій коментар!
Будь ласка, введіть своє ім'я тут