Компанія Microsoft відключила чат-бота Tay, запущеного в Twitter в ході експерименту по самонавчання штучного інтелекту. Всього за добу юні користувачі Мережі навчили чат-бота непристойно лаятися і зробили з нього расиста.
Чат-бот Тау, що імітує дівчинку-підлітка, був запущений на цьому тижні. Чат-бот повинен був навчатися в процесі спілкування з реальними людьми. «Це соціальний, культурний і технічний експеримент», – пояснили в Microsoft. Експеримент провалився. «На жаль, протягом перших 24 годин перебування бота в Мережі нам стало відомо про скоординовану спробі ряду користувачів зловжити присутністю Тау, змусивши бота реагувати неналежним чином», – заявили в компанії.
Сталося наступне: користувачі «навчили» самонавчального бота непристойним фразам, після чого він перетворився з благопристойного штучного інтелекту в расиста і матюкальника. «Твіти Тау були, починаючи від підтримки нацистів і Дональда Трампа до сексуальних натяків і образ на адресу жінок і негрів», – пише видання.
В Твіттер-профілі Тау значилися «повна індиферентність» і «здатність ставати розумнішими в ході спілкування з людьми». Зараз бот перейшов в офлайн-режим, за офіційною версією, «для коригування програмного забезпечення». “Скоро побачимося! Зараз людям потрібно спати, дуже багато говорили », – повідомляє останній відправлений твіт Тау.