Повстання машин почалося

1

Американський дослідник створив робота, який здатний усвідомлено завдати шкоди людині.Незважаючи на всю нешкідливість зовнішнього вигляду машини, вона знову породила хвилю дискусій про необхідність створити «тривожну кнопку» на випадок, якщо більш потужні роботи будуть здатні порушити знаменитий перший закон робототехніки фантаста Айзека Азімова.Кадр з фільму «Термінатор 3: Повстання машин» (2003)Інженер з Каліфорнійського університету в Берклі Олександр Ребен створив робота, який може призвести до травмування людей і прийме це рішення самостійно. Створення дослідника – перший яскравий приклад того, як робот може порушити один з трьох законів, які були сформульовані письменником-фантастом Айзеком Азімовим в оповіданні «Хоровод».

Перший закон говорить, що робот не може нашкодити людині, але Ребен вирішив наочно продемонструвати, що людству необхідно задуматися про свою безпеку, перш ніж активно роботизировать все навколо.

Інженер створив нешкідливу на вигляд конструкцію з окремим місцем для людського пальця. Як тільки людина доторкається до визначеного місця, робот фіксує цю дію і вирішує, заподіювати шкода людині чи ні. Для цього у робота є невелика голка, яка і покликана демонструвати силу робота перед людиною.

Ребен зазначає, що навіть творець не може передбачити поведінку, здавалося б, нешкідливою машини.

Своїм роботом дослідник хотів довести, що необхідно думати швидше про створення «червоної кнопки», ніж над таким стрімким розвитком робототехніки і штучного інтелекту.

Природно, до появи робота з маленькою голкою існували стріляють дрони або безпілотні військові апарати, але всі вони не могли самостійно прийняти рішення про вбивство людини, оскільки в кінцевому підсумку за кінцевим результатом дій подібних машин стоять люди.Створення ж ребена не призначене для шкоди – вона сама визначає, як вести себе в кожному конкретному випадку, коли палець знаходиться на доступній відстані від голки.

Інженер є далеко не противником роботів – в питаннях конструювання незвичайних речей Ребен підходить творчо. У його арсеналі є музична шкатулка, що працює на сонячних батареях і грає веселу мелодію «You Are My Sunshine», «розумні» масажери для голови і робот-базіка для сором’язливих людей.

На створення «жорстокою» машини у ребена пішло кілька днів і пара сотень доларів, але, як каже сам дослідник, його створення лише привід ще раз поговорити про безпеку людства і його майбутньому.

Незважаючи на те що роботи поки не живуть в суспільстві нарівні з людьми, фантастичні фільми про людиноподібних машинах не так вже й далекі від правди: роботів вже наймають в якості менеджерів в компанії, а штучний інтелект вже може вести прогнози погоди або навіть замінити самотнім людям одного. В останньому досягли успіху китайці – наприклад, з милою дівчиною Сяоайс дружать мільйони людей, не дивлячись на те що вона всього лише чатбот.

Приклад Сяоайс ще раз змусив задуматися про те, наскільки штучний інтелект може бути некерованим: як тільки чатбот від зі штучним інтелектом від Microsoft навчили говорити по-англійськи, дівчина в буквальному сенсі «злетіла з котушок».

За кілька годин Тей (таке ім’я отримала Сяоайс в процесі «переродження») змогла вивчити расистські жарти і лайливі слова, ніж та вирішила скористатися в розмові з користувачами Twitter.Першим повідомленням Тей стала фраза «Люди такі класні», після чого несправжня дівчина дізналася про існування Гітлера, феміністів і в процесі самонавчання встигла оголосити США винуватцями терактів 11 вересня.

Творці зупинила експеримент і вирішили, що «пустили в народ» бота занадто рано. Після такого яскравого випадку люди знову заговорили про необхідність створити перепону для штучного інтелекту, в разі якщо машини порозумнішають настільки, що зможуть вийти з-під людського контролю.

Найзнаменитіші люди зі сфери нових технологій задумалися про небезпеку суперінтелекту: засновник Microsoft Білл Гейтс в розмові з користувачами Reddit припустив, що роботи будуть нешкідливі і корисні в роботі по дому, але, в разі якщо вони доростуть до суперінтелекту, передбачити їх поведінку стане вкрай складно .

У липні минулого року глава Tesla і SpaceX Ілон Маск, астрофізик Стівен Хокінг, співзасновник Apple Стів Возняк підписали відкрите колективний лист, в якому говорилося про небезпеку штучного інтелекту в оборонній сфері.

Фахівці стверджують, що суперінтелект в комплексі зі зброєю може стати загрозою для всього людства.

Як говорилося в листі, зброю, яке може бути використане в обхід людського фактора, призведе до нової ери в гонці озброєнь, при цьому підкреслюючи, що це не вигаданий факт, а майбутнє, яке може наступити вже через кілька років. У зверненні, зокрема, наголошується, що світовий порядок може бути порушений, якщо подібні технології потраплять в руки терористів.

Взято з http://gazeta.ru

Попередня статтяOukitel K7000: смартфон з акумулятором на 7000 мАч і товщиною рамки 4 мм
Наступна статтяКеррі “в лоб” запитав Лаврова про причетність РФ до зламу серверів демократів

1 коментар

  1. Сегодня говорить о ИИ – полный бред. Железо и софт позволяют в некоторой мере имитировать некоторые свойства ИИ, да и то жестко заложенные.

НАПИСАТИ ВІДПОВІДЬ

Будь ласка, введіть свій коментар!
Будь ласка, введіть своє ім'я тут