Автономные роботы-убийцы проблема 21 века

Большое собрание ученых, лидеров отрасли и НПО начали кампанию, чтобы остановить роботов-убийц, посвященную предотвращению развития боевых автономных систем вооружения. Среди тех, кто подписался были: Стивен Хокинг, Ноам Хомский, Элон Маск и Стив Возняк.

Эти громкие имена вызывают много внимания и придают законность тому, что роботы-убийцы, когда-то считавшиеся научной фантастикой, на самом деле быстро приближаются к реальности.

Интересное исследование, опубликованное в Международном журнале исследований культуры используют другой подход к идее «роботов-убийц» как культурного концепта. Исследователи утверждают, что даже самые продвинутые роботы — это просто машины, как и все остальное когда либо сдеаланное человечеством.

«Дело в том, что убийца робот’ как идея возникла не из воздуха», — сказал соавтор Теро Karppi, доцент кафедры теории СМИ в университете Буффало. «Этому предшествовали методы и технологии, позволяющие сделать мышление и развитие этих систем возможными».

Другими словами, мы беспокоимся о роботах-убийцах. Авторы раскрывают тему роботов — убийц в таких фильмах, как «Терминатор» или «Я, робот», в котором они предположили, что далеко в будущем роботы будут в конечном итоге порабощать человеческую расу.

Например, вот отрывок из кампании опубликованная на сайте:

«За последние десятилетия, расширенное использование беспилотных вооружений резко изменило войны, принося новые гуманитарные и правовые проблемы. Сейчас возрос стремительный прогресс в технологии, в результате усилий по разработке полностью автономного оружия. Эти роботизированные оружия будут иметь возможность выбирать огонь по цели самостоятельно, без какого-либо вмешательства человека.»

Исследователи отвечают, что эти алармистские сценарии антиутопии отражают «технико-детерминистское» мировоззрение, где технологическим системам дают слишком много автономии, что может стать разрушительными не только для общества, но и для всей человеческой расы.

Но что, если мы закодируем машинный интеллект таким образом, что роботы даже не смогут найти различия между человеком и машиной? Это интригующая идея: если нет никаких «нас» и «них» не может быть никакого «мы против них».

Действительно, Karppi предположил, что мы можем быть в состоянии управлять, как будущие машины будут думать о людях на фундаментальном уровне.

Если мы хотим внести изменения в разработки этих систем, сейчас самое время. Просто запретить смертельное автономное оружие и устранить коренные причины этой дилеммы. Чтобы действительно избежать развития автономных машин для убийства.

Комментарии  

0 # евгений 06.01.2017 19:11
Любая система в своей основе предполагает алгоритм самосовершенств ования. И"И" не будет исключением, человек спроецирует изначально токсичную дисбалансную функцию 90 к 6% эффективности. То есть, технологичности и социализации. Это приговор. Ведь подтянуть к достойному, уровень соц. аналитики с 6% базой это нонсенс. Эта ситуация гарантирует возникновение Хищной версии И"И".
Ответить | Ответить с цитатой | Цитировать

Добавить комментарий


Защитный код
Обновить