Минуло 70 лет с тех пор, как Айзек Азимов предложил свои знаменитые законы роботехники. Они были, сказать по совести, чисто литературным измышлением, однако их нередко принимают всерьёз — как законы, которых действительно хорошо бы держаться, если мы не хотим кончить робоапокалипсисом. Интересно было бы спросить у самих специалистов по роботам, что они думают об этих законах, применяют ли, выдержал ли Азимов испытание временем.

Но сначала напомним, о чём писал Азимов в рассказе «Хоровод», который увидел свет в 1942 году. Итак, классика:

  1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
  2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
  3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам.

Позднее Азимов добавил четвёртый (точнее, нулевой, поскольку самый важный) закон: «Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинён вред».  

"Роботы утренней зари"

«Роботы утренней зари»

В художественном мире Азимова этим законам подчинялись почти все «позитронные» роботы. Это были не просто рекомендации: на их основе создавалось ПО, руководившее поведением машин, причём роботы не могли никак их обойти, переписать, пересмотреть. В то же время Азимов любил демонстрировать, как несовершенство этих законов, их размытость, двусмысленность и противоречивость способны привести к странностям в поведении роботов. Например, не всегда возможно различить понятия «робот» и «человек». Закон можно нарушить из-за того, что не обладаешь всей полнотой информации. Наконец неясно, каким образом можно запретить сверхчеловеческому искусственному интеллекту перепрограммирование самого себя. 

Большинство нормальных людей всегда понимало, что эти законы — просто литературная игра. Однако в 1981 году Азимов немало удивил публику заявлением о том, что их имеет смысл принимать всерьёз. В журнале Compute! он признавался: если кто-нибудь спросит, будут ли его законы когда-нибудь использоваться в действительности (когда роботы станут настолько сложными, что смогут самостоятельно принимать решение о своих действиях), он ответит утвердительно. Более того, Азимов полагал, что никакого другого способа справиться с машинами быть не может. 
 
Сегодня мы как никогда близки к моменту, когда роботы (точнее, ИИ) станут настолько сложными, что смогут самостоятельно принимать решение о своих действиях. Нет сомнений (по крайней мере у некоторых), что рано или поздно интеллект машин превзойдёт возможности человека по всем параметрам. Страшно? Конечно, страшно. Ошибка в программе или неспособность такого сверхмозга понять, что хорошо, а что плохо для человечества, могут привести к катастрофе. Следовательно, необходимо убедиться, что сверхчеловеческий ИИ (СИИ) безопасен. Кажется логичным обратиться для этого к законам Азимова. Или нет?
Кадр из фильма «Робот и Фрэнк» (2012).
Начать с того, что прогноз Азимова о будущем роботехники едва ли оправдается. ИИ-теоретик Бен Гёрцел из компании Aidyia Holdings замечает, что многие фантасты (и Азимов в их числе) почему-то останавливаются на гуманоидных роботах и андроидах. Возможно, придёт такое время, когда по улицам будут разгуливать роботы, внешне ничем не отличающиеся от людей, но этот период в истории отрасли станет сравнительно скоротечным, полагает специалист. На смену им довольно быстро придёт СИИ, физическое оформление которого не обязательно будет гуманоидным. 
 
Примерно о том же говорит Луис Хелм, замдиректора некоммерческой организации Machine Intelligence Research Institute и ответственный секретарь журнала Rockstar Research Magazine. Он считает гуманоидных роботов попсой. Серьёзные исследователи вообще не будут стремиться к их созданию. 
 
Тем не менее СИИ, воплотится он в телесной форме или нет, будет нуждаться в этических правилах. Законы Азимова были, пожалуй, самой первой попыткой разобраться в проблеме безопасности СИИ, но в качестве таковой они, пожалуй, и останутся. Сегодняшние исследователи не обращают на них никакого внимания: они безнадёжно устарели. Деонтология, то есть формулирование набора правил поведения, не подходит ни для человеческой, ни для машинной этики. Ещё остались кое-какие философы, которые пытаются развивать эту область, но они исходят из концепции разумного замысла и божественных заповедей, так что роботехники не принимают их всерьёз, отмечает г-н Хелм. 
 
Философами давно замечено, что в своём поведении мы руководствуемся не заученными наизусть правилами, а некими «врождёнными» концепциями, которые зачастую не можем сформулировать. Это нечто на уровне инстинкта, интуиции. Если будет создан СИИ, он должен будет обладать именно такой этикой — интуитивной, гибкой, адаптивной. Если что-то пойдёт не так, он перестроится на ходу, вместо того чтобы задымить или начать убивать всё, что движется. 
 
Кроме того, Азимов собственноручно и лучше всех продемонстрировал несовершенство своих законов, особенно их противоречивость. О чём тут ещё говорить? Читать построенные на этом рассказы жуть как интересно, однако не стоит в реальной жизни руководствоваться законами, которые можно по-разному интерпретировать. 
Кадр из телесериала «Звёздный путь: Следующее поколение» (1987–1994).
Заслужил критику экспертов и сам факт существования сознающих себя машин. Во-первых, ни один нормальный разработчик не будет стремиться к этому, никому не нужны такие сложности и проблемы. Во-вторых, давайте оставим на совести фантастов внезапное появление сознающего себя интеллекта. Ничего внезапного в таком деле быть не может: исследования идут долго, тяжело и под наблюдением громадного экспертного сообщества. Вредно слишком часто пересматривать «Терминатора». В-третьих, страшилки о случайном создании безумным гением чего-то такого, что выйдет из-под контроля творца и отправится убивать, ещё можно было вытерпеть во времена «Франкенштейна» и «Острова доктора Моро», но сейчас это уже дурной тон. Микробиология и генетика добились гигантских успехов, но что-то мы не видим ни вирусов-убийц, ни гигантских комаров. Всё под контролем соответствующих организаций, строго следящих за выполнением правил научных исследований. 
 
По словам специалистов, большинство разработчиков полагает, что невозможно создать абсолютно безопасный СИИ, но это их не беспокоит, поскольку в жизни вообще не бывает абсолютных гарантий безопасности. Кроме того, как только появятся первые системы или протосистемы СИИ, начнутся эксперименты по изучению особенностей его функционирования. Тогда и посмотрим, что делать с ним дальше, а сейчас теоретизировать по этому поводу — что писать вилами по воде. Сначала появился язык, а уж потом его теория. То же самое и с роботами. 
 
Гёрцел и Хелм в один голос говорят о том, что создание законов, подобных азимовским, — это пережиток мышления, устаревшего лет двести назад, ещё во времена Фихте, Гегеля и Шопенгауэра. Мы тысячелетиями создавали умозрительные модели мира и человека (мифологические, религиозные, философские), но последнее слово всегда принадлежало науке. Никому ещё не удавалось перевести философские измышления на язык математики. Философы сделали и делают очень много для развития науки и мысли в целом, однако пустое теоретизирование никогда ничего не давало. Философ выдумывает проблему, но решают её математики и инженеры. 
 
Подготовлено по материалам io9.

Добавить комментарий


Защитный код
Обновить