Если сравнивать сильный искусственный интеллект, который способен думать не хуже, чем создавший его человек, то он будет существенно отличаться от существующих в настоящее время виртуальных помощников и голосовых устройств.
Но, кроме существующих у ИИ огромных возможностей, человек может получить для себя некоторые угрозы. Тем более, если это новая и ещё не совсем известная разработка. Билл Гейтс считает, что через пару десятков лет ИИ будет настолько развитым, что может привести к непредсказуемым последствиям.
Стивен Хокинг признался, что ИИ – это огромная ошибка человечества. Элон Маск, руководящий высокотехнологичными фирмами «Тесла Моторс» и «Спэйс X» думает, что ИИ будет основной экзистенциальной угрозой для человечества.
Никому сегодня достоверно неизвестно, достаточно ли уже созданных учёными технологий, чтобы смог появиться полноценный искусственный интеллект, или же всё-таки нужно будет продолжительное время ждать появления самой эффективной вычислительные мощности.
В первую очередь в создании искусственного разума заинтересованы вооружённые силы. Даже если будет придуман самый дружелюбный искусственный разум, то это может не помешать военным сделать из него враждебный.
Специалисты считают, что в будущем ИИ должен разбираться во всех абсолютных ценностях человечества. Но до того момента, как появятся подобные машины, в этих ценностях должны разбираться сами их создатели. Сотрудники компании OpenAI уверены, что создателям искусственного разума должны проводить свои опыты в стенах ведущего исследовательского института, который не должен подчиняться заинтересованным коммерческим компаниям или правительству, пытающихся использовать его в своих интересах.
Люди пытаются уничтожить друг друга ещё с древних времён. Это стремление заложено в них природой. Благодаря заложенным эволюцией инстинктам, человек смог не только выжить, но осуществлять при этом экспансию своего вида. Люди относятся к разумному виду, который старается доминированию над другими видами. Они выжили, благодаря заложенному инстинкту самосохранения. Если создатели ИИ не будут изначально закладывать в него подобную модель поведения, то в таком случае оно сможет оградить себя от возможных побочных эффектов.