Через несколько лет созданные людьми сверхинтеллектуальные роботы смогут не задумываясь отправить на отдых взбунтовавшегося против людей же киборга-убийцу. Этому поспособствовали американские учёные из Технологического института Массачусетса.
Им удалось создать процессор под кодовым названием Eyeriss. Он способен помочь нейронным сетям существенно ускорять процессы распознавания информации и обрабатывания образов. Благодаря их разработке электроника носимого типа будет способна не только мыслить, но и принимать правильные решения.
Первоначально процессор Eyeriss разрабатывали для того чтобы облегчить процессы более глубокого обучения. Этот микрочип по скорости, с которой происходит обработка данных, превосходит некоторые из современных GPU. Созданное устройство без проблем адаптируется для совместной работы таких портативных устройств, как смартфоны или планшетные компьютеры. Используемые сегодня нейронные сети функционируют в комплексе и могут работать с учётом применения очень мощных GPU. Вся эта функциональность может находиться прямо в руках пользователя этих носимых устройств.
Изобретателям удалось добиться потрясающей скорости обрабатывания данных, которая происходит за счёт того, что они придумали принципиально новую конструкцию процессора. Вместо применения общего единопулового объёма памяти, каждое из используемых в работе 168 ядер процессора Eyeriss имеет свой индивидуальный дискретный кеш.
Этот шаг дал возможность практически прекратить лишнюю внутрисистемную передачу данных. Кроме этого, для реального сокращения времени, которое необходимо для передачи потоковых данных, Eyeriss сначала, используя определённый контур, производит сжатие информации, после чего она распаковывается в нужное время и в нужном месте. Во время своего функционирования процессор Eyeriss применяет хитрую схему, которая даёт возможность объединить процесс обработки данных таким образом, что информация между ядрами распределяется по максимуму эффективно.
Eyeriss, равномерно распределяя нагрузки, за определённое время способен обрабатывать намного больше данных, по сравнению с используемыми в настоящее время GPU. До сегодняшнего дня о конкретном времени, когда пользователи смогут применять такие чипы, ничего пока не известно. В будущем такая информация, по мнению специалистов, должна появиться.