Особенности постановки и решения задач с использованием искусственных нейронных сетей

Аппроксимация и интерполирование данных – наверно наиболее часто решаемый с помощью искусственных нейронных сетей класс задач. И это неудивительно, потому что даже классические методы их решения зачастую используют функциональные зависимости, находящиеся вне связи с физикой описываемых ими процессов или явлений. И в том, и в другом случаях на первое место выходят статистическое соответствие и адекватность полученной модели экспериментальным данным.

Аппроксимация и интерполирование данных

– наверно наиболее часто решаемый с помощью искусственных нейронных сетей класс задач. И это неудивительно, потому что даже классические методы их решения зачастую используют функциональные зависимости, находящиеся вне связи с физикой описываемых ими процессов или явлений. И в том, и в другом случаях на первое место выходят статистическое соответствие и адекватность полученной модели экспериментальным данным.

Среди нейросетевых архитектур для решения задач аппроксимации и интерполирования данных могут быть использованы однослойные и многослойные перцептроны, а также сети на основе радиально-симметричных функций. Входы и выходы таких сетей – нормализованные аналоговые сигналы.

Общая постановка задачи следующая. Имеется выборка экспериментальных данных, представляющая собой множество примеров (опытов). Каждый пример – это вектор значений входных переменных и соответствующих им значений выходов. Требуется с использованием одной из архитектур нейронных сетей получить нейросетевую модель, позволяющую с нулевой или наименьшей из возможных погрешностью описать многосвязную зависимость выходов от входов в пределах изменения независимых переменных модели, соответствующих диапазонам их изменения в экспериментальной выборке.

Качество полученной модели оценивается как традиционными статистическими методами, например, проверкой ее адекватности по критерию Фишера, так и путем расчета средней относительной ошибки в нормализованном и исходном масштабах для обучающей и тестовой выборок.

Главное преимущество нейросетевого подхода при решении задач интерполирования и аппроксимации данных заключается в возможности получения единственной модели, полностью описывающей множественные взаимные связи между ее выходными и входными переменными, в том числе и в случае высокой нелинейности этих связей.

Прогнозирование временных рядов

– задача во многом похожая на аппроксимацию. В результате ее решения должно быть получено изменение выходных переменных модели во времени. Тем не менее, сама переменная времени может как напрямую фигурировать среди входных переменных (1-й вид моделей), так и быть задана в неявном виде, являясь специфическим свойством, различающим однотипные входы и выходы (2-й вид моделей). Примером второго вида могут быть модели, включающие входные и/или выходные вектора концентрации вещества, измеренной в различные (как правило, последовательные и равноотстоящие) моменты времени.

Для решения данного класса задач также используются однослойные и многослойные перцептроны и нейронные сети на основе радиально-симметричных функций. Входы и выходы таких сетей – как правило, нормализованные аналоговые сигналы.

Задача получения временного ряда с использованием нейросетевой модели ставится следующим образом. Дана выборка с результатами наблюдений изменения одной или нескольких целевых характеристик во времени. Требуется получить нейросетевую модель, позволяющую спрогнозировать значения целевых характеристик в один или несколько заданных моментов времени вперед. Помимо динамики целевых переменных для обучения нейронных сетей зачастую используются дополнительные переменные, характеризующие внешние условия, влияющие на эту динамику.

Во многих случаях в нейросетевые модели добавляются обратные связи, позволяющие подавать в качестве входных переменных значения, полученные на выходе в результате прохождения сигналов по нейронной сети на предыдущем такте расчета.

Специально для прогнозирования временных рядов исследователями были предложены архитектуры нейронных сетей с обратными связями на основе многослойных перцептронов, такие, как искусственные нейронные сети Элмана и Джордана.

Распознавание и ассоциация образов 

Задачи распознавания и ассоциации образов сводятся к выделению некоторого эталонного сигнала, хранящегося в памяти нейронной сети из зашумленного входного образа. Общая постановка таких задач следующая. Дано множество эталонных образов либо пар соответствия входных и выходных эталонных образов в виде векторов бинарных и/или аналоговых сигналов. Нужно получить нейросетевую модель, позволяющую:

– удалить из входного сигнала шум (ошибки) и получить на выходе чистый (эталонный) сигнал либо

– сопоставить зашумленный входной образ с соответствующим ему эталонным выходным образом.

Таким образом, формат сигнала на входе может совпадать, но может и отличаться от формата выходного сигнала. В первом случае для решения задач, как правило, применяют нейронную сеть Хопфилда, имитирующую работу автоассоциативной памяти. Во втором – нейронную сеть Коско – нейросетевой аналог гетероассоциативной памяти. Входы и выходы таких сетей – бинарные.

Также распознавание образов можно реализовать с использованием однослойных или многослойных перцептронов. В этом случае входы и выходы могут быть как аналоговыми, так и бинарными. Во втором случае, так как все вычисления также производятся в аналоговой форме, чтобы получить бинарные выходы модели, требуется использование активационных функций единичного скачка в выходных нейронах.

Однако выбор перцептрона для решения задачи распознавания образов связан с определенными проблемами. Дело в том, что эталонных образов, как правило, не очень много, а количество используемых входных и выходных переменных, наоборот, достаточно большое. Все это приводит к тому, что в процессе обучения структурно насыщенного перцептрона приходится настраивать достаточно большое количество весовых коэффициентов при ограниченном объеме обучающей выборки. Сама нейронная сеть в этом случае обучается на различных возможных зашумленных образах, которым каждый раз ставятся в соответствие заранее известные эталоны. На стадии практического использования обученная нейронная сеть в идеале должна уметь выделять эталонный образ в том числе из вариантов зашумленных образов, которые ей ранее никогда на входы не предъявлялись.

Классификация образов

В отличие от предыдущего случая при решении задачи классификации образов требуется подаваемый на входы сети зашумленный образ отнести к одному из известных классов, а не восстановить или получить сам эталон. Характерно, что практически любую задачу распознавания или ассоциации образов можно привести к задаче классификации, но обратное утверждение неверно.

Задача классификации ставится следующим образом. Имеется множество векторов входных образов, переменные которых представлены в форме аналоговых и/или бинарных сигналов. Для каждого из входных образов известен класс соответствия. Требуется получить нейросетевую модель, позволяющую выполнить одно из следующих действий:

– однозначно указать класс образов, к которому может быть отнесен входной вектор;

– ограничить круг возможных классов, к которым может быть отнесен зашумленный входной образ;

– сделать заключение о невозможности отнесения входного образа к одному из известных сети классов.

В зависимости от выбранной архитектуры нейронная сеть может обучаться классификации только на эталонных образах (сети Хэмминга или Коско) или как на эталонных, так и на зашумленных образах (однослойные и многослойные перцептроны, сети на основе радиально-симметричных функций). При решении задач данного класса входные переменные нейросетевой модели могут быть представлены как в бинарной, так и в аналоговой формах. Выходные – строго в бинарной форме. Таким образом, в выходных нейронах однослойных и многослойных перцептронов должны использоваться активационные функции единичного скачка.

Бинарный выходной вектор для нейросетевой модели с известным количеством возможных классов Nможет быть представлен двумя способами:

1. Количество выходов нейронной сети определяется как значение , округленное в бо́льшую сторону. Каждому классу образов должен соответствовать выходной вектор, являющийся уникальной бинарной последовательностью.

2. Количество выходов нейронной сети равно количеству возможных классов образов. Каждому классу должен соответствовать уникальный выходной вектор, включающий единственное единичное (положительное) и все остальные нулевые (отрицательные) значения.

Первый способ лучше всего использовать в задачах с большим количеством классов образов. Это позволяет значительно упростить структуру нейронной сети. Второй же способ представления выходов позволяет получать более точные результаты классификации.

Кластеризация данных

Задача кластеризации данных немного похожа на классификацию. Ее принципиальное отличие заключается в том, что при кластеризации изначально неизвестно количество будущих кластеров. Оно определяется количественным и качественным составом обучающей выборки и настройками нейронной сети.

Постановка задачи кластеризации следующая. Дана экспериментальная выборка, представляющая собой множество векторов переменных, характеризующих известные свойства объектов, событий, процессов или явлений. Для каждого из примеров выборки могут быть известны дополнительные данные или описание, относящиеся лишь к самим отдельно взятым примерам, но не участвующие непосредственно в обучении нейронной сети. Требуется получить нейронную сеть, которая на протяжении всего своего жизненного цикла будет выполнять одну или несколько функций из списка:

– относить подаваемые на ее входы вектора к одному из уже существующих кластеров, наиболее близкому к входному вектору;

– создавать новый кластер, если не обнаружено достаточно близкого соответствия существующим кластерам;

– удалять кластеры, оказавшиеся неиспользованными в результате последней эпохи обучения.

Среди архитектур нейронных сетей для решения задач кластеризации чаще всего рекомендуются сети Кохонена и сети адаптивного резонанса.

Входные переменные таких сетей могут принимать как бинарные, так и аналоговые значения. Их выходными значениями можно условно считать расстояние до центра каждого из существующих кластеров. Фактически же выходов в понимании, привычном для других нейросетевых архитектур, у них нет, так как отсутствует четкая заранее известная цель обучения – выходной образ или класс образов.


Если у вас есть статья, заметка или обзор, которыми вы хотите поделиться с аудиторией нашего сайта, присылайте информацию на: neuronus.com@yandex.ru.
Гость, оставишь комментарий?
Имя:*
E-Mail:


Последние комментарии
Дрон-камикадзе и ракеты с искусственным интеллектом: как в России создали умные боеприпасы и планируют применять в деле
Современная микроэлектроника, включая микроконтроллеры и процессоры для современных ПК, является продуктом высокотехнологического производства и
Как работает Любовь? Квантовая связь нейронной активности Людей
ребят,вот вам смешно,а квантовая связь влюбленных то существует.и я не шучу. мой парень видел глюки и в этих глюках присутствовала я.(если что,в
Почему космос не имеет начала и конца: комментарии учёных
Земля находится трёх слонах, которые стоят на черепахе
Судьба ледокола «Арктика» остается неопределенной после повреждения одного из двигателей
Народ теперь что бы накачать мышцы и убрать лишний жир можно без спорта и диет, просто надел и забыл. Опробовал лично и результат удивил уже через
Сообщение о покупке водородной яхты Билом Гейтсом оказалось ложным
Народ теперь что бы накачать мышцы и убрать лишний жир можно без спорта и диет, просто надел и забыл. Опробовал лично и результат удивил уже через
Мы в социальных сетях
Статистика
0  
Всего статей 2562
0  
Всего комментариев 1031
0  
Пользователей 263