Аппроксимация и интерполирование данных – наверно наиболее часто решаемый с помощью искусственных нейронных сетей класс задач. И это неудивительно, потому что даже классические методы их решения зачастую используют функциональные зависимости, находящиеся вне связи с физикой описываемых ими процессов или явлений. И в том, и в другом случаях на первое место выходят статистическое соответствие и адекватность полученной модели экспериментальным данным.
– наверно наиболее часто решаемый с помощью искусственных нейронных сетей класс задач. И это неудивительно, потому что даже классические методы их решения зачастую используют функциональные зависимости, находящиеся вне связи с физикой описываемых ими процессов или явлений. И в том, и в другом случаях на первое место выходят статистическое соответствие и адекватность полученной модели экспериментальным данным.
Среди нейросетевых архитектур для решения задач аппроксимации и интерполирования данных могут быть использованы однослойные и многослойные перцептроны, а также сети на основе радиально-симметричных функций. Входы и выходы таких сетей – нормализованные аналоговые сигналы.
Общая постановка задачи следующая. Имеется выборка экспериментальных данных, представляющая собой множество примеров (опытов). Каждый пример – это вектор значений входных переменных и соответствующих им значений выходов. Требуется с использованием одной из архитектур нейронных сетей получить нейросетевую модель, позволяющую с нулевой или наименьшей из возможных погрешностью описать многосвязную зависимость выходов от входов в пределах изменения независимых переменных модели, соответствующих диапазонам их изменения в экспериментальной выборке.
Качество полученной модели оценивается как традиционными статистическими методами, например, проверкой ее адекватности по критерию Фишера, так и путем расчета средней относительной ошибки в нормализованном и исходном масштабах для обучающей и тестовой выборок.
Главное преимущество нейросетевого подхода при решении задач интерполирования и аппроксимации данных заключается в возможности получения единственной модели, полностью описывающей множественные взаимные связи между ее выходными и входными переменными, в том числе и в случае высокой нелинейности этих связей.
– задача во многом похожая на аппроксимацию. В результате ее решения должно быть получено изменение выходных переменных модели во времени. Тем не менее, сама переменная времени может как напрямую фигурировать среди входных переменных (1-й вид моделей), так и быть задана в неявном виде, являясь специфическим свойством, различающим однотипные входы и выходы (2-й вид моделей). Примером второго вида могут быть модели, включающие входные и/или выходные вектора концентрации вещества, измеренной в различные (как правило, последовательные и равноотстоящие) моменты времени.
Для решения данного класса задач также используются однослойные и многослойные перцептроны и нейронные сети на основе радиально-симметричных функций. Входы и выходы таких сетей – как правило, нормализованные аналоговые сигналы.
Задача получения временного ряда с использованием нейросетевой модели ставится следующим образом. Дана выборка с результатами наблюдений изменения одной или нескольких целевых характеристик во времени. Требуется получить нейросетевую модель, позволяющую спрогнозировать значения целевых характеристик в один или несколько заданных моментов времени вперед. Помимо динамики целевых переменных для обучения нейронных сетей зачастую используются дополнительные переменные, характеризующие внешние условия, влияющие на эту динамику.
Во многих случаях в нейросетевые модели добавляются обратные связи, позволяющие подавать в качестве входных переменных значения, полученные на выходе в результате прохождения сигналов по нейронной сети на предыдущем такте расчета.
Специально для прогнозирования временных рядов исследователями были предложены архитектуры нейронных сетей с обратными связями на основе многослойных перцептронов, такие, как искусственные нейронные сети Элмана и Джордана.
Задачи распознавания и ассоциации образов сводятся к выделению некоторого эталонного сигнала, хранящегося в памяти нейронной сети из зашумленного входного образа. Общая постановка таких задач следующая. Дано множество эталонных образов либо пар соответствия входных и выходных эталонных образов в виде векторов бинарных и/или аналоговых сигналов. Нужно получить нейросетевую модель, позволяющую:
– удалить из входного сигнала шум (ошибки) и получить на выходе чистый (эталонный) сигнал либо
– сопоставить зашумленный входной образ с соответствующим ему эталонным выходным образом.
Таким образом, формат сигнала на входе может совпадать, но может и отличаться от формата выходного сигнала. В первом случае для решения задач, как правило, применяют нейронную сеть Хопфилда, имитирующую работу автоассоциативной памяти. Во втором – нейронную сеть Коско – нейросетевой аналог гетероассоциативной памяти. Входы и выходы таких сетей – бинарные.
Также распознавание образов можно реализовать с использованием однослойных или многослойных перцептронов. В этом случае входы и выходы могут быть как аналоговыми, так и бинарными. Во втором случае, так как все вычисления также производятся в аналоговой форме, чтобы получить бинарные выходы модели, требуется использование активационных функций единичного скачка в выходных нейронах.
Однако выбор перцептрона для решения задачи распознавания образов связан с определенными проблемами. Дело в том, что эталонных образов, как правило, не очень много, а количество используемых входных и выходных переменных, наоборот, достаточно большое. Все это приводит к тому, что в процессе обучения структурно насыщенного перцептрона приходится настраивать достаточно большое количество весовых коэффициентов при ограниченном объеме обучающей выборки. Сама нейронная сеть в этом случае обучается на различных возможных зашумленных образах, которым каждый раз ставятся в соответствие заранее известные эталоны. На стадии практического использования обученная нейронная сеть в идеале должна уметь выделять эталонный образ в том числе из вариантов зашумленных образов, которые ей ранее никогда на входы не предъявлялись.
В отличие от предыдущего случая при решении задачи классификации образов требуется подаваемый на входы сети зашумленный образ отнести к одному из известных классов, а не восстановить или получить сам эталон. Характерно, что практически любую задачу распознавания или ассоциации образов можно привести к задаче классификации, но обратное утверждение неверно.
Задача классификации ставится следующим образом. Имеется множество векторов входных образов, переменные которых представлены в форме аналоговых и/или бинарных сигналов. Для каждого из входных образов известен класс соответствия. Требуется получить нейросетевую модель, позволяющую выполнить одно из следующих действий:
– однозначно указать класс образов, к которому может быть отнесен входной вектор;
– ограничить круг возможных классов, к которым может быть отнесен зашумленный входной образ;
– сделать заключение о невозможности отнесения входного образа к одному из известных сети классов.
В зависимости от выбранной архитектуры нейронная сеть может обучаться классификации только на эталонных образах (сети Хэмминга или Коско) или как на эталонных, так и на зашумленных образах (однослойные и многослойные перцептроны, сети на основе радиально-симметричных функций). При решении задач данного класса входные переменные нейросетевой модели могут быть представлены как в бинарной, так и в аналоговой формах. Выходные – строго в бинарной форме. Таким образом, в выходных нейронах однослойных и многослойных перцептронов должны использоваться активационные функции единичного скачка.
Бинарный выходной вектор для нейросетевой модели с известным количеством возможных классов NC может быть представлен двумя способами:
1. Количество выходов нейронной сети K определяется как значение