Тестирование алгоритмов искусственной иммунной системы: AIS и ClonalG

Некоторые эксперименты были проведены для того, чтобы протестировать некоторые из существующих алгоритмов AIS и изучить их возможности. ClonalG и aiNet были выбраны для этого тематического исследования и протестированы на наборе данных о раке. Набор данных состоял из 693 экземпляров, а количество атрибутов — 12. Предсказанный результат этого набора данных представляет собой статус повторения, когда выход указывает на возможность того, что пациент снова получит рак в будущем. Результаты двух экспериментов обсуждаются в следующих разделах.

Эксперимент № 1: алгоритм ClonalG

В этом эксперименте был протестирован алгоритм ClonalG на наборе данных о раке. Первоначально набор данных был нормализован до единицы перед подачей на алгоритм. После нормализации данных процент выборок выбирался случайным образом и удалялся из набора данных. Затем это стало образцом, на котором проходили обучение детектора. Основные шаги ClonalG, представленные в Castro and Zuben (2002), заключаются в следующем:

  • 1. Инициализация: создание начальной случайной популяции индивидуумов (P)

  • 2. Антигенное представление: для каждого антигенного образца:

    • а. Оценка аффинности: представить ее населению P и определить ее сродство с каждым элементом в популяции P;

    • б. Клональное выделение и расширение: выбирают n1 наивысших элементов сродства P и генерируют клоны этих индивидов пропорционально их сродству с антигеном: чем выше аффинность, тем выше количество копий и наоборот;

    • с. Аффинное созревание: мутируйте все эти копии со скоростью, обратно пропорциональной их сродству с шаблоном ввода: чем выше сродство, тем меньше скорость мутаций и наоборот. Добавьте этих мутировавших индивидуумов в популяцию P и повторно выберите лучшего индивидуума, который будет хранить память m представленного антигена;

    • д. Метадинамика: заменить число n2 лиц с низким сродством (случайно сгенерированными) новыми;

  • 3. Цикл: повторите шаг 2 до тех пор, пока не будет соблюден определенный критерий остановки.

Вышеупомянутый алгоритм был закодирован в Matlab и получен от Delahunty и Callaghan (2004), с критерием остановки, установленным на 500 детекторах. Как только данные в наборе данных были нормализованы, процент выборок из самостоятельной выборки выбирался случайным образом и удалялся из набора данных. Затем это стало образцом, на котором проходили обучение детекторы. Для всех тестовых прогонов точность была признана неприемлемо низкой и варьировалась в зависимости от значения допуска теста. Было отмечено, что путем увеличения порогового значения результаты точности улучшаются и наоборот. Все параметры изменялись следующим образом без значительного влияния на результаты, за исключением допуска теста:

  • 1. Количество детекторов для этапа обучения варьировалось от 500 → 2000

  • 2. Размер учебных образцов варьировался от 50 до 500

  • 3. Количество конечных детекторов для фазы тестирования варьировалось от 300 до 700

  • 4. Допустимое значение теста варьировалось от 0,6 до 1,0

В таблице 1 показано влияние изменения значения допуска теста на точность, = чувствительность и специфичность алгоритма.

Искусственные иммунные системы

Эксперимент № 2: алгоритм aiNet

Алгоритм aiNet, рассмотренный в предыдущих разделах, является хорошо известным методом кластеризации и сжатия данных. Алгоритм aiNet можно разделить на две основные стадии. Во-первых, он выполняет принцип отбора клона и взаимодействия созревания аффинности, аналогичные алгоритму клонального отбора ClonalG, для создания сети антител. На втором этапе минимальное покрывающее дерево (MST) построено на сети антител, где каждое ребро просматривается по отношению к его соседям. Несогласованный край, вес которого значительно больше, чем среднее значение соседних весов ребер по обе стороны от края, которое нужно отбросить, что приводит к разбиению данных на кластеры.

В этом эксперименте алгоритм aiNet был протестирован на том же наборе данных о раке, который использовался в предыдущем эксперименте, затем представлены результаты моделирования. Код Matlab разработан Кастро и Зубеном (2000), о котором сообщалось в AISWeb. 692 образца из набора данных по раку были подразделены на два кластера. Для целей обучения параметры aiNet были установлены следующим образом:

  • Порог подавления = 0,2

  • Порог обрезки = 1,0

  • Количество лучших подходящих ячеек (n) = 4

  • Множитель числа клонов (N) = 20

  • Процентное количество повторно выбранных клонов = 10%

  • Критерий остановки — фиксированное число поколений = 10.

Результаты показывают, что алгоритм aiNet успешно определил два кластера для проверенных данных. На рисунке 1 показан размер сети для каждой итерации aiNet. Алгоритм запускается с пятой итерации для получения почти такого же количества узлов. Результирующая сеть содержит в среднем 442 ячейки, уменьшая размер набора данных до 64% от исходной сложности (размера). На рисунке 2 показано применение алгоритма aiNet к набору данных рака, где на рисунках 2 (a), (b), © и (d) показаны минимальное остовное дерево, анализ кластеров, сетевая дендрограмма и окончательная структура сети соответственно.

Помимо возможности aiNet сокращения избыточности и описания структуры иммунной сети, включая распределение данных и кластеризацию, у нее есть некоторые недостатки. Они включают в себя большое количество пользовательских параметров и высокую вычислительную стоимость на одну итерацию O (m2) по отношению к числу антител памяти (м) (Castro and Zuben, 2001).

Искусственные иммунные системы Искусственные иммунные системы Искусственные иммунные системы Искусственные иммунные системы Искусственные иммунные системы