Борис Злотин

PANN: Новая Технология Искусственного Интеллекта. Учебное пособие


Скачать книгу

разрешения, которые несложно определить простым тестированием. При этом проявляется неожиданное свойство PANN – оптимальное для распознавания число пикселей обычно невелико, например для распознавания разного рода портретов часто наилучшим оказывается разрешение всего 32 × 32.

      Рис. 2. Однонейронная двухуровневая сеть PANN

      Рис. 3. Однонейронная многоуровневая сеть PANN

      2.2. ОБУЧЕНИЕ НЕЙРОНА PROGRESS

      Обучение сети PANN существенно проще, чем обучение любых классических сетей.

      Трудности обучения классических нейронных сетей связаны с тем, что при обучении нескольким разным имиджам одни из них влияют на синаптические веса других и вносят искажения в обучение друг в друга. Поэтому приходится подбирать веса так, чтобы их набор соответствовал всем имиджам одновременно. Для этого используют метод градиентного спуска, требующий огромного количества итерационных вычислений.

      Для обучения сети PANN был разработан принципиально иной подход: «Один нейрон – один имидж», при котором каждый нейрон обучается своему имиджу. При этом не возникает взаимных влияний разных нейронов, обучение становится быстрым и точным.

      Обучение нейрона Progress некоторому образу сводится к тому, что дистрибьютор определяет уровень сигнала (в простейшем случае его амплитуду или величину по шкале RGB) и замыкает выключатель, соответствующий интервалу весов, в который попадает данная величина.

      Рис. 4. Обученная однонейронная многоуровневая сеть PANN

      Приведенная схема обучения нейрона Progress порождает ряд замечательных свойств сети PANN:

      1. Обучение не требует вычислительных операций и поэтому происходит очень быстро.

      2. Набор синаптических весов одного нейрона никак не зависит от других нейронов, и поэтому нейроны сети можно обучать как по отдельности, так и группами, а потом обученные нейроны или их группы объединять в сеть.

      3. Сеть может доучиваться, то есть можно изменять, добавлять и убирать нужные нейроны в любое время, не влияя при этом на незатронутые данными изменениями нейроны.

      4. Обученный нейрон-имидж может быть легко визуализирован с использованием простейших цветовых кодов, связывающих уровни включенных весов с яркостью или цветом пикселей.

      2.3. ЗАБАВНЫЙ ПАРАДОКС PANN

      На первый взгляд сеть PANN выглядит конструктивно сложнее, чем классические Искусственные Нейронные Сети. Но в действительности PANN проще.

      Сеть PANN проще, потому что:

      1. В нейроне Розенблатта есть фактор активации, то есть обработка полученного результата посредством нелинейной логистической (сигмовидной) функции, S-кривой и т. п. Без этого нельзя обойтись, но это усложняет нейрон Розенблатта и делает его нелинейным, что приводит к огромным проблемам при обучении. В отличие от него нейрон Progress строго линеен и никаких проблем не порождает.

      2.