Мозг и когнитивные функции

суббота, 7 января 2012 г.

Корпоративный искусственный интеллект (часть 1)


Метаботропные рецептивные нейронные кластеры Аркадия Радченко - дополнение принципа Дональда Хебба.
Работая над корпоративным искусственным интеллектом, на этапе формирования требований к системе, возникла необходимость заполнить пробелы между нейронными сетями (их обучением через подбор весов), паттернами активновсти нейронных ансамблей, классификацией, кластеризацией и влиянием глиальных клеток на работу неокортекса. 

Эта статья не претендует на статус "научной" работы и основывается на моих прежних разработках и исследованиях. В ней будет затронут только один аспект, а именно связь между - принципом Хебба, рецептивными кластерами Радченко, кластеризацией методом ближайшего соседа, картами Кохенена и глиальными клетками. А так же, будут сформированы начальные требования к одному из компонентов разрабатываемой системы и обоснованна применимость существующих технологий. 

Забегая вперед, отвечу на вопрос - в чем же связь между принципом Хебба, рецептивными кластерами Радченко, кластеризацией методом ближайшего соседа, картами Кохенена и глиальными клетками? Связь между этими объектами, понятиями и методиками в том, что их объединяет общий принцип заимствованный из биологии. Принцип взаимодействия ближайших нейронов и окружающих их глиальных клеток. В результате такого взаимодействия происходит запоминание и обобщение информации в коре головного мозга.    

Способность мозга к обобщению
Наш мозг обладает удивительной способностью. Мы можем из множества ситуаций, событий, фактов вычленять суть, находить сущности, лежащие в основе явлений, и соответственно объединяющие их. Столкнувшись с ножом, вилкой, ложкой мы только сначала воспринимаем их как отдельные предметы. Как только мы приобретаем опыт, который говорит, что все они используются для еды, наш мозг создает некое обобщение. Это обобщение можно описать как – «столовые приборы», оно отражает то, что все они используются для еды. Так вот удивительное в этом то, что такое обобщение происходит не в результате размышлений, попыток понять или иной умственной деятельности, а «автоматически» без осознания самого факта обобщения. Обобщение без осознания – это одно из фундаментальных свойств памяти. Оно заключается в том, что накопление информации, сопровождается формированием структур, отвечающих за выделение общих признаков, свойственным различным явлениям. Эти признаки могут не совпадать с предметами или явлениями, которые мы знаем, а отражать внутренние скрытые сущности или закономерности. Когда накапливается достаточно опыта и формируется обобщающее свойство, оно начинает использоваться в работе мозга.

Первым убедительно продемонстрировал неосознанное обучение Артур Ребер в 1967 году. Он предложил испытуемым искусственную грамматику, которая состояла из цепочек букв, которые подчинялись сложному набору правил. Несмотря на сложность правил, испытуемые демонстрировали прогрессивное улучшение способности дифференцировать цепочки, построенные по правилам, и не грамматические цепочки, то есть те которые этим правилам не подчинялись. Когда же была поставлена задача, найти эти правила, ни один из испытуемых не смог этого сделать. Более того попытка найти правила привела к ухудшению способности дифференцировать грамматические и не грамматические цепочки.

Как мы видим, неосознанная способность к обобщению - это аналог методов кластеризации в Data Mining. Однако, мозгу присуща не только неосознанная или осознанная кластеризация, но и распознавание ранее запомненных образов. Распознавание - отнесение образа к одному или более, ранее сформированным кластерам. Обе этих способности базируются на памяти.   

Нейронные сети
Вспомним немного из прошлого. Нейрон, который используется при компьютерном моделировании, только отдаленно похож на нейрон головного мозга. Элементы, используемые при моделировании нейронных сетей, принято называть формальными нейронами или нейронами Маккалока — Питтса.

На входы нейрона Х (синапсы) подаются сигналы, которые могут быть внешними, а могут быть сигналами с выходов (аксонов) других нейронов. В нормальном состоянии нейрон неактивен, то есть на выходе Y — ноль (нет сигнала). Каждому входу сопоставлен весовой коэффициент W, определяющий «важность этого входа». Если сумма произведений сигналов на входе на весовые коэффициенты превышает некое пороговое значение — нейрон активируется (на выходе — единица) и продолжает быть активным, пока взвешенная сумма входов не опустится ниже порогового значения.

Стоит ли напоминать, что подобный подход в моделировании нейронов основывается на попытке подражать функции пластичности мозга и способности нейронов перестраивать свои синаптические связи (известные ещё по работам Уайлдера Пенфилда, Чарльза Скотта Шеррингтона, Эдварда Тауба и Майкла Мерцених). Я, являясь сторонником биологического подхода, всегда склонялся к ущербности метода "подбора весов" и считаю, что память основывается не только и не столько на наличии сильных/слабых связей между нейронами, сколько на способности нейронных ансамблей усваивать паттерны возбуждения. Результатом  усвоения паттернов является возможность распознавания образов. По Фрэнку Розенблатту "задача чистого обобщения" – это задача узнавания стимула не зависимо от формы его сенсорного представления. Например, квадрат, находящийся в левой части сетчатки, должен вызывать узнавание подобно квадрату, который находится в правой части сетчатки, несмотря на то, что не активизирует ни одного из тех же сенсорных окончаний (инвариантность к координатам).

Пластичность мозга, т.е. его способность к самоорганизации и формированию "карт" (нейронных ансамблей) долгое время не давало покоя адептам "хомяковых сетей" (читать как нейронных сетей). И конечно работа 1984 года, в которой Тойво Кохоненом, была предложена изящная модель нейронной сети, способная обучаться без учителя, и обладающая способностью к картографической самоорганизации была принята как "прорыв". Следует отдать должное, тогда это действительно был прорыв. 

 
Сама карта состоит из нейронов, расположенных в вершинах регулярной решетки с квадратными ячейками. Кроме карты имеется набор сенсоров. Каждый из сенсоров соединен с каждым нейроном карты. Информация о событии – это картина активности набора сенсоров. Нейроны карты имеют два набора данных, которые их описывают. Первый набор – координаты нейрона на карте. Второй – вектор веса, определяющий характер его связей с сенсорами. Размерность вектора веса такая же, как у слоя сенсоров.

При инициализации сети всем векторам веса присваиваются начальные значения, например случайным образом. Далее начинается обучение сети. Для каждого обучающего события последовательно выполняется следующая процедура:

  1. Для каждого нейрона карты находим расстояние между вектором веса нейрона и вектором значений сенсоров. Нейрон, для которого это расстояние минимально, объявляется победителем. Если таких нейронов несколько случайным образом выбирается один из них.
  2. Изменяем вектора веса. Для этого задается функция соседства, которая убывает, как правило, экспоненциально, по мере удаления от нейрона победителя. Для нейрона победителя и его соседей приближаем значения векторов веса к вектору значения сенсоров. Корректировка осуществляется тем сильнее, чем больше функция соседства. Сила корректировки определяется коэффициентом скорости обучения, он монотонно убывает по мере обучения сети.

В таком процессе на каждом шаге ищется нейрон наиболее "похожий" на текущее событие и для него и его соседей усиливается похожесть на именно это событие. Это приводит к тому, что образуется карта, на которой нейроны – проекции "похожих" событий, оказываются близки и на карте. Формируются области некой "похожести" событий. Причем чем распространеннее некий класс событий, тем большая площадь карты будет ему соответствовать.

Карты Кохонена при всей своей простоте дают результат удивительным образом напоминающий то, что происходит с корой головного мозга в процессе формирования карт коры. Самоорганизующиеся карты хорошо иллюстрируют возможность самоорганизации нейронных структур, без участия внешнего учителя.

Самоорганизация карт коры хорошо была показана Майклом Мерценихом. Он исследовал небольшие области размером порядка одного-двух квадратных миллиметров. Проделав отверстие в черепе обезьяны над той областью, которая соответствовала кисти руки, и подключив электрод к одному из нейронов он прикасался к различным местам кисти пока не находил то место, на прикосновение к которому реагировал этот нейрон.

Составив карту кисти руки, одной из обезьян, Мерцених затем удалил ей средний палец. Через несколько месяцев он повторил картирование и выяснил, что карта среднего пальца исчезла, а карты соседних пальцев увеличились в размерах и заняли ее место. Когда в другом опыте он сшил вместе два пальца обезьяны, то впоследствии обнаружил, что их карты слились в одну.

Методов обучения без учителя "хомяковых сетей" было изобретено множество, за долго до Кохонена, однако, именно его алгоритм наиболее близок к биологическому процессу самоорганизации карт коры головного мозга.

Хоть данный алгоритм и применим к "хомяковым сетям", но по своей сути является лишь прикладным применением кластеризации методом ближайшего соседа.   

Но у карт Кохонена есть особенности, которые не позволяют говорить о том, что они во всем подобны коре мозга. Да, они подобны в одном, но не умеют многое другое. Во-первых, они не хранят информации о конкретных воспоминаниях. Во-вторых, каждая новая информация модифицирует ранее произведенное обучение, "затирая" часть опыта. В-третьих, необходимое для стабильности сети, убывание коэффициента скорости обучения, плохо соответствует принципам реальной коры. Естественное восприятие одновременно пластично, поскольку адаптируется к новой информации, и при этом оно стабильно, то есть новая информация не разрушает память о старых образах.

Стефан Гроссберг (S.Grossberg, G.Carpenter, 1987) для решения проблемы стабильности-пластичности предложил идею адаптивного резонанса. Его нейросети имеет внутренний детектор новизны – тест на сравнение предъявленного образа с содержимым памяти. При удачном поиске в памяти предъявленный образ классифицируется с одновременной уточняющей модификацией синаптических весов нейрона, выполнившего классификацию. О такой ситуации говорят, как о возникновении адаптивного резонанса в сети в ответ на предъявление образа. Если резонанс не возникает в пределах некоторого заданного порогового уровня, то успешным считается тест новизны, и образ воспринимается сетью, как новый. Модификация весов нейронов, не испытавших резонанса, при этом не производится.


Канадский физиолог и нейропсихолог Дональд Хебб сформулировал простой принцип, который, по его мнению, описывал правило обучения нейронов: связи между нейронами, которые разряжаются одновременно, должны усиливаться. Более дословно этот звучит: "Если аксон клетки А находится достаточно близко, чтобы возбуждать клетку B, и неоднократно или постоянно принимает участие в ее возбуждении, то наблюдается некоторый процесс роста или метаболических изменений в одной или обеих клетках, ведущий к увеличению эффективности А, как одной из клеток возбуждающих В" («Организация поведения: нейропсихологическая теория», 1949). Этот принцип получил название «принцип Хебба» и лег в основу первых моделей нейронных сетей.

И опять, по своей сути это прикладное применение кластеризации методом ближайшего соседа, хотя уже намного ближе к паттернам активностей.

Наиболее распространенная концепция "хомяковых сетей" говорит, что при запоминании изменению подвергаются синапсы – места контакта между нейронами, где аксон нейрона, передающего сигнал, контактирует с дендритом нейрона, его принимающим. Запоминание новой информации сопоставляется с модификацией весов связей формальных нейронов.

Теория Радченко

Аркадий Радченко глубоко обосновал предположение, что элементами памяти нейрона являются метаботропные рецептивные кластеры («Информационный ключ к памяти мозга», 2006). По его теории, на поверхности клеток, в том числе нейронов, находятся молекулы, которые называют клеточными рецепторами, и которые соединяют окружающую среду и внутреннюю среду клетки. Благодаря клеточным рецепторам определенные сигналы, могут передаваться вовнутрь клетки, меняя ее состояние.

В окончаниях аксона, или по-другому в его терминалях, митохондрии вырабатывают специальные вещества – нейромедиаторы, которые накапливаются в специальных пузырьках. Поступление нервного импульса сопровождается выбросом медиатора. Медиатор, взаимодействуя с рецепторами, меняет проводимость их ионных каналов, что по совокупности сигналов со всех рецепторов определяет, активируется нейрон или нет.

Но медиаторы, выброшенные при поступлении нервного импульса, распространяются за пределы синаптической щели дальше по поверхности мембраны. При таком распространении их концентрация резко убывает, но появляется явление интерференции. К одному и тому же месту на поверхности нейрона могут одновременно подойти медиаторы от разных источников и тогда, такой когерентный приход возбуждающих медиаторов может изменить состояние рецепторов. Радченко описал условия возникновения и работы "синаптических ловушек". Для этих ловушек метаботропные рецептивные кластеры играют роль элементов памяти. Для каждой ловушки есть определенный набор паттернов нервных импульсов, который обеспечивает когерентность прихода медиаторов.

Другими словами каждая картина импульсов на синапсах нейрона вызывает уникальную интерференционную картину на поверхности нейрона. С помощь рецептивных кластеров, расположенных в местах пучностей можно запомнить уникальную картину активности и узнать ее в случае повторения.

Это предположение гораздо ближе к тому, что нам сегодня известно про работу нейронов, и намного дальше от "хомяковых сетей". Т.е. по Радченко, метаботропные рецептивные кластеры играют роль элементов памяти для нейрона.

Другой (не по счету и не по значению) элемент памяти, был обнаружен в 1950-х годах биохимиком Г. Хиденом из Швеции. Он установил связь между степенью выработки двигательных навыков и содержанием РНК в нейронах соответствующих моторных центров. Т.е. в результате запоминания происходит не только "усиление" синапсов, но и внутриклеточные преобразования в самом постсинаптическом нейроне (увеличивается концентрация мРНК).

Вообще, подобных элементов памяти найдено уже много, но сколько ещё предстоит найти. Например, до сих пор, плохо изучено влияние внесинаптической передачи нейромедиатора (эффект известен под термином - спиловер) на механизм активации ближайших нейронов, которые не имеют непосредственных синаптических контактов в местах возникновения "спонтанного возбуждения" мембраны. Не ясна роль глиальных клеток в синхронизации работы целых нейронных ансамблей, располагающихся в различных частях неокортекса (на значительном удалении).  

Рассмотрим систему из 2-х нейронов не имеющих непосредственного синаптического контакта. Коллатерали нейрона A находятся в непосредственной близости возле дендритов нейрона B или возле его сомы. Высвобождаемый нейромедиатор покидает синаптическую щель и за счет спиловера активирует мембранные рецепторы на нейроне B. Появившаяся разность мембранного потенциала на нейроне B не достаточна для преодоления порога и возбуждения спайковой активности на аксонном холме. Однако, глиальные клетки, окружающие оба нейрона, не восприимчивы к нейромедиатору, но имеют контакты с нейронами A и B и передают недостающую разность мембранного потенциала нейрону B. Интерференция этих активностей (от внесинаптического нейромедиатора и от мембранного контакта со стороны глиальных клеток, наблюдалось мною при моделировании интерференции) приводят к возбуждению нейрона B. Далее формируются метаботропные рецептивные кластеры Радченко, которые обеспечивают реакцию на приход "утекшего" медиатора и открытие ионных каналов на внесинаптическом участке мембраны. Так мы получаем активацию 2-х нейронов не имеющих непосредственных синаптических контактов. При неоднократном повторении происходит процесс метаболических изменений в обеих клетках (накопление мРНК и прочее), ведущий к увеличению эффективности А, как одной из клеток возбуждающих В. Что и соответствует принципу Хебба. В последствии, на этом участке может появится новый синаптический контакт (аксонные коллатералии пресинаптической клетки будут удлиннятся хаотично, но в направлении концентрации метаботропных рецептивных кластеров и, после установлении нового синаптического контакта, этот новый отросток пресинаптической клетки сократится "натянется"). Следует отметить, что данный механизм может распространяться только на близкие друг к другу нейроны (да ещё и имеющие контакты с окружающими глиальными клетками). Опять мы имеем "ближайших соседей".

Более подробно влияние глиальных клеток на нейроны было промоделировано учёными из Тель-Авивского университета (Израиль).



Отчет об исследовании доступен на PLoS Computational Biology.

Сделаю предположение, которое будет одной из наших рабочих гипотез при построении системы корпоративного искусственного интеллекта - метод ближайшего соседа, должен рассматриваться как главный метод кластеризации данных и механизма обучения.           

Требования к компоненту

Итак, сформулируем первую (черновую) версию формальных требований к компоненту системы корпоративного искусственного интеллекта, отвечающего за хранение данных и их real-time обработку:

  • Своевременная обработка данных. Компонент должен не только сохранять входные данные, но и производить их обработку (кластеризацию, классификацию и выявление зависимостей между событиями) в момент сохранения, а не отложено. 
  • Воспроизводимость. Компонент должен быть в состоянии вернуть любые, ранее в него записанные, данные.
  • Единообразие самоорганизации. Должен существовать общий механизм работы компонента вне зависимости от модальности поступающих в него данных. Компоненты могут быть выстроены в иерархию и их алгоритм обработки данных не должен иметь специфики, зависящей от уровня иерархии. Т.е. первый уровень может обрабатывать "сырые" данные. Второй уровень, может обрабатывать данные о сформированных кластерах и степени принадлежности входных данных к тому или иному кластеру. Третий уровень может определять закономерности между выявленными кластерами, и т.д. В не зависимости от уровня, алгоритм обработки данных на каждом уровне должен быть один и тот же.
  • Способность к обобщению. Поступающие данные должны автоматически формировать структуры, реализующие обобщение (методом ближайшего соседа).
  • Классификация. Поступающие данные должны не только формировать клестеры, но и аннотироваться принадлежностью к одному или более уже сформированных кластеров.
  • Улучшаемость. В процессе обработки данных, должны не только формироваться новые кластеры, но и корректироваться уже выявленные. Корректировка не исключает объединения нескольких соседних кластеров в один общий.
  • Избыточность. Все поступившие данные и результаты их обработки должны сохранятся в хранилище. Выход из строя одного из хостов хранилища не должно приводить к полной или частичной потери данных или результатов их обработки.


Data Mining, Map/Reduce и функциональное программирование 
Направление Data Mining вобрало в себя все алгоритмы и методы обработки данных и выявления скрытых закономерностей. К сожалению, большинство этих методов основывается на статистическом анализе. Поэтому, применимость Data Mining для малого объема данных не очень эффективна. Однако, это не означает, что методы Data Mining не могут быть применены к накопленным корпоративным искусственным интеллектом данным (когда они достигнут статистически значимый объем). Наш корпоративный искусственный интеллект должен делать выводы на основе очень малого объема полученных данных.

Map/Reduce так же подразумевает отложенную обработку на больших объемах данных. И это так же не приемлемо для системы, которая обучается в real-time режиме. Что так же не исключает его применения "потом".

Современные языки функционального программирования (Haskell, Erlang, Scala, Clojure, F#, Nemerle, SML.NET, ...) ориентированы на многопроцессорные системы с параллельным вычислением. Основная их парадигма сводится к созданию функций, БЕЗ состояния. Т.е. если вы подали на вход функции 1,2,3 а функция занимается сложением, то на выходе будет всегда 6. И такую функцию можно многократно и параллельно применять. Наша система корпоративного интеллекта базируется на накопленном знании. В такой системе функция кластеризации, получив на вход одни данные выдаст результат, получив другие данные, результат будет основан на предыдущем опыте (т.е. сохраняется состояние). Поэтому, ныне модное направление функционального программирования и лямбда счислений, так же не выглядит как эффективная платформа для реализации корпоративного искусственного интеллекта (здесь ЕСТЬ состояния). Хотя, так же не исключено её частичное (локальное) применение.


UPD: Коллеги, благодарю всех, кто комментировал и участвовал в обсуждении статьи здесь и на форуме! Добавлена ссылка на моделирование влияния глии.


Ссылки и литература

2 комментария:

Mentifex комментирует...
Этот комментарий был удален администратором блога.
neuronus комментирует...
Этот комментарий был удален автором.