Искусство в IT-технологиях...

Нестерук Татьяна Никифоровна. Разработка модели адаптивного корпоративного сайта и инструментария для повышения эффективности маркетинговых решений, 2006

2.4.2. Алгоритм обучения НС с нечеткими связями в составе корпоративного сайта

Алгоритм, базирующийся на методике обучения многослойных нейронных сетей, включает следующие шаги [8,100]:
1. Выбор начального числа формальных нейронов в скрытых слоях.
4. Инициализация НС, заключающаяся в присваивании весам и порогам нейронной сети случайных значений из заданного диапазона.
Обучение нейронной сети по заданной выборке.
Завершение обучения в случае достижения заданной степени соответствия выходных векторов НС целевым векторам обучающей выборки.
Если нейронную сеть обучить не удалось, то число нейронов увеличивается и повторяются шаги со второго по четвертый.
Представим НС сеть в виде последовательности слоев, соединенных системой нечетких связей. Предположим, что начальная степень детализации семантики не менее числа формальных нейронов в скрытых слоях НС, причем число элементов нечеткого множества задастся равным степени числа 2. Рассмотрим алгоритма обучения многослойной 11С.
1. Для всех s, s = 1, S, 5 - количество пар векторов в обучающей выборке {X", )'/"' }, по входному вектору X'" из обучающей выборки путем
Ф
/уи" ормируется выходной вектор ys .
Вектор Q""' сравнивается с соответствующим целевым вектором У""' и формируется вектор несоответствий Д*".
Если достигнута заданная степень близости координат векторов У,0"'
и то на вход нейронной сети подастся следующий входной вектор X™ из обучающей выборки.
Иначе производится обучение НС, начиная с выходного слоя.
В векторе несоответствий D°u выявляются противоположные расхождения - координаты, имеющие противоположные знаки и близкие по модулю числовые значения.
Для всех пар ФН, соответствующих противоположным расхождениям, осуществляются перестановки ранее не отмеченных одноименных взвешенных межнейронных связей в пределах
соответствующих нечетких связей, начиная со входов с максимальным (минимальным) значением семаптик нечетких связей; перестановки сопровождаются пометкой измененных связей и проверкой условий п. 3.
7. Если заданная степень близости векторов Ysot" и ??Г' не достигнута,
то осуществляется настройка предыдущего слоя НС.
8. В предыдущем слое НС выбираются ФН, выходы которых соединены со входами подстраиваемых ФН следующего слоя сети, причем в первую очередь просматриваются входы с максимальным значением семантики нечетких связей.
9. Для всех слоев НС, включая входной, выполняются действия по П. 6 -
8.
К). Если в векторе несоответствий Щм имеются координаты, не являющиеся противоположными расхождениями, то из ранее неотмеченных связей (в пределах соответствующих нечетких связей) текущего слоя нейронной сети для перестановки выбираются взвешенные связи, минимизирующие значение соответствующей координаты вектора
несоответствий перестановки сопровождаются пометкой измененных связей и проверкой условий п. 3.
11.Если заданная степень близости векторов У,0'" и Q°tut не достигнута,
то переходим к настройке предыдущего слоя нейронной сети.
12.В предыдущем слое НС выбираются формальные нейроны, выходы которых соединены со входами подстраиваемых ФН следующего слоя, причем в первую очередь просматриваются входы с максимальным значением семантики.
13.Действия по П.
10-12 выполняются для всех слоев, включая входной.
14.Если предшествующие шаги не привели к заданной степени соответствия выходного и целевого векторов, то для слоя НС, предшествующего выходному, для увеличения избыточности информационного поля вводится ФН, на входы которого подаются ранее не
отмеченные взвешенные связи из состава нечетких связей предыдущего слоя НС с максимальными значениями истинности, а нечеткая связь с выхода вводимого ФН распределяется по входам ФН выходного слоя НС в

соответствии с критерием минимизации вектора несоответствий , после
чего повторяются действия по П. 1-13.
15.Если предшествующие шаги не привели к заданной степени соответствия выходного и целевого векторов и исчерпаны возможности текущей степени детализации семантики нечетких связей в данном слое НС, то действия по и. 14 производятся для предшествующего слоя НС и т. д. вплоть до первого скрытого слоя НС.
Если заданная степень соответствия выходного и целевого векторов не достигнута и исчерпаны возможности текущей степени детализации семантики нечетких связей во всех слоях НС, то начиная с последнего скрытого слоя НС увеличивается текущая степень детализации семантики нечетких связей, после чего повторяются действия по П.
1-15.
Если максимальная степень детализации семантики нечетких связей использована во всех слоях НС и дальнейшее увеличение числа ФН не
целесообразно, то заданная степень близости векторов У°"' и ЙГ" для данной НС не достижима.
Рассмотренный подход к обучению НС с нечеткими связями, не требует выполнения сложных математических расчетов с целью коррекции значении весов связей и параметров нелинейных преобразователей в составе отдельных ФН, что позволяет снизить трудоемкость решения задачи обучения НС.
Дальнейшее ускорение процесса минимизации ошибки можно осуществлять с использованием генетических алгоритмов, причем в качестве отдельной хромосомы (как вариант, гена в хромосоме) можно рассматривать отдельную нечеткую связь, случайно выбранные составляющие которой -гены (связи с различными значениями истинности, образующие семантику
нечеткой связи) меняются местами (кроссовер) в соответствии с конкретным эволюционным алгоритмом.
предыдущий следующий
= К содержанию =


2.4.2. Алгоритм обучения НС с нечеткими связями в составе корпоративного сайта - релевантная информация:

  1. ПЕРЕЧЕНЬ СОКРАЩЕНИЙ, УСЛОВНЫХ ОБОЗНАЧЕНИЙ, СИМВОЛОВ, ЕДИНИЦ И ТЕРМИНОВ1
    алгоритм функционирования) в зависимости от изменения условий внешней среды путем накапливания и использования информации о ней [I] Архитектура Концепция взаимосвязи элементов сложной структуры. Включает компоненты логической, физической и программной структур Высказывание Иерархия Избыточность Информационная архитектура сайта Суждение, рассматриваемое в некоторой системе суждений только
  2. 2.4.3. Генетический алгоритм адаптации нейро-нечетких сетей в составе корпоративного сайта
    алгоритмы часто применяются при решении практических задач [62, 92-94]. В задачах интеллектуального анализа данных первые два подхода используют для извлечения знаний из информации. В адаптивном сайте нейро-нечеткие классификаторы необходимы для извлечения знаний из входных векторов признаков посещения сайта и интересов (в процессе обучения НС), а генетические алгоритмы - для оптимизации
  3. Выводы по главе 2
    алгоритмы обучения нейро-нечетких сетей, базирующиеся на представлении информационного ноля нечеткой НС в виде совокупности нечетких связей. Нечеткая связь рассматривается как множество локальных связей между выходом формального нейрона слоя НС и одноименными входами формальных нейронов следующего слоя НС. Процесс адаптации информационного поля НС связан с перераспределением локальных связей (в
  4. 3.2. Разработка алгоритма анализа эффективности информационной структуры сайта и поддержки принятия решений
    обучения нейро-нечетких сетей. 3. Получение показателей значимости. Умножение матриц достоверности В «МИМ-интересы» и С «интересы-страницы» позволяет получить матрицу достоверности А «МИМ-страннцы». Матрица А достоверности «механизмы интернет-маркетинга -страницы» т - число механизмов интернет-маркетинга, п - число страниц сайта. Умножение матриц прибыли D «страницы-интересы» и ?
  5. Задачи исследования
    алгоритма их применения для поддержки принятия решений по модификации информационной структуры корпоративного сайта. Методы исследований В диссертационной работе используются следующие методы: теории управления и принятия решений, экономического анализа, •теории мягких вычислений: нейронных сетей, нечетких множеств, генетических алгоритмов, ¦ математический аппарат линейной алгебры,
  6. 1.2.2. Оптимизация сайта с целью повышения эффективности маркетинговой деятельности корпорации
    алгоритмов (ГА) позволяет считать НС, НЛ и ГА перспективной базой для систем интеллектуального анализа данных. Причем последние ориентированы на решение задач оптимизации, в то время как НС и НЛ - задач анализа и выявления скрытых закономерностей в нечетких и не вполне достоверных данных. Основным достоинством ЭС является «прозрачность» процесса формирования базы знаний в виде системы правил
  7. Нейро-нечеткие сети
    алгоритмы нечеткого логического вывода в структуре НС, вводя в информационное поле нейронной сети информацию, полученную от экспертов-экономистов. Сформированная подобным образом база знаний автоматически корректируется в процессе обучения нейро-нечеткой сети исходя из реальных значений анализируемых экономических показателей и результаты коррекции могут быть подвергнута последующему анализу
  8. Выводы по главе 1
    алгоритмы как средство оптимизации базы знаний. Показано, что для придания корпоративному сайту адаптивных свойств необходимо привлечение современных интеллектуальных средств. При решении экономических задач, для которых характерно наличие неполной и недостаточно достоверной информации, хорошо зарекомендовали себя системы интеллектуального анализа данных. Нейронные сети, системы нечеткой логики
  9. 2.2. Методика оптимизации адаптивного корпоративного сайта
    обучением нечетких НС, которое адекватно видоизменяет систему нечетких правил логического вывода, ставящую в соответствие интересам посетителей сайта механизмы интернет-маркетинга. Модель адаптивного корпоративного сайта характеризуется: многостраничной структурой сайта, ориентированной на учет экспертных оценок и опыта квалифицированных специалистов, представленного в виде системы нечетких
  10. 2.3.2. Нейро-нечеткая классификация
    обучения. Для этого сформируем систему нечетких правил (не вполне корректную, т. к. правила R\ и Ri - взаимоисключающие), которая нечетким посылкам *,,/ = !, 2, ставит в соответствие заключение у с использованием функций принадлежности: L - «большая» (Large) и S -«малая» (Small): /?,: если ?1 есть S и Х2 есть S> то у есть L, R, :если XI есть S и X2 есть S, то у есть S, R3: если Х\ есть S и Х2