Генетические алгоритмы |
|||||||||
Yao X. Evolving Artificial Neural Networks | |||||||||
|
Обучение и эволюция - две фундаментальные формы адаптации. В последние годы появился огромный интерес к комбинированию обучения и эволюции с искусственными нейронными сетями (ИНС). В данной работе: 1) дается обзор различных комбинаций ИНС с эволюционными алгоритмами (ЭА), включая использование ЭА для настройки весов связей, архитектуры, правил обучения и входных данных ИНС; 2) обсуждаются различные операторы поиска, использованные в различных ЭА; 3) указываются возможные направления исследований. На основе обзора большого объема источников, показано, что совместное применение ИНС и ЭА способствует созданию значительно лучших интеллектуальных систем, чем использование ИНС или ЭА в отдельности. Скачать статью (pdf, rar, 302 kb) Настройка весов рекуррентных сетей является трудной задачей для градиентных методов поиска. Генетические операторы для ГА с вещественным кодированием для настройки весов ИНС: Демонстрация преимуществ эволюционного подхода для настройки весов ИНС перед обратным распространением: Проводится сравнение эволюционного подхода к обучению ИНС и градиентных методов обучения. Результат обучения ИНС градиентным мeтодом во многом зависит от начальных условий, поэтому часто один алгоритм запускается несколько раз, прежде чем будет найдено решение. Рассматривается гибридный подход к обучению. Подчеркивается бОльшая его эффективность по сравнению с ГА и ВР в отдельности. Характеристики пространства поиска нейросетевых структур, подчеркивающие преимущества использования ГА в поиске топологии ИНС (G. F. Miller, P. M. Todd, and S. U. Hegde, "Designing neural networks using genetic algorithms", in Proc. 3rd Int. Conf. Genetic Algorithms and Their Applications, J. D. Schaffer, Ed. San Mateo, CA: Morgan Kaufmann, 1989, pp. 379–384.): Источники "шума" при оценке особей в ЭА для настройки только структуры ИНС (с обучением градиентным методом) ("A new evolutionary system for evolving artificial neural networks", IEEE Trans. Neural Networks, vol. 8, pp. 694–713, May 1997.): ЭА для настройки весов сети Хопфилда: Высказано мнение, что прямое кодирование позволяет находить компактные решения и тонко настраивать структуру сети. В то же время косвенное кодирование подходит, чтобы быстро найти подходящий тип архитектуры сети. Разделение эволюции структуры и обучения является источником некорректности оценки сетей и "запутывает" эволюцию. Использование одновременной настройки структуры и обучения дает, как правило, лучшие результаты. Высказывается мнение, что кроссовер больше разрушает, нежели создает, по крайней мере для многослойных архитектур, т.к. не принимается во внимание информация полученная на предыдущих этапах эволюции. Высказано мнение, что кроссовер больше подойдет для эволюции локализованных (?? localized) ИНС, например, с радиально-базисными функциями. Подчеркивается, что рост вычислительной мощности компьютеров дает новые возможности для эволюции нейронных сетей. Библиография больше чем на 300 наименований !!!!!!! Начиная с этой работы и далее, я не буду, как раньше, выписывать краткое содержание по главам, а буду просто выкладывать собственные замечания, которые появлялись по мере прочтения статьи. Причина одна - лень ;-), нет ей прощения, а мне тем более. Возможно, это пройдет со временем (сейчас я, к тому же, сильно загружен). А, возможно, и нет... ;-) Что касается статьи, то она очень, и очень, и очень хорошая и информативная, хотя в ней и нет информации о некоторых достаточно известных нейроэволюционных алгоритмах, тогда уже существовавших. В частности, про алгоритм ESP Фаустино Гомеса. Но то, что есть, оставляет ощущение просто информационного потопа, настолько всего много. К тому же список литературы из 319 источников, это - что-то. [25 января 2005г.] |
Made by Qwerty. Copyright © 2003. |