Наукова електронна бібліотека
періодичних видань НАН України

Диффузные алгоритмы обучения нейронных сетей прямого распространения

Репозиторій DSpace/Manakin

Показати простий запис статті

dc.contributor.author Скороход, Б.А
dc.date.accessioned 2015-09-10T18:21:49Z
dc.date.available 2015-09-10T18:21:49Z
dc.date.issued 2013
dc.identifier.citation Диффузные алгоритмы обучения нейронных сетей прямого распространения / Б.А Скороход // Кибернетика и системный анализ. — 2013. — Т. 49, № 3. — С. 14-25. — Бібліогр.: 19 назв. — рос. uk_UA
dc.identifier.issn 0023-1274
dc.identifier.uri http://dspace.nbuv.gov.ua/handle/123456789/86230
dc.description.abstract Розглянуто задачу навчання нейронних мереж прямого поширення. Для її розв’язання запропоновано нові алгоритми, що грунтуються на асимптотичному аналізі поведінки розширеного фільтра Калмана і сепарабельній структурі мережі. Лінійнi ваги інтерпретуються як дифузні випадкові величини, що мають нульове математичне сподівання і матрицю коваріації, пропорційну великому параметру λ. Знайдено асимптотичні зображення при λ→∞ РФК — дифузні алгоритми навчання (ДАН). Показано, що на відміну від їх прототипу РФК з великим, але скінченним λ, їм властива робастність відносно накопичення помилок округлення. Із ДАН при певних спрощуючих припущеннях отримуємо ELM-алгоритм (extreme learning machine). Показано, що ДАН можуть перевершувати ELM-алгоритм за точністю апроксимації. uk_UA
dc.description.abstract The problem of training feedforward neural networks is considered. To solve it, new algorithms are proposed. They are based on the asymptotic analysis of extended Kalman filter (EKF) and on a separable network structure. Linear weights are interpreted as diffusion random variables with zero expectation and covariance matrix proportional to an arbitrarily large parameter λ. Asymptotic expressions as λ→∞ for the EKF are derived. They are called diffusion learning algorithms (DLA). It is shown that they, unlike their prototype EKF with large yet finite λ are robust with respect to the accumulation of rounding errors and that under certain simplifying assumptions, the ELM (extreme learning machine) algorithm follows from the DLA. A numerical example shows that the accuracy of the DLA may be higher than that of the ELM algorithm. uk_UA
dc.language.iso ru uk_UA
dc.publisher Інститут кібернетики ім. В.М. Глушкова НАН України uk_UA
dc.relation.ispartof Кибернетика и системный анализ
dc.subject Кибернетика uk_UA
dc.title Диффузные алгоритмы обучения нейронных сетей прямого распространения uk_UA
dc.title.alternative Дифузійнi алгоритми навчання нейронних мереж прямого поширення uk_UA
dc.title.alternative Diffusion learning algorithms for feedforward neural networks uk_UA
dc.type Article uk_UA
dc.status published earlier uk_UA
dc.identifier.udc 004.032.26


Файли у цій статті

Ця стаття з'являється у наступних колекціях

Показати простий запис статті

Пошук


Розширений пошук

Перегляд

Мій обліковий запис