Показати простий запис статті
dc.contributor.author |
Скороход, Б.А |
|
dc.date.accessioned |
2015-09-10T18:21:49Z |
|
dc.date.available |
2015-09-10T18:21:49Z |
|
dc.date.issued |
2013 |
|
dc.identifier.citation |
Диффузные алгоритмы обучения нейронных сетей прямого распространения / Б.А Скороход // Кибернетика и системный анализ. — 2013. — Т. 49, № 3. — С. 14-25. — Бібліогр.: 19 назв. — рос. |
uk_UA |
dc.identifier.issn |
0023-1274 |
|
dc.identifier.uri |
http://dspace.nbuv.gov.ua/handle/123456789/86230 |
|
dc.description.abstract |
Розглянуто задачу навчання нейронних мереж прямого поширення. Для її розв’язання запропоновано нові алгоритми, що грунтуються на асимптотичному аналізі поведінки розширеного фільтра Калмана і сепарабельній структурі мережі. Лінійнi ваги інтерпретуються як дифузні випадкові величини, що мають нульове математичне сподівання і матрицю коваріації, пропорційну великому параметру λ. Знайдено асимптотичні зображення при λ→∞ РФК — дифузні алгоритми навчання (ДАН). Показано, що на відміну від їх прототипу РФК з великим, але скінченним λ, їм властива робастність відносно накопичення помилок округлення. Із ДАН при певних спрощуючих припущеннях отримуємо ELM-алгоритм (extreme learning machine). Показано, що ДАН можуть перевершувати ELM-алгоритм за точністю апроксимації. |
uk_UA |
dc.description.abstract |
The problem of training feedforward neural networks is considered. To solve it, new algorithms are proposed. They are based on the asymptotic analysis of extended Kalman filter (EKF) and on a separable network structure. Linear weights are interpreted as diffusion random variables with zero expectation and covariance matrix proportional to an arbitrarily large parameter λ. Asymptotic expressions as λ→∞ for the EKF are derived. They are called diffusion learning algorithms (DLA). It is shown that they, unlike their prototype EKF with large yet finite λ are robust with respect to the accumulation of rounding errors and that under certain simplifying assumptions, the ELM (extreme learning machine) algorithm follows from the DLA. A numerical example shows that the accuracy of the DLA may be higher than that of the ELM algorithm. |
uk_UA |
dc.language.iso |
ru |
uk_UA |
dc.publisher |
Інститут кібернетики ім. В.М. Глушкова НАН України |
uk_UA |
dc.relation.ispartof |
Кибернетика и системный анализ |
|
dc.subject |
Кибернетика |
uk_UA |
dc.title |
Диффузные алгоритмы обучения нейронных сетей прямого распространения |
uk_UA |
dc.title.alternative |
Дифузійнi алгоритми навчання нейронних мереж прямого поширення |
uk_UA |
dc.title.alternative |
Diffusion learning algorithms for feedforward neural networks |
uk_UA |
dc.type |
Article |
uk_UA |
dc.status |
published earlier |
uk_UA |
dc.identifier.udc |
004.032.26 |
|
Файли у цій статті
Ця стаття з'являється у наступних колекціях
Показати простий запис статті