Citation Hunt

Фрагмент із Вікіпедії нижче не підкріплений надійним джерелом. Чи можете Ви знайти таке?

Клацніть Є джерело!, аби перейти до Вікіпедії та виправити фрагмент, або Наступна!, щоб переглянути інший. Щасти!

На сторінці Штучна нейронна мережа:

"

Зворотне поширення (англ. backpropagation) — це метод, який використовують для підлаштовування ваг з'єднань для компенсування кожної помилки, виявленої під час навчання. Величина помилки фактично розподіляється між з'єднаннями. Технічно зворотне поширення обчислює градієнт (похідну) функції витрат, пов'язаний із заданим станом, відносно ваг. Уточнювання ваг можливо здійснювати за допомогою стохастичного градієнтного спуску (англ. stochastic gradient descent) або інших методів, таких як машини екстремального навчання,[1] «безпоширні» (англ. "no-prop") мережі,[2] тренування без вертання,[3] «безвагові» (англ. "weightless") мережі,[4][5] та не-конективістські нейронні мережі.[джерело?]