Ми працюємо над відновленням додатку Unionpedia у Google Play Store
ВихідніВхідний
🌟Ми спростили наш дизайн для кращої навігації!
Instagram Facebook X LinkedIn

Метод стохастичного градієнта

Індекс Метод стохастичного градієнта

Градієнтні методи — це широкий клас оптимізаційних алгоритмів, які використовують не лише в машинному навчанні.

Зміст

  1. 8 відносини: Torch, Проблема зникання градієнту, Навчання ознак, Штучна нейронна мережа, Метод опорних векторів, Градієнтний спуск, Глибинне навчання, Лінійний класифікатор.

Torch

Torch — відкрита бібліотека для машинного навчання, система для та мова сценаріїв на основі мови програмування Lua. Пропонує широкий спектр алгоритмів для глибинного машинного навчання і використовує мову сценаріїв LuaJIT та реалізацію мовою C в основі.

Переглянути Метод стохастичного градієнта і Torch

Проблема зникання градієнту

В машинному навчанні пробле́ма зника́ння градіє́нту (vanishing gradient problem) — це ускладнення, яке виникає в тренуванні штучних нейронних мереж методами навчання на основі градієнту та зворотного поширення.

Переглянути Метод стохастичного градієнта і Проблема зникання градієнту

Навчання ознак

В машинному навчанні навча́ння озна́к (feature learning) або навча́ння предста́влень (representation learning) — це набір методик навчання ознаки: перетворення сирого входу даних на представлення, яке зможе ефективно використовуватися в завданнях машинного навчання.

Переглянути Метод стохастичного градієнта і Навчання ознак

Штучна нейронна мережа

головному мозку. Тут кожним круговим вузлом представлено штучний нейрон, а стрілкою — з'єднання виходу одного штучного нейрону зі входом іншого. Шту́чні нейро́нні мере́жі (ШНМ, artificial neural networks, ANN), або системи (connectionist systems) — це обчислювальні системи, натхнені біологічними нейронними мережами, що складають мозок тварин.

Переглянути Метод стохастичного градієнта і Штучна нейронна мережа

Метод опорних векторів

В машинному навчанні ме́тод опо́рних векторі́в (метод опорных векторов) — це метод аналізу даних для класифікації та регресійного аналізу за допомогою моделей з керованим навчанням з пов'язаними алгоритмами навчання, які називаються опо́рно-ве́кторними маши́нами (ОВМ, support vector machines, SVM, також опо́рно-ве́кторними мере́жами, support vector networks).

Переглянути Метод стохастичного градієнта і Метод опорних векторів

Градієнтний спуск

Градіє́нтний спуск (gradient descent) — це ітераційний алгоритм оптимізації першого порядку, в якому для знаходження локального мінімуму функції здійснюються кроки, пропорційні протилежному значенню градієнту (або наближеного градієнту) функції в поточній точці.

Переглянути Метод стохастичного градієнта і Градієнтний спуск

Глибинне навчання

Глиби́нне навча́ння (також відоме як глибинне структурне навчання, ієрархічне навчання, глибинне машинне навчання, deep learning, deep structured learning, hierarchical learning, deep machine learning) — це галузь машинного навчання, що ґрунтується на наборі алгоритмів, які намагаються моделювати високорівневі абстракції в даних, застосовуючи глибинний граф із декількома обробними шарами, що побудовано з кількох лінійних або нелінійних перетворень.

Переглянути Метод стохастичного градієнта і Глибинне навчання

Лінійний класифікатор

У галузі машинного навчання метою статистичної класифікації є використання характеристик об'єкту для ідентифікації класу (або групи), до якої він належить.

Переглянути Метод стохастичного градієнта і Лінійний класифікатор

Також відомий як Стохастичний градієнтний спуск.