Зміст
8 відносини: Torch, Проблема зникання градієнту, Навчання ознак, Штучна нейронна мережа, Метод опорних векторів, Градієнтний спуск, Глибинне навчання, Лінійний класифікатор.
Torch
Torch — відкрита бібліотека для машинного навчання, система для та мова сценаріїв на основі мови програмування Lua. Пропонує широкий спектр алгоритмів для глибинного машинного навчання і використовує мову сценаріїв LuaJIT та реалізацію мовою C в основі.
Переглянути Метод стохастичного градієнта і Torch
Проблема зникання градієнту
В машинному навчанні пробле́ма зника́ння градіє́нту (vanishing gradient problem) — це ускладнення, яке виникає в тренуванні штучних нейронних мереж методами навчання на основі градієнту та зворотного поширення.
Переглянути Метод стохастичного градієнта і Проблема зникання градієнту
Навчання ознак
В машинному навчанні навча́ння озна́к (feature learning) або навча́ння предста́влень (representation learning) — це набір методик навчання ознаки: перетворення сирого входу даних на представлення, яке зможе ефективно використовуватися в завданнях машинного навчання.
Переглянути Метод стохастичного градієнта і Навчання ознак
Штучна нейронна мережа
головному мозку. Тут кожним круговим вузлом представлено штучний нейрон, а стрілкою — з'єднання виходу одного штучного нейрону зі входом іншого. Шту́чні нейро́нні мере́жі (ШНМ, artificial neural networks, ANN), або системи (connectionist systems) — це обчислювальні системи, натхнені біологічними нейронними мережами, що складають мозок тварин.
Переглянути Метод стохастичного градієнта і Штучна нейронна мережа
Метод опорних векторів
В машинному навчанні ме́тод опо́рних векторі́в (метод опорных векторов) — це метод аналізу даних для класифікації та регресійного аналізу за допомогою моделей з керованим навчанням з пов'язаними алгоритмами навчання, які називаються опо́рно-ве́кторними маши́нами (ОВМ, support vector machines, SVM, також опо́рно-ве́кторними мере́жами, support vector networks).
Переглянути Метод стохастичного градієнта і Метод опорних векторів
Градієнтний спуск
Градіє́нтний спуск (gradient descent) — це ітераційний алгоритм оптимізації першого порядку, в якому для знаходження локального мінімуму функції здійснюються кроки, пропорційні протилежному значенню градієнту (або наближеного градієнту) функції в поточній точці.
Переглянути Метод стохастичного градієнта і Градієнтний спуск
Глибинне навчання
Глиби́нне навча́ння (також відоме як глибинне структурне навчання, ієрархічне навчання, глибинне машинне навчання, deep learning, deep structured learning, hierarchical learning, deep machine learning) — це галузь машинного навчання, що ґрунтується на наборі алгоритмів, які намагаються моделювати високорівневі абстракції в даних, застосовуючи глибинний граф із декількома обробними шарами, що побудовано з кількох лінійних або нелінійних перетворень.
Переглянути Метод стохастичного градієнта і Глибинне навчання
Лінійний класифікатор
У галузі машинного навчання метою статистичної класифікації є використання характеристик об'єкту для ідентифікації класу (або групи), до якої він належить.
Переглянути Метод стохастичного градієнта і Лінійний класифікатор
Також відомий як Стохастичний градієнтний спуск.