Логотип
Юніонпедія
Зв'язок
Завантажити з Google Play
Новинка! Завантажити Юніонпедія на вашому Android™ пристрої!
безкоштовно
Більш швидкий доступ, ніж браузер!
 

Градієнтний спуск

Індекс Градієнтний спуск

Градіє́нтний спуск (gradient descent) — це ітераційний алгоритм оптимізації першого порядку, в якому для знаходження локального мінімуму функції здійснюються кроки, пропорційні протилежному значенню градієнту (або наближеного градієнту) функції в поточній точці.

19 відносини: Південний Буг, Перцептрон, Обмежена машина Больцмана, Автокодувальник, Алгоритм сходження на вершину, Анізотропна дифузія, Нейронна машина Тюрінга, Розклад невід'ємних матриць, Регуляризація (математика), Рекурентна нейронна мережа, Штучна нейронна мережа, Метод стохастичного градієнта, Метод зворотного поширення помилки, Метод опорних векторів, Задача безумовної оптимізації, Градієнтні методи, Глибинне навчання, Елюція, Локальний пошук (оптимізація).

Південний Буг

Півде́нний Буг, Бог, рідше Біг (‛Ύπανις — Гіпаніс, Aqsu — Ак-Су, Boh) — річка на південному заході України.

Новинка!!: Градієнтний спуск і Південний Буг · Побачити більше »

Перцептрон

Логічна схема перцептрону з трьома виходами Перцептро́н, або персептро́н (perceptron від perceptio — сприйняття; perzeptron) — математична або комп'ютерна модель сприйняття інформації мозком (кібернетична модель мозку), запропонована Френком Розенблатом в 1957 році й реалізована у вигляді електронної машини «Марк-1», зокрема, був системою, що імітує людське око та його взаємодію з мозком.

Новинка!!: Градієнтний спуск і Перцептрон · Побачити більше »

Обмежена машина Больцмана

Схема обмеженої машини Больцмана з трьома видимими вузлами та чотирма прихованими вузлами (без упереджених вузлів). Обме́жена маши́на Бо́льцмана (ОМБ, restricted Boltzmann machine, RBM) — це породжувальна штучна нейронна мережа, здатна навчатися розподілу ймовірностей над набором її входів.

Новинка!!: Градієнтний спуск і Обмежена машина Больцмана · Побачити більше »

Автокодувальник

thumb Автокодува́льник, автоасоціа́тор або мере́жа (autoencoder, autoassociator, Diabolo network) — це штучна нейронна мережа, що використовується для навчання ефективних кодувань.

Новинка!!: Градієнтний спуск і Автокодувальник · Побачити більше »

Алгоритм сходження на вершину

Алгоритм пошуку зі сходженням до вершини (Hill climbing) являє собою звичайний цикл, в якому постійно відбувається переміщення в напрямку зростання деякого значення, тобто підйом.

Новинка!!: Градієнтний спуск і Алгоритм сходження на вершину · Побачити більше »

Анізотропна дифузія

В обробці зображень та комп'ютерному баченні, анізотропна дифузія, яка також називається  дифузією Перона–Маліка, є методом, який спрямований на зменшення шуму зображення, без видалення при цьому важливих частин вмісту зображення, як правило, країв, лінії або інших даних, які важливі для інтерпретації зображення. Анізотропна дифузія нагадує процес, який створює масштабований простір, де зображення генерує параметризовану сім'ю все більш і більш розмитих зображень, заснованих на дифузійному процесі.

Новинка!!: Градієнтний спуск і Анізотропна дифузія · Побачити більше »

Нейронна машина Тюрінга

Нейро́нні маши́ни Тю́рінга (НМТ, Neural Turing machines, NTMs) поєднують можливості нечіткого нейронних мереж з алгоритмічною потужністю.

Новинка!!: Градієнтний спуск і Нейронна машина Тюрінга · Побачити більше »

Розклад невід'ємних матриць

Розклад невід'ємних матриць (NMF(Non-negative matrix factorization)) це група алгоритмів багатовимірного аналізу та лінійної алгебри, де матриця V розкладається в, зазвичай, дві матриці W, H, враховуючи, що жодна з трьох матриць немає від'ємних елементів.

Новинка!!: Градієнтний спуск і Розклад невід'ємних матриць · Побачити більше »

Регуляризація (математика)

Обидві функції точно описують експериментальні точки з нульовою похибкою. Навчена модель може бути схильна вибирати зелену функцію, що може бути ближчою до справжньої невідомої функції розподілу, за допомогою \lambda, ваги регуляризуючого виразу. Регуляризація, в математиці і статистиці, а також в задачах машинного навчання і, означає додавання деякої додаткової інформації, щоб знайти рішення некоректно поставленої задачі, або щоб уникнути перенавчання.

Новинка!!: Градієнтний спуск і Регуляризація (математика) · Побачити більше »

Рекурентна нейронна мережа

Рекуре́нтні нейро́нні мере́жі (РНМ, recurrent neural networks, RNN) — це клас штучних нейронних мереж, у якому з'єднання між вузлами утворюють орієнтований цикл.

Новинка!!: Градієнтний спуск і Рекурентна нейронна мережа · Побачити більше »

Штучна нейронна мережа

головному мозку. Тут кожним круговим вузлом представлено штучний нейрон, а стрілкою — з'єднання виходу одного штучного нейрону зі входом іншого. Шту́чні нейро́нні мере́жі (ШНМ, artificial neural networks, ANN), або системи (connectionist systems) — це обчислювальні системи, натхнені біологічними нейронними мережами, що складають мозок тварин.

Новинка!!: Градієнтний спуск і Штучна нейронна мережа · Побачити більше »

Метод стохастичного градієнта

Градієнтні методи — це широкий клас оптимізаційних алгоритмів, які використовують не лише в машинному навчанні.

Новинка!!: Градієнтний спуск і Метод стохастичного градієнта · Побачити більше »

Метод зворотного поширення помилки

Метод зворотного поширення помилки (backpropagation) — метод навчання багатошарового перцептрону.

Новинка!!: Градієнтний спуск і Метод зворотного поширення помилки · Побачити більше »

Метод опорних векторів

В машинному навчанні ме́тод опо́рних векторі́в (метод опорных векторов) — це метод аналізу даних для класифікації та регресійного аналізу за допомогою моделей з керованим навчанням з пов'язаними алгоритмами навчання, які називаються опо́рно-ве́кторними маши́нами (ОВМ, support vector machines, SVM, також опо́рно-ве́кторними мере́жами, support vector networks).

Новинка!!: Градієнтний спуск і Метод опорних векторів · Побачити більше »

Задача безумовної оптимізації

Задача безумовної оптимізації — задача оптимізації, допустимою множиною якої є весь евклідів простір (Rn).

Новинка!!: Градієнтний спуск і Задача безумовної оптимізації · Побачити більше »

Градієнтні методи

Градієнтні методи — чисельні методи рішення з допомогою градієнта задач, що зводяться до знаходження екстремумів функції.

Новинка!!: Градієнтний спуск і Градієнтні методи · Побачити більше »

Глибинне навчання

Глиби́нне навча́ння (також відоме як глибинне структурне навчання, ієрархічне навчання, глибинне машинне навчання, deep learning, deep structured learning, hierarchical learning, deep machine learning) — це галузь машинного навчання, що ґрунтується на наборі алгоритмів, які намагаються моделювати високорівневі абстракції в даних, застосовуючи глибинний граф із декількома обробними шарами, що побудовано з кількох лінійних або нелінійних перетворень.

Новинка!!: Градієнтний спуск і Глибинне навчання · Побачити більше »

Елюція

Елю́ція, елююва́ння (elution, eluo (elutum) — вимивати, видаляти) — вилучення речовини з твердого носія в ході хроматографічного розділення шляхом вимиванням його відповідним розчинником (елюентом).

Новинка!!: Градієнтний спуск і Елюція · Побачити більше »

Локальний пошук (оптимізація)

Лока́льний по́шук — пошук, що здійснюється алгоритмами локального пошуку, групою алгоритмів, у яких пошук ведеться тільки на підставі поточного стану, а раніше пройдені стани не враховуються й не запам'ятовуються.

Новинка!!: Градієнтний спуск і Локальний пошук (оптимізація) · Побачити більше »

Перенаправлення тут:

Найшвидший спуск, Найшвидшого спуску метод, Метод найшвидшого спуску, Градієнтний метод.

ВихідніВхідний
Гей! Ми на Facebook зараз! »