Зміст
9 відносини: LIBSVM, MNIST (база даних), Перцептрон, Штучна нейронна мережа, Мінімізація емпіричного ризику, Машинне навчання, Метод опорних векторів, ВЧ-розмірність, Глибинне навчання.
LIBSVM
LIBSVM та LIBLINEAR — дві популярно відкриті бібліотеки машинного навчання, обидві розроблені в Національному університеті Тайваню, й обидві написані мовою C++, хоча й і з ППІ C.
Переглянути Лінійний класифікатор і LIBSVM
MNIST (база даних)
База даних MNIST (скорочення від Mixed National Institute of Standards and Technology) — об'ємна база даних зразків рукописного написання цифр.
Переглянути Лінійний класифікатор і MNIST (база даних)
Перцептрон
Логічна схема перцептрону з трьома виходами Перцептро́н, або персептро́н (perceptron від perceptio — сприйняття; perzeptron) — математична або комп'ютерна модель сприйняття інформації мозком (кібернетична модель мозку), запропонована Френком Розенблатом в 1957 році й реалізована у вигляді електронної машини «Марк-1», зокрема, був системою, що імітує людське око та його взаємодію з мозком.
Переглянути Лінійний класифікатор і Перцептрон
Штучна нейронна мережа
головному мозку. Тут кожним круговим вузлом представлено штучний нейрон, а стрілкою — з'єднання виходу одного штучного нейрону зі входом іншого. Шту́чні нейро́нні мере́жі (ШНМ, artificial neural networks, ANN), або системи (connectionist systems) — це обчислювальні системи, натхнені біологічними нейронними мережами, що складають мозок тварин.
Переглянути Лінійний класифікатор і Штучна нейронна мережа
Мінімізація емпіричного ризику
Мініміза́ція емпіри́чного ри́зику (МЕР, empirical risk minimization, ERM) — це принцип у теорії статистичного навчання, який визначає сімейство алгоритмів навчання, і застосовується для отримування теоретичних меж продуктивності алгоритмів навчання.
Переглянути Лінійний класифікатор і Мінімізація емпіричного ризику
Машинне навчання
Машинне навчання (machine learning) — це підгалузь штучного інтелекту в галузі інформатики, яка часто застосовує статистичні прийоми для надання комп'ютерам здатності «навчатися» (тобто, поступово покращувати продуктивність у певній задачі) з даних, без того, щоби бути програмованими явно.
Переглянути Лінійний класифікатор і Машинне навчання
Метод опорних векторів
В машинному навчанні ме́тод опо́рних векторі́в (метод опорных векторов) — це метод аналізу даних для класифікації та регресійного аналізу за допомогою моделей з керованим навчанням з пов'язаними алгоритмами навчання, які називаються опо́рно-ве́кторними маши́нами (ОВМ, support vector machines, SVM, також опо́рно-ве́кторними мере́жами, support vector networks).
Переглянути Лінійний класифікатор і Метод опорних векторів
ВЧ-розмірність
У теорії статистичного навчання та, ВЧ-розмірність (розмірність Вапника — Червоненкіса, VC dimension, Vapnik–Chervonenkis dimension) — це міра ємності (складності, виразної потужності, багатства або гнучкості, capacity) простору функцій, яких може бути навчено певним алгоритмом статистичної класифікації.
Переглянути Лінійний класифікатор і ВЧ-розмірність
Глибинне навчання
Глиби́нне навча́ння (також відоме як глибинне структурне навчання, ієрархічне навчання, глибинне машинне навчання, deep learning, deep structured learning, hierarchical learning, deep machine learning) — це галузь машинного навчання, що ґрунтується на наборі алгоритмів, які намагаються моделювати високорівневі абстракції в даних, застосовуючи глибинний граф із декількома обробними шарами, що побудовано з кількох лінійних або нелінійних перетворень.
Переглянути Лінійний класифікатор і Глибинне навчання
Також відомий як Лінійна класифікація.