Ми працюємо над відновленням додатку Unionpedia у Google Play Store
ВихідніВхідний
🌟Ми спростили наш дизайн для кращої навігації!
Instagram Facebook X LinkedIn

Лінійний класифікатор

Індекс Лінійний класифікатор

У галузі машинного навчання метою статистичної класифікації є використання характеристик об'єкту для ідентифікації класу (або групи), до якої він належить.

Зміст

  1. 9 відносини: LIBSVM, MNIST (база даних), Перцептрон, Штучна нейронна мережа, Мінімізація емпіричного ризику, Машинне навчання, Метод опорних векторів, ВЧ-розмірність, Глибинне навчання.

LIBSVM

LIBSVM та LIBLINEAR — дві популярно відкриті бібліотеки машинного навчання, обидві розроблені в Національному університеті Тайваню, й обидві написані мовою C++, хоча й і з ППІ C.

Переглянути Лінійний класифікатор і LIBSVM

MNIST (база даних)

База даних MNIST (скорочення від Mixed National Institute of Standards and Technology) — об'ємна база даних зразків рукописного написання цифр.

Переглянути Лінійний класифікатор і MNIST (база даних)

Перцептрон

Логічна схема перцептрону з трьома виходами Перцептро́н, або персептро́н (perceptron від perceptio — сприйняття; perzeptron) — математична або комп'ютерна модель сприйняття інформації мозком (кібернетична модель мозку), запропонована Френком Розенблатом в 1957 році й реалізована у вигляді електронної машини «Марк-1», зокрема, був системою, що імітує людське око та його взаємодію з мозком.

Переглянути Лінійний класифікатор і Перцептрон

Штучна нейронна мережа

головному мозку. Тут кожним круговим вузлом представлено штучний нейрон, а стрілкою — з'єднання виходу одного штучного нейрону зі входом іншого. Шту́чні нейро́нні мере́жі (ШНМ, artificial neural networks, ANN), або системи (connectionist systems) — це обчислювальні системи, натхнені біологічними нейронними мережами, що складають мозок тварин.

Переглянути Лінійний класифікатор і Штучна нейронна мережа

Мінімізація емпіричного ризику

Мініміза́ція емпіри́чного ри́зику (МЕР, empirical risk minimization, ERM) — це принцип у теорії статистичного навчання, який визначає сімейство алгоритмів навчання, і застосовується для отримування теоретичних меж продуктивності алгоритмів навчання.

Переглянути Лінійний класифікатор і Мінімізація емпіричного ризику

Машинне навчання

Машинне навчання (machine learning) — це підгалузь штучного інтелекту в галузі інформатики, яка часто застосовує статистичні прийоми для надання комп'ютерам здатності «навчатися» (тобто, поступово покращувати продуктивність у певній задачі) з даних, без того, щоби бути програмованими явно.

Переглянути Лінійний класифікатор і Машинне навчання

Метод опорних векторів

В машинному навчанні ме́тод опо́рних векторі́в (метод опорных векторов) — це метод аналізу даних для класифікації та регресійного аналізу за допомогою моделей з керованим навчанням з пов'язаними алгоритмами навчання, які називаються опо́рно-ве́кторними маши́нами (ОВМ, support vector machines, SVM, також опо́рно-ве́кторними мере́жами, support vector networks).

Переглянути Лінійний класифікатор і Метод опорних векторів

ВЧ-розмірність

У теорії статистичного навчання та, ВЧ-розмірність (розмірність Вапника — Червоненкіса, VC dimension, Vapnik–Chervonenkis dimension) — це міра ємності (складності, виразної потужності, багатства або гнучкості, capacity) простору функцій, яких може бути навчено певним алгоритмом статистичної класифікації.

Переглянути Лінійний класифікатор і ВЧ-розмірність

Глибинне навчання

Глиби́нне навча́ння (також відоме як глибинне структурне навчання, ієрархічне навчання, глибинне машинне навчання, deep learning, deep structured learning, hierarchical learning, deep machine learning) — це галузь машинного навчання, що ґрунтується на наборі алгоритмів, які намагаються моделювати високорівневі абстракції в даних, застосовуючи глибинний граф із декількома обробними шарами, що побудовано з кількох лінійних або нелінійних перетворень.

Переглянути Лінійний класифікатор і Глибинне навчання

Також відомий як Лінійна класифікація.