Подібності між Глибинне навчання і Штучна нейронна мережа
Глибинне навчання і Штучна нейронна мережа мають 23 щось спільне (в Юніонпедія): Baidu, MNIST (база даних), Ґо (гра), YouTube, Коваріація, Когнітивна наука, Комп'ютерний зір, Композиція функцій, Прихована марковська модель, Проблема зникання градієнту, Питально-відповідна система, Плід (анатомія), Породжувальна модель, Поля Бродмана 17, 18, 19. Зорова кора., Перехресна ентропія, Передавальна функція штучного нейрона, Обробка природної мови, Обмежена машина Больцмана, Ознака (машинне навчання), Оптимізація (математика), Оперативна пам'ять, Асоціативна пам'ять, Арифметико-логічний пристрій, Автокодувальник, Автоматичне диференціювання, Агентство передових оборонних дослідницьких проектів США, Апріорна ймовірність, Апроксимація, Навчання без учителя, Навчання з учителем, ..., Навчання з підкріпленням, Навчання на прикладах, Нобелівська премія, Нервове кодування, Нейронаука, Нейронна мережа прямого поширення, Розрізнювальна модель, Розпізнавання рукописного введення, Розпізнавання мовлення, Розподіл ймовірностей, Регуляризація (математика), Регістр процесора, Регресійний аналіз, Рекурентна нейронна мережа, Сітківка, Ступені свободи (значення), Статистика, Стаціонарність, Самоорганізаційна Карта Кохонена, Сигмоїда, Торстен Візел, Теорія розпізнавання образів, Теорія керування, Теорема Цибенко, Функція втрат, Функція внеску, Функція ймовірностей, ЦП (значення), Штучний інтелект, Штучний нейрон, Ян ЛеКун, Машина Тюрінга, Машина екстремального навчання, Машинний переклад, Машинне навчання, Метод k-найближчих сусідів, Метод стохастичного градієнта, Метод групового урахування аргументів, Метод головних компонент, Метод зворотного поширення помилки, Метод опорних векторів, Жадібний алгоритм, Задача класифікації, Згортка (математичний аналіз), Згорткова нейронна мережа, Білінійне відображення, Біологічна нейронна мережа, Баєсова мережа, Багатошаровий перцептрон, Вухо, Відмовостійкість (інформатика), Відособлений розподіл, Взаємна інформація, Графічна модель, Графічний процесор, Градієнтний спуск, Глибинна мережа переконань, Глибинне навчання, Головний мозок, Геббова теорія, Дійсне число, Двочастковий граф, Диференціювання складної функції, Диференційовна функція, Динамічне програмування, Довга короткочасна пам'ять, Девід Гантер Г'юбел, Івахненко Олексій Григорович, Лінійний класифікатор, Латентна змінна, Ланцюги Маркова. Розгорнути індекс (71 більше) »
Baidu
Baidu (百度 (Bǎidù), Байду) — лідер серед китайських пошукових систем.
Baidu і Глибинне навчання · Baidu і Штучна нейронна мережа ·
MNIST (база даних)
База даних MNIST (скорочення від Mixed National Institute of Standards and Technology) — об'ємна база даних зразків рукописного написання цифр.
MNIST (база даних) і Глибинне навчання · MNIST (база даних) і Штучна нейронна мережа ·
Ґо (гра)
Дошка ґо та камені Ґо (кит. 圍棋,围棋, вейцзі; кор. 바둑падук; яп. 囲碁, іґо) — стародавня китайська стратегічна настільна гра для двох гравців, поширена в країнах Східної Азії та, меншою мірою, в усьому світі.
Глибинне навчання і Ґо (гра) · Штучна нейронна мережа і Ґо (гра) ·
YouTube
YouTube (від you «ти, ви» + tube «труба».
YouTube і Глибинне навчання · YouTube і Штучна нейронна мережа ·
Коваріація
У теорії ймовірності та статистиці, коваріа́ція (covariance) — це міра спільної мінливості двох випадкових змінних.
Глибинне навчання і Коваріація · Коваріація і Штучна нейронна мережа ·
Когнітивна наука
Дисципліни, що лежать в основі когнітивної науки, та їхні відношення: лінгвістика, неврологія, штучний інтелект, філософія, антропологія і психологія. Когнітивістика (когнітивна наука) (cognitio. — пізнання) — міждисциплінарний науковий напрям, що об'єднує теорію пізнання, когнітивну психологію, нейрофізіологію, когнітивну лінгвістику і теорію штучного інтелекту.
Глибинне навчання і Когнітивна наука · Когнітивна наука і Штучна нейронна мережа ·
Комп'ютерний зір
марсоходу. Зверніть увагу на стерео камери, встановлені на верхівці. Комп'ю́терний зір або Комп'ютерне бачення — теорія та технологія створення машин, які можуть проводити виявлення, стеження та класифікацію об'єктів.
Глибинне навчання і Комп'ютерний зір · Комп'ютерний зір і Штучна нейронна мережа ·
Композиція функцій
Композиція функцій g o f Компози́ція (суперпозиція) фу́нкцій (відображень) в математиці — функція, побудована з двох функцій таким чином, що результат першої функції є аргументом другої.
Глибинне навчання і Композиція функцій · Композиція функцій і Штучна нейронна мережа ·
Прихована марковська модель
Прихо́вана ма́рковська моде́ль, ПММ (hidden Markov model, HMM) — це статистична марковська модель, у якій система, що моделюється, розглядається як марковський процес із неспостережуваними (прихованими) станами.
Глибинне навчання і Прихована марковська модель · Прихована марковська модель і Штучна нейронна мережа ·
Проблема зникання градієнту
В машинному навчанні пробле́ма зника́ння градіє́нту (vanishing gradient problem) — це ускладнення, яке виникає в тренуванні штучних нейронних мереж методами навчання на основі градієнту та зворотного поширення.
Глибинне навчання і Проблема зникання градієнту · Проблема зникання градієнту і Штучна нейронна мережа ·
Питально-відповідна система
Пита́льно-відповідна́ систе́ма, довідкова система (Question-answering system) — це особливий тип інформаційних систем, які є гібридом пошукових та інтелектуальних систем (часто вони розглядаються як інтелектуальні пошукові системи).
Глибинне навчання і Питально-відповідна система · Питально-відповідна система і Штучна нейронна мережа ·
Плід (анатомія)
Плід в утробі матері Плід, також фе́тус (fetus) — людський організм, який розвивається в материнській утробі з 8-го тижня розвитку і до моменту народження.
Глибинне навчання і Плід (анатомія) · Плід (анатомія) і Штучна нейронна мережа ·
Породжувальна модель
В теорії ймовірностей та статистиці поро́джувальна моде́ль (generative model) — це модель для породження випадковим чином значень спостережуваних даних, зазвичай для певних заданих прихованих параметрів.
Глибинне навчання і Породжувальна модель · Породжувальна модель і Штучна нейронна мережа ·
Поля Бродмана 17, 18, 19. Зорова кора.
Зорова кора — частина кори головного мозку, яка відіграє важливу роль в обробці візуальної інформації.
Глибинне навчання і Поля Бродмана 17, 18, 19. Зорова кора. · Поля Бродмана 17, 18, 19. Зорова кора. і Штучна нейронна мережа ·
Перехресна ентропія
У теорії інформації перехресна ентропія між двох розподілами ймовірності вимірює середню кількість біт, необхідних для впізнання події з набору можливостей, якщо схема кодування, що використовується, базується на заданому розподілі ймовірностей q, замість «істинного» розподілу p. Перехресна ентропія двох розподілів p і q на тому самому ймовірнісному просторі визначається наступним чином: де H(p) — ентропія p, і D_(p || q) — дивергенція Кульбака-Лейблера від q до p (також відома як відносна ентропія).
Глибинне навчання і Перехресна ентропія · Перехресна ентропія і Штучна нейронна мережа ·
Передавальна функція штучного нейрона
Функція активації, або передавальна функція (activation function, також excitation function, squashing function, transfer function) штучного нейрона — залежність вихідного сигналу штучного нейрона від вхідного.
Глибинне навчання і Передавальна функція штучного нейрона · Передавальна функція штучного нейрона і Штучна нейронна мережа ·
Обробка природної мови
Обро́бка приро́дної мо́ви (Natural-language processing, NLP) — загальний напрям інформатики, штучного інтелекту та математичної лінгвістики.
Глибинне навчання і Обробка природної мови · Обробка природної мови і Штучна нейронна мережа ·
Обмежена машина Больцмана
Схема обмеженої машини Больцмана з трьома видимими вузлами та чотирма прихованими вузлами (без упереджених вузлів). Обме́жена маши́на Бо́льцмана (ОМБ, restricted Boltzmann machine, RBM) — це породжувальна штучна нейронна мережа, здатна навчатися розподілу ймовірностей над набором її входів.
Глибинне навчання і Обмежена машина Больцмана · Обмежена машина Больцмана і Штучна нейронна мережа ·
Ознака (машинне навчання)
В машинному навчанні та розпізнаванні образів озна́ка (feature) — це окрема властивість спостережуваного явища, яку можливо виміряти.
Глибинне навчання і Ознака (машинне навчання) · Ознака (машинне навчання) і Штучна нейронна мережа ·
Оптимізація (математика)
максимум в точці (''x, y, z'').
Глибинне навчання і Оптимізація (математика) · Оптимізація (математика) і Штучна нейронна мережа ·
Оперативна пам'ять
Модулі оперативної пам'яті ПК з радіаторами (DDR2) Оперативна пам'ять — швидкодіюча пам'ять, призначена для запису, зберігання та читання інформації у процесі її обробки.
Глибинне навчання і Оперативна пам'ять · Оперативна пам'ять і Штучна нейронна мережа ·
Асоціативна пам'ять
Асоціативна пам'ять (АП) (Content-Addressable Memory) є особливим видом машинної пам'яті, що використовується для дуже швидкого пошуку.
Асоціативна пам'ять і Глибинне навчання · Асоціативна пам'ять і Штучна нейронна мережа ·
Арифметико-логічний пристрій
Арифметико-логічний пристрій (АЛП) (Arithmetic Logic Unit, ALU) — блок процесора, що служить для виконання арифметичних та логічних перетворень над даними, що іменуються операндами.
Арифметико-логічний пристрій і Глибинне навчання · Арифметико-логічний пристрій і Штучна нейронна мережа ·
Автокодувальник
thumb Автокодува́льник, автоасоціа́тор або мере́жа (autoencoder, autoassociator, Diabolo network) — це штучна нейронна мережа, що використовується для навчання ефективних кодувань.
Автокодувальник і Глибинне навчання · Автокодувальник і Штучна нейронна мережа ·
Автоматичне диференціювання
Автоматичне диференціювання (automatic differentiation, AD) в математиці та символьних обчисленнях — спосіб обчислити похідну для функції, яка задана алгоритмом.
Автоматичне диференціювання і Глибинне навчання · Автоматичне диференціювання і Штучна нейронна мережа ·
Агентство передових оборонних дослідницьких проектів США
Логотип Агентства передових оборонних дослідницьких проектів США Аге́нтство передови́х оборо́нних дослідни́цьких прое́ктів (DARPA) (Defense Advanced Research Projects Agency) — агентство Міністерства оборони США, що відповідає за розробку нових технологій для використання в збройних силах США.
Агентство передових оборонних дослідницьких проектів США і Глибинне навчання · Агентство передових оборонних дослідницьких проектів США і Штучна нейронна мережа ·
Апріорна ймовірність
У баєсовому статистичному висновуванні апріо́рний розпо́діл ймові́рності (prior probability distribution), що часто називають просто апріо́рне (prior), деякої невизначеної кількості — це розподіл ймовірності p, що виражатиме чиєсь переконання про цю кількість перед врахуванням якогось свідчення.
Апріорна ймовірність і Глибинне навчання · Апріорна ймовірність і Штучна нейронна мережа ·
Апроксимація
Апроксима́ція (approximate — наближати) — наближене вираження одних математичних об'єктів іншими, близькими за значенням, але простішими, наприклад, кривих ліній — ламаними, ірраціональних чисел — раціональними, неперервних функцій — многочленами.
Апроксимація і Глибинне навчання · Апроксимація і Штучна нейронна мережа ·
Навчання без учителя
Навчання без вчителя (Unsupervised learning, самоосвіта, спонтанне навчання) — один зі способів машинного навчання, при вирішенні яких випробовувана система спонтанно навчається виконувати поставлене завдання, без втручання з боку експериментатора.
Глибинне навчання і Навчання без учителя · Навчання без учителя і Штучна нейронна мережа ·
Навчання з учителем
Навчання з учителем (Supervised learning) — один із способів машинного навчання, в ході якого випробувана система примусово навчається за допомогою наявної множини прикладів «стимул-реакція» з метою визначення «реакції» для «стимулів», які не належать наявній множини прикладів.
Глибинне навчання і Навчання з учителем · Навчання з учителем і Штучна нейронна мережа ·
Навчання з підкріпленням
Навчання з підкріпленням (reinforcement learning) — це галузь машинного навчання, натхнена біхевіористською психологією, що займається питанням про те, які (actions) повинні виконувати програмні агенти в певному середовищі (environment) задля максимізації деякого уявлення про сукупну винагороду (reward).
Глибинне навчання і Навчання з підкріпленням · Навчання з підкріпленням і Штучна нейронна мережа ·
Навчання на прикладах
В машинному навчанні, навчання на прикладах (інколи також навчання на пам'яті) це група навчальних алгоритмів що порівнюють нові приклади з тими, що зустрічалися при навчанні і які зберігаються в пам'яті.
Глибинне навчання і Навчання на прикладах · Навчання на прикладах і Штучна нейронна мережа ·
Нобелівська премія
Но́белівська пре́мія (Nobel Prize, Nobelpriset) — одна з найпрестижніших міжнародних премій, яку щорічно присуджують за видатні наукові дослідження, революційні винаходи або значний внесок у культуру чи розвиток суспільства.
Глибинне навчання і Нобелівська премія · Нобелівська премія і Штучна нейронна мережа ·
Нервове кодування
Нервове кодування — це переробка вхідної сенсорної інформації нейронами і нейронними мережами в нервовій системі.
Глибинне навчання і Нервове кодування · Нервове кодування і Штучна нейронна мережа ·
Нейронаука
мозочка голуба, Сантьяго Рамон і Кахал (1899) Нейронау́ка (Neuroscience, Neurowissenschaften) — комплекс наукових дисциплін, які займаються вивченням нервової системи на різних рівнях, від молекулярного до рівня цілого організму.
Глибинне навчання і Нейронаука · Нейронаука і Штучна нейронна мережа ·
Нейронна мережа прямого поширення
Нейронна мережа прямого поширення, нейромережа прямого розповсюдження (Feedforward neural network) — вид нейронної мережі, в якій сигнали поширюються в одному напрямку, починаючи від вхідного шару нейронів, через приховані шари до вихідного шару і на вихідних нейронах отримується результат опрацювання сигналу.
Глибинне навчання і Нейронна мережа прямого поширення · Нейронна мережа прямого поширення і Штучна нейронна мережа ·
Розрізнювальна модель
Розрі́знювальні моде́лі (discriminative models), що також називають умо́вними моде́лями (conditional models), є класом моделей, які застосовуються в машинному навчанні для моделювання залежності неспостережуваної змінної y від спостережуваної змінної x. В рамках імовірнісної схеми це здійснюється моделюванням умовного розподілу ймовірності P(y|x), який може застосовуватися для передбачення y з x. Розрізнювальні моделі, на противагу до породжувальних, не дозволяють породжувати приклади зі спільного розподілу x та y. Проте для таких задач як класифікація та регресія, що не потребують спільного розподілу, розрізнювальні моделі можуть демонструвати чудову продуктивність.
Глибинне навчання і Розрізнювальна модель · Розрізнювальна модель і Штучна нейронна мережа ·
Розпізнавання рукописного введення
Розпізнава́ння рукопи́сного вве́дення — здатність комп'ютера отримувати та інтерпретувати інтелектуальний рукописний ввід з джерел, таких як паперові документи, фотографії, сенсорні екрани та інші пристрої.
Глибинне навчання і Розпізнавання рукописного введення · Розпізнавання рукописного введення і Штучна нейронна мережа ·
Розпізнавання мовлення
Розпізнава́ння мо́влення (speech recognition) або мо́влення-у-те́кст (speech to text (STT))— процес перетворення мовленнєвого сигналу в текстовий потік.
Глибинне навчання і Розпізнавання мовлення · Розпізнавання мовлення і Штучна нейронна мережа ·
Розподіл ймовірностей
гральних кісток В математиці та статистиці розпо́діл ймові́рностей (який має математично описуватися функцією розподілу ймовірностей), ставить у відповідність кожному інтервалу ймовірність таким чином, що аксіоми ймовірностей виконуються.
Глибинне навчання і Розподіл ймовірностей · Розподіл ймовірностей і Штучна нейронна мережа ·
Регуляризація (математика)
Обидві функції точно описують експериментальні точки з нульовою похибкою. Навчена модель може бути схильна вибирати зелену функцію, що може бути ближчою до справжньої невідомої функції розподілу, за допомогою \lambda, ваги регуляризуючого виразу. Регуляризація, в математиці і статистиці, а також в задачах машинного навчання і, означає додавання деякої додаткової інформації, щоб знайти рішення некоректно поставленої задачі, або щоб уникнути перенавчання.
Глибинне навчання і Регуляризація (математика) · Регуляризація (математика) і Штучна нейронна мережа ·
Регістр процесора
Регі́стр проце́сора — комірка швидкодійної внутрішньої пам'яті процесора, яка використовується для тимчасового збереження операндів, з якими безпосередньо проводяться обчислення, а також часто використовуваних даних з метою швидкого доступу до них.
Глибинне навчання і Регістр процесора · Регістр процесора і Штучна нейронна мережа ·
Регресійний аналіз
Регресі́йний ана́ліз — розділ математичної статистики, присвячений методам аналізу залежності однієї величини від іншої.
Глибинне навчання і Регресійний аналіз · Регресійний аналіз і Штучна нейронна мережа ·
Рекурентна нейронна мережа
Рекуре́нтні нейро́нні мере́жі (РНМ, recurrent neural networks, RNN) — це клас штучних нейронних мереж, у якому з'єднання між вузлами утворюють орієнтований цикл.
Глибинне навчання і Рекурентна нейронна мережа · Рекурентна нейронна мережа і Штучна нейронна мережа ·
Сітківка
Сіткі́вка (retina) — це внутрішня світлочутлива оболонка ока хребетних і деяких молюсків, в якій розміщені фоторецептори.
Глибинне навчання і Сітківка · Сітківка і Штучна нейронна мережа ·
Ступені свободи (значення)
Ступені свободи.
Глибинне навчання і Ступені свободи (значення) · Ступені свободи (значення) і Штучна нейронна мережа ·
Статистика
Стати́стика — наука, що вивчає методи кількісного охоплення і дослідження масових, зокрема суспільних, явищ і процесів.
Глибинне навчання і Статистика · Статистика і Штучна нейронна мережа ·
Стаціонарність
Стаціонарність — властивість процесу не змінювати свої характеристики з часом.
Глибинне навчання і Стаціонарність · Стаціонарність і Штучна нейронна мережа ·
Самоорганізаційна Карта Кохонена
Самоорганізаційна карта Кохонена (Self-organizing map — SOM) — нейронна мережа з нескерованим навчанням, що виконує завдання кластеризації.
Глибинне навчання і Самоорганізаційна Карта Кохонена · Самоорганізаційна Карта Кохонена і Штучна нейронна мережа ·
Сигмоїда
'''Сигмоїда''' Сигмоїда - це неперервно диференційована монотонна нелінійна S-подібна функція, яка часто застосовується для "згладжування" значень деякої величини.
Глибинне навчання і Сигмоїда · Сигмоїда і Штучна нейронна мережа ·
Торстен Візел
Торстен Нільс Візел (Torsten Nils Wiesel; *3 червня 1924, Упсала, Швеція) — шведський нейробіолог та нейрофізіолог, лауреат Нобелівської премії з фізіології і медицині 1981 року разом з Девідом Х'юбелом «за відкриття, що стосуються принципів переробки інформації в нейронних структурах».
Глибинне навчання і Торстен Візел · Торстен Візел і Штучна нейронна мережа ·
Теорія розпізнавання образів
Автоматичне виявлення облич спеціальною програмою. Тео́рія розпізнава́ння о́бразів — розділ кібернетики, що розвиває теоретичні основи й методи класифікації і ідентифікації предметів, явищ, процесів, сигналів, ситуацій і т. п.
Глибинне навчання і Теорія розпізнавання образів · Теорія розпізнавання образів і Штучна нейронна мережа ·
Теорія керування
Теорія керування (управління) (Control theory) — наука про принципи і методи керування різними системами, процесами і об'єктами.
Глибинне навчання і Теорія керування · Теорія керування і Штучна нейронна мережа ·
Теорема Цибенко
Теорема Цибенко, Універсальна теорема апроксимації — теорема, доведена Джорджем Цибенко (George Cybenko) в 1989 році, яка стверджує, що штучна нейронна мережа прямого зв'язку (feed-forward; у яких зв'язки не утворюють циклів) з одним прихованим шаром може апроксимувати будь-яку неперервну функцію багатьох змінних з будь-якою точністю.
Глибинне навчання і Теорема Цибенко · Теорема Цибенко і Штучна нейронна мережа ·
Функція втрат
В математичній оптимізації, статистиці, теорії рішень та машинному навчанні фу́нкція втрат (loss function) або фу́нкція витра́т (cost function) — це функція, яка відображує подію, або значення однієї чи декількох величин, на дійсне число, яке інтуїтивно представляє якісь «витрати», пов'язані з цією подією.
Глибинне навчання і Функція втрат · Функція втрат і Штучна нейронна мережа ·
Функція внеску
У статистиці вне́сок, фу́нкція вне́ску, або ефекти́вний вне́сок (p informant) показує, наскільки чутливо функція правдоподібності L(\theta; X) залежить від свого \theta.
Глибинне навчання і Функція внеску · Функція внеску і Штучна нейронна мережа ·
Функція ймовірностей
Функція ймовірностей у теорії ймовірностей — найпоширеніший спосіб охарактеризувати дискретний розподіл.
Глибинне навчання і Функція ймовірностей · Функція ймовірностей і Штучна нейронна мережа ·
ЦП (значення)
* Цінні папери — документи, які засвідчують зобов'язальні відносини між особою, яка їх видала, та особою, яка є їхнім власником.
Глибинне навчання і ЦП (значення) · ЦП (значення) і Штучна нейронна мережа ·
Штучний інтелект
Шту́чний інтеле́кт (Artificial intelligence, AI) — розділ комп'ютерної лінгвістики та інформатики, що опікується формалізацією проблем та завдань, які нагадують справи, виконувані людиною.
Глибинне навчання і Штучний інтелект · Штучна нейронна мережа і Штучний інтелект ·
Штучний нейрон
Схема штучного нейрону 1. Нейрони, вихідні сигнали яких надходять на вхід даного нейрону 2. Суматор вхідних сигналів 3. Обчислювач передавальної функції 4. Нейрони, на входи яких подається сигнал даного нейрону 5. w_i — ''ваги'' вхідних сигналів Штучний нейрон (Математичний нейрон Маккалоха -, Формальний нейронЛ. Г. Комарцова, А. В. Максимов "Нейрокомпьютеры", МГТУ им. Н. Э. Баумана, 2004 г., ISBN 5-7038-2554-7) - вузол штучної нейронної мережі, що є спрощеною моделлю природного нейрона.
Глибинне навчання і Штучний нейрон · Штучна нейронна мережа і Штучний нейрон ·
Ян ЛеКун
Ян ЛеКун (Yann LeCun, 6 червня 1960, Париж, Франція) — науковець в галузі комп'ютерних наук, відомий своїм внеском в машинне навчання, комп'ютерний зір, робототехніку та комп'ютерну нейронауку.
Глибинне навчання і Ян ЛеКун · Штучна нейронна мережа і Ян ЛеКун ·
Машина Тюрінга
Схематична ілюстрація роботи машини Тюрінга. Маши́на Тю́рінга — математичне поняття, введене для формального уточнення інтуїтивного поняття алгоритму.
Глибинне навчання і Машина Тюрінга · Машина Тюрінга і Штучна нейронна мережа ·
Машина екстремального навчання
Маши́ни екстрема́льного навча́ння (МЕН, extreme learning machines, ELM) — це нейронні мережі прямого поширення для класифікування або регресії з єдиним шаром прихованих вузлів, у яких ваги, що з'єднують входи з прихованими вузлами, є випадково призначеними й ніколи не уточнюваними.
Глибинне навчання і Машина екстремального навчання · Машина екстремального навчання і Штучна нейронна мережа ·
Машинний переклад
Машинний переклад (МП) — технології автоматизованого перекладу текстів (письмових та усних) з однієї природної мови на іншу за допомогою комп'ютера; напрямок наукових досліджень, пов'язаний з побудовою систем автоматизованого перекладу.
Глибинне навчання і Машинний переклад · Машинний переклад і Штучна нейронна мережа ·
Машинне навчання
Машинне навчання (machine learning) — це підгалузь штучного інтелекту в галузі інформатики, яка часто застосовує статистичні прийоми для надання комп'ютерам здатності «навчатися» (тобто, поступово покращувати продуктивність у певній задачі) з даних, без того, щоби бути програмованими явно.
Глибинне навчання і Машинне навчання · Машинне навчання і Штучна нейронна мережа ·
Метод k-найближчих сусідів
Ме́тод k-найбли́жчих сусі́дів (методы k-ближайших соседей, k-nearest neighbor method) — простий непараметричний класифікаційний метод, де для класифікації об'єктів у рамках простору властивостей використовуються відстані (зазвичай евклідові), пораховані до усіх інших об'єктів.
Глибинне навчання і Метод k-найближчих сусідів · Метод k-найближчих сусідів і Штучна нейронна мережа ·
Метод стохастичного градієнта
Градієнтні методи — це широкий клас оптимізаційних алгоритмів, які використовують не лише в машинному навчанні.
Глибинне навчання і Метод стохастичного градієнта · Метод стохастичного градієнта і Штучна нейронна мережа ·
Метод групового урахування аргументів
Метод групового врахування аргументів (МГУА) — сімейство індуктивних алгоритмів для математичного моделювання багатопараметричних даних.
Глибинне навчання і Метод групового урахування аргументів · Метод групового урахування аргументів і Штучна нейронна мережа ·
Метод головних компонент
Ме́тод головни́х компоне́нт (МГК) — метод факторного аналізу в статистиці.
Глибинне навчання і Метод головних компонент · Метод головних компонент і Штучна нейронна мережа ·
Метод зворотного поширення помилки
Метод зворотного поширення помилки (backpropagation) — метод навчання багатошарового перцептрону.
Глибинне навчання і Метод зворотного поширення помилки · Метод зворотного поширення помилки і Штучна нейронна мережа ·
Метод опорних векторів
В машинному навчанні ме́тод опо́рних векторі́в (метод опорных векторов) — це метод аналізу даних для класифікації та регресійного аналізу за допомогою моделей з керованим навчанням з пов'язаними алгоритмами навчання, які називаються опо́рно-ве́кторними маши́нами (ОВМ, support vector machines, SVM, також опо́рно-ве́кторними мере́жами, support vector networks).
Глибинне навчання і Метод опорних векторів · Метод опорних векторів і Штучна нейронна мережа ·
Жадібний алгоритм
Жа́дібний алгори́тм — простий і прямолінійний евристичний алгоритм, який приймає найкраще рішення, виходячи з наявних на поточному етапі даних, не турбуючись про можливі наслідки, сподіваючись врешті-решт отримати оптимальне рішення.
Глибинне навчання і Жадібний алгоритм · Жадібний алгоритм і Штучна нейронна мережа ·
Задача класифікації
Задача класифіка́ції — формалізована задача, яка містить множину об'єктів (ситуацій), поділених певним чином на класи.
Глибинне навчання і Задача класифікації · Задача класифікації і Штучна нейронна мережа ·
Згортка (математичний аналіз)
Згортка двох квадратних імпульсів: результатом є імпульс трикутної форми. Одна з функцій (в даному випадку ''g'') спочатку відображається черезз \tau.
Глибинне навчання і Згортка (математичний аналіз) · Згортка (математичний аналіз) і Штучна нейронна мережа ·
Згорткова нейронна мережа
Зго́рткові нейро́нні мере́жі (ЗНМ, convolutional neural network, CNN, ConvNet) в машинному навчанні — це клас глибинних штучних нейронних мереж прямого поширення, який успішно застосовувався до аналізу візуальних зображень.
Глибинне навчання і Згорткова нейронна мережа · Згорткова нейронна мережа і Штучна нейронна мережа ·
Білінійне відображення
Білінійне відображення — це відображення декартового добутку V × W в X що володіє властивістю лінійності за кожним зі своїх аргументів.
Білінійне відображення і Глибинне навчання · Білінійне відображення і Штучна нейронна мережа ·
Біологічна нейронна мережа
Нейронна мережа (біологічна нейронна мережа) — сукупність нейронів головного і спинного мозку центральної нервової системи (ЦНС) і ганглій периферичної нервової системи (ПНС), які пов'язані або функціонально об'єднані в нервовій системі, виконують специфічні фізіологічні функції.
Біологічна нейронна мережа і Глибинне навчання · Біологічна нейронна мережа і Штучна нейронна мережа ·
Баєсова мережа
Ба́єсова мере́жа, мере́жа Ба́єса, мере́жа перекона́нь, ба́єсова моде́ль або ймові́рнісна орієнто́вана ациклі́чна гра́фова моде́ль (Bayesian network, Bayes network, belief network, Bayes(ian) model, probabilistic directed acyclic graphical model) — це ймовірнісна графічна модель (різновид статистичної моделі), яка представляє набір випадкових змінних та їхніх за допомогою орієнтованого ациклічного графу (ОАГ, directed acyclic graph, DAG).
Баєсова мережа і Глибинне навчання · Баєсова мережа і Штучна нейронна мережа ·
Багатошаровий перцептрон
* Багатошаровий перцептрон Розенблатта — перцептрон з додатковими шарами А — елементів, розташованими між S і R елементами.
Багатошаровий перцептрон і Глибинне навчання · Багатошаровий перцептрон і Штучна нейронна мережа ·
Вухо
Схема загальної будови людського вуха. Ву́хо — це орган у хребетних тварин (вкл. й людину), що працює для сприйняття звуку та підтримання рівноваги у просторі.
Вухо і Глибинне навчання · Вухо і Штучна нейронна мережа ·
Відмовостійкість (інформатика)
В інформатиці, термін надійність програмного значення означає здатність комп'ютерної системи впоратися з помилками під час виконання, або здатність алгоритму продовжувати роботу, незважаючи на відхилення у ході розрахунків.
Відмовостійкість (інформатика) і Глибинне навчання · Відмовостійкість (інформатика) і Штучна нейронна мережа ·
Відособлений розподіл
У теорії ймовірностей та статистиці відосо́блений розпо́діл (marginal distribution) підмножини набору випадкових змінних — це розподіл імовірності змінних, що містяться у цій підмножині.
Відособлений розподіл і Глибинне навчання · Відособлений розподіл і Штучна нейронна мережа ·
Взаємна інформація
X). Фіолетове є взаємною інформацією I(X;Y). У теорії ймовірностей та теорії інформації взає́мна інформа́ція (mutual information, MI) двох випадкових величин — це міра взаємної залежності між цими двома величинами.
Взаємна інформація і Глибинне навчання · Взаємна інформація і Штучна нейронна мережа ·
Графічна модель
Графі́чна моде́ль, або імові́рнісна графі́чна моде́ль (ІГМ, probabilistic graphical model, PGM) — це ймовірнісна модель, для якої між випадковими змінними виражено графом.
Глибинне навчання і Графічна модель · Графічна модель і Штучна нейронна мережа ·
Графічний процесор
Графічний процесор гральної приставки SNES Графічний процесор (Graphics Proccesing Unit, GPU) — окремий пристрій персонального комп'ютера або ігрової приставки, виконує графічний рендеринг.
Глибинне навчання і Графічний процесор · Графічний процесор і Штучна нейронна мережа ·
Градієнтний спуск
Градіє́нтний спуск (gradient descent) — це ітераційний алгоритм оптимізації першого порядку, в якому для знаходження локального мінімуму функції здійснюються кроки, пропорційні протилежному значенню градієнту (або наближеного градієнту) функції в поточній точці.
Глибинне навчання і Градієнтний спуск · Градієнтний спуск і Штучна нейронна мережа ·
Глибинна мережа переконань
графічній моделі, яку представляє мережа. В машинному навчанні глиби́нна мере́жа перекона́нь (ГМП, deep belief network, DBN) — це породжувальна графічна модель, або, інакше, один із типів глибинних нейронних мереж, що складено з кількох шарів латентних змінних («прихованих вузлів»), зі з'єднаннями між шарами, але не між вузлами всередині кожного шару.
Глибинна мережа переконань і Глибинне навчання · Глибинна мережа переконань і Штучна нейронна мережа ·
Глибинне навчання
Глиби́нне навча́ння (також відоме як глибинне структурне навчання, ієрархічне навчання, глибинне машинне навчання, deep learning, deep structured learning, hierarchical learning, deep machine learning) — це галузь машинного навчання, що ґрунтується на наборі алгоритмів, які намагаються моделювати високорівневі абстракції в даних, застосовуючи глибинний граф із декількома обробними шарами, що побудовано з кількох лінійних або нелінійних перетворень.
Глибинне навчання і Глибинне навчання · Глибинне навчання і Штучна нейронна мережа ·
Головний мозок
Головний мозок шимпанзе Головни́й мо́зок (cerebrum; також encephalon від ἐγκέφαλος — в середині голови) — головний відділ центральної нервової системи (невраксісу) всіх хребетних тварин, у яких він міститься в «коробці» — черепі.
Глибинне навчання і Головний мозок · Головний мозок і Штучна нейронна мережа ·
Геббова теорія
Ге́ббова тео́рія (Hebbian theory) — це теорія в нейронауці, яка пропонує пояснення пристосування нейронів мозку під час процесу навчання, описуючи основний механізм синаптичної пластичності, в якому підвищення синаптичної дієвості виникає в результаті повторюваного й постійного стимулювання пресинаптичною клітиною постсинаптичної.
Геббова теорія і Глибинне навчання · Геббова теорія і Штучна нейронна мережа ·
Дійсне число
Числова пряма Дійсні числа — елементи числової системи, яка містить у собі раціональні числа і, в свою чергу, є підмножиною комплексних чисел.
Глибинне навчання і Дійсне число · Дійсне число і Штучна нейронна мережа ·
Двочастковий граф
Приклад дводольного графа Дводольним графом (також біграфом, двочастковим графом) у математиці називається граф, множина вершин якого може бути розбита на дві підмножини так, що кожне ребро графа має одну вершину з першої підмножини і одну з другої.
Глибинне навчання і Двочастковий граф · Двочастковий граф і Штучна нейронна мережа ·
Диференціювання складної функції
Ланцюгове правило (правило диференціювання складної функції) дозволяє обчислити похідну композиції двох і більше функцій на основі індивідуальних похідних.
Глибинне навчання і Диференціювання складної функції · Диференціювання складної функції і Штучна нейронна мережа ·
Диференційовна функція
Функція однієї чи кількох дійсних змінних називається диференційовною в точці, якщо в деякому околі цієї точки вона в певному сенсі досить добре наближається деякою лінійною функцією (відображенням).
Глибинне навчання і Диференційовна функція · Диференційовна функція і Штучна нейронна мережа ·
Динамічне програмування
Динамічне програмування — розділ математики, який присвячено теорії і методам розв'язання багатокрокових задач оптимального управління.
Глибинне навчання і Динамічне програмування · Динамічне програмування і Штучна нейронна мережа ·
Довга короткочасна пам'ять
date.
Глибинне навчання і Довга короткочасна пам'ять · Довга короткочасна пам'ять і Штучна нейронна мережа ·
Девід Гантер Г'юбел
Девід Гантер Г'юбел (David Hunter Hubel, *27 лютого 1926, Вінсор — 22 вересня 2013) — лауреат Нобелівської премії з фізіології і медицини 1981 року разом з Торстеном Візелом.
Глибинне навчання і Девід Гантер Г'юбел · Девід Гантер Г'юбел і Штучна нейронна мережа ·
Івахненко Олексій Григорович
Олексíй Григо́рович Іва́хненко (30 березня 1913, Кобеляки — † 16 жовтня 2007, Київ) — український вчений у галузі автоматичного керування, кібернетики і математичного моделювання.
Івахненко Олексій Григорович і Глибинне навчання · Івахненко Олексій Григорович і Штучна нейронна мережа ·
Лінійний класифікатор
У галузі машинного навчання метою статистичної класифікації є використання характеристик об'єкту для ідентифікації класу (або групи), до якої він належить.
Глибинне навчання і Лінійний класифікатор · Лінійний класифікатор і Штучна нейронна мережа ·
Латентна змінна
У статистиці лате́нтні змі́нні (дієприкметник теперішнього часу від lateo («ховатися»), на противагу до) — це змінні, які не спостерігаються безпосередньо, а швидше виводяться (з допомогою математичної моделі) з інших змінних, які спостерігаються (вимірюються безпосередньо).
Глибинне навчання і Латентна змінна · Латентна змінна і Штучна нейронна мережа ·
Ланцюги Маркова
Матриця ймовірностей переходу і граф переходів однорідного ланцюга Маркова з п'ятьма станами Ланцюг Маркова в математиці це випадковий процес, що задовольняє властивість Маркова і який приймає скінченну чи зліченну кількість значень (станів).
Глибинне навчання і Ланцюги Маркова · Ланцюги Маркова і Штучна нейронна мережа ·
Наведений вище список відповідає на наступні питання
- У те, що здається в Глибинне навчання і Штучна нейронна мережа
- Що він має на загальній Глибинне навчання і Штучна нейронна мережа
- Подібності між Глибинне навчання і Штучна нейронна мережа
Порівняння між Глибинне навчання і Штучна нейронна мережа
Глибинне навчання має 213 зв'язків, у той час як Штучна нейронна мережа має 195. Як вони мають в загальній 101, індекс Жаккар 24.75% = 101 / (213 + 195).
Посилання
Ця стаття показує взаємозв'язок між Глибинне навчання і Штучна нейронна мережа. Щоб отримати доступ до кожної статті, з яких інформація витягується, будь ласка, відвідайте: