Інтелектуальна система дослідження методів машинного навчання


Поширені бази даних зображень



Сторінка4/15
Дата конвертації27.01.2020
Розмір0,56 Mb.
ТипРеферат
1   2   3   4   5   6   7   8   9   ...   15

Поширені бази даних зображень


Для класифікації зображень на даний момент існує велика кількість різноманітних баз даних(Табл. 1.1)

База даних

Зображення/клас

Кількість класів

Загальна Кількість зображень

Просторова роздільна здатність

Розмір зображень

Рік

UC Merced Land-Use

100

21

2,100

0,3

256×256

2010

WHU-RS19

~50

19

1,005

0,5

600×600

2012

SIRI-WHU

200

12

2,400

2

200×200

2016

RSSCN7

400

7

2,800

-

400×400

2015

RSC11

~100

11

1,232

0,2

512×512

2016

Brazilian Coffee Scene

1438

2

2,876

-

64×64

2015

NWPU-RESISC45

700

45

31,500

~30 to 0.2

256×256

2016

MNIST

10000+60000

2

70,000

-

28×28

1999

ImageNet

~500

21481

14197122

-

256×256

2010

COCO

~2000

171

330000

-

256×256

2014


    1. База даних MNIST


Для калібрування і зіставлення методів Національним інститутом стандартів і технологій США була запропонована об’ємна база даних зразків рукописного написання символів MNIST, що містить 60000 зображень для навчання та 10000 для тестування. [3]

Рисунок 1.2.1 – Датасет MNIST

Дані складаються з заздалегідь підготовлених прикладів зображень, отриманих з рукописних документів шляхом обробки чорно-білих зразків символів NIST розміром {\displaystyle 20\times 20}20х280 пікселів. Творці бази даних NIST, в свою чергу, використовували набір зразків з Бюро перепису населення США, до якого були додані ще тестові зразки, написані студентами американських університетів. Зразки з набору з NIST були нормалізовані, пройшли згладжування та приведення до напівтонового зображенню розміром 28х28 {\displaystyle 28\times 28}пікселів.

На даний час було проведено багато досліджень з використанням різноманітних методів:



Рисунок 1.4 – Частина таблиці з результатами дослідів для k-сусідів та лінійної класифікаціїх[4]

Рекорд був досягнений при використанні згорткових нейронних мереж при попередньому нормуванні ширини для вхідних даних – 0.23% похибки.



    1. Лінійна класифікація


Лінійна класифікація – це використання характеристик деякого об’єкту для ідентифікації групи до якої он належить. Це досягається порівнянням його вектору ознак з еталоном.[16]

Лінійним класифікатором називається алгоритм класифікації вигляду  



де   — вага  -ї ознаки,   — вектор ваги,   — скалярне множення ознакового опису об'єкта на вектор ваг. Передбачається, що штучно введено "константну" нульову ознаку:  .

Лінійний класифікатор визначається виразом

де кожному класу відповідає свій вектор ваги



Рисунок 1.3.1– Типовий приклад для лінійної класифікації, зелена лінія не є лінійним класифікатором, а червона проводить більш точну класифікацію ніж синя.



    1. K-nearest


Метод найближчих сусідів передбачає врахування “відстаней” ознак, порахованих до найближчих сусідів. Основним принципом для класифікації виступає присвоєння тому класу, який є самим поширеним з усіх сусідів даного елемента.

Як для класифікації, так і для регресії, корисна методика може бути використана для присвоєння ваги до внесків сусідів, так що ближчі сусіди становлять більше середнього, ніж більш віддалені. Наприклад, загальна схема зважування полягає у наданні кожному сусіда вагою 1 / d, де d - відстань до сусіда.



Рисунок 1.4.1 – Приклад класифікації k-NN


Сусіди взяті з набору об'єктів, для яких відомий клас (для класифікації kNN) або властивість об'єкта (для k-NN регресії). Це можна розглядати як набір тренувань для алгоритму, хоча ніяких явних кроків навчання не потрібно.

Найкращий вибір k залежить від даних; як правило, більші значення k зменшують ефект шуму від класифікації , але роблять межі між класами менш різними. Хороший k може бути обраний різними евристичними методами (див. Оптимізація гіперпараметрів). Спеціальний випадок, коли клас передбачається бути класом найближчого навчального зразка (тобто коли k = 1), називається найближчим алгоритмом сусіда.

Точність алгоритму k-NN може сильно погіршуватися наявністю шумних або невідповідних особливостей, або якщо шкала функцій не відповідає їх важливості. Багато дослідницьких зусиль було застосовано до вибору або масштабування функцій для поліпшення класифікації. Особливо популярним підходом є використання еволюційних алгоритмів для оптимізації масштабування об'єктів. Інший популярний підхід полягає у масштабі функцій шляхом взаємної інформації про навчальні дані з навчальними заняттями.

Найбільш інтуїтивним класифікатором найближчих сусідів є 1-N сусідовий класифікатор, який присвоює точку x класу свого найближчого сусіда у просторі функцій, тобто

Оскільки розмір навчальних даних наближається до нескінченності, один найближчий сусідовий класифікатор гарантує, що рівень помилки не гірше, ніж удвічі більший, ніж частота помилок Байєса (мінімальна допустима частота помилок при розподілі даних).[16]

У випадку використання для MNIST, 28 × 28 = 784 властивостей забагато, та є ймовірність що деякі з цих властивостей не будуть мати вплив на передбачення, чи навіть призведе до перенавчання алгоритму. Одним із способів вирішення цього є видалення функцій, які не сприяють значній мірі. Далі, використовуючи цю концепцію, можна виявити кращі функції, що складаються з лінійних комбінацій оригінальних функцій. Оригінальні функції називаються "вирівняними осями", оскільки наведені нами дані побудовані на цих осях функцій. Знайшовши кращі функції, що не вирівнюють осі, можна створити нову систему координат для наших даних, яка складається з осей, які працюють у більш важливих напрямках (тобто дані тренування мають більшу дисперсію по цих осях).



Рис.1.4.2 Результат роботи k-nn в 3d відображенні[16]

Якщо дані придатні для розподілу Гаусса, можна побачити, що є два власних вектора, які, якщо використовувати їх як основу при побудові даних, могли б забезпечити значно більшу дисперсію серед даних, ніж наші осі x1 і x2. Іншими словами, ці два напрямки xa та xb розповідають нам більше про дані, ніж x1 та x2. Пошук xa і xb і побудова нашої інформації в новій системі координат на основі цих осей називається Аналіз основних компонентів (PCA).


    1. Каталог: bitstream -> 123456789
      123456789 -> Тема: Безпека вулиці: азбука дороги
      123456789 -> Методичні вказівки до вивчення дисципліни сво «доктор філософії»
      123456789 -> Регіональний підхід до дослідження формування ціннісних орієнтацій студентів мистецьких вишів україни н. Г. Тарарак
      123456789 -> Методологічне підґрунтя дослідження формування ціннісних орієнтацій студентів вищих навчальних закладів мистецького профілю україни
      123456789 -> Загальна характеристика роботи
      123456789 -> Інформаційне суспільство в контексті політичної культури суспільства
      123456789 -> Заліщицька районна державна адміністрація Відділ з питань освіти Районний методичний кабінет Використання активних та інноваційних технологій як засіб активізації
      123456789 -> Україна тернопільська область опис досвіду роботи учителя біології


      Поділіться з Вашими друзьями:
1   2   3   4   5   6   7   8   9   ...   15


База даних захищена авторським правом ©pedagogi.org 2019
звернутися до адміністрації

    Головна сторінка