Наукова періодика України Наукові вісті КПІ


Romanuke V. V. 
Flexible solution of a 2-layer perceptron optimization by its size and training set smooth distortion ratio for classifying simple-structured objects / V. V. Romanuke // Наукові вісті Національного технічного університету України "Київський політехнічний інститут". - 2017. - № 6. - С. 59-73. - Режим доступу: http://nbuv.gov.ua/UJRN/NVKPI_2017_6_10
Двошаровим персептронам надається перевага над складними нейронними мережами, коли об'єкти для класифікації мають просту структуру. Однак навіть зображення, що складаються з декількох геометрично примітивних елементів на монотонному фоні, класифікуються двошаровим персептроном погано, якщо вони сильно спотворені (зсунуті, перекошені та масштабовані). Продуктивність двошарового персептрона може бути значно покращена модифікацією його навчання. Це робиться навмисним внесенням спотворень, подібних зсуву, перекошеності та масштабуванню, у навчальну множину, але тільки за допомогою контролю об'ємів цих спотворень спеціальним співвідношенням. Крім того, продуктивність покращується підбором оптимального розміру прихованого шару. Мета дослідження - оптимізація двошарового персептрона за його розміром і згаданого співвідношення для класифікації об'єктів простої структури. Об'єктами є монохромні зображення збільшених великих літер англійського алфавіту (набір даних EEACL26) середнього розміру 60х80. EEACL26 є нескінченним штучним набором даних, тому даються математичні моделі спотворених зображень. Далі навчаються і тестуються двошарові персептрони, що мають різні розміри та співвідношення гладких спотворень у навчальній множині. Продуктивність оцінюється за відсотком помилок класифікації на граничних спотвореннях. Виходячи зі статистичних оцінок відсотка помилок класифікації на граничних спотвореннях, виявлено, що найкраще співвідношення повинно бути між 0,01 та 0,02, а оптимальне число нейронів у прихованому шарі має бути між 361 та 390. Розміри ближче до 375 вважаються статистично більш надійними, тоді як співвідношення вибираються рівномірно. Такий розв'язок є гнучким, дозволяючи не тільки подальше навчання зі зміною розміру прихованого шару та співвідношення, а й витончене першопочаткове навчання на перших проходах. Проте навіть після перших 100 проходів двошаровий персептрон, навчаний далі на 1190 екстрапроходах зі збільшеною в 10 разів гладкістю спотворень, працює на рівні 8,91 % помилок на граничних спотвореннях, що приблизно на 45 % краще, ніж попередній відомий результат. На рівні практично очікуваних спотворень, які значно менші, рівень помилок становить 0,8 %, що цілком прийнятно. Однак тут головною вигодою оптимізованого двошарового персептрона є не точність, а його швидкодія. Висновки: отриманий гнучкий розв'язок підходить іншим наборам даних, подібних EEACL26. Число класів може варіюватися між 20 і 30, а число ознак - між декількома сотнями і декількома тисячами. Наведений приклад досягнення високопродуктивної класифікації двошаровими персептронами є частиною загальної методики статистичної оптимізації стосовно нейромережевих класифікаторів. Для більш складних наборів даних об'єктів ця методика будується і виконується у подібному стилі.
  Повний текст PDF - 1.313 Mb    Зміст випуску     Цитування публікації

Цитованість авторів публікації:
  • Romanuke V.

  • Бібліографічний опис для цитування:

    Romanuke V. V. Flexible solution of a 2-layer perceptron optimization by its size and training set smooth distortion ratio for classifying simple-structured objects / V. V. Romanuke // Наукові вісті Національного технічного університету України "Київський політехнічний інститут". - 2017. - № 6. - С. 59-73. - Режим доступу: http://nbuv.gov.ua/UJRN/NVKPI_2017_6_10.

      Якщо, ви не знайшли інформацію про автора(ів) публікації, маєте бажання виправити або відобразити більш докладну інформацію про науковців України запрошуємо заповнити "Анкету науковця"
     
    Відділ інформаційно-комунікаційних технологій
    Пам`ятка користувача

    Всі права захищені © Національна бібліотека України імені В. І. Вернадського