ПОБУДОВА ТА НАВЧАННЯ ШТУЧНИХ НЕЙРОННИХ МЕРЕЖ: ПЕРЦЕПТРОН - Научное сообщество

Вас приветствует Интернет конференция!

Приветствуйем на нашем сайте

Рік заснування видання - 2011

ПОБУДОВА ТА НАВЧАННЯ ШТУЧНИХ НЕЙРОННИХ МЕРЕЖ: ПЕРЦЕПТРОН

17.10.2022 13:55

[1. Информационные системы и технологии]

Автор: Григорак Ілона Анатоліївна, студентка, кафедра програмного забезпечення, Національний Університет «Львівська Політехніка», м. Львів


Формулювання задачі. Величезні обсяги даних вимагають великої кількості ресурсів для обробки та аналізу. У наш час важливу роль у оптимізації обробки великої кількості даних набуває використання нейронних мереж. 

Штучна нейронна мережа[1] це система, заснована на базі біологічних нейронних мереж, які формують мозок тварин. Головною перевагою таких систем є можливість їх навчання, тобто поступове покращення ефективності, після тренування на навчальних чи реальних прикладах, без конкретного програмування під вирішення задачі.

Постановка завдання. Основними цілями даної статті є опис та аналіз однієї з основ створення штучних мереж – перцептрона. 

Актуальність аналізу суті роботи перцептрона. Сучасний світ оперує величезними обсягами даних, тому застосування штучних нейронних мереж для їх збору, аналізу та обробки набуває все більшого поширення, а ціна похибки через не розуміння їх основи їх побудови стає все більшою.

Перцептрон[2] - це тип штучного нейрона, що розроблявся Френком Розенблатом у 1950-их та 1960-их роках. У сучасних роботах найчастіше використовують іншу модель штучного нейрона (сигмоїдальний нейрон). Щоб зрозуміти, як працює сигмоїдальний нейрон, необхідно розглянути структуру та принцип роботи перцептрону. Перцептрон приймає на вхід значення x1, x2... та видає бінарний результат:





Рис. 1 - Схема перцептрону

Розенблат запропонував використовувати ваги - числа, що виражають

важливість вкладу кожного входу у кінцевий результат. Зважена сума 

порівнюється з пороговим значенням (threshold), і за результатами визначається, чи буде видано 0 або 1. Порогове значення також є параметром нейрона.






Перцептрони можуть бути класифіковані як штучні нейронні мережі

• з одним прихованим шаром;

• з граничною активаційною функцією;

• із прямим поширенням сигналу.

Навчання перцептрону полягає у зміні матриці ваг у процесі навчання. Існують 4 історично сформованих видів перцептронів[3]:

• Перцептрон з одним прихованим шаром;

Одношаровий перцептрон: вхідні елементи безпосередньо з'єднані з вихідними за допомогою системи ваги. Є найпростішою мережею прямого поширення (feedforward network);

• Багатошаровий перцептрон (за Розенблатом): присутні додаткові приховані шари;

• Багатошаровий перцептрон (за Румельхартом): присутні

додаткові приховані шари, а навчання проводиться за методом зворотного поширення (backpropagation algorithm).

Якби мала зміна ваг викликала невелику зміну на виході мережі, то бажану поведінку нейронної мережі можна було б отримати за допомогою простих модифікацій ваг у процесі навчання. Однак у випадку нейронної мережі побудованої на перцептронах - невелика зміна ваг або усунення одного з перцептронів мережі може кардинально змінити вихідне значення перцептрону, наприклад, з 0 на 1. Варто зазначити що завданням навчання нейронної мережі є завданням пошуку мінімуму функції помилки у просторі станів навчання, то стандартні методи теорії оптимізації теж можуть бути застосовані для вирішення задачі[4]. Для одношарового перцептрону з n входами і m виходами йдеться про пошук мінімуму в nm -  мірному просторі.

Висновки. Проаналізувавши предметну область побудови та навчання штучних нейронних мереж, а саме перцептрони, можна зробити висновок, що даний компонент все ще є важливою складовою нейронних мереже і потрібен для розуміння принципу роботи і правильного дизайну системи. 

Окрім того було наведено відомі проблеми використання перцептронів для побудови нейронних мереж, та описано задачу оптимізації нейронної мережі - Для одношарового перцептрону з n входами і m виходами йдеться про пошук мінімуму в nm -  мірному просторі.

СПИСОК ВИКОРИСТАНИХ ДЖЕРЕЛ

1. Klette R. Computer vision / Reinhard Klette, Karsten Schluns, Andreas Koschan. – [S. l.] : Springer, 1998. – 405 p.

2. R-CNN for small object detection [Electronic resource] / Chenyi Chen [et al.] // Computer vision – ACCV 2016. – Cham, 2017. – P. 214–230.

3. Wang M. B. Neural function / Michael B. Wang. – Boston : Little, Brown, 1987. – 210 p.

4. Koonce B. VGG network [Electronic resource] / Brett Koonce // Convolutional neural networks with swift for tensorflow. – Berkeley, CA, 2021. – P. 35–50. 

_________________

Науковий керівник: Мельник Роман Андрійович, доктор технічних наук, професор кафедри програмного забезпечення, Інституту комп’ютерних наук та інформаційних технологій, Національного університету «Львівська політехніка»




Creative Commons Attribution Ця робота ліцензується відповідно до Creative Commons Attribution 4.0 International License
допомога Знайшли помилку? Виділіть помилковий текст мишкою і натисніть Ctrl + Enter
Конференции

Конференции 2024

Конференции 2023

Конференции 2022

Конференции 2021



Міжнародна інтернет-конференція з економіки, інформаційних систем і технологій, психології та педагогіки

Наукова спільнота - інтернет конференції

:: LEX-LINE :: Юридична лінія

Інформаційне суспільство: технологічні, економічні та технічні аспекти становлення