Первая страница
Наша команда
Контакты
О нас

    Головна сторінка



Застосування шТучних нейронних мереж для прогнозування курсу акцій

Скачати 128.02 Kb.

Застосування шТучних нейронних мереж для прогнозування курсу акцій




Скачати 128.02 Kb.
Дата конвертації18.05.2017
Розмір128.02 Kb.

ВІСНИК ЛЬВІВ. УН–ТУ VISNYK LVIV UNIV

Серія прикладна математика та Ser.

Прикладна математика - галузь математики, що розглядає застосування математичних знань в інших сферах діяльності. Прикладами такого застосування будуть: чисельні методи, математична фізика, математична хімія, лінійне програмування, оптимізація і дослідження операцій, моделювання суцільних середовищ (механіка суцільних середовищ), біоматематика і біоінформатика, теорія інформації, теорія ігор, теорія ймовірності і статистика, фінансова математика і теорія страхування, aктуарна математика,криптографія, а також комбінаторика і деякою мірою кінцева геометрія, теорія графів в додатку до мережевому плануванню, і багато в чому те, що називається інформатикою. У питанні про те, що є прикладною математикою, не можна скласти чітку логічну класифікацію. Математичні методи звичайно застосовуються до специфічного класу прикладних завдань шляхом складання математичної моделі системи.
Applied Mathematiсs and

інформатика. 2002. Вип.4 . C. -11 Computer Science. 2002. No. 4. P. -11


 УДК 519.7

застосування шТучних нейронних мереж

ДЛЯ ПРОГНОЗУВАННЯ КУРСУ АКЦІЙ


О. Годич, Б. Голуб, Ю. Щербина

Львівський національний університет імені Івана Франка

вул. Університетська, 1, м. Львів, 79000, e-mail: ktop@ franko.lviv.ua
У роботі розглянута задача прогнозування курсу акцій підприємства в умовах гри на фондовій біржі за допомогою штучних нейронних мереж. Використовується штучна нейронна мережа прямого поширення.

Іва́н Я́кович Франко́ (27 серпня 1856, с. Нагуєвичі - 28 травня 1916, Львів, Австро-Угорщина) - видатний український письменник, поет, публіцист, перекладач, учений, громадський і політичний діяч. Доктор філософії (1893), дійсний член Наукового товариства імені Шевченка (1899), почесний доктор Харківського університету (1906).
Фо́ндова бі́ржа - організаційно оформлений, постійно діючий ринок, на якому здійснюється торгівля цінними паперами; акціонерне товариство, яке зосереджує попит і пропозицію цінних паперів, сприяє формуванню їх біржового курсу та здійснює свою діяльність відповідно до чинного законодавства, статуту і правил фондової біржі.
Штучна нейронна мережа (ШНМ, англ. artificial neural network, ANN) - це математична модель, а також її програмна та апаратна реалізація, побудовані за принципом функціювання біологічних нейронних мереж - мереж нервових клітин живого організму.
Нейронна мережа прямого поширення, нейромережа прямого розповсюдження (англ. Feedforward neural network) - вид нейронної мережі, в якій сигнали поширюються в одному напрямку, починаючи від вхідного шару нейронів, через приховані шари до вихідного шару і на вихідних нейронах отримується результат опрацювання сигналу.
За метод навчання обрано метод зворотного поширення помилки.
Мето́дика (від грец. μέθοδος - «шлях через») навчання окремої навчальної дисципліни (предмета) - галузь педагогічної науки, що являє собою окрему теорію навчання (приватну дидактику).
Метод зворотного поширення помилки (англ. backpropagation) - метод навчання багатошарового перцептрону. Це ітеративний градієнтний алгоритм, який використовується з метою мінімізації помилки роботи багатошарового перцептрону та отримання бажаного виходу.
Проведено широкий спектр експериментів на множині даних, яка охоплює річний період гри на фондовій біржі. Це дає змогу аналізувати та порівнювати ефективність різних конструкцій штучних нейронних мереж із використанням різних активаційних функцій.

Ключові слова: штучна нейронна мережа, методи прогнозування, штучний інтелект

Штучні нейронні мережі (ШНМ) використовують останнім десятиліттям для розв’язування задач класифікації образів (pattern classification), кластеризації/ категоризації (clustering/categorization), апроксимації функцій (function approximation), передбачення/прогнозування (prediction/forecasting), оптимізації (optimization), формування пам’яті із змістовно залежною адресацією (content addressable memory) та керування (control) [1].

Задача класифіка́ції - формалізована задача, яка містить множину об'єктів (ситуацій), поділених певним чином на класи. Задана кінцева множина об'єктів, для яких відомо, до яких класів вони відносяться.
Для конкретної задачі конструюють ШНМ та навчають її адекватного розв’язування [4]. Досвід, набутий у процесі розв’язування широкого кола практичних задач, у випадку застосування ШНМ полягає у виборі топології нейромережі, алгоритму навчання, активаційних функцій нейронів та низки числових параметрів для кожної практичної задачі. Наведені нижче результати присвячені вирішенню названих проблем у разі побудови нейронної мережі для прогнозування курсу акцій деякої компанії на фондовій біржі.

Нехай для кожної акції, яку продають на біржі, відома ціна на момент відкриття біржі, на момент її закриття та найвища ціна протягом робочого дня для кожного з днів упродовж деякого періоду . Задача прогнозування полягає у відшуканні максимальної ціни акції у довільний день за вже відомими значеннями цін акції на час відкриття та закриття біржі.

Для розв’язування такої задачі побудовано та досліджено декілька ШНМ, які зображені зваженим орієнтованим графом на рис. 1.

Орієнтований граф (коротко орграф) - (мульти) граф, ребрам якого присвоєно напрямок. Орієнтовані ребра називаються також дугами, а в деяких джерелах (Оре) і просто ребрами.
Вершини графа є нейронами мережі, а ребра відповідають зв’язкам між нейронами. Ваги, які є шуканими параметрами нейромережі, утворюють вектор . Розглянуті нейромережі є нейромережами прямого поширення сигналу. Вхідними значеннями кожної із ШНМ є – ціна акції на момент відкриття біржі, та – ціна акції на момент закриття біржі у день .

Застосування нейронної мережі для розв’язування задачі прогнозування складається із двох етапів: етапу навчання нейромережі на навчальній множині та етапу обчислення навченою мережею прогнозованого значення для довільних значень вхідних параметрів. З метою навчання розглянутих ШНМ використано клас методів корекції помилки, а саме: метод зворотного поширення помилки, який належить до навчання з учителем. Навчання з учителем передбачає існування множини навчальних пар вхід - вихід. У нашому випадку входом є , а виходом - , наперед відоме значення найвищої ціни акції. Для навчання ШНМ та перевірки її здатності до прогнозування розіб’ємо часовий проміжок на два підпроміжки та . На одному із підпроміжків навчатимемо ШНМ, а на іншому перевірятимемо якість прогнозування. Отже, елементами навчальної множини є пари .



Рис.1. Активаційні функції , які чергуються у шарі (а) та активаційна функція нейронів (б).

Функція активації, або передавальна функція (англ. activation function, також excitation function, squashing function, transfer function) штучного нейрона - залежність виходового сигналу штучного нейрона від вхідного.

За активаційні функції нейронів внутрішніх шарів запропонованих ШНМ вибрано функції , . Класична література з теорії ШНМ [2, 3] рекомендує за активаційні функції нейронів обирати сигмоїдні, наприклад . Основна привабливість цих функцій полягає у їхній обмеженості, а відтак цікавим є застосування інших обмежених функцій, наприклад .

Вхідне значення для активаційних функцій - зважена сума значень, які передаються нейрону по зв’язках із попереднього шару, тобто , де — індекс нейрона, для якого обчислюють активаційну функцію; — номер прошарку, до якого належить нейрон ; — індекс підсумовування, яке виконують по всіх зв’язках, що ведуть від нейронів проміжку до нейрона .

Нейрон у вихідному шарі обчислює значення , тобто зважену суму, яка і є виходом ШНМ.

Навчання із використанням корекції помилки передбачає мінімізацію функції помилки . Тобто потрібно мінімізувати квадратичне відхилення виходів ШНМ від наперед відомих етелонних значень. Мінімізація функції помилки одним із відомих оптимізаційних методів неможлива з огляду на розмірність задачі. Метод зворотного поширення помилки дає змогу вирішити проблему розмірності [2] і передбачає наведені нижче обчислення.

Нові вагові значення обчислимо за формулою

, (1)

де — номер кроку навчання. Значення для вихідного шару обчислимо інакше, ніж для решти. А саме:



, (2)

де

. (3)

Індекс , оскільки вихідний прошарок у запропонованих ШНМ містить один нейрон.

Для решти прошарків



, (4)

де

, (5)

а індекс відповідає номерам нейронів у прошарку , з якими має зв’язок нейрон .

Величина є кроком навчання. Зазначимо, що не існує ефективного методу підбирання кроку кроку навчання, тому звичайно це значення пібирають до початку навчання і вже не змінюють. Умова збіжності методу зворотного поширення задана значенням похибки , де вибирають відповідно до умов конкретної задачі.

Опишемо алгоритм навчання методом зворотного поширення. Нехай навчальна множина містить елементів.

Ініціалізація. Приймемо лічильник навчальних пар, які вже взяли участь у навчанні, за нуль, тобто . Виберемо допустиму точність сумарного квадратичного відхилення виходів ШНМ на всій навчальній множині, тобто значення ; а також допустиму точність відхилення конкретного виходу ШНМ від відповідного еталону, тобто значення .

Основний цикл.

Крок 1. Обчислюємо значення . Якщо

, то кінець: виходи ШНМ є допустимими. Якщо , то переходимо на крок 2.

Крок 2. Якщо , то переходимо на крок 3, інакше на крок 1

Крок 3. Випадково вибираємо навчальну пару із навчальної множини й обчислюємо вихід ШНМ для вхідних значень . Приймаємо .

Крок 4. Обчислюємо значення .

Крок 5. Якщо , то виконуємо навчання згідно з формулами (1) - (5), інакше повертаємося до кроку 2.

Таблиця 1

Результати навчання запропонованих ШНМ на різних навчальних множинах
за кроку навчання 0,1




ШНМ

Коефіцієнти масштабу

Проміжок навчання

Точність навчан

ня


Кількість ітерацій

1

b

Немасштаб.



0,00872

3000

2

6

0,00853

3000

3

a

Немасштаб.

0,008422

1600

4

6

0,005122

1400

5

b

Немасштаб.



0,023696

1000

6

4

0,033471

1000

7

a

Немасштаб.

0,02346

1000

8

4

0,01285

1000

Для дослідження ШНМ як технології прогнозування розглянуто декілька їхніх конструкцій. ШНМ, які використовували для отримання наведених нижче результатів, зображені на рис. 1. Навчання запропонованих ШНМ проводили на декількох навчальних множинах, які мають різні статистичні характеристики (математичне сподівання та дисперсія). Якість прогнозування також перевіряли на декількох множинах з різними статистичними характеристиками. Результати навчання та прогнозування наведено у табл. 1, 2. Точність навчання у табл. 1 відображена для таких кількостей ітерацій, які були прийнятними за часом виконання. Статистичні характеристики навчальних множин та множин, на яких перевіряли якість прогнозування, наведені у табл. 3.

Таблиця 2

Результати прогнозування для запропонованих ШНМ на різних множинах прогнозування



ШНМ

Проміжок прогнозування

Точність прогнозування

1

b



0,00256

2

0,00322

3

a

0,00116

4

0,01095

5

b



0,005112

6

0,007092

7

a

0,004729

8

0,003462

Таблиця 3

Статистичні характиристики навчольної множини та множини прогнозування



Характерис-тика

Навчальна множина

Множина прогнозування

























Дисперсія

0,1988

0,2094

0,1316

0,1374

0,0138

0,0134

0,0896

0,8973

Математичне сподівання

0,4179

0,428

0,2332

0,2358

0,2108

0,2113

0,2713

0,2712

Max

1,15


1,2

1,15

1,2

0,24

0,244

0,48

0,48

Min

0,21

0,21

0,085

0,09

0,18

0,18

0,15

0,15

Під час навчання ШНМ може виникнути її параліч, тоюто нездатність до подальшого навчання. Це може бути зумовлено такими причинами:

  • математичні сподівання вхідних значень великі, а їхня дисперсія мала;

  • математичні сподівання вхідних значень малі, і дисперсія мала:

У першому випадку може скластися ситуація, коли не вистачатиме розрядності комп’ютера для зображення виходу ШНМ; у другому можемо отримати невизначений час навчання. Для уникнення паралічу у перелічених випадках пропонуємо масштабувати вхідні значення ШНМ [2]. Результати навчання та прогнозування із масштабуванням та без нього наведені у табл. 1. Для цих прикладів масштабування виконували за формулою , де – змасштабовані вхідні значення, – математичні сподівання вхідних параметрів , — потужність проміжку , – коефіцієнт масштабування. У табл. 1 та 2 відображено результати навчання та прогнозування для змасштабованих і для незмасштабованих вхідних даних.

Найвдалішими із описаних є експеримент №5 для нейромережі, зображеної на рис. 1,б, та експеримент №8 для нейромережі, зображеної на рис. 1,a. На рис. 2-9 показано результати навчання та прогнозування для цих експериментів; на рис. 2 та 6 сумарне квадратичне відхилення виходів мережі від еталонних значень протягом навчання, відповідно, для експериментів №5 та №8; рис. 3 та 7 зображають криві, які інтегровано характеризують процес навчання для експериментів №5 та №8, відповідно. Порівнявши ці результати, легко оцінити процес збіжності навчального методу для різних ШНМ. Зазначимо, що в разі використання та за активаційні функції нейронів швидкість навчання була вищою, і сумарне квадратичне відхилення під час прогнозування було меншим, ніж за використання . На рис. 4 та 8 зображене абсолютне відхилення виходів ШНМ від еталонних на множині прогнозування для експирементів №5 та №8, відповідно; рис. 6 та 9 містять графіки реальних цін акцій та їхню апроксимацію запропонованими ШНМ.

Рис. 2: Графік процесу навчання для експерименту №5.

Рис. 3: Крива процесу навчання для експерименту №5.

Рис. 4: Значення абсолютних відхилень виходів ШНМ від еталонів на множині


прогнозування для експерименту №5.

Рис. 5: Графік процесу навчання для експерименту №8.

Рис. 6: Графік зміни реальної (1) найвищої ціни акції та графік прогнозованих (2) цін


для експерименту №5.

Рис. 7: Крива процесу навчання для експерименту №8.

Рис. 8: Значення абсолютних відхилень виходів ШНМ від еталонів на множині прогнозування для експерименту №8.

Рис. 9: Графік зміни реальної (1) найвищої ціни акції та графік прогнозованих (2) цін


для експерименту №8.

ЛІТЕРАТУРА



  1. Грицик В.В, Айзенберг Н.Н, Бунь Р.А. та ін. Нейронні та нейроподібні мережі: синтез, реалізація, застосування та майбутнє // Інформ. технології і системи. 1998. №1/2, С.15-55.

  2. Заенцев И.В.. Нейронные сети: основные модели. Воронеж, 1999.

  3. Уоссермен Ф. Нейрокомьютерная техника: Теория и практика. М., 1992.

  4. Ткаченко Р.О, Юрчак І.Ю. Варіант побудови штучних нейронних мереж прямого поширення з нейтераційним навчанням // Інформ. технології і системи. 1998. №1/2. С.81-84.

stock market prediction using artificial neural networks


O. Hodych, B. Holub, Yu. Shcherbyna

Ivan Franko National University In Lviv


Universytetska str., 1, Lviv, 79000, e-mail: ktop@franko.lviv.ua
Prediction has a significant impact on decision-making in business, science and engineering. Stock market prediction is a typical application of prediction technique.

Numerous advances have been made in developing intelligent systems, some inspired by biological neural networks. Researchers from many scientific disciplines are designing artificial neural networks (ANN) to solve a variety of problems in pattern recognition, prediction, optimization, associative memory, and control. ANNs provide existing alternatives, and many applications could benefit from using them.

This article is for those who are interested in a prediction of different processes and the technologies, which help to predict. We outlined back propagation of error learning process and reviewed problems of choosing activation functions for artificial neurons. We consider two models of ANNs and their comparison applied to stock market prediction. The problem of scaling input training patterns has been investigated.

Key words: artificial neural networks; machine learning; prediction; intelligent systems

Стаття надійшла до редколегії 10.09.2001



Прийнята до друку

 © Годич О., Голуб Б., Щербина Ю., 2002



Скачати 128.02 Kb.