Friday 24 November 2017

Średni ruch sieci neuronowej


Sieć neuronowa 2 Średnie ruchome Sieć neuronowa Expert Advisor oparta na dwóch średnich krokach w trybie treningowym. Szkolenie doradcy eksperta w wybranych przykładach i zarabianie w prawdziwym życiu. EA może pracować na każdym instrumencie iw dowolnym czasie. Algorytm obrotu EA Dwa średnie ruchome są analizowane przez rdzeń sieci neuronowej, który generuje komendy kupna lub sprzedaży. wartości dla dwóch średnich ruchów, szybkiego (FMA) i wolnego (SMA), są dostarczane do pierwszej warstwy, w drugiej warstwie oblicza się dwa neurony odpowiedzialne za Buy (N buy) i Sell (N sell), decyzję o zakupie lub sprzedaje się na trzecim poziomie. Schemat blokowy sieci neuronowej jest pokazany na rysunku. Szkolenie doradców ekspertów W trybie szkoleniowym EA zapamiętuje wartości średnich kroczących zaznaczonych przez użytkownika na wykresie instrumentu walutowego. W przyszłości, podczas normalnej pracy, rozpoznaje wartości średnich kroczących. Szkolenie znaku EA co najmniej jednego długiego i krótkiego handlu na wykresie. Aby zaznaczyć długą wymianę handlową, użyj strzałki Kup, a krótką wymianę używaj strzałki Sprzedaj. Możesz umieścić więcej strzałek na wykresie. Im więcej strzałek, tym dłużej będzie proces treningu. Obecność innych przedmiotów na wykresie innym niż strzałki nie jest pożądana. Po szkoleniu w folderze wspólnym terminala zostanie utworzony folder NN2MA. Będzie zawierał plik HHHHHHNN2MA. bin z ustawieniami wyszkolonej sieci neuronowej. XXXXXX w nazwie pliku jest nazwą instrumentu finansowego. Podczas normalnej pracy EA ładuje dane z pliku. Jeśli plik nie zostanie odnaleziony, użyje ustawień domyślnych. Domyślnie EA jest szkolony w USDJPY i jednogodzinnym ramy czasowej, transakcje są wybierane w 2017 r. Następujące parametry wejściowe są odpowiedzialne za szkolenie EA: liczba odważników na neuron. Równa długości magistrali. Domyślnie - 48. Liczba cykli treningu - wartość domyślna 100. Im większa wartość, tym dłużej trwa proces trenowania. W wersji próbnej jest 10. Czynnik b - wartość wpływa na szybkość korekcji ciężaru neuronów, służy do szkolenia sieci. Domyślna wartość to 0.7, nie wymaga zmiany. Tryb uczenia EA - umożliwia tryb szkolenia EA. Poniżej zamieszczono przykłady określenia handlu dla szkolenia EA. Ustawienia trybu normalnego Ustawienia średnich kroczących Możesz dostosować ustawienia każdej średniej ruchomej: okresu, ceny, trybu obliczeniowego. Wielkość zamówienia - domyślnie wynosi 0,1. Wartość poślizgów w punktach - domyślnie wynosi 30. Liczba prób otwarcia pozycji - domyślnie wynosi 5. Poziom StopLoss w punktach - domyślnie wynosi 0. Poziom TakeProfit w punktach - domyślnie wynosi 0. Poziom TrailingStop w punktach - domyślnie wynosi 650. Zezwolenie zarządzanie pieniędzmi - kontrola wielkości zamówień na rynek, dzięki defaltowaniu. Jeśli tryb jest wyłączony, rozmiar zamówienia jest pobierany z parametru Volume of order. Wielkość zamówień w procentach depozytu - używana do kontroli wielkości zamówienia, domyślnie wynosi 5 procent. Dodawanie do otwartej pozycji - włączone domyślnie. Jeśli pojawi się sygnał do wejścia na rynek w kierunku otwartej pozycji, EA wchodzi na rynek. Ustawienia sieci neuronowej Liczba ciężarów na neuron. Równa długości magistrali. Im wyższa wartość, tym dokładniej będzie rozpoznany aktualny stan rynku, ale zmniejsza liczbę transakcji. Im niższa wartość, tym mniej dokładne będzie rozpoznanie obecnego stanu na rynku, ale liczba transakcji wzrasta. Wartość aktywacji neuronu. Wartość wynosi około 0,75 wartości liczby odważników na neuron. Im wyższa wartość, tym ostrzejszy jest wybór neuronów do podjęcia decyzji. W wersji próbnej jest 40. Liczba cykli treningowych - domyślnie 100. Czynnik b prędkość korekcji ciężaru, domyślnie wynosi 0,7. Tryb uczenia EA tryb treningowy EA. Podczas treningu maksymalne wartości neuronów zostaną przedstawione w komentarzach na wykresie. Wartości te można wykorzystać jako wartość aktywującą neuronu. Na rysunku pokazano przykład. Włącz komentarze - umożliwia komentarze na wykresie. Magiczna liczba doradców. Pauza po transakcji w milisekundach. Domyślnie EA jest przeszkolony w USDJPY H1 w dwóch branżach w 2017 roku. Wyniki testu eksperckiego eksperta w roku 2017 przedstawiono na rysunku. Sieć neuronowa 2 Średnia ruchoma Sieć neuronowa Expert Advisor oparta na dwóch średnich krokach z trybem treningowym . Szkolenie doradcy eksperta w wybranych przykładach i zarabianie w prawdziwym życiu. EA może pracować na każdym instrumencie iw dowolnym czasie. Algorytm obrotu EA Dwa średnie ruchome są analizowane przez rdzeń sieci neuronowej, który generuje komendy kupna lub sprzedaży. wartości dla dwóch średnich ruchów, szybkiego (FMA) i wolnego (SMA), są dostarczane do pierwszej warstwy, w drugiej warstwie oblicza się dwa neurony odpowiedzialne za Buy (N buy) i Sell (N sell), decyzję o zakupie lub sprzedaje się na trzecim poziomie. Schemat blokowy sieci neuronowej jest pokazany na rysunku. Szkolenie doradców ekspertów W trybie szkoleniowym EA zapamiętuje wartości średnich kroczących zaznaczonych przez użytkownika na wykresie instrumentu walutowego. W przyszłości, podczas normalnej pracy, rozpoznaje wartości średnich kroczących. Szkolenie znaku EA co najmniej jednego długiego i krótkiego handlu na wykresie. Aby zaznaczyć długą wymianę handlową, użyj strzałki Kup, a krótką wymianę używaj strzałki Sprzedaj. Możesz umieścić więcej strzałek na wykresie. Im więcej strzałek, tym dłużej będzie proces treningu. Obecność innych przedmiotów na wykresie innym niż strzałki nie jest pożądana. Po szkoleniu w folderze wspólnym terminala zostanie utworzony folder NN2MA. Będzie zawierał plik HHHHHHNN2MA. bin z ustawieniami wyszkolonej sieci neuronowej. XXXXXX w nazwie pliku jest nazwą instrumentu finansowego. Podczas normalnej pracy EA ładuje dane z pliku. Jeśli plik nie zostanie odnaleziony, użyje ustawień domyślnych. Domyślnie EA jest szkolony w USDJPY i jednogodzinnym ramy czasowej, transakcje są wybierane w 2017 r. Następujące parametry wejściowe są odpowiedzialne za szkolenie EA: liczba odważników na neuron. Równa długości magistrali. Domyślnie - 48. Liczba cykli treningu - wartość domyślna 100. Im większa wartość, tym dłużej trwa proces trenowania. W wersji próbnej jest 10. Czynnik b - wartość wpływa na szybkość korekcji ciężaru neuronów, służy do szkolenia sieci. Domyślna wartość to 0.7, nie wymaga zmiany. Tryb uczenia EA - umożliwia tryb szkolenia EA. Poniżej zamieszczono przykłady określenia handlu dla szkolenia EA. Ustawienia trybu normalnego Ustawienia średnich kroczących Możesz dostosować ustawienia każdej średniej ruchomej: okresu, ceny, trybu obliczeniowego. Wielkość zamówienia - domyślnie wynosi 0,1. Wartość poślizgów w punktach - domyślnie wynosi 30. Liczba prób otwarcia pozycji - domyślnie wynosi 5. Poziom StopLoss w punktach - domyślnie wynosi 0. Poziom TakeProfit w punktach - domyślnie wynosi 0. Poziom TrailingStop w punktach - domyślnie wynosi 650. Zezwolenie zarządzanie pieniędzmi - kontrola wielkości zamówień na rynek, dzięki defaltowaniu. Jeśli tryb jest wyłączony, rozmiar zamówienia jest pobierany z parametru Volume of order. Wielkość zamówień w procentach depozytu - używana do kontroli wielkości zamówienia, domyślnie wynosi 5 procent. Dodawanie do otwartej pozycji - włączone domyślnie. Jeśli pojawi się sygnał do wejścia na rynek w kierunku otwartej pozycji, EA wchodzi na rynek. Ustawienia sieci neuronowej Liczba ciężarów na neuron. Równa długości magistrali. Im wyższa wartość, tym dokładniej będzie rozpoznany aktualny stan rynku, ale zmniejsza liczbę transakcji. Im niższa wartość, tym mniej dokładne będzie rozpoznanie obecnego stanu na rynku, ale liczba transakcji wzrasta. Wartość aktywacji neuronu. Wartość wynosi około 0,75 wartości liczby odważników na neuron. Im wyższa wartość, tym ostrzejszy jest wybór neuronów do podjęcia decyzji. W wersji próbnej jest 40. Liczba cykli treningowych - domyślnie 100. Czynnik b prędkość korekcji ciężaru, domyślnie wynosi 0,7. Tryb uczenia EA tryb treningowy EA. Podczas treningu maksymalne wartości neuronów zostaną przedstawione w komentarzach na wykresie. Wartości te można wykorzystać jako wartość aktywującą neuronu. Na rysunku pokazano przykład. Włącz komentarze - umożliwia komentarze na wykresie. Magiczna liczba doradców. Pauza po transakcji w milisekundach. Domyślnie EA trenuje USDJPY H1 na dwa zawody w 2017 roku. Wyniki testu eksperckiego Doradcy w 2017 roku pokazano na rysunku. Inspirowane układy kognitywne (BICS 2006) Interplay pomiędzy naturalną i sztuczną obliczenią (IWINAC 2007) Poprawa Automatycznej Regresji Zintegrowanych Moving Średnia modele z użyciem logiki Fuzzy i sztucznych sieci neuronowych (ANN) Mehdi Khashei. Mehdi Bijari Gholam Ali Raissi Ardali Wydział Inżynierii Przemysłowej, Isfahan University of Technology, Isfahan, Iran Otrzymany 15 lipca 2007 r. Poprawiony 22 kwietnia 2008 r. Przyjęty 29 kwietnia 2008 r. Dostępny online 20 maja 2008 r. Komunikat G. P. Prognozowanie serii Zhang Time jest aktywnym obszarem badawczym, który zwrócił dużą uwagę na zastosowania w różnych dziedzinach. Modele ARIMA (ang. Integrated Regression Average Moving Average) są jednym z najważniejszych modeli serii czasowych wykorzystywanych do prognozowania rynku finansowego w ciągu ostatnich trzech dziesięcioleci. Ostatnie badania w prognozach dotyczących szeregów czasowych wskazują, że dwa podstawowe ograniczenia obniża ich popularność w przypadku prognoz finansowych w szeregach czasowych: a) modele ARIMA zakładają, że przyszłe wartości serii czasowej mają liniową zależność od bieżących i przeszłych wartości, a także z białym hałasem , więc przybliżenia w modelach ARIMA mogą nie być odpowiednie dla złożonych problemów nieliniowych i (b) modele ARIMA wymagają dużej ilości danych historycznych w celu uzyskania dokładnych wyników. Zarówno teoretyczne, jak i empiryczne odkrycia sugerują, że integracja różnych modeli może stanowić skuteczną metodę poprawy ich przewidywania, zwłaszcza gdy modele w zespole są zupełnie inne. W niniejszym artykule modele ARIMA są zintegrowane z sztucznymi sieciami neuronowymi (ANN) i logiką rozmyte w celu pokonania liniowych i danych ograniczeń modeli ARIMA, uzyskując tym samym dokładniejsze wyniki. Empiryczne wyniki prognoz rynków finansowych wskazują, że modele hybrydowe wykazują skuteczną poprawę dokładności prognozowania, dzięki czemu proponowany model może być używany jako alternatywa dla narzędzi prognozowania rynków finansowych. (ARIMA) Prognozowanie szeregów czasowych Sztuczne sieci neuronowe (ANN) Logika fuzzy Rynki finansowe Kurs walutowy Rys. 1. Rys. 2. Rys. 3. Tabela 2. Rys. 4. Tabela 4. Rys. 5. Rys. 6. Tabela 6. Rys. 7. Rys. 8. Mehdi Khashei urodził się w 1979 roku w Esfahanie, w Iranie. Studiował inżynierię przemysłową na Isfahanie University of Technology (IUT) i uzyskał tytuł magistra inżyniera w dziedzinie inżynierii przemysłowej w 2005 roku. Jest autorem lub współautorem ok. 13 prac naukowych w międzynarodowych czasopismach lub komunikatach do konferencji z komitetem rewizyjnym. Jego obecne badania łączą modele ARIMA z automatyczną regresją ze sztucznymi sieciami neuronowymi (ANN) i logiką rozmytą na prognozy serii czasowych. Jego zainteresowania badawcze obejmują obliczeniowe modele mózgu, logikę rozmytą, miękkie obliczenia, przybliżenia nieliniowe i prognozowanie szeregów czasowych. Mehdi Bijari uzyskał tytuł doktora nauk technicznych w dziedzinie inżynierii przemysłowej, 1987, mgr inż., 1990, zarówno z Isfahan University of Technology (IUT), jak i doktorat inżynierii przemysłowej w 2002 roku, Sharif University of Technology. Od 1991 roku wykładał w Działie Inżynierii Przemysłowej w IUT. Jego badania leży w zakresie zarządzania projektami, symulacji, planowania produkcji, metod meta heurystycznych, optymalizacji, prognozowania szeregów czasowych i systemów informacyjnych. Opublikował różne prace w planowaniu produkcji, prognozowaniu szeregów czasowych i optymalizacji. Gholam Ali Raissi Ardali jest profesorem inżynierii przemysłowej na Isfahan University of Technology (IUT). Uzyskał BSc w informatyce o statystyce statystycznej z 1975 r., Z Instytutu Statystyki i Informatyki, Teheranu, Iranu, magister statystyki stosowanej, 1977, z Uniwersytetu Brunel w Anglii i doktora nauk technicznych w przemyśle, 1980, z Bradford University w Anglii. Jego zainteresowania badawcze obejmują całościowe zarządzanie jakością, statystyczną kontrolę jakości, prognozowanie szeregów czasowych, sieci neuronowych i zarządzanie łańcuchem dostaw. Odpowiadający autor. Tel. 98 311 3912550 1 faks: 98 311 3915526. Copyright 2008 Elsevier B. V. Wszelkie prawa zastrzeżone. Cytowanie artykułów () Rozwój sieci neuronowych dla prognozowania finansowego Autor: Lou Mendelsohn Przeprowadzono szeroko zakrojone badania nad zastosowaniem sieci neuronowych do prognozowania finansowego w dzisiejszym zglobalizowanym środowisku handlu. Co sprawia, że ​​to szczególne wykorzystanie sztucznej inteligencji jest tak atrakcyjne dla analityków finansowych i przedsiębiorców Tu Lou Mendelsohn z Market Technologies podkreśla niektóre z tych kwestii i ustanawia cele dotyczące szkoleń sieci neuronowych. Wraz z postępami w dziedzinie technologii komputerowych i telekomunikacyjnych obecnie największe światowe gospodarki i rynki finansowe stają się coraz bardziej zglobalizowane. Wraz z przyspieszeniem tej tendencji rynki finansowe stają się coraz bardziej ze sobą powiązane, a podstawowe czynniki stają się coraz ważniejsze dla analizy rynku finansowego. Na globalnym rynku dominująca metoda analizy technicznej - w której model jednolitego rynku jest modelowany poprzez symulację historyczną i testowanie własnych przeszłych zachowań cenowych - gwałtownie traci swoją przewagę konkurencyjną, ponieważ instytucje i indywidualni przedsiębiorcy coraz częściej stosują sztuczne inteligencji (AI) do prognoz finansowych. Ostatnie badania wskazują, że ta nieliniowa domena może być bardziej precyzyjnie wzorowana na tych technologiach niż w przypadku liniowych metod statystycznych i jednolitego rynku, które stanowiły podstawę analizy technicznej w ciągu ostatniej dekady. To z powodu tych czynników, że dziedzina AI zasługuje na bliższe spojrzenie. Wynikiem tych nowych wymagań jest pojawienie się nowej metody analitycznej, która łączy analizę techniczną i fundamentalną, przy czym ostatni nacisk na analizę intermarketów. Ta połączona metoda analityczna znana jest jako synergistyczna analiza rynku lub analiza synergiczna. Ta nowa metoda analizy, wykorzystująca narzędzia sztucznej inteligencji, syntetyzuje dane techniczne, intermarket i podstawowe dane w ramach analitycznej, dając lepsze możliwości prognozowania i wcześniejszą identyfikację zmian trendów oraz umożliwiając handlowcom skorzystanie z nieefektywnych rynków na globalnych rynkach lat 90. Stosowane są takie narzędzia, jak sieci neuronowe, systemy eksperckie i oparte na wiedzy, uczenia maszyn, logika rozmycia, fali, teoria chaosu i algorytmy genetyczne w różnych branżach. W tym samym kontekście sieci neuronowe mogą być stosowane do prognozowania finansowego, ponieważ sieci neuronowe okazały się technologicznie wydajne i elastyczne, idealnie nadające się do przeprowadzania synergistycznej analizy. SZTUCZNE SIECI NEURALNE Sztuczne sieci neuronowe są modelami opartymi na pracy mózgu człowieka, wykorzystującym podejście do przetwarzania rozproszonego w obliczeniach. Sieci neuronowe potrafią rozwiązywać szeroki zakres problemów, ucząc się matematycznego modelu problemu: model może być następnie wykorzystany do mapowania danych wejściowych do danych wyjściowych. Wszystko, co może być reprezentowane jako liczba, może być wprowadzone do sieci neuronowej. Wskaźniki techniczne oraz dane podstawowe i cenowe związane z pojedynczym rynkiem docelowym, a także dane intergresywne mające wpływ na rynek docelowy mogą być wprowadzane do jednej sieci neuronowej i służyły do ​​przewidywania cen i kierunków rozwoju rynku docelowego. Sztuczne sieci neuronowe składają się z indywidualnie połączonych elementów przetwarzania (PE). Te Pes są analogiczne do neuronów w mózgu i są również określane jako neurony. Każdy PE wysyła dane z innych PE. Matematycznie mówiąc, standardowy model jest stosunkowo prosty. Dla każdego pojedynczego PE dane wejściowe (I0-In) są mnożone przez ciężar (W0-Wn) związany z połączeniem z PE. Produkty te z kolei są sumowane i przekazywane przez funkcję transferu, która konwertuje sumę na wartość w określonym przedziale - na przykład między zero a jednym. Wyjście z danego PE jest następnie pomnożone przez inną oddzielną masę i wprowadzane do następnego elementu przetwarzającego. Jeśli element przetwarzania znajduje się w warstwie wyjściowej, jak to miało miejsce na rysunku 1, wyjście z elementu przetwarzania nie jest mnożone przez ciężar, a zamiast tego jest wyjściem samej sieci. Wybrana architektura sieci neuronowej określa liczbę elementów przetwarzania obecnych w sieci i sposób ich łączenia. Ważne jest, aby rozpoznać, że pojedynczy element przetwarzania jest mało lub nie ma zastosowania. Jest to sposób, w jaki poszczególne PE są zorganizowane do modelowania złożonych układów nieliniowych, które są ważne w zastosowaniu sieci neuronowych do modelowania i prognozowania finansowego. PARAMETRY PARADIGMATYCZNE Sieci neuronowe można stosować do wielu ogólnych problemów, w tym klasyfikacji, filtrowania, powiązania wzorców, optymalizacji, konceptualizacji i przewidywania. Pierwszy krok w tworzeniu sztucznej aplikacji sieci neuronowej polega na określeniu kategorii, której dotyczy problem - niekoniecznie tak łatwo, jak się wydaje, ponieważ wiele różnych systemów sieci neuronowych jest bardziej odpowiednie niż inne dla danej aplikacji. Ponieważ naszym głównym celem jest prognozowanie cen i kierunków trendu, ten problem można zaklasyfikować jako predykcyjny. Wiele różnych paradygmatów można wykorzystać do celów predykcyjnych. Każdy z nich ma prawie nieograniczoną liczbę odmian, w zależności od wybranego parametru. Nie jest tak ważne, aby wybrać idealny paradygmat problemu - jeśli jest coś takiego - po prostu wybierz taki, który jest mniej lub bardziej odpowiedni. Teraz zbadaj dwa znane paradygmaty: sieci przesyłania zwrotnego i powrotu do sieci. SIEDLISKA WSPÓŁPRACA WSPÓŁPRACUJĄCA Siecią wielowarstwową w przód, zwykle określaną jako back-propagation lub back prop, sieć, jest prawdopodobnie najpopularniejszym paradygmatem sieci. Reprezentatywna architektura sieci przeciwpoślizgowej jest przedstawiona na rysunku 2. Sieci te składają się z warstwy wejściowej neuronów, niektórych ukrytych warstw i warstwy wyjściowej. Warstwy między wejściem a wyjściem nazywane są ukrytą warstwą, ponieważ są zasadniczo ukryte z punktu widzenia twórców sieci i użytkowników. Choć sieć oparcia może mieć dowolną liczbę ukrytych warstw, wystarczy wykonać dowolne odwzorowanie wejścia do wyjścia. To nie znaczy, że jedna ukryta warstwa jest zawsze najbardziej pożądaną liczbą, ale na pewno jest to dobry początek. Działanie sieci jest stosunkowo proste. Dane wejściowe - na przykład zmiany danych o cenach i średnie ceny, wielkości i otwarte zainteresowanie - są prezentowane w sieci na warstwie wejściowej. Wartości związane z każdym pojedynczym neuronem wejściowym są wprowadzane do pierwszej ukrytej warstwy. Każdy ukryty neuron otrzymuje te wartości, pomnożony przez odpowiednią wagę, sumuje je, uruchamia je poprzez funkcję przenoszenia i generuje wyjście. Wyjścia z ukrytej warstwy następnie przesuwają się do przodu do następnej ukrytej warstwy lub do warstwy wyjściowej. Ta prezentacja (RYSUNEK 2) zakłada, że ​​warstwy są w pełni połączone, w których każdy neuron w warstwie wejściowej ma połączenie z każdym neuronem w ukrytej warstwie. To samo dotyczy połączeń między warstwą ukrytą a warstwą wyjściową. Nie musi tak być, ale jest to kolejna decyzja podczas projektowania sieci. Wartości początkowe ciężaru są losowo wybierane w etapach szkoleniowych sieci neuronowej, a więc pierwszy zestaw wartości wejściowych (często nazywanych wektorem wejściowym) prawdopodobnie nie wytworzy odpowiedniego wektora wyjściowego. Załóżmy na przykład, że zaprojektowałeś sieć, aby przewidzieć średnią cenę zapasów jednego dnia w przyszłości, w oparciu o różnicę w wysokości i najniższych cenach w ciągu ostatnich dwóch dni i średnią ruchomą zamykania w ciągu ostatnich pięciu dni. Przedstawiłeś sieć z jednym faktem, składającą się z trójstopniowego wektora wejściowego, w którym każda wartość odpowiada jednemu z wymienionych wejść, a jednowymiarowym wektorem wyjściowym, który reprezentuje następującą liczbę dni mediana. W rezultacie pierwszy fakt prezentowany i podawany przez sieć może sprawić, że wyjście jest bardzo odmienne od pożądanego wyjścia. Chcemy, aby sieć dowiedział się, że wprowadzony wektor powinien zawierać czynniki, które ostatecznie dostarczyły dostarczonego wektora wyjściowego. W pierwszej próbie tego dokonać, sieć określa miarę błędu pomiędzy wygenerowanym wyjściem a pożądanym wyjściem. Odbywa się to dla każdego wyjścia w warstwie wyjściowej, która w tym prostym przypadku jest tylko jedną. Błędy są następnie przekazywane z powrotem przez sieć, warstwowo po warstwach i są używane do dostosowania ciężaru połączeń między neuronami w celu zminimalizowania całkowitego błędu związanego z wektorem wyjściowym. Następnie w sieci wielokrotnie powtarzane są różne fakty dotyczące stanu faktycznego, aby spróbować zmniejszyć błąd do akceptowalnego poziomu. W prostych problemach poziom błędu może być zmniejszony do zera, ale nie jest to realistyczne oczekiwanie w większości aplikacji rzeczywistych. Powtarzające sieci propagacji wstecznej Ten typ sieci składa się z jednej funkcjonalnej warstwy elementów przetwarzania. RYSUNEK 3 przedstawia dwuwarstwową reprezentację, która ułatwia wizualizację architektury. Zauważ, że neurony w pierwszej warstwie są w pełni połączone z neuronami w drugiej warstwie. Neurony w drugiej warstwie powracają do pierwszej warstwy za pomocą mapowania jeden do jednego. Druga warstwa oznacza opóźnienie czasowe dla przekazywania danych przez sieć. Ten typ architektury pozwala sieci na naukę stosunków doczesnych. Jeśli chcesz przedstawić fakty, które zawierają różnice w wysokościach w ciągu ostatnich pięciu dni, musisz utworzyć coś, co nazywa się migawką Twoich danych, budując fakt za pomocą danych wejściowych wektor zawierający pięć wartości (po jednej dla każdej różnicy) i wynik dla jutra. Musisz to zrobić na każdy fakt przedstawiony do sieci. W pewnym sensie kodujesz dane czasowe, które chcesz używać sieci (dane z ostatnich pięciu dni) do danych wejściowych. Natomiast w przypadku siatki nawrotowej, zamiast tego, zamiast tego kolejno przedstawiać każdy fakt jako jedną różnicę. Ponieważ sieć może się od siebie oprzeć, może nauczyć się informacji czasowych w wyniku kolejności przedstawiania faktów. W tym przypadku nie trzeba kodować związku czasowego w danych wejściowych. Przeprowadziliśmy znaczne badania zarówno w sieciach nawracających, jak i na kanale do karmienia, ale większość komercyjnych pakietów rozwojowych sieci neuronowych nie zawiera modelu nawracającego, więc skoncentrujemy się przede wszystkim na modelach pleców. Dla każdej nawracającej sieci istnieje odpowiednia sieć przesyłu danych, która może być zaprojektowana z identycznym zachowaniem, dzięki czemu siatka nawrotowa może być modelowana z siecią przesuwu. ARCHITEKTURA SIECIOWA Architektura sieci zawiera funkcję transferu, liczbę i układ elementów przetwarzania oraz sposób ich wzajemnego połączenia. Ogólne wymogi dotyczące funkcji transferowej w sieci przeciwprzepuszczalnej polegają na tym, że jest to funkcja nieliniowa, ciągle zróżnicowana - to jest funkcja, której pochodna istnieje w każdym punkcie, a jej funkcja pochodna pozwala sieciowi przeprowadzić nieliniowe modelowanie statystyczne. Najczęściej używanymi funkcjami transferowymi są sigmoidalne i styczne hiperboliczne: albo można je skutecznie wykorzystać w sieci przeciwpoślizgowej, chociaż często osiągamy lepsze wyniki z funkcją styczna hiperboliczna. Jeśli chodzi o układ i łączność, skoncentrujemy się na trójwarstwowej, w pełni połączonej architekturze, jak pokazano na FIGURZE 2. Oprócz funkcji transferu i liczby warstw musimy wybrać liczbę neuronów na warstwę, z wejściem i warstw wyjściowych, jest to proste. Załóżmy, że próbujesz przewidzieć zmianę w zamknięciu danego zasobu i chcesz to zrobić na podstawie pięciodniowej średniej ruchomej z bliska, pięciodniowej średniej ruchomej średniej ruchomej średniej i pięciodniowej z niskim. Twoja sieć wymagałaby trzech neuronów wejściowych i jednego neuronu wyjściowego. W przypadku dowolnego nieliniowego problemu, takiego jak prognozowanie cen zapasów lub towarów, sieć potrzebuje co najmniej jednej ukrytej warstwy. Wybór liczby neuronów w ukrytej warstwie (-ach) sieci back-propagation jest tylko jednym z podejmowanych decyzji architektonicznych. Żadnych twardych i szybkich reguł nie można ustalić prawidłowego numeru, więc musimy polegać na surowych zasadach lub eksperymentach albo na obu. Często bardziej skomplikowane problemy wymagają większej liczby ukrytych neuronów, ale odkryliśmy, że zbyt wiele ukrytych neuronów może spowodować, że sieć sieciowa jest nadmiernie dopasowana do danych szkoleniowych i raczej nie będzie dobrze wykonywać nowych niewidocznych faktów używanych do testowania. Skąd pochodzimy stąd Jak wybrać miejsce rozpoczęcia Możesz rozważyć kilka wytycznych dla branży: zacznij od kilku ukrytych neuronów między połową liczby neuronów wejściowych a dwukrotnie większej liczby neuronów wejściowych. Zacznij od średniej liczby wejść, a także liczby wyjść lub po prostu weź maksimum tych dwóch. Suma liczby neuronów wejściowych i wyjściowych, a następnie pomnożyć tę wartość przez stałą hałasu, która zmienia się w zależności od względnej ilości hałasu w danych. Im głośniej dane, tym wyższa stała. Wynik jest następnie podzielony na całkowitą liczbę dni faktycznych wykorzystywanych do szkolenia. Wybieranie początkowego punktu początkowego liczby ukrytych neuronów może być subiektywne. Po wykonaniu tej czynności będziesz musiał trenować wiele sieci, zmieniając liczbę i rozmiar ukrytych warstw. Robienie tego ręcznie może być wskazane dla przedsiębiorców dopiero rozpoczynających projektowanie własnych sieci neuronowych, ponieważ pomoże to lepiej poznać kompromisy związane z różnymi wartościami parametrów szkolenia, w tym liczbą ukrytych jednostek. Gdy zdobędziesz więcej doświadczenia, będziesz chciał zautomatyzować ten proces, ponieważ znalezienie optymalnej liczby ukrytych neuronów wymaga czasochłonnego systematycznego wyszukiwania. Przy rozwijaniu sieci neuronowych żaden pojedynczy czynnik, na przykład liczba ukrytych jednostek, nie determinuje ostatecznie, jaka będzie skuteczność sieci. Wybór i jakość danych, techniki prekursorów danych, optymalizacja parametrów szkolenia i procedur testowania mają wpływ na wydajność sieci. Kwestie te będą dokładniej zbadane w późniejszych artykułach, a także wiele problemów, które mogą pojawić się na każdym etapie rozwoju sieci neuronowej. Następnie przedstawię ważne kwestie dotyczące danych technicznych, podstawowych i intergresywnych stosowanych w sieciach neuronowych, a także zbadam metody selekcji surowego materiału wejściowego i wstępne przetwarzanie tych danych wejściowych przed ich wejściem w sieć. Lou Mendelsohn jest prezesem Market Technologies, Wesley Chapel, Fl. firmą zajmującą się badaniami, rozwojem i konsultingiem zajmującą się zastosowaniem sztucznej inteligencji do synergistycznej analizy rynku. Można go osiągnąć pod numerem 813-973-0496. REFERENCJE Hecht-Nielsen, R. 1990. Neurocomputing, Addison-Wesley Publishing Company, Inc. Mendelsohn, Lou 1991. Podstawy opracowywania systemu neuronowego, analiza techniczna STOCKS amp roli, tom 9: JUNE Murphy, John J. 1991 Analiza techniczna Intermarket, John Wiley amp Sons. Rumelhart, D. E. amp J. L. McClelland 1986. Równoległe przetwarzanie rozproszone, tomy 1 i 2, Massachusetts Institute of Technology. Wydrukowany z magazynu Technical Analysis of Stocks i Commodities. (C) 1993 Technical Analysis, Inc., 4757 California Avenue S. W. Seattle, WA 98116-4499, (800) 832-4642.

No comments:

Post a Comment