Thursday 7 September 2017

Optimering Of Handel System Och Portföljer


Optimering av handelssystem och portföljer. Citation Citations 32.References References 5.Researchstudier har tenderat att fokusera på handelssystem eller portföljbyggnadsmetoder eller multi-agent-system Smeureanu et al 2012 separat Några har optimerade handelssystemportföljer Moodyand, Lizhong 1997, Dempster, Jones 2001 men väldigt få har tagit hand om storskaliga handelssystemportföljoptimeringsproblem Perold 1984 Multi-agent-system används sällan i handel, men tillfälliga exempel kan hittas Arajo, de Castro 2011. Visa abstrakt Dölj abstrakt ABSTRAKT För att förstå stora Omfattande portföljkonstruktionsuppgifter vi analyserar hållbara ekonomiproblem genom att dela upp stora uppgifter till mindre och erbjuda ett evolutionellt system för frammatning av systembaserade lösningar. Den teoretiska motiveringen för vår lösning bygger på multivariat statistisk analys av flerdimensionella investeringsuppgifter, särskilt om relationerna mellan data Storlek, algoritmkomplexitet och portfölj eff Icacy För att minska dimensionsprovstorleksproblemet delas en större uppgift ned i mindre delar med hjälp av objektlikhetskluster. Liknande problem ges till mindre grupper för att lösa Grupper, men varierar i många avseenden. Pseudo slumpmässigt bildade grupper skriver ett stort antal Av moduler av frammatningsbeslutssystem Utvecklingsmekanismen utgör samlingar av de bästa modulerna för varje enskild kortperiod. Slutliga lösningar överförs till den globala skalan där en samling av de bästa modulerna väljs med en multiklass kostnadskänslig perceptron Samlade moduler kombineras i en slutlig lösning i ett lika vägt angreppssätt. 1 N Portfölj Effekten av det nya beslutsfattandet visades genom ett finansiellt portföljoptimeringsproblem, vilket gav tillräckliga mängder av verkliga världsdata. För portföljkonstruktion använde vi 11 730 simulerade Handelsrobotföreställningar Datasetet omfattade perioden 2003-2012 när miljön Förändringar var frekventa och i stor utsträckning oförutsägbara. Framgångsförfaranden och experiment utanför experiment visar att ett tillvägagångssätt baserat på principer för hållbar ekonomi överträffar referensmetoder och att kortare agenterutbildningshistoria visar bättre resultat i perioder av en föränderlig miljö. Fulltext Artikel jan 2014.Raudys Aistis Raudys Pabarkait. L Xu, 2003 Optimering av finansiella portföljer ur ett perspektiv av gruvor i temporära strukturer av aktieavkastning, i P Perner och A Rosenfeld, eds Maskininlärning och datavinnning i mönsterigenkänning - MLDM 2003, sid 266-275, LNAI 2734, Springer Verlag Precis som andra grundläggande problem i finansiell analys var det optimala urvalet av portföljselektronik motståndskraftigt mot forskare från artificiella neurala nätverk och maskininlärning.3456 Med hjälp av neurala nätverksmetoden krävs att optimala parametrar lär sig adaptivt över tiden. Visa abstrakt Dölj abstrakt ABSTRAKT Sammanfattning I det här dokumentet syftar vi till att introducera hur en av de nyligen utvecklade statistiska inlärningsteknikerna, temporal faktor analysis TFA, som ursprungligen ägde rum för vidare studier av arbitrageprissättningsteorin APT, skulle kunna utnyttjas i finansiell Data mining för att bestämma vikter i portföljoptimeringsproblem Vidare studerar vi flera varianter av APT-baserad Sharpe-kvotmaksimeringsteknik som utnyttjar begreppen risker för portföljens nackdel och uppåtgående volatilitet skräddarsydd för att det behövs riskavvikande och aggressiv vinst - söker investerare. Fulltext-konferenspapper Jul 2003. Kai Chun Chiu Lei Xu. Linär regression av hålltid till MS-förhållandet på alla marknader gav en korrelationskoefficient av - 48 Detta överensstämmer med resultaten i 1 och 4 Vilket visade att RRL-utbildning anpassar handlarna till högre transaktionskostnader genom att minska handelsfrekvensen. I fallet med valutahandel betyder ett lägre MS-förhållande S att spridningen är en relativt högre motsvarande transaktionskostnad och vi borde förvänta oss att handelsfrekvensen ska minskas. Visa abstrakt Dölj abstrakt ABSTRAKT Denna studie undersöker högfrekvent valutahandling med neurala nätverk utbildade via återkommande förstärkningsinlärning RRL Vi jämför prestanda för enkla lager nätverk med nätverk som har ett dolt lager och undersöker effekterna av de fasta systemparametrarna på prestanda i allmänhet vi Slutsatsen att handelssystemen kan vara effektiva, men resultatet varierar kraftigt för olika valutamarknader och denna variabilitet kan inte förklaras av enkel statistik på marknaderna. Vi finner också att nätverket med enkla lager överträffar tvåskiktet i denna applikation. Konferenspapper Apr 2003 Teknisk och ekonomisk utveckling av ekonomi. Av John Moody, Matthew Saffell 2001. Vi presenterar metoder för att optimera portföljer, tillgångsfördelningar och handelssystem baserade på direkt förstärkning DR. I detta tillvägagångssätt betraktas investeringsbeslut som ett stokastiskt kontrollproblem, och strategier upptäckes direkt Vi presenterar en annons Aptitlig algoritm som kallas återkommande r. Vi presenterar metoder för optimering av portföljer, tillgångsallokeringar och handelssystem baserade på direkt förstärkning DR. I detta tillvägagångssätt betraktas investeringsbeslut som ett stokastiskt kontrollproblem och strategier upptäcks direkt. Vi presenterar en adaptiv algoritm som kallas Återkommande förstärkningslärande RRL för att upptäcka investeringspolitik Behovet av att bygga prognostiseringsmodeller elimineras och bättre handelsprestanda erhålls. Den direkta förstärkningsmetoden skiljer sig från dynamiska programmerings - och förstärkningsalgoritmer såsom TD-lärande och Q-lärande som försöker uppskatta ett värde Funktion för kontrollproblemet Vi finner att RRL-direktförstärkningsramen möjliggör en enklare problemrepresentation, undviker Bellmans ansträngning av dimensioner och erbjuder övertygande fördelar i effektivitet. Vi visar hur direkt förstärkning kan användas för att optimera riskjusterade avkastningar, inklusive skillnaden Sh Arpe-förhållandet medan man redovisar effekterna av transaktionskostnaderna I omfattande simuleringsarbeten med hjälp av reella finansiella data finner vi att vårt tillvägagångssätt baserat på RRL ger bättre handelsstrategier än system som använder Q-Learning en värdefunktionsmetod. I verkliga applikationer ingår en intra - daglig valutahandlare och ett månatligt tillgångsallokeringssystem för S ampP 500 Stock Index och TBills. by Blake Lebaron 1998. Detta papper kombinerar tekniker som dras från litteraturen om evolutionella optimeringsalgoritmer tillsammans med bootstrap-baserade statistiska test. Bootstrapping och cross validation används Som en allmän ram för uppskattning av mål ur prov genom att subrapportera deluppsättningar från ett träningsexempel Evolu. Detta papper kombinerar tekniker som hämtats från litteraturen om evolutionella optimeringsalgoritmer tillsammans med uppstartsbaserade statistiska test. Bootstrapping och cross validation används som en allmän ram för uppskattning av mål Ur urvalet genom att dra in delmängder från en tr Aining-prov Evolution används för att söka efter det stora utrymmet i potentiella nätverksarkitekturer Kombinationen av dessa två metoder skapar ett nätverksuppskattnings - och urvalsförfarande som syftar till att hitta parsimoniska nätverksstrukturer som generaliserar väl. Exempel ges från finansiella data som visar hur detta jämförs med mer traditionella Modelleringsmetoder Metoden för bootstrap tillåter också mer allmänna objektfunktioner än vanliga minsta kvadrater eftersom det kan uppskatta det i provförskjutningen för någon funktion. Vissa av dessa kommer att jämföras med traditionella minsta kvadratbaserade uppskattningar i dynamiska handelsinställningar med utländsk växelserie 1 1. Shirani 1994 3 Tidiga resultat visar att de är ett effektivt verktyg i simulerade tidsserieprognoser med hjälp av Henon-data LeBaron 1997 4 De senaste tidningarna från Bengio 1997, Choey Weigend 1997 och - Moody Wu 1997- - är tydligt inspirerande här Andra senaste exempel på att titta på Viktigheten av andra förlustfunktioner finns i Granger Pesara N 1996 1 Strategi vid tiden t 1 skulle vara strt 1, 1 where. by Amir F Atiya, Alexander G Parlos - IEEE TRANS NEURAL NETWORKS 2000. Att effektivt utbilda återkommande nätverk är fortfarande ett utmanande och aktivt forskningsämne. De flesta av de föreslagna utbildningsförfarandena är baserad på beräkningsmetoder för att effektivt få gradienten av felfunktionen och kan generellt grupperas i fem huvudgrupper. I denna studie förutspår vi hur effektivt träna återkommande nätverk är ett utmanande och aktivt forskningsämne. De flesta av de föreslagna utbildningsförfarandena bygger på på beräkningsmetoder för att effektivt få gradienten av felfunktionen och kan generellt grupperas i fem huvudgrupper I denna studie presenterar vi en derivation som förenar dessa tillvägagångssätt Vi visar att tillvägagångssätten är endast fem olika sätt att lösa en viss matrisekvation Det andra målet för detta dokument är att utveckla en ny algoritm baserad på insikterna från den nya formuleringen Den nya algoritmen M som bygger på approximering av felgradienten, har lägre beräkningskomplexitet vid beräkning av viktuppdateringen än de konkurrerande teknikerna för de flesta typiska problem. Dessutom når det felminimum i ett mycket mindre antal iterationer. En önskvärd egenskap av återkommande nätverksutbildning Algoritmer är att kunna uppdatera vikterna på ett onlinemodus Vi har också utvecklat en onlineversion av den föreslagna algoritmen, som bygger på uppdatering av felgradientnätet på ett rekursivt sätt. Av Thomas Hellstrm, Kenneth Holmstrm 1999 . I detta dokument beskrivs ASTA, en artificiell handelshandelsagent i Matlabs programmiljö. Projektets huvudsakliga syfte är att tillhandahålla en stabil och realistisk testbänk för utveckling av algoritmer för aktiehandel. Agents beteende styrs av en Hög nivå langua. This paper beskriver ASTA, en Artificial Stock Trading Agent, i Matlab programmeringsmiljö. Det primära syftet med t Projektet är att tillhandahålla en stabil och realistisk testbänk för utveckling av algoritmer för aktiehandel. Agents beteende styrs av ett språk på hög nivå som lätt kan utökas med användardefinierade funktioner. Köp - och försäljningsreglerna kan vara sammansatt interaktivt och olika typer av datascreening kan enkelt utföras, allt inom Matlabs m-filspråkliga syntax Förutom Haizhon Li, Robert Kozma - Förlopp från 2003 års internationella konferens om neurala nätverk 2003. Sammanfattning I det här dokumentet KIII dynamiska neurala nätet introduceras och det tillämpas på förutsägelsen av komplexa temporala sekvenser. I vårt tillvägagångssätt ger KIII en stegvis förutspårning av riktningen för valutakursförändringen. Tidigare har olika multiplayer-perceptron MLP net. Papper, introduceras det KIII dynamiska neurala nätverket och det tillämpas på förutsägelsen av komplexa temporala sekvenser. I vårt tillvägagångssätt ger KIII en stegvis förutspådning av Valutakursförändringens riktning Tidigare har olika multiplayer-perceptron MLP-nätverk och återkommande neurala nätverk implementerats framgångsrikt för denna applikation. Resultat som erhållits av KIII jämförs positivt med andra metoder. Till följd av den höga ljudnivån och den icke-stationära karaktären hos Data, finansiell prognos är en utmanande ansökan i tidsserien förutsägningsdomän Olika metoder används i denna applikation - 4,5,6,7,9,10 - - I detta arbete använder vi KIII-modellen för att förutsäga en stegriktning Av den dagliga valutakursen De data vi använde är från 4 Experimentresultaten visar klassificeringskapaciteten hos KI. by Nicolas Chapados, Yoshua Bengio - IEEE Transactions on Neural Networks 2000. Vi presenterar en ram för tillgångsfördelningen baserad på aktiv kontroll av Portföljens värde-på-risk Inom ramen för detta jämför vi två paradigmer för att göra fördelningen med hjälp av neurala nätverk. Den första använder nätverket för att göra en för ecast av tillgångsbeteende i samband med a. Vi introducerar en ram för tillgångsallokering utifrån den aktiva kontrollen av portföljens värde-på-risk I denna ram jämför vi två paradigmer för att göra fördelningen med hjälp av neurala nätverk Den första använder nätverket för att göra en prognos över tillgångsbeteendet i kombination med en traditionell medelvariantfördelare för att bygga portföljen. Det andra paradigmet använder nätverket för att direkt fatta beslut om portföljallokering. Vi överväger en metod för att utföra mjukinmatningsvariabler och visa Dess betydande nytta Vi använder modelleringskommittémetoder för att systematisera valet av hyperparametrar under träning. Vi visar att kommittéer som använder båda paradigmerna, överträffar marknadens prestanda. 1 Inledning I finansapplikationer är idén att utbilda inlärningsalgoritmer enligt kriteriet av intresse sådan Som vinst snarare än ett generiskt förutsägelseskriterium, har gai Nedre intresse de senaste åren I. kriterium har blivit intresserad de senaste åren I tillgångsfördelningsuppgifter har detta tillämpats på utbildningsnätverk för att direkt maximera en Sharpe-andel eller andra riskjusterade vinståtgärder - 1,3,10 - - En sådan riskmått som nyligen har fått stor uppmärksamhet är portföljens värdebaserade VaR, som bestämmer det maximala belopp som vanligtvis mäts i att portföljen av John Moody, Yufeng Liu, Matthew Saffell, Kyoungju Youn - In Proceedings av Artificial Multiagent Learning Papers från 2004 AAAI Fall Symposium 2004. Vi undersöker upprepade matrisspel med stokastiska spelare som mikrokosmos för att studera dynamiska interaktioner med flera agenter med hjälp av Stochastic Direct Reinforcement SDR-policygradientalgoritmen SDR är en generalisering av Recurrent Reinforcement Learning RRL Som stöder stokastisk politik U. Vi undersöker upprepade matrisspel med stokastiska spelare som mikrokosmos för att studera dynamiskt, multi-agent inte raktioner med hjälp av SDR-policygradientalgoritmen SDR är en generalisering av RRL för återkommande förstärkningslära som stöder stokastiska policies Till skillnad från andra RL-algoritmer använder SDR och RRL återkommande policygraderingar för att korrekt adressera tidsmässig kredituppgift som följer av återkommande struktur. Våra huvudsakliga mål i detta papper ska 1 skilja på återkommande minne från standard, återkommande minne för policygradienten RL, 2 jämföra SDR med inlärningsmetoder för Q-typ för enkla spel, 3 skilja reaktivt från endogent dynamiskt agenterbeteende och 4 utforska användningen av återkommande lärande för att interagera , dynamiska agenter Vi upptäcker att SDR-spelare lär sig mycket snabbare och därmed överträffar föreslagna Q-typ-elever för det enkla spelet Rock, Paper, Scissors RPS Med mer komplexa, dynamiska SDR-spelare och motståndare visar vi att återkommande representationer och SDR s återkommande politiska gradienter ger bättre prestanda än engångsspelare för Iterated Prisoners Dilemma visar att icke-återkommande SDR-agenter bara lär sig att defekter Nash-jämvikt, medan SDR-medel med återkommande gradienter kan lära sig en mängd intressanta beteenden, inklusive samarbete 1.ealing, kan Q-Learning inte enkelt uppskalas till Stora tillstånd eller åtgärdsområden som ofta förekommer i praktiken Direkt förstärkning DR-metoder, politisk gradient och politisk sökning Williams 1992 - Moody Wu 1997- - Moody et al 1998 Baxter Bartlett 2001 Ng Jordan 2000 representerar politik uttryckligen och kräver inte att en värdefunktion lärs Politiska gradientmetoder försöker förbättra politiken by. by John Moody, Matthew Saffell - I KDD 1998. Vi föreslår att träna handelssystem genom att optimera fi nansiella objektivfunktioner via förstärkningslära. Prestationsfunktionerna som vi betraktar som värdefunktioner är vinst eller förmögenhet , Sharpe-förhållandet och vårt nyligen föreslagna differential Sharpe-förhållande för online-lärande I Moody W. We föreslår att träna handelssystem upp Timing fi nanciella objektivfunktioner via förstärkningsinlärning Prestationsfunktionerna som vi betraktar som värdefunktioner är vinst eller förmögenhet, Sharpe-förhållandet och vårt nyligen föreslagna differential Sharpe-förhållande för online-lärande. I Moody amp Wu 1997 presenterade vi empiriska resultat i kontrollerade experiment som visade fördelarna med förstärkningsinlärning i förhållande till övervakat lärande Här utökar vi vårt tidigare arbete för att jämföra Q-Learning till en förstärkningslärande teknik baserad på realtids återkommande lärande RTRL som maximerar omedelbar belöning Vår simulering Resultatet inkluderar en spektakulär demonstration av förekomsten av förutsägbarhet i monthly. by N Towers, EN Burgess - Computational Finance Förhandlingar av den sjätte internationella konferensen om beräkningsfinansiering 1999. I det här dokumentet genomför vi handelsstrategier för prognosprognosmodeller som använder parametrerade beslutsregler Vi utvecklar en syntetisk handelsmiljö för att undersöka De relativa effekterna med avseende på lönsamhet, att modifiera prognosmodellen och beslutsregeln. Vi visar att imp. In denna uppsats genomför vi handelsstrategier för prognosprognosmodeller med parametrerade beslutsregler Vi utvecklar en syntetisk handelsmiljö för att undersöka de relativa effekterna , Vad gäller lönsamhet, att ändra prognosmodellen och beslutsregeln. Vi visar att genomförandet av handelsregeln kan vara lika viktigt för handelsprestanda som prognosmodellen. Vi tillämpar dessa tekniker till ett exempel på en prognosmodell genererad från en kvartals kvotstatistisk prissättningskvot på en kombination av aktieindex Resultatet visar att optimering av beslutsregler kan förbättra handelsprestandan avsevärt, med en årlig Sharpe Ratio som ökar med en faktor två över en handelsregel för att uppnå denna nivå av prestationsökningen genom prognosmodellen ensam skulle kräva en 50 imp inledning i prognosnoggrannhet 1 Inledning Under de senaste åren har en väsentlig mängd forskning gjorts i samband med prognosmodellen och därefter en beslutsfas som omvandlar prognosinformationen till en åtgärd som i detta fall ändrar handeln position Som ett alternativ är Moody in - 3 - och Choey Weigend i 4 exempel på metoder som kombinerar dessa två steg i en. Dessa handelsstrategier använder en enda modell för att genomföra en gemensam optimering över både prognoserna av Thomas Hellstrm 1998. I det här dokumentet beskrivs principerna bakom och genomförandet av ASTA, en artificiell aktiehandelsagent som är skrivet i Matlab-språket. Det främsta syftet med projektet är att tillhandahålla en användarvänlig miljö för att utveckla algoritmer för aktiehandel. Detta dokument beskriver Principer bakom och genomförandet av ASTA, ett Artificial Stock Trading Agent skrivet på The Matlab-språk Projektets huvudsakliga syfte är att tillhandahålla en lättanvänd miljö för att utveckla multi-stock trading algorithms. by N Towers, EN Burgess 1998. I samband med en dynamisk handelsstrategi är det yttersta syftet med någon prognosmodell att välja åtgärder som resulterar i optimering av handelsmål I detta papper utvecklar vi en metod för att optimera en objektiv funktion med hjälp av en parametrerad beslutsregel för en given. I samband med en dynamisk handelsstrategi är det yttersta syftet med varje prognosmodell att välja åtgärder som resulterar i optimering av handelsmålet I denna uppsats utvecklar vi en metod för att optimera en objektiv funktion med hjälp av en parametrerad beslutsregel för en given prognosmodell. Vi simulerar förväntat handelsprestanda för olika beslutsparametrar och nivåer av förutsägelsesnoggrannhet. Vi tillämpar sedan tekniken på en Prognosmodell för felprissättning inom en grupp av aktieindex Vi visar att optimering av den föreslagna beslutsregeln kan öka a nnualised Sharpe Ratio med en faktor på 7 över en naiv beslutsregel. av Kai Chun Chiu, Lei Xu - i JR Dorronsoro Ed Artificial Neural Networks-ICANN 2002, LNCS 2415 2002. Sammanfattning Adaptiv portföljförvaltning har studerats i litteraturen om neurala nät och maskininlärning Den nyligen utvecklade Temporal Factor Analysis TFA-modellen som huvudsakligen är inriktad på vidare studier av Arbitrage Pricing Theory APT har visat sig ha potentiella applikationer i portföljman. Abstrakt Adaptiv portföljhantering har studerats i litteraturen om neurala nät och maskininlärning. Nyutvecklad Temporal Factor Analysis TFA-modell som huvudsakligen är inriktad på vidare studier av Arbitrage Pricing Theory APT har visat sig ha potentiella applikationer inom portföljhantering. I det här dokumentet strävar vi efter att illustrera APT-baserad portföljhanterings överlägsenhet över avkastningsbaserad portföljhantering 1.e traditionell Markowitz s portföljteori 8 i samband med konstgjorda neurala nätverk I litteraturen adaptiv portföljhantering via maximering av det välkända Sharpe-förhållandet 4 studerades i - 1, 2 - - Sådana metoder behandlar antingen vikterna som konstanter eller beror direkt på säkerhetsavkastningen. Nyligen var en ny teknik som kallades Temporal Factor Analysis TFA Föreslagen av 5 med en.

No comments:

Post a Comment