Wednesday 7 March 2018

깊은 기계 학습을 이용한 거래 전략


심층 기계 학습을 이용한 거래 전략
Thomas Wiecki는 몇 년 전에 이것을 언급했습니다 (공백을 생략 했으므로 & quot; ApplyingdeepLearningtoEnhanceMomentumTradingStrategiesinStocks를 찾으십시오).
Takeuchi, L., Lee, Y. (2013). 주식에있는 기세 무역 전략을 강화하기 위하여 깊은 배우기 적용.
우리는 개별 주식 가격의 역사에서 피쳐를 추출하기 위해 스택 된 제한된 볼츠만 머신으로 구성된 자동 인코딩을 사용합니다. 우리 모델은 광범위한 입력 기능의 수작업 공학없이 주식의 운동량 효과의 향상된 버전을 발견하고 1990-2009 테스트 기간 동안 45.93 %의 연간 수익률을 제공하는 반면 기본 모멘텀은 10.53 %를 제공합니다.
데이터 과학 헤드를 가진 사람이 Q 버전을 만들 수 있습니까?
완전히 매력적입니다. 이 단계에서 나는 논평 할 수 없지만 대답을 검색해야 할 많은 질문이 있습니다. 나에게 가장 흥미로운 문장은 다음과 같다.
우리의 모델은 단순히 재발견하는 것이 아닙니다.
주식 가격의 알려진 패턴이지만, 무엇을 넘어 가고 있는지.
인간은 성취 할 수 있었다.
심도 깊은 학습을 통해 간단한 수익률을 얻고 '예측'을 개선 할 수 있습니까? 간단한 운동량 전략을 적용하여 만들었습니까? 이 논문은 그러한 경우를 나타내는 것으로 보인다.
종이를 두 번 또는 세 번 읽었을 때 나는 각 "스택"이 무엇인지 정확히 알지 못한다. 실제로 결론은 어떤 종류의 결론에 결국 공중제비가 될 것입니다.
행복하게, 이 신문은 내가 지금까지 한 매우 지루한 연구에서 은퇴하기로 결정했을 때 나온다. 나는 "배울"것을 결정했다. 인공 지능과 깊은 학습. 또는 적어도 시도하십시오.
나는 주가의 장기 예측에 어떤 적용을하고 있는지 확신 할 수 없지만이 기사는 그렇지 않다고 제안하는 것으로 보인다. 나는이 연구가 실제로 Eldorado를 발견했는지 또는 금융 시장에서 대부분의 다른 연구원들처럼이 연구를 무의미하게 만들 다른 요인들이 작용하고 있는지를 알아낼 것으로 기대한다.
강력한 GPU가 연결된 컴퓨터에서 노트북 / 알고리즘을 실행할 수없는 경우 Quantopian 데이터에 대한 심 신경 네트워크 교육이 어려울 수 있습니다.
관련 거래 데이터에 오프라인으로 액세스 할 수있는 경우 비 양자 컴퓨터에서 그물을 훈련시킨 다음 결과 그물을 양자 화면 프레임 워크에서 실행하기 위해 scipy로 변환 할 수 있습니다.
스탠포드 (Stanford)에서 시장에 적용된 깊은 학습에 관한 다른 몇 가지 논문을 읽는 것은 매우 흥미 롭습니다. 참조 된 논문은 거래가 다음 달에 승자 또는 패자로 끝날 지에 대한 분류 정확도가 50 %를 넘습니다. 그냥 가격을 입력으로 사용합니다.
모델은 클래스 1과 클래스 2를 예측할 때 시간의 53.84 %가 정확합니다.
클래스 2를 예측할 때 시간의 53.01 %보다 다소 낮습니다.
전형적으로 꾸미지 않은 구식의 추세를 따르는 전형적으로 전략은 승자를 움직이고 패자를 깎아 내면서 40 %의 승리하는 거래와 이익을 제공한다고 생각하십시오.
2013 년에 효과가 있었다면 더 이상 효과가 있습니까? 나는 은행과 증권 회사가 그런 식의 코드를 작성하는 PhD 군대를 가질 것이라고 생각한다.
많은 사람들이 그렇게 생각합니다. 그리고 당신이 의미하는 바를 압니다. 그러나 그것이 사실이라면 당신은 완전히 포기할 수도 있습니다. 콴토 피안도 그렇습니다. 나는 그것이 여전히 효과가 있는지는 모르지만 연구를 복제하려고합니다. 내가 확신하는 것은 내 자신의 무지이다.
거기에 스레드가 한 동안 다시 하나의 주식에 기계 학습 라이브러리 중 하나를 사용하여 이것을 시도 :
정권과 기계 학습을 통한 가격 변동 예측.
시작할 수있는 좋은 장소 일 수 있습니다.
그것은 아주 느리게 실행됩니다. 속도를 높이기 위해 EOData (또는 다른 사이트)에서 가격 데이터를 다운로드하고 자신의 컴퓨터에서 가격 데이터를 사용할 수 있습니다.
Anthony, 나는이 Python 기계가 코드 (그리고 관련된 MOOC 과정)를 배우는 것을 발견했고, 그것이 유용하다고 생각할 것이라고 생각했다 : johnwittenauer / machine-learning-exercises-in-python-part-1 /
또 다른 그룹은 더 정확한 정확도를 기록했습니다 (82 % 대 53 %). 품질에 대한 확신이 없습니다.
아마 구현에 관해서는 저자에게 문의 할 수있을 것입니다.
RBM은 deepnet을 사용하여 R로 수행 할 수 있습니다.
흥미 롭 군. Springer 링크의 방법론은 입력으로만 가격을 기준으로 합니다만, 이보다 훨씬 더 정확한 것은 놀랄 필요가 없습니다. Lee 프로젝트가 1 개월 앞당겨지는 반면, 이것은 1 분 전에 예측됩니다.
Python, Keras 및 Theano에 집중하고 있습니다. 뿐만 아니라 skLearn.
그 종이는 어딘가에서 자유롭게 구할 수 있습니까?
Anthony - 네, 차이점을 구현했습니다. 파이썬은 필요하다면 R을 호출 할 수있다. 파이썬에 PDNN을 사용해 보셨습니까?
나의 현재 지식은 유아이다. 처음부터 전체 주제에 대해 처음부터 ANN을 작성하여 일부 Noddy 교과서 사용 경험을 얻으 려합니다. RBM을 비롯하여 모든 ML 기술을 유용하게 활용할 수 있도록 전체 분야에 관심을 기울였습니다.
장기 투자에 관한 한 모든 것이 시간 낭비라고 할 수 있습니다. 또는 내 웹 사이트에 설명 된 50/50 시스템보다 위험 조정 수익률이 더 좋을 수는 없습니다.
그러나 우리는 보게 될 것이다. 나는 다른 사람들처럼 불을 끄고 싶어하지만 경험을 통해이 벤처 기업들은 일반적으로 기대했던 것보다 다르게 밝혀진다는 것을 알고 있습니다!
내가 조금 더 아래로 내려 가면 Takeuchi Lee와 연락을 취해 그 전략에 대해 그가 무엇을했는지 볼 것이다. 그가 실제로 거래했는지 궁금하네요? 자신이나 고용주를위한 것.
패트릭 : 고마워.
Gosh, 나는 방금 참고 문헌에서 이것을 알아 차렸다.
교육 및 테스트에 사용되는 데이터는 AAPL tick-by-tick 트랜잭션입니다.
2008 년 9 월부터 11 월까지
3 개의 재고가 3 개월 동안 테스트되었습니다! 놀랍지 만 그보다 조금 더 나아지지는 못했지만 다른 주식과 기간에 대해 같은 결과를 얻었을 것입니다.
안녕 안토니와 그룹. 두 가지 문제 :
이 성과를 달성하는 데 몇 번의 시련이 있었습니까? 그것은 명확하지 않다. 원하는 결과를 얻을 때까지 RBM의 매개 변수를 조정 했습니까? 그들이 쟁점이되지 않는다고 주장하는 미리보기 편향 외에도 데이터 스누핑과 선택 편향도 있습니다. 사실 선택 바이어스는 상당히 클 수 있습니다.
이 논문은 2013 년 말에 출판되었지만 시험 샘플 샘플은 2009 년에 끝났습니다. 2000 년과 2008 년 베어 마켓에서의 단기 판매로 인한 성과를 제외하고는 그 이유가 없습니다. 2009.
Glabadanidis가 추진력의 초과 성과를 얻으려는 주장은 Zakamulin 교수가 계산에서 미리보기 편견이 있음을 보여준 후에 최근에 비난을 받았습니다. 필자의 최근 논문 인 papers. ssrn / sol3 / papers. cfm? abstract_id = 2810170에서 높은 t-stats를 야기하는 특수한 시장 상황에 관한이 문제 및 기타 문제에 대해 더 자세히 설명합니다.
Lee 등이 제안한 기술을 누군가가 조사한 적이 있습니까? 이동 (무료 Quandl 데이터 사용) 중이지만 따르기가 어렵습니다. 나는 ML 측면을 다룰 수있다. 그러나 데이터를 어떻게 포장하는지 잘 모르겠습니다.
나는 다음과 같이 생각한다.
특정 주식에 대해 주어진 특정 순간에 대해 우리는 그 주식에 대한 일일 데이터의 이전 13 개월 가치 (및 후속 1 개월 가치)를 사용하여 (표시) 훈련 항목을 구성 할 수 있습니다.
우리는이 데이터를 사용하여 월간 누적 월간 12 개월 누적 수익을 창출합니다. 그래서 Adj_Close 가격을 매일 추가하고 & nbsp; 30 분마다 값을 내뱉습니다. 이제 재미 있어요. 이들은 현재 다른 모든 주식에 대해 동일한 작업을 수행하고이 집합에 대한 주식의 z - 값 (즉, 평균과 표준 편차)을 얻습니다. 따라서이 z 값의 움직임은 전체 시장에 비해이 특정 주식의 성장을 보여줍니다. 알고리즘은 시장에 일정 금액의 돈을 투자하고 주식 간을 이동하기 때문에 원하는 것입니다!
그들이 월간 누계 12 개마다 이것을하는 것처럼 보입니다.
그리고 나서 그들은 이전 30 일 동안 동일한 과정을 수행합니다.
당신이 NN에 (-1, +1) 범위에 대해 평균 0 라운드로 데이터를 공급하기를 원하기 때문에 그것은 실제로 의미가 있습니다.
그래서 그것은 입력 데이터를 다룹니다. ( '연도 시작'플래그가 하나 더 추가되었지만 감독자 훈련 항목 전체에는 관련 출력 값이 필요합니다. 마치 특정 주식이 그 언어를 이해할 수는 없지만 평균값보다 높고 무엇이 중간인지에 대해 이야기합니다. 정말 이상한 방식으로 보입니다. 한 달 후 가격이이 특정 순간의 가격보다 높거나 낮습니다. 그에 따라 1 또는 0을 출력합니까? 나는 그들이 말하는 것을 이해하지 못하므로 내가 할 것이라고 생각합니다.
그렇다면 알고리즘이 다른 샘플을 생성하기 위해 반복 될 때 모든 것이 단 하루 만에 단절되었다고 가정 할 수 있습니다.
일상적인 볼륨을 사용하지 않는다는 것이 이상하게 보입니다.
저는 다운로드 한 yahoo 데이터를 사용하여 TensorFlow의 로컬 컴퓨터에서 실제로 구현했습니다. & quot; 중앙값보다 위에 & quot; 그 달의 모든 주식에 대한 수익률의 중앙값보다 위에 "를 의미합니다. 다른 모든 주식 움직임과 비교하여 가격이 더 높았는지 낮 았던 것보다 월 평균 절대 가격이 더 높았는지 낮은지를 살펴보면 아마 그다지 효과가 없을 것입니다. 모든 상대방 데이터 기능이 매월 time-step에 대해 z 점수가 매겨지기 때문에이 상대적인 접근법을 일관되게 사용합니다.
지금까지 zipline에서 다시 테스트했는데 지금까지 별의 결과를 복제 할 수 없었지만 현재 내 코드에서 RBM 기반 자동 검색 기능을 사용하지 않기 때문에 나는 여전히 희망적입니다. 인코더 (시간이 지나면이 부분을 다시 코딩합니다.) 또한 단일 GPU 시스템에서 자동 엔코더 또는 전체 네트워크를 매우 많은 사이클 동안 교육하지 않습니다. 또한 자동 엔코더 단계에서 더 나은 특징 추출 결과를 얻을 수있는 현재 없어진 주식에 대한 기록 데이터를 추가 할 수 있다고 생각합니다 (현재 "내 우주"로 사용하는 거래 가능한 주식이 아닌). 그들이 이것을했는지 여부는 분명하지 않았습니다. 물론이 오래된 기록 데이터는 다른 소스 (무료 야후 데이터가 아님)에서 가져와야합니다. 그들은 깊은 신경망에 대한 많은 데이터가 아닙니다 (그리고 결과 모델이 현재의 거래에 실질적인 가치를 지니고 있음을 알 수있는 방법 일 수도 있습니다) 1965-1989 년의 데이터로 교육합니다. .
그런데이 사람들은 동일한 입력 기능과 약간 다른 기계 학습 모델 인 백서 결과를 재현 할 수있는 것처럼 보였습니다. math. kth. se/matstat/seminarier/reports/M-exjobb15/150612a. pdf.
따라서 대략 53℅의 테스트에서 정확한 예측이 가능합니까? 53℅의 사례에서 네트워크는 다음 기간에 수익의 상위 절반에 오른 주식을 예측 했습니까? 매우 비슷합니다.
역 테제는 제공되지 않았지만. 내가 많은 장기간 TF 시스템보다 훨씬 잘 말해 준다.
그래, 내가 언급 한 논문에서 52.89 %라고 추정된다. 그러나 나는 아직이 코드를 내 코드로 얻지 못했다. 그렇다면 백 테스트 데이터가 제공되지 않는 것은 너무 나쁩니다. 이 알고리즘은 확실히 장기적이고 빈도가 낮습니다 (한 달에 한 번 실행하고 한 달 전체의 위치를 ​​유지). 단시간으로 수정할 수는 있습니다. 저는 분당 한도의 데이터와 월별 / 일별 데이터에 대한 다른 거래 빈도를 사용하여 놀고 자합니다.
다케이치 (Takeichi) 논문은 권력 및 인출을 언급하지 않았다. 상상할 정도로 꽤 높을 것 같습니다. 또한 재 할당 날짜와 신에 따른 편향과 같은 모든 종류의 다른 문제는 그 밖의 것을 알고 있습니다. 그러나 재미있는 물건. 개인적으로 1 개월의 보류 기간은 반환이 정말로 좋았다면 나를 걱정하지 않아도됩니다. 그러나 솔직히 말해서, 수년간 자신을 속일 때 나는 어떤 시스템이 사용 되든지 백 테스팅에 대해 꽤 황달했습니다.
저의 겸손한 경험에 비추어 볼 때 15 %를 넘는 연간 수익률은 미리보기 편견이나 지나친 피팅 때문입니다. 시장은 레버리지를받은 상인이 장기적으로 그것을 소유 할 것이기 때문에 이러한 높은 수익을 허용하지 않습니다. 따라서 이러한 학술 연구자들은 백 테스트 (backtesting)와 "노 임팩트 (no impact)"라는 가장 심각한 경고에 속고있다. 가격에.
위의 8 월 124 일 게시물을 살펴보면, Glabadanidis가 가격 시리즈의 기세에 대해 언급 한 논문이 있습니다. 이 성적은 최근에 Zakamulin이 외관의 결과로 반박 한 경우에만 15 % 정도의 반품으로 정액으로 선언되었습니다 - 앞선 편견. 우리는 여기 간단한 algos에 대해 이야기하고 있지만 아직 Excel의 구현 코드는 look-ahead bias를 가지고 있습니다. 이 도메인에서 복잡한 ML 알 고스가 잘못 될 수 있다고 상상해보십시오. 기하학적 형평성 곡선 테스트를 사용합니다. 그것이 유지된다면, 백 테스트에서 결함의 확률은 & gt; 95 %.
Michael Harris, 당신은 옳을 수도 있습니다. 나 자신과 비실용적 인 학자들을 구 해주셔서 감사합니다. 그러나 결함이 있더라도 이러한 재현을 행복하게 재생하기로 결정했습니다. 이 시점에서 너무 좋았다고 생각되면 바이어스 / 스누핑 / 오버 피팅을 찾기 위해 이들을 골라보십시오. 나를위한 주요 요점은 실제로 TensorFlow를 배우고 재정적 인 시계열 데이터에 깊은 학습 기술을 적용하는 연습이었습니다. 깊은 학습 접근 방식을 사용하여 이런 종류의 데이터에서 괴롭혀 질 패턴이 있다고 생각합니다. 그러나이 특정 ML 알고리즘이 생성하는 운동량 기반 모델이 궁극적으로 수익성이있는 것은 아닙니다. 심 신경 네트워크의 가장 큰 장점은 기본적인 데이터 흐름을 가져 와서 네트워크 구조가 예측 가능할 것으로 생각하는 다른 데이터를 쉽게 전달하고 전혀 다른 동작을하는 모델을 생성하기 쉽도록 선언하면됩니다. 상대적으로 네트워크 구조를 수정하는 것이 상대적으로 쉽고 매개 변수를 조정하여 테스트 결과가 더 좋아지는 지 알아보기 쉽습니다. 언급 한 바와 같이 부적절하게 완료되면 과다한 위험이 있음을 알고 있습니다. 나는 아직도 잡았다에 대해 배울 것이 많기 때문에, 경고의 말에 감사드립니다.
저스틴 주, 어쩌면 당신이 나를 오해했는지, 나는 당신의 노력과 노력에 대해서는 언급하지 않았지만 복제 될 수없고 심지어 심각한 오류, 가정을 포함하고 시장과 거래에 대한 이해의 부족을 보여줄 수있는 결과를 가진 학술 논문에 대해서는 언급하지 않았습니다.
해당 논문의 결과에 세심한주의를 기울이면 다음과 같은 문제가 있습니다.
저자가 좋은 결과를 얻을 때까지 반복되는 시도. 이로 인해 데이터 스누핑 바이어스가 발생합니다. 그들은 데이터 마이닝의 위험에 대한 이해 부족을 보여주는 t-stat를 조정하지 않습니다.
1990 년대와 2001 년 사이에 벌크가 벌어졌으며, 주식 시장의 역사상 가장 강한 상승세를 보인 기간이 길었고, 닷컴 닷컴의 충돌로 인한 과도한 압박보다 길었다.
저자는 최대 삭감, 샤프 비율 및 지불 비율과 같은 중요한 통계를보고하지 않습니다.
불행히도 학문적 환경은 높은 수익률을 약속하는 회사 임원을 속이는 방법을 알고 있으며 비슷한 논문의 저자는 고액 임금을 받는다. 해고되기 전에는 비현실적인 연간 수익 수치를보고하지 않는 정직한 애널리스트를 희생하여 좋은 부를 축적하고 데이터 마이닝 편향을 줄이기 위해 현실 검사를 적용하십시오. 이 정직한 사람들은 보여줄만한 인상적인 결과는 없지만 현실 만이 큰 투자 은행이나 헤지 펀드의 문을 결코 통과하지 못할 것입니다.
전체 논문은 ML을 사용하여 데이터를 과도하게 채우고 사실을 모호하게하면서 비현실적인 수익을 창출하는 방법을 보여주었습니다.
세상에, 정말로 마이클을 들어야 해. 그는 너무 옳다. 여기에 다른 책을 쓰고 앉아 있는데, 어리석은 게시자가 다시 방문했습니다. 나는하지 말아야 할 일에 대한 전체 첫 부분을 원했고 확률 론적 거래에서의 백 테스트에 의존하는 어리 석음에 대해 꽤 많은 장을 썼다.
게시자는 다음과 같이 묻지 않습니다. 독자는 분명히 효과가있는 것을 듣고 싶습니다.
나는 ML이 트렌드를 따르기에 적합한 도구라고 확신하지만 45 %의 연간 수익은 어리석은 짓이라고 절대적으로 의심 할 여지가 없습니다. 마이클과는 반대로 나는 심지어 트렌드를 믿는다 (적어도 주식 있음).
시장에서 30 년이 지난 후, 15 명은 크게 체계적인 거래에 많은 시간을 보냈습니다. 헤지 펀드 세계는 자금이 붕괴 된 후 엄청난 보수를받는 펀드 매니저에게 돈을 번다. 그런 다음 다른 사람이 시작합니다.
실제 거래가 거의없는 기계 학습 전문가와 기계 학습의 전문 지식이 부족한 실제 거래자가 논쟁의 두 가지 측면을 갖고있는 것 같습니다.
ML에 중독되었습니다. 수익성있는 거래 알고리즘을 개발할 수 있다면 멋지다! 그렇지 않다면, 괜찮은 느낌의 대체 옵션이 많이 있습니다.
그 리 논문에서 지적 부정직에 대한 어떤 제안도 보이지 않지만, 논문이 지원 코드없이 결과를 발표하는 것이 성가신 것에 동의합니다.
ML에 관심이있는 사람이라면 IRC Freenode의 ## machinelearning에 접속하십시오.
저스틴 - 그 답장과 링크에 감사드립니다!
추신 : 패트릭 링크 된 문서 (link. springer / chapter / 10.1007 / 978-3-319-42297-8_40)를 살펴 보았는데 매우 개략적으로 보입니다. 그러나 원본 종이는 내가 볼 수있는 한 강건 해 보입니다. 나는 그것을 계속해서 복제하려고 시도 할 것이다.
"실제 거래가 거의없는 기계 학습 전문가 및 기계 학습 전문 지식이 부족한 실제 거래자."
이것은 잘못된 이분법을 암시합니다. ML을 포함한 다양한 방법을 통해 실제 거래를 수행 할 수 있습니다. ML 경험 부족은 많은 경우에 불리하지 않을 수 있습니다. 이는 많은 연습을 무의미하게 막을 수 있기 때문입니다.
& quot; 나는이 논문에서 지적 부정직에 대한 어떤 제안도 보이지 않는다. & quot;
누군가는 대학 연구자들이 데이터 마이닝 및 데이터 스누핑 편견에 익숙 할 것으로 기대합니다. 이 논문은 ML로 p-hacking에 관한 것이었다. 이것은 학술 논문에 방해가됩니다. 최종 결과를 얻으려는 정확한 시도 횟수가보고되어야합니다. 그러나 이것은 지적 부정직과 동일하지는 않지만 순전히 ML의 적용에 해당됩니다.
코드에 대한 좋은 지적이지만 정확한 코드가 있다고하더라도 여전히 확률론 때문에 결과를 복제 할 수 없다고 생각합니다.
당신은 여전히 ​​확률론 때문에 결과를 복제 할 수 없을 것입니다.
당신은 가까워 질 수 있어야합니다. 심층 학습에서 난수는 일반적으로 초기 가중치 생성에만 사용됩니다. 나는 시장에서 많은 경험을 가진 사람들 중 한 명이며, ML에서는 거의 없다.
이것들은 클라이언트를 위해 일하고있는 프로젝트의 정확한 데이터와 정확히 동일한 매개 변수를 가진 Multilayer 퍼셉트론의 5 회 연속 실행에 대한 오류율입니다.
그렇습니다. 그러나 이러한 차이점이 거래 시스템에서 CAGR로 어떻게 변환되는지 궁금합니다. 나는 그것이 약간의 실행이 주식의 51℅를 정확하게 매월 또는 52.4 say라고 말하는 것이 그렇게 많은 차이를 만들지 의심 스럽나요? 내가 의심하는 백 테스트의 모순을 아십니까?
ML은 10 초 & # 39; ~ 1000 개의 미 계수를 데이터로 변환합니다.
지나치게 맞추지 않는 것은 불가능한 것처럼 보입니다. 위 또는 아래쪽의 동향 조사 시장에서 나는 ML 알고리즘을 의심하고있다.
운동량 규칙을 배우기 만하면됩니다.
만약 ML이 작동하려면, 당신은 한꺼번에 여러 주식에 적용하고, 기본적인 데이터, 경제 요소 등을 던져야 할 것입니다.
그러면 아마도 인간이 볼 수있는 너무 큰 데이터 세트의 패턴을 발견 할 수 있습니다.
인간의 두뇌는 패턴을 인식하는 데 정말로 능숙합니다. 단일 재고의 가격 내역에 패턴이있는 경우.
나는 당신이 그것을 볼 것이라고 생각합니다.
Takeuchi / Lee 논문의 핵심 부분이 "stationarize"하는 것임을 관찰하면됩니다. 데이터를 횡단면 형식으로 전환하여
& quot;는 월간 수익과 20 개의 누적 수익을 사용하여 일련의 12 개의 누적 수익을 계산합니다.
일일 수익을 사용합니다. 우리는 가격 모멘텀을 주목한다.
승자와 횡단면 현상입니다.
과거 수익률이 높았고 과거 수익률이 낮은 패자.
다른 주식과 비교하여 따라서 우리는 각각을 정상화합니다.
z - 점수 상대 값을 계산하여 누적 수익률을 계산합니다.
매월 모든 주식의 횡단면으로
통계가 고정되어 있지 않으면 모델이 수렴하지 않거나 수렴 (수리적으로)하면 매우 유용하지 않을 수 있습니다.
David, 나는 그들이 인상적인 결과를 얻을 때까지 계속 노력하고 있다고 생각합니다. 이것은 주로 데이터 스누핑 (data-snooping)에 의해 주도되는 데이터 마이닝 바이어스의 정의입니다. 그들의 논문 어디에도 데이터 마이닝 편견에 대한 언급이 없습니다.
마이클, 데이터 스누핑은 확실히 가능합니다. 그러나, 설정은 매우 양호한 결과에 대해 매우 그럴듯하게 보입니다. 50 %는 반환하지 않지만 "정상적인"상태에서는 20 %까지 되돌릴 수 있습니다. 년. 나는 네가 15 %의 말을했음을 알고 있지만 나는 순진하게 낙천적이다.
정상적인 해 : 테스트 결과에 영향을 줄 수있는 (매크로) 체제 전환과 같은 흥미로운 점에 대해서는 언급하지 않았습니다. 예를 들어, 모멘텀 행동은 2008 년 4/4 분기와 2009 년 4/4 분기에 크게 다를 수 있습니다. 테스트가 2008 년을 커버하거나 놓친 경우 결과가 바뀔 수 있습니다.
데이터 스누핑이 설정에 들어갈 가능성이있는 장소 (작성자가 실제로 다른 설정을 시도한 경우 제외)는 유보 교차 유효성 검사 부분입니다. 나의 경험에서 이것은 "누출" 실수로 시스템에 도입 될 수 있습니다. 누출은 미래의 데이터 누출을 의미합니다. 저자는 hold-out x-val에 대한 세부 정보를 제공하지 않았지만 테스트 세트를 작성한 방법이나 홀드 아웃 교차 유효성 검사를 설정하는 방법을 신중하게 고려하지 않은 경우 완성 된 제품을 교육하는 데있어 동일한 실수를 저지른 것 같습니다.
누수에 관한 Kaggle 페이지는 다음과 같습니다.
다른 플랫폼의 CEO :
[이러한 알고리즘의 대부분은 신경 네트워크와 같은 정교한 기계 학습 방법을 사용하여 학생들이 개발했습니다. "거래 알고리즘의 품질과 안정성에 깊은 인상을 받았습니다." ]
깊은 학습은 경쟁력을 유지하는 데 매우 중요합니다.
& quot; 관련 거래 데이터에 오프라인으로 액세스 할 수있는 경우 비 양자 컴퓨터에서 그물을 트레이닝 한 다음 그 결과 넷을 퀀피 피안 프레임 워크에서 실행하기 위해 scipy로 변환 할 수 있습니다.
그것은, 나는 quantopian 프레임 워크에서 실행할 수 있지만 대회에 참가할 수 없을 것인가? 관련 데이터가 있습니다. 나는 종이 무역 기록을 몇 가지 얻을 수있는 방법을 찾고있다. Interactive Brokers & # 39; 종이 거래하지만 많은 IB 계좌를 보유하는 것은 비용이 많이 듭니다.
그렉 - 정보 주셔서 감사합니다.
& quot; 꽤 느리게 실행됩니다. 속도를 높이기 위해 EOData (또는 다른 사이트)에서 가격 데이터를 다운로드하고 자신의 컴퓨터에서 가격 데이터를 사용할 수 있습니다. "
외부 데이터 및 자체 시스템으로 작업 한 후에는 코드를 다시 변경하여 퀀텀 피시로 부드럽게 다시 업로드 할 수 있습니까?
"많은 알고리즘들이 신경 네트워크와 같은 정교한 기계 학습 방법을 사용하여 학생들에 의해 개발되었다. "거래 알고리즘의 품질과 안정성에 깊은 인상을 받았습니다." ] "
그러나 그가 알고리즘을 알지 못한다는 가정이 있습니다. 또는 나는 무엇인가 놓치고있다.
어쩌면 차기 시장 체제 변화가 일을 정리할 것입니다.
[삭제됨 - Antony의 게시물을 참조하십시오.]
& quot; 다음 시장 체제 변화 & quot;는 일부 플랫폼이 생존 할 수없는 경우를 의미합니다. 어쨌든 매우 흥미 롭습니다.
시장의 동력이 바뀌면 모든 과충전 된 ML 시스템이 실패합니다.
유의미한 문제에 대한 자세한 내용은 저널 : papers. ssrn / sol3 / papers. cfm? abstract_id = 2810170에서 찾을 수 있습니다.
현재이 대회의 영향은 작습니다. 시장 체제 변화는 구조적 변화 (1990 년대 후반의 거래, 소수점 화, HFT 등)에 의해 주도됩니다. 내 의견으로는 앙상블 결과는 무작위 priceactionlab / Blog / 2016 / 09 / data-science /
통계적 유의 수준에서 여러 번의 시행으로 인한 낮은 로그 손실을 구별 할 수있는 방법이 없습니다. 더 많은 진입자가 표본의 더 많은 수렴이 0 개의 진정한 의미를 의미하므로 이러한 경쟁은 제 의견으로는 끝납니다. 또한 단기간에 파멸의 위험이 있습니다. 이익의 열쇠는 현재의 체제에 대한 하나 또는 두 개의 견고한 특징을 확인하고 단순한 알고리즘을 사용하는 것이다. 다른 모든 것들은 더 많은 편향, 더 많은 소음, 더 많은 위험으로 해석됩니다.
나는이 스레드가 주제를 벗어 났다고 생각한다. 그렇다면 담당 책임자가 새 스레드를 만들고 & amp; 그에 따라 마이그레이션 하시겠습니까? 이 스레드에 가입되어 있지만 원래 주제와 관련된 알림 만 수신하고 싶습니다.
인도 시장에서 일하면서 제 관심은 분 또는 5 분짜리 데이터에 더 많은 것임을 암시 할 수 있습니다. 또한 자신과 배운 패턴을 결합하면 딥넷을 훨씬 더 잘 사용할 수 있습니다.
누구나 훈련 된 네트워크를 생산에 적용하는 방법에 대한 경험이 있습니까? 보다 구체적으로, 훈련 된 모델을 저장하고 실시간 거래 환경에서 사용하는 방법. 감사.
VIX 선물 계약서에서 알 고스를 배우는 제 기계로이 작업을 수행하십시오. 끝나면 다시보고 할 것입니다. 하지만 일일 가격, 선물 계약 및 다른 파이썬 백 테스트 엔진을 사용하기 때문에 Q에서 Q를 사용하거나 Q에서 초안을 작성할 필요가 없습니다.
오랫동안이 문제를 다시 테스트 해 왔습니다. 마지막으로, 나는 그것을 찔렀다. 내 결과 (및 설정)는 다음과 같습니다.
총 번호. 시세 표기 : 2,585.
교환 : NYSE와 NASDAQ.
기간 : 2012-02-21 ~ 2016-11-29.
영업일 : 1,203
기차 데이터 : 시작부터 2015-12-31까지.
테스트 데이터 : 2016-01-01에서 끝.
신경망 (인코더 - 디코더)
• 아키텍처 o (각 숨겨진 레이어의 노드) : (33 i / p) -40-4-40- (33 o / p)
o 숨겨진 레이어의 활성화 기능 : ReLu.
출력을위한 활성화 기능 : 선형.
• 최적화 o batch_size = 100,000.
o 최적화 도구 : Adam (학습률 : 0.001)
o 손실 기능 : mse.
• 성능 (훈련 세트에서) o 100 회 이후의 손실 = 0.1505.
신경망 (분류기)
• 아키텍처 o (각 숨겨진 레이어의 노드) : (4i / p) -> 20-> (1o / p)
o 숨겨진 레이어의 활성화 기능 : ReLu.
출력을위한 활성화 기능 : Sigmoid.
• 최적화 o batch_size = 100,000.
o 최적화 도구 : Adam (학습률 : 0.01)
o 손실 기능 : binary_crossentropy.
정규화 : 숨겨진 레이어에서 40 %의 드롭 아웃.
• 성능 (훈련 세트에서) o 100 epoch 이후의 손실 = 0.6926.
o 정확도 (분류 비율) : 0.5141.
• 성능 (테스트 세트) o 정확도 (분류 비율) : 0.4844.
• 수익률 (long top decile 및 short bottom decile) = -1.66 % (연간).
나는 Quandl 데이터 (EOD 데이터 세트)를 사용하여 종이에 제안 된 13 가지 기능을 구성했습니다.
나는 다른 학습 속도와 정규화 접근법을 사용했으나 결과는 크게 다르지 않았습니다. 간헐적으로, 일정 기간 동안 (모든 주식에 대해) 오래 가기위한 순진한 접근은 + 19.34 %의 수익을 가져옵니다. 테스트 기간이 2016 년이고 시장이 동등한 속도로 성장했기 때문에 이것은 놀라운 일이 아닙니다.
앞으로 귀하의 생각을 기대합니다.
나는 당신의 블로그를 좋아하지만, 지금 ML 알 고를 위해 뭔가를 놓치고 있다고 생각합니다. 재 훈련을 위해 가중치가있는 롤링 윈도우를 사용하는 경우 적응 형이 될 수 있습니다. 그것은 우리가 인간이 새로운 환경을 다시 배우는 것과 같은 과정입니다. DNN은 더 많은 데이터를 필요로하지만 다른 ML algos는 여전히 유용 할 수 있습니다. 종이에서의 방법은 "지나치게 (overfitted)" 네트워크 아키텍처를 선택하는 전략이지만 최종 PnL을 직접 최적화하지는 않기 때문에 "overfitting" 문제는 최종 PnL / Sharpe / Sortino에서 일반적인 거래 시스템 최적화보다 덜 심각합니다.
나는 미국 주식에 대한 비슷한 실험을 수행했으며 훈련 규모가 너무 작다고 생각합니다. 그럼에도 불구하고 시스템은 nn / ML 구조를 조정하기 위해 상호 유효성 확인을 사용해도 2016 년 이후로 설정이 잘되지 않습니다. 시험 기간 (2000-2017)의 가장 좋은시기는 스탠포드 지에서 그림 4를 뒷받침하는 테크 버블 직후였습니다. 2000 년 이후, 월간 수익률이 훨씬 낮습니다 (
20 %의 CAGR, 1.6 Sharpe, 16 % MaxDD)를 보였다.
더 많은 데이터를 추가하면 도움이되지 않을 수 있습니다.
현재 교육 자료는 300 만 개에 달합니다.
나는 당신의 요지를 본다. 그러나 원고는 일일 수익 대신 월별 수익률을 예측하고 있으므로 2500 * 12 * 5 = 150K 데이터 포인트 만 가질 것이라고 생각한다. 와.
훈련을위한 절반, 당신은 & quot; 유일한 & quot; 있다.
너무 작은 NN의 75K 데이터?
월간 수익 대비 일일 수익률 예측을 사용하면 왜 내 테스트가 음의 CAGR을 얻었는지 설명 할 수 있을지도 모릅니다. 그러나 광산은 여전히 ​​종이보다 훨씬 작지만 긍정적입니다.
나 역시 월별 수익을 예측하지만, 매달 1 일만 기능을 구성하도록 제한하지 않습니다. 나는 매일 그들을 위해 그들을 만든다. 이렇게하면 나는 2,515 * 1,203 =
3M obs. 그러나 PnL을 계산할 때 특정 날짜를 선택하여 투자 / 포지션을 마감합니다.
나는이 방법으로 연속 일이 입력 특징 / 결과에 많은 변화가 없을 것임을 인정한다.
그럼에도 불구하고 제안한대로 더 고립 된 날짜 (매월 1 회)를 연습 해 봅니다.
죄송합니다. 무엇인가 잘못되었습니다. 다시 시도하거나 의견을 보내서 문의하십시오.
지원 티켓을 성공적으로 제출했습니다.
지원팀이 곧 연락을 드릴 것입니다.
이 웹 사이트의 자료는 정보 제공의 목적으로 만 제공되며 판매 제안, 구매 권유 또는 보안 또는 전략에 대한 추천이나 보증을 구성하지 않으며 Quantopian이 투자 자문 서비스를 제공하겠다는 제안을 구성하지 않습니다.
또한이 자료는 보안 또는 특정 투자의 적합성과 관련하여 의견을 제시하지 않습니다. 여기에 포함 된 어떤 정보도 콴토 피안이나 그 계열사가 투자 자문을 제공하려고 시도하지 않으며, 콴토 피안 또는 그 계열사의 자문 역할을 수행하지 않으므로 투자 관련 행동 강령에 관여하거나 자제하는 제안으로 간주되어서는 안됩니다. 1974 년 개정 된 근로자 퇴직 소득 보장법 (Employee Retirement Income Security Act), 개인 퇴직 연금 또는 개별 퇴직 연금, 또는 본 자료에 제시된 자료에 대한 신탁 능력에 관한 자문을 제공해야합니다. 개인 퇴직 또는 기타 투자자 인 경우 여기에 설명 된 투자 아이디어, 전략, 제품 또는 서비스가 귀하의 상황에 적합한 지 여부와 관련하여 Quantopian과 관련없는 재무 고문 또는 기타 신탁 인에게 문의하십시오. 모든 투자에는 원금 손실을 포함한 위험이 관련됩니다. Quantopian은 웹 사이트에 표현 된 견해의 정확성 또는 완전성에 대해 어떠한 보증도하지 않습니다. 견해는 변경 될 수 있으며 시장 상황이나 경제적 상황의 변화를 비롯하여 다양한 이유로 신뢰할 수 없게 될 수 있습니다.
이 웹 사이트의 자료는 정보 제공의 목적으로 만 제공되며 판매 제안, 구매 권유 또는 보안 또는 전략에 대한 추천이나 보증을 구성하지 않으며 Quantopian이 투자 자문 서비스를 제공하겠다는 제안을 구성하지 않습니다.
또한이 자료는 보안 또는 특정 투자의 적합성과 관련하여 의견을 제시하지 않습니다. 여기에 포함 된 어떤 정보도 콴토 피안이나 그 계열사가 투자 자문을 제공하려고 시도하지 않으며, 콴토 피안 또는 그 계열사의 자문 역할을 수행하지 않으므로 투자 관련 행동 강령에 관여하거나 자제하는 제안으로 간주되어서는 안됩니다. 1974 년 개정 된 근로자 퇴직 소득 보장법 (Employee Retirement Income Security Act), 개인 퇴직 연금 또는 개별 퇴직 연금, 또는 본 자료에 제시된 자료에 대한 신탁 능력에 관한 자문을 제공해야합니다. 개인 퇴직 또는 기타 투자자 인 경우 여기에 설명 된 투자 아이디어, 전략, 제품 또는 서비스가 귀하의 상황에 적합한 지 여부와 관련하여 Quantopian과 관련없는 재무 고문 또는 기타 신탁 인에게 문의하십시오. 모든 투자에는 원금 손실을 포함한 위험이 관련됩니다. Quantopian은 웹 사이트에 표현 된 견해의 정확성 또는 완전성에 대해 어떠한 보증도하지 않습니다. 견해는 변경 될 수 있으며 시장 상황이나 경제적 상황의 변화를 비롯하여 다양한 이유로 신뢰할 수 없게 될 수 있습니다.

거래를위한 기계 학습.
Georgia Tech에서 CS 7646으로 제공됩니다.
Nanodegree 프로그램.
기계 학습 엔지니어.
예측 모델 만들기.
신속하게 직업을 추적 할 수있는 자격 증명으로 경력을 가속화하십시오.
이 과정에 대하여.
이 과정에서는 정보 수집에서 시장 주문에 이르는 알고리즘 단계를 포함하여 기계 학습 기반 거래 전략을 구현하는 실제 과제를 학생들에게 소개합니다. 초점은 거래 결정에 확률 론적 기계 학습 접근법을 적용하는 방법에 있습니다. 우리는 선형 회귀, KNN 및 회귀 나무와 같은 통계적 접근 방법을 고려하고 실제 주식 거래 상황에이를 적용하는 방법을 고려합니다.
코스 비용.
대략 4 개월.
스킬 레벨.
과정에 포함.
풍부한 학습 컨텐츠.
업계 전문가들의 가르침.
학생 지원 커뮤니티.
위대함에의 길을 함께하십시오.
이 무료 과정은 기계 학습 엔지니어 Nanodegree 프로그램을 통해 새로운 경력을 향한 첫 걸음입니다.
무료 코스.
거래를위한 기계 학습.
혁신적이고 독립적 인 학습을 통해 자신의 기술을 향상시키고 자신의 즐거움을 높여보십시오.
Nanodegree 프로그램.
기계 학습 엔지니어.
신속하게 직업을 추적 할 수있는 자격 증명으로 경력을 가속화하십시오.
코스 리드.
터커 발치.
아르 판 차크라 보르 티.
당신이 배우게 될 것.
이 코스는 3 개의 미니 코스로 구성되어 있습니다 :
미니 코스 1 : 파이썬에서 재무 데이터 조작하기 미니 코스 2 : 전산 투자 미니 코스 3 : 트레이닝을위한 기계 학습 알고리즘.
각 미니 코스는 약 7-10 레슨으로 구성되어 있습니다. 과제와 프로젝트가 삽입됩니다.
2015 년 가을 OMS 학생 : 미니 코스 2 이후 중간 시험 1 회, 최종 시험 1 회 등 두 가지 시험이 있습니다.
선행 조건 및 요구 사항.
학생들은 강한 코딩 기술과 주식 시장에 대해 어느 정도 익숙해야합니다. 금융 또는 기계 학습 경험은 가정하지 않습니다.
이 코스는 컴퓨터 과학에 중점을 둔 학생들뿐 아니라 다른 경험을 가진 산업 시스템 공학, 관리 또는 수학과 같은 다른 전공 학생들에게도 도움이됩니다. 모든 유형의 학생들을 환영합니다!
ML 주제는 & quot; 검토 & quot; CS 학생의 경우 금융 부분은 재정 학생을위한 검토가됩니다. 그러나 이러한 주제에 대한 경험이 있더라도 이전에 보았던 것과 다른 방식으로, 특히 거래 구현을 염두에두고 고려해야합니다.
프로그래밍은 주로 파이썬으로 진행됩니다. NumPy 및 Pandas와 같은 수치 컴퓨팅 라이브러리를 많이 사용하게 될 것입니다.
왜이 과정을 택해야합니까?
이 과정이 끝나면 다음을 수행 할 수 있습니다.
알고리즘 거래에 사용되는 데이터 구조를 이해합니다. 살아있는 형평 데이터에 액세스하고 그것을 평가하고 거래 결정을 내릴 수있는 소프트웨어를 만드는 방법을 알아야합니다. 인기있는 3 가지 기계 학습 알고리즘과이를 거래 문제에 적용하는 방법을 이해하십시오. 시계열 데이터 (주가 데이터)에 대한 기계 학습 알고리즘의 성능을 평가하는 방법을 이해합니다. 어떻게 그리고 왜 데이터 마이닝 (기계 학습) 기술이 실패하는지 파악하십시오. 현재 일일 데이터를 사용하는 주식 거래 소프트웨어 시스템을 구축하십시오.
몇 가지 제한 사항 / 제약 사항 :
우리는 매일 데이터를 사용합니다. 이것은 HFT 과정이 아니지만 여기서 많은 개념이 적절합니다. 우리는 시장과 직접 상호 작용 (거래)하지 않지만 원하는 경우 거래 할 수있는 지분 할당을 생성 할 것입니다.
나는 무엇을 얻는가?
강사 비디오 업계 전문가들이 가르치는 연습을 통해 학습하십시오.
관련 코스.
기계 학습 : 감독되지 않은 학습.
Knowledge-Based AI: Cognitive Systems.
Health Informatics in the Cloud.
Big Data Analytics in Healthcare.
Deploying a Hadoop Cluster.
Segmentation and Clustering.
인기 코스.
Digital Marketing Fundamentals.
VR Software Development.
Artificial Intelligence - Natural Language Processing.
Featured Programs.
Only At Udacity.
Programs.
Business.
"Nanodegree" is a registered trademark of Udacity. &부; 2011–2017 Udacity, Inc.
Udacity is not an accredited university and we don't confer degrees.

더 나은 전략을 수립하십시오! Part 4: Machine Learning.
Deep Blue was the first computer that won a chess world championship. That was 1996, and it took 20 years until another program, AlphaGo , could defeat the best human Go player. Deep Blue was a model based system with hardwired chess rules. AlphaGo is a data-mining system, a deep neural network trained with thousands of Go games. Not improved hardware, but a breakthrough in software was essential for the step from beating top Chess players to beating top Go players.
In this 4th part of the mini-series we’ll look into the data mining approach for developing trading strategies. This method does not care about market mechanisms. It just scans price curves or other data sources for predictive patterns. Machine learning or “Artificial Intelligence” is not always involved in data-mining strategies. In fact the most popular – and surprisingly profitable – data mining method works without any fancy neural networks or support vector machines.
Machine learning principles.
A learning algorithm is fed with data samples , normally derived in some way from historical prices. Each sample consists of n variables x 1 .. x n , named predictors or features . The predictors can be the price returns of the last n bars, or a collection of classical indicators, or any other imaginable functions of the price curve (I’ve even seen the pixels of a price chart image used as predictors for a neural network!). Each sample also normally includes a target variable y , like the return of the next trade after taking the sample, or the next price movement. In a training process , the algorithm learns to predict the target y from the predictors x 1 .. x n . The learned ‘memory’ is stored in a data structure named model that is specific to the algorithm. Such a model can be a function with prediction rules in C code, generated by the training process. Or it can be a set of connection weights of a neural network.
The predictors must carry information sufficient to predict the target y with some accuracy. They m ust also often fulfill two formal requirements. First, all predictor values should be in the same range, like -1 .. +1 (for most R algorithms) or -100 .. +100 (for Zorro or TSSB algorithms). So you need to normalize them in some way before sending them to the machine. Second, the samples should be balanced , i. e. equally distributed over all values of the target variable. So there should be about as many winning as losing samples. If you do not observe these two requirements, you’ll wonder why you’re getting bad results from the machine learning algorithm.
Regression algorithms predict a numeric value, like the magnitude and sign of the next price move. Classification algorithms predict a qualitative sample class, for instance whether it’s preceding a win or a loss. Some algorithms, such as neural networks, decision trees, or support vector machines, can be run in both modes.
A few algorithms learn to divide samples into classes without needing any target y . That’s unsupervised learning , as opposed to supervised learning using a target. Somewhere inbetween is reinforcement learning , where the system trains itself by running simulations with the given features, and using the outcome as training target. AlphaZero, the successor of AlphaGo, used reinforcement learning by playing millions of Go games against itself. In finance there are few applications for unsupervised or reinforcement learning. 99% of machine learning strategies use supervised learning.
Whatever signals we’re using for predictors in finance, they will most likely contain much noise and little information, and will be nonstationary on top of it. Therefore financial prediction is one of the hardest tasks in machine learning. More complex algorithms do not necessarily achieve better results. The selection of the predictors is critical to the success. It is no good idea to use lots of predictors, since this simply causes overfitting and failure in out of sample operation. Therefore data mining strategies often apply a preselection algorithm that determines a small number of predictors out of a pool of many. The preselection can be based on correlation between predictors, on significance, on information content, or simply on prediction success with a test set. Practical experiments with feature selection can be found in a recent article on the Robot Wealth blog.
Here’s a list of the most popular data mining methods used in finance.
1. Indicator soup.
Most trading systems we’re programming for clients are not based on a financial model. The client just wanted trade signals from certain technical indicators, filtered with other technical indicators in combination with more technical indicators. When asked how this hodgepodge of indicators could be a profitable strategy, he normally answered: “Trust me. I’m trading it manually, and it works.”
It did indeed. At least sometimes. Although most of those systems did not pass a WFA test (and some not even a simple backtest), a surprisingly large number did. And those were also often profitable in real trading. The client had systematically experimented with technical indicators until he found a combination that worked in live trading with certain assets. This way of trial-and-error technical analysis is a classical data mining approach, just executed by a human and not by a machine. I can not really recommend this method – and a lot of luck, not to speak of money, is probably involved – but I can testify that it sometimes leads to profitable systems.
2. Candle patterns.
Not to be confused with those Japanese Candle Patterns that had their best-before date long, long ago. The modern equivalent is price action trading . You’re still looking at the open, high, low, and close of candles. You’re still hoping to find a pattern that predicts a price direction. But you’re now data mining contemporary price curves for collecting those patterns. There are software packages for that purpose. They search for patterns that are profitable by some user-defined criterion, and use them to build a specific pattern detection function. It could look like this one (from Zorro’s pattern analyzer):
This C function returns 1 when the signals match one of the patterns, otherwise 0. You can see from the lengthy code that this is not the fastest way to detect patterns. A better method, used by Zorro when the detection function needs not be exported, is sorting the signals by their magnitude and checking the sort order. An example of such a system can be found here.
Can price action trading really work? Just like the indicator soup, it’s not based on any rational financial model. One can at best imagine that sequences of price movements cause market participants to react in a certain way, this way establishing a temporary predictive pattern. However the number of patterns is quite limited when you only look at sequences of a few adjacent candles. The next step is comparing candles that are not adjacent, but arbitrarily selected within a longer time period. This way you’re getting an almost unlimited number of patterns – but at the cost of finally leaving the realm of the rational. It is hard to imagine how a price move can be predicted by some candle patterns from weeks ago.
Still, a lot effort is going into that. A fellow blogger, Daniel Fernandez, runs a subscription website (Asirikuy) specialized on data mining candle patterns. He refined pattern trading down to the smallest details, and if anyone would ever achieve any profit this way, it would be him. But to his subscribers’ disappointment, trading his patterns live (QuriQuant) produced very different results than his wonderful backtests. If profitable price action systems really exist, apparently no one has found them yet.
3. Linear regression.
The simple basis of many complex machine learning algorithms: Predict the target variable y by a linear combination of the predictors x 1 .. x n .
The coefficients a n are the model. They are calculated for minimizing the sum of squared differences between the true y values from the training samples and their predicted y from the above formula:
For normal distributed samples, the minimizing is possible with some matrix arithmetic, so no iterations are required. In the case n = 1 – with only one predictor variable x – the regression formula is reduced to.
which is simple linear regression , as opposed to multivariate linear regression where n > 1 . Simple linear regression is available in most trading platforms, f. i. with the LinReg indicator in the TA-Lib. With y = price and x = time it’s often used as an alternative to a moving average. Multivariate linear regression is available in the R platform through the lm(..) function that comes with the standard installation. A variant is polynomial regression . Like simple regression it uses only one predictor variable x , but also its square and higher degrees, so that x n == x n :
With n = 2 or n = 3 , polynomial regression is often used to predict the next average price from the smoothed prices of the last bars. The polyfit function of MatLab, R, Zorro, and many other platforms can be used for polynomial regression.
4. Perceptron.
Often referred to as a neural network with only one neuron. In fact a perceptron is a regression function like above, but with a binary result, thus called logistic regression . It’s not regression though, it’s a classification algorithm. Zorro’s advise(PERCEPTRON, …) function generates C code that returns either 100 or -100, dependent on whether the predicted result is above a threshold or not:
You can see that the sig array is equivalent to the features x n in the regression formula, and the numeric factors are the coefficients a n .
5. N eural networks.
Linear or logistic regression can only solve linear problems. Many do not fall into this category – a famous example is predicting the output of a simple XOR function. And most likely also predicting prices or trade returns. An artificial neural network (ANN) can tackle nonlinear problems. It’s a bunch of perceptrons that are connected together in an array of layers . Any perceptron is a neuron of the net. Its output goes to the inputs of all neurons of the next layer, like this:
Like the perceptron, a neural network also learns by determining the coefficients that minimize the error between sample prediction and sample target. But this requires now an approximation process, normally with backpropagating the error from the output to the inputs, optimizing the weights on its way. This process imposes two restrictions. First, the neuron outputs must now be continuously differentiable functions instead of the simple perceptron threshold. Second, the network must not be too deep – it must not have too many ‘hidden layers’ of neurons between inputs and output. This second restriction limits the complexity of problems that a standard neural network can solve.
When using a neural network for predicting trades, you have a lot of parameters with which you can play around and, if you’re not careful, produce a lot of selection bias :
Number of hidden layers Number of neurons per hidden layer Number of backpropagation cycles, named epochs Learning rate, the step width of an epoch Momentum, an inertia factor for the weights adaption Activation function.
The activation function emulates the perceptron threshold. For the backpropagation you need a continuously differentiable function that generates a ‘soft’ step at a certain x value. Normally a sigmoid , tanh , or softmax function is used. Sometimes it’s also a linear function that just returns the weighted sum of all inputs. In this case the network can be used for regression, for predicting a numeric value instead of a binary outcome.
Neural networks are available in the standard R installation ( nnet , a single hidden layer network) and in many packages, for instance RSNNS and FCNN4R .
6. Deep learning.
Deep learning methods use neural networks with many hidden layers and thousands of neurons, which could not be effectively trained anymore by conventional backpropagation. Several methods became popular in the last years for training such huge networks. They usually pre-train the hidden neuron layers for achieving a more effective learning process. A Restricted Boltzmann Machine ( RBM ) is an unsupervised classification algorithm with a special network structure that has no connections between the hidden neurons. A Sparse Autoencoder ( SAE ) uses a conventional network structure, but pre-trains the hidden layers in a clever way by reproducing the input signals on the layer outputs with as few active connections as possible. Those methods allow very complex networks for tackling very complex learning tasks. Such as beating the world’s best human Go player.
Deep learning networks are available in the deepnet and darch R packages. Deepnet provides an autoencoder, Darch a restricted Boltzmann machine. I have not yet experimented with Darch, but here’s an example R script using the Deepnet autoencoder with 3 hidden layers for trade signals through Zorro’s neural() function:
7. Support vector machines.
Like a neural network, a support vector machine (SVM) is another extension of linear regression. When we look at the regression formula again,
we can interpret the features x n as coordinates of a n - dimensional feature space . Setting the target variable y to a fixed value determines a plane in that space, called a hyperplane since it has more than two (in fact, n-1 ) dimensions. The hyperplane separates the samples with y > o from the samples with y < 0 . The a n coefficients can be calculated in a way that the distances of the plane to the nearest samples – which are called the ‘support vectors’ of the plane, hence the algorithm name – is maximum. This way we have a binary classifier with optimal separation of winning and losing samples.
The problem: normally those samples are not linearly separable – they are scattered around irregularly in the feature space. No flat plane can be squeezed between winners and losers. If it could, we had simpler methods to calculate that plane, f. i. linear discriminant analysis . But for the common case we need the SVM trick: Adding more dimensions to the feature space. For this the SVM algorithm produces more features with a kernel function that combines any two existing predictors to a new feature. This is analogous to the step above from the simple regression to polynomial regression, where also more features are added by taking the sole predictor to the n-th power. The more dimensions you add, the easier it is to separate the samples with a flat hyperplane. This plane is then transformed back to the original n-dimensional space, getting wrinkled and crumpled on the way. By clever selecting the kernel function, the process can be performed without actually computing the transformation.
Like neural networks, SVMs can be used not only for classification, but also for regression. They also offer some parameters for optimizing and possibly overfitting the prediction process:
Kernel function. You normally use a RBF kernel (radial basis function, a symmetric kernel), but you also have the choice of other kernels, such as sigmoid, polynomial, and linear. Gamma, the width of the RBF kernel Cost parameter C, the ‘penalty’ for wrong classifications in the training samples.
An often used SVM is the libsvm library. It’s also available in R in the e1071 package. In the next and final part of this series I plan to describe a trading strategy using this SVM.
8. K-Nearest neighbor.
Compared with the heavy ANN and SVM stuff, that’s a nice simple algorithm with a unique property: It needs no training. So the samples are the model. You could use this algorithm for a trading system that learns permanently by simply adding more and more samples. The nearest neighbor algorithm computes the distances in feature space from the current feature values to the k nearest samples. A distance in n-dimensional space between two feature sets (x 1 .. x n ) and (y 1 .. y n ) is calculated just as in 2 dimensions:
The algorithm simply predicts the target from the average of the k target variables of the nearest samples, weighted by their inverse distances. It can be used for classification as well as for regression. Software tricks borrowed from computer graphics, such as an adaptive binary tree (ABT), can make the nearest neighbor search pretty fast. In my past life as computer game programmer, we used such methods in games for tasks like self-learning enemy intelligence. You can call the knn function in R for nearest neighbor prediction – or write a simple function in C for that purpose.
This is an approximation algorithm for unsupervised classification. It has some similarity, not only its name, to k-nearest neighbor. For classifying the samples, the algorithm first places k random points in the feature space. Then it assigns to any of those points all the samples with the smallest distances to it. The point is then moved to the mean of these nearest samples. This will generate a new samples assignment, since some samples are now closer to another point. The process is repeated until the assignment does not change anymore by moving the points, i. e. each point lies exactly at the mean of its nearest samples. We now have k classes of samples, each in the neighborhood of one of the k points.
This simple algorithm can produce surprisingly good results. In R, the kmeans function does the trick. An example of the k-means algorithm for classifying candle patterns can be found here: Unsupervised candlestick classification for fun and profit.
10. Naive Bayes.
This algorithm uses Bayes’ Theorem for classifying samples of non-numeric features (i. e. events ), such as the above mentioned candle patterns . Suppose that an event X (for instance, that the Open of the previous bar is below the Open of the current bar) appears in 80% of all winning samples. What is then the probability that a sample is winning when it contains event X ? It’s not 0.8 as you might think. The probability can be calculated with Bayes’ Theorem:
P(Y|X) is the probability that event Y (f. i. winning) occurs in all samples containing event X (in our example, Open(1) < Open(0) ). According to the formula, it is equal to the probability of X occurring in all winning samples (here, 0.8), multiplied by the probability of Y in all samples (around 0.5 when you were following my above advice of balanced samples) and divided by the probability of X in all samples.
If we are naive and assume that all events X are independent of each other, we can calculate the overall probability that a sample is winning by simply multiplying the probabilities P (X|winning) for every event X . This way we end up with this formula:
with a scaling factor s . For the formula to work, the features should be selected in a way that they are as independent as possible, which imposes an obstacle for using Naive Bayes in trading. For instance, the two events Close(1) < Close(0) and Open(1) < Open(0) are most likely not independent of each other. Numerical predictors can be converted to events by dividing the number into separate ranges.
The Naive Bayes algorithm is available in the ubiquitous e1071 R package.
11. Decision and regression trees.
Those trees predict an outcome or a numeric value based on a series of yes/no decisions, in a structure like the branches of a tree. Any decision is either the presence of an event or not (in case of non-numerical features) or a comparison of a feature value with a fixed threshold. A typical tree function, generated by Zorro’s tree builder, looks like this:
How is such a tree produced from a set of samples? There are several methods; Zorro uses the Shannon i nformation entropy , which already had an appearance on this blog in the Scalping article. At first it checks one of the features, let’s say x 1 . It places a hyperplane with the plane formula x 1 = t into the feature space. This hyperplane separates the samples with x 1 > t from the samples with x 1 < t . The dividing threshold t is selected so that the information gain – the difference of information entropy of the whole space, to the sum of information entropies of the two divided sub-spaces – is maximum. This is the case when the samples in the subspaces are more similar to each other than the samples in the whole space.
This process is then repeated with the next feature x 2 and two hyperplanes splitting the two subspaces. Each split is equivalent to a comparison of a feature with a threshold. By repeated splitting, we soon get a huge tree with thousands of threshold comparisons. Then the process is run backwards by pruning the tree and removing all decisions that do not lead to substantial information gain. Finally we end up with a relatively small tree as in the code above.
Decision trees have a wide range of applications. They can produce excellent predictions superior to those of neural networks or support vector machines. But they are not a one-fits-all solution, since their splitting planes are always parallel to the axes of the feature space. This somewhat limits their predictions. They can be used not only for classification, but also for regression, for instance by returning the percentage of samples contributing to a certain branch of the tree. Zorro’s tree is a regression tree. The best known classification tree algorithm is C5.0 , available in the C50 package for R.
For improving the prediction even further or overcoming the parallel-axis-limitation, an ensemble of trees can be used, called a random forest . The prediction is then generated by averaging or voting the predictions from the single trees. Random forests are available in R packages randomForest , ranger and Rborist .
결론.
There are many different data mining and machine learning methods at your disposal. The critical question: what is better, a model-based or a machine learning strategy? There is no doubt that machine learning has a lot of advantages. You don’t need to care about market microstructure, economy, trader psychology, or similar soft stuff. You can concentrate on pure mathematics. Machine learning is a much more elegant, more attractive way to generate trade systems. It has all advantages on its side but one. Despite all the enthusiastic threads on trader forums, it tends to mysteriously fail in live trading.
Every second week a new paper about trading with machine learning methods is published (a few can be found below). Please take all those publications with a grain of salt. According to some papers, phantastic win rates in the range of 70%, 80%, or even 85% have been achieved. Although win rate is not the only relevant criterion – you can lose even with a high win rate – 85% accuracy in predicting trades is normally equivalent to a profit factor above 5. With such a system the involved scientists should be billionaires meanwhile. Unfortunately I never managed to reproduce those win rates with the described method, and didn’t even come close. So maybe a lot of selection bias went into the results. Or maybe I’m just too stupid.
Compared with model based strategies, I’ve seen not many successful machine learning systems so far. And from what one hears about the algorithmic methods by successful hedge funds, machine learning seems still rarely to be used. But maybe this will change in the future with the availability of more processing power and the upcoming of new algorithms for deep learning.
Classification using deep neural networks: Dixon. et. al.2016 Predicting price direction using ANN & SVM: Kara. et. al.2011 Empirical comparison of learning algorithms: Caruana. et. al.2006 Mining stock market tendency using GA & SVM: Yu. Wang. Lai.2005.
The next part of this series will deal with the practical development of a machine learning strategy.
30 thoughts on “Build Better Strategies! Part 4: Machine Learning”
좋은 게시물. There is a lot of potential in these approach towards the market.
Btw are you using the code editor which comes with zorro? how is it possible to get such a colour configuration?
The colorful script is produced by WordPress. You can’t change the colors in the Zorro editor, but you can replace it with other editors that support individual colors, for instance Notepad++.
Is it then possible that notepad detects the zorro variables in the scripts? I mean that BarPeriod is remarked as it is with the zorro editor?
Theoretically yes, but for this you had to configure the syntax highlighting of Notepad++, and enter all variables in the list. As far as I know Notepad++ can also not be configured to display the function description in a window, as the Zorro editor does. There’s no perfect tool…
Concur with the final paragraph. I have tried many machine learning techniques after reading various ‘peer reviewed’ papers. But reproducing their results remains elusive. When I live test with ML I can’t seem to outperform random entry.
ML fails in live? Maybe the training of the ML has to be done with price data that include as well historical spread, roll, tick and so on?
I think reason #1 for live failure is data mining bias, caused by biased selection of inputs and parameters to the algo.
Thanks to the author for the great series of articles.
However, it should be noted that we don’t need to narrow our view with predicting only the next price move. It may happen that the next move goes against our trade in 70% of cases but it still worth making a trade. This happens when the price finally does go to the right direction but before that it may make some steps against us. If we delay the trade by one price step we will not enter the mentioned 30% of trades but for that we will increase the result of the remained 70% by one price step. So the criteria is which value is higher: N*average_result or 0.7*N*(avergae_result + price_step).
좋은 게시물. If you just want to play around with some machine learning, I implemented a very simple ML tool in python and added a GUI. It’s implemented to predict time series.
Thanks JCL I found very interesting your article. I would like to ask you, from your expertise in trading, where can we download reliable historical forex data? I consider it very important due to the fact that Forex market is decentralized.
미리 감사드립니다!
There is no really reliable Forex data, since every Forex broker creates their own data. They all differ slightly dependent on which liquidity providers they use. FXCM has relatively good M1 and tick data with few gaps. You can download it with Zorro.
Thanks for writing such a great article series JCL… a thoroughly enjoyable read!
I have to say though that I don’t view model-based and machine learning strategies as being mutually exclusive; I have had some OOS success by using a combination of the elements you describe.
To be more exact, I begin the system generation process by developing a ‘traditional’ mathematical model, but then use a set of online machine learning algorithms to predict the next terms of the various different time series (not the price itself) that are used within the model. The actual trading rules are then derived from the interactions between these time series. So in essence I am not just blindly throwing recent market data into an ML model in an effort to predict price action direction, but instead develop a framework based upon sound investment principles in order to point the models in the right direction. I then data mine the parameters and measure the level of data-mining bias as you’ve described also.
It’s worth mentioning however that I’ve never had much success with Forex.
Anyway, best of luck with your trading and keep up the great articles!
Thanks for posting this great mini series JCL.
I recently studied a few latest papers about ML trading, deep learning especially. Yet I found that most of them valuated the results without risk-adjusted index, i. e., they usually used ROC curve, PNL to support their experiment instead of Sharpe Ratio, for example.
Also, they seldom mentioned about the trading frequency in their experiment results, making it hard to valuate the potential profitability of those methods. 왜 그런가요? Do you have any good suggestions to deal with those issues?
ML papers normally aim for high accuracy. Equity curve variance is of no interest. This is sort of justified because the ML prediction quality determines accuracy, not variance.
Of course, if you want to really trade such a system, variance and drawdown are important factors. A system with lower accuracy and worse prediction can in fact be preferable when it’s less dependent on market condictions.
“In fact the most popular – and surprisingly profitable – data mining method works without any fancy neural networks or support vector machines.”
Would you please name those most popular & surprisingly profitable ones. So I could directly use them.
I was referring to the Indicator Soup strategies. For obvious reasons I can’t disclose details of such a strategy, and have never developed such systems myself. We’re merely coding them. But I can tell that coming up with a profitable Indicator Soup requires a lot of work and time.
Well, i am just starting a project which use simple EMAs to predict price, it just select the correct EMAs based on past performance and algorithm selection that make some rustic degree of intelligence.
Jonathan. orregogmail offers services as MT4 EA programmer.
Thanks for the good writeup. It in reality used to be a leisure account it.
Look complicated to more delivered agreeable from you!
By the way, how could we be in contact?
There are following issues with ML and with trading systems in general which are based on historical data analysis:
1) Historical data doesn’t encode information about future price movements.
Future price movement is independent and not related to the price history. There is absolutely no reliable pattern which can be used to systematically extract profits from the market. Applying ML methods in this domain is simply pointless and doomed to failure and is not going to work if you search for a profitable system. Of course you can curve fit any past period and come up with a profitable system for it.
The only thing which determines price movement is demand and supply and these are often the result of external factors which cannot be predicted. For example: a war breaks out somewhere or other major disaster strikes or someone just needs to buy a large amount of a foreign currency for some business/investment purpose. These sort of events will cause significant shifts in the demand supply structure of the FX market . As a consequence, prices begin to move but nobody really cares about price history just about the execution of the incoming orders. An automated trading system can only be profitable if it monitors a significant portion of the market and takes the supply and demand into account for making a trading decision. But this is not the case with any of the systems being discussed here.
2) Race to the bottom.
Even if (1) wouldn’t be true and there would be valuable information encoded in historical price data, you would still face following problem: there are thousands of gold diggers out there, all of them using similar methods and even the same tools to search for profitable systems and analyze the same historical price data. As a result, many of them will discover the same or very similar “profitable” trading systems and when they begin actually trading those systems, they will become less and less profitable due to the nature of the market.
The only sure winners in this scenario will be the technology and tool vendors.
I will be still keeping an eye on your posts as I like your approach and the scientific vigor you apply. Your blog is the best of its kind – keep the good work!
One hint: there are profitable automated systems, but they are not based on historical price data but on proprietary knowledge about the market structure and operations of the major institutions which control these markets. Let’s say there are many inefficiencies in the current system but you absolutely have no chance to find the information about those by analyzing historical price data. Instead you have to know when and how the institutions will execute market moving orders and front run them.
Thanks for the extensive comment. I often hear these arguments and they sound indeed intuitive, only problem is that they are easily proven wrong. The scientific way is experiment, not intuition. Simple tests show that past and future prices are often correlated – otherwise every second experiment on this blog had a very different outcome. Many successful funds, for instance Jim Simon’s Renaissance fund, are mainly based on algorithmic prediction.
One more thing: in my comment I have been implicitly referring to the buy side (hedge funds, traders etc) not to the sell side (market makers, banks). The second one has always the edge because they sell at the ask and buy at the bid, pocketing the spread as an additional profit to any strategy they might be running. Regarding Jim Simon’s Renaissance: I am not so sure if they have not transitioned over the time to the sell side in order to stay profitable. There is absolutely no information available about the nature of their business besides the vague statement that they are using solely quantitative algorithmic trading models…
Thanks for the informative post!
Regarding the use of some of these algorithms, a common complaint which is cited is that financial data is non-stationary…Do you find this to be a problem? Couldn’t one just use returns data instead which is (I think) stationary?
Yes, this is a problem for sure. If financial data were stationary, we’d all be rich. I’m afraid we have to live with what it is. Returns are not any more stationary than other financial data.
Hello sir, I developed some set of rules for my trading which identifies supply demand zones than volume and all other criteria. Can you help me to make it into automated system ?? If i am gonna do that myself then it can take too much time. Please contact me at svadukiagmail if you are interested.
Sure, please contact my employer at infoopgroup. de. They’ll help.
귀하의 페이지에서 수익을 창출하지 말고 귀하의 트래픽을 낭비하지 마십시오.
당신은 고품질 콘텐츠가 있기 때문에 매달 추가로 돈을 벌 수 있습니다.
If you want to know how to make extra $$$, search for: Mrdalekjd methods for $$$
Technical analysis has always been rejected and looked down upon by quants, academics, or anyone who has been trained by traditional finance theories. I have worked for proprietary trading desk of a first tier bank for a good part of my career, and surrounded by those ivy-league elites with background in finance, math, or financial engineering. I must admit none of those guys knew how to trade directions. They were good at market making, product structures, index arb, but almost none can making money trading directions. 왜? Because none of these guys believed in technical analysis. Then again, if you are already making your millions why bother taking the risk of trading direction with your own money. For me luckily my years of training in technical analysis allowed me to really retire after laying off from the great recession. I look only at EMA, slow stochastics, and MACD; and I have made money every year since started in 2009. Technical analysis works, you just have to know how to use it!!

Nanalyze.
In previous articles, we’ve defined some of the terms being thrown around lately like “machine learning” and “artificial intelligence“. These disruptive technologies will soon change the world as we know it. While some pundits predicted that we were years away from a computer that could beat a human expert at “Go”, this achievement was recently announced. If a “deep learning” program can now beat a game that has more possible moves than atoms in the known universe, then what’s stopping us from unleashing it upon the stock market and making millions?
The idea of using computers to trade stocks is hardly new. Algorithmic trading (also known as algo trading or black box trading which is a subset of algo trading) has been around for well over a decade and rapidly gaining in popularity. Here’s a look at algorithmic trading as a percentage of market volume:
Source: Morton Glantz, Robert Kissell. Multi-Asset Risk Modeling: Techniques for a Global Economy in an Electronic and Algorithmic Trading Era.
If that trend continues, then this means that today upwards of 90% of trading is being conducted by computer programs. One thing to notice about algorithmic trading is that it has been moving in the direction of shorter and shorter holding times. High frequency trading (HFT) is a subset of algorithmic trading in which stocks are bought and then sold in fractions of a second. This strategy is a form of arbitrage in which the HFT algorithm spots a price discrepancy and then quickly capitalizes on it. As you would expect, HFT trading profits are becoming smaller and smaller but the volume of trades are still dominating the overall market:
Now that we know about algorithmic trading and HFT, just how does machine learning or deep learning come into play? To answer this question, the important variable to take into account is duration. While HFT and algo trading perform trades of a short duration, it becomes much more difficult to “capture alpha” when you start increasing the time frame. The reality is that some of the world’s biggest hedge funds are already all over this space and have been capturing alpha across many durations for a long time now using machine learning.
Early last year, Bridgewater Associates which has $150 billion in assets under management (AUM) started a new artificial intelligence unit led by David Ferrucci who led the development of IBM’s Watson. After working at IBM for 17 years, he was poached by Bridgewater in 2012.
Another firm called Renaissance Technologies has $65 billion in AUM and is said to have “the best physics and mathematics department in the world”. The Medallion Fund at Renaissance, run mostly for employees of the company, has one of the best records in investing history having returned +35% annualized over 20 years. The two co-CEOs of Renaissance were both hired from IBM Research in 1993 where they were working on language-recognition programs.
With $32 billion under management, Two Sigma Investments is known for using AI and machine learning as a key part of their strategy. One co-founder did his PHD in artificial intelligence at MIT and the other was an International Mathematical Olympiad Silver Medalist. Being a finance professional is not a requirement to work at this firm.
While hedge funds such as these 3 are pioneers of using machine learning for stock trading strategies, there are some startups playing in this space as well. Binatix is a deep learning trading firm that came out of stealth mode in 2014 and claims to be nicely profitable having used their strategy for well over three years. Aidyia is a Hong Kong based hedge fund launched in 2015 that trades in U. S. equities and makes all stock trades using artificial intelligence with no human intervention required. Sentient, another deep learning company we discussed before, has developed an artificial intelligence trader that was successful enough that they are consider spinning it out as a prop trading company or asset management firm.
If there’s a startup that shows promise in this space, you can bet that the 3 well established hedge funds we discussed know about it. If you had a machine learning algorithm that generated alpha, would you tell the world about it? 가능성이 높습니다. But then how would you raise the capital needed to make some serious money off of your strategy? Firms like Bridgewater can be as nimble as any startup and at the same time have $150 billion in capital to play with. It’s hard to compete if you’re a startup that’s trying to get funded. If you’re looking for investors, you have to disclose what you’re doing. Word travels fast. It’s not hard to see hedge funds like Bridgewater poaching talent from AI startups that are trying to play in this space and quickly finding out what they’re up to.
For retail investors to take advantage of machine learning for stock trading, you have a couple directions to take. For ultra high net worth retail investors, you can invest your money in one of the hedge funds using AI like Bridgewater or Renaissance. For those of us who don’t have such large amounts of capital, we can wait for deep learning companies like Sentient to go public or be acquired and then invest in those vehicles. We’ll be keeping a close eye on this space because frankly, it’s just fascinating.
If you pay more than $4.95 a trade , you're paying too much. Ally Invest is one of the lowest-fee brokers around so you spend less money on transaction fees and more on stocks. With more than 30 trades a quarter it drops even lower to $3.95 a trade . Open an account and begin trading today.
Published: April 14, 2016.
5 ETFs and Funds Using AI for Stock Selection.
Is Stitch Fix an Artificial Intelligence IPO?
A Warning About “Artificial Intelligence Stocks”
You said: Algorithmic trading (also known as algo trading or black box trading)
Just wanted to point out that not all algo trading is black box.
Thank you for the clarification David! We noted that in the article.
there is an ETF that allows investors to access these technologies today! NYSE listed ticker symbol ‘BUZ’. Learn more at buzzindexes.
Thank you for the comment Jamie! That was a great interview you had on Squawk Box introducing the BUZ ETF.
Thank you for the heads up!
Subscribe to the Weekly Digest.
Subscribe to the Nanalyze Weekly Digest.
Subscribe to our Nanalyze Weekly Digest to receive a summary of all articles every week.
We’ll never use your for anything other than sending you great articles about investing in disruptive technologies.

No comments:

Post a Comment