A. 大數據時代應該如何投資股票
給一篇關於【如何使用大數據進行A股行業投資】的教程給你參考一下~
好的投資,首先是選好行業
紅杉資本曾經有一條著名的投資經驗,大意是:好的投資,首先是選好賽道,其次是賽道上的選手。對於每天活躍於資本市場上的投資者而言,賽道所指的正是你正在投資、或者將要投資的那家公司它所在的行業,更直接的說,你投資於什麼行業,投資於這個行業的哪家公司,決定了你最終能獲得什麼樣的收益表現。
那麼,紅杉資本的這條投資經驗是否適用於A股市場,並給我們帶來可觀的投資收益呢?本文試圖通過量化分析和交易回測來驗證這一投資模式是否真正有效,所採用的數據取自於聚寬數據出品的JQData本地量化金融數據,通過梳理出自2010年以來A股市場上不同行業的發展情況,進一步構建出一個優質行業龍頭組合,觀察其從2015年股災至今的收益表現。最終發現,這樣一個優質行業的龍頭組合,從股災至今大幅跑贏了上證指數和滬深300指數高達30%的以上的收益率,可以說是超乎預期的。以下是具體分析過程。
2010 ~ 2017 滬深A股各行業量化分析
在開始各行業的量化分析之前,我們需要先弄清楚兩個問題:
第一,A股市場上都有哪些行業;
第二,各行業自2010年以來的營收、凈利潤增速表現如何?
第一個問題:
很好回答,我們使用JQData提供的獲取行業成分股的方法,輸入get_instries(name='sw_l1')
得到申萬一級行業分類結果如下:它們分別是:【農林牧漁、採掘、化工、鋼鐵、有色金屬、電子、家用電器、食品飲料、紡織服裝、輕工製造、醫葯生物、公用事業、交通運輸、房地產、商業貿易、休閑服務、綜合、建築材料、建築裝飾、電器設備、國防軍工、計算機、傳媒、通信、銀行、非銀金融、汽車、機械設備】共計28個行業。
第二個問題:
要知道各行業自2010年以來的營收、凈利潤增速表現,我們首先需要知道各行業在各個年度都有哪些成分股,然後加總該行業在該年度各成分股的總營收和凈利潤,就能得到整個行業在該年度的總營收和總利潤了。這部分數據JQData也為我們提供了方便的介面:通過調用get_instry_stocks(instry_code=『行業編碼』, date=『統計日期』),獲取申萬一級行業指定日期下的行業成分股列表,然後再調用查詢財務的數據介面:get_fundamentals(query_object=『query_object』, statDate=year)來獲取各個成分股在對應年度的總營收和凈利潤,最後通過加總得到整個行業的總營收和總利潤。這里為了避免非經常性損益的影響,我們對凈利潤指標最終選取的扣除非經常性損益的凈利潤數據。
我們已經獲取到想要的行業數據了。接下來,我們需要進一步分析,這些行業都有什麼樣的增長特徵。
我們發現,在28個申萬一級行業中,有18個行業自2010年以來在總營收方面保持了持續穩定的增長。它們分別是:【農林牧漁,電子,食品飲料,紡織服裝,輕工製造,醫葯生物,公用事業,交通運輸,房地產,休閑服務,建築裝飾,電氣設備,國防軍工,計算機,傳媒,通信,銀行,汽車】;其他行業在該時間范圍內出現了不同程度的負增長。
那麼,自2010年以來凈利潤保持持續增長的行業又會是哪些呢?結果是只有5個行業保持了基業長青,他們分別是醫葯生物,建築裝飾,電氣設備,銀行和汽車。(註:由於申萬行業在2014年發生過一次大的調整,建築裝飾,電氣設備,銀行和汽車實際從2014年才開始統計。)
從上面的分析結果可以看到,真正能夠保持持續穩定增長的行業並不多,如果以扣非凈利潤為標准,那麼只有醫葯生物,建築裝飾,電氣設備,銀行和汽車這五個行業可以稱之為優質行業,實際投資中,就可以只從這幾個行業中去投資。這樣做的目的是,一方面,能夠從行業大格局層面避免行業下行的風險,繞開一個可能出現負增長的的行業,從而降低投資的風險;另一方面,也大大縮短了我們的投資范圍,讓投資者能夠專注於從真正好的行業去挑選公司進行投資。
選好行業之後,下面進入選公司環節。我們知道,即便是一個好的行業也仍然存在表現不好的公司,那麼什麼是好的公司呢,本文試圖從營業收入規模和利潤規模和來考察以上五個基業長青的行業,從它們中去篩選公司作為投資標的。
1、按營業收入規模構建的行業龍頭投資組合
首先,我們按照營業收入規模,篩選出以上5個行業【醫葯生物,建築裝飾,電氣設備,銀行和汽車】從2010年至今的行業龍頭如下表所示:
通過以上行業分析和投資組合的歷史回測可以看到:
先選行業,再選公司,即使是從2015年股災期間開始投資,至2018年5月1號,仍然能夠獲得相對理想的收益,可以說,紅杉資本的賽道投資法則對於一般投資者還是比較靠譜的。
在構建行業龍頭投資組合時,凈利潤指標顯著優於營業收入指標,獲得的投資收益能夠更大的跑贏全市場收益率
市場是不斷波動的,如果一個投資者從股災期間開始投資,那麼即使他買入了上述優質行業的龍頭組合,在近3年也只能獲得12%左右的累計收益;而如果從2016年5月3日開始投資,那麼至2018年5月2日,2年時間就能獲得超過50%以上的收益了。所以,在投資過程中選擇時機也非常重要~
B. 如何用大數據提升股票打新的中簽率
由於目前新股申購不需要提前凍結資金,導致申購新股的股民很多,只要有股票,交易所交易基金等市值即可申購.另外基金公司,券商,其他機構,個人大戶等還可以參與詢價申購(實際上新股有一部分鐵定被他們拿走).
新股發行量本來就很少,很稀缺,這么多人申購,個人覺得只能憑運氣.因而大數據也好,根據新股中簽率變化而分析趨勢等都是不可取,沒必要浪費時間,
就好似有人買彩票研究中將號碼一樣沒意義.
反正申購新股又不提前凍結資金,只要有新股你就動動手指頭申購唄.
C. 大數據分析股票,有什麼好的方法
大數據只是做好宏觀經濟走向,但是落實到具體某隻股票,就顯得不那麼使用了
D. 哪個軟體是通過大數據選股
其實可以來我們這里學習方法,帶你選股帶你賺
E. 可以利用大數據炒股嗎
大數據對現貨行業有用。股票不行
F. 如何用大數據炒股
1月4日之後大盤跌破上升趨勢線 60日均線 前期平台頸線
加上外圍股市持續暴跌 既然全世界的資金都在做同一個動作
一定有什麼我們看不到的黑天鵝
現在上證一直在所有均線之下 所以年前不會有波段行情 最好就是震盪打底 年後能把均線盤好 才可以期待後面
3次股災其實只要學一點技術手段就能完全躲過 比如跌破上升趨勢線就清倉 5178那次在4800
4006那次在3900 這一次在3480
而突破下降壓力線買入 3450 2950 這2次買入獲利都會不少
遭遇虧損的股民只是因為完全不懂股市 又不學任何技術手段而已
投資市場不是一個聽消息看新聞就能進的市場 必須要學習充實自己
現在不要進場買任何股票 等見底信號出現再說
有持股逢反彈減倉
G. 大數據時代散戶如何做股票投資如題 謝謝了
這是滬市大盤走勢圖表可以看出大盤的長時間大底已構築完成並且開始放量基於目前情況建議您逢低建倉做長線投資(持有)的准備以便做足行情 查看原帖>>
H. 如何利用網路上的現成大數據來進行超短線炒股
我們利用網路大數據分析技術,從互聯網上檢索最熱的關鍵詞,然後從關鍵詞中檢出相對應的股票名稱或代碼,依據各類大數據分析加權系數演算法,選出優選股。\n\n搜索指數:\n\n 搜索指數是以搜索引擎海量網民行為數據為基礎的數據分享平台,是當前互聯網乃至整個數據時代最重要的統計分析平台之一,自發布之日便成為眾多企業營銷決策的重要依據。搜索指數能夠告訴用戶:某個關鍵詞在搜索引擎上的搜索規模有多大,一段時間內的漲跌態勢以及相關的新聞輿論變化,關注這些詞的網民是什麼樣的,分布在哪裡,同時還搜了哪些相關的詞。例如index..com \n\n新聞熱度:\n\n 10大新聞網站的財經頻道每天都在報道上市企業和市場情況,爬蟲根據財經首頁的頁面進行板塊和行業等數據進行分析熱門股票近日的曝光率。\n\n評論喜好:\n\n 股民喜歡在股吧和貼吧進行評論,爬蟲根據網民發貼的情緒化詞彙進行判斷,出現負面詞彙如不文明用語時,進行必要的扣分等操作。\n\n自選股關注度:\n\n 軟體對用戶自選股進行統計,關注人數高的股票自然會被納入熱門股票之列。\n\n資金流向:\n\n 軟體即時跟蹤股票的資金流向,特別關注莊家的大資金流向,對其拉升等動作進行大數據判斷。\n\n圖形分析:\n\n 軟體對圖形分析做了較多的大數據資料,並加入了自我學習的能力,如判斷歷史上的黃金坑,判斷雙底,計算斜率等。\n\n綜合動能:\n\n 除了以上指標,軟體還結合傳統的MACD\KDJ等數據,按不同的指標進行打分,最終得出動能分。然後即時對高分股票按歷史數據進行判斷,推薦出最合適的股票供用戶參考,當動能衰減時則會被沽出。\n\n\n\n 將軟體停留在在倉界面,會自動更新股股價及進行買賣指令的操作。\n\n\n\n
I. 百度股市通怎麼利用大數據選股票
有點麻煩,看你用哪些,大數據不適合散戶說實話
J. 如何運用大數據
1.可視化分析
大數據分析的使用者有大數據分析專家,同時還有普通用戶,但是他們二者對於大數據分析最基本的要求就是可視化分析,因為可視化分析能夠直觀的呈現大數據特點,同時能夠非常容易被讀者所接受,就如同看圖說話一樣簡單明了。
2. 數據挖掘演算法
大數據分析的理論核心就是數據挖掘演算法,各種數據挖掘的演算法基於不同的數據類型和格式才能更加科學的呈現出數據本身具備的特點,也正是因為這些被全世界統
計
學家所公認的各種統計方法(可以稱之為真理)才能深入數據內部,挖掘出公認的價值。另外一個方面也是因為有這些數據挖掘的演算法才能更快速的處理大數據,如
果一個演算法得花上好幾年才能得出結論,那大數據的價值也就無從說起了。
3. 預測性分析
大數據分析最終要的應用領域之一就是預測性分析,從大數據中挖掘出特點,通過科學的建立模型,之後便可以通過模型帶入新的數據,從而預測未來的數據。
4. 語義引擎
非結構化數據的多元化給數據分析帶來新的挑戰,我們需要一套工具系統的去分析,提煉數據。語義引擎需要設計到有足夠的人工智慧以足以從數據中主動地提取信息。
5.數據質量和數據管理。 大數據分析離不開數據質量和數據管理,高質量的數據和有效的數據管理,無論是在學術研究還是在商業應用領域,都能夠保證分析結果的真實和有價值。
大數據分析的基礎就是以上五個方面,當然更加深入大數據分析的話,還有很多很多更加有特點的、更加深入的、更加專業的大數據分析方法。
大數據的技術
數據採集: ETL工具負責將分布的、異構數據源中的數據如關系數據、平面數據文件等抽取到臨時中間層後進行清洗、轉換、集成,最後載入到數據倉庫或數據集市中,成為聯機分析處理、數據挖掘的基礎。
數據存取: 關系資料庫、NOSQL、SQL等。
基礎架構: 雲存儲、分布式文件存儲等。
數
據處理: 自然語言處理(NLP,Natural Language
Processing)是研究人與計算機交互的語言問題的一門學科。處理自然語言的關鍵是要讓計算機」理解」自然語言,所以自然語言處理又叫做自然語言理
解也稱為計算語言學。一方面它是語言信息處理的一個分支,另一方面它是人工智慧的核心課題之一。
統計分析:
假設檢驗、顯著性檢驗、差異分析、相關分析、T檢驗、 方差分析 、
卡方分析、偏相關分析、距離分析、回歸分析、簡單回歸分析、多元回歸分析、逐步回歸、回歸預測與殘差分析、嶺回歸、logistic回歸分析、曲線估計、
因子分析、聚類分析、主成分分析、因子分析、快速聚類法與聚類法、判別分析、對應分析、多元對應分析(最優尺度分析)、bootstrap技術等等。
數
據挖掘: 分類
(Classification)、估計(Estimation)、預測(Prediction)、相關性分組或關聯規則(Affinity
grouping or association rules)、聚類(Clustering)、描述和可視化、Description and
Visualization)、復雜數據類型挖掘(Text, Web ,圖形圖像,視頻,音頻等)
模型預測 :預測模型、機器學習、建模模擬。
結果呈現: 雲計算、標簽雲、關系圖等。
大數據的處理
1. 大數據處理之一:採集
大
數據的採集是指利用多個資料庫來接收發自客戶端(Web、App或者感測器形式等)的
數據,並且用戶可以通過這些資料庫來進行簡單的查詢和處理工作。比如,電商會使用傳統的關系型資料庫MySQL和Oracle等來存儲每一筆事務數據,除
此之外,Redis和MongoDB這樣的NoSQL資料庫也常用於數據的採集。
在大數據的採集過程中,其主要特點和挑戰是並發數高,因為同時
有可能會有成千上萬的用戶
來進行訪問和操作,比如火車票售票網站和淘寶,它們並發的訪問量在峰值時達到上百萬,所以需要在採集端部署大量資料庫才能支撐。並且如何在這些資料庫之間
進行負載均衡和分片的確是需要深入的思考和設計。
2. 大數據處理之二:導入/預處理
雖然採集端本身會有很多資料庫,但是如果要對這些
海量數據進行有效的分析,還是應該將這
些來自前端的數據導入到一個集中的大型分布式資料庫,或者分布式存儲集群,並且可以在導入基礎上做一些簡單的清洗和預處理工作。也有一些用戶會在導入時使
用來自Twitter的Storm來對數據進行流式計算,來滿足部分業務的實時計算需求。
導入與預處理過程的特點和挑戰主要是導入的數據量大,每秒鍾的導入量經常會達到百兆,甚至千兆級別。
3. 大數據處理之三:統計/分析
統
計與分析主要利用分布式資料庫,或者分布式計算集群來對存儲於其內的海量數據進行普通
的分析和分類匯總等,以滿足大多數常見的分析需求,在這方面,一些實時性需求會用到EMC的GreenPlum、Oracle的Exadata,以及基於
MySQL的列式存儲Infobright等,而一些批處理,或者基於半結構化數據的需求可以使用Hadoop。
統計與分析這部分的主要特點和挑戰是分析涉及的數據量大,其對系統資源,特別是I/O會有極大的佔用。
4. 大數據處理之四:挖掘
與
前面統計和分析過程不同的是,數據挖掘一般沒有什麼預先設定好的主題,主要是在現有數
據上面進行基於各種演算法的計算,從而起到預測(Predict)的效果,從而實現一些高級別數據分析的需求。比較典型演算法有用於聚類的Kmeans、用於
統計學習的SVM和用於分類的NaiveBayes,主要使用的工具有Hadoop的Mahout等。該過程的特點和挑戰主要是用於挖掘的演算法很復雜,並
且計算涉及的數據量和計算量都很大,常用數據挖掘演算法都以單線程為主。
整個大數據處理的普遍流程至少應該滿足這四個方面的步驟,才能算得上是一個比較完整的大數據處理。