模拟炒股实验报告(炒股软件)
本篇文章给大家谈谈模拟炒股实验报告,以及炒股软件的知识点,希望对各位有所帮助,不要忘了收藏本站喔。
文章详情介绍:
模拟炒股记录-321
模拟炒股记录-321
东方财富“崩”上热搜,公司回应了!炒股软件为何频现故障
今日(3月21日),东方财富软件“崩”上热搜。多位网友在社交媒体爆料,股票交易时段无法登录东方财富软件,相关话题也冲上微博热搜榜单。
此外,在东方财富旗下的股票社区股吧,有多位投资者发帖询问,“软件又崩了什么情况?”“怎么回事?登录不进去?”
对于引发此事的原因,东方财富董秘办回应南都记者称,具体原因技术部门仍在排查,等结果出来后再具体回复。截至发稿,东方财富交易软件已经恢复正常登录和交易。
截图来自股吧
截至21日收盘,东方财富股价报20.18元,小幅收涨1%。根据其2022年年报,该公司主要业务有证券业务、金融电子商务服务业务、金融数据服务业务等,涵盖互联网证券和互联网基金销售等多个细分领域。报告期内,公司实现营业总收入124.86亿元,同比下降4.65%,实现归属于上市公司股东净利润85.09亿元,同比下降0.51%。
这并不是炒股软件第一次“崩了”。2022年11月9日早盘,同花顺APP也出现过异常情况,“崩了”导致无法连接。当时的通告弹窗显示,“因Level2行情源异常,目前沪市分时和行情走势图受影响。建议广大用户临时切换行情到Level1免费行情站点。”
当天下午,上证所信息网络有限公司发布情况说明称,“今日9时45分,因LEVEL-2行情主用系统报警,我司按应急预案切换至备用系统。9时50分以后,信息商陆续反馈行情显示已恢复正常。”
更早些时候,2022年5月16日,招商证券与华西证券APP曾先后出现故障,导致无法交易。同年7月21日,西部证券旗下的APP也短暂“崩过”。
采写:南都记者 赵唯佳 发自上海
GitHub热门推荐:如何用深度强化学习自动炒股
初衷项目地址:
https://github.com/wangshub/RL-Stock
最近一段时间,受到新冠疫情的影响,股市接连下跌,作为一棵小白菜兼小韭菜,竟然产生了抄底的大胆想法,拿出仅存的一点私房钱梭哈了一把。
第二天,暴跌,俺加仓
第三天,又跌,俺加仓
第三天,又跌,俺又加仓...
一番错误操作后,结果惨不忍睹,第一次买股票就被股市一段暴打,受到了媳妇无情的嘲讽。痛定思痛,俺决定换一个思路:如何用深度强化学习来自动模拟炒股? 实验验证一下能否获得收益。
监督学习与强化学习的区别监督学习(如 LSTM)可以根据各种历史数据来预测未来的股票的价格,判断股票是涨还是跌,帮助人做决策。
而强化学习是机器学习的另一个分支,在决策的时候采取合适的行动 (Action) 使最后的奖励最大化。与监督学习预测未来的数值不同,强化学习根据输入的状态(如当日开盘价、收盘价等),输出系列动作(例如:买进、持有、卖出),使得最后的收益最大化,实现自动交易。
OpenAI Gym 股票交易环境观测 Observation
策略网络观测的就是一只股票的各项参数,比如开盘价、收盘价、成交数量等。部分数值会是一个很大的数值,比如成交金额或者成交量,有可能百万、千万乃至更大,为了训练时网络收敛,观测的状态数据输入时,必须要进行归一化,变换到 [-1, 1] 的区间内。
动作 Action
假设交易共有买入、卖出和保持 3 种操作,定义动作(action)为长度为 2 的数组
action[0] 为操作类型;
action[1] 表示买入或卖出百分比;
注意,当动作类型 action[0] = 3 时,表示不买也不抛售股票,此时 action[1] 的值无实际意义,网络在训练过程中,Agent 会慢慢学习到这一信息。
奖励 Reward
奖励函数的设计,对强化学习的目标至关重要。在股票交易的环境下,最应该关心的就是当前的盈利情况,故用当前的利润作为奖励函数。即当前本金 + 股票价值 - 初始本金 = 利润。
# profits reward = self.net_worth - INITIAL_ACCOUNT_BALANCE reward = 1 if reward > 0 else reward = -100
为了使网络更快学习到盈利的策略,当利润为负值时,给予网络一个较大的惩罚 (-100)。
策略梯度
因为动作输出的数值是连续,因此使用基于策略梯度的优化算法,其中比较知名的是 PPO 算法,OpenAI 和许多文献已把 PPO 作为强化学习研究中首选的算法。PPO 优化算法 Python 实现参考 stable-baselines。
环境安装
# 虚拟环境
virtualenv -p python3.6 venv source ./venv/bin/activate # 安装库依赖 pip install -r requirements.txt
股票数据获取
股票证券数据集来自于 baostock,一个免费、开源的证券数据平台,提供 Python API。
>> pip install baostock -i https://pypi.tuna.tsinghua.edu.cn/simple/ --trusted-host pypi.tuna.tsinghua.edu.cn
数据获取代码参考 get_stock_data.py
>> python get_stock_data.py
将过去 20 多年的股票数据划分为训练集,和末尾 1 个月数据作为测试集,来验证强化学习策略的有效性。划分如下
验证结果
单只股票
-
模拟实验
-
初始本金 10000
股票代码:sh.600036(招商银行)
训练集: stockdata/train/sh.600036.招商银行.csv
测试集: stockdata/test/sh.600036.招商银行.csv
模拟操作 20 天,最终盈利约 400
多只股票
-
选取 1002 只股票,进行训练,共计
盈利: 44.5%
不亏不赚: 46.5%
亏损:9.0%
股票 Gym 环境主要参考 Stock-Trading-Environment,对观测状态、奖励函数和训练集做了修改。
俺完全是股票没入门的新手,难免存在错误,欢迎指正!
数据和方法皆来源于网络,无法保证有效性,Just For Fun!
books 参考资料
-
最后
-
Y. Deng, F. Bao, Y. Kong, Z. Ren and Q. Dai, "Deep Direct Reinforcement Learning for Financial Signal Representation and Trading," in IEEE Transactions on Neural Networks and Learning Systems, vol. 28, no. 3, pp. 653-664, March 2017.
Yuqin Dai, Chris Wang, Iris Wang, Yilun Xu, "Reinforcement Learning for FX trading"(http://stanford.edu/class/msande448/2019/Final_reports/gr2.pdf)
Chien Yi Huang. Financial trading as a game: A deep reinforcement learning approach. arXiv preprint arXiv:1807.02787, 2018.
Create custom gym environments from scratch — A stock market example(https://towardsdatascience.com/creating-a-custom-openai-gym-environment-for-stock-trading-be532be3910e)
notadamking/Stock-Trading-Environment(https://github.com/notadamking/Stock-Trading-Environment)
Welcome to Stable Baselines docs! - RL Baselines Made Easy(https://stable-baselines.readthedocs.io/en/master)
-
-