<本文翻译自matlab帮助文档,算是自己对该方法的一点理解和总结>
本例展示了如何用LSTM网络预测时间序列数据。为了预测一个序列的未来时间步长值,你可以训练一个sequence-to-sequence
LSTM回归网络,其中[2]网络的响应是训练序列值移动了一个时间步长。也就是说,在输入序列的每个时间步长上,LSTM网络学习去预测下个时间步长的值。为了预测未来多个时间[2]步长的值,使用predictAndUpdateState函数去预测并更新网络状态。这个例子使用chickenpox_dataset数据集。这个例子构建了一个LSTM网络,在已知[3]前几个月样本数量的情况下,去预测未来的值。

(在Matlab2018a中用LSTM网络模型进行时间序列预测的方法有两种。
第一种:
比如已知[x1,x2,...,x10]这个序列,用[x1,x2,...,x9]作为输入,得到[x2,x3,...,x10],
然后用x10得到x11',用x11'得到x12',以此类推,完成预测。
第二种:
比如已知[x1,x2,...,x10,x11,...,x20]这个序列,用[x1,x2,...,x9]作为输入,得到[x2,x3,...,x10],
然后用x10得到x11',用x11得到x12',以此类推,得到[x11',x12',...,x20']完成预测。
个人理解中,第二种方法可能只是用来检测模型,实际中并不能预测,因为如果已知x11,再去预测x11’,似乎没有意义。
)

* 下载序列数据
该序列中的时间步长代表月份,值对应样本数量。把数据集变成一个行向量。

把数据集分解:训练占90%,测试占10%。同时,按上文介绍,网络的响应是训练序列移动一个时间步长的值。

* 标准化数据
为了更好地拟合并防止训练时发散,将训练数据标准化为零均值和单位方差。使用同样的参数格式化测试数据。

* 定义LSTM网络
创建一个LSTM回归网络,指定LSTM层有200个隐藏神经元。


指定训练参数。设定求解函数“adam”,训练250次。为了防止梯度爆炸,设定梯度阈值为1.指定初始学习速率为0.005,并且在125次迭代后把学习速率乘以0.2以降低学习速率。

* 训练LSTM网络
使用trainNetwork和指定的训练参数来训练LSTM网络。

* 预测未来值
为了预测未来多时间步长的值,使用predictAndUpdateState 函数。

为了初始化网络状态,首先预测训练数据XTrain,接着,使用训练响应的最后一个值YTrain(end)做预测。循环其余预测并将之前的预测输入predictAndUpdateState。(PS:‘预测未来值这一部分感觉自己翻译的有问题’)

技术
©2020 ioDraw All rights reserved
2020前端学习路线收集整理【C语言】乘法表29岁“退休程序员”郭宇: 有钱的人不一定自由,自由的人不一定有钱python gui界面实例-Python GUI编程完整示例pytorch训练过程中GPU利用率低学习java 的第一节课vue element-ui实现input输入框金额数字添加千分位对于面试官的问答: 你在项目组里拿到一个项目是怎么开展的呢???算法题的输入大总结小程序表单中 多个循环input 如何取每个input的值