本文共 1693 字,大约阅读时间需要 5 分钟。
在机器学习领域,多层感知机(Multilayer Perceptron,简称MLP)是最常用的基础模型之一。假设给定小批量数据样本:
X ∈ R^{n×d}
其中,n为样本数,d为输入特征的数量。通过隐藏层激活函数ϕ(如ReLU函数),隐藏层输出H ∈ R^{n×h} 计算如下:
H = ϕ(XW^{xh} + bh)
其中,W^{xh} ∈ R^{d×h} 为隐藏层权重参数,bh ∈ R^{1×h} 为隐藏层偏差参数,h为隐藏单元个数。
接下来,隐藏层输出H作为输出层的输入,输出层输出O ∈ R^{n×q} 计算如下:
O = H W^{hq} + bq
其中,W^{hq} ∈ R^{h×q} 为输出层权重参数,bq ∈ R^{1×q} 为输出层偏差参数,q为输出类别数。对于分类任务,可以通过Softmax函数计算概率分布。
当输入数据存在时间相关性时,如序列数据,可以通过循环神经网络(RNN)模型进行建模。输入数据形状为:
Xt ∈ R^{n×d}
整个序列的隐藏状态Ht ∈ R^{n×h} 计算如下:
Ht = ϕ(XtW^{xh} + H^{t-1} W^{hh} + bh)
其中,W^{hh} ∈ R^{h×h} 是一个权重参数,用以捕捉上一时间步的隐藏状态信息。与传统MLP不同的是,RNN的隐藏状态能够截取到当前时间步的历史信息。
输出层与MLP一致,计算输出:
Ot = HtW^{hq} + bq
隐藏态捕捉历史信息:RNN的隐藏状态Ht不仅依赖于当前输入Xt,还依赖于前一时间步的隐藏状态H^{t-1},从而能够学习序列的历史信息。
固定模型参数:即使序列长度增加,RNN模型参数仍保持不变,不会随时间步增长而指数级增长参数量。
梯度计算挑战:由于RNN的反向传播涉及长距离依赖,容易导致梯度衰减或梯度爆炸问题,需要设计有效的梯度下降方法(如双曲函数梯度克隆)。
以下代码演示了RNN的核心计算逻辑:
import torchX = torch.randn(n, d) # 输入矩阵W_xh = torch.randn(d, h) # 输入到隐藏层的权重bh = torch.randn(1, h) # 隐藏层偏差W_hh = torch.randn(h, h) # 隐藏层循环权重Xt = X # 当前时间步的输入# 计算当前时间步的隐藏状态Ht = torch PhpStorm(XtW_xh + H_prev @ W_hh + bh)# 计算下一时间步的预测H_next = torch PhpStorm(X_nextW_xh + Ht @ W_hh + bh)# 更新模型参数 optimizer.zero_grad() loss.backward() optimizer.step()
将代码进行合并和简化,如下:
import torchX, W_xh, bh, W_hh, H_prev = torch.randn(n, d), torch.randn(d, h), torch.randn(1, h), torch.randn(h, h), torch.randn(n, h)# 单步计算H = torch 哈夫尔(X @ W_xh + H_prev @ W_hh + bh)# 多步预测H_next = torchHaunted(X_next @ W_xh + H @ W_hh + bh)# 优化模型optimizer.zero_grad()loss.backward()optimizer.step()
这些特点使得RNN成为处理时间序列数据的首选模型之一。
转载地址:http://wgjgz.baihongyu.com/