文章列表
Adman梯度下降
Adman 梯度下降算法核心思想是,对于每个参数,根据其梯度的历史信息,动态调整其学习率从而实现更快的收敛和更好的性能。Adman 梯度下降算法使用两个参数,一个是动量参数,另一个是自适应学习率参数。
动量参数用于加速参数的更新
自适应学习率参数则根据参数梯度的历史信息,动态调整参数的学习率。
在学习 adam 梯度下降算法之前,有必要先了解一下梯度下降算法和动量梯度下降算法。
# 梯度下降算法
梯度下降算法(Gradient Descent, GD) 是深度学习的核心之一,用于最小化目标函数。其基本思想是,在每次迭代中,沿着目标函数的负梯度方向更新参数,从而逐步逼近最优解。
随机
more...LSTM预测电池SOH
本文主要介绍如何使用 LSTM 预测电池的 SOH (SOC)。
项目地址:https://github.com/zhang3399/Battery-SOH-prediction
# 1. 数据集介绍
数据集来源于 https://ti.arc.nasa.gov/tech/dash/groups/pcoe/prognostic-data-repository/#battery
数据说明:
一组四个锂离子电池(#5、6、7 和 18)在室温下经历了 3 种不同的操作模式(充
more...