文章列表

5.1k5 分钟

Adman梯度下降算法核心思想是,对于每个参数,根据其梯度的历史信息,动态调整其学习率从而实现更快的收敛和更好的性能。Adman梯度下降算法使用两个参数,一个是动量参数,另一个是自适应学习率参数。 动量参数用于加速参数的更新 自适应学习率参数则根据参数梯度的历史信息,动态调整参数的学习率。 在学习adam梯度下降算法之前,有必要先了解一下梯度下降算法和动量梯度下降算法。 梯度下降算法 梯度下降算法(Gradient Descent, GD)是深度学习的核心之一,用于最小化目标函数。其基本思想是,在每次迭代中,沿着目标函数的负梯度方向更新参数,从而逐步逼近最优解。 随机梯度下降算法(S
5.7k5 分钟

第一步:安装Opencv 安装Opencv参考链接:安装OpenCV 获取yolov5s.pt权值文件 使用的是轻量的yolov5s模型,在本地训练后,通过命令发送发到树莓派上: 首先查看树莓派地址: ifconfig # 查看地址 连接的wify,可以看到所属的地址端口。 将本地导出的best.onnx权值文件发送到树莓派上: scp best.onnx <用户名>@<树莓派地址>:<保存文件地址> 推理代码 #include <iostream> #include <opencv2/op
8.2k7 分钟

本文主要介绍如何使用LSTM预测电池的SOH(SOC)。 项目地址:https://github.com/zhang3399/Battery-SOH-prediction 1. 数据集介绍 数据集来源于https://ti.arc.nasa.gov/tech/dash/groups/pcoe/prognostic-data-repository/#battery 数据说明: 一组四个锂离子电池(#5、6、7和18)在室温下经历了3种不同的操作模式(充电、放电和阻抗)。以1
3k3 分钟

Lambda表达式是 C++11 引入的一种匿名函数,允许在需要函数对象的地方直接定义一个函数,无需显式定义函数名。Lambda 表达式常用于实现回调函数、临时函数、算法函数等场景。 基本语法 Lambda 表达式的完整语法结构如下: [ captures ] ( params ) mutable -> return_type { body } 组成部分 说明 [ captures ] 捕获列表,定义外部变量如何被 Lambda 访问(值捕获、引用捕获等) ( params ) 参数列表,与普通函数参数列表一致 mutable 可选关键字,
24k22 分钟

Boost 是一个开源的 C++ 库集合,提供了许多实用的功能,如网络编程、图形界面、数学计算等。Boost 库可以与标准 C++ 库无缝集成,扩展了 C++ 的功能。 安装 Boost 库 通过 APT 包管理器安装 Boost 库: # 1. 更新软件包索引 sudo apt update # 2. 安装 Boost 核心库和开发文件(包含头文件和静态/动态库) sudo apt install libboost-all-dev -y # 3. 验证安装(检查版本) boostversion=$(cat /usr/include/b