卷积神经网络和双向长短期记忆全钒液流电池SOC估算方法
- 国知局
- 2024-08-22 14:24:02
本发明属于全钒液流电池在线健康监测领域,尤其涉及一种卷积神经网络和双向长短期记忆的全钒液流电池soc估算方法。背景技术:::1、全钒液流电池以其长寿命周期、高效能转换、模块化设计以及可以深度放电等特点成为清洁能源和电网储能系统中高功率、大容量、长时储能技术的最佳选择。但电池的荷电状态(state of charge,简称soc)估算不准确使得无法准确评估电池的充放电状态,导致全钒液流电池过充和过放,进而影响电池的寿命和性能。因此,对全钒液流电池的荷电状态准确估算显的尤为重要。目前,全钒液流电池的荷电状态估算方法主要有安时积分法,开路电压法,卡尔曼滤波法和深度学习方法。安时积分法的准确性严重依赖于电流传感器的精度,通常需要结合其它方法使用;开路电压法基于电池的开路电压与soc之间的关系,要求电池在一段时间内不进行充放电操作,以确保电压稳定,无法实时反应;卡尔曼滤波法估算的准确性高度依赖于电池模型的准确性,且计算复杂度较高,对初始状态估计敏感,效果的优劣很大程度上取决于过程噪声和测量噪声协方差矩阵的设定,而且可能存在线性化误差,对参数的处理也比较复杂;而深度学习方法通过训练模型使用大量的数据来实现荷电状态的估算,在处理复杂系统和非线性特性方面表现出色。技术实现思路1、本发明为了解决电池的荷电状态估算不准确的问题,提供了一种卷积神经网络和双向长短期记忆的全钒液流电池soc估算方法。2、本发明是通过以下技术方案实现的:一种卷积神经网络和双向长短期记忆的全钒液流电池soc估算方法,包括如下步骤:3、(1)数据预处理:将电池的数据划分为训练数据集、验证数据集与测试数据集,对训练数据集抽样,对训练数据进行归一化;4、(2)初始化cnn-bilstm网络模型,确定网络的三层结构、模型编译器、正则化以及回调函数;5、所述三层结构的第一层是一维卷积、第二层是长短期记忆、第三层是全连接层;6、(3)初始化种群:基于训练数据集,确定需要优化的超参数的取值范围,选择种群的大小以及随机生成初始解;7、(4)确定评估指标:使用mse作为指标进行适应度的评估;8、(5)将初始化后的种群中的参数更新至cnn-bilstm网络模型,即更新cnn-bilstm网络模型中的超参数,导入训练数据进行训练;9、(6)训练停止后,通过验证数据集验证当前的cnn-bilstm网络模型的性能,并使用适应度函mse数进行模型评估;10、(7)利用变异操作在当前种群的基础上生成新的候选解,以此探索解空间,寻找更优的解;11、(8)进行边界检查,以确保变异向量的每个参数都在允许的范围内;12、(9)利用交叉操作生成最终试验个体,通过结合目标个体和变异向量的信息来增加种群的多样性;13、(10)利用选择操作决定是否将新生成的试验个体替换当前种群中的目标向量;计算目标模型与试验模型的适应度函数mse,以判断选择哪一个模型;14、(11) 设置适应度阈值以及适应度改进幅度来确定终止条件;当判断不满足终止条件时,再次执行差分进化算法,并将下一代种群的超参数赋值到神经网络模型进行训练,即返回步骤(5);当满足终止条件时,差分进化算法将停止其迭代过程,从当前种群中选取适应度最好的个体作表示最优解;得到最优参数训练的神经网络模型,进而采用最终的神经网络模型用于全钒液流电池soc估算。15、作为本发明技术方案的进一步改进,步骤(1)中,对训练数据进行抽样时,采用的是二分抽样法对训练数据进行抽样处理;对训练数据进行归一化处理时,采用的归一化的方程如下所示:16、17、式中:y表示原始的数据值,ynorm表示归一化后的值,ymin和ymax分别表示该特征在整个训练数据集中的最小值和最大值。18、作为本发明技术方案的进一步改进,步骤(2)中,第一层的一维卷积的卷积公式如下所示:19、20、式中:是卷积操作后的输出序列在位置i的值,i是输入序列,k是卷积核,而a是卷积核覆盖的输入序列索引。21、作为本发明技术方案的进一步改进,步骤(2)中,第二层是长短期记忆bilstm;lstm的公式如下:22、遗忘门的更新表示如式<mstyledisplaystyle="true"mathcolor="#000000"><msub><mi>f</mi><mi>t</mi></msub><mi>=</mi><mi>σ</mi><mi>(</mi><msub><mi>w</mi><mi>f</mi></msub><mi>⋅</mi><mi>[</mi><msub><mi>h</mi><mrow><mi>t</mi><mi>−</mi><mn>1</mn></mrow></msub><mi>,</mi><msub><mi>x</mi><mi>t</mi></msub><mi>]</mi><mo>+</mo><msub><mi>b</mi><mi>f</mi></msub><mi>)</mi></mstyle>23、式中:ht-1表示前一时刻的状态,xt表示当前输入,wf与bf分别表示遗忘门的权重与偏置参数,表示遗忘门的输出,是一个介于0和1之间的向量,为每个维度上的遗忘比例;表示sigmoid函数,该函数表述如式所示,其中e表示自然对数的底数,其近似值为2.71828,x表示函数的输入,是单个数值、向量或矩阵;24、输入门的更新表示如式<mstyledisplaystyle="true"mathcolor="#000000"><mo>{</mo><mtable><mtr><mtd><msub><mi>i</mi><mi>t</mi></msub><mi>=</mi><mi>σ</mi><mi>(</mi><msub><mi>w</mi><mi>i</mi></msub><mi>⋅</mi><mi>[</mi><msub><mi>h</mi><mrow><mi>t</mi><mi>−</mi><mn>1</mn></mrow></msub><mi>,</mi><msub><mi>x</mi><mi>t</mi></msub><mi>]</mi><mo>+</mo><msub><mi>b</mi><mi>i</mi></msub><mi>)</mi></mtd></mtr><mtr><mtd><mover><msub><mi>c</mi><mi>t</mi></msub><mostretchy="true">̃</mo></mover><mi>=</mi><mi>tanh(</mi><msub><mi>w</mi><mi>c</mi></msub><mi>⋅</mi><mi>[</mi><msub><mi>h</mi><mrow><mi>t</mi><mi>−</mi><mn>1</mn></mrow></msub><mi>,</mi><msub><mi>x</mi><mi>t</mi></msub><mi>]</mi><mo>+</mo><msub><mi>b</mi><mi>c</mi></msub><mi>)</mi></mtd></mtr></mtable></mstyle>25、式中:wi、bi与wc、bc分别表示输入门门限结构与tanh激活层的矩阵权重与偏置,it表示输入门的输出,一个介于0和1之间的向量,表示每个维度上新的信息需要被存储的比例;表示候选细胞状态,表示新的候选值,tanh表示双曲正切函数,该函数表述如式所示;26、状态更新表示如式27、式中:ct表示当前时间步的细胞状态,ft表示遗忘门的输出,ct-1表示上一时间步的细胞状态,it表示输入门的输出;28、输出门的更新表示如式<mstyledisplaystyle="true"mathcolor="#000000"><mo>{</mo><mtable><mtr><mtd><msub><mi>o</mi><mi>t</mi></msub><mi>=</mi><mi>σ</mi><mi>(</mi><msub><mi>w</mi><mi>o</mi></msub><mi>⋅</mi><mi>[</mi><msub><mi>h</mi><mrow><mi>t</mi><mi>−</mi><mn>1</mn></mrow></msub><mi>,</mi><msub><mi>x</mi><mi>t</mi></msub><mi>]</mi><mo>+</mo><msub><mi>b</mi><mi>o</mi></msub><mi>)</mi></mtd></mtr><mtr><mtd><msub><mi>h</mi><mi>t</mi></msub><mi>=</mi><msub><mi>o</mi><mi>t</mi></msub><mi>*tanh(</mi><msub><mi>c</mi><mi>t</mi></msub><mi>)</mi></mtd></mtr></mtable></mstyle>29、ot表示输出门的输出,一个介于0和1之间的向量,表示每个维度上从细胞状态输出的比例;wo与bo分别表示输出门的权重与偏置参数;ht-1表示前一时刻的状态;ht表示当前时间步的输出;30、在bilstm中,输入序列按照时间步分别输入到正向和反向的lstm中;31、第三层是全连接层。32、作为本发明技术方案的进一步改进,步骤(3)中,确定超参数的取值范围时,需要确定批次大小、bilstm神经元个数以及学习率;选择种群的大小时,设定种群的大小p,对于每个个体si,从q中随机选择一个值q,再将选择的q作为个体si的值,所述q为批次大小、bilstm神经元个数以及学习率中可能值的集合;33、34、s为初始化种群。35、作为本发明技术方案的进一步改进,步骤(4)中,mse的方程如式所示:36、37、其中表示样本的真实值,样本的真实值通过在实验室使用soc-ocv关系拟合曲线标定,是模型预测的值,模型预测的值通过神经网络模型预测的结果,表示样本数量。38、作为本发明技术方案的进一步改进,步骤(7)中,变异操作的方程如下所示:39、40、其中f表示变异因子,表示一个事先设定的差分权重,以此控制差分变异的幅度,, , 表示种群当前代数的三个不同个体,表示下一代的变异向量。41、作为本发明技术方案的进一步改进,步骤(8)中,边界检查的方程如下:42、43、设置最小边界值为超参数取值范围的最小值,最大边界值为超参数取值范围的最大值,当检测到下一代的变异向量小于最小边界值时,令变异向量为最小边界值,当检测到下一代的变异向量大于最大边界值时,令变异向量为最大边界值。44、作为本发明技术方案的进一步改进,步骤(9)中,交叉操作的方程如下:45、46、式中:表示目标向量,是当前种群的个体,表示变异向量,表示生成的下一代的实验向量,表示交叉概率,表示(0,1)区间内的随机数,用于每个维度独立决定是否进行交叉,生成的随机数小于设置的交叉概率时,将变异向量赋值给实验向量,其他情况下将上一代的个体赋值给实验向量。47、作为本发明技术方案的进一步改进,步骤(10)中,选择操作的方程如下:48、49、式中:表示生成的下一代的实验向量,表示目标向量, 表示生成的下一代个体,表示使用神经网络模型带入实验向量的参数进行迭代训练的结果,表示使用神经网络模型带入目标向量的参数进行迭代训练的结果,神经网络模型训练的结果使用适应度函数mse评估,当进行运算后得到的实验向量mse更小时,将实验向量的结果赋值给下一代的种群个体,其他情况时,将原个体的结果保留。50、本发明提供的技术方案与现有技术相比具有如下优点:51、1.估算精度提高:本发明通过引入差分进化算法优化cnn-bilstm神经网络模型,显著提高了全钒液流电池荷电状态(soc)的估算精度。对比曲线显示,本发明的算法在各种工况下均表现出更高的准确性和稳定性,减少了soc估算误差,提升了电池管理系统的可靠性。52、2.自适应能力强:采用差分进化算法优化神经网络模型,使得模型能够更好地适应复杂多变的电池工作环境,具备较强的自适应能力。该优化方法能够动态调整神经网络的参数,提高了模型对数据噪声和测量误差的鲁棒性,确保soc估算的实时性和准确性。53、3.计算效率提升:优化后的神经网络模型具备更高的计算效率,能够在较短的时间内完成soc估算,满足实际应用中的实时性要求。54、4.模型通用性强:差分进化算法优化的cnn-bilstm神经网络模型不仅适用于全钒液流电池的soc估算,也可以推广应用于其他类型电池的soc估算。该模型具备良好的通用性和可移植性,能够为不同电池管理系统提供可靠的soc估算方案,具有广泛的应用前景。55、5.系统稳定性增强:本发明的技术方案通过提高soc估算的精度和实时性,增强了电池管理系统的整体稳定性,减少了电池过充、过放的风险,延长了电池的使用寿命,提高了系统的安全性和可靠性。56、6.实验验证充分:本发明的技术方案经过严格的实验验证,对比曲线和实验数据充分证明了差分进化算法优化的cnn-bilstm神经网络模型在soc估算中的优越性能。实验结果表明,本发明的技术方案在实际应用中表现出色,具有很高的实用价值和推广潜力。57、综上所述,本发明通过差分进化算法优化cnn-bilstm神经网络模型,显著提高了全钒液流电池soc估算的精度和实时性,具有较强的自适应能力、计算效率和通用性,增强了系统的稳定性和可靠性,经过充分的实验,验证了其在实际应用中的优越性能和广泛的应用前景。当前第1页12当前第1页12
本文地址:https://www.jishuxx.com/zhuanli/20240822/278574.html
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 YYfuon@163.com 举报,一经查实,本站将立刻删除。
下一篇
返回列表