小波神经网络(WNN)的实现(Python,附源码及数据集)

[复制链接]
查看1207 | 回复0 | 2023-8-23 11:44:33 | 显示全部楼层 |阅读模式
一、理论根本

小波神经网络(Wavelet Neural Network,简称WNN)是基于小波变更理论构造而成,其原理原理与反向传播神经网络(BPNN)较为靠近,最重要的特征是它的隐含层神经元激活函数为小波基函数,这一特性使其充分使用了小波变更的局部化性质和神经网络的大规模数据并行处置惩罚、自学习能力,因而具有较强的逼近能力和较快的收敛速度。
反向传播神经网络(BPNN)原理参考:
反向传播神经网络(BPNN)的实现(Python,附源码及数据集)
1、小波神经网络结构

小波神经网络的结构图如下图所示:

2、前向传播过程

假设输入层、隐含层、输出层的节点数分别为n、i和m,则数据由输出层传递到隐含层时,隐含层第j个节点的输入数据的盘算公式如下:

此中x_k为输入数据中第k个样本数据,ω_kj为隐含层节点的毗连权值。
上述盘算效果在隐含层节点处举行小波基的伸缩厘革,具体的变更公式如下:


此中∅(x)为小波基函数,b_j为基函数的平滑因子,a_j为基函数的伸缩因子,h_j为隐含层第j个节点的输出数据。
最后隐含层第j个节点的输出数据进入输出层,颠末盘算后从输出层的t个节点输出,此节点上的盘算公式如下:

此中ω_jt为输出层的毗连权值,φ为激活函数。
激活函数原理参考:
神经网络根本知识之激活函数
3、反向传播过程

由前向传播过程可以相识到,数据在神经元与神经元之间的传递是单向的,每个神经元只担当上一层神经元传递过来的数据并对其处置惩罚。在这个处置惩罚过程中,小波神经网络重要有四个参数到场盘算,这四个参数分别是小波基函数的平滑因子b_j与伸缩因子a_j以及隐含层与输出层的两个毗连权值,这四个参数值的巨细将直接影响网络的性能。因此WNN的训练过程如BPNN一样重要使用反向传播算法如随机梯度下降法(SGD)对这四个参数举行不绝的修正。
以输出层的权值为例,其更新公式如下:

此中E为误差函数,μ为学习率。
损失函数原理参考:
呆板学习根本知识之损失函数
反向传播原理参考:
神经网络之反向传播算法(梯度、误差反向传播算法BP)
4、建模步调

以使用小波神经网络举行猜测为例,可以将小波神经网络猜测模子的建模步调总结如下:

  • 根据输入数据的相干特征确定小波神经网络输入层、隐含层以及输出层的节点数;
  • 选择一种参数初始化方法对小波神经网络隐含层的毗连权值、平滑因子和伸缩因子、输出层的毗连权值举行随机初始化;
  • 数据由输入层输入小波神经网络,传递至隐含层后经小波变更对数据举行非线性转换;
  • 数据在隐含层输出后传递至输出层,在与输出层的毗连权值举行线性盘算后由激活函数举行非线性转换,最后得到网络的前向传播输出;
  • 选择一种损失函数对网络的前向传播输出以及目标值举行相干盘算得到损失值;
  • 以输出层的损失值盘算得到输出层毗连权值以及阈值的梯度,选择一种反向传播算法对它们举行调整;
  • 损失值传递至隐含层,同样使用相同的反向传播算法对隐含层的中心点以及宽度向量举行调整;
  • 得到一个参数得到更新后的小波神经网络;
  • 在到达最大迭代次数或满足停止迭代条件之前,重复步调4到步调8,在到达最大迭代次数后,输出全部参数确定的小波神经网络。
参数初始化方法参考:
神经网络根本知识之参数初始化
二、小波神经网络的实现

以数据猜测为例,下面先容基于Python实现小波神经网络的过程。
选用某省市的表层土壤重金属元素数据集作为实验数据,该数据集统共96组,随机选择此中的24组作为测试数据集,72组作为训练数据集。选取重金属Ti的含量作为待猜测的输出特征,选取重金属Co、Cr、Mg、Pb作为模子的输入特征。
1、训练过程(WNN.py)

  1. #库的导入
  2. import numpy as np
  3. import pandas as pd
  4. import math
  5. #激活函数
  6. def tanh(x):
  7.     return (np.exp(x)-np.exp(-x))/(np.exp(x)+np.exp(-x))
  8. #激活函数偏导数
  9. def de_tanh(x):
  10.     return (1-x**2)
  11. #小波基函数
  12. def wavelet(x):
  13.     return (math.cos(1.75*x)) * (np.exp((x**2)/(-2)))
  14. #小波基函数偏导数
  15. def de_wavelet(x):
  16.     y = (-1) * (1.75 * math.sin(1.75 * x)  + x * math.cos(1.75 * x)) * (np.exp(( x **2)/(-2)))
  17.     return y
  18. #参数设置
  19. samnum = 72   #输入数据数量
  20. hiddenunitnum = 8   #隐含层节点数
  21. indim = 4   #输入层节点数
  22. outdim = 1   #输出层节点数
  23. maxepochs = 500   #迭代次数
  24. errorfinal = 0.65*10**(-3)   #停止迭代训练条件
  25. learnrate = 0.001   #学习率
  26. #输入数据的导入
  27. df = pd.read_csv("train.csv")
  28. df.columns = ["Co", "Cr", "Mg", "Pb", "Ti"]
  29. Co = df["Co"]
  30. Co = np.array(Co)
  31. Cr = df["Cr"]
  32. Cr = np.array(Cr)
  33. Mg=df["Mg"]
  34. Mg=np.array(Mg)
  35. Pb = df["Pb"]
  36. Pb =np.array(Pb)
  37. Ti = df["Ti"]
  38. Ti = np.array(Ti)
  39. samplein = np.mat([Co,Cr,Mg,Pb])
  40. #数据归一化,将输入数据压缩至0到1之间,便于计算,后续通过反归一化恢复原始值
  41. sampleinminmax = np.array([samplein.min(axis=1).T.tolist()[0],samplein.max(axis=1).T.tolist()[0]]).transpose()#对应最大值最小值
  42. #待预测数据为Ti
  43. sampleout = np.mat([Ti])
  44. sampleoutminmax = np.array([sampleout.min(axis=1).T.tolist()[0],sampleout.max(axis=1).T.tolist()[0]]).transpose()#对应最大值最小值
  45. sampleinnorm = ((np.array(samplein.T)-sampleinminmax.transpose()[0])/(sampleinminmax.transpose()[1]-sampleinminmax.transpose()[0])).transpose()
  46. sampleoutnorm = ((np.array(sampleout.T)-sampleoutminmax.transpose()[0])/(sampleoutminmax.transpose()[1]-sampleoutminmax.transpose()[0])).transpose()
  47. #给归一化后的数据添加噪声
  48. noise = 0.03*np.random.rand(sampleoutnorm.shape[0],sampleoutnorm.shape[1])
  49. sampleoutnorm += noise
  50. #
  51. scale = np.sqrt(3/((indim+outdim)*0.5))
  52. w1 = np.random.uniform(low=-scale,high=scale,size=[hiddenunitnum,indim])
  53. b = np.random.uniform(low=-scale, high=scale, size=[hiddenunitnum,1])
  54. a = np.random.uniform(low=-scale, high=scale, size=[hiddenunitnum,1])
  55. w2 = np.random.uniform(low=-scale,high=scale,size=[hiddenunitnum,outdim])
  56. #对隐含层的连接权值w1、平滑因子被b和伸缩因子a、输出层的连接权值w2进行随机初始化
  57. inputin=np.mat(sampleinnorm.T)
  58. w1=np.mat(w1)
  59. b=np.mat(b)
  60. a=np.mat(a)
  61. w2=np.mat(w2)
  62. #errhistory存储每次迭代训练计算的误差
  63. errhistory = np.mat(np.zeros((1,maxepochs)))
  64. #开始训练
  65. for i in range(maxepochs):
  66.     #前向计算:
  67.     #hidden_out为隐含层输出
  68.     hidden_out = np.mat(np.zeros((samnum,hiddenunitnum)))
  69.     for m in range(samnum):
  70.         for j in range(hiddenunitnum):
  71.             d=((inputin[m, :] * w1[j, :].T) - b[j,:]) * (a[j,:] ** (-1))
  72.             hidden_out[m,j] = wavelet(d)
  73.     #output为输出层输出
  74.     output = tanh(hidden_out * w2)
  75.     #计算误差
  76.     out_real = np.mat(sampleoutnorm.transpose())
  77.     err = out_real - output
  78.     loss = np.sum(np.square(err))
  79.     #判断是否停止训练
  80.     if loss < errorfinal:
  81.         break
  82.     errhistory[:,i] = loss
  83.     #反向计算
  84.     out_put=np.array(output.T)
  85.     belta=de_tanh(out_put).transpose()
  86.     #分别计算每个参数的误差项
  87.     for j in range(hiddenunitnum):
  88.         sum1 = 0.0
  89.         sum2 = 0.0
  90.         sum3 = 0.0
  91.         sum4 = 0.0
  92.         sum5 = 0.0
  93.         for m in range(samnum):
  94.             sum1+= err[m,:] * belta[m,:] * w2[j,:] * de_wavelet(hidden_out[m,j]) * (inputin[m,:] / a[j,:])
  95.             #1*1
  96.             sum2+= err[m,:] * belta[m,:] * w2[j,:] * de_wavelet(hidden_out[m,j]) * (-1) * (1 / a[j,:])
  97.             #1*1
  98.             sum3+= err[m,:] * belta[m,:] * w2[j,:] * de_wavelet(hidden_out[m,j]) * (-1) * ((inputin[m,:] * w1[j,:].T - b[j,:]) / (a[j,:] * a[j,:]))
  99.             #1*1
  100.             sum4+= err[m,:] * belta[m,:] * hidden_out[m,j]
  101.         delta_w1 = sum1
  102.         delta_b = sum2
  103.         delta_a = sum3
  104.         delta_w2 = sum4
  105.         #根据误差项对四个参数进行更新
  106.         w1[j,:] = w1[j,:] + learnrate * delta_w1
  107.         b[j,:] = b[j,:] + learnrate * delta_b
  108.         a[j,:] = a[j,:] + learnrate * delta_a
  109.         w2[j,:] = w2[j,:] + learnrate * delta_w2
  110.     print("the generation is:",i+1,",the loss is:",loss)
  111. print('更新的w1:',w1)
  112. print('更新的b:',b)
  113. print('更新的w2:',w2)
  114. print('更新的a:',a)
  115. print("The loss after iteration is :",loss)
  116. np.save("w1.npy",w1)
  117. np.save("b.npy",b)
  118. np.save("w2.npy",w2)
  119. np.save("a.npy",a)
复制代码
2、测试过程(test.py)

  1. #库的导入
  2. import numpy as np
  3. import pandas as pd
  4. import math
  5. #小波基函数
  6. def wavelet(x):
  7.     return (math.cos(1.75*x)) * (np.exp((x**2)/(-2)))
  8. #激活函数tanh
  9. def tanh(x):
  10.     return (np.exp(x)-np.exp(-x))/(np.exp(x)+np.exp(-x))
  11. #输入数据的导入,用于测试数据的归一化与返归一化
  12. df = pd.read_csv("train.csv")
  13. df.columns = ["Co", "Cr", "Mg", "Pb", "Ti"]
  14. Co = df["Co"]
  15. Co = np.array(Co)
  16. Cr = df["Cr"]
  17. Cr = np.array(Cr)
  18. Mg=df["Mg"]
  19. Mg=np.array(Mg)
  20. Pb = df["Pb"]
  21. Pb =np.array(Pb)
  22. Ti = df["Ti"]
  23. Ti = np.array(Ti)
  24. samplein = np.mat([Co,Cr,Mg,Pb])
  25. sampleinminmax = np.array([samplein.min(axis=1).T.tolist()[0],samplein.max(axis=1).T.tolist()[0]]).transpose()#对应最大值最小值
  26. sampleout = np.mat([Ti])
  27. sampleoutminmax = np.array([sampleout.min(axis=1).T.tolist()[0],sampleout.max(axis=1).T.tolist()[0]]).transpose()#对应最大值最小值
  28. #导入WNN.py训练好的参数
  29. w1=np.load('w1.npy')
  30. b=np.load('b.npy')
  31. a=np.load('a.npy')
  32. w2=np.load('w2.npy')
  33. w1 = np.mat(w1)
  34. w2 = np.mat(w2)
  35. b = np.mat(b)
  36. a = np.mat(a)
  37. #隐含层节点数
  38. hiddenunitnum = 8
  39. #测试数据数量
  40. testnum = 24
  41. #测试数据的导入
  42. df = pd.read_csv("test.csv")
  43. df.columns = ["Co", "Cr", "Mg", "Pb", "Ti"]
  44. Co = df["Co"]
  45. Co = np.array(Co)
  46. Cr = df["Cr"]
  47. Cr = np.array(Cr)
  48. Mg=df["Mg"]
  49. Mg=np.array(Mg)
  50. Pb = df["Pb"]
  51. Pb =np.array(Pb)
  52. Ti = df["Ti"]
  53. Ti = np.array(Ti)
  54. input=np.mat([Co,Cr,Mg,Pb])
  55. #测试数据中输入数据的归一化
  56. inputnorm=(np.array(input.T)-sampleinminmax.transpose()[0])/(sampleinminmax.transpose()[1]-sampleinminmax.transpose()[0])
  57. #hidden_out2用于保存隐含层输出
  58. hidden_out = np.mat(np.zeros((testnum,hiddenunitnum)))
  59. #计算隐含层输出
  60. for m in range(testnum):
  61.     for j in range(hiddenunitnum):
  62.         d = ((inputnorm[m, :] * w1[j, :].T) - b[j, :]) * (a[j, :] ** (-1))
  63.         hidden_out[m, j] = wavelet(d)
  64. #计算输出层输出
  65. output = tanh(hidden_out * w2 )
  66. #对输出结果进行反归一化
  67. diff = sampleoutminmax[:,1]-sampleoutminmax[:,0]
  68. networkout2 = output*diff+sampleoutminmax[0][0]
  69. networkout2 = np.array(networkout2).transpose()
  70. output1=networkout2.flatten()#降成一维数组
  71. output1=output1.tolist()
  72. for i in range(testnum):
  73.     output1[i] = float('%.2f'%output1[i])
  74. print("the prediction is:",output1)
  75. #将输出结果与真实值进行对比,计算误差
  76. output=Ti
  77. rmse = (np.sum(np.square(output-output1))/len(output)) ** 0.5
  78. mae = np.sum(np.abs(output-output1))/len(output)
  79. average_loss1=np.sum(np.abs((output-output1)/output))/len(output)
  80. mape="%.2f%%"%(average_loss1*100)
  81. f1 = 0
  82. for m in range(testnum):
  83.     f1 = f1 + np.abs(output[m]-output1[m])/((np.abs(output[m])+np.abs(output1[m]))/2)
  84. f2 = f1 / testnum
  85. smape="%.2f%%"%(f2*100)
  86. print("the MAE is :",mae)
  87. print("the RMSE is :",rmse)
  88. print("the MAPE is :",mape)
  89. print("the SMAPE is :",smape)
  90. #计算预测值与真实值误差与真实值之比的分布
  91. A=0
  92. B=0
  93. C=0
  94. D=0
  95. E=0
  96. for m in range(testnum):
  97.     y1 = np.abs(output[m]-output1[m])/np.abs(output[m])
  98.     if y1 <= 0.1:
  99.         A = A + 1
  100.     elif y1 > 0.1 and y1 <= 0.2:
  101.         B = B + 1
  102.     elif y1 > 0.2 and y1 <= 0.3:
  103.         C = C + 1
  104.     elif y1 > 0.3 and y1 <= 0.4:
  105.         D = D + 1
  106.     else:
  107.         E = E + 1
  108. print("Ratio <= 0.1 :",A)
  109. print("0.1< Ratio <= 0.2 :",B)
  110. print("0.2< Ratio <= 0.3 :",C)
  111. print("0.3< Ratio <= 0.4 :",D)
  112. print("Ratio > 0.4 :",E)
复制代码
3、测试效果


注:由于每次初始化天生的参数差别,因此对参数设置相同的神经网络举行多次训练和猜测,测试效果不会完全一致,此外测试效果的好坏也会受到隐含层节点数、学习率、训练次数等参数的影响。
4、参考源码及实验数据集

参考源码及实验数据集

来源:https://blog.csdn.net/weixin_42051846/article/details/128765295
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则