This is my blog.
拓扑结构,唔~之前盯了三天的东东
不好玩~
完了 说话和小飞流一样了
唔~还是有工具箱,不买不买!!!
🙈我我我 应该不会碰到的
哎,应该有许多人不需要matlab就会了吧
果然我还是一颗小白菜🧙🏻♀️
基本理论
两种网络:
- 前向反馈网络(BP)
- 径向基(RBF)
常用激励函数
- 阈值型(一般只用在简单分类的MP模型)
\(f(x)=:0,x<0;1,0\leq x\) - 线性型(一般只用在输入神经元和输出神经元)
\(f(x)=x\) - S型(常用于隐含层神经元)
\(f(x)=\frac{1}{1+e^{-x}}或者f(x)=\frac{1-e^{-x}}{1+e^{-x}}\)
可以加常数\(c\)
BP
“负梯度下降”
输入层、中间层(隐含层)、输出层
透视神经网络的学习步骤
已炼钢厂的炼钢数据为例。
- 准备训练网络的样本
首先,“开始温度”的影响因素作为输入样本(需要归一化) - 确定网络的初始参数
最大训练次数、中间层神经元数量(中间层神经元数量=输入层神经元数量-1)
、网络学习速率、训练的目标误差、是否添加动量因子(防止陷入局部极小值) - 初始化网络权值和阈值
注 输入样本按照每一个行作为一个输入的维度,所以你的矩阵可能需要转置
有多少个神经元该层就有多少个阈值 - 计算第一层神经元的输入和输出
- 计算第二层神经元的输入
\( I_2 = w_{ij} X + B_{ij} ones \) - 计算第二层神经元的输出
采用一种激励函数 - 计算第三层神经元的输入和输出
输入和第二层一样\(I_3 = w_{jk} O_2 + B_{jk} ones \)
通常第三层神经元也为线性函数,所以有\(O_3 = I_3\) - 计算能量函数E
计算E的目的是:若网络输出与实际输出样本之间的误差的平方和达到预定误差就可以停止训练网络了。
\(E = \sum{(Y - O_3)^2}\) - 计算第二层与第三层之间权值和阈值调整量
核心:\(\delta w_{ij} = -\eta \frac{dE}{dw_{ij}}=-\eta(Y-O_3)O_2\)
\(\delta B_{jk} = \frac{dE}{dB_{jk}}=-\eta(Y-O_3)ones\) - 计算第一层与第二层之间权值和阈值调整量
将你选的激励函数求导
\(\delta w_{ij} = -\eta \frac{dE}{dw_{ij}}=-\etaw_{ij}(Y-O_3)f’(x)X\)
\(\delta B_{ij} = -\eta\frac{dE}{dB_{ij}}=-\etaw_{jk}(Y-O_3)f’(x)*ones\) - 计算调整后的权值和阈值
把t时刻各层权值和阈值加上各自的调整值
\(w_{jk}(t+1) = \delta w_{jk}+w_{jk}(t)\)
\(B_{jk}(t+1) = \delta B_{jk}+B_{jk}(t)\)
\(w_{ij}(t+1) = \delta w_{ij}+w_{ij}(t)\)
\(B_{ij}(t+1) = \delta B_{ij}+B_{ij}(t)\) - 网络输出值还原
因为输入值进行过归一化RBF
三种学习方式:
- 聚类方法
- 梯度训练方法
- 正交最小二乘法
求解过程
- 原始数据输入
- 数据归一化
- 网络训练
- 对原始数据进行仿真
- 将仿真结果与已知样本进行对比
- 对新数据进行仿真
例题
CUMCM 2006 B
后记
发现我之前写数学公式的时候,记忆的明明是\\(...\\)
,然而今天再一看是\\(...\\(
,居然和Latex
一样哎!试试看,之前的不匹配可不可以了。不知道那个又是从哪里看到的呢!哎,记忆都混乱了。
打算之后看看Latex
的美化,不知道为什么我的\emph
,没有作用,哎,就很奇怪。然后我把所有改了以后发现不可用!!!郁闷郁闷郁闷!!!
发现很多小软件由于是别的语言写的,基本不用学,之间上网一搜,都是没几页的东西。不过,最终都不是属于我的……所以我最近感觉都没有学习一样……
论文的很多东西,也没怎么模拟,感觉自己大概了解了,就没去实战,一问就倒了;还是尧神,一个一个去试了;我懒呀(逃
为什么很多仿真软件都是国外的,还都是windows的呢?!开了虚拟机,但是激活码过期了,上不了网,真的是….
转载请注明出处,谢谢。
愿 我是你的小太阳