基于改进sigmoid激活函数的深度神经网络训练算法研究
DOI:
CSTR:
作者:
作者单位:

军械工程学院 电子与光学工程系,军械工程学院 电子与光学工程系,军械工程学院 电子与光学工程系,

作者简介:

通讯作者:

中图分类号:

TP183

基金项目:


A Study of Training Algorithm in Deep Neural Networks based on Sigmoid Activation Function
Author:
Affiliation:

Department of Electronic and Optical Engineering,Ordnance Engineering College,Department of Electronic and Optical Engineering,Ordnance Engineering College,Department of Electronic and Optical Engineering,Ordnance Engineering College,

Fund Project:

  • 摘要
  • |
  • 图/表
  • |
  • 访问统计
  • |
  • 参考文献
  • |
  • 相似文献
  • |
  • 引证文献
  • |
  • 资源附件
  • |
  • 文章评论
    摘要:

    针对深度神经网络训练过程中残差随着其传播深度越来越小而使底层网络无法得到有效训练的问题,通过分析传统sigmoid激活函数应用于深度神经网络的局限性,提出双参数sigmoid激活函数。一个参数保证激活函数的输入集中坐标原点两侧,避免了激活函数进入饱和区,一个参数抑制残差衰减的速度,双参数结合有效的增强了深度神经网络的训练。结合DBN对MNIST数据集进行数字分类实验,实验表明双参数 sigmoid激活函数能够直接应用于无预训练深度神经网络,而且提高了sigmoid激活函数在有预训练深度神经网络中的训练效果。

    Abstract:

    Aiming at the problem that residual error gets smaller with the depth of propagation increasing and the bottom of DNN trains ineffective, by investigating the limitations of sigmoid activation function in DNN, a sigmoid activation function with two parameters is proposed. One parameter makes the input of sigmoid activation function concentrate in sides of the origin, and another parameter restrains the decreasing speed of residual error. The combination of two parameters enhances the training of DNN. Do number classification experiments on MNIST using deep belief networks(DBN), the results show that sigmoid activation function with two parameters can be used in DNN directly without pre-training and improve the performance in DNN with pre-training.

    参考文献
    相似文献
    引证文献
引用本文

黄 毅,段修生,孙世宇,郎 巍.基于改进sigmoid激活函数的深度神经网络训练算法研究计算机测量与控制[J].,2017,25(2):31.

复制
分享
文章指标
  • 点击次数:
  • 下载次数:
  • HTML阅读次数:
  • 引用次数:
历史
  • 收稿日期:2016-08-12
  • 最后修改日期:2016-08-12
  • 录用日期:2016-09-02
  • 在线发布日期: 2017-03-08
  • 出版日期:
文章二维码