大学职业搜题刷题APP
下载APP
首页
课程
题库模板
Word题库模板
Excel题库模板
PDF题库模板
医考护考模板
答案在末尾模板
答案分章节末尾模板
题库创建教程
创建题库
登录
创建自己的小题库
搜索
【判断题】
tanh激活函数的梯度消失问题比sigmoid轻,收敛速度也比sigmoid快
A.
正确
B.
错误
题目标签:
收敛速度
激活函数
梯度消失问题
如何将EXCEL生成题库手机刷题
如何制作自己的在线小题库 >
手机使用
分享
复制链接
新浪微博
分享QQ
微信扫一扫
微信内点击右上角“…”即可分享
反馈
收藏
举报
参考答案:
举一反三
【单选题】101/651神将网络训练时,常会遇到很多问题,对于梯度消失问题,我们可以通过选择使用以下哪种函数减轻该问题?
A.
Softsign函数
B.
Relu函数
C.
tanh函数
D.
Sigmoid函数
查看完整题目与答案
【单选题】QR方法的收敛速度是二次的
A.
正确
B.
错误
查看完整题目与答案
【单选题】长短时记忆神经网络通过什么来缓解梯度消失问题()
A.
增加网络深度
B.
减少网络神经元
C.
使用双向的网络结构
D.
增加一个用来保存长期状态的单元
查看完整题目与答案
【单选题】Relu激活函数在零点可导。
A.
正确
B.
错误
查看完整题目与答案
【简答题】s 型激活函数的表达式是()
查看完整题目与答案
【判断题】带有sigmoid激活函数的RNN是图灵完备的()
A.
正确
B.
错误
查看完整题目与答案
【多选题】常用的激活函数有()
A.
阈值型激活函数
B.
S型激活函数
C.
分段线性激活函数
D.
tanh激活函数
查看完整题目与答案
【判断题】tanh激活函数的梯度消失问题比sigmoid轻,收敛速度也比sigmoid快
A.
正确
B.
错误
查看完整题目与答案
【单选题】以下操作不能缓解梯度消失问题的是。
A.
选择合适的激活函数
B.
采用批规范化方法
C.
采用特殊的网络结构
D.
限制训练时间
查看完整题目与答案
【判断题】RIP比OSPF收敛速度快。
A.
正确
B.
错误
查看完整题目与答案
【多选题】Sigmoid激活函数的缺点是( )
A.
不是零均值的
B.
饱和区域存在梯度消失问题
C.
指数计算比较耗时
D.
输出值太大
查看完整题目与答案
【单选题】【图片】上图是具有四个隐藏层的神经网络,该网络使用sigmoid函数作为激活函数,训练过程出现了梯度消失问题。从图中可以判断出四个隐藏层的先后顺序(靠近输入端的为先,靠近输出端的为后)分别为
A.
ABCD
B.
ADCB
C.
DCBA
D.
DBCA
查看完整题目与答案
【单选题】下列哪项不属于梯度消失问题的解决手段()
A.
减少层数
B.
减小学习率
查看完整题目与答案
【判断题】LSTM和GRU网络因为引入了门控单元,可以缓解梯度消失问题
A.
正确
B.
错误
查看完整题目与答案
【单选题】激活函数tf.nn.relu能()
A.
用于卷积后数据
B.
用于卷积核
C.
用于步长
D.
不能用到全连接层
查看完整题目与答案
【单选题】针对深度学习的梯度消失问题,哪种因素可能是无效的?
A.
增大学习率
B.
减少网络深度
C.
添加shortcut(skip) connection
D.
减少输入层词嵌入向量维度
查看完整题目与答案
【判断题】ReLU是线性激活函数。
A.
正确
B.
错误
查看完整题目与答案
【单选题】RSTP比STP收敛速度快的主要原因是什么?()
A.
RSTP增加了端口状态的种类
B.
RSTP有更小的开销
C.
RSTP不基于定时器收敛
D.
RSTP有更小的计时器
查看完整题目与答案
【单选题】以下哪个激活函数是0均值的()
A.
Relu
B.
tanh
C.
sigmoid
D.
LeakyRelu
查看完整题目与答案
【判断题】Relu激活函数能解决梯度消失问题,但是会出现dyingrelu现象,即训练过程中,有些神经元实际上已经"死亡“而不再输出任何数值
A.
正确
B.
错误
查看完整题目与答案
相关题目:
【单选题】101/651神将网络训练时,常会遇到很多问题,对于梯度消失问题,我们可以通过选择使用以下哪种函数减轻该问题?
A.
Softsign函数
B.
Relu函数
C.
tanh函数
D.
Sigmoid函数
查看完整题目与答案
【单选题】QR方法的收敛速度是二次的
A.
正确
B.
错误
查看完整题目与答案
【单选题】长短时记忆神经网络通过什么来缓解梯度消失问题()
A.
增加网络深度
B.
减少网络神经元
C.
使用双向的网络结构
D.
增加一个用来保存长期状态的单元
查看完整题目与答案
【单选题】Relu激活函数在零点可导。
A.
正确
B.
错误
查看完整题目与答案
【简答题】s 型激活函数的表达式是()
查看完整题目与答案
【判断题】带有sigmoid激活函数的RNN是图灵完备的()
A.
正确
B.
错误
查看完整题目与答案
【多选题】常用的激活函数有()
A.
阈值型激活函数
B.
S型激活函数
C.
分段线性激活函数
D.
tanh激活函数
查看完整题目与答案
【判断题】tanh激活函数的梯度消失问题比sigmoid轻,收敛速度也比sigmoid快
A.
正确
B.
错误
查看完整题目与答案
【单选题】以下操作不能缓解梯度消失问题的是。
A.
选择合适的激活函数
B.
采用批规范化方法
C.
采用特殊的网络结构
D.
限制训练时间
查看完整题目与答案
【判断题】RIP比OSPF收敛速度快。
A.
正确
B.
错误
查看完整题目与答案
【多选题】Sigmoid激活函数的缺点是( )
A.
不是零均值的
B.
饱和区域存在梯度消失问题
C.
指数计算比较耗时
D.
输出值太大
查看完整题目与答案
【单选题】【图片】上图是具有四个隐藏层的神经网络,该网络使用sigmoid函数作为激活函数,训练过程出现了梯度消失问题。从图中可以判断出四个隐藏层的先后顺序(靠近输入端的为先,靠近输出端的为后)分别为
A.
ABCD
B.
ADCB
C.
DCBA
D.
DBCA
查看完整题目与答案
【单选题】下列哪项不属于梯度消失问题的解决手段()
A.
减少层数
B.
减小学习率
查看完整题目与答案
【判断题】LSTM和GRU网络因为引入了门控单元,可以缓解梯度消失问题
A.
正确
B.
错误
查看完整题目与答案
【单选题】激活函数tf.nn.relu能()
A.
用于卷积后数据
B.
用于卷积核
C.
用于步长
D.
不能用到全连接层
查看完整题目与答案
【单选题】针对深度学习的梯度消失问题,哪种因素可能是无效的?
A.
增大学习率
B.
减少网络深度
C.
添加shortcut(skip) connection
D.
减少输入层词嵌入向量维度
查看完整题目与答案
【判断题】ReLU是线性激活函数。
A.
正确
B.
错误
查看完整题目与答案
【单选题】RSTP比STP收敛速度快的主要原因是什么?()
A.
RSTP增加了端口状态的种类
B.
RSTP有更小的开销
C.
RSTP不基于定时器收敛
D.
RSTP有更小的计时器
查看完整题目与答案
【单选题】以下哪个激活函数是0均值的()
A.
Relu
B.
tanh
C.
sigmoid
D.
LeakyRelu
查看完整题目与答案
【判断题】Relu激活函数能解决梯度消失问题,但是会出现dyingrelu现象,即训练过程中,有些神经元实际上已经"死亡“而不再输出任何数值
A.
正确
B.
错误
查看完整题目与答案
参考解析:
AI解析
重新生成
题目纠错 0
发布