题目内容
(请给出正确答案)
[单选题]
在深度学习中,下列对于sigmoid函数的说法,错误的是()。
A.存在梯度爆炸的问题
B.不是关于原点对称
C.计算exp比较耗时
D.存在梯度消失的问题
答案
查看答案
A.存在梯度爆炸的问题
B.不是关于原点对称
C.计算exp比较耗时
D.存在梯度消失的问题
第6题
A.使用sigmod函数容易出现梯度消失
B.sigmod的导数形式较为复杂
C.双曲正切更简单
D.sigmoid函数实现较为复杂
第7题
A.ReLU的单侧抑制提供了网络的稀疏表达能力。
B.ReLU在其训练过程中会导致神经元死亡的问题。
C.从计算的角度上,Sigmoid和Tanh激活函数均需要计算指数,复杂度高,而ReLU只需要一个阈值即可得到激活值。
第9题
A.梯度方向是函数值下降最快方向
B.梯度下降算法是一种使得损失函数最小化的方法
C.梯度下降算法用来优化深度学习模型的参数
D.梯度反方向是函数值下降最快方向