下列关于梯度消失和梯度爆炸的说法正确的有()。
A.根据链式法则,如果每一层神经元对上一层的输出的偏导乘上权重结果都小于1的话,那么即使这个结果是0.99,在经过足够多层传播之后,误差对输入层的偏导会趋于
B.可以采用ReLU激活函数有效地解决梯度消失的情况
C.根据链式法则,如果每一层神经元对上一层的输出的偏导乘上权重结果都大于1的话,在经过足够多层传播之后,误差对输入层的偏导会趋于无穷大
D.可以通过减小初始权重矩阵的值来缓解梯度爆炸
A.根据链式法则,如果每一层神经元对上一层的输出的偏导乘上权重结果都小于1的话,那么即使这个结果是0.99,在经过足够多层传播之后,误差对输入层的偏导会趋于
B.可以采用ReLU激活函数有效地解决梯度消失的情况
C.根据链式法则,如果每一层神经元对上一层的输出的偏导乘上权重结果都大于1的话,在经过足够多层传播之后,误差对输入层的偏导会趋于无穷大
D.可以通过减小初始权重矩阵的值来缓解梯度爆炸
第1题
A.根据链式法则,如果每一层神经元对上一层的输出的偏导乘上权重结果都小于1的话,那么即使这个结果是0.99,在经过足够多层传播之后,误差对输入层的偏导会趋于0
B.可以采用ReLU激活函数有效的解决梯度消失的情况
C.根据链式法则,如果每一层神经元对上一层的输出的偏导乘上权重结果都大于1的话,在经过足够多层传播之后,误差对输入层的偏导会趋于无穷大
D.可以通过减小初始权重矩阵的值来缓解梯度爆炸
第3题
下列关于RNN、LSTM、GRU说法正确的是()。
A.RNN引入了循环的概念
B.LSTM可以防止梯度消失或者爆炸
C.GRU是LSTM的变体
D.RNN、LSTM、GRU是同一神经网络的不同说法,没有区别
第5题
A.当优化问题的数值解接近局部最优值时,随着目标函数解的梯度接近或变为零,通过最终迭代获得的数值解可能仅使目标函数局部最优,而不是全局最优
B.在深度学习优化问题中,经常遇到的是梯度爆炸或梯度消失
C.优化问题中设置的学习率决定目标函数能否收敛到局部最小值,以及何时收敛到最小值
D.一般来说,小批量随机梯度下降比随机梯度下降和梯度下降的速度慢,收敛风险较大
第8题
A.梯度消失
B.梯度爆炸
C.ReLU函数作为激活函数g(.),在计算g(z)时,z的数值过大了
D.Sigmoid函数作为激活函数g(.),在计算g(z)时,z的数值过大了
第9题
A.细胞外钾浓度调节在3.5-5,5mmol/L之间
B.正常情况下,细胞外与细胞内液体之间存在很大浓度梯度
C.正常情况下,2%钾在细胞内,98%在细胞外
D.跨膜钾梯度有助于兴奋神经肌肉细胞
第11题
A.取值范围是(0,1]
B.不可以用来做二分类
C.sigmoid函数为饱和型函数。当sigmoid函数输入的值趋于正无穷或负无穷时,梯度会趋近零,从而发生梯度弥散现象
D.Sigmoid函数不适用于自变量和Logistic概率是线性关系的情况