重要提示:请勿将账号共享给其他人使用,违者账号将被封禁!
查看《购买须知》>>>
首页 > 计算机类考试
网友您好,请在下方输入框内输入要搜索的题目:
搜题
拍照、语音搜题,请扫码下载APP
扫一扫 下载APP
题目内容 (请给出正确答案)
[单选题]

Sigmoid函数常被用作神经网络的激活函数,关于其说法正确的是()。

A.取值范围是(0,1]

B.不可以用来做二分类

C.sigmoid函数为饱和型函数。当sigmoid函数输入的值趋于正无穷或负无穷时,梯度会趋近零,从而发生梯度弥散现象

D.Sigmoid函数不适用于自变量和Logistic概率是线性关系的情况

答案
查看答案
更多“Sigmoid函数常被用作神经网络的激活函数,关于其说法正确的是()。”相关的问题

第1题

设计为8层的卷积神经网络AlexNet网络成功使用()函数,其效果远远地超过了Sigmoid函数。

A.ReLU函数

B.sigmoid函数

C.tanh函数

D.sin函数

点击查看答案

第2题

BP神经网络中隐层使用的Sigmoid是函数,其值在输入空间中无限大的范围内为非零值,因而是一种全局逼近的神经网络。()
点击查看答案

第3题

Sigmoid的数无论在传统机器学习和深度学习中经常被用到,该函数的取值范围是?()

A.[-1,1]

B.(0,1)

C.[-1,0]

D.(0,+∞)

点击查看答案

第4题

Q77.以下属于激活函数的是()。

A.Adam

B.sigmoid

C.Relu

D.softmax

点击查看答案

第5题

阶跃函数与sigmoid函数均为典型激活函数()。

A.正确

B.错误

点击查看答案

第6题

DNN常用的激活函数有()。

A.sigmoid

B.tanh

C.ReLU

D.以上答案都正确

点击查看答案

第7题

sigmoid函数只能用于分类,没有激活功能。()
点击查看答案

第8题

Sigmoid函数作为神经元激活函数的特点是()。

A.连续但不光滑

B.不连续但光滑

C.连续且光滑

D.不连续且不光滑

点击查看答案

第9题

以下哪一项不属于ReLU系列的激活函数相对于Sigmoid和Tanh激活函数的优点?()

A.ReLU的单侧抑制提供了网络的稀疏表达能力。

B.ReLU在其训练过程中会导致神经元死亡的问题。

C.从计算的角度上,Sigmoid和Tanh激活函数均需要计算指数,复杂度高,而ReLU只需要一个阈值即可得到激活值。

点击查看答案

第10题

为什么RNN网络的激活函数要选用双曲正切而不是sigmod呢()。

A.使用sigmod函数容易出现梯度消失

B.sigmod的导数形式较为复杂

C.双曲正切更简单

D.sigmoid函数实现较为复杂

点击查看答案

第11题

()用于将非线性引入神经网络。它会将值缩小到较小的范围内。

A.损失函数

B.优化函数

C.激活函数

D.目标函数

点击查看答案
下载APP
关注公众号
TOP
重置密码
账号:
旧密码:
新密码:
确认密码:
确认修改
购买搜题卡查看答案 购买前请仔细阅读《购买须知》
请选择支付方式
  • 微信支付
  • 支付宝支付
点击支付即表示同意并接受了《服务协议》《购买须知》
立即支付 系统将自动为您注册账号
已付款,但不能查看答案,请点这里登录即可>>>
请使用微信扫码支付(元)

订单号:

遇到问题请联系在线客服

请不要关闭本页面,支付完成后请点击【支付完成】按钮
遇到问题请联系在线客服
恭喜您,购买搜题卡成功 系统为您生成的账号密码如下:
重要提示:请勿将账号共享给其他人使用,违者账号将被封禁。
发送账号到微信 保存账号查看答案
怕账号密码记不住?建议关注微信公众号绑定微信,开通微信扫码登录功能
请用微信扫码测试
优题宝