重要提示:请勿将账号共享给其他人使用,违者账号将被封禁!
查看《购买须知》>>>
首页 > 计算机类考试
网友您好,请在下方输入框内输入要搜索的题目:
搜题
拍照、语音搜题,请扫码下载APP
扫一扫 下载APP
题目内容 (请给出正确答案)
[单选题]

下列关于sigmoid激活函数的说法正确的有()。

A.拥有非对称结构

B.输出全为负值

C.输出全为正值

D.输出全部大于

答案
查看答案
更多“下列关于sigmoid激活函数的说法正确的有()。”相关的问题

第1题

DNN常用的激活函数有()。

A.sigmoid

B.tanh

C.ReLU

D.以上答案都正确

点击查看答案

第2题

阶跃函数与sigmoid函数均为典型激活函数()。

A.正确

B.错误

点击查看答案

第3题

在深度学习中,下列对于sigmoid函数的说法,错误的是()。

A.存在梯度爆炸的问题

B.不是关于原点对称

C.计算exp比较耗时

D.存在梯度消失的问题

点击查看答案

第4题

Q77.以下属于激活函数的是()。

A.Adam

B.sigmoid

C.Relu

D.softmax

点击查看答案

第5题

sigmoid函数只能用于分类,没有激活功能。()
点击查看答案

第6题

以下哪一项不属于ReLU系列的激活函数相对于Sigmoid和Tanh激活函数的优点?()

A.ReLU的单侧抑制提供了网络的稀疏表达能力。

B.ReLU在其训练过程中会导致神经元死亡的问题。

C.从计算的角度上,Sigmoid和Tanh激活函数均需要计算指数,复杂度高,而ReLU只需要一个阈值即可得到激活值。

点击查看答案

第7题

Sigmoid函数作为神经元激活函数的特点是()。

A.连续但不光滑

B.不连续但光滑

C.连续且光滑

D.不连续且不光滑

点击查看答案

第8题

为什么RNN网络的激活函数要选用双曲正切而不是sigmod呢()。

A.使用sigmod函数容易出现梯度消失

B.sigmod的导数形式较为复杂

C.双曲正切更简单

D.sigmoid函数实现较为复杂

点击查看答案

第9题

激活函数对于神经网络模型学习、理解非常复杂的问题有着重要的作用,以下关于激活函数说法正确的是()

A.激活函数都是非线性函数

B.激活函数大多数是非线性函数,少数是线性函数

C.激活函数都是线性函数

D.激活函数部分是非线性函数,部分是线性函数

点击查看答案

第10题

逻辑回归将输出概率限定在[0,1]之间。下列哪个函数起到这样的作用()。

A.Sigmoid函数

B.tanh函数

C.ReLU函数

D.LeakyReLU函数

点击查看答案

第11题

设计为8层的卷积神经网络AlexNet网络成功使用()函数,其效果远远地超过了Sigmoid函数。

A.ReLU函数

B.sigmoid函数

C.tanh函数

D.sin函数

点击查看答案
下载APP
关注公众号
TOP
重置密码
账号:
旧密码:
新密码:
确认密码:
确认修改
购买搜题卡查看答案 购买前请仔细阅读《购买须知》
请选择支付方式
  • 微信支付
  • 支付宝支付
点击支付即表示同意并接受了《服务协议》《购买须知》
立即支付 系统将自动为您注册账号
已付款,但不能查看答案,请点这里登录即可>>>
请使用微信扫码支付(元)

订单号:

遇到问题请联系在线客服

请不要关闭本页面,支付完成后请点击【支付完成】按钮
遇到问题请联系在线客服
恭喜您,购买搜题卡成功 系统为您生成的账号密码如下:
重要提示:请勿将账号共享给其他人使用,违者账号将被封禁。
发送账号到微信 保存账号查看答案
怕账号密码记不住?建议关注微信公众号绑定微信,开通微信扫码登录功能
请用微信扫码测试
优题宝