判断题

增大正则化并不能防止过拟合的发生。

【参考答案】

错误
<上一题 目录 下一题>
热门 试题

多项选择题
Sigmoid,Relu,Tanh有什么异同点()

A.都可以做非线性的变换
B.都可以做线性的变换
C.变换后Y的取值范围不相同
D.变换后Y的取值范围相同

单项选择题
Relu相比较Sigmoid激活函数有哪些明显的优势()

A.防止梯度弥散
B.Relu是一些单元失活,造成稀疏性,从而防止过拟合
C.加快计算
D.以上都正确

相关试题
  • NLP中做多分类任务可以使用()激活函数。
  • 相比机器学习,深度学习在处理数据的时,在...
  • 自然语言处理(NLP)中为什么要进行文本表...
  • NLP中常用的语言模型是为了求得什么()
  • 深度学习模型在训练的时候需要达到哪些基本...