【单项选择题】 NLP中做多分类任务可以使用()激活函数。
【多项选择题】 相比机器学习,深度学习在处理数据的时,在以下哪些方面更加简便()
【多项选择题】 自然语言处理(NLP)中为什么要进行文本表示文本表示()
【单项选择题】 NLP中常用的语言模型是为了求得什么()
【单项选择题】 深度学习模型在训练的时候需要达到哪些基本要求()
【单项选择题】 SVD在自然语言(NLP)中经常解决的问题是()
【单项选择题】 使用共现矩阵做词向量容易导致维度爆炸,如何解决()
【判断题】 textCNN和textRNN都属于深度学习的文本分类模型。
【判断题】 深度学习省去了人工的提取特征,可以自动提取特征。
【判断题】 基于词粒度的预处理比基于字粒度预处理效果好。
【判断题】 离散型的表示方式只有one-hot。
【判断题】 Glove和word2vecc相比,没有任何区别。
【单项选择题】 Fasttext做分类,会有以下哪个优点()
【单项选择题】 word2vec编码的向量时,为什么解决不了同义词问题()
【单项选择题】 使用以下哪种方式编码的词向量包含语义信息()
【单项选择题】 Word2Vec的训练方式属于()
【单项选择题】 Embedding的作用是什么()
【判断题】 Seq2seq中编码阶段和解码阶段都使用到了LSTM。
【判断题】 CNN和GRU通过卷积的方式,解决了RNN的梯度消失。
【判断题】 RNN中的输入和输出一定是不等长的。
【多项选择题】 word2vec和tf-idf做相似度计算时有什么区别()
【单项选择题】 NLP中的两大模型word2vec和fasttext有什么相同点()
【单项选择题】 如果是想要优化总体的seq2seq的模型框架可以加入哪个机制()
【单项选择题】 针对于RNN的梯度消失应该如何解决()
【判断题】 句法语义信息刻画句子内部的句法语义信息(如主谓宾)。
【判断题】 在NLP中的句法语义分析应用,就是将句子中的词语有序列形式转化为图形式。
【判断题】 句法分析是自然语言处理的底层技术之一,同时也是基础,好的句法分析...
【判断题】 NLP领域中的句法语义分析的三要素包含:算法,文法和数据。
【判断题】 在NLP领域中,分析句子,理解句子是非常重要的,目前句法分析已经从...
【多项选择题】 在NLP的文本摘应用中,可以分为哪些摘要方式()
【多项选择题】 关于NLP的子任务文本生成中包括哪几种生成方式()
【单项选择题】 关于句法分析的方法都有哪些()
【单项选择题】 发现NLP的任务中基本都有做句法语义分析,那么句法语义分析有什么意义()
【单项选择题】 如果说给定了一个关键词或者一个主题,程序自己写一首诗或一段话属于...
【单项选择题】 基于语言模型的自然语言生成可以使用以下哪个算法()
【单项选择题】 PLSA是一种比较常用的主题模型,它的运算方式是什么()
【单项选择题】 在NLP的子任务文本生成中,文本生成如何理解()
【判断题】 GPT采用的特征提取器是双向的Transformer。
【判断题】 seq2seq并不是编解码的结构。
【判断题】 Transformer的输入向量中有位置向量的信息。
【多项选择题】 关于GPT模型哪些说法是正确的()
【多项选择题】 TensorFlow中一般包括哪些数据类型()
【单项选择题】 预训练模型GPT的优点是什么()
【单项选择题】 Dropout函数的作用是什么()
【单项选择题】 每个Transformer编码器中的第一层是()
【判断题】 seq2seq和Transformer的模型结构是完全不相同。
【判断题】 BERT可以处理的最长序列是768。
【判断题】 Transformer的encoder中先进行前馈神经网络,然后将处理后的数据输入...
【多项选择题】 编解码模型有哪些弊端()
【多项选择题】 Transformer如何体现出的参数共享()
【单项选择题】 以下哪个模型使用了双向的Transformer作为特征提取()
【单项选择题】 Transformer中的Q,K,V为什么用不同的权重矩阵生成()
【单项选择题】 RNN和CNN都可以处理文本,哪个处理长文本效果更好()
【单项选择题】 传统的RNN存在哪些问题()
【单项选择题】 Transformer的突破点在哪()
【单项选择题】 seq2seq有什么样的缺点()
【单项选择题】 特征提取器Transformer为什么使用多头机制()
【判断题】 BERT和ELMO使用的都是是单向的Transformer。
【判断题】 在迭代次数够多的情况下Glove会比Word2Vec效果好。
【判断题】 Glove进行编码的词向量可以解决一词多意。
【多项选择题】 文本分类任务中使用FastText算法有什么特点()
【多项选择题】 Word2Vec中的输出层为什么采用负例采样()
【单项选择题】 以下几个预训练模型说法错误的是()
【单项选择题】 关于NLP中常用的Glove说法错误的是()
【单项选择题】 LSA是如何得到文本的词向量的()
【单项选择题】 关于常用的交叉熵函数,说法正确的是()
【单项选择题】 以下哪个可以进行过采样()
【单项选择题】 对于数据的处理过程过采样和欠采样可以解决什么问题的()
【判断题】 在做NLP任务的时候,可以直接把汉字作为模型输入。
【判断题】 用余弦相似度表示的词之间的差异将显著低于0.5。
【单项选择题】 BERT为什么能提升模型的效果()
【多项选择题】 以下技术当中,哪个可以将字或者词做向量化()
【单项选择题】 在文档中,删除“啊”“的”这样的词称为什么()
【单项选择题】 一个文本语料库中,要提取的特征可能是什么()
【单项选择题】 可以实现关键词归一化的技术是()
【单项选择题】 人工智能NLP方向在生活中的应用()
【单项选择题】 以下任务当中,哪个任务不能用BERT实现()
【判断题】 词嵌入的过程就是,需要获得多维的数据,并表示为向量。
【判断题】 将字或者词转化成向量的过程,称为词嵌入。
【多项选择题】 LSTM可以进行长时间记忆,那么它是如何实现的()
【多项选择题】 RNN和CNN在处理文本的时候有什么异同点()
【单项选择题】 Transformer是很常用的特征提取器,那么Transformer架构首先是由下列...
【单项选择题】 在NLP任务中,以下哪个可以提高模型精度()
【单项选择题】 以下哪个技术是通过上下文进行建模的()
【单项选择题】 以下哪一项不是预处理技术()
【判断题】 Dropout可以失活一些单元,从而防止过拟合。
【判断题】 AlBert在参数量上进行了调整,共享了参数,因此速度会比BERT更快。
【多项选择题】 以下几种关于GPT的说法正确的是什么()
【单项选择题】 Transformer比LSTM特征提取效果要好,他们有什么共同特点()
【单项选择题】 深入挖掘BERT,其输出的向量有几个()
【单项选择题】 深入挖掘Transformer,在其输入阶段如何做的位置向量()
【单项选择题】 在以下四个模型当中哪个是排列语言模型()
【单项选择题】 NLP任务使用以下哪个模型会使准确率升高()
【单项选择题】 以下几个模型中哪个模型在建模的时候与词的位置无关()
【单项选择题】 以及几个模型中,可以产生词向量并且用单向的特征提取器的是哪个()
【单项选择题】 以下四个模型中,哪个使用了双向的LSTM语言模型()
【单项选择题】 以下几个模型中,哪个模型的输入是三个向量的和()
【单项选择题】 可以使一个词有多个嵌入方式的模型是哪个()
【判断题】 RNN和LSTM都可以作为特征提取器去提取特征,并且效果良好。
【多项选择题】 假如说数据的维度过大,可以通过以下哪种方式减少维度()
微信扫一扫免费使用
拍照搜题、语音搜题、文字搜题