判断题

由于Spark是基于内存的计算引擎,因此,一个Spark应用可以处理的数据量不能超过分给这个Spark应用的内存总和。()

【参考答案】

错误

(↓↓↓ 点击‘点击查看答案’看答案解析 ↓↓↓)
<上一题 目录 下一题>
热门 试题

多项选择题
Flume写入HDFS时,文件的生成当时有哪些?()

A.按照源文件名,直接生成文件
B.设置文件生成间隔,达到时间间隔时就关闭老文件,新数据将被写入新文
C.设置单个文件大小,当文件大小达到所设定值时,就关闭老文件,新数据
D.设置单个文件存放在event数量,当文件所存放event数量到设定值时

单项选择题
FusionlnsightHD系统中,关于HIve的JDBC接口类型,以下哪种叙述是正确的?()

A.组网隔离环境下,ZooKeeper的IP既可以配置成业务IP,也可以配置成管理IP
B.Hive与传统数据库不同,因此JDBC建立的连接不需要关闭
C.安全集群环境下,建立与Hive的连接前,需要使用统一认证方式进行登陆
D.使用JDBCᨀ交SQL时,可以再SQL语句后面加上分号“;”

相关试题
  • 存在如下业务场景:用户上网日志文件已经存...
  • 在Kafka中,如下关于Producer发送数据的说...
  • 在Solr的应用查询场景中,当对查询结果深度...
  • Fusionlnsight HD中,Streaming打包工具用...
  • 在Spark应用开发中,以下哪项的代码能正确...