更多“Spark中的RDD被创建后,在后续使用过程中有2种操作:转换(Transformation)和行动(Action)()”相关的问题
第1题
在Spark程序中必须创建一个SparkContext对象,该对象是Spark程序的入口,负责创建RDD、启动任务等()
点击查看答案
第2题
Spark创建DataFrame对象方式有()。
A.结构化数据文件
B.外部数据库
C.RDD
D.Hive中的表
点击查看答案
第3题
RDD中的哪类函数会触发执行,向Spark引擎提交,生成一个job?()
点击查看答案
第4题
Spark可以通过哪些外部存储创建RDD()。
A.文本文件
B.目录
C.压缩文件
D.通配符匹配的文件
点击查看答案
第5题
Spark持久化RDD 后,在再一次需要计算该RDD 时将需要重新计算。()
点击查看答案
第6题
Spark中每一个RDD都可以用不同的存储级别进行保存,从而允许持久化数据集在硬盘或者在内存作为序列化的______对象。
点击查看答案
第7题
针对仅存储数据在内存中的存储策略,如果内存不足的话,Spark会使用______缓存策略清除最老的分区,为新的RDD提供空间。
点击查看答案
第8题
在Spark核心概念中,以下说哪个说法是错误的?()
A.一个Application由若干个Job组成
B.一个Job由若干个Stage组成
C.一个Stage由若干个Task组成
D.RDD中的数据可修改
点击查看答案
第9题
Spark自带的资源管理框架是:()。
A.RDD具有血统机制(Lineage)
B.RDD默认存储在磁盘
C.RDD是一个只读的,可分区的分布式数据集
D.RDD是Spark对基础数据的抽象
点击查看答案
第10题
以下操作中,哪个不是Spark RDD编程中的操作
A.filter()
B.reduceByKey(func)
C.reduce()
D.getLastOne()
点击查看答案