2024智慧树网课答案 Spark大数据技术与应用 最新完整智慧树知到满分章节测试答案

2024年9月30日 分类:免费网课答案 作者:网课帮手

绪论 单元测试

1、 问题:大数据的起源是以下哪个领域( )
选项:
A:金融
B:电信
C:互联网
D:公共管理
答案: 【
互联网

第一章 单元测试

1、 问题:与MapReduce相比,Spark更适合处理以下哪种类型的任务( )
选项:
A:较多迭代次数的长任务
B:较多迭代次数的短任务
C:较少迭代次数的长任务
D:较少迭代次数的短任务
答案: 【
较多迭代次数的短任务

2、 问题:Standalone模式下配置Spark集群时,master节点的工作端口号需要在conf文件夹下的哪个文件指明( )
选项:
A:regionserver
B:spark-env.sh
C:spark-defaults.conf
D:slaves
答案: 【
spark-env.sh

3、 问题:以下关于SPARK中的spark context,描述错误的是:( )
选项:
A:控制整个application的生命周期
B:可以控制dagsheduler组件
C:可以控制task scheduler组件
D:SparkContext为Spark的主要入口点
答案: 【
控制整个application的生命周期

4、 问题:以下对Spark中Work的主要工作描述错误的是( )
选项:
A:管理当前节点内存
B:不会运行业务逻辑代码
C:会运行业务逻辑代码
D:接收master分配过来的资源指令
答案: 【
会运行业务逻辑代码

5、 问题:配置Standalone模式下的Spark集群,Worker节点需要在conf文件夹下的哪个文件中指明( )
选项:
A:regionserver
B:spark-env.sh
C:spark-defaults.conf
D:slaves
答案: 【
slaves

6、 问题:Spark支持的分布式部署方式中哪个是错误的( )
选项:
A:standalone
B:spark on mesos
C:spark on YARN
D:Spark on local
答案: 【
Spark on local

7、 问题:Spark单机伪分布式模式,它的特点是在一台节点上既有Master服务,又有Worker服务( )
选项:
A:对
B:错
答案: 【

8、 问题:在部署Spark独立模式时,配置spark内部通信的端口为( )
选项:
A:7070
B:9870
C:7077
D:16010
答案: 【
7077

9、 问题:在部署Spark独立模式时,配置spark的web端口为( )
选项:
A:4040
B:9870
C:7077
D:8080
答案: 【
7077

10、 问题:Spark的bin目录是spark运行脚本目录,该目录中包含了加载spark的配置信息,提交作业等执行命令的脚本( )
选项:
A:对
B:错
答案: 【

第二章 单元测试

1、 问题:valrdd=sc.parallelize(1 to 10).filter(_%2== 0)rdd.collect上述代码的执行结果为( )
选项:
A:Array(1,2,3,4,5,6,7,8,9,10)
B:Array(1, 3, 5,7,9)
C:Array(2, 4, 6, 8, 10)
D:Array(1,10)
答案: 【
Array(2, 4, 6, 8, 10)

2、 问题:下面哪个操作是窄依赖( )
选项:
A:join
B:filter
C:group
D:sort
答案: 【
filter

3、 问题:下面哪个操作肯定是宽依赖( )
选项:
A:map
B:flatMap
C:reduceByKey
D:sample
答案: 【
reduceByKey

4、 问题:以下操作中,哪个不是Spark RDD编程中的操作。( )
选项:
A:getLastOne()
B:filter()
C:reduceByKey(func)
D:reduce()
答案: 【
getLastOne()

5、 问题:val words = Array (“one”, “two”, “two”, “three”, “three”,”three”)
val wordPairsRDD = sc.parallelize(words).map(word => (word,1) )
wordCountsWithReduce = wordPairsRDD.reduceByKey(+)上述语句的执行结果wordCountsWithReduce 中包含的元素是( )。
选项:
A:(“one”,3), (“two”,2), (“three”, 1)
B:(“one”,1), (“two”,2),(“three”,3)
C:(“one”, 1),(“two”,2), (“three”, 1)
D:(“one”, 1), (“two”,2), (“three”,2)
答案: 【
(“one”,1), (“two”,2),(“three”,3)

6、 问题:有一个键值对RDD,名称为pairRDD,包含4个元素,分别是(“Hadoop”,1)、(“Spark”,1)、(“Hive”,1)和(“Spark”,1),则pairRDD.keys操作得到的 RDD中所包含的元素是()。
选项:
A:”Hadoop”,”Spark”,”Hive”,”Spark”
B:”Hadoop”,”Spark”,”Hive”
C:(“Hadoop”,1)、(“Spark”,1)、(“Hive”,1)和(“Spark”,1)
D:(”Hadoop”,1),(”Spark”,1),(”Hive”,1)
答案: 【
(”Hadoop”,1),(”Spark”,1),(”Hive”,1)

7、 问题:有一个RDD,名称为pairRDD,包含4个元素,分别是(“Hadoop”,1)、(“Spark”,1)、(“Hive”,1)和(“Spark”,1),则pairRDD.values操作得到的RDD中所包含的元素是( ) 。
选项:
A:1,1,1,l
B:”Hadoop”,1,”Spark”,1
C:4
D:(“Hadoop”,1)、(“Spark”,1)、(“Hive”,1)和(“Spark”,1)
答案: 【
1,1,1,l

8、 问题:有一个键值对 RDD,名称为pairRDD,包含4个元素,分别是(“Hadoop”,1)、(“Spark”,1)、(“Hive”,1)和(“Spark”,1),则pairRDD. mapValues(x => x+1)操作得到的RDD中所包含的元素是( ) 。
选项:
A:(“Hadoop”,1)、(“Spark”,1)、(“Hive”,1)和(“Spark”,1)
B:2,2,2,2
C:(“Hadoop”,2)、(“Spark”,2)、(“Hive”,2)和(“Spark”,2)
D:1,1,1,1
答案: 【
(“Hadoop”,2)、(“Spark”,2)、(“Hive”,2)和(“Spark”,2)

9、 问题:RDD操作包括哪两种类型。( )
选项:
A:分组(GroupBy)
B:行动(Action)
C:连接(Join)
D:转换(Transformation)
答案: 【
行动(Action)
转换(Transformation)

10、 问题:以下操作中,哪些是行动((Action)操作。( )
选项:
A:collect()
B:groupByKey ()
C:map()
D:reduce()
答案: 【
collect()
reduce()

第三章 单元测试

1、 问题:SparkSession内部封装了SparkContext,所以底层计算还是由SparkContext完成的。( )
选项:
A:对
B:错
答案: 【


本门课程剩余章节答案为付费内容
本文章不含期末不含主观题!!
本文章不含期末不含主观题!!
支付后可长期查看
有疑问请添加客服QQ 2356025045反馈
如遇卡顿看不了请换个浏览器即可打开
请看清楚了再购买哦,电子资源购买后不支持退款哦
请输入手机号或商家订单号
打不开请联系客服QQ 2356025045 商家订单号在哪里?点此了解

商家订单号查看步骤

打开支付宝
方法一:我的 > 账单 > 账单详情 > 更多>复制商家订单号
方法二:我的 > 账单 >搜索关键字【网课小帮手】
> 账单详情 > 更多>复制商家订单号
方法三:联系客服QQ 2356025045
微信支付
我 > 支付 > 钱包 > 账单 > 账单详情

继续阅读