2020 大数据开发基础(魏永波)(河北地质大学) 最新满分章节测试答案

2025年5月4日 分类:免费网课答案 作者:网课帮手

本答案对应课程为:点我自动跳转查看
本课程起止时间为:2020-02-20到2020-05-28
本篇答案更新状态:已完结

第1章 Spark的设计与运行原理 (复习) 第3章 Spark的设计与运行原理单元测验

1、 问题:以下哪个不是Spark的组件?
选项:
A:Spark Streaming
B:MLlib
C:GraphX
D:Flink
答案: 【Flink

2、 问题:下面哪个不是 RDD 的特点 ?
选项:
A:可分区
B:可序列化
C:可修改
D:可持久化
答案: 【可修改

3、 问题:Task是Executor上的工作单元,运行于下面哪个组件上?
选项:
A:Driver Program
B:Spark Master
C:Worker Node
D:Cluster Manager
答案: 【Worker Node

4、 问题:下面哪个操作肯定是宽依赖?
选项:
A:map
B:filter
C:reduceByKey
D:union
答案: 【reduceByKey

5、 问题:以下是Spark的主要特点的有?
选项:
A:运行速度快
B:容易使用,简洁的API设计有助于用户轻松构建并行程序
C:通用性,Spark提供了完整而强大的技术栈
D:运行模式多样
答案: 【运行速度快;
容易使用,简洁的API设计有助于用户轻松构建并行程序;
通用性,Spark提供了完整而强大的技术栈;
运行模式多样

6、 问题:Spark的运行架构包括哪些?
选项:
A:集群资源管理器(Cluster Manager)
B:执行进程(Executor)
C:Worker Node
D:任务控制节点Driver Program
答案: 【集群资源管理器(Cluster Manager);
执行进程(Executor);
Worker Node;
任务控制节点Driver Program

7、 问题:关于RDD之间的依赖分为窄依赖和宽依赖,以下说法正确的是?
选项:
A:存在一个父RDD的一个分区对应一个子RDD的多个分区,则为宽依赖
B:存在一个父RDD的多个分区对应一个子RDD的一个分区,则为宽依赖
C:存在一个父RDD的一个分区只被一个子RDD的一个分区所使用,则为窄依赖
D:存在一个父RDD的一个分区被一个子RDD的多个分区所使用,则为窄依赖
答案: 【存在一个父RDD的一个分区对应一个子RDD的多个分区,则为宽依赖;
存在一个父RDD的一个分区只被一个子RDD的一个分区所使用,则为窄依赖

8、 问题:Spark可以采用几种不同的部署方式,以下正确的部署方式有?
选项:
A:Local
B:Standalone
C:Spark on Mesos
D:Spark on YARN
答案: 【Local;
Standalone;
Spark on Mesos;
Spark on YARN

9、 问题:目前的大数据处理典型应用场景可分为哪几个类型?
选项:
A:复杂的批量数据处理
B:基于历史数据的交互式查询
C:大数据的分布式计算
D:基于实时数据流的数据处理
答案: 【复杂的批量数据处理;
基于历史数据的交互式查询;
基于实时数据流的数据处理

10、 问题:以下选项中哪些是Spark的优点?
选项:
A:具有高效的容错性
B:利用进程模型
C:可以将中间结果持久化到内存
D:表达能力有限
答案: 【具有高效的容错性;
可以将中间结果持久化到内存

第2章 Spark环境搭建和使用方法 第4章Spark环境搭建和使用方法单元测验

1、 问题:判断HDFS是否启动成功,可以通过哪个命令?
选项:
A:hdfs
B:spark
C:jps
D:start-dfs
答案: 【jps

2、 问题:spark-shell在启动时,采用local[*]时,它的含义是?
选项:
A:使用任意个线程来本地化运行Spark
B:使用与逻辑CPU个数相同数量的线程来本地化运行Spark
C:使用与逻辑CPU个数相同数量的进程来本地化运行Spark
D:使用单个线程来本地化运行Spark
答案: 【使用与逻辑CPU个数相同数量的线程来本地化运行Spark

3、 问题:下面描述正确的是:
选项:
A:Hadoop和Spark不能部署在同一个集群中
B:Hadoop只包含了存储组件,不包含计算组件
C:Spark是一个分布式计算框架,可以和Hadoop组合使用
D:Spark和Hadoop是竞争关系,二者不能组合使用
答案: 【Spark是一个分布式计算框架,可以和Hadoop组合使用

4、 问题:Spark部署模式有哪几种?
选项:
A:Local模式(单机模式)
B:Standalone模式
C:YARN模式
D:Mesos模式
答案: 【Local模式(单机模式);
Standalone模式 ;
YARN模式;
Mesos模式

5、 问题:关于Hadoop和Spark的相互关系,以下说法正确的是?
选项:
A:Hadoop和Spark可以相互协作
B:Hadoop负责数据的存储和管理
C:Spark负责数据的计算
D:Spark要操作Hadoop中的数据,需要先启动HDFS
答案: 【Hadoop和Spark可以相互协作;
Hadoop负责数据的存储和管理;
Spark负责数据的计算;
Spark要操作Hadoop中的数据,需要先启动HDFS

6、 问题:HDFS若启动成功,系统会列出以下哪些进程?
选项:
A:NameNode
B:HDFS
C:DataNode
D:SecondaryNameNode
答案: 【NameNode;
DataNode;
SecondaryNameNode

7、 问题:spark-shell在启动时,采用yarn-client模式时,以下说法正确的是?
选项:
A:当用户提交了作业之后,不能关掉Client
B:当用户提交了作业之后,就可以关掉Client
C:该模式适合运行交互类型的作业
D:该模式不适合运行交互类型的作业
答案: 【当用户提交了作业之后,不能关掉Client;
该模式适合运行交互类型的作业

8、 问题: spark-shell在启动时,采用yarn-cluster模式时,以下说法正确的是?
选项:
A:当用户提交了作业之后,不能关掉Client
B:当用户提交了作业之后,就可以关掉Client
C:该模式适合运行交互类型的作业
D:该模式不适合运行交互类型的作业
答案: 【当用户提交了作业之后,就可以关掉Client;
该模式不适合运行交互类型的作业

9、 问题:开发Spark独立应用程序的基本步骤通常有哪些?
选项:
A:安装编译打包工具,如sbt,Maven
B:编写Spark应用程序代码
C:编译打包
D:通过spark-submit运行程序
答案: 【安装编译打包工具,如sbt,Maven;
编写Spark应用程序代码;
编译打包;
通过spark-submit运行程序

10、 问题:集群上运行Spark应用程序的方法步骤有哪些?
选项:

本门课程剩余章节答案为付费内容
本文章不含期末不含主观题!!
本文章不含期末不含主观题!!
支付后可长期查看
有疑问请添加客服QQ 2356025045反馈
如遇卡顿看不了请换个浏览器即可打开
请看清楚了再购买哦,电子资源购买后不支持退款哦
请输入手机号或商家订单号
打不开请联系客服QQ 2356025045 商家订单号在哪里?点此了解

商家订单号查看步骤

打开支付宝
方法一:我的 > 账单 > 账单详情 > 更多>复制商家订单号
方法二:我的 > 账单 >搜索关键字【网课小帮手】
> 账单详情 > 更多>复制商家订单号
方法三:联系客服QQ 2356025045
微信支付
我 > 支付 > 钱包 > 账单 > 账单详情

继续阅读