题目
A.客户端的文件数据经过NameNode传递给DataNode
B.客户将文件分为多个Block,根据Database的地址信息,按顺序写入每一个DataNode中
C.客户端根据DatabNode的地址信息,按顺序将整个文件写入每一个Database中,然后由DataNode将文件划分为多个Block
D.客户端只上传数据到一个DatabNode,然后由NameNode负责Block复制
第1题
A.hadoop的文件API不是通用的,只用于HDFS文件系统
B.Configuration类的默认实例化方法是以HDFS系统的资源配置为基础
C.FileStatus对象存储文件和目录的元数据
D.FSDataInputStream是java、io、DataInputStream的子类
第3题
A.维护HDFS集群的目录树结构
B.维护HDFS集群的所有数据块的分布、副本数和负载均衡
C.负责保存客户端上传的数据
D.响应客户端的所有读写数据请求
第4题
A.维护HDFS集群的目录树结构
B.维护HDFS集群的所有数据块的分布、副本数和负载均衡
C.负责保存客户端上传的数据
D.响应客户端的所有读写数据请求
第5题
A.数据处理框架(MapReduce),集群管理(YARN),分布管理控制(ZooKeeper)
B.Spark高效数据处理架构
C.安全管理组件
D.Hadoop的客户端
第6题
A.A.HDFS客户端通过Configuration对象的open()方法打开要读取的文件
B.B.DistributedFileSystem负责向远程的名称节点(NameNode)发起RPC调用,得到文件的数据块信息,返回数据块列表
C.C.通过对数据流反复调用read()方法,把数据从数据节点传输到客户端
D.D.当客户端读取完数据时,调用FSDataInputStream对象的close()方法关闭输入流
第7题
A.维护HDFS集群的目录树结构
B.维护HDFS集群的所有数据块的分布、副本数和负载均衡
C.负责保存客户端上传的数据
D.响应客户端的所有读写数据请求
第8题
A.初始化集群,使用Hadoop命令启动集群
B.使用Hadoop命令,创建HDFS文件夹
C.使用HDFS命令查看文件系统“/”路径下是否存在文件
D.用Hadoop自带的WordCount程序去测试MapReduce
第9题
A.可以指定终端接收分发文件的路径
B.管理员上传需要分发的文件时,不能上传桌面路径的文件
C.可以检测终端是否已安装、已存在分发的文件
D.文件分发失败后,没有相应记录
第10题
A.Hive:一个基于Hadoop的数据仓库工具,用于对Hadoop文件中的数据集进行数据整理、特殊查询和分析存储
B.Zookeeper:针对谷歌Chubby的一个开源实现,是高效可靠的协同工作系统
C.HDFS:分布式文件系统,是Hadoop项目的两大核心之一,是谷歌GFS的开源实现
D.HBase:提供高可靠性、高性能、分布式的行式数据库,是谷歌BigTable的开源实现
为了保护您的账号安全,请在“赏学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!