网友您好, 请在下方输入框内输入要搜索的题目:

题目内容 (请给出正确答案)
判断题
RDD可以从Hadoop兼容的文件系统生成,生成之后可以通过调用RDD的算子对RDD的数据进行部分更新。
A

B


参考答案

参考解析
解析: 暂无解析
更多 “判断题RDD可以从Hadoop兼容的文件系统生成,生成之后可以通过调用RDD的算子对RDD的数据进行部分更新。A 对B 错” 相关考题
考题 RDD的intersection方法用于求出两个RDD的共同元素。() 此题为判断题(对,错)。

考题 以下哪个函数可以对RDD进行排序()。 A.sortByB.intersectionC.filterD.distinct

考题 SparkStreming中()函数可以通过对源DStream的每RDD应用RDD-to-RDD函数返回一个新的DStream,这可以用来在DStream做任意RDD操作。 A.transB.reduceC.joinD.cogroup

考题 GraphX中()是存放着Edg对象的RDD。 A.VertexRDDB.RDD[VertexId,VD]C.RDD[Edge]D.EdgeRDD

考题 groupByKey算子在一个(K,V)的RDD上调用,返回一个(K,Iterator[V])的RDD

考题 reduceByKey算子在一个(K,V)的RDD上调用,返回一个(K,V)的RDD,使用指定的reduce函数,将相同key的值聚合到一起

考题 以下属于spark启动后进程的是()A、rdd是由一系列的partition组成的B、原子性C、算子作用在partition上D、每个rdd都会提供一批最优的计算位置

考题 RDD可以转化为DataFrames,但是DataFrames不能转化为RDD

考题 count算子返回RDD的元素个数

考题 interSection算子对源RDD和参数RDD求交集后返回一个新的RDD

考题 创建rdd可以有如下几种?()A、由外部存储系统的数据集创建,包括本地的文件系统B、由一个已经存在的Scala集合创建C、比如所有Hadoop支持的数据集,比如HDFS、Cassandra、HbaseD、以上说法都不对

考题 map算子返回一个新的RDD,该RDD由每一个输入元素经过func函数转换后组成

考题 union算子对源RDD和参数RDD求并集后返回一个新的RDD

考题 以下关于rdd的特性说法错误的是()A、rdd是仅仅由一组partition够成的B、rdd之间都是独立的,没有依赖C、算子作用在partition上D、每个rdd都会提供一批最优的计算位置

考题 以下关于rdd的说法中,正确的是哪些()A、rdd是由一系列partition够成的B、rdd之间都是独立的,没有依赖C、算子作用在partition上D、每个rdd都会提供一批最优的计算位置

考题 join算子在类型为(K,V)和(K,W)的RDD上调用,返回一个相同key对应的所有元素对在一起的(K,(V,W))的RDD

考题 reduce动作算子通过func函数聚集RDD中的所有元素,这个功能必须是可交换且可并联的

考题 spring中关于bean的说法正确的是()A、rdd是由一组partition够成的B、rdd之间都是独立的,没有依赖C、算子作用在partition上D、每个rdd都会提供一批最优的计算位置

考题 DStream是一系列连续的RDD来表示。每个RDD含有一段时间间隔内的数据

考题 以下选项中是persist算子在源码中具有哪些参数的是()A、rdd是由一系列partition够成的B、rdd之间都是独立的,没有依赖C、算子作用在partition上D、每个rdd都会提供一批最优的计算位置

考题 sortByKey算子在一个(K,V)的RDD上调用,K必须实现Ordered接口,返回一个按照key进行排序的(K,V)的RDD

考题 cogroup算子在类型为(K,V)和(K,W)的RDD上调用,返回一个(K,(Iterable,Iterable))类型的RDD

考题 sparkSql可以访问hive数据,并将其结果取回作为RDD使用

考题 RDD中的所有转换都是通过转化算子延迟加载的,也就是说,它们并不会直接计算结果

考题 filter算子返回一个新的RDD,该RDD由经过函数计算后返回值为true的输入元素组成

考题 distinct算子对源RDD进行去重后返回一个新的RDD

考题 多选题关于spark说法正确的是()。A调用RDD的Transformation算子可以立即发起jobBNodeManager负责整个集群的资源统一调度和分配。CYarn-client适合测试,Yarn-cluster适合生产。DDataset具有RDD和DataFrame的优点,又避免它们的缺点。