pyspark
PySpark宗旨是在不破坏Spark已有的运行时架构,在Spark架构外层包装一层Python API,借助Py4j实现Python和Java的交互,进而实现通过Python编写Spark应用程序
# Related Post
1.spark容错机制
2.Sparksql运行流程
3.Sparkcore运行流程
4.sparksql对比hive sql
5.数据划分,rdd分区
6.Spark vs MapReduce
7.Spark on Hive & Hive on Spark
8.RDD依赖关系
1.spark容错机制
2.Sparksql运行流程
3.Sparkcore运行流程
4.sparksql对比hive sql
5.数据划分,rdd分区
6.Spark vs MapReduce
7.Spark on Hive & Hive on Spark
8.RDD依赖关系