大数据_Spark_VS_Hadoop_框架---Spark工作笔记0002
发布日期:2021-06-29 17:46:58 浏览次数:2 分类:技术文章

本文共 258 字,大约阅读时间需要 1 分钟。

技术交流QQ群【JAVA,C++,Python,.NET,BigData,AI】:170933152

然后我们继续比较一下spark和hadoop

我们知道hadoop,属于一次性数据计算模型

计算模型只有mapper和reducer

他只有mapper,以及reducer,mapper负责把数据打散,reducer负责把数据聚合,

但是数据要先从磁盘上读取,然后mapper打散,然后聚合reducer,然后再把处理后的数据进行写入到磁盘中去.

 

这样一个一次的数据处理过程,而且这个过程涉及到磁盘读写数据比较慢.

转载地址:https://credream.blog.csdn.net/article/details/113135410 如侵犯您的版权,请留言回复原文章的地址,我们会给您删除此文章,给您带来不便请您谅解!

上一篇:大数据_Flink_流式处理_简介_Flink是什么---Flink工作笔记0001
下一篇:大数据_Spark_框架简介---Spark工作笔记0001

发表评论

最新留言

关注你微信了!
[***.104.42.241]2024年04月21日 19时58分51秒