数据挖掘工具---Spark的使用方法(二)
发布日期:2021-07-24 12:00:48
浏览次数:2
分类:技术文章
本文共 659 字,大约阅读时间需要 2 分钟。
Spark使用过程中报错汇总
报错1: “ValueError: Cannot run multiple SparkContexts at once; existing SparkContext(app=PySparkShell, master=local[*]) ”
原因:出现这个错误是因为之前已经启动了SparkContext 解决方法:查看代码,看是否有多次运行SparkContext实例;也可以先关闭spark(sc.stop() // 关闭spark ),然后再启动。 报错2: “AttributeError: ‘PipelinedRDD’ object has no attribute ‘toDF’” 原因:toDF()是运行在Sparksession(1.X版本的Spark中为SQLContext)内部的一个补丁,如果有其他函数用到toDF(),那么需要先创建SparkSession()。 解决方法:以IndexedRow()为例,当利用IndexedRow()产生RDD时,需要sc=SparkContext()SparkSession(sc)#利用SparkSession来使sc具有处理PipelinedRDD的能力indexedRows = sc.parallelize([IndexedRow(0, [1, 2, 3]),IndexedRow(1, [4, 5, 6]),IndexedRow(2, [7, 8, 9]),IndexedRow(3, [10, 11, 12])])
转载地址:https://blog.csdn.net/qingqing7/article/details/78719595 如侵犯您的版权,请留言回复原文章的地址,我们会给您删除此文章,给您带来不便请您谅解!
发表评论
最新留言
不错!
[***.144.177.141]2024年03月31日 23时28分11秒
关于作者
喝酒易醉,品茶养心,人生如梦,品茶悟道,何以解忧?唯有杜康!
-- 愿君每日到此一游!
推荐文章
程序员面试时用中文命名写白板代码的好处
2019-04-26
1992年日本对母语编程的可读性比较实验
2019-04-26
[转] 用python编写控制网络设备的自动化脚本3:启动
2019-04-26
扩展Python控制台实现中文反馈信息
2019-04-26
扩展Python控制台实现中文反馈信息之二-正则替换
2019-04-26
在PyPI测试平台发布Python包
2019-04-26
中文代码示例之Electron桌面应用开发初体验
2019-04-26
中文代码示例之NW.js桌面应用开发初体验
2019-04-26
为《 两周自制脚本语言 》添加中文测试代码
2019-04-26
将《 两周自制脚本语言 》测试中使用的接口中文化
2019-04-26
5分钟入门LingaScript-尝鲜中文版TypeScript
2019-04-26
重拾《 两周自制脚本语言 》- 支持中文标识符
2019-04-26
Java实现文本编辑时基于拼音输入的补全原型
2019-04-26
从立创EDA,Gratipay看中文编程开发环境和推广运营的一个趋势
2019-04-26
中文代码之Django官方入门:建立模型
2019-04-26
Python实现推流直播
2019-04-26
你不得不了解的卷积神经网络发展史
2019-04-26