海量数据迁移之sqlldr和datapump的缺点分析(r4笔记第74天)
发布日期:2021-06-30 13:30:26 浏览次数:2 分类:技术文章

本文共 1649 字,大约阅读时间需要 5 分钟。

在数据迁移中,sql*loader和datapump总是作为一些常用的数据迁移方案,自己在经历了一些项目之后,优点就不说了,说点这些方案的缺点,批评不自由,则赞美无意义,所以我在提出了一些失败错误的经验后,会在下一篇中给出这些缺点的解决方案。毕竟解决问题才是最重要的。使用sql*loader的缺点 可能存在潜在的乱码问题,尤其是对于特定字符集的数据,因为sqlldr可以从客户端导出,如果客户端的语言设置不当,导出的文件会有乱码的隐患。 数据问题,这个是sql*loader使用比较头疼的地方,因为这种加载方式老是感觉比insert的方式差一点,一旦出现错误,可以使用sql*loader提供的特定的接口来对文件修改后,重新部署。 对于lob数据的使用不够方便 如果表中含有clob,blob列,那么使用sql*loader时比较麻烦的,尽管官方说是可以支持的,我看了下繁琐的文档就准备放弃了。 主键冲突 ORA-00001: unique constraint (PRDAPPO.AR1_MEMO_PK) violated 这种错误很明显是由于存在主键冲突的数据导致的。可能表中已经含有一部分数据,再插入一部分数据的时候,结果出现了主键冲突。 外键数据问题/表插入数据的顺序 ORA-02291: integrity constraint (PRDAPPO.CH_OBJECT_ATTRIBUTES_1FK) violated 这种问题比较纠结,主要是由于导入表的顺序不当导致的。 非空约束问题 ERROR at line 3: ORA-29913: error in executing ODCIEXTTABLEFETCH callout ORA-01400: cannot insert NULL into ("PRDAPPO"."CL9_CRD_MNTR_TREAT"."ACT_RSN_CODE") 这种问题比较少见,但是确实存在,如果某些字段的约束不一致,很可能会出现这种问题。使用Datapump的缺点 约束导致的导入回退 ORA-31693: Table data object "PRDAPPO"."MO1_MEMO":"PMAX_AMAX_EMAX" failed to load/unload and is being skipped due to error: ORA-00001: unique constraint (PRDAPPO.MO1_MEMO_PK) violated Job "PRDAPPO"."SYS_IMPORT_FULL_01" completed with 1 error(s) at 02:34:33 使用datapump比较最怕的就是等待了个把小时,最后dump文件报错回退了,对于约束的问题,可以使用impdp的选项 DATA_OPTIONS=SKIP_CONSTRAINT_ERRORS来导入没有问题的数据。 undo的困扰 ORA-31693: Table data object "MIG_TEST"."MO1_MEMO":"P2_A1000_E3" failed to load/unload and is being skipped due to error: ORA-29913: error in executing ODCIEXTTABLEFETCH callout ORA-30036: unable to extend segment by 8 in undo tablespace 'UNDOTBS1' 如果表足够大,几十G,上百G,恰好你的undo大小也在几十G,那么很有可能会出现undo资源不足。这个时候你都不知道该怎么继续了。资源的相互制约 有些项目中,可能同时使用sql*loader和datapump,一旦这种情况发生,sqlldr和datapump就会互相制约,尽可能多的占用资源,对性能还是有一定的影响。

转载地址:https://jeanron100.blog.csdn.net/article/details/102507020 如侵犯您的版权,请留言回复原文章的地址,我们会给您删除此文章,给您带来不便请您谅解!

上一篇:mongoDB初探第一篇(r4笔记第75天)
下一篇:通过图表简化sql语句的表关联(r4笔记第70天)

发表评论

最新留言

关注你微信了!
[***.104.42.241]2024年05月02日 16时50分59秒