oracle大批量插入失败,请教大侠

今天遇到比较大的问题,批量插入数据有失败的情况,详细说下我的情况,请能帮忙的大侠指点一下啊
1,读取文件(大约10万笔记录,而且是并发十笔)
2,这一百条记录插入到一张表里面,有的一个文件批量插入全部成,但有的只插入了一半(甚至不到一半),剩下的数据库记录就没有动劲了,程序中也未捕获到任何数据库异常信息
3,批量插入时,一次性500条记录批量提交

请高手指一下啊,急中啊!!!!!!!!!!
你所指的分段操作,应该和我说的一样吧,我也是500笔提交一次的,4楼( xdyg_1979 ),我们理解有偏差吗?能否具体点?

我的oracle数据库是单独的一个机器 (与应用程序不在同一机器上面),像 1楼( zcs2631)内存不足的话,那么不管是系统还是应用程序,应该会有报内存溢出的现象吧?
补充一下:今天上午我测试了一下,10笔10W的数据,并发又可以成功了,所以我感觉 很奇怪,到底是哪里出现问题了呢?相当困惑!~~~~~~~~~,
有经验的人,能否替小弟我分析一下,具体一点更好,因为问题实在难找!!!!
最新回答
一只哀伤的猫

2022-02-13 03:51:01

提醒你注意几个地方:
表空间大小,临时表空间大小,回退段大小。
不要建索引,不要让表空间自动扩展,注意回退段(表空间)大小
最好不要生成归档,除非必要。

哦,不要用存储过程处理数据,数据过多的话,会造成游标等待,闩锁等待的出现,就是你所谓的没动静(劲),呵呵!

仅供参考!
小乀奶嘴

2021-06-04 18:29:54

数据量太大。我正在做个项目三个表分别是 29W 60W 400W数据。只有20W数据插入成功。确实没有报错但是就是执行不了。只能分段操作了
憇憇圏

2020-12-13 18:44:54

不能成功,报的是什么错误,
有可能是IO争用引起滴。。
永不言弃

2022-05-03 23:35:07

这是因为内存不够造成的,在你还没commit之前被插入的数据全部放在了内存中,但数据量很大时内存就放不下了,这么说你该明白了吧。
收起 2条折叠回答