如何给Large Delete操作提速近千倍?(四)

本文已经发表在ITPUB优化技术丛书,未经许可,不得转载。

本文已经发表在ITPUB优化技术丛书,未经许可,不得转载。

1.1. 第三次优化——拆分 DELETE 操作

首先,我尝试从临时表 temp_mid_hubei 中取出一行记录:

SQL> select mid ,rowid from temp_mid_hubei where rownum=1;

MID ROWID

-------------- ------------------

00046000019808 AAAngMAGkAAA5SkAAA

Elapsed: 00:00:00.01

SQL>


然后,再根据条件在 SSF 表中删除相应的记录,看看需要多长时间:

SQL> DELETE from SSF WHERE mid='00046000019808';

1 rows deleted.

** Elapsed: 00:00:00.01

**

SQL>


请注意,这样的操作执行几乎瞬间就可以完成,于是开始拆分 DELETE 的思路就应运而生:

  1. 首先取出临时表中的一行(包括 ROWID )

  2. 根据关键字在大表 SSF 中删除一行数据(使用唯一索引)

  3. 根据最初记录的 ROWID 将这条记录从临时表中删除(以避免重复比较)

我修改了存储过程,如下:

CREATE OR REPLACE PROCEDURE DEL_HUBEI_SSF

AS

v_i NUMBER (10);

v_mid VARCHAR2 (30) := '';

v_row ROWID;

BEGIN

-- v_i:=10000;

SELECT COUNT (*)

INTO v_i

FROM temp_mid_hubei_bak;

WHILE v_i > 0

LOOP

** SELECT mid, ROWID

**

** INTO v_mid, v_row

**

** FROM temp_mid_hubei_bak

**

** WHERE ROWNUM = 1;

**

**

**

** DELETE FROM SSF

**

** WHERE mid = v_mid;

**

**

**

** DELETE FROM temp_mid_hubei_bak

**

** WHERE ROWID = v_row;

**

** COMMIT;

**

v_i := v_i - 1;

END LOOP;

DBMS_OUTPUT.put_line ('Full Finished!!!');

DBMS_OUTPUT.put_line ( 'Totally '

|| TO_CHAR (v_i)

|| ' records deleted from hubei_SSF !!!'

);

END;


当然,实际操作的时候,由于这次任务中有几类的操作都需要用到临时表 temp_mid_hubei ,因此,在操作之前需要使用 CTAS ( create table … as select … )将该表做个备份。

经过测试,使用这种方法删除 10000 条数据,需要大概 1 分钟时间,于是准备启用这个方法来完成任务。

可是这样的操作也远远不能满足要求,因为删除 10 万行记录,并不意味着需要 10*1 分钟 =10 分钟,而是需要大约 30 多分钟!!

看来,上一个方法的问题(大量操作的时间会成倍增长于少量操作的时间)再一次体现出来,于是,想到了第四次优化——使用 FORALL 处理批量作业。

Published At
Categories with 数据库类
Tagged with
comments powered by Disqus