正好最近在帮客户从达梦数据库迁移到 MySQL。我也来简单说说重复数据的处理。

存放在数据库中的数据分为三种:
1. 一种是经过严格意义过滤出来的数据。比如程序端过滤数据源、数据库端在表字段上设置 check 标记过滤数据源、设置触发器过滤、调用存储过程过滤等等;
2. 另一种是原始的没有经过任何处理的数据。比如程序端代码异常导致产生非正常的想要的数据、数据库端没有设置任何过滤规则的数据保留等等。这样会产生一系列垃圾数据,当然也包含了我今天要说的重复的数据。

3. 最后一种是 SQL 语句在执行过程中可能产生的重复数据。比如两表外联,总会产生一系列 NULL。

今天我要说的重复数据,不包含 SQL 语句在执行中产生的重复数据,只包含了原始重复数据的处理。接下来,用几个经典的场景来说下。

第一种,记录完全重复,这其实是最最简单的去重场景。

比如无主键的表 d1
  1. mysql-(ytt/3305)->show create table d1\G

  2. *************************** 1. row ***************************

  3. Table: d1

  4. Create Table: CREATE TABLE `d1` (

  5. `r1` int(11) DEFAULT NULL,

  6. `r2` int(11) DEFAULT NULL

  7. ) ENGINE=InnoDB DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_0900_ai_ci

  8. 1 row in set (0.00 sec)

记录数总共为四百万。
  1. mysql-(ytt/3305)->select count(*) from d1 limit 2;


  2. +----------+

  3. | count(*) |

  4. +----------+

  5. | 4000000 |

  6. +----------+

  7. 1 row in set (0.18 sec)

可以看到足足有四分之三的记录是重复的。
  1. mysql-(ytt/3305)->select count(distinct r1,r2) from d1 ;

  2. +-----------------------+

  3. | count(distinct r1,r2) |

  4. +-----------------------+

  5. | 1000000 |

  6. +-----------------------+

  7. 1 row in set (2.68 sec)

比如记录(1,1)就有四条。

  1. mysql-(ytt/3305)-> select * from db1 order by r1,r2 limit 5;

  2. +------+------+

  3. | r1 | r2 |

  4. +------+------+

  5. | 1 | 1 |

  6. | 1 | 1 |

  7. | 1 | 1 |

  8. | 1 | 1 |

  9. | 2 | 2 |

  10. +------+------+

  11. 5 rows in set (1.65 sec)

这种去重非常简单,要么在数据库层做,要么把数据导出来筛选好在导到数据库里来。
在数据库里做,无非就是新建一张克隆表,完了把正常数据筛选出来,再重新命名后,删掉原来的表,步骤也不是非常繁琐,例子如下:
  1. mysql-(ytt/3305)->create table d2 like d1;

  2. Query OK, 0 rows affected (0.01 sec)

时间主要耗费在去重并且插入新表这里
  1. mysql-(ytt/3305)->insert into d2 select distinct r1,r2 from d1;

  2. Query OK, 1000000 rows affected (19.40 sec)

  3. Records: 1000000 Duplicates: 0 Warnings: 0


  4. mysql-(ytt/3305)->alter table d1 rename to d1_bak;

  5. Query OK, 0 rows affected (0.00 sec)


  6. mysql-(ytt/3305)->alter table d2 rename to d1;

  7. Query OK, 0 rows affected (0.00 sec)


  8. mysql-(ytt/3305)->drop table d1_bak;

  9. Query OK, 0 rows affected (0.00 sec)

上面总共花了大概 20 秒的样子,再来看看在系统层面上去重,先导出数据,
  1. mysql-(ytt/3305)->select * from db1 into outfile '/var/lib/mysql-files/d1.txt';

  2. Query OK, 4000000 rows affected (1.84 sec)

系统层面去重,用 OS 自带的工具 sort 和 uniq。
  1. root@ytt-pc:/var/lib/mysql-files# time cat d1.txt |sort -g |uniq > d1_uniq.txt


  2. real 0m7.345s

  3. user 0m7.528s

  4. sys 0m0.272s

导入到原表,

  1. mysql-(ytt/3305)->truncate table d1;

  2. Query OK, 0 rows affected (0.05 sec)


  3. root@ytt-pc:/var/lib/mysql-files# mv d1_uniq.txt d1.txt

把处理好的数据直接导入到数据库
  1. root@ytt-pc:/home/ytt/scripts# time mysqlimport -uytt -pytt -P3305 -h 127.0.0.1 --use-threads=2 -vvv ytt /var/lib/mysql-files/d1.txt

  2. mysqlimport: [Warning] Using a password on the command line interface can be insecure.

  3. Connecting to 127.0.0.1

  4. Selecting database ytt

  5. Loading data from SERVER file: /var/lib/mysql-files/d1.txt into d1

  6. ytt.d1: Records: 1000000 Deleted: 0 Skipped: 0 Warnings: 0

  7. Disconnecting from 127.0.0.1


  8. real 0m3.272s

  9. user 0m0.012s

  10. sys 0m0.008s

看下处理好的记录,
  1. mysql-(ytt/3305)->select * from d1 where 1 order by r1,r2 limit 2;

  2. +------+------+

  3. | r1 | r2 |

  4. +------+------+

  5. | 1 | 1 |

  6. | 2 | 2 |

  7. +------+------+

  8. 2 rows in set (0.40 sec)

OS 层面稍微效率高些,总体包括数据导出,数据去重,数据导入,差不多是数据库层时间的一半。

第二种,其实和第一种类似,不同的是表有主键,但是其他的字段记录值是重复的。

举个例子,表 d4 除了加了主键,其他的记录和之前的一模一样。记录如下:
  1. mysql-(ytt/3305)->select * from d4 order by r1,r2 limit 5;

  2. +---------+------+------+

  3. | id | r1 | r2 |

  4. +---------+------+------+

  5. | 1 | 1 | 1 |

  6. | 3000001 | 1 | 1 |

  7. | 2000001 | 1 | 1 |

  8. | 1000001 | 1 | 1 |

  9. | 2 | 2 | 2 |

  10. +---------+------+------+

  11. 5 rows in set (1.08 sec)

但是这种一般就得需要和具体的业务商量了,比如我需要留下重复记录的最大主键值,比如上面这个,留下最大的 id 为 3000001 这条记录。这样的去重一条 sql 就搞定了,
  1. mysql-(ytt/3305)->delete a from d4 a left join (select max(id) id from d4 group by r1, r2) b using(id) where b.id is null;


  2. Query OK, 3000000 rows affected (23.29 sec)

去掉了 300W 行重复记录,剩下四分之一的正常数据。
  1. mysql-(ytt/3305)->select count(*) from d4;

  2. +----------+

  3. | count(*) |

  4. +----------+

  5. | 1000000 |

  6. +----------+

  7. 1 row in set (0.06 sec)

来看下效果,保留了最大值,其他的删掉了。
  1. mysql-(ytt/3305)->select * from d4 order by r1,r2 limit 5;

  2. +---------+------+------+

  3. | id | r1 | r2 |

  4. +---------+------+------+

  5. | 3000001 | 1 | 1 |

  6. | 3000002 | 2 | 2 |

  7. | 3000003 | 3 | 3 |

  8. | 3000004 | 4 | 4 |

  9. | 3000005 | 5 | 5 |

  10. +---------+------+------+

  11. 5 rows in set (0.25 sec)

第三种,不同于前面两种,这种体现在字段值里多余的字符,比如空格,多余的换行符等。依然看看几个例子:

1. 去掉字段值内前后的空白字符,是这类里最简单的。这种 MySQL 有现成的函数,一条基础的 SQL 即可。 
  1. 表y11 有500W行示例数据

  2. mysql-(ytt/3305)->select count(*) from y11;

  3. +----------+

  4. | count(*) |

  5. +----------+

  6. | 5242880 |

  7. +----------+

  8. 1 row in set (0.30 sec)


  9. 利用trim函数。

  10. mysql-(ytt/3305)->update y11 set r1 = trim(r1), r2 = trim(r2);

  11. Query OK, 5242880 rows affected (2 min 1.56 sec)

  12. Rows matched: 5242880 Changed: 5242880 Warnings: 0


  13. mysql-(ytt/3305)->select * from y11 limit 5;

  14. +----+------------------------+------------------------+

  15. | id | r1 | r2 |

  16. +----+------------------------+------------------------+

  17. | 1 | sql server | sql server |

  18. | 2 | sql server | sql server |

  19. | 3 | sql server | sql server |

  20. | 6 | db2 mysql oracle mysql | db2 mysql oracle mysql |

  21. | 7 | db2 mysql oracle mysql | db2 mysql oracle mysql |

  22. +----+------------------------+------------------------+

  23. 5 rows in set (0.00 sec)

2. 去掉单词中间的各种空白字符(空格,换行,制表符等);单词前后,中间都有空格的场景。

依然是表 y11,从结果来看,各种换行符,空格已经让结果无法正常显示了。

  1. mysql-(ytt/3305)->select * from y11 limit 5;

  2. +----+-----------------------------------------------------+------------------------------------------------------+

  3. | id | r1 | r2 |

  4. +----+-----------------------------------------------------+------------------------------------------------------+

  5. | 1 | sql server | sql server |

  6. | 2 | sql server | sql server |

  7. server | sql server |

  8. | mysql | db2 mysql oracle

  9. | 7 | db2 mysql oracle mysql | db2 mysql oracle mysql

  10. +----+-----------------------------------------------------+------------------------------------------------------+

  11. 5 rows in set (0.00 sec)

可能最先想到的方法是把数据导出为文本文件,完了用 linux 上的各种工具处理完了再导进去,比如:
  1. mysql-(ytt/3305)->select * from y11 into outfile '/var/lib/mysql-files/y11.txt' fields terminated by ',' enclosed by '"';

  2. Query OK, 5242880 rows affected (3.54 sec)


  3. mysql-(ytt/3305)->truncate y11;

  4. Query OK, 0 rows affected (0.23 sec)

用 sed 处理下,替换掉所有的空白字符。

  1. root@ytt-pc:/var/lib/mysql-files# time sed -i 's/\s\+/ /g' y11.txt


  2. real 0m27.476s

  3. user 0m20.105s

  4. sys 0m7.233s

导入到表 y11

  1. mysql-(ytt/3305)->load data infile '/var/lib/mysql-files/y11.txt' into table y11 fields terminated by ',' enclosed by '"';

  2. Query OK, 5242880 rows affected (30.25 sec)

  3. Records: 5242880 Deleted: 0 Skipped: 0 Warnings: 0

上面虽然达成了目的,但是过程过于繁琐,如果 MySQL 层实在解决不了再考虑。

完全可以利用 MySQL 的正则替换功能直接替换掉多余的字符为一个空格,也是一条简单的 SQL。

  1. mysql-(ytt/3305)->update y11 set r1 = regexp_replace(r1,'[[:space:]]+',' '), r2 = regexp_replace(r2,'[[:space:]]+',' ');

  2. Query OK, 4194304 rows affected (1 min 32.05 sec)

  3. Rows matched: 5242880 Changed: 4194304 Warnings: 0

只是时间上稍微长些,不过也影响不是很大。

  1. mysql-(ytt/3305)->select * from y11 limit 5;

  2. +----+------------------------+-------------------------+

  3. | id | r1 | r2 |

  4. +----+------------------------+-------------------------+

  5. | 1 | sql server | sql server |

  6. | 2 | sql server | sql server |

  7. | 3 | sql server | sql server |

  8. | 6 | db2 mysql oracle mysql | db2 mysql oracle mysql |

  9. | 7 | db2 mysql oracle mysql | db2 mysql oracle mysql |

  10. +----+------------------------+-------------------------+

  11. 5 rows in set (0.00 sec)

我想可能日常数据处理难免会有数据去重的场景,希望这部分内容对大家有帮助。

社区近期动态

No.1

Mycat 问题免费诊断

诊断范围支持:

Mycat 的故障诊断、源码分析、性能优化

服务支持渠道:

技术交流群,进群后可提问

QQ群(669663113)

社区通道,邮件&电话

osc@actionsky.com

现场拜访,线下实地,1天免费拜访

关注“爱可生开源社区”公众号,回复关键字“Mycat”,获取活动详情。

No.2

社区技术内容征稿

征稿内容:

格式:.md/.doc/.txt

主题:MySQL、分布式中间件DBLE、数据传输组件DTLE相关技术内容

要求:原创且未发布过

奖励:作者署名;200元京东E卡+社区周边

投稿方式:

邮箱:osc@actionsky.com

格式:[投稿]姓名+文章标题

以附件形式发送,正文需注明姓名、手机号、微信号,以便小编及时联系