Mongodb 删除重复的数据
最近在处理一些专利数据,从专利局爬数据的时候,总会间隙性出现中断,为了保证数据的完整性就进行了一些重复下载。将数据从几万个Excel表格中导入Mongodb后,第一步就是要去掉重复的数据。我的第一反应是写个Python小脚本,结果在执行的时候,由于数据量确实比较大,有十几万条,执行了半个小时仍不见结束。这时候才想着使用数据库的查询命令是不是可以实现去重复的功能。简单搜索实践后总结如下:
1. 使用Python小脚本去重复的代码:
# -*- coding: utf-8 -*-## @Author yxiao@aliyun.com#import osimport ioimport sysfrom pymongo import *reload(sys) sys.setdefaultencoding( "utf-8" )client = MongoClient(address, port)db_data = client.db_namecollection_patent = db_data.collection_namepatents = {}count = 0for patent_record in collection_patent.find({"_id":{"$ne":0}}): if patent_record['public_no'] not in patents.keys(): patents[patent_record['public_no']] = patent_record else: count += 1 collection_patent.delete_one({"public_no":patent_record['public_no']})print count
2.使用ensureIndex
建立索引来删除重复记录,此命令适用于Mongodb 3.0
以下版本。在Mongodb3.0
以上版本,ensureIndex
已经被createIndex
取代了,同时dropDups
选项也已经被移除了,所以不能再使用以上命令来去掉重复数据:
db.your_collection.ensureIndex({public_no:1}, {unique: true, dropDups: true})
3.下面提供一种比较简单的巧方法:
- 将数据导出为JSON格式存档:
mongoexport.exe -d database_name -c collection_name -o filename.json
- 清空当前集合的数据:
db.yourcollection.remove({})
- 新建唯一索引:
db.yourcollection.createIndex({public_no:1}, {unique:true})
- 导入之前存档的JSON文件数据:
mongoimport -d database_name -c collection_name --upsert filename.json
用到的几个参数选项说明:-d 数据库名
-c 集合名
-o 导出后的目录及文件名
--upsert 会根据唯一索引去掉重复记录