# 俩文件夹去重
(根据一个文件夹对另一个文件夹含有这个文件夹中的文件进行去重)我的需要是将另一个文件夹中重复的进行删除。
因为量大,合并较慢,所以用python代码写一个进行去重。
代码:
import os
import time
def remove_repetition(old_path,new_path):
print(1)
print(os.getcwd())
os.chdir(old_path)
print(2, os.getcwd())
same_key = []
print('\n')
print(os.listdir())
# print(type(os.listdir()),len(os.listdir()))
# 获取已经存在的key
key_list = iter(os.listdir())
# 切换到需要检查的是否重复的key目录:
os.chdir(new_path)
# 去重
for key in key_list:
is_exist = os.path.isfile(key)
print(is_exist)
if is_exist:
same_key.append(key)
os.remove(key)
# 输出去重的命名
print('over', same_key)
print('same_key', len(same_key))
if __name__ == '__main__':
start_time = time.time()
# 已经保存的文件文件夹
old_path = r'D:\zjf_workspace\001-地标、利器、服饰\004文本\百度isbn-json-非selenium4'
# 未保存(需要去重的文件)
new_path = r'D:\zjf_workspace\001-地标、利器、服饰\004文本\百度isbn-json-非selenium5'
remove_repetition(old_path=old_path,new_path=new_path)
end_time = time.time()
print(end_time-start_time, '秒')
有更好的方法,提高效率的还请不吝赐教哈。