# 俩文件夹去重
(根据一个文件夹对另一个文件夹含有这个文件夹中的文件进行去重)我的需要是将另一个文件夹中重复的进行删除。
因为量大,合并较慢,所以用python代码写一个进行去重。

代码:

import os
import time
def remove_repetition(old_path,new_path):
    print(1)
    print(os.getcwd())
    os.chdir(old_path)
    print(2, os.getcwd())
    same_key = []
    print('\n')
    print(os.listdir())
    # print(type(os.listdir()),len(os.listdir()))
    # 获取已经存在的key
    key_list = iter(os.listdir())

    # 切换到需要检查的是否重复的key目录:
    os.chdir(new_path)

    # 去重
    for key in key_list:
        is_exist = os.path.isfile(key)
        print(is_exist)
        if is_exist:
            same_key.append(key)
            os.remove(key)

    # 输出去重的命名
    print('over', same_key)
    print('same_key', len(same_key))


if __name__ == '__main__':
    start_time = time.time()
    # 已经保存的文件文件夹
    old_path = r'D:\zjf_workspace\001-地标、利器、服饰\004文本\百度isbn-json-非selenium4'

    # 未保存(需要去重的文件)
    new_path = r'D:\zjf_workspace\001-地标、利器、服饰\004文本\百度isbn-json-非selenium5'
    remove_repetition(old_path=old_path,new_path=new_path)
    end_time = time.time()
    print(end_time-start_time, '秒')

有更好的方法,提高效率的还请不吝赐教哈。