主页 > 知识库 > 聊聊python中令人迷惑的duplicated和drop_duplicates()用法

聊聊python中令人迷惑的duplicated和drop_duplicates()用法

热门标签:硅谷的囚徒呼叫中心 百度AI接口 客户服务 Win7旗舰版 呼叫中心市场需求 语音系统 电话运营中心 企业做大做强

前言

在算face_track_id map有感:

开始验证

data={'state':[1,1,2,2,1,2,2,2],'pop':['a','b','c','d','b','c','d','d']}
frame=pd.DataFrame(data)  
frame

frame.shape
$ (8,2)
# 说明duplicated()是对整行进行查重,return 重复了的数据,且只现实n-1条重复的数据(n是重复的次数)
frame[frame.duplicated() == True]

一开始还很疑惑,明明(1,b)只出现了1次,哪里duplicate了。其实,人家return的结果是去掉已经出现过一次的行数据了。所以看起来有点confuse,感觉(1,b)并没有重复,但其实人家的函数很简洁呢,返回了重复值而且不冗余。

# 说明drop_duplicates()函数是将所有重复的数据都去掉了,且默认保留重复数据的第一条。
# 比如(2,d)出现了3次,在duplicated()中显示了2次,在drop_dupicates()后保留了一个
frame.drop_duplicates().shape
$ (4,2)
# 留下了完全唯一的数据行
frame.drop_duplicates()

补充:python的pandas重复值处理(duplicated()和drop_duplicates())

一、生成重复记录数据

import numpy as np
import pandas as pd
 
#生成重复数据
df=pd.DataFrame(np.ones([5,2]),columns=['col1','col2'])
df['col3']=['a','b','a','c','d']
df['col4']=[3,2,3,2,2]
df=df.reindex(columns=['col3','col4','col1','col2'])  #将新增的一列排在第一列
df

输出:

二、判断重复记录(行)

#判断重复数据
isDplicated=df.duplicated()   #判断重复数据记录
isDplicated

输出:

三、删除重复值

#删除重复值
new_df1=df.drop_duplicates() #删除数据记录中所有列值相同的记录
new_df2=df.drop_duplicates(['col3']) #删除数据记录中col3列值相同的记录
new_df3=df.drop_duplicates(['col4']) #删除数据记录中col4列值相同的记录
new_df4=df.drop_duplicates(['col3','col4']) #删除数据记录中(col3和col4)列值相同的记录
new_df1
new_df2
new_df3
new_df4

输出:

以上为个人经验,希望能给大家一个参考,也希望大家多多支持脚本之家。

您可能感兴趣的文章:
  • Python DataFrame使用drop_duplicates()函数去重(保留重复值,取重复值)
  • Pandas之drop_duplicates:去除重复项方法
  • 详解pandas使用drop_duplicates去除DataFrame重复项参数
  • pandas.DataFrame.drop_duplicates 用法介绍

标签:崇左 长沙 山西 安康 海南 山西 喀什 济南

巨人网络通讯声明:本文标题《聊聊python中令人迷惑的duplicated和drop_duplicates()用法》,本文关键词  ;如发现本文内容存在版权问题,烦请提供相关信息告之我们,我们将及时沟通与处理。本站内容系统采集于网络,涉及言论、版权与本站无关。
  • 相关文章
  • 收缩
    • 微信客服
    • 微信二维码
    • 电话咨询

    • 400-1100-266