오늘의 마지막 초보자 팬더 질문 : 단일 시리즈에 대한 테이블을 어떻게 생성합니까?
예를 들면 :
my_series = pandas.Series([1,2,2,3,3,3])
pandas.magical_frequency_function( my_series )
>> {
1 : 1,
2 : 2,
3 : 3
}
많은 인터넷 검색이 나를 Series.describe () 및 pandas.crosstabs로 이끌었지만 둘 중 어느 것도 내가 필요한 것을 수행하지 않습니다. 하나의 변수, 카테고리별로 계산. 아, 문자열, 정수 등 다양한 데이터 유형에서 작동하면 좋을 것입니다.
답변
어쩌면 .value_counts()
?
>>> import pandas
>>> my_series = pandas.Series([1,2,2,3,3,3, "fred", 1.8, 1.8])
>>> my_series
0 1
1 2
2 2
3 3
4 3
5 3
6 fred
7 1.8
8 1.8
>>> counts = my_series.value_counts()
>>> counts
3 3
2 2
1.8 2
fred 1
1 1
>>> len(counts)
5
>>> sum(counts)
9
>>> counts["fred"]
1
>>> dict(counts)
{1.8: 2, 2: 2, 3: 3, 1: 1, 'fred': 1}
답변
데이터 프레임에서 목록 이해를 사용하여 열의 빈도를 계산할 수 있습니다.
[my_series[c].value_counts() for c in list(my_series.select_dtypes(include=['O']).columns)]
고장:
my_series.select_dtypes(include=['O'])
범주 형 데이터 만 선택합니다.
list(my_series.select_dtypes(include=['O']).columns)
위의 열을 목록으로 바꿉니다.
[my_series[c].value_counts() for c in list(my_series.select_dtypes(include=['O']).columns)]
위의 목록을 반복하고 각 열에 value_counts ()를 적용합니다.
답변
@DSM이 제공하는 대답은 간단하고 간단하지만이 질문에 내 의견을 추가 할 것이라고 생각했습니다. pandas.value_counts 의 코드를 보면 많은 일이 진행되고 있음을 알 수 있습니다.
많은 시리즈의 빈도를 계산해야하는 경우 시간이 걸릴 수 있습니다. 더 빠른 구현은 numpy.unique 를return_counts = True
다음은 예입니다.
import pandas as pd
import numpy as np
my_series = pd.Series([1,2,2,3,3,3])
print(my_series.value_counts())
3 3
2 2
1 1
dtype: int64
여기서 반환 된 항목은 pandas입니다.
이에 비해 numpy.unique
고유 값과 개수라는 두 항목이있는 튜플을 반환합니다.
vals, counts = np.unique(my_series, return_counts=True)
print(vals, counts)
[1 2 3] [1 2 3]
그런 다음이를 사전으로 결합 할 수 있습니다.
results = dict(zip(vals, counts))
print(results)
{1: 1, 2: 2, 3: 3}
그리고 pandas.Series
print(pd.Series(results))
1 1
2 2
3 3
dtype: int64
답변
과도한 값을 가진 변수의 빈도 분포를 위해 클래스의 값을 축소 할 수 있습니다.
여기서는 employrate
변수에 대한 값이 과도합니다.이 변수의 빈도 분포는 의미가 없습니다.values_count(normalize=True)
country employrate alcconsumption
0 Afghanistan 55.700001 .03
1 Albania 11.000000 7.29
2 Algeria 11.000000 .69
3 Andorra nan 10.17
4 Angola 75.699997 5.57
.. ... ... ...
208 Vietnam 71.000000 3.91
209 West Bank and Gaza 32.000000
210 Yemen, Rep. 39.000000 .2
211 Zambia 61.000000 3.56
212 Zimbabwe 66.800003 4.96
[213 rows x 3 columns]
values_count(normalize=True)
분류가없는 빈도 분포 , 여기서 결과 길이는 139입니다 (빈도 분포로 무의미한 것 같습니다).
print(gm["employrate"].value_counts(sort=False,normalize=True))
50.500000 0.005618
61.500000 0.016854
46.000000 0.011236
64.500000 0.005618
63.500000 0.005618
58.599998 0.005618
63.799999 0.011236
63.200001 0.005618
65.599998 0.005618
68.300003 0.005618
Name: employrate, Length: 139, dtype: float64
분류를 넣어 우리는 특정 범위 즉, 모든 값을 넣습니다.
0-10을 1로, 11-20을 2로 21-30을 3으로, 등등.
gm["employrate"]=gm["employrate"].str.strip().dropna()
gm["employrate"]=pd.to_numeric(gm["employrate"])
gm['employrate'] = np.where(
(gm['employrate'] <=10) & (gm['employrate'] > 0) , 1, gm['employrate']
)
gm['employrate'] = np.where(
(gm['employrate'] <=20) & (gm['employrate'] > 10) , 1, gm['employrate']
)
gm['employrate'] = np.where(
(gm['employrate'] <=30) & (gm['employrate'] > 20) , 2, gm['employrate']
)
gm['employrate'] = np.where(
(gm['employrate'] <=40) & (gm['employrate'] > 30) , 3, gm['employrate']
)
gm['employrate'] = np.where(
(gm['employrate'] <=50) & (gm['employrate'] > 40) , 4, gm['employrate']
)
gm['employrate'] = np.where(
(gm['employrate'] <=60) & (gm['employrate'] > 50) , 5, gm['employrate']
)
gm['employrate'] = np.where(
(gm['employrate'] <=70) & (gm['employrate'] > 60) , 6, gm['employrate']
)
gm['employrate'] = np.where(
(gm['employrate'] <=80) & (gm['employrate'] > 70) , 7, gm['employrate']
)
gm['employrate'] = np.where(
(gm['employrate'] <=90) & (gm['employrate'] > 80) , 8, gm['employrate']
)
gm['employrate'] = np.where(
(gm['employrate'] <=100) & (gm['employrate'] > 90) , 9, gm['employrate']
)
print(gm["employrate"].value_counts(sort=False,normalize=True))
분류 후에는 명확한 빈도 분포가 있습니다. 여기에 우리가 쉽게 것을 볼 수 있습니다 37.64%
나라 사이의 고용 비율이의 51-60%
와 11.79%
국가의 고용 비율 사이가71-80%
5.000000 0.376404
7.000000 0.117978
4.000000 0.179775
6.000000 0.264045
8.000000 0.033708
3.000000 0.028090
Name: employrate, dtype: float64