Inżynieria cech#
Feature Engineering polega na przekształcaniu surowych danych w cechy użyteczne w procesie modelowania.
Tworzenie zmiennych predykcyjnych zawsze powinno opierać się przede wszystkim na zrozumieniu danych i wiedzy biznesowej związanej z danym problemem. Istnieje jednak kilka standardowych technik, które można stosować do tworzenia cech w większości problemów, można tu wyróżnić:
przekształcanie zmiennych kategorycznych
zmienne na podstawie cech z daty
zmienne powstałe przez przesunięcie w czasie
transformacje zmiennych numerycznych
zmienne interakcji
Feature Engineering stanowi jeden z ważniejszych etapów w procesie budowy uczenia maszynowego, dlatego należy mu poświęcić dużo uwagi. Często można uzyskać znacznie lepsze wyniki mając prosty model oparty na cechach predykcyjnych dobrze oddających naturę badanego zjawiska niż budując wyrafinowany model w oparciu o zbyt wąski zbiór zmiennych.
Tworzenie przykładowych zbiorów danych#
Zaprezentujemy tutaj 2 przykładowe zbiory danych o różnym charakterze oraz przykłady zmiennych predykcyjnych, które można wygenerować na ich podstawie
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
def generateIceCreamSalesData(month_coef=10000, week_coef=1000, day_coef=100, random_coef =10000):
dates = pd.date_range(start="2018-01-01", end="2020-12-31", freq ="D")
df = pd.DataFrame(dates, columns=["SalesDate"])
df["Month"] = df.SalesDate.dt.month
df["Week"] = df.SalesDate.dt.isocalendar().week
df["WeekDay"] = df.SalesDate.dt.dayofweek+1
df["IceCreamSales"] = (-1*np.power(df.Month-6,2)+np.power(6,2))*month_coef + (-1*np.power(df.Week-27,2)+np.power(27,2))*week_coef +df.WeekDay*day_coef +random_coef * np.random.randint(low =1,high =10, size=len(df))
return df.loc[:,["SalesDate","IceCreamSales"]]
IceCream_df = generateIceCreamSalesData()
IceCream_df
SalesDate | IceCreamSales | |
---|---|---|
0 | 2018-01-01 | 183100 |
1 | 2018-01-02 | 233200 |
2 | 2018-01-03 | 173300 |
3 | 2018-01-04 | 173400 |
4 | 2018-01-05 | 223500 |
... | ... | ... |
1091 | 2020-12-27 | 174700 |
1092 | 2020-12-28 | 133100 |
1093 | 2020-12-29 | 83200 |
1094 | 2020-12-30 | 73300 |
1095 | 2020-12-31 | 133400 |
1096 rows × 2 columns
def generate_used_cars_data(len_df =1000):
conditions ={"very_bad":1,"bad":2,"medium":3,"good":4,"very_good":5}
brands =["Fiat","Renault","VW", "Seat", "Skoda","Toyota", "Audi","BMW","Mercedes", "Bugatti"]
standard_brands = ["Fiat","Renault","VW", "Seat", "Skoda","Toyota"]
premium_brands = ["Audi","BMW","Mercedes"]
luxury_brands = ["Bugatti"]
dict_data ={"condition":np.random.choice(list(conditions.keys()),size=len_df, p = [0.05, 0.15, 0.3, 0.3,0.2 ]),
"brand":np.random.choice(brands,size=len_df, p=[0.1]*10 ),
"year_manufactured":np.random.randint(1950,2020,size =len_df)
}
df = pd.DataFrame(dict_data)
df["age"] =2021- df.year_manufactured
df["mileage"] = df.age *np.random.randint(100,10000, len_df)+np.random.randint(100,10000, len_df)
df["selling_price"] = 100000*df["brand"].isin(standard_brands)+300000*df["brand"].isin(premium_brands)+600000*df["brand"].isin(luxury_brands)
df["selling_price"] /= np.log1p(df.age)+np.log1p(df.mileage)
df["condition_num"] = df.condition.map(lambda x:conditions[x])
df["selling_price"] *= np.log1p(df["condition_num"])
df.loc[(df["brand"].isin(luxury_brands))&(df.year_manufactured<=1970)&(df["condition_num"]>3),"selling_price"] *=\
np.log1p(df.loc[(df["brand"].isin(luxury_brands))&(df.year_manufactured<=1970)&(df["condition_num"]>3),"age"])
df["selling_price"] = np.round(df["selling_price"])
return df.loc[:,["selling_price","condition","mileage","brand","year_manufactured"]]
UsedCars_df =generate_used_cars_data()
UsedCars_df
selling_price | condition | mileage | brand | year_manufactured | |
---|---|---|---|---|---|
0 | 31177.0 | very_good | 480427 | Mercedes | 1958 |
1 | 11937.0 | good | 55133 | Toyota | 2009 |
2 | 9980.0 | good | 258516 | Fiat | 1983 |
3 | 58139.0 | medium | 116723 | Bugatti | 2008 |
4 | 29311.0 | good | 279471 | Mercedes | 1971 |
... | ... | ... | ... | ... | ... |
995 | 26672.0 | bad | 15506 | Mercedes | 2007 |
996 | 28641.0 | medium | 84326 | Mercedes | 1998 |
997 | 52803.0 | medium | 111880 | Bugatti | 1960 |
998 | 4780.0 | very_bad | 116769 | Toyota | 2005 |
999 | 27000.0 | medium | 97860 | Mercedes | 1972 |
1000 rows × 5 columns
Cechy tworzone na podstawie danych czasowych#
Pierwszy zbiór danych nazwany tutaj IceCream_df de facto ma charakter szeregu czasowego i patrząc na poniższy wykres mógłby być z powodzeniem przewidywany dedykowanymi metodami do predykcji szeregów czasowych, jednak dla celów pokazania tworzenia zmiennych na podstawie danych o charakterze czasowym potraktujemy to zagadnienie jako problem regresyjny, w którym naszą zmienną celu będzie IceCreamSales.
IceCream_df.set_index("SalesDate").plot(figsize=(15,9), title="IceCream Sales")
<Axes: title={'center': 'IceCream Sales'}, xlabel='SalesDate'>

Wyraźnie widać tutaj, że sprzedaż lodów ma silnie sezonowy charakter, stąd cechy wyciągnięte z daty powinny znacznie ułatwić dobrą predykcję. Funkcję generującą takie cechy zaprezentowano poniżej:
def extract_date_features(df, date_column):
df_temp = df.copy()
df_temp[date_column + 'Quarter'] = df_temp[date_column].dt.quarter
df_temp[date_column + 'Month'] = df_temp[date_column].dt.month
df_temp[date_column + 'Week'] = df_temp[date_column].dt.isocalendar().week
# poniżej zwracany rozkład to 0-6, dodajemy 1 aby przejsc na bardziej intuicyjne wartości 1-7
df_temp[date_column + 'WeekDay'] = df_temp[date_column].dt.dayofweek + 1
df_temp[date_column + 'YearDay'] = df_temp[date_column].dt.day_of_year
df_temp[date_column + 'isWeekend'] = np.where(df_temp[date_column + 'WeekDay']>5,1,0)
return df_temp
IceCream_df_extended = extract_date_features(IceCream_df,"SalesDate")
IceCream_df_extended
SalesDate | IceCreamSales | SalesDateQuarter | SalesDateMonth | SalesDateWeek | SalesDateWeekDay | SalesDateYearDay | SalesDateisWeekend | |
---|---|---|---|---|---|---|---|---|
0 | 2018-01-01 | 183100 | 1 | 1 | 1 | 1 | 1 | 0 |
1 | 2018-01-02 | 233200 | 1 | 1 | 1 | 2 | 2 | 0 |
2 | 2018-01-03 | 173300 | 1 | 1 | 1 | 3 | 3 | 0 |
3 | 2018-01-04 | 173400 | 1 | 1 | 1 | 4 | 4 | 0 |
4 | 2018-01-05 | 223500 | 1 | 1 | 1 | 5 | 5 | 0 |
... | ... | ... | ... | ... | ... | ... | ... | ... |
1091 | 2020-12-27 | 174700 | 4 | 12 | 52 | 7 | 362 | 1 |
1092 | 2020-12-28 | 133100 | 4 | 12 | 53 | 1 | 363 | 0 |
1093 | 2020-12-29 | 83200 | 4 | 12 | 53 | 2 | 364 | 0 |
1094 | 2020-12-30 | 73300 | 4 | 12 | 53 | 3 | 365 | 0 |
1095 | 2020-12-31 | 133400 | 4 | 12 | 53 | 4 | 366 | 0 |
1096 rows × 8 columns
Cechy powstałe przez przesunięcie w czasie#
Analizując wykres można zaobserwować, że sprzedaż lodów nie jest liniowo zależna od zmiennych takich jak numer kwartału, numer miesiąca czy numer tygodnia, aby uzyskać lepsze wyniki warto zbudować cechy w oparciu o przesunięte w czasie wartości zmiennej celu.
Przy korzystaniu ze zmiennych przesuniętych w czasie, w szczególności opartych o wcześniejsze wartości zmiennej celu należy zawsze wziąć pod uwagę jakie dane będziemy mieli dostępne na moment predykcji, inaczej możemy popełnić jeden z najczęstszych błędów czyli data leakage. Przy założeniu, że mamy przewidywać sprzedaż lodów np na rok do przodu wykorzystanie sprzedaży lodów z dnia poprzedniego stanowi data leakage, ponieważ ta informacja nie będzie dostępna na moment predykcji w tej samej formie. Moglibyśmy natomiast uwzględnić sprzedaż lodów sprzed roku, jako, że ta informacja będzie dostępna w tej samej formie.
Tutaj dla uproszczenia zakładamy chwilowo, że horyzont predykcji to tylko 1 dzień do przodu, co pozwoli zaprezentować większy zakres zmiennych przesuniętych w czasie.
def get_shifted_target_values(df, lag_values, date_column, target_column):
df_temp = df.copy()
df_temp =df_temp.sort_values(by=date_column)
for lag in lag_values:
df_temp[target_column +"_lagged_" + str(lag)] = df_temp[target_column].shift(lag)
return df_temp
Uwzględniając, że przewidujemy z horyzontem czasowym tylko na dzień w przód, pierwszym kandydatem na wartość przesunięcia jest 1 dzień, jako, że w danych o charakterze szeregu czasowego podobieństwo kolejnych obserwacji będzie siłą rzeczy relatywnie wysokie. Z analizy wykresu można łatwo wywnioskować, że wartośc przesunięcia 365 dni również będzie miała dużą siłę predykcyjną. Ponadto można tutaj wypróbować 7 dni co powinno być przydatne w przypadku tygodniowej sezonowości danych
IceCream_df_extended = get_shifted_target_values(IceCream_df_extended, [1,7,365], "SalesDate","IceCreamSales")
IceCream_df_extended
SalesDate | IceCreamSales | SalesDateQuarter | SalesDateMonth | SalesDateWeek | SalesDateWeekDay | SalesDateYearDay | SalesDateisWeekend | IceCreamSales_lagged_1 | IceCreamSales_lagged_7 | IceCreamSales_lagged_365 | |
---|---|---|---|---|---|---|---|---|---|---|---|
0 | 2018-01-01 | 183100 | 1 | 1 | 1 | 1 | 1 | 0 | <NA> | <NA> | <NA> |
1 | 2018-01-02 | 233200 | 1 | 1 | 1 | 2 | 2 | 0 | 183100 | <NA> | <NA> |
2 | 2018-01-03 | 173300 | 1 | 1 | 1 | 3 | 3 | 0 | 233200 | <NA> | <NA> |
3 | 2018-01-04 | 173400 | 1 | 1 | 1 | 4 | 4 | 0 | 173300 | <NA> | <NA> |
4 | 2018-01-05 | 223500 | 1 | 1 | 1 | 5 | 5 | 0 | 173400 | <NA> | <NA> |
... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... | ... |
1091 | 2020-12-27 | 174700 | 4 | 12 | 52 | 7 | 362 | 1 | 134600 | 243700 | 194600 |
1092 | 2020-12-28 | 133100 | 4 | 12 | 53 | 1 | 363 | 0 | 174700 | 184100 | 174700 |
1093 | 2020-12-29 | 83200 | 4 | 12 | 53 | 2 | 364 | 0 | 133100 | 124200 | 133100 |
1094 | 2020-12-30 | 73300 | 4 | 12 | 53 | 3 | 365 | 0 | 83200 | 154300 | 83200 |
1095 | 2020-12-31 | 133400 | 4 | 12 | 53 | 4 | 366 | 0 | 73300 | 164400 | 223300 |
1096 rows × 11 columns
Widzimy, że początek zbioru danych zawiera teraz wartości puste, ze względu na fakt, że dla wartości z roku 2018 nie istniały obserwacje cofnięte o rok. Do pokazywania liczby niepustych wartości w ramce danych przydatna jest funkcja info z biblioteki pandas.
IceCream_df_extended.info()
<class 'pandas.core.frame.DataFrame'>
RangeIndex: 1096 entries, 0 to 1095
Data columns (total 11 columns):
# Column Non-Null Count Dtype
--- ------ -------------- -----
0 SalesDate 1096 non-null datetime64[ns]
1 IceCreamSales 1096 non-null Int64
2 SalesDateQuarter 1096 non-null int32
3 SalesDateMonth 1096 non-null int32
4 SalesDateWeek 1096 non-null UInt32
5 SalesDateWeekDay 1096 non-null int32
6 SalesDateYearDay 1096 non-null int32
7 SalesDateisWeekend 1096 non-null int32
8 IceCreamSales_lagged_1 1095 non-null Int64
9 IceCreamSales_lagged_7 1089 non-null Int64
10 IceCreamSales_lagged_365 731 non-null Int64
dtypes: Int64(4), UInt32(1), datetime64[ns](1), int32(5)
memory usage: 74.0 KB
oczywiście wartości puste należy potem w jakiś sposób obsłużyć, poprzez ich usunięcie lub imputację
Tworząc zmienne oparte o cechy przesunięte w czasie warto mieć na uwadze, że dane historyczne mogą zawierać wartości odstające. Dlatego zamiast brać wprost wartość sprzed np. 365 dni można rozważyć wygładzenie wartości stosując medianę z 5 dniowego okna, którego środek stanowi wartość sprzed 365 dni.
Cechy kategoryczne i ich transformacje#
Dla zilustrowania transformacji na zmiennych kategorycznych posłużymy się drugim z przygotowanych zbiorów danych, gdzie chcemy przewidzieć cenę sprzedaży używanego samochodu.
UsedCars_df.head()
selling_price | condition | mileage | brand | year_manufactured | |
---|---|---|---|---|---|
0 | 31177.0 | very_good | 480427 | Mercedes | 1958 |
1 | 11937.0 | good | 55133 | Toyota | 2009 |
2 | 9980.0 | good | 258516 | Fiat | 1983 |
3 | 58139.0 | medium | 116723 | Bugatti | 2008 |
4 | 29311.0 | good | 279471 | Mercedes | 1971 |
Jak widzimy występują tutaj 2 cechy kategoryczne condition oraz brand, na podstawie których zaprezentujemy które transformacje danych najlepiej zastosować w którym przypadku. Aby umożliwić wykorzystanie tych cech w predykcji niezbędne jest odpowiednie ich przekształcenie w wartości numeryczne.
UsedCars_df.condition.unique()
array(['very_good', 'good', 'medium', 'bad', 'very_bad'], dtype=object)
patrząc na atrybuty zmiennej condition widzimy, że ma ona charakter porządkowy - jesteśmy w stanie łatwo ustalić naturalną kolejność jej atrybutów. Stanowi ona zatem dobrego kandydata do zastosowania kodowania porządkowego.
kodowania porządkowe (ang. Ordinal encoding) - reprezentacja każdego atrybutu kodowanej zmiennej jako kolejnej liczby naturalnej.
Poniżej zaprezentujemy kodowanie porządkowe z użyciem transformera OrdinalEncoder, najpierw jednak podzielimy nasze dane na zbiór treningowy i testowy, aby lepiej odwzorować to, że dane treningowe są oddzielone od danych produkcyjnych, na których model będzie potem stosowany.
from sklearn.preprocessing import OrdinalEncoder
from sklearn.model_selection import train_test_split
Tutaj dla uproszczenia stosujemy podział tylko na zbiór treningowy i testowy, generalnie najlepszą praktyką jest wydzielenie osobnego zbioru testowego reprezentującego zdolność modelu do generalizacji na nowych, niewidzianych wcześniej danych i dobór najlepszego zestawu parametrów i transformacji stosując walidację krzyżową (ang. cross-validation) na zbiorze treningowym.
X_train, X_test = train_test_split(UsedCars_df, test_size =0.25, random_state=42)
Następnie tworzymy obiekt klasy OrdinalEncoder, określamy tutaj porządek cechy atrybutów cechy, którą chcemy przetransformować, inaczej mogą one zostać po prostu posortowane alfabetycznie co najczęściej nie będzie odpowiadało ich znaczeniu biznesowemu.
oe= OrdinalEncoder(categories =[['very_bad', 'bad', 'medium', 'good', 'very_good']],
handle_unknown ='use_encoded_value', unknown_value=np.NaN)
Kodując atrybuty należy mieć świadomość, że na nowych danych mogą pojawić się niewidziane wcześniej wartości, które należy w jakiś sposób obsłużyć. Domyślnym zachowaniem OrdinalEncoder w takiej sytuacji jest zwrócenie wyjątku, tutaj skorzystaliśmy z przypisania mu ustalonej wartości, gdzie wybraliśmy przypisanie wartości pustej. Następnie taką wartość można zastąpić np. dominantą ze zbioru treningowego, lub przypisać jej wartość neutralną, którą tutaj byłoby 2 odpowiadające kategorii medium.
Zdecydowanie najlepszym sposobem użycia wszystkich transformerów jest skorzystanie z pipeline, co zostanie zaprezentowane potem. Tutaj zaprezentujemy najprostsze wykorzystanie polegające na skorzystaniu z metod fit i transform. OrdinalEncoder stosujemy tylko do przekształcenia jednej cechy, gdyby było inaczej moglibyśmy wykonać fit na całym zbiorze treningowym a następnie przetransformować zbiory treningowy i testowy.
oe.fit(X_train.condition.values.reshape(-1, 1))
X_train["condition_transformed"] = oe.transform(X_train.condition.values.reshape(-1, 1))
X_test["condition_transformed"] = oe.transform(X_test.condition.values.reshape(-1, 1))
Jeśli nie korzystamy z pipeline należy zwrócić szczególną uwagę żeby metody fit używać tylko na zbiorze treningowym a następnie mając już “nauczony” transformer stosować metodę transform na pozostałych zbiorach. Inaczej może dojść do przecieku informacji ze zbioru testowego.
Możemy jeszcze sprawdzić czy przypisanie atrybutów na zbiorach treningowym i testowym jest prawidłowe, a następnie pozbyć się pierwotnej kolumny, wartości pierwotne mogą być łatwo odzyskane z przetransformowanych danych stosując metodę inverse_transform.
X_train[["condition","condition_transformed"]].drop_duplicates().sort_values(by="condition_transformed")
condition | condition_transformed | |
---|---|---|
777 | very_bad | 0.0 |
323 | bad | 1.0 |
82 | medium | 2.0 |
991 | good | 3.0 |
894 | very_good | 4.0 |
X_test[["condition","condition_transformed"]].drop_duplicates().sort_values(by="condition_transformed")
condition | condition_transformed | |
---|---|---|
740 | very_bad | 0.0 |
660 | bad | 1.0 |
859 | medium | 2.0 |
521 | good | 3.0 |
411 | very_good | 4.0 |
X_train.drop(["condition"],axis=1, inplace=True)
X_test.drop(["condition"],axis=1, inplace=True)
X_train
selling_price | mileage | brand | year_manufactured | condition_transformed | |
---|---|---|---|---|---|
82 | 9734.0 | 90070 | VW | 2005 | 2.0 |
991 | 40928.0 | 33220 | Mercedes | 2018 | 3.0 |
789 | 11695.0 | 28116 | Renault | 2017 | 2.0 |
894 | 263202.0 | 260642 | Bugatti | 1965 | 4.0 |
398 | 35576.0 | 55983 | Audi | 2008 | 3.0 |
... | ... | ... | ... | ... | ... |
106 | 10291.0 | 199870 | Toyota | 1991 | 3.0 |
270 | 24521.0 | 464421 | BMW | 1972 | 2.0 |
860 | 49449.0 | 325697 | Bugatti | 1960 | 2.0 |
435 | 9085.0 | 111523 | Renault | 1984 | 2.0 |
102 | 35939.0 | 86944 | Audi | 1986 | 4.0 |
750 rows × 5 columns
Widzimy, że do zakodowania pozostała nam jeszcze cecha - brand, w odróżnieniu od poprzednio rozważanej cechy tutaj nie ma oczywistego naturalnego porządku, dlatego należy tutaj zastosować inne podejście.
kodowania 1 z n (ang. One-hot encoding) - reprezentacja każdego atrybutu kodowanej zmiennej jako osobnej zmiennej binarnej, gdzie występowanie rozważanego atrybutu dla danej obserwacji oznaczane jest jako 1, a wszystkie pozostałe atrybuty oznaczane są jako 0.
Kodowanie 1 z n stanowi jeden z najczęściej używanych i najbardziej intuicyjnych sposobów kodowania, jednak jego główną wadą jest zwiększanie wymiarowości danych, co zaraz zaprezentujemy.
Najpierw pokażemy jak posługiwać się transformerem OneHotEncoder.
from sklearn.preprocessing import OneHotEncoder
Tworzymy obiekt klasy OneHotEncoder, podobnie jak w przypadku poprzedniego transformera, tu także domyślnym sposobem obsługi nieznanych atrybutów jest zwracanie wyjątku, my wybieramy handle_unknown=”ignore” co sprawi, że nieznane atrybuty reprezentowane będą po prostu jako 0 we wszystkich zakodowanych kolumnach.
Natomiast ustawienie sparse_output=False sprawia, że zwracane dane będą typu np.array zamiast domyślnego sparse matrix.
ohe = OneHotEncoder(handle_unknown="ignore", sparse_output=False)
Należy zwrócić uwagę, że we wszystkich transformerach z biblioteki sklearn stosowane jest to samo API, w związku z tym tutaj analogicznie jak w poprzednim przypadku możemy skorzystać z metod fit i transform.
ohe.fit(X_train.brand.values.reshape(-1, 1))
brand_transformed_train = ohe.transform(X_train.brand.values.reshape(-1, 1))
brand_transformed_test = ohe.transform(X_test.brand.values.reshape(-1, 1))
print(f"rozmiar zakodowanej kolumny brand na danych treningowych to: {brand_transformed_train.shape}")
print(f"rozmiar zakodowanej kolumny brand na danych testowych to: {brand_transformed_test.shape}")
print(brand_transformed_train)
rozmiar zakodowanej kolumny brand na danych treningowych to: (750, 10)
rozmiar zakodowanej kolumny brand na danych testowych to: (250, 10)
[[0. 0. 0. ... 0. 0. 1.]
[0. 0. 0. ... 0. 0. 0.]
[0. 0. 0. ... 0. 0. 0.]
...
[0. 0. 1. ... 0. 0. 0.]
[0. 0. 0. ... 0. 0. 0.]
[1. 0. 0. ... 0. 0. 0.]]
Jak widzimy kolumna brand reprezentowana jest teraz jako array gdzie każdy atrybut ze zbioru treningowego zaprezentowany jest w osobnej kolumnie binarnej. Można to sprawdzić zliczając liczbę unikalnych atrybutów tej kolumny na zbiorze treningowym.
X_train.brand.nunique()
10
Kolejność atrybutów odpowiadających kolumnom wynikowego arraya można zobaczyć korzystając z atrybutu categories_
ohe.categories_
[array(['Audi', 'BMW', 'Bugatti', 'Fiat', 'Mercedes', 'Renault', 'Seat',
'Skoda', 'Toyota', 'VW'], dtype=object)]
Całą transformację wraz z dodaniem przetransformowanej zmiennej do zbioru treningowego można zrealizować za pomocą prostej funkcji.
def OneHotEncode(X_train, X_test, encoded_column_name, **encoder_kwargs):
ohe = OneHotEncoder(**encoder_kwargs)
ohe.fit(X_train[encoded_column_name].values.reshape(-1, 1))
transformed_train = ohe.transform(X_train[encoded_column_name].values.reshape(-1, 1))
transformed_test = ohe.transform(X_test[encoded_column_name].values.reshape(-1, 1))
column_names = [encoded_column_name +"_"+category for category in list(ohe.categories_[0]) ]
df_transformed_train = pd.DataFrame(transformed_train, columns = column_names)
df_transformed_test = pd.DataFrame(transformed_test, columns = column_names)
df_out_train = X_train.reset_index(drop=True).drop([encoded_column_name], axis=1)
df_out_test = X_test.reset_index(drop=True).drop([encoded_column_name], axis=1)
df_out_train = pd.concat([df_out_train, df_transformed_train],axis=1)
df_out_test = pd.concat([df_out_test, df_transformed_test],axis=1)
return df_out_train, df_out_test
Powyższa funkcja zwraca zbiór treningowy i testowy po dodaniu odpowiednio nazwanych kolumn powstałych po transformacji obiektem OneHotEncoder i usunięciu pierwotnej zmiennej. Argumenty do OneHotEncoder przekazywane są z pomocą **encoder_kwargs
X_train_ohe, X_test_ohe = OneHotEncode(X_train, X_test, "brand", handle_unknown="ignore",sparse_output=False)
X_train_ohe.head()
selling_price | mileage | year_manufactured | condition_transformed | brand_Audi | brand_BMW | brand_Bugatti | brand_Fiat | brand_Mercedes | brand_Renault | brand_Seat | brand_Skoda | brand_Toyota | brand_VW | |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
0 | 9734.0 | 90070 | 2005 | 2.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 |
1 | 40928.0 | 33220 | 2018 | 3.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
2 | 11695.0 | 28116 | 2017 | 2.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | 0.0 | 0.0 |
3 | 263202.0 | 260642 | 1965 | 4.0 | 0.0 | 0.0 | 1.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
4 | 35576.0 | 55983 | 2008 | 3.0 | 1.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 |
Alternatywnie zamiast OneHotEncoder można wykorzystać funkcję get_dummies z biblioteki pandas, która jest nieco prostsza w użyciu, jednak OneHotEncoder jest lepiej dostosowany do obsługi niewidzianych wartości, a ponadto znacznie łatwiej go zastosować w ramach pipeline.
Jak widzimy nawet przy tak niskiej liczbie atrybutów wymiarowość naszych danych znacznie wzrosła. W prawdziwych zastosowaniach możemy się spotkać ze zbiorami danych mającymi wiele zmiennych kategorycznych o dziesiątkach lub setkach unikalnych atrybutów, więc metodę OneHotEncoder zaleca się stosować tylko tam, gdzie atrybuty są niezbyt liczne, w pozostałych sytuacjach lepiej skorzystać z kodowania zmienną celu
kodowanie zmienną celu (ang. Target encoding) - reprezentacja każdego atrybutu kodowanej zmiennej jako estymata średniej wartości zmiennej celu na danych treningowych.
Kodowanie zmienną celu stanowi jedną z najbardziej uniwersalnych metod kodowania zmiennych kategorycznych, nie wymaga naturalnego porządku w danych jak kodowanie porządkowe i nie zwiększa wymiarowości danych jak kodowanie 1 z n.
Istnieje wiele różnych sposobów kodowania zmiennej celu, my tutaj posłużymy się metodą James-Stein Encoder dostępną w bibliotece category_encoders.
Formuła na zakodowaną wartość k-tego atrybutu kodowanej zmiennej: $\( X_{k} = (1-B) *Avg(Y_{k}) +B*Avg(Y) \)$
gdzie:
\(X_{k}\) - wartość przypisana k-temu atrybutowi kodowanej zmiennej kategorycznej
\(Avg(Y_{k})\) - średnia wartości zmiennej celu dla k-tego atrybutu zmiennej kategorycznej
\(Avg(Y)\) - globalna średnia zmiennej celu na zbiorze treningowym
\(B\) -waga globalnej średniej, wyliczona według formuły: $\( B = \frac{Var(Y_{k})}{Var(Y) + Var(Y_{k})} \)$ gdzie:
\(Var(Y_{k})\) - wariancja zmiennej celu dla k-tego atrybutu zmiennej kategorycznej
\(Var(Y)\) - wariancja zmiennej celu dla całego zbioru treningowego
Importujemy potrzebną klasę.
from category_encoders.james_stein import JamesSteinEncoder
Tworzymy obiekt klasy JamesSteinEncoder, wybierając kolumnę brand do przekształcenia. Domyślnie przekształcone zostaną wszystkie kolumny kategoryczne.
jse = JamesSteinEncoder(cols=["brand"])
Tak jak w transformerach z biblioteki sklearn także tutaj posługujemy się metodami fit i transform, jednak jako, że jest to kodowanie zmienną celu niezbędne jest jej podanie do metody fit, dlatego najpierw wydzielimy zmienną celu.
y_train = X_train.selling_price
y_test = X_test.selling_price
X_train = X_train.drop("selling_price",axis=1)
X_test = X_test.drop("selling_price",axis=1)
jse.fit(X_train,y_train)
X_train_jse = jse.transform(X_train)
X_test_jse = jse.transform(X_test)
X_train_jse.head()
mileage | brand | year_manufactured | condition_transformed | |
---|---|---|---|---|
82 | 90070 | 9787.766659 | 2005 | 2.0 |
991 | 33220 | 30302.777850 | 2018 | 3.0 |
789 | 28116 | 10059.608852 | 2017 | 2.0 |
894 | 260642 | 45904.731329 | 1965 | 4.0 |
398 | 55983 | 28211.949596 | 2008 | 3.0 |
Jak widzimy zmienna brand została teraz zastąpiona estymatami średniej wartości zmiennej celu w zależności od brandu.
Łączenie atrybutów cech kategorycznych#
Oprócz standardowych metod transformacji zmiennych kategorycznych opisanych w poprzedniej sekcji można też stosować różne przekształcenia polegające na łączeniu pierwotnych atrybutów w podgrupy. Takie łączenie może być oparte na podobieństwie atrybutów pod katęm statystycznym np. zbliżony poziom średniej wartości zmiennej celu lub, co bardziej zalecane - na wiedzy domenowej.
Tutaj zaprezentujemy prosty przykład łączenia atrybutów oparty na wiedzy domenowej - załóżmy, że znamy podział wszystkich marek samochodów ze zmiennej brand na 3 relatywnie jednolite podgrupy - marki podstawowe, marki premium i marki luksusowe. Na tej podstawie stworzymy nową zmienną korzystając z prostej funkcji:
def brand_binning(brand):
result ="standard"
standard_brands = ["Fiat","Renault","VW", "Seat", "Skoda","Toyota"]
premium_brands = ["Audi","BMW","Mercedes"]
luxury_brands = ["Bugatti"]
if brand in luxury_brands:
result = "luxury"
elif brand in premium_brands:
result = "premium"
return result
X_train["brand_binned"] = X_train["brand"].map(lambda x:brand_binning(x))
X_test["brand_binned"] = X_test["brand"].map(lambda x:brand_binning(x))
X_train.head()
mileage | brand | year_manufactured | condition_transformed | brand_binned | |
---|---|---|---|---|---|
82 | 90070 | VW | 2005 | 2.0 | standard |
991 | 33220 | Mercedes | 2018 | 3.0 | premium |
789 | 28116 | Renault | 2017 | 2.0 | standard |
894 | 260642 | Bugatti | 1965 | 4.0 | luxury |
398 | 55983 | Audi | 2008 | 3.0 | premium |
Możemy też sprawdzić jak wygląda unikalne przypisanie pomiędzy pierwotną, a zgrupowaną zmienną:
X_train[["brand","brand_binned"]].drop_duplicates().sort_values(by="brand_binned")
brand | brand_binned | |
---|---|---|
894 | Bugatti | luxury |
991 | Mercedes | premium |
398 | Audi | premium |
266 | BMW | premium |
82 | VW | standard |
789 | Renault | standard |
323 | Seat | standard |
731 | Fiat | standard |
380 | Toyota | standard |
797 | Skoda | standard |
jak widzimy przypisanie zostało przeprowadzone poprawnie, nowa zmienna niesie mniej informacji niż zmienna pierwotna, dlatego zastąpienie nią pierwotnej zmiennej może być pomocne jeśli mamy problem z przeuczeniem modelu. Oczywiście tak powstałą zmienną należy potem jeszcze przetransformować zgodnie z wytycznymi z poprzedniej sekcji.
Cechy oparte na wiedzy domenowej oraz cechy interakcji#
Zaprezentowane powyżej grupowanie marek polegało na przekształceniu zmiennej kategorycznej w oparciu o wiedzę domenową. Tutaj pokażemy przykłady zastosowania wiedzy domenowej na zmiennych numerycznych i interakcji cech numerycznych i katgorycznych.
Przykładem prostej cechy opartej na wiedzy domenowej może być wiek samochodu w momencie sprzedaży. Nie mamy tutaj informacji o dacie transakcji, dlatego można dla ułatwienia założyć, że wszystkie transakcje odbyły się w bieżącym roku.
X_train["age"] = 2021 - X_train["year_manufactured"]
X_test["age"] = 2021 - X_test["year_manufactured"]
X_train
mileage | brand | year_manufactured | condition_transformed | brand_binned | age | |
---|---|---|---|---|---|---|
82 | 90070 | VW | 2005 | 2.0 | standard | 16 |
991 | 33220 | Mercedes | 2018 | 3.0 | premium | 3 |
789 | 28116 | Renault | 2017 | 2.0 | standard | 4 |
894 | 260642 | Bugatti | 1965 | 4.0 | luxury | 56 |
398 | 55983 | Audi | 2008 | 3.0 | premium | 13 |
... | ... | ... | ... | ... | ... | ... |
106 | 199870 | Toyota | 1991 | 3.0 | standard | 30 |
270 | 464421 | BMW | 1972 | 2.0 | premium | 49 |
860 | 325697 | Bugatti | 1960 | 2.0 | luxury | 61 |
435 | 111523 | Renault | 1984 | 2.0 | standard | 37 |
102 | 86944 | Audi | 1986 | 4.0 | premium | 35 |
750 rows × 6 columns
Zmienne interakcji można wygenerować stosując np. iloczyny poszczególnych zmiennych numerycznych, tutaj wydaje się to nie być najlepszy pomysł, ponieważ intuicyjnie czujemy, że np mnożenie przebiegu * rok produkcji nie będzie zbyt dobrą cechą predykcyjną. Można natomiast wyliczyć np. średni roczny przebieg dzieląc przebieg przez dodany powyżej wiek samochodu.
X_train["avg_yearly_mileage"] = np.round(X_train["mileage"]/X_train["age"])
X_test["avg_yearly_mileage"] = np.round(X_test["mileage"]/X_test["age"])
X_train
mileage | brand | year_manufactured | condition_transformed | brand_binned | age | avg_yearly_mileage | |
---|---|---|---|---|---|---|---|
82 | 90070 | VW | 2005 | 2.0 | standard | 16 | 5629.0 |
991 | 33220 | Mercedes | 2018 | 3.0 | premium | 3 | 11073.0 |
789 | 28116 | Renault | 2017 | 2.0 | standard | 4 | 7029.0 |
894 | 260642 | Bugatti | 1965 | 4.0 | luxury | 56 | 4654.0 |
398 | 55983 | Audi | 2008 | 3.0 | premium | 13 | 4306.0 |
... | ... | ... | ... | ... | ... | ... | ... |
106 | 199870 | Toyota | 1991 | 3.0 | standard | 30 | 6662.0 |
270 | 464421 | BMW | 1972 | 2.0 | premium | 49 | 9478.0 |
860 | 325697 | Bugatti | 1960 | 2.0 | luxury | 61 | 5339.0 |
435 | 111523 | Renault | 1984 | 2.0 | standard | 37 | 3014.0 |
102 | 86944 | Audi | 1986 | 4.0 | premium | 35 | 2484.0 |
750 rows × 7 columns
Innym przykładem zmiennej opartej stricte na wiedzy domenowej łączącej ze sobą informacje ze zmiennych numerycznych i kategorycznych mogła by być informacja o klasycznych modelach. Załóżmy, że modele luksusowych marek wyprodukowane przed 1970 rokiem są modelami klasycznymi i jeśli ich stan jest co najmniej dobry to ich cena jest znacznie wyższa niż by to wynikało z wieku auta, gdzie normalnie spodziewamy się ujemnej relacji z ceną sprzedaży.
X_train.loc[(X_train.brand_binned=="luxury")&(X_train.year_manufactured<=1970)&(X_train.condition_transformed>2.0),"is_classic"]=1
X_train["is_classic"] = X_train["is_classic"].fillna(0)
X_test.loc[(X_test.brand_binned=="luxury")&(X_test.year_manufactured<=1970)&(X_test.condition_transformed>2.0),"is_classic"]=1
X_test["is_classic"] = X_test["is_classic"].fillna(0)
X_train["is_classic"].value_counts()
is_classic
0.0 739
1.0 11
Name: count, dtype: int64
Takie przypadki są stosunkowo rzadkie, ale tego typu zmienna może pomóc w dokładniejszym przewidzeniu tych obserwacji.
Cechy oparte na transformacji zmiennych numerycznych#
Dość powszechnie spotykaną praktyką jest stosowanie nieliniowych transformacji zmiennych numerycznych, co zazwyczaj sprzyja uzyskaniu lepszej jakości predykcji ze względu na fakt, że modele najlepiej radzą sobie gdy rozkłady zmiennych są zbliżone do rozkładu normalnego.
Często spotykaną jest po prostu logarytmowanie zmiennych numerycznych, tutaj natomiast posłużymy się gotowym transformerem z biblioteki sklearn, a mianowicie PowerTransformer
from sklearn.preprocessing import PowerTransformer
Zanim dokonamy transformacji sprawdźmy jak wyglądają rozkłady zmiennych numerycznych, ograniczymy się tutaj do przebiegu, wieku i średniego przebiegu.
num_columns = ["mileage", "age","avg_yearly_mileage"]
X_train[num_columns].hist(figsize=(15,9), bins=30)
array([[<Axes: title={'center': 'mileage'}>,
<Axes: title={'center': 'age'}>],
[<Axes: title={'center': 'avg_yearly_mileage'}>, <Axes: >]],
dtype=object)

Można tu zaobserwować, że rozkład przebiegu jest silnie skośny, pozostałe 2 zmienne mają rozkład zbliżony do jednostajnego.
pt=PowerTransformer(standardize=False)
Tworzymy obiekt klasy PowerTransformer, korzystamy tutaj z domyślnej transformacji Yeo-Johnson, zmieniamy natomiast ustawienie o sprowadzeniu do rozkładu o średniej równej 0 i odchyleniu standardowym równym 1, które domyślnie jest ustawione na True.
Domyślna transformacja czyli metoda Yeo-Johnsona może być stosowana niezależnie od znaku transformowanych zmiennych, natomiast alternatywna transformacja Box-Cox wymaga ściśle dodatnich zmiennych na wejściu.
pt.fit(X_train[num_columns])
X_train_num_transformed = pd.DataFrame(pt.transform(X_train[num_columns]), columns =num_columns)
X_test_num_transformed = pd.DataFrame(pt.transform(X_test[num_columns]), columns =num_columns)
Analogicznie jak przy poprzednio stosowanych transformerach korzystamy tutaj z metod fit i transform, a następnie konwertujemy wynik na ramkę danych.
Przeanalizujmy jak mocno zmieniły się rozkłady poszczególnych zmiennych:
X_train_num_transformed.hist(figsize=(15,9), bins=30)
array([[<Axes: title={'center': 'mileage'}>,
<Axes: title={'center': 'age'}>],
[<Axes: title={'center': 'avg_yearly_mileage'}>, <Axes: >]],
dtype=object)

X_test_num_transformed.hist(figsize=(15,9), bins=30)
array([[<Axes: title={'center': 'mileage'}>,
<Axes: title={'center': 'age'}>],
[<Axes: title={'center': 'avg_yearly_mileage'}>, <Axes: >]],
dtype=object)

Zmienna mileage na zbiorze treningowym z silnie skośnej nabrała cech rozkładu normalnego, pozostałe przypadki nie wyglądają jednak na rozkład normalny.
Wypróbujmy inny sposób modyfikacji rozkładu - QuantileTransformer
from sklearn.preprocessing import QuantileTransformer
tworzymy obiekt klasy QuantileTransformer, zamiast bazowego rozkładu jednostajnego wybierając rozkład normalny
qt = QuantileTransformer(n_quantiles=100, output_distribution="normal")
qt.fit(X_train[num_columns])
X_train_num_transformed = pd.DataFrame(qt.transform(X_train[num_columns]), columns =num_columns)
X_test_num_transformed = pd.DataFrame(qt.transform(X_test[num_columns]), columns =num_columns)
X_train_num_transformed.hist(figsize=(15,9), bins=30)
array([[<Axes: title={'center': 'mileage'}>,
<Axes: title={'center': 'age'}>],
[<Axes: title={'center': 'avg_yearly_mileage'}>, <Axes: >]],
dtype=object)

X_test_num_transformed.hist(figsize=(15,9), bins=30)
array([[<Axes: title={'center': 'mileage'}>,
<Axes: title={'center': 'age'}>],
[<Axes: title={'center': 'avg_yearly_mileage'}>, <Axes: >]],
dtype=object)

Jak widzimy rozkłady są teraz zupełnie inne, na zbiorze treningowym bardzo zbliżone do rozkładu normalnego, jednak na zbiorze testowym juz dość znacznie się różnią, co może wynikać po części z niewielkiego rozmiaru próby.
To jaki dokładnie zestaw transformacji ostatecznie wybrać powinno wynikać przede wszystkim z obserwacji ustalonej wcześniej metryki jakości modelu.
Łączenie zmiennych numerycznych w przedziały#
Podobnie jak w przypadku zmiennych kategorycznych, zmienne numeryczne również można przekształcać grupując razem pewne ich wartości. Proces taki nazywamy kubełkowaniem.
Kubełkowanie (ang. binning) polega na łączeniu wartości zmiennych numerycznych w przedziały, ma to na celu zmniejszenie możliwości przeuczenia modelu.
Wybór takich przedziałów może występować zarówno na podstawie cech rozkładu zmiennych (np wartości kwartyli) jak i wiedzy domenowej, tutaj zaprezentujemy obie możliwości.
Do podziału wg statystyk pozycyjnych z rozkładu wykorzystamy funkcję qcut z biblioteki pandas.
X_train["mileage_binned_4"] = pd.qcut(X_train["mileage"], q=4)
X_train["mileage_binned_10"] = pd.qcut(X_train["mileage"], q=10)
X_train[["mileage","mileage_binned_4","mileage_binned_10"]]
mileage | mileage_binned_4 | mileage_binned_10 | |
---|---|---|---|
82 | 90070 | (59171.0, 147567.5] | (75319.3, 108682.0] |
991 | 33220 | (3425.999, 59171.0] | (24242.6, 47628.0] |
789 | 28116 | (3425.999, 59171.0] | (24242.6, 47628.0] |
894 | 260642 | (147567.5, 284573.75] | (251218.4, 311300.6] |
398 | 55983 | (3425.999, 59171.0] | (47628.0, 75319.3] |
... | ... | ... | ... |
106 | 199870 | (147567.5, 284573.75] | (197371.2, 251218.4] |
270 | 464421 | (284573.75, 706399.0] | (400413.4, 706399.0] |
860 | 325697 | (284573.75, 706399.0] | (311300.6, 400413.4] |
435 | 111523 | (59171.0, 147567.5] | (108682.0, 147567.5] |
102 | 86944 | (59171.0, 147567.5] | (75319.3, 108682.0] |
750 rows × 3 columns
Stworzyliśmy tutaj 2 nowe cechy na zbiorze treningowym w oparciu o kwartyle i decyle rozkładu zmiennej mileage. Jak widzimy poszczególnym wartościom przypisane zostały wartości przedziałów do których one wpadają w danym podziale na kubełki.
Jeśli chcemy samodzielnie określić etykiety przedziałów można posłużyć się parametrem labels
X_train["mileage_binned_4"] = pd.qcut(X_train["mileage"], q=4, labels=np.arange(1,5))
X_train["mileage_binned_10"] = pd.qcut(X_train["mileage"], q=10, labels=np.arange(1,11))
X_train[["mileage","mileage_binned_4","mileage_binned_10"]]
mileage | mileage_binned_4 | mileage_binned_10 | |
---|---|---|---|
82 | 90070 | 2 | 4 |
991 | 33220 | 1 | 2 |
789 | 28116 | 1 | 2 |
894 | 260642 | 3 | 8 |
398 | 55983 | 1 | 3 |
... | ... | ... | ... |
106 | 199870 | 3 | 7 |
270 | 464421 | 4 | 10 |
860 | 325697 | 4 | 9 |
435 | 111523 | 2 | 5 |
102 | 86944 | 2 | 4 |
750 rows × 3 columns
Wszystkie przekształcenia wykorzystujące informacje o rozkładach cech należy implementować najpierw na zbiorze treningowym, a następnie w oparciu o rozkład ze zbioru treningowego - na zbiorze testowym. Inaczej wykorzystujemy informacje ze zbioru testowego i przestaje on być niezależny.
Tutaj możemy skorzystać z parametru retbins i dostać granice kubełków, a następnie w oparciu o te granice dokonać identycznego podziału na zbiorze testowym.
_, bins = pd.qcut(X_train["mileage"], q=4, retbins=True)
bins
array([ 3426. , 59171. , 147567.5 , 284573.75, 706399. ])
Alternatywnym podejściem jest użycie funkcji cut z biblioteki pandas, która pozwala podzielić wartości zmiennej na zdefiniowaną liczbę przedziałów o identycznej szerokości lub przypisać je do zdefiniowanych samodzielnie przedziałów.
Załóżmy, że jeśli chodzi o wiek samochodu znaczenie mają przedziały do 3 lat, od 3 do 7, od 7 do 12, 12-25 oraz ponad 25. Możemy łatwo dokonać takiego przypisania przydzielając poszczególnym kubełkom odpowiednie nazwy:
X_train["age_binned"] = pd.cut(X_train["age"],[0,3,7,12,25,100], labels =["new","middle_age","old","very_old","extremely_old"] )
X_train[["age","age_binned"]]
age | age_binned | |
---|---|---|
82 | 16 | very_old |
991 | 3 | new |
789 | 4 | middle_age |
894 | 56 | extremely_old |
398 | 13 | very_old |
... | ... | ... |
106 | 30 | extremely_old |
270 | 49 | extremely_old |
860 | 61 | extremely_old |
435 | 37 | extremely_old |
102 | 35 | extremely_old |
750 rows × 2 columns
Normalizacja i Standaryzacja#
Załóżmy, że finalnie mamy zbiór danych złożony stricte ze zmiennych numerycznych:
X_train = X_train.loc[:,["mileage","condition_transformed", "age","avg_yearly_mileage","is_classic"]]
X_test = X_test.loc[:,["mileage","condition_transformed", "age","avg_yearly_mileage","is_classic"]]
X_train
mileage | condition_transformed | age | avg_yearly_mileage | is_classic | |
---|---|---|---|---|---|
82 | 90070 | 2.0 | 16 | 5629.0 | 0.0 |
991 | 33220 | 3.0 | 3 | 11073.0 | 0.0 |
789 | 28116 | 2.0 | 4 | 7029.0 | 0.0 |
894 | 260642 | 4.0 | 56 | 4654.0 | 1.0 |
398 | 55983 | 3.0 | 13 | 4306.0 | 0.0 |
... | ... | ... | ... | ... | ... |
106 | 199870 | 3.0 | 30 | 6662.0 | 0.0 |
270 | 464421 | 2.0 | 49 | 9478.0 | 0.0 |
860 | 325697 | 2.0 | 61 | 5339.0 | 0.0 |
435 | 111523 | 2.0 | 37 | 3014.0 | 0.0 |
102 | 86944 | 4.0 | 35 | 2484.0 | 0.0 |
750 rows × 5 columns
Możemy łatwo zaobserwować, że zmienne znacznie różnią się pod względem średniej czy wariancji:
np.round(X_train.describe(),2)
mileage | condition_transformed | age | avg_yearly_mileage | is_classic | |
---|---|---|---|---|---|
count | 750.00 | 750.00 | 750.00 | 750.00 | 750.00 |
mean | 186124.88 | 2.43 | 36.17 | 5362.59 | 0.01 |
std | 150773.18 | 1.11 | 20.31 | 2878.18 | 0.12 |
min | 3426.00 | 0.00 | 2.00 | 190.00 | 0.00 |
25% | 59171.00 | 2.00 | 18.00 | 2963.25 | 0.00 |
50% | 147567.50 | 2.00 | 36.00 | 5336.00 | 0.00 |
75% | 284573.75 | 3.00 | 54.00 | 7693.75 | 0.00 |
max | 706399.00 | 4.00 | 71.00 | 13805.00 | 1.00 |
Niektóre metody modelowania są zależne od odległości bądź wariancji zmiennych, więc chcąc aby wpływ danej zmiennej na predykcje wynikał przede wszystkim z jej związku ze zmienną celu, a nie ze skali, powinniśmy zastosować normalizację lub standaryzację
zacznijmy od normalizacji, zrealizujemy ją za pomocą kolejnego transformera z biblioteki sklearn: MinMaxScaler
Normalizacja polega na przekształcaniu zmiennej do zakresu wartości <0,1> poprzez odjęcie minumum i podzielenie przez różnicę pomiędzy maksimum, a minimum z rozkładu.
from sklearn.preprocessing import MinMaxScaler
Tworzymy obiekt klasy MinMaxScaler korzystając z bazowych ustawień, możliwa jest zmiana docelowego zakresu wartości z bazowego <0,1> na dowolnie wybrany poprzez użycie parametru feature_range
mm = MinMaxScaler()
Metody są oczywiście analogiczne jak w poprzednich przypadkach, konwertujemy wyniki z powrotem na ramki danych aby łatwiej było je oglądać.
mm.fit(X_train)
X_train_mm_scaled = pd.DataFrame(mm.transform(X_train), columns=X_train.columns)
X_test_mm_scaled = pd.DataFrame(mm.transform(X_test), columns=X_test.columns)
np.round(X_train_mm_scaled.describe(),2)
mileage | condition_transformed | age | avg_yearly_mileage | is_classic | |
---|---|---|---|---|---|
count | 750.00 | 750.00 | 750.00 | 750.00 | 750.00 |
mean | 0.26 | 0.61 | 0.50 | 0.38 | 0.01 |
std | 0.21 | 0.28 | 0.29 | 0.21 | 0.12 |
min | 0.00 | 0.00 | 0.00 | 0.00 | 0.00 |
25% | 0.08 | 0.50 | 0.23 | 0.20 | 0.00 |
50% | 0.21 | 0.50 | 0.49 | 0.38 | 0.00 |
75% | 0.40 | 0.75 | 0.75 | 0.55 | 0.00 |
max | 1.00 | 1.00 | 1.00 | 1.00 | 1.00 |
Jak widzimy wszystkie cechy zostały teraz przeniesione do tego samego zakresu wartości <0,1>, ale ich średnia i odchylenie standardowe nie są identyczne. Oczywiście nie mamy gwarancji, że na nowych danych nie pojawią się wartości spoza wykresu widzianego na zbiorze treningowym. Jeśli chcemy być pewni, że znormalizowane zmienne zachowają swój zakres wartości należy tworząc obiekt klasy MinMaxScaler ustawić parametr clip na True.
Nie zaleca się korzystania z MinMaxScaler dla zmiennych posiadających wartości odstające. Jeśli takie wartości nie zostaną wcześniej prawidłowo obsłużone, to większość “normalnych” wartości zmiennej będzie “upchana” w małym zakresie wartości co nie będzie sprzyjać jej wartości dla predykcji.
Zaprezentujemy teraz przykład standaryzacji z wykorzystaniem transformera StandardScaler z biblioteki sklearn.
Standaryzacja polega na przekształcaniu zmiennej do rozkładu o wartości oczekiwanej 0 i odchyleniu standardowym 1 poprzez odjęcie średniej i podzielenie przez odchylenie standardowe.
from sklearn.preprocessing import StandardScaler
Tworzymy obiekt klasy StandardScaler korzystając z bazowych ustawień.
ss =StandardScaler()
Metody rownież są analogiczne jak w poprzednich przypadkach, konwertujemy wyniki z powrotem na ramki danych aby łatwiej było je oglądać.
ss.fit(X_train)
X_train_ss_scaled = pd.DataFrame(ss.transform(X_train), columns=X_train.columns)
X_test_ss_scaled = pd.DataFrame(ss.transform(X_test), columns=X_test.columns)
np.round(X_train_ss_scaled.describe(),2)
mileage | condition_transformed | age | avg_yearly_mileage | is_classic | |
---|---|---|---|---|---|
count | 750.00 | 750.00 | 750.00 | 750.00 | 750.00 |
mean | 0.00 | 0.00 | 0.00 | -0.00 | 0.00 |
std | 1.00 | 1.00 | 1.00 | 1.00 | 1.00 |
min | -1.21 | -2.19 | -1.68 | -1.80 | -0.12 |
25% | -0.84 | -0.38 | -0.90 | -0.83 | -0.12 |
50% | -0.26 | -0.38 | -0.01 | -0.01 | -0.12 |
75% | 0.65 | 0.52 | 0.88 | 0.81 | -0.12 |
max | 3.45 | 1.42 | 1.72 | 2.94 | 8.20 |
W przeciwieństwie do poprzedniego przekształcenia zmienne mają identyczną średnią i odchylenie standardowe, za to różnią sie zakresami wartości.
Jako że StandardScaler opiera się na użyciu średniej i odchylenia standardowego z transformowanej zmiennej, również nie jest on wolny od wpływu wartości odstających. Jeśli chcemy być pewni, że wartości odstające nie będą miały wpływu na skalę przekształconej zmiennej można skorzystać z klasy RobustScaler
Łączenie różnych transformacji w ramach pipeline#
Cofnijmy się teraz na chwilę do etapu generowania danych i zobaczmy jak można w łatwy i niezawodny sposób łączyć ze sobą różne transformacje z wykorzystaniem obiektów Pipeline oraz ColumnTransformer.
Pipeline jest to przepływ danych przez ułożone w kolejności moduły wykonujące ustalone transformacje, zazwyczaj ostatnim elementem jest model predykcyjny.
UsedCars_df =generate_used_cars_data()
X = UsedCars_df.drop("selling_price",axis=1)
y = UsedCars_df["selling_price"]
X["age"] = 2021 - X["year_manufactured"]
X.drop("year_manufactured", axis=1, inplace=True)
X_train, X_test, y_train, y_test = train_test_split(X,y, test_size=0.25, random_state=42)
X_train
condition | mileage | brand | age | |
---|---|---|---|---|
82 | good | 148609 | Toyota | 33 |
991 | medium | 265511 | Mercedes | 46 |
789 | bad | 267325 | BMW | 34 |
894 | bad | 128838 | Mercedes | 14 |
398 | very_good | 56099 | Bugatti | 6 |
... | ... | ... | ... | ... |
106 | very_good | 220605 | Renault | 41 |
270 | bad | 25647 | Bugatti | 3 |
860 | good | 130978 | Skoda | 69 |
435 | medium | 54449 | Mercedes | 12 |
102 | very_good | 173734 | BMW | 46 |
750 rows × 4 columns
Zdefiniujmy teraz grupy zmiennych, które będziemy poddawać poszczególnym transformacjom.
columns_for_ordinal_encoding =["condition"]
columns_for_target_encoding =["brand"]
numerical_columns =["age","mileage"]
Następnie importujemy niezbędne klasy.
from sklearn.compose import ColumnTransformer
from sklearn.pipeline import Pipeline
Definiujemy pipeline do przetwarzania poszczególnych grup kolumn, pipeline mogą zawierać wiele kroków, tutaj dla uproszczenia wykorzystamy jednoelementowe.
pipeline_oe = Pipeline(steps =[("OrdinalEncoder",
OrdinalEncoder(
categories =[['very_bad', 'bad', 'medium', 'good', 'very_good']],
handle_unknown ='use_encoded_value', unknown_value=np.NaN))])
pipeline_jse = Pipeline(steps=[("JamesSteinEncoder",JamesSteinEncoder())])
pipeline_num = Pipeline(steps=[("PowerTransformer",PowerTransformer(standardize=False))])
Następnie przypisujemy zmienne do poszczególnych transformacji, korzystając z obiektu ColumnTransformer.
column_transformer = ColumnTransformer(
transformers=[
('categorical_oe', pipeline_oe, columns_for_ordinal_encoding),
('categorical_jse', pipeline_jse, columns_for_target_encoding),
('numerical', pipeline_num, numerical_columns)
])
Sam ColumnTransformer również może być częścią pipeline, przykładowo możemy na koniec zastosować standaryzacje.
preprocessing_pipeline = Pipeline(steps = [
("column_transformer", column_transformer),
("scaler",StandardScaler())
])
Jeśli używamy pipeline bez modelu predykcyjnego na końcu to stosujemy te same metody co przy zwykłych transformerach.
preprocessing_pipeline.fit(X_train,y_train)
Pipeline(steps=[('column_transformer', ColumnTransformer(transformers=[('categorical_oe', Pipeline(steps=[('OrdinalEncoder', OrdinalEncoder(categories=[['very_bad', 'bad', 'medium', 'good', 'very_good']], handle_unknown='use_encoded_value', unknown_value=nan))]), ['condition']), ('categorical_jse', Pipeline(steps=[('JamesSteinEncoder', JamesSteinEncoder())]), ['brand']), ('numerical', Pipeline(steps=[('PowerTransformer', PowerTransformer(standardize=False))]), ['age', 'mileage'])])), ('scaler', StandardScaler())])In a Jupyter environment, please rerun this cell to show the HTML representation or trust the notebook.
On GitHub, the HTML representation is unable to render, please try loading this page with nbviewer.org.
Pipeline(steps=[('column_transformer', ColumnTransformer(transformers=[('categorical_oe', Pipeline(steps=[('OrdinalEncoder', OrdinalEncoder(categories=[['very_bad', 'bad', 'medium', 'good', 'very_good']], handle_unknown='use_encoded_value', unknown_value=nan))]), ['condition']), ('categorical_jse', Pipeline(steps=[('JamesSteinEncoder', JamesSteinEncoder())]), ['brand']), ('numerical', Pipeline(steps=[('PowerTransformer', PowerTransformer(standardize=False))]), ['age', 'mileage'])])), ('scaler', StandardScaler())])
ColumnTransformer(transformers=[('categorical_oe', Pipeline(steps=[('OrdinalEncoder', OrdinalEncoder(categories=[['very_bad', 'bad', 'medium', 'good', 'very_good']], handle_unknown='use_encoded_value', unknown_value=nan))]), ['condition']), ('categorical_jse', Pipeline(steps=[('JamesSteinEncoder', JamesSteinEncoder())]), ['brand']), ('numerical', Pipeline(steps=[('PowerTransformer', PowerTransformer(standardize=False))]), ['age', 'mileage'])])
['condition']
OrdinalEncoder(categories=[['very_bad', 'bad', 'medium', 'good', 'very_good']], handle_unknown='use_encoded_value', unknown_value=nan)
['brand']
JamesSteinEncoder()
['age', 'mileage']
PowerTransformer(standardize=False)
StandardScaler()
Po uruchomieniu metody fit widzimy wszystkie kroki całego pipeline.
X_train_transformed = preprocessing_pipeline.transform(X_train)
X_test_transformed = preprocessing_pipeline.transform(X_test)
print(f"rozmiar zbioru treningowego po transformacji: {X_train_transformed.shape}")
print(f"rozmiar zbioru testowego po transformacji: {X_test_transformed.shape}")
print(X_train_transformed)
rozmiar zbioru treningowego po transformacji: (750, 4)
rozmiar zbioru testowego po transformacji: (250, 4)
[[ 0.50587656 -0.7539805 -0.1243365 0.06738941]
[-0.43325072 0.73826442 0.49518832 0.72375972]
[-1.37237799 0.79688578 -0.07513987 0.73208546]
...
[ 0.50587656 -0.78425597 1.51220275 -0.06236112]
[-0.43325072 0.73826442 -1.25201323 -0.85198094]
[ 1.44500383 0.79688578 0.49518832 0.23410118]]
Jak widzimy zwrócony zbiór treningowy ma typ danych array, a jego wymiary odpowiadają tym przed transformacją, zgodność wymiarów zależy jednak od zastosowanych transformacji.
Jeśli pipeline jest zakończony modelem predykcyjnym jego metody są identyczne jak metody modelu, czyli korzystamy z fit i predict, tak jak w poniższym przykładzie.
from sklearn.linear_model import LinearRegression
final_pipeline = Pipeline(steps = [
("preprocessing", preprocessing_pipeline),
("model", LinearRegression())
])
Poniżej pokazujemy jak wytrenować pipeline w oparciu o zbiór treningowy, a następnie dokonać predykcji na zbiorze testowym.
final_pipeline.fit(X_train, y_train)
X_test_predicted = pd.Series(final_pipeline.predict(X_test),name="prediction")
X_test_predicted.head()
0 -3726.001540
1 -4937.851707
2 3584.721377
3 66356.806370
4 11252.177654
Name: prediction, dtype: float64
Podsumowanie#
Powyżej zaprezentowaliśmy kilka różnych przykładów przekształcania surowych danych w cechy predykcyjne przydatne przy modelowaniu. Niektóre transformacje można z powodzeniem stosować przy pracy nad innymi problemami, inne należy raczej potraktować jako inspirację. Ważne aby prace nad Feature Engineering poprzedzone były dobrym zrozumieniem danych. Niezwykle ważne jest tutaj aby już na tym etapie stosować odpowiednią strategię walidacyjną, aby zapobiec korzystaniu z informacji ze zbioru testowego, inaczej nasze wyniki nie będą miarodajne.