6 algoritmy redukce dimenzionality s Pythonem

Tweet Share Share

Naposledy aktualizováno 17. srpna 2020

Dimensionality reduction je bez dozoru učební technika.

přesto může být použit jako krok před zpracováním transformace dat pro algoritmy strojového učení o klasifikačních a regresních prediktivních modelovacích datech s algoritmy supervizovaného učení.

existuje mnoho algoritmů redukce dimenzionality, ze kterých si můžete vybrat, a žádný nejlepší algoritmus pro všechny případy. Místo toho je dobré prozkoumat řadu algoritmů redukce dimenzionality a různých konfigurací pro každý algoritmus.

v tomto tutoriálu zjistíte, jak přizpůsobit a vyhodnotit špičkové algoritmy redukce dimenzí v Pythonu.

Po dokončení tohoto kurzu budete vědět:

  • snížení počtu Rozměrů usiluje o nižší-dimenzionální reprezentace numerických vstupních dat, který zachovává charakteristické vztahy v datech.
  • existuje mnoho různých algoritmů redukce dimenzionality a žádná jediná nejlepší metoda pro všechny datové sady.
  • jak implementovat, přizpůsobit a vyhodnotit maximální redukci dimenzionality v Pythonu pomocí knihovny scikit-learn machine learning.

nastartujte svůj projekt s mou novou knihou příprava dat pro strojové učení, včetně podrobných tutoriálů a souborů zdrojového kódu Pythonu pro všechny příklady.

začněme.

Redukci Dimenzionality Algoritmy S Python

Redukci Dimenzionality Algoritmy S Python
Foto Bernard Spragg. NZ, některá práva vyhrazena.

přehled tutoriálu

tento tutoriál je rozdělen do tří částí; jsou:

  1. Snížení počtu Rozměrů
  2. Snížení počtu Rozměrů Algoritmy
  3. Příklady Redukci Dimenzionality
    1. Scikit-Learn Instalace Knihovny
    2. Klasifikace datové sady
    3. Analýza Hlavních Komponent
    4. Singulární Rozklad
    5. Lineární Diskriminační Analýzy
    6. Isomap Vložení
    7. Lokálně Lineární Vkládání
    8. Upravené Lokálně Lineární Vkládání

Redukci Dimenzionality

redukci Dimenzionality se týká techniky pro snížení počtu vstupních proměnných v trénovacích dat.

Při jednání s vysoce dimenzionální data, je často užitečné pro snížení dimenzionality promítnutím dat na nižší dimenzionální podprostor, který zachycuje „podstatu“ data. Tomu se říká redukce dimenzionality.

— – Strana 11, Machine Learning: a Probabilistic Perspective, 2012.

vysoká dimenzionalita může znamenat stovky, tisíce nebo dokonce miliony vstupních proměnných.

méně vstupních rozměrů často znamená odpovídající méně parametrů nebo jednodušší strukturu v modelu strojového učení, označované jako stupně volnosti. Model s příliš mnoha stupni volnosti pravděpodobně překoná datovou sadu školení a nemusí na nových datech dobře fungovat.

je žádoucí mít jednoduché modely, které dobře zobecňují, a zase vstupní data s několika vstupními proměnnými. To platí zejména pro lineární modely, kde počet vstupů a stupně volnosti modelu často úzce souvisejí.

redukce dimenzionality je technika přípravy dat prováděná na datech před modelováním. Může být provedeno po čištění dat a škálování dat a před tréninkem prediktivního modelu.

… redukci dimenzionality výnosy více kompaktní, více snadno pochopitelné zastoupení cílového konceptu, se zaměřuje pozornost uživatele na nejvíce relevantní proměnné.

– Strana 289, dolování dat: praktické nástroje a techniky strojového učení, 4th edition, 2016.

jako takové musí být jakékoli snížení dimenzionality provedené na tréninkových datech provedeno také na nových datech, jako je testovací dataset, ověřovací dataset a data při predikci s konečným modelem.

chcete začít s přípravou dat?

Vezměte si zdarma 7denní e-mailový rychlokurz (se vzorovým kódem).

kliknutím se zaregistrujete a také získáte zdarma PDF Ebook verzi kurzu.

Stáhněte si ZDARMA Mini-Kurz,

Redukci Dimenzionality Algoritmy

Existuje mnoho algoritmů, které mohou být použity pro redukci dimenzionality.

dvě hlavní třídy metod jsou metody čerpané z lineární algebry a metody čerpané z rozmanitého učení.

metody lineární algebry

metody maticové faktorizace čerpané z oblasti lineární algebry mohou být použity pro dimenzionalitu.

Další informace o maticové faktorizaci naleznete v tutoriálu:

  • Jemný Úvod do Matice Faktorizace pro Strojové Učení

Některé z více populární metody zahrnují:

  • Analýzy Hlavních Komponent
  • Singulární Rozklad
  • Non-Negative Matrix Faktorizace

Potrubí Metody Učení

Potrubí metody učení, usilovat o nižší-dimenzionální projekci vysokou rozměrovou vstup, který zachycuje charakteristické vlastnosti vstupních údajů.

některé z více populárních metod patří:

  • Isomap Vložení
  • Lokálně Lineární Vkládání
  • Multidimenzionální Škálování
  • Spektrální Vložení
  • t-distribuované Stochastické Soused Vložení

Každý algoritmus nabízí jiný přístup k problematice objevování přírodních souvislostí v datech na nižší rozměry.

neexistuje žádný nejlepší algoritmus redukce dimenzionality a žádný snadný způsob, jak najít nejlepší algoritmus pro vaše data bez použití kontrolovaných experimentů.

v tomto tutoriálu se podíváme, jak používat každou podmnožinu těchto populárních algoritmů redukce dimenzí z knihovny scikit-learn.

příklady vám poskytnou základ pro kopírování a vkládání příkladů a testování metod na vašich vlastních datech.

nebudeme se ponořit do teorie, která stojí za tím, jak algoritmy fungují, ani je přímo porovnávat. Pro dobrý výchozí bod na toto téma, viz:

  • Rozkládající se signály na komponenty, scikit-learn API.
  • rozmanité učení, scikit-learn API.

pojďme se ponořit.

příklady redukce dimenzionality

v této části se podíváme, jak používat populární algoritmy redukce dimenzionality ve scikit-learn.

obsahuje příklad použití redukce dimenzionality technika jako data transformovat v modelování potrubí a vyhodnocení modelu fit na data.

příklady jsou určeny pro kopírování a vkládání do vlastního projektu a použití metod na vlastní data. V knihovně scikit-learn jsou k dispozici některé algoritmy, které nejsou demonstrovány, protože je nelze použít jako datovou transformaci přímo vzhledem k povaze algoritmu.

jako takový použijeme v každém příkladu syntetickou klasifikační datovou sadu.

Scikit-Naučte se instalaci knihovny

Nejprve nainstalujte knihovnu.

tento krok nevynechávejte, protože budete muset zajistit, že máte nainstalovanou nejnovější verzi.

knihovnu scikit-learn můžete nainstalovat pomocí instalačního programu Pip Python následujícím způsobem:

1
sudo pip install scikit-learn

For additional installation instructions specific to your platform, see:

  • Installing scikit-learn

Next, let’s confirm that the library is installed and you are using a modern version.

Run the following script to print the library version number.

1
2
3

# check scikit-learn version
import sklearn
print(sklearn.__version__)

Running the example, you should see the following version number or higher.

1
0.23.0

Klasifikace datového souboru

Budeme používat make_classification() funkce pro vytvoření testu binární klasifikace datové sady.

datová sada bude mít 1 000 příkladů s 20 vstupními funkcemi, z nichž 10 je informativních a 10 redundantních. To poskytuje příležitost pro každou techniku k identifikaci a odstranění redundantních vstupních funkcí.

pevné náhodné semeno pro generátor pseudonáhodných čísel zajišťuje, že při každém spuštění kódu vygenerujeme stejnou syntetickou datovou sadu.

An example of creating and summarizing the synthetic classification dataset is listed below.

1
2
3
4
5
6

# synthetic classification dataset
from sklearn.import datových souborů make_classification
# define dataset
X, y = make_classification(n_samples=1000, n_features=20, n_informative=10, n_redundant=10, random_state=7)
# shrnout dataset
print(X tvar, y.tvar)

spuštění příklad vytvoří datový soubor a hlásí počet řádků a sloupců, odpovídající našemu očekávání.

1
(1000, 20) (1000,)

It is a binary classification task and we will evaluate a LogisticRegression model after each dimensionality reduction transform.

model bude hodnocen pomocí zlatého standardu opakované stratifikované 10násobné křížové validace. Bude uvedena přesnost klasifikace střední a směrodatné odchylky ve všech záhybech a opakováních.

níže uvedený příklad hodnotí model na surovém datovém souboru jako srovnávací bod.

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16

# hodnotit logistické regrese model na raw data
od numpy import
od numpy import std
z sklearn.datasety import make_classification
z sklearn.model_selection import cross_val_score
z sklearn.model_selection import RepeatedStratifiedKFold
z sklearn.linear_model import LogisticRegression
# define dataset
X, y = make_classification(n_samples=1000, n_features=20, n_informative=10, n_redundant=10, random_state=7)
# define the model
model = LogisticRegression()
# evaluate model
cv = RepeatedStratifiedKFold(n_splits=10, n_repeats=3, random_state=1)
n_scores = cross_val_score(model, X, y, scoring=’accuracy‘, cv=cv, n_jobs=-1)
# report performance
print(‚Accuracy: %.3f (%.3f)‘ % (průměr(n_scores), std(n_scores)))

spuštění příkladu hodnotí logistické regrese na syrové dataset všech 20 sloupců, dosažení klasifikační přesnost o 82,4 procenta.

úspěšná transformace redukce dimenzí na těchto datech by měla vést k modelu, který má lepší přesnost než tato základní linie, i když to nemusí být možné u všech technik.

Poznámka: nesnažíme se „vyřešit“ tuto datovou sadu, stačí poskytnout pracovní příklady, které můžete použít jako výchozí bod.

1
Accuracy: 0.824 (0.034)

Next, we can start looking at examples of dimensionality reduction algorithms applied to this dataset.

I have made some minimal attempts to tune each method to the dataset. Každá metoda redukce dimenzionality bude nakonfigurována tak, aby snížila 20 vstupních sloupců na 10, pokud je to možné.

použijeme potrubí pro zkombinování datové transformace a modelu do atomové jednotky, kterou lze vyhodnotit pomocí postupu křížové validace; například:

1
2
3
4

# define the pipeline
steps =
model = Pipeline(steps=steps)

Let’s get started.

Can you get a better result for one of the algorithms?
Dejte mi vědět v komentářích níže.

Principal Component Analysis

Principal Component Analysis, nebo PCA, může být nejpopulárnější technikou pro redukci dimenzionality s hustými daty (několik nulových hodnot).

Pro více informací o tom, jak PCA pracuje, viz návod:

  • Jak Vypočítat Analýza Hlavních Komponent (PCA) od Nuly v Pythonu

scikit-learn knihovna poskytuje PCA třídy implementace Analýza Hlavních Komponent, které mohou být použity jako redukci dimenzionality dat transformace. Argument „n_components“ lze nastavit pro konfiguraci počtu požadovaných rozměrů ve výstupu transformace.

úplný příklad hodnocení modelu s redukcí dimenzionality PCA je uveden níže.

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19

# hodnotit pco pomocí logistické regrese algoritmus pro klasifikace
z numpy import mean
z numpy import std
z sklearn.datasety import make_classification
z sklearn.model_selection import cross_val_score
z sklearn.model_selection import RepeatedStratifiedKFold
z sklearn.pipeline import Pipeline
z sklearn.dekompozice import PCA
z sklearn.linear_model import LogisticRegression
# define dataset
X, y = make_classification(n_samples=1000, n_features=20, n_informative=10, n_redundant=10, random_state=7)
# define the pipeline
steps =
model = Pipeline(steps=steps)
# evaluate model
cv = RepeatedStratifiedKFold(n_splits=10, n_repeats=3, random_state=1)
n_scores = cross_val_score(model, X, y, scoring=’accuracy‘, cv=cv, n_jobs=-1)
# report performance
print(‚Accuracy: %.3f (%.3f)‘ % (průměr(n_scores), std(n_scores)))

spuštění příkladu je vyhodnocen modelování potrubí s redukci dimenzionality a logistické regrese prediktivní model.

Poznámka: vaše výsledky se mohou lišit vzhledem k stochastické povaze algoritmu nebo postupu hodnocení nebo rozdílům v numerické přesnosti. Zvažte několikrát spuštění příkladu a porovnejte průměrný výsledek.

v tomto případě nevidíme žádný vzestup výkonu modelu při použití transformace PCA.

1
Accuracy: 0.824 (0.034)

Singular Value Decomposition

Singular Value Decomposition, or SVD, is one of the most popular techniques for dimensionality reduction for sparse data (data with many zero values).

Pro více informací o tom, jak SVD pracuje, viz návod:

  • Jak Vypočítat SVD od Nuly s Python

scikit-learn knihovna poskytuje TruncatedSVD třídy provádění Singulární Rozklad, který může být použit jako redukci dimenzionality dat transformace. Argument „n_components“ lze nastavit pro konfiguraci počtu požadovaných rozměrů ve výstupu transformace.

úplný příklad hodnocení modelu s redukcí dimenzionality SVD je uveden níže.

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19

# hodnotit svd s logistické regrese algoritmus pro klasifikace
z numpy import mean
z numpy import std
z sklearn.datasety import make_classification
z sklearn.model_selection import cross_val_score
z sklearn.model_selection import RepeatedStratifiedKFold
z sklearn.pipeline import Pipeline
z sklearn.dekompozice import TruncatedSVD
z sklearn.linear_model import LogisticRegression
# define dataset
X, y = make_classification(n_samples=1000, n_features=20, n_informative=10, n_redundant=10, random_state=7)
# define the pipeline
steps =
model = Pipeline(steps=steps)
# evaluate model
cv = RepeatedStratifiedKFold(n_splits=10, n_repeats=3, random_state=1)
n_scores = cross_val_score(model, X, y, scoring=’accuracy‘, cv=cv, n_jobs=-1)
# report performance
print(‚Accuracy: %.3f (%.3f)‘ % (průměr(n_scores), std(n_scores)))

spuštění příkladu je vyhodnocen modelování potrubí s redukci dimenzionality a logistické regrese prediktivní model.

Poznámka: vaše výsledky se mohou lišit vzhledem k stochastické povaze algoritmu nebo postupu hodnocení nebo rozdílům v numerické přesnosti. Zvažte několikrát spuštění příkladu a porovnejte průměrný výsledek.

v tomto případě nevidíme žádný vzestup výkonu modelu při použití SVD transformace.

1
Accuracy: 0.824 (0.034)

Linear Discriminant Analysis

Linear Discriminant Analysis, or LDA, is a multi-class classification algorithm that can be used for dimensionality reduction.

počet rozměrů pro projekci je omezen na 1 A C-1, Kde C je počet tříd. V tomto případě je náš datový soubor binární klasifikační problém (dvě třídy), který omezuje počet dimenzí na 1.

Pro více informací o LDA pro redukci dimenzionality, viz návod:

  • Lineární Diskriminační Analýzy pro Redukci Dimenzionality v Pythonu

scikit-learn knihovna poskytuje LinearDiscriminantAnalysis třídy provádění Lineární Diskriminační Analýzy, které lze použít jako redukci dimenzionality dat transformace. Argument „n_components“ lze nastavit pro konfiguraci počtu požadovaných rozměrů ve výstupu transformace.

úplný příklad hodnocení modelu s redukcí rozměru LDA je uveden níže.

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19

# hodnotit lda s logistické regrese algoritmus pro klasifikace
z numpy import mean
z numpy import std
z sklearn.datasety import make_classification
z sklearn.model_selection import cross_val_score
z sklearn.model_selection import RepeatedStratifiedKFold
z sklearn.pipeline import Pipeline
z sklearn.discriminant_analysis import LinearDiscriminantAnalysis
od sklearn.linear_model import LogisticRegression
# define dataset
X, y = make_classification(n_samples=1000, n_features=20, n_informative=10, n_redundant=10, random_state=7)
# define the pipeline
steps =
model = Pipeline(steps=steps)
# evaluate model
cv = RepeatedStratifiedKFold(n_splits=10, n_repeats=3, random_state=1)
n_scores = cross_val_score(model, X, y, scoring=’accuracy‘, cv=cv, n_jobs=-1)
# report performance
print(‚Accuracy: %.3f (%.3f)‘ % (průměr(n_scores), std(n_scores)))

spuštění příkladu je vyhodnocen modelování potrubí s redukci dimenzionality a logistické regrese prediktivní model.

Poznámka: vaše výsledky se mohou lišit vzhledem k stochastické povaze algoritmu nebo postupu hodnocení nebo rozdílům v numerické přesnosti. Zvažte několikrát spuštění příkladu a porovnejte průměrný výsledek.

v tomto případě můžeme vidět mírný nárůst výkonu ve srovnání se základním fitem na surových datech.

1
Accuracy: 0.825 (0.034)

Isomap Embedding

Isomap Embedding, or Isomap, creates an embedding of the dataset and attempts to preserve the relationships in the dataset.

knihovna scikit-learn poskytuje implementaci vkládání Isomap třídy Isomap, kterou lze použít jako transformaci dat redukce dimenzionality. Argument „n_components“ lze nastavit pro konfiguraci počtu požadovaných rozměrů ve výstupu transformace.

úplný příklad hodnocení modelu s redukcí dimenzionality SVD je uveden níže.

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19

# hodnotit isomap s logistické regrese algoritmus pro klasifikace
z numpy import mean
z numpy import std
z sklearn.datasety import make_classification
z sklearn.model_selection import cross_val_score
z sklearn.model_selection import RepeatedStratifiedKFold
z sklearn.pipeline import Pipeline
z sklearn.manifold import Isomap
z sklearn.linear_model import LogisticRegression
# define dataset
X, y = make_classification(n_samples=1000, n_features=20, n_informative=10, n_redundant=10, random_state=7)
# define the pipeline
steps =
model = Pipeline(steps=steps)
# evaluate model
cv = RepeatedStratifiedKFold(n_splits=10, n_repeats=3, random_state=1)
n_scores = cross_val_score(model, X, y, scoring=’accuracy‘, cv=cv, n_jobs=-1)
# report performance
print(‚Accuracy: %.3f (%.3f)‘ % (průměr(n_scores), std(n_scores)))

spuštění příkladu je vyhodnocen modelování potrubí s redukci dimenzionality a logistické regrese prediktivní model.

Poznámka: vaše výsledky se mohou lišit vzhledem k stochastické povaze algoritmu nebo postupu hodnocení nebo rozdílům v numerické přesnosti. Zvažte několikrát spuštění příkladu a porovnejte průměrný výsledek.

V tomto případě, můžeme vidět, výtah výkonu s Isomap data transformovat se ve srovnání s výchozím fit na surová data.

1
Accuracy: 0.888 (0.029)

Locally Linear Embedding

Locally Linear Embedding, or LLE, creates an embedding of the dataset and attempts to preserve the relationships between neighborhoods in the dataset.

knihovna scikit-learn poskytuje implementaci Lokálně lineárního vkládání třídy LocallyLinearEmbedding, kterou lze použít jako datovou transformaci redukce dimenzionality. Argument „n_components“ lze nastavit pro konfiguraci počtu požadovaných dimenzí ve výstupu transformace

kompletní příklad vyhodnocení modelu s redukcí dimenzionality LLE je uveden níže.

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19

# hodnotit lle a logistické regrese pro taxonomie
z numpy import mean
z numpy import std
z sklearn.datasety import make_classification
z sklearn.model_selection import cross_val_score
z sklearn.model_selection import RepeatedStratifiedKFold
z sklearn.pipeline import Pipeline
z sklearn.rozdělovač import LocallyLinearEmbedding
z sklearn.linear_model import LogisticRegression
# define dataset
X, y = make_classification(n_samples=1000, n_features=20, n_informative=10, n_redundant=10, random_state=7)
# define the pipeline
steps =
model = Pipeline(steps=steps)
# evaluate model
cv = RepeatedStratifiedKFold(n_splits=10, n_repeats=3, random_state=1)
n_scores = cross_val_score(model, X, y, scoring=’accuracy‘, cv=cv, n_jobs=-1)
# report performance
print(‚Accuracy: %.3f (%.3f)‘ % (průměr(n_scores), std(n_scores)))

spuštění příkladu je vyhodnocen modelování potrubí s redukci dimenzionality a logistické regrese prediktivní model.

Poznámka: vaše výsledky se mohou lišit vzhledem k stochastické povaze algoritmu nebo postupu hodnocení nebo rozdílům v numerické přesnosti. Zvažte několikrát spuštění příkladu a porovnejte průměrný výsledek.

V tomto případě, můžeme vidět, výtah výkonu s LLE data transformovat se ve srovnání s výchozím fit na surová data.

1
Accuracy: 0.886 (0.028)

Modified Locally Linear Embedding

Modified Locally Linear Embedding, or Modified LLE, is an extension of Locally Linear Embedding that creates multiple weighting vectors for each neighborhood.

knihovna scikit-learn poskytuje implementaci třídy LocallyLinearEmbedding modifikovaného Lokálně lineárního vkládání, které lze použít jako datovou transformaci redukce dimenzionality. „Metoda“ argument musí být nastavena na „upravené“ a „n_components“ argument lze nastavit, konfigurovat číslo požadované rozměry v výstup transformace, která musí být menší než „n_neighbors“ argument.

úplný příklad hodnocení modelu s modifikovanou redukcí rozměru LLE je uveden níže.

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19

# hodnotit modifikované lle a logistické regrese pro klasifikace
z numpy import mean
z numpy import std
z sklearn.datasety import make_classification
z sklearn.model_selection import cross_val_score
z sklearn.model_selection import RepeatedStratifiedKFold
z sklearn.pipeline import Pipeline
z sklearn.rozdělovač import LocallyLinearEmbedding
z sklearn.linear_model import LogisticRegression
# define dataset
X, y = make_classification(n_samples=1000, n_features=20, n_informative=10, n_redundant=10, random_state=7)
# define the pipeline
steps =
model = Pipeline(steps=steps)
# evaluate model
cv = RepeatedStratifiedKFold(n_splits=10, n_repeats=3, random_state=1)
n_scores = cross_val_score(model, X, y, scoring=’accuracy‘, cv=cv, n_jobs=-1)
# report performance
print(‚Accuracy: %.3f (%.3f)‘ % (průměr(n_scores), std(n_scores)))

spuštění příkladu je vyhodnocen modelování potrubí s redukci dimenzionality a logistické regrese prediktivní model.

Poznámka: vaše výsledky se mohou lišit vzhledem k stochastické povaze algoritmu nebo postupu hodnocení nebo rozdílům v numerické přesnosti. Zvažte několikrát spuštění příkladu a porovnejte průměrný výsledek.

V tomto případě, můžeme vidět, výtah v provedení s upraveným LLE data transformovat se ve srovnání s výchozím fit na surová data.

1
Accuracy: 0.846 (0.036)

Further Reading

This section provides more resources on the topic if you are looking to go deeper.

Návody

  • Úvod k Redukci Dimenzionality pro Strojové Učení
  • Analýza Hlavních Komponent pro Redukci Dimenzionality v Pythonu
  • Singulární Rozklad pro Redukci Dimenzionality v Pythonu
  • Lineární Diskriminační Analýzy pro Redukci Dimenzionality v Pythonu

Api

  • Rozkládající se signály na komponenty, scikit-learn API.
  • rozmanité učení, scikit-learn API.

shrnutí

v tomto tutoriálu jste objevili, jak se přizpůsobit a vyhodnotit algoritmy redukce nejvyšší dimenze v Pythonu.

konkrétně jste se dozvěděli:

  • redukce dimenzionality usiluje o nižší dimenzionální reprezentaci číselných vstupních dat, která zachovává významné vztahy v datech.
  • existuje mnoho různých algoritmů redukce dimenzionality a žádná jediná nejlepší metoda pro všechny datové sady.
  • jak implementovat, přizpůsobit a vyhodnotit maximální redukci dimenzionality v Pythonu pomocí knihovny scikit-learn machine learning.

máte nějaké dotazy?
zeptejte se v komentářích níže a já se budu snažit odpovědět.

Získejte přehled o moderní přípravě dat!

příprava dat pro strojové učení

připravte si data strojového učení během několika minut

…s jen pár řádků v pythonu kód,

Zjistit, jak můj nový Ebook:
Příprava Dat pro Strojové Učení,

To poskytuje self-studium cvičení s plnou pracovní kód:
Funkce Výběr, RFE, Dat, Čištění Dat, Transformace, změna velikosti, Redukce Dimenzionality, a mnohem více…

Přinést Moderní Příprava Dat Techniky
Vaše Strojového Učení Projekty

Podívejte se, Co je Uvnitř

Tweet share Podělte

Napsat komentář

Vaše e-mailová adresa nebude zveřejněna.