w praktyce machine I deep learning parametry modelu są właściwościami danych treningowych, które będą uczyć się samodzielnie podczas treningu przez klasyfikator lub inny model ML. Na przykład, wagi i uprzedzenia, lub podzielić punkty w drzewie decyzji.
Hiperparametry modelu są zamiast tego właściwościami, które rządzą całym procesem treningowym. Obejmują one zmienne, które określają strukturę sieci (na przykład liczbę ukrytych jednostek) oraz zmienne, które określają sposób szkolenia sieci (na przykład szybkość uczenia się). Hiperparametry modelowe ustawiane są przed treningiem (przed optymalizacją ciężarów i biasu).
na przykład, oto niektóre wbudowane zmienne konfiguracyjne modelu :
szybkość uczenia się
liczba epok
ukryte warstwy
Ukryte jednostki
aktywacje funkcje
Hiperparametry są ważne, ponieważ bezpośrednio kontrolują zachowanie algo treningowego, mając istotny wpływ na wydajność modelu w trakcie treningu.
wybór odpowiednich hiperparametrów odgrywa kluczową rolę w sukcesie architektur sieci neuronowych, biorąc pod uwagę wpływ na poznany model. Na przykład, jeśli wskaźnik uczenia się jest zbyt niski, model ominie ważne wzorce w danych; odwrotnie, jeśli jest wysoki, może mieć kolizje.
wybór dobrych hiperparametrów zapewnia dwie główne korzyści:
efektywne wyszukiwanie w przestrzeni możliwych hiperparametrów; i
łatwiejsze zarządzanie dużym zestawem eksperymentów do strojenia hiperparametrów.
Hiperparametry można z grubsza podzielić na 2 kategorie:
1. Hiperparametry optymalizatora, 2. Hiperparametry specyficzne dla Modelu
są one bardziej związane z procesem optymalizacji i szkolenia.
1.1. Wskaźnik uczenia się:
Jeśli wskaźnik uczenia się modelu jest zbyt mniejszy niż wartości optymalne, osiągnięcie idealnego stanu zajmie znacznie więcej czasu (setki lub tysiące) epok. Z drugiej strony, jeśli szybkość uczenia się jest znacznie większa niż wartość optymalna, to przekroczyłaby stan idealny i algorytm może się nie zbiegać. Rozsądny początkowy wskaźnik uczenia = 0,001.