a gépi és mély tanulás gyakorlatában a Modellparaméterek azon képzési adatok tulajdonságai, amelyek önállóan tanulnak az osztályozó vagy más ML modell által végzett képzés során. Például súlyok és torzítások, vagy osztott pontok a döntési fában.
a modell Hiperparaméterek ehelyett a teljes képzési folyamatot szabályozó tulajdonságok. Ezek közé tartoznak a hálózati struktúrát meghatározó változók (például a rejtett egységek száma), valamint a hálózat betanításának módját meghatározó változók (például a tanulási Arány). A modell hiperparamétereit edzés előtt állítják be (a súlyok és az elfogultság optimalizálása előtt).
például, itt van néhány modell beépített konfigurációs változók:
tanulási Arány
korszakok száma
rejtett rétegek
rejtett egységek
aktiválási funkciók
a Hiperparaméterek fontosak, mivel közvetlenül szabályozzák a képzési algo viselkedését, fontos hatással vannak a képzés alatt álló modell teljesítményére.
a megfelelő hiperparaméterek kiválasztása kulcsszerepet játszik a neurális hálózati architektúrák sikerében, tekintettel a megtanult modellre gyakorolt hatásra. Például, ha a tanulási arány túl alacsony, a modell hiányozni fog az adatok fontos mintáiról; fordítva, ha magas, ütközések lehetnek.
A jó hiperparaméterek kiválasztása két fő előnnyel jár:
hatékony keresés a lehetséges hiperparaméterek terében; és
a hiperparaméterek hangolásához szükséges kísérletek nagy csoportjának könnyebb kezelése.
a Hiperparaméterek nagyjából 2 kategóriába sorolhatók:
ezek inkább az optimalizálási és képzési folyamathoz kapcsolódnak.
1.1. Tanulási arány:
ha a modell tanulási aránya túl kisebb, mint az optimális értékek, akkor sokkal hosszabb időt (több száz vagy ezer) vesz igénybe az ideális állapot elérése. Másrészt, ha a tanulási arány sokkal nagyobb, mint az optimális érték, akkor túllépné az ideális állapotot, és az algoritmus esetleg nem konvergál. Ésszerű kezdő tanulási Arány = 0,001.