Kurs:Maschinelles Lernen/Feature Engineering

Vorherige Seite: K2 - Lineare Regression in d Dimension
Nächste Seite : K3 - Klassifikation mittels Gradientenabstieg

Das Feature Engineering ist eine spezielle Methode, die vor allem bei Klassifikationen verwendet wird, aber auch am Beispiel der Regressionen erklärt werden kann. Ziel ist es, auch komplexere Hypothesen durch eine lineare Regression modellieren zu können.

Als Beispiel können dazu für polynominelle Hypothesen des Grades betrachtet werden. Diese können durch den Parametervektor mit


beschrieben werden. Dies entspricht dann aber der Form eines linearen Modells mit dem Inputvektor für dessen Komponenten gilt. Für einen vorliegenden Datensatz mit Datenpunkten kann so die erweiterte Datenmatrix


aufgestellt werden und mit dem Verfahren der linearen Regressionen in Dimensionen mit die idealen Parameter gefunden werden. Durch die Abbildung

 

wird es so möglich auch nicht lineare Hypothesen aus dem Hypothesenraum der Polynome vom Grad mittels einer linearen Regression zu lösen.

Eine solche Abbilung, die allgemeiner durch


mit typischer weise wird als Feature Map bezeichnet. Sie erlauben es, auch komplexe Hypothesen auf eine lineare Regression zurückzuführen.

Meistens wird mit einer Feature Map nur die Eingabe aus dem Raum transformiert. Es ist aber prinzipiell auch möglich auf die Ausgabe eine Feature Map anzuwenden. Ein typisches Beispiel kommt aus dem Bereich der Physik. Dort liegen zwischen Eingabe und Ausgabe häufig Zusammenhänge in der Form eines Potenzgesetzes der Form


vor. Durch das Anwenden des natürlichen Logarithmus auf beiden Seiten, lässt sich dieser auch durch die lineare Gleichung


in den Größen und umformen. Damit würden hier die Feature Maps


und


vorliegen.

In der Praxis besteht die Schwierigkeit häufig in der geeigneten Wahl einer solchen Feature Map. Im Rahmen von Neuronalen Netzen können diese obsolet werden, da tiefere Netze häufig ähnliche oder bessere Ergebnisse, wie weniger tiefe Netze mit Feature Maps erzielen.