Ich habe eine Frage zu Kernel-Machines bzw. dem sog. Kernel-Machinetrick.
Das Setting sieht aus wie folgt. Sei X eine Punktwolke aus l Punkten im n-dimensionalen reellen Raum R^n mit n > 1.
Uns interessiert ob X linear trennbar ist. Das heißt wir suchen eine Hyperebene in R^n, die alle Punkte in X in zwei Teilmengen trennt und war so, dass
diese Teilmengen je einer Klasse entsprechen, wobei eine Klasse durch bestimmte Merkmale definiert ist.
Wenn X nicht linear trennbar ist, dann kann man z.B. den Kernel-Trick anwenden. Dazu wird eine Abbildung f: R^n --> R^m mit m > n definiert, sodass
dass Bild f(X) linear trennbar ist.
Meine Frage ist: Wenn l bekannt ist, lässt sich dann immer in Abhängigkeit von n eine Kernel-Machine mit einem expliziten m angeben, sodass f(X) linear trennbar ist?
Ich würde pauschal sagen "ja" und zwar für m = l^n + 1. Das mag nicht die ökonomischste Kernel-Machine sein, aber es musste doch hinhauen?! Oder irre ich mich?
In diesen Falle wäre quasi für jeden Punkt ein eigener l dimensionaler Untervektorraum reserviert.
Ist das bekannt oder weiß man sogar mehr, also sowas wie m ~ l^log(n) ?