Vektornormen

Vektornormen sind mathematische Werkzeuge, die in vielen Bereichen der Mathematik und Physik Anwendung finden. Sie messen die Länge oder Grösse eines Vektors in einem Vektorraum. Es gibt verschiedene Arten von Vektornormen, die je nach Anforderungen und Kontext verwendet werden können.

Definition

Eine Norm auf einem Vektorraum über einem Körper (in der Regel oder ) ist eine Abbildung mit den folgenden Eigenschaften:

  1. Nicht-Negativität: Für alle in , haben wir . Zudem gilt: Wenn , dann ist der Nullvektor.

  2. Skalierung: Für alle Skalare in und alle Vektoren in , haben wir

  3. Dreiecksungleichung: Für alle Vektoren in , haben wir

Beispiele für Vektornormen

Die euklidische Norm

Die euklidische Norm (auch bekannt als 2-Norm oder L2-Norm) ist wahrscheinlich die bekannteste und am häufigsten verwendete Norm. Sie wird definiert als:

für einen Vektor x = .

Die Maximum-Norm

Die Maximum-Norm (auch bekannt als Unendlichkeitsnorm oder Chebyshev-Norm) wird definiert als das Maximum der absoluten Werte der Einträge des Vektors:

Die p-Norm

Die p-Norm (auch bekannt als Lp-Norm) ist eine Verallgemeinerung der euklidischen Norm. Sie wird definiert als:

für einen Vektor x = und .

Die 1-Norm

Die 1-Norm (auch bekannt als Manhattan-Norm oder Taxicab-Norm) ist ein Spezialfall der p-Norm mit . Sie wird definiert als die Summe der absoluten Werte der Einträge des Vektors:

Anwendungen von Vektornormen

Vektornormen finden Anwendung in vielen Bereichen wie Maschinelles Lernen, Optimierung, numerische Mathematik und Signalverarbeitung. Sie werden verwendet um Distanzen zwischen Punkten zu messen, Fehler zu quantifizieren, Konvergenz von Algorithmen zu bestimmen und vieles mehr.

In der Praxis wählt man die Art der Norm oft abhängig vom Kontext und den spezifischen Anforderungen des Problems. Beispielsweise kann die Wahl der Norm in Optimierungsproblemen einen grossen Einfluss auf die Lösung haben.