Die Fehlerfunktion liefert gegenüber anderen Metriken einen festen Wert, der die Abweichung zwischen Implementierung und wahrem Wert wiedergibt. Anschließend kann überprüft werden, ob die Größe der Abweichung in gewissen Toleranzen liegt.
R2 Score
-
R²-Score (z.B. 0.71) ist keine Prozentangabe, sondern nur ein qualitativer Wert zur Modellbewertung
-
= tatsächlicher Wert
-
= vorhergesagter Wert
-
= Mittelwert der tatsächlichen Werte
Der R² Score liegt zwischen und 1, wobei 1 eine perfekte Vorhersage bedeutet.
from sklearn.metrics import r2_score
r2_score(y_true, y_pred, sample_weight=None, multioutput='uniform_average', force_finite=True)Mean absolute Percent Error (MAPE)
- MAPE zeigt den durchschnittlichen Vorhersagefehler eines Modells in Prozent an
from sklearn.metrics import mean_absolute_percentage_error
mean_absolute_percentage_error(y_true, y_pred, *, sample_weight=None, multioutput='uniform_average')Mean Square Error (MSE)
- Misst die durchschnittliche quadrierte Abweichung der Punkte von der Regressionsgeraden (Fehler werden quadriert und gemittelt).
- Das Quadrieren entfernt Vorzeichen und gewichtet größere Fehler stärker.
- Niedrigerer MSE = bessere Prognose, allerdings sehr empfindlich gegenüber Ausreißern.
from sklearn.metrics import mean_squared_error
mean_squared_error(y_true, y_pred, *, sample_weight=None, multioutput='uniform_average', squared=True)Mean Absolute Error (MAE)
- Mittlerer absoluter Fehler (MAE): misst die durchschnittliche Größe der Vorhersagefehler ohne Berücksichtigung der Richtung.
- Berechnung: Durchschnitt der absoluten Differenzen zwischen vorhergesagten und tatsächlichen Werten.
- Zweck: Zur Bewertung der Genauigkeit von Regressionsmodellen; einfach interpretierbar.
- = Anzahl der Datenpunkte
- = tatsächlicher Wert
- = vorhergesagter Wert
from sklearn.metrics import mean_absolute_error
mean_absolute_error(y_true, y_pred, *, sample_weight=None, multioutput='uniform_average')