Confusion Matrix
Confusion Matrix Theorie
Import
from sklearn.metrics import confusion_matrix
Erstellen
confusion_matrix(
y_true: ArrayLike,
y_pred: ArrayLike,
*,
labels: ArrayLike | None = None,
sample_weight: ArrayLike | None = None,
normalize: Literal['true', 'pred', 'all'] | None = None
)
Parameter
| Parameter | Bedeutung | Mögliche Werte |
|---|
y_true | Korrekte Klassen | Array |
y_pred | Von dem Modell vorhergesagte Klassen | Array |
labels | Angabe der Reihenfolge der Klassen | Array / None |
sample_weight | | Array / None |
normalize | Normalisiert die Ergebnisse über die Wahre ("true"), vorhergesagte ("pred") oder alle ("all") Werte | "true" / "pred" / "all" / None |
| Beispiel: | | |
# y Hier berechnen
confusion_matrix = confusion_matrix(y_test, clf.predict(x_test))
# y Bereits berechnet
cm = confusion_matrix(y_test, y_pred)
Visualisierung
from sklearn.metrics import ConfusionMatrixDisplay
ConfusionMatrixDisplay(confusion_matrix=confusion_matrix).plot()
Accuracy
Accuracy Theorie
# Import des Accuracy Score
from sklearn.metrics import accuracy_score
# Erstellen der Accuracy
accuracy_score(y_true, y_pred, normalize=True, sample_weight=None)
| Parameter | Bedeutung | Mögliche Werte |
|---|
y_true | Korrekte Klassen | Array |
y_pred | Von dem Modell vorhergesagte Klassen | Array |
normalize | False: gibt die Nummer der Korrekt Klassifizierten zurück
True: Gibt den Anteil der korrekt Klassifizierten zurück | True / False |
sample_weight | | Array / None |
Precision
Precision Theorie
# Importieren des Precision Score
from sklearn.metrics import precision_score
# Erstellen der Precision
precision_score(y_true, y_pred, labels=None, pos_label=1, average='binary', sample_weight=None, zero_division='warn')
| Parameter | Bedeutung | Mögliche Werte |
|---|
y_true | Korrekte Klassen | Array |
y_pred | Von dem Modell vorhergesagte Klassen | Array |
labels | Reihenfolge der Klassen | Array / None |
pos_Label | Die Klasse die verwendet werden soll | float |
sample_weight | | Array / None |
Recall
Recall Theorie
# Importieren des Recall Score
from sklearn.metrics import recall_score
# Erstellen der Recall
recall_score(y_true, y_pred, labels=None, pos_label=1, average='binary', sample_weight=None, zero_division='warn')
| Parameter | Bedeutung | Mögliche Werte |
|---|
y_true | Korrekte Klassen | Array |
y_pred | Von dem Modell vorhergesagte Klassen | Array |
labels | Reihenfolge der Klassen | Array / None |
pos_Label | Die Klasse die verwendet werden soll | float |
sample_weight | | Array / None |
F1 Score
F1 Score Theorie
# Importieren des F1-Score
from sklearn.metrics import f1_score
# Erstellen der Recall
f1_score(y_true, y_pred, labels=None, pos_label=1, average='binary', sample_weight=None, zero_division='warn')
| Parameter | Bedeutung | Mögliche Werte |
|---|
y_true | Korrekte Klassen | Array |
y_pred | Von dem Modell vorhergesagte Klassen | Array |
labels | Reihenfolge der Klassen | Array / None |
pos_Label | Die Klasse die verwendet werden soll | float |
sample_weight | | Array / None |