KI-GESTÜTZTE DOKUMENTATION
Was möchten Sie wissen?
Schritt 4: KI-Modell trainieren
Ihre Regions of Interest (ROIs) sind festgelegt. Jetzt ist es an der Zeit, der KI beizubringen, wie "gut" und "schlecht" aussehen.
Die drei Grundregeln des Trainings
Bevor Sie irgendetwas anderes tun, verinnerlichen Sie diese drei Regeln. Sie gelten unabhängig davon, ob Sie einen Classifier oder einen Segmenter mit 5 oder 500 Bildern trainieren.
Regel 1: Labeln Sie nur anhand des Bildes
Schauen Sie sich niemals das physische Teil an (oder legen Sie es unter ein Mikroskop), um zu entscheiden, ob es gut oder schlecht ist. Wenn Sie den Defekt im Kamerabild nicht sehen können, kann die KI ihn nicht lernen.
Die KI ist keine Zauberei. Sie kann nur mit dem arbeiten, was die Kamera sieht. Wenn Sie ein Teil als "defekt" kennzeichnen, weil Sie etwas durch Tasten oder unter einer Lupe bemerkt haben, das Kamerabild jedoch in Ordnung aussieht, bringen Sie der KI bei, etwas zu sehen, das gar nicht da ist.
Wenn Sie es nicht allein anhand des Bildes labeln können, gehen Sie zurück zum Install-Schritt und korrigieren Sie den physischen Aufbau: bessere Optik, bessere Beleuchtung, nähere Montage, anderer Blickwinkel.
Regel 2: Überprüfen Sie Ihre Labels doppelt und dreifach
Falsche Labels passieren jedem; auch erfahrene Ingenieure machen Fehler. Aber ein falsches Label in einem kleinen Datensatz kann Ihre Ergebnisse ruinieren.
Bei 5 Trainingsbildern beschädigt ein falsches Label 20 % Ihrer Trainingsdaten. Das ist katastrophal.
Vor jedem Trainingslauf: Klicken Sie auf View All ROIs und überprüfen Sie jede einzelne Annotation. Dies ist die einfachste Korrektur und hat die größte Wirkung.
Regel 3: Klein anfangen, schnell iterieren
Labeln Sie nicht 50 Bilder und drücken Sie dann auf Trainieren. Erstellen Sie stattdessen einen engen Kreislauf: 10–15 Bilder pro Klasse labeln, trainieren (ca. 30 Sekunden), testen und versuchen, das Modell zu brechen, dann gezielt Daten dort ergänzen, wo es versagt. Wiederholen Sie diesen Zyklus 2–4 Mal.
Dieser Kreislauf ist Ihr schnellster Weg zu einem guten Modell.
Schrittweiser Trainings-Workflow
1. Erste Trainingsbilder aufnehmen
Mit aktivem Rezept und laufenden (oder manuell platzierten) Teilen nehmen Sie Bilder auf. Sie benötigen mindestens 10–15 Bilder pro Klasse für den Start.
Für eine einfache Pass/Fail-Inspektion:
- 10–15 Bilder von guten Teilen
- 10–15 Bilder von defekten Teilen
2. Klassen definieren
Wählen Sie den Modelltyp aus, den Sie trainieren, und lesen Sie dann die entsprechende Anleitung. Der Umschalter unten bleibt zwischen Schritt 2 und Schritt 3 synchron, und Ihre Auswahl wird in der URL gespeichert, sodass sie ein Neuladen oder Teilen übersteht.
- Classifier
- Segmenter
Fügen Sie in der Labeling-Oberfläche die Klassen hinzu, die jeder Inspektionstyp benötigt. Übliche Klassen-Sets für Classifier:
- Pass / Fail
- Present / Absent
- Good / Scratched / Cracked
Halten Sie es zunächst einfach. Sie können später jederzeit weitere Klassen hinzufügen.
Fügen Sie in der Labeling-Oberfläche Klassen für die Defekte (oder Merkmale) hinzu, die die KI maskieren soll. Übliche Klassen-Sets für Segmenter:
- Defect / Background
- Scratch / Crack / Stain
- Foreground / Background
Halten Sie die Klassenliste zunächst kurz. Jede Klasse benötigt eine eigene Pinselfarbe und eigene gelabelte Beispiele, sodass das Hinzufügen weiterer Klassen Ihren Labeling-Aufwand vervielfacht.
3. Bilder beschriften
- Classifier
- Segmenter

Jeder ROI erhält seine eigene Klassifizierungsklasse — wählen Sie die Klasse, die diesen ROI in diesem Bild beschreibt (z. B. "pass" oder "fail").
Wenn Sie unsicher sind, ob Sie Classification oder Segmentation verwenden sollen, beginnen Sie mit Classification. Das Beschriften geht deutlich schneller und eignet sich für die meisten Pass/Fail-Szenarien. Hinweise finden Sie unter Classifier vs. Segmenter.

Verwenden Sie für jede ROI in jedem Bild das Pinselwerkzeug, um die defekten Bereiche pixelgenau zu markieren. Die gemalten Regionen sind das, was die AI zu erkennen lernt — alles, was Sie nicht markieren, wird als Hintergrund behandelt.
Segmenter-Beschriftungen erfordern pixelgenaue Pinselarbeit, was langsamer ist als die Dropdown-Auswahl beim Classifier, liefert Ihnen aber präzise Defektkarten mit Position und Form. Beginnen Sie mit einer kleinen Auswahl klar definierter Defekte und fügen Sie weitere Klassen erst hinzu, wenn Ihr erstes Modell funktioniert.
4. Modell trainieren
- Classifier
- Segmenter
Klicken Sie auf Train. Der Classifier bietet zwei Trainingsmodi:
- Fast mode — ca. 30 Sekunden bis eine Minute. Ideal für schnelle Iterationen während der Einrichtung, zur Plausibilitätsprüfung Ihrer Labels sowie für einfache, gut trennbare Teile. Die Genauigkeit ist geringer als im Production mode, aber Sie erkennen das Signal schnell.
- Production mode — dauert länger, liefert aber ein deutlich genaueres Modell. Verwenden Sie vor dem Deployment in die Linie immer den Production mode. Für schwierige Teile, schwer unterscheidbare Defekte oder alles, worauf Sie sich in der Produktion verlassen müssen, ist Production mode die richtige Wahl.
Bewährter Ablauf: Iterieren Sie im Fast mode, während Sie Labels bereinigen und Daten ergänzen, und führen Sie dann Production aus, sobald das Ergebnis gut aussieht — und erneut vor dem Deployment.
Klicken Sie auf Train. Segmentation kennt nur einen Trainingsmodus — Production — denn pixelgenaue Masken benötigen den gründlicheren Trainingsdurchlauf, um zuverlässig zu sein. Die Trainingszeit skaliert mit der Anzahl der Bilder und der Anzahl der von Ihnen beschrifteten ROIs; ein kleiner Anfangsdatensatz (10–15 Bilder pro Klasse) trainiert in wenigen Minuten, größere Datensätze dauern länger.
Eine "schnelle" Plausibilitätsprüfungs-Option gibt es hier nicht — stellen Sie also vor dem Training sicher, dass Ihre Labels sauber sind (nutzen Sie View All ROIs, um jede Maske zu überprüfen).
Segmenter lernen nur die Größe und Textur von Defekten, die ihnen gezeigt wurden. Wenn Ihr Trainingsdatensatz nur kleine Verunreinigungen enthält und dann in der Produktion ein großes Stück derselben Defektklasse auftritt, umreißt das Modell nur die Teile des großen Defekts, die den kleinen Beispielen ähneln — der Großteil bleibt unmarkiert. Die Maske wirkt lückenhaft oder markiert nur Ränder und Ecken des realen Defekts.
Lösung: Nehmen Sie Trainingsbeispiele auf, die das gesamte Spektrum der in der Linie erwarteten Defektgrößen abdecken. Eine Handvoll Aufnahmen großer Verunreinigungen zusätzlich zu den kleinen reicht in der Regel aus. Dasselbe Prinzip gilt für Textur- und Farbvariationen — trainieren Sie auf die Vielfalt, der Sie begegnen werden.
Keine Beispiele für große Defekte vorhanden? Verwenden Sie das Defect Creator Studio, um synthetische Trainingsbilder desselben Defekts in unterschiedlichen Größen, Positionen und Ausrichtungen zu erzeugen — Sie müssen nicht warten, bis eine echte große Verunreinigung über die Linie läuft.
5. Test mit Live Preview
Klicken Sie auf Live Preview Mode und führen Sie Teile durch. Beobachten Sie die Ergebnisse:
- Werden einfache Fälle korrekt erkannt?
- Wo hat das Modell Schwierigkeiten?
- Was sind die Grenzfälle?
Versuchen Sie, es zu überlisten. Finden Sie die Fälle, in denen es versagt. Diese Fehler sind Ihre Roadmap für Verbesserungen.
- Classifier
- Segmenter

Das Test-Panel zeigt die vorhergesagte Klasse und den Confidence Score für jede ROI. Führen Sie einige Aufnahmen durch und achten Sie auf Urteile mit niedriger Confidence (oft unter 70 %) — das sind Ihre Grenzfälle und die Teile, die als nächstes gelabelt werden sollten.

Die Live Preview überlagert die vorhergesagte Defektmaske direkt auf dem Bild. Achten Sie auf Masken, die zu klein oder zu groß sind oder dort erscheinen, wo kein tatsächlicher Defekt vorhanden ist — das sind die Fehlermodi, die Sie mit der nächsten Runde gelabelter Daten gezielt angehen.
6. Gezielt Daten hinzufügen
Fügen Sie keine zufälligen neuen Bilder hinzu. Fügen Sie gezielt Bilder hinzu, die die gefundenen Fehlermodi adressieren:
- Wenn Kratzer mit Reflexionen verwechselt werden, fügen Sie mehr Beispiele für beides hinzu
- Wenn kleine Defekte übersehen werden, fügen Sie mehr Bilder mit kleinen Defekten hinzu
- Wenn Teile in den Ecken nicht erkannt werden, fügen Sie mehr Eckbeispiele hinzu
7. Neu trainieren und erneut testen
Wiederholen Sie die Schritte 4–6 zwei- bis viermal. Jede Iteration sollte die Genauigkeit verbessern. Für eine ausführlichere Anleitung — einschließlich wie Sie neue Bilder zu einem bestehenden Modell hinzufügen, ohne Ihr vorheriges Training zu verlieren — siehe Adding Data & Retraining.
Augmentations: der KI beibringen, mit Variationen umzugehen
Augmentations modifizieren Ihre Trainingsbilder während des Trainingsprozesses zufällig — passen die Helligkeit an, fügen Rotation hinzu, ändern den Kontrast usw. Jedes Bild wird der KI hunderte Male mit leicht unterschiedlichen Augmentationen vorgeführt, aber das Label bleibt gleich. So machen Sie ein Modell robust gegenüber realen Bedingungen, ohne ein Beispiel jeder möglichen Variation aufnehmen zu müssen.
Was standardmäßig aktiviert werden sollte
Eine geringe Variation der Helligkeit ist fast immer aktivierungswürdig — selbst die am besten kontrollierte Fabrik hat Deckenbeleuchtung, die flackert, Schatten, die sich im Laufe der Schicht verändern, und geringfügige LED-Drift im Laufe der Zeit. Helligkeits-Augmentation macht das Modell im Grunde kostenlos resilient gegenüber all dem.
Rotation: nützlich, aber achten Sie auf die ROI-Form
Rotations-Augmentation ist großartig, wenn Ihre Teile tatsächlich in unterschiedlichen Winkeln ankommen können (lose Schrauben auf einem Förderband, von Hand platzierte Teile, alles, was nicht in einer Vorrichtung gehalten wird). Aber sie interagiert mit der ROI-Form:
- Quadratische ROI: Rotations-Augmentation funktioniert sauber — das rotierte Bild passt weiterhin in die ROI-Box.
- Nicht-quadratische ROI bei einem Classifier: Rotation kann das Bild beschneiden. Wenn eine hohe, schmale ROI um 45° gedreht wird, fallen die Ecken des rotierten Inhalts außerhalb der Box, und das Modell trainiert auf einem unvollständigen Bild. Wenn Ihr Teil rotieren kann, machen Sie die ROI entweder quadratisch oder verlassen Sie sich auf den Aligner, um die Rotation vorgelagert zu behandeln, sodass Sie hier keine Rotations-Augmentation benötigen.
- Segmenter: Dieselbe Beschneidungsproblematik gilt, aber die Segmentierung ist weniger empfindlich, da sie aus Pixelmasken und nicht aus der gesamten ROI-Form lernt.
Wann eine bestimmte Augmentierung NICHT verwendet werden sollte
Die allgemeine Regel: Augmentieren Sie nicht die Eigenschaft, die Sie prüfen. Wenn Sie die Ausrichtung erkennen möchten, lernt das Modell durch Rotations-Augmentierung, dass auf dem Kopf stehende Teile ebenfalls „gut" sind.
- Prüfung auf Farbkonsistenz? Keine Sättigungs-Augmentierung verwenden.
- Prüfung auf Unschärfe/Fokus? Keine Bewegungsunschärfe-Augmentierung verwenden.
- Prüfung auf Ausrichtung? Keine Rotations-Augmentierung verwenden (und wahrscheinlich auch keinen Aligner).
Datenvielfalt ist entscheidend
Ihre Trainingsdaten sollten den gesamten Bereich abdecken, den die KI im Produktionsbetrieb sehen wird:
- Unterschiedliche Tageszeiten (bei variierender Beleuchtung)
- Unterschiedliche Teile-Chargen (Oberflächenbeschaffenheit kann leicht variieren)
- Teile in verschiedenen Positionen innerhalb des Bildausschnitts
- Sowohl einfache als auch schwierige Fälle
Konzentrieren Sie sich auf die schwierigsten Fälle. Wenn Ihre Trainingsdaten die 10 am schwersten zu klassifizierenden Teile enthalten, sind die 90 % einfachen Teile für die KI trivial.
Hohe Lernkapazität
Die KI der OV-Kamera ist darauf ausgelegt, sich mit mehr Daten kontinuierlich zu verbessern. Im Gegensatz zu vielen KI-Systemen, die nach 20 Bildern stagnieren, verbessert sich dieses Modell weiterhin mit 50, 100 oder sogar über 500 Bildern. Die meisten Prüfungen funktionieren bereits mit 5–10 Bildern hervorragend, aber bei einem komplexen Problem mit mehreren Defekten zögern Sie nicht, weitere Daten hinzuzufügen.
Beschleunigung mit synthetischen Daten: Defect Studio
Was tun, wenn Sie für einen Defekt trainieren müssen, der nur selten auftritt? Eine fehlende Schraube, die Sie absichtlich entfernen müssten, ein Kratzer, den Sie erst erzeugen müssten, ein Riss, der einmal pro tausend Teile auftritt? Monate zu warten, um genügend Beispiele zu sammeln, ist nicht praktikabel.
Das OV Auto-Defect Creator Studio unter tools.overview.ai löst dieses Problem. Es generiert fotorealistische synthetische Defektbilder – bis zu 10.000x schneller, als auf das Auftreten realer Defekte in der Produktionslinie zu warten.
So funktioniert es: 5 einfache Schritte
- Hochladen eines guten Bildes Ihres Teils
- Markieren des Bereichs, in dem der Defekt erscheinen soll
- Beschreiben des Defekts in einfachem Englisch (z. B. „deep scratch across the surface" oder „missing solder joint")
- Generieren der Defektvariationen (die KI erstellt fotorealistische Ergebnisse)
- Exportieren der synthetischen Bilder direkt in Ihren Trainingsdatensatz
Warum synthetische Daten funktionieren
Die generierten Bilder sind keine bloßen „eingefügten" Artefakte. Es handelt sich um fotorealistische Variationen, die zu Ihrer tatsächlichen Beleuchtung, Ihrem Kamerawinkel und Ihrer Teileoberfläche passen. Die KI versteht die Physik dahinter, wie Defekte unter Ihren spezifischen Bildgebungsbedingungen aussehen.
Anwendungsfälle:
- Seltene Defekte: Trainieren für Fehlerarten, die Sie nie (oder nur selten) gesehen haben
- Neue Produkteinführungen: Aufbau einer Prüfung, bevor das erste defekte Teil vom Band läuft
- Grenzfälle: Generieren von Grenzbeispielen zur Verbesserung der Entscheidungsgrenze der KI
- Datenaugmentierung: Ergänzung kleiner Datensätze durch synthetische Vielfalt
In Aktion erleben
Der beste Ansatz: Trainieren Sie zunächst mit Ihren ersten 3–5 realen Bildern, identifizieren Sie, wo die KI Schwierigkeiten hat, und verwenden Sie dann Defect Studio, um gezielte synthetische Beispiele für diese spezifischen Fehlerarten zu generieren. Reale Daten vermitteln die Basis; synthetische Daten füllen die Lücken.
Trainings-Checkliste
Bevor Sie fortfahren, stellen Sie sicher:
- Erste Bilder aufgenommen, mindestens 10–15 pro Klasse
- Alle Labels überprüft (View All ROIs)
- Mit Live Preview trainiert und getestet
- Fehlermodi identifiziert und gezielte Daten hinzugefügt
- 2–4 Iterationen von Label → Train → Test abgeschlossen
- Ergebnisse entsprechen den Erwartungen
Modell trainiert und sieht gut aus? Weiter zu Schritt 5: Einrichten der Ausgaben.