Zum Hauptinhalt springen

KI-GESTÜTZTE DOKUMENTATION

Was möchten Sie wissen?

Schritt 4: KI-Modell trainieren

Ihre Regions of Interest (ROIs) sind festgelegt. Jetzt ist es an der Zeit, der KI beizubringen, wie "gut" und "schlecht" aussehen.

Die drei Grundregeln des Trainings

Bevor Sie irgendetwas anderes tun, verinnerlichen Sie diese drei Regeln. Sie gelten unabhängig davon, ob Sie einen Classifier oder einen Segmenter mit 5 oder 500 Bildern trainieren.

Regel 1: Labeln Sie nur anhand des Bildes

Schauen Sie sich niemals das physische Teil an (oder legen Sie es unter ein Mikroskop), um zu entscheiden, ob es gut oder schlecht ist. Wenn Sie den Defekt im Kamerabild nicht sehen können, kann die KI ihn nicht lernen.

Die KI ist keine Zauberei. Sie kann nur mit dem arbeiten, was die Kamera sieht. Wenn Sie ein Teil als "defekt" kennzeichnen, weil Sie etwas durch Tasten oder unter einer Lupe bemerkt haben, das Kamerabild jedoch in Ordnung aussieht, bringen Sie der KI bei, etwas zu sehen, das gar nicht da ist.

Wenn Sie es nicht allein anhand des Bildes labeln können, gehen Sie zurück zum Install-Schritt und korrigieren Sie den physischen Aufbau: bessere Optik, bessere Beleuchtung, nähere Montage, anderer Blickwinkel.

Regel 2: Überprüfen Sie Ihre Labels doppelt und dreifach

Falsche Labels passieren jedem; auch erfahrene Ingenieure machen Fehler. Aber ein falsches Label in einem kleinen Datensatz kann Ihre Ergebnisse ruinieren.

Bei 5 Trainingsbildern beschädigt ein falsches Label 20 % Ihrer Trainingsdaten. Das ist katastrophal.

Vor jedem Trainingslauf: Klicken Sie auf View All ROIs und überprüfen Sie jede einzelne Annotation. Dies ist die einfachste Korrektur und hat die größte Wirkung.

Regel 3: Klein anfangen, schnell iterieren

Labeln Sie nicht 50 Bilder und drücken Sie dann auf Trainieren. Erstellen Sie stattdessen einen engen Kreislauf: 10–15 Bilder pro Klasse labeln, trainieren (ca. 30 Sekunden), testen und versuchen, das Modell zu brechen, dann gezielt Daten dort ergänzen, wo es versagt. Wiederholen Sie diesen Zyklus 2–4 Mal.

Dieser Kreislauf ist Ihr schnellster Weg zu einem guten Modell.

Schrittweiser Trainings-Workflow

1. Erste Trainingsbilder aufnehmen

Mit aktivem Rezept und laufenden (oder manuell platzierten) Teilen nehmen Sie Bilder auf. Sie benötigen mindestens 10–15 Bilder pro Klasse für den Start.

Für eine einfache Pass/Fail-Inspektion:

  • 10–15 Bilder von guten Teilen
  • 10–15 Bilder von defekten Teilen

2. Klassen definieren

Wählen Sie den Modelltyp aus, den Sie trainieren, und lesen Sie dann die entsprechende Anleitung. Der Umschalter unten bleibt zwischen Schritt 2 und Schritt 3 synchron, und Ihre Auswahl wird in der URL gespeichert, sodass sie ein Neuladen oder Teilen übersteht.

Fügen Sie in der Labeling-Oberfläche die Klassen hinzu, die jeder Inspektionstyp benötigt. Übliche Klassen-Sets für Classifier:

  • Pass / Fail
  • Present / Absent
  • Good / Scratched / Cracked

Halten Sie es zunächst einfach. Sie können später jederzeit weitere Klassen hinzufügen.

3. Bilder beschriften

Classifier-Beschriftung: Klasse für jede ROI aus dem Dropdown auswählen

Jeder ROI erhält seine eigene Klassifizierungsklasse — wählen Sie die Klasse, die diesen ROI in diesem Bild beschreibt (z. B. "pass" oder "fail").

Klassifizierung lässt sich schneller beschriften

Wenn Sie unsicher sind, ob Sie Classification oder Segmentation verwenden sollen, beginnen Sie mit Classification. Das Beschriften geht deutlich schneller und eignet sich für die meisten Pass/Fail-Szenarien. Hinweise finden Sie unter Classifier vs. Segmenter.

4. Modell trainieren

Klicken Sie auf Train. Der Classifier bietet zwei Trainingsmodi:

  • Fast mode — ca. 30 Sekunden bis eine Minute. Ideal für schnelle Iterationen während der Einrichtung, zur Plausibilitätsprüfung Ihrer Labels sowie für einfache, gut trennbare Teile. Die Genauigkeit ist geringer als im Production mode, aber Sie erkennen das Signal schnell.
  • Production mode — dauert länger, liefert aber ein deutlich genaueres Modell. Verwenden Sie vor dem Deployment in die Linie immer den Production mode. Für schwierige Teile, schwer unterscheidbare Defekte oder alles, worauf Sie sich in der Produktion verlassen müssen, ist Production mode die richtige Wahl.

Bewährter Ablauf: Iterieren Sie im Fast mode, während Sie Labels bereinigen und Daten ergänzen, und führen Sie dann Production aus, sobald das Ergebnis gut aussieht — und erneut vor dem Deployment.

5. Test mit Live Preview

Klicken Sie auf Live Preview Mode und führen Sie Teile durch. Beobachten Sie die Ergebnisse:

  • Werden einfache Fälle korrekt erkannt?
  • Wo hat das Modell Schwierigkeiten?
  • Was sind die Grenzfälle?

Versuchen Sie, es zu überlisten. Finden Sie die Fälle, in denen es versagt. Diese Fehler sind Ihre Roadmap für Verbesserungen.

Classifier live preview: per-ROI verdicts and confidence scores

Das Test-Panel zeigt die vorhergesagte Klasse und den Confidence Score für jede ROI. Führen Sie einige Aufnahmen durch und achten Sie auf Urteile mit niedriger Confidence (oft unter 70 %) — das sind Ihre Grenzfälle und die Teile, die als nächstes gelabelt werden sollten.

6. Gezielt Daten hinzufügen

Fügen Sie keine zufälligen neuen Bilder hinzu. Fügen Sie gezielt Bilder hinzu, die die gefundenen Fehlermodi adressieren:

  • Wenn Kratzer mit Reflexionen verwechselt werden, fügen Sie mehr Beispiele für beides hinzu
  • Wenn kleine Defekte übersehen werden, fügen Sie mehr Bilder mit kleinen Defekten hinzu
  • Wenn Teile in den Ecken nicht erkannt werden, fügen Sie mehr Eckbeispiele hinzu

7. Neu trainieren und erneut testen

Wiederholen Sie die Schritte 4–6 zwei- bis viermal. Jede Iteration sollte die Genauigkeit verbessern. Für eine ausführlichere Anleitung — einschließlich wie Sie neue Bilder zu einem bestehenden Modell hinzufügen, ohne Ihr vorheriges Training zu verlieren — siehe Adding Data & Retraining.

Augmentations: der KI beibringen, mit Variationen umzugehen

Augmentations modifizieren Ihre Trainingsbilder während des Trainingsprozesses zufällig — passen die Helligkeit an, fügen Rotation hinzu, ändern den Kontrast usw. Jedes Bild wird der KI hunderte Male mit leicht unterschiedlichen Augmentationen vorgeführt, aber das Label bleibt gleich. So machen Sie ein Modell robust gegenüber realen Bedingungen, ohne ein Beispiel jeder möglichen Variation aufnehmen zu müssen.

Was standardmäßig aktiviert werden sollte

Eine geringe Variation der Helligkeit ist fast immer aktivierungswürdig — selbst die am besten kontrollierte Fabrik hat Deckenbeleuchtung, die flackert, Schatten, die sich im Laufe der Schicht verändern, und geringfügige LED-Drift im Laufe der Zeit. Helligkeits-Augmentation macht das Modell im Grunde kostenlos resilient gegenüber all dem.

Rotation: nützlich, aber achten Sie auf die ROI-Form

Rotations-Augmentation ist großartig, wenn Ihre Teile tatsächlich in unterschiedlichen Winkeln ankommen können (lose Schrauben auf einem Förderband, von Hand platzierte Teile, alles, was nicht in einer Vorrichtung gehalten wird). Aber sie interagiert mit der ROI-Form:

  • Quadratische ROI: Rotations-Augmentation funktioniert sauber — das rotierte Bild passt weiterhin in die ROI-Box.
  • Nicht-quadratische ROI bei einem Classifier: Rotation kann das Bild beschneiden. Wenn eine hohe, schmale ROI um 45° gedreht wird, fallen die Ecken des rotierten Inhalts außerhalb der Box, und das Modell trainiert auf einem unvollständigen Bild. Wenn Ihr Teil rotieren kann, machen Sie die ROI entweder quadratisch oder verlassen Sie sich auf den Aligner, um die Rotation vorgelagert zu behandeln, sodass Sie hier keine Rotations-Augmentation benötigen.
  • Segmenter: Dieselbe Beschneidungsproblematik gilt, aber die Segmentierung ist weniger empfindlich, da sie aus Pixelmasken und nicht aus der gesamten ROI-Form lernt.

Wann eine bestimmte Augmentierung NICHT verwendet werden sollte

Die allgemeine Regel: Augmentieren Sie nicht die Eigenschaft, die Sie prüfen. Wenn Sie die Ausrichtung erkennen möchten, lernt das Modell durch Rotations-Augmentierung, dass auf dem Kopf stehende Teile ebenfalls „gut" sind.

  • Prüfung auf Farbkonsistenz? Keine Sättigungs-Augmentierung verwenden.
  • Prüfung auf Unschärfe/Fokus? Keine Bewegungsunschärfe-Augmentierung verwenden.
  • Prüfung auf Ausrichtung? Keine Rotations-Augmentierung verwenden (und wahrscheinlich auch keinen Aligner).

Datenvielfalt ist entscheidend

Ihre Trainingsdaten sollten den gesamten Bereich abdecken, den die KI im Produktionsbetrieb sehen wird:

  • Unterschiedliche Tageszeiten (bei variierender Beleuchtung)
  • Unterschiedliche Teile-Chargen (Oberflächenbeschaffenheit kann leicht variieren)
  • Teile in verschiedenen Positionen innerhalb des Bildausschnitts
  • Sowohl einfache als auch schwierige Fälle

Konzentrieren Sie sich auf die schwierigsten Fälle. Wenn Ihre Trainingsdaten die 10 am schwersten zu klassifizierenden Teile enthalten, sind die 90 % einfachen Teile für die KI trivial.

Hohe Lernkapazität

Die KI der OV-Kamera ist darauf ausgelegt, sich mit mehr Daten kontinuierlich zu verbessern. Im Gegensatz zu vielen KI-Systemen, die nach 20 Bildern stagnieren, verbessert sich dieses Modell weiterhin mit 50, 100 oder sogar über 500 Bildern. Die meisten Prüfungen funktionieren bereits mit 5–10 Bildern hervorragend, aber bei einem komplexen Problem mit mehreren Defekten zögern Sie nicht, weitere Daten hinzuzufügen.

Beschleunigung mit synthetischen Daten: Defect Studio

Was tun, wenn Sie für einen Defekt trainieren müssen, der nur selten auftritt? Eine fehlende Schraube, die Sie absichtlich entfernen müssten, ein Kratzer, den Sie erst erzeugen müssten, ein Riss, der einmal pro tausend Teile auftritt? Monate zu warten, um genügend Beispiele zu sammeln, ist nicht praktikabel.

Das OV Auto-Defect Creator Studio unter tools.overview.ai löst dieses Problem. Es generiert fotorealistische synthetische Defektbilder – bis zu 10.000x schneller, als auf das Auftreten realer Defekte in der Produktionslinie zu warten.

So funktioniert es: 5 einfache Schritte

  1. Hochladen eines guten Bildes Ihres Teils
  2. Markieren des Bereichs, in dem der Defekt erscheinen soll
  3. Beschreiben des Defekts in einfachem Englisch (z. B. „deep scratch across the surface" oder „missing solder joint")
  4. Generieren der Defektvariationen (die KI erstellt fotorealistische Ergebnisse)
  5. Exportieren der synthetischen Bilder direkt in Ihren Trainingsdatensatz

Warum synthetische Daten funktionieren

Die generierten Bilder sind keine bloßen „eingefügten" Artefakte. Es handelt sich um fotorealistische Variationen, die zu Ihrer tatsächlichen Beleuchtung, Ihrem Kamerawinkel und Ihrer Teileoberfläche passen. Die KI versteht die Physik dahinter, wie Defekte unter Ihren spezifischen Bildgebungsbedingungen aussehen.

Anwendungsfälle:

  • Seltene Defekte: Trainieren für Fehlerarten, die Sie nie (oder nur selten) gesehen haben
  • Neue Produkteinführungen: Aufbau einer Prüfung, bevor das erste defekte Teil vom Band läuft
  • Grenzfälle: Generieren von Grenzbeispielen zur Verbesserung der Entscheidungsgrenze der KI
  • Datenaugmentierung: Ergänzung kleiner Datensätze durch synthetische Vielfalt

In Aktion erleben

Mit echten Daten starten, mit synthetischen beschleunigen

Der beste Ansatz: Trainieren Sie zunächst mit Ihren ersten 3–5 realen Bildern, identifizieren Sie, wo die KI Schwierigkeiten hat, und verwenden Sie dann Defect Studio, um gezielte synthetische Beispiele für diese spezifischen Fehlerarten zu generieren. Reale Daten vermitteln die Basis; synthetische Daten füllen die Lücken.

Trainings-Checkliste

Bevor Sie fortfahren, stellen Sie sicher:

  • Erste Bilder aufgenommen, mindestens 10–15 pro Klasse
  • Alle Labels überprüft (View All ROIs)
  • Mit Live Preview trainiert und getestet
  • Fehlermodi identifiziert und gezielte Daten hinzugefügt
  • 2–4 Iterationen von Label → Train → Test abgeschlossen
  • Ergebnisse entsprechen den Erwartungen

Modell trainiert und sieht gut aus? Weiter zu Schritt 5: Einrichten der Ausgaben.