Saltar al contenido principal

DOCUMENTACIÓN CON IA

¿Qué desea saber?

Paso 4: Entrenar Su Modelos de AI

Sus regiones de interés (ROIs) están configuradas. Ahora es momento de enseñarle a la AI cómo se ven las piezas "buenas" y "malas".

Las tres reglas cardinales del entrenamiento

Antes que nada, internalice estas tres reglas. Aplican ya sea que esté entrenando un clasificador o un segmentador, con 5 imágenes o 500.

Regla 1: Etiquete solo a partir de la imagen

Nunca mire la pieza física (ni la coloque bajo un microscopio) para decidir si es buena o mala. Si no puede ver el defecto en la imagen de la cámara, la AI no puede aprenderlo.

La AI no es mágica. Solo puede trabajar con lo que la cámara ve. Si etiqueta una pieza como "defectuosa" basándose en algo que notó al tocarla o al hacer zoom con una lupa, pero la imagen de la cámara se ve bien, le está enseñando a la AI a ver algo que no está ahí.

Si no puede etiquetarla solo a partir de la imagen, regrese al paso de Instalación y corrija la configuración física: mejor lente, mejor iluminación, montaje más cercano, ángulo diferente.

Regla 2: Verifique sus etiquetas dos y tres veces

Los errores de etiquetado le pasan a todos; los ingenieros experimentados también los cometen. Pero una sola etiqueta incorrecta en un conjunto de datos pequeño puede arruinar sus resultados.

Con 5 imágenes de entrenamiento, una etiqueta incorrecta corrompe el 20% de sus datos de entrenamiento. Eso es catastrófico.

Antes de cada ejecución de entrenamiento: Haga clic en Ver todas las ROIs y verifique cada anotación. Esto es lo más fácil de corregir y lo más impactante.

Regla 3: Empiece poco a poco, itere rápido

No etiquete 50 imágenes y presione entrenar. En su lugar, cree un ciclo ajustado: Etiquete 10-15 imágenes por clase, entrene (aproximadamente 30 segundos), pruebe e intente romperlo, luego agregue datos específicos donde falle. Repita este ciclo 2-4 veces.

Este ciclo es su camino más rápido hacia un buen modelo.

Flujo de trabajo de entrenamiento paso a paso

1. Capture imágenes iniciales de entrenamiento

Con su receta activa y las piezas fluyendo (o colocadas manualmente), capture imágenes. Necesita un mínimo de 10-15 imágenes por clase para comenzar.

Para una inspección simple de aprobado/rechazado:

  • 10-15 imágenes de piezas buenas
  • 10-15 imágenes de piezas defectuosas

2. Defina sus clases

Elija el tipo de modelo que está entrenando y luego lea las instrucciones correspondientes. El conmutador a continuación se mantiene sincronizado entre el Paso 2 y el Paso 3, y su elección se conserva en la URL para que sobreviva a una actualización o al compartirla.

En la interfaz de etiquetado, agregue las clases que necesita cada tipo de inspección. Conjuntos comunes de clases para clasificador:

  • Aprobar / Fallar
  • Presente / Ausente
  • Bueno / Rayado / Agrietado

Manténgalo simple al principio. Siempre puede agregar clases más adelante.

3. Etiquetar las imágenes

Etiquetado del clasificador: seleccione una clase para cada ROI del menú desplegable

Cada ROI obtiene su propia clase de clasificación — seleccione la clase que describa ese ROI en esa imagen (por ejemplo, "aprobar" o "fallar").

La Clasificación es más rápida de etiquetar

Si no está seguro de si usar clasificación o segmentación, comience con clasificación. Es mucho más rápida de etiquetar y es buena para la mayoría de los escenarios de aprobado/rechazado. Consulte Classifier vs. Segmenter para obtener orientación.

4. Entrenar el modelo

Haga clic en Entrenar. El clasificador ofrece dos modos de entrenamiento:

  • Modo rápido (Fast mode) — aproximadamente de 30 segundos a un minuto. Ideal para iteración rápida durante la configuración, verificación rápida de sus etiquetas y piezas fáciles/bien diferenciadas. La precisión es menor que en el modo de producción, pero le permite ver la señal rápidamente.
  • Modo de producción (Production mode) — toma más tiempo, pero produce un modelo notablemente más preciso. Siempre use el modo de producción antes de desplegar a la línea. Para piezas complicadas, defectos difíciles de distinguir o cualquier cosa en la que confiará en producción, el modo de producción es la respuesta correcta.

Un buen ritmo: itere en modo rápido mientras limpia las etiquetas y agrega datos, luego ejecute el modo de producción una vez que el resultado se vea bien — y nuevamente antes de desplegar.

5. Probar con Vista Previa en Vivo

Haga clic en Modo Vista Previa en Vivo y pase piezas por el sistema. Observe los resultados:

  • ¿Está acertando en los casos fáciles?
  • ¿Dónde tiene dificultades?
  • ¿Cuáles son los casos límite?

Trate de romperlo. Encuentre los casos donde falla. Estas fallas son su hoja de ruta para mejorar.

Vista previa en vivo del clasificador: veredictos por ROI y puntajes de confianza

El panel de Prueba muestra la clase predicha y el puntaje de confianza para cada ROI. Ejecute algunas capturas y busque veredictos de baja confianza (a menudo por debajo del 70%) — esos son sus casos límite y las piezas que más vale la pena etiquetar a continuación.

6. Agregar datos específicos

No agregue imágenes nuevas al azar. Agregue imágenes que apunten específicamente a los modos de falla que encontró:

  • Si confunde rayones con reflejos, agregue más ejemplos de ambos
  • Si pasa por alto defectos pequeños, agregue más imágenes de defectos pequeños
  • Si falla en piezas en las esquinas, agregue más ejemplos de esquinas

7. Reentrenar y volver a probar

Repita los pasos 4-6 de dos a cuatro veces. Cada iteración debería mejorar la precisión. Para un recorrido más detallado — incluyendo cómo agregar nuevas imágenes a un modelo existente sin perder su entrenamiento previo — consulte Añadiendo Datos y Reentrenamiento.

Aumentos de datos: enseñando a la AI a manejar la variación

Los aumentos de datos modifican aleatoriamente sus imágenes de entrenamiento durante el proceso de entrenamiento — ajustando el brillo, añadiendo rotación, modificando el contraste, etc. Cada imagen se alimenta a la AI cientos de veces con aumentos de datos ligeramente diferentes, pero la etiqueta permanece igual. Así es como se hace que un modelo sea robusto ante las condiciones del mundo real sin tener que capturar un ejemplo de cada variación posible.

Qué activar de forma predeterminada

Casi siempre vale la pena activar una pequeña cantidad de variación de brillo — incluso la fábrica más controlada tiene luces cenitales que parpadean, sombras que cambian a lo largo del turno y desviaciones menores en los LED con el tiempo. El aumento de datos de brillo hace que el modelo sea resistente a todo eso prácticamente sin costo.

Rotación: útil, pero cuide la forma de su ROI

El aumento de datos de rotación es excelente si sus piezas realmente pueden llegar en diferentes ángulos (tornillos sueltos en una banda transportadora, piezas colocadas a mano, cualquier cosa que no esté sujeta en un dispositivo). Pero interactúa con la forma del ROI:

  • ROI cuadrado: el aumento de datos de rotación funciona limpiamente — la imagen rotada aún cabe dentro del cuadro del ROI.
  • ROI no cuadrado en un clasificador: la rotación puede recortar la imagen. Cuando un ROI alto y estrecho se gira 45°, las esquinas del contenido rotado caen fuera del cuadro y el modelo entrena con una imagen parcial. Si su pieza puede rotar, haga el ROI cuadrado o confíe en el alineador para manejar la rotación previamente, de modo que no necesite aumento de datos de rotación aquí.
  • Segmentador: aplica la misma preocupación de recorte, pero la segmentación es menos sensible porque aprende a partir de máscaras de píxeles en lugar de la forma completa del ROI.

Cuándo NO usar un aumento de datos específico

La regla general: no aumente la propiedad que está inspeccionando. Si está intentando detectar la orientación, el aumento de datos de rotación le enseñará al modelo que las piezas al revés también son "buenas."

  • ¿Inspeccionando consistencia de color? No use aumento de datos de saturación.
  • ¿Inspeccionando desenfoque/enfoque? No use aumento de datos de desenfoque de movimiento.
  • ¿Inspeccionando orientación? No use aumento de datos de rotación (y probablemente tampoco use el alineador).

La diversidad de datos es importante

Sus datos de entrenamiento deben representar el rango completo de lo que la AI verá en producción:

  • Diferentes horas del día (si la iluminación varía)
  • Diferentes lotes de piezas (el acabado superficial puede variar ligeramente)
  • Piezas en diferentes posiciones dentro del cuadro
  • Tanto casos fáciles como difíciles

Concéntrese en los casos más difíciles. Si sus datos de entrenamiento incluyen las 10 piezas más difíciles de clasificar, entonces el 90% de las piezas fáciles serán triviales para la AI.

Alta capacidad de aprendizaje

La AI de la cámara OV está diseñada para seguir mejorando con más datos. A diferencia de muchos sistemas de AI que se estancan después de 20 imágenes, este modelo continúa mejorando con 50, 100, incluso más de 500 imágenes. La mayoría de las inspecciones funcionan muy bien con 5-10 imágenes, pero si tiene un problema complejo de múltiples defectos, no dude en seguir agregando datos.

Acelere con datos sintéticos: Defect Studio

¿Qué pasa si necesita entrenar para un defecto que rara vez ve? ¿Un tornillo faltante que tendría que quitar intencionalmente, un rayón que tendría que crear, una grieta que ocurre una vez cada mil piezas? Esperar meses para recolectar suficientes ejemplos no es práctico.

El OV Auto-Defect Creator Studio en tools.overview.ai resuelve esto. Genera imágenes sintéticas fotorrealistas de defectos, hasta 10,000 veces más rápido que esperar a que aparezcan defectos reales en la línea de producción.

Cómo funciona: 5 pasos sencillos

  1. Cargue una imagen buena de su pieza
  2. Marque el área donde debería aparecer el defecto
  3. Describa el defecto en inglés sencillo (por ejemplo, "deep scratch across the surface" o "missing solder joint")
  4. Genere las variaciones del defecto (la AI crea resultados fotorrealistas)
  5. Exporte las imágenes sintéticas directamente a su conjunto de entrenamiento

Por qué funcionan los datos sintéticos

Las imágenes generadas no son simplemente artefactos "pegados". Son variaciones fotorrealistas que coinciden con su iluminación real, ángulo de cámara y superficie de la pieza. La AI comprende la física de cómo se ven los defectos bajo sus condiciones específicas de imagen.

Casos de uso:

  • Defectos raros: Entrene para modos de falla que nunca (o rara vez) ha visto
  • Lanzamientos de nuevos productos: Construya una inspección antes de que la primera pieza defectuosa salga de la línea
  • Casos límite: Genere ejemplos limítrofes para mejorar el límite de decisión de la AI
  • Aumento de datos: Complemente conjuntos de datos pequeños con variedad sintética

Véalo en acción

Comience con datos reales, acelere con sintéticos

El mejor enfoque: entrene primero con sus 3-5 imágenes reales iniciales, identifique dónde tiene dificultades la AI, luego use Defect Studio para generar ejemplos sintéticos dirigidos a esos modos de falla específicos. Los datos reales enseñan la línea base; los datos sintéticos llenan los vacíos.

Lista de verificación de entrenamiento

Antes de continuar, confirme:

  • Imágenes iniciales capturadas, mínimo 10-15 por clase
  • Todas las etiquetas verificadas dos veces (Ver todas las ROIs)
  • Entrenado y probado con Vista Previa en Vivo
  • Modos de falla identificados y datos dirigidos agregados
  • 2-4 iteraciones de etiquetar → entrenar → probar completadas
  • Los resultados cumplen con las expectativas

¿Modelo entrenado y se ve bien? Pase a Paso 5: Configuración de Salidas.