Saltar al contenido principal

Paso 4: Entrene su modelo de IA

Tiempo: 5–10 minutos

Sus regiones de inspección ya están configuradas. Ahora es el momento de enseñar a la IA qué significa "bueno" y qué significa "malo".

Las tres reglas cardinales del entrenamiento

Antes que nada, internalice estas tres reglas. Se aplican ya sea que esté entrenando un clasificador o un segmentador, con 5 imágenes o 500.

Regla 1: Etiquetar solo a partir de la imagen

Nunca mire la pieza física (o la coloque bajo un microscopio) para decidir si está buena o defectuosa. Si no puede ver el defecto en la imagen de la cámara, la IA no puede aprenderlo.

La IA no es magia. Solo puede trabajar con lo que ve la cámara. Si etiqueta una pieza como "defectuosa" basándose en algo que notó al tacto o al hacer un zoom con una lupa, pero la imagen de la cámara se ve bien, está enseñando a la IA a ver algo que no está allí.

Si no puede etiquetarlo solo a partir de la imagen, regrese al paso de Instalación y corrija la configuración física: mejor lente, mejor iluminación, montaje más cercano, ángulo diferente.

Regla 2: Verifique sus etiquetas dos veces y tres veces

Los errores de etiquetado le ocurren a cualquiera; incluso ingenieros experimentados los cometen. Pero una etiqueta incorrecta en un conjunto pequeño de datos puede arruinar sus resultados.

Con 5 imágenes de entrenamiento, una etiqueta errónea corrompe el 20% de su conjunto de datos de entrenamiento. Eso es catastrófico.

Antes de cada ejecución de entrenamiento: Haga clic en View All ROIs y verifique cada anotación. Esto es lo más fácil de arreglar y lo de mayor impacto.

Regla 3: Comience pequeño e itere rápidamente

No etiquete 50 imágenes y ejecute el entrenamiento. En su lugar, cree un ciclo estrecho: Etiquete 3-5 imágenes por clase, entrene en modo de desarrollo (aproximadamente 30 segundos), pruebe y trate de romperlo, luego agregue datos dirigidos donde falle. Repita este ciclo 2-4 veces en modo de desarrollo, luego cambie al modo de producción.

Este ciclo es su camino más rápido hacia un modelo de calidad. Ejecútelo 2-4 veces en modo de desarrollo, luego cambie al modo de producción.

Flujo de trabajo de entrenamiento paso a paso

1. Capturar imágenes de entrenamiento iniciales

Con su receta activa y las piezas en flujo (o colocadas manualmente), capture imágenes. Se requiere un mínimo de 3-5 imágenes por clase para empezar.

Para una inspección simple de pase/fallo:

  • 3-5 imágenes de piezas buenas
  • 3-5 imágenes de piezas defectuosas

2. Etiquetar las imágenes

Interfaz de etiquetado y entrenamiento

Para cada ROI en cada imagen, asigne la etiqueta de clase correcta:

  • Clasificador: Seleccione la clase desde un menú desplegable (p. ej., "pass" o "fail")
OV10i usa clasificación

OV10i solo admite clasificadores. Seleccione la clase desde un menú desplegable para cada ROI (p. ej., "pass" o "fail"). Para segmentación a nivel de píxel, se necesita un OV20i o OV80i.

3. Entrene en Modo de Desarrollo

Haga clic en Train y seleccione Development Mode. Esto toma unos 30 segundos y genera un modelo que es aproximadamente 20x menos preciso que el modo de producción, pero es suficiente para verificar la señal.

Qué significa "verificar la señal": ¿La IA está empezando a aprender la diferencia entre bueno y malo? ¿O está interpretando todo como correcto o incorrecto?

  • Si está mayormente correcto → buena señal, continúe
  • Si está completamente equivocado → algo no está bien. Verifique etiquetas incorrectas, verifique el tamaño de ROI, verifique la calidad de la imagen

4. Prueba con Vista previa en vivo

Modo de vista previa en vivo: probando su modelo en tiempo real

Haga clic en Live Preview Mode y haga pasar las piezas. Observe los resultados:

  • ¿Está acertando con casos fáciles?
  • ¿Dónde tiene dificultades?
  • ¿Cuáles son los casos límite?

Tráelo para romperlo. Encuentre los casos en los que falla. Estas fallas son su hoja de ruta para la mejora.

5. Agregue datos dirigidos

No agregue imágenes nuevas al azar. Agregue imágenes que apunten específicamente a los modos de fallo que encontró:

  • Si confunde rayones con reflejos, agregue más ejemplos de ambos
  • Si se le escapan defectos pequeños, agregue más imágenes de defectos pequeños
  • Si falla en las piezas de las esquinas, agregue más ejemplos de esquinas

6. Reentrene y vuelva a probar

Repita los pasos 3-5 de dos a cuatro veces. Cada iteración debería mejorar la precisión.

7. Cambie al Modo de Producción

Cuando el modo de desarrollo funcione razonablemente bien, cambie a Production Mode. Esto toma entre 5 y 10 minutos, pero genera un modelo que es aproximadamente 20x más preciso que el modo de desarrollo.

Si el modo de desarrollo tenía un 80% de aciertos, es probable que el modo de producción alcance el 95% o más.

Augmentaciones: enseñar a la IA a manejar la variación

Las augmentaciones modifican aleatoriamente sus imágenes de entrenamiento durante el proceso de entrenamiento, ajustando el brillo, añadiendo rotación, modificando el contraste, etc. Cada imagen se alimenta a la IA cientos de veces con augmentaciones ligeramente diferentes, pero la etiqueta se mantiene igual.

Esto es increíblemente poderoso para construir robustez. Si su iluminación varía entre turnos, la augmentación de brillo enseña a la IA a manejarla. Si las piezas pueden llegar en cualquier ángulo, la augmentación de rotación hace que la orientación sea irrelevante.

Cuándo usar augmentaciones

AugmentaciónUsar cuando...Escenario de ejemplo
BrilloLa iluminación varía (día/noche, sombras)Las luces generales de la fábrica cambian a lo largo del día
RotaciónLa pieza puede llegar en cualquier ánguloAgujeros de tornillo, donde la orientación no importa
Desenfoque por movimientoLas piezas se mueven rápido o la cámara vibraTransportador de alta velocidad
SaturaciónEl color no forma parte de su inspecciónLa misma pieza en diferentes colores debería pasar igual
ContrasteLa iluminación ambiental fluctúaCambios estacionales de la luz a través de las ventanas

Cuándo NO usar augmentaciones

No aumente lo que está inspeccionando

Este es un arma de doble filo. Si añade rotación, pero está inspeccionando si las piezas están orientadas correctamente, enseñará a la IA que las piezas al revés siguen siendo "buenas".

  • ¿Inspeccionando la consistencia del color? No use la augmentación de saturación
  • ¿Inspeccionando desenfoque/foco? No use la augmentación de desenfoque por movimiento
  • ¿Inspeccionando la orientación? No use la augmentación de rotación

La regla: Aumente todo excepto la propiedad específica que está inspeccionando.

La diversidad de datos importa

Sus datos de entrenamiento deben representar toda la gama de lo que la IA verá en la producción:

  • Diferentes momentos del día (si la iluminación varía)
  • Diferentes lotes de piezas (el acabado de la superficie puede variar ligeramente)
  • Piezas en distintas posiciones dentro del marco
  • Casos fáciles y difíciles

Enfóquese en los casos más difíciles. Si sus datos de entrenamiento incluyen las 10 piezas más difíciles de clasificar, entonces el 90% de las piezas fáciles serán triviales para la IA.

Alta capacidad de aprendizaje

La IA de la cámara OV está diseñada para seguir mejorando con más datos. A diferencia de muchos sistemas de IA que se estancan después de 20 imágenes, este modelo continúa mejorando con 50, 100, incluso 500+ imágenes. Muchas inspecciones funcionan muy bien con 5-10 imágenes, pero si tiene un problema complejo de múltiples defectos, no dude en seguir añadiendo datos.

Acelerar con datos sintéticos: Defect Studio

¿Y si necesita entrenar para un defecto que rara vez ve? ¿Un tornillo faltante que tendría que quitar intencionalmente, un rayón que tendría que crear, una grieta que ocurre una vez por cada mil piezas? Esperar meses para recoger suficientes ejemplos no es práctico.

El OV Auto-Defect Creator Studio en tools.overview.ai resuelve esto. Genera imágenes de defectos sintéticos fotorrealistas, hasta 10,000x más rápido que esperar a que aparezcan defectos reales en la línea de producción.

Cómo funciona: 5 pasos simples

  1. Upload una buena imagen de su pieza
  2. Mark el área donde debe aparecer el defecto
  3. Describe el defecto en inglés sencillo (p. ej., "deep scratch across the surface" o "missing solder joint")
  4. Generate las variaciones del defecto (la IA crea resultados fotorrealistas)
  5. Export las imágenes sintéticas directamente a su conjunto de entrenamiento

Por qué funcionan los datos sintéticos

Las imágenes generadas no son simples artefactos "pegados". Son variaciones fotorrealistas que coinciden con su iluminación real, el ángulo de la cámara y la superficie de la pieza. La IA comprende la física de cómo se ven los defectos bajo sus condiciones de imagen específicas.

Casos de uso:

  • Defectos raros: Entrene para modos de fallo que nunca (o rara vez) ha visto
  • Lanzamientos de nuevos productos: Construya una inspección antes de que la primera pieza defectuosa llegue a la línea
  • Casos límite: Genere ejemplos limítrofes para mejorar el umbral de decisión de la IA
  • Aumento de datos: Suple conjuntos de datos pequeños con variedad sintética

Véalo en acción

Comience con datos reales, acelere con datos sintéticos

El mejor enfoque: entrene con sus 3-5 imágenes reales iniciales, identifique dónde la IA tiene problemas, luego use Defect Studio para generar ejemplos sintéticos dirigidos a esos modos de fallo específicos. Los datos reales enseñan la línea base; los datos sintéticos llenan los vacíos.

Lista de verificación de entrenamiento

Antes de continuar, confirme:

  • Imágenes iniciales capturadas, mínimo 3-5 por clase
  • Todas las etiquetas verificadas (View All ROIs)
  • Modo de desarrollo entrenado y probado con Live Preview
  • Modos de fallo identificados y datos dirigidos añadidos
  • 2-4 iteraciones de etiqueta → entrenamiento → prueba completadas
  • Modo de producción entrenado; resultados cumplen las expectativas

¿El modelo entrenado se ve bien? Pásese a Paso 5: Configuración de salidas.