Saltar al contenido principal

Paso 4: Entrene su modelo de IA

Tiempo: 5–10 minutos

Sus regiones de inspección ya están configuradas. Ahora es momento de enseñar a la IA qué aspecto tiene lo 'bueno' y lo 'malo'.

Las tres reglas cardinales del entrenamiento

Antes de nada, internalice estas tres reglas. Se aplican ya sea que esté entrenando un clasificador o un segmentador, con 5 imágenes o 500.

Regla 1: Etiquetar solo a partir de la imagen

Nunca mire la pieza física (o la coloque bajo un microscopio) para decidir si está buena o mala. Si no puede ver el defecto en la imagen de la cámara, la IA no podrá aprenderlo.

La IA no es magia. Solo puede trabajar con lo que la cámara ve. Si etiqueta una pieza como "defectuosa" basándose en algo que notó al tocarla o al hacer zoom con una lupa, pero la imagen de la cámara se ve bien, está enseñando a la IA a ver algo que no está allí.

Si no puede etiquetarlo a partir de la imagen por sí sola, regrese al paso de instalación y corrija la configuración física: mejor lente, mejor iluminación, montaje más cercano, ángulo diferente.

Regla 2: Verifique sus etiquetas una y otra vez

Los errores de etiquetado le pueden ocurrir a cualquiera; incluso a ingenieros experimentados. Pero una mala etiqueta en un conjunto de datos pequeño puede arruinar sus resultados.

Con 5 imágenes de entrenamiento, una etiqueta incorrecta corrompe el 20% de sus datos de entrenamiento. Eso es catastrófico.

Antes de cada corrida de entrenamiento: haga clic en View All ROIs y verifique cada anotación. Esto es lo más fácil de corregir y lo más impactante.

Regla 3: Empieza pequeño, itera rápido

No etiquete 50 imágenes y luego inicie el entrenamiento. En su lugar, cree un ciclo corto: etiquete 3-5 imágenes por clase, entrene en modo de desarrollo (aproximadamente 30 segundos), pruebe e intente hacer que falle, luego agregue datos dirigidos donde falle. Repita este ciclo 2-4 veces en modo de desarrollo, luego cambie a modo de producción.

Este ciclo es su ruta más rápida hacia un buen modelo. Ejecútelo 2-4 veces en modo de desarrollo, luego cambie a modo de producción.

Flujo de entrenamiento paso a paso

1. Capturar imágenes de entrenamiento inicial

Con su receta activa y las piezas fluyendo (o colocadas manualmente), capture imágenes. Necesita un mínimo de 3-5 imágenes por clase para empezar.

Para una inspección simple de pasa/falla:

  • 3-5 imágenes de piezas buenas
  • 3-5 imágenes de piezas defectuosas

2. Etiquetar las imágenes

Interfaz de etiquetado y entrenamiento

Para cada ROI en cada imagen, asigne la etiqueta de clase correcta:

  • Clasificador: Seleccione la clase desde un desplegable (p. ej., "pass" o "fail")
  • Segmentador: Use la herramienta de pincel para pintar las áreas defectuosas píxel por píxel
La clasificación es más rápida de etiquetar

Si no está seguro de si usar clasificación o segmentación, comience con clasificación. Es mucho más rápido de etiquetar y adecuado para la mayoría de los escenarios de pass/fail. Consulte Classifier vs. Segmenter para orientación.

3. Entrenar en Modo de Desarrollo

Haga clic en Train y seleccione Development Mode. Esto toma aproximadamente 30 segundos y genera un modelo que es aproximadamente 20x menos preciso que el modo de producción, pero es suficiente para verificar la señal.

Qué significa "checking the signal": ¿La IA está empezando a aprender la diferencia entre lo bueno y lo malo? ¿O lo está haciendo todo completamente mal?

  • Si está mayormente correcto → buena señal, siga adelante
  • Si está completamente equivocado → algo está mal. Verifique errores de etiquetado, verifique el tamaño de ROI, verifique la calidad de la imagen

4. Probar con Vista Previa en Vivo

Modo de vista previa en vivo: probado su modelo en tiempo real

Haga clic en Live Preview Mode y pase las piezas a través. Observe los resultados:

  • ¿Están acertando los casos fáciles?
  • ¿Dónde tiene dificultades?
  • ¿Cuáles son los casos límite?

Inténtelo romper. Encuentre los casos en los que falla. Estas fallas son su hoja de ruta para la mejora.

5. Agregar datos dirigidos

No agregue imágenes nuevas al azar. Agregue imágenes específicamente orientadas a los modos de fallo que encontró:

  • Si confunde arañazos con reflejos, agregue más ejemplos de ambos
  • Si se le escapan defectos pequeños, agregue más imágenes de defectos pequeños
  • Si falla en piezas en las esquinas, agregue más ejemplos de esquinas

6. Reentrenar y volver a probar

Repita los pasos 3-5 entre dos y cuatro veces. Cada iteración debería mejorar la precisión.

7. Cambiar a Modo de Producción

Cuando el modo de desarrollo funcione razonablemente bien, cambie a Production Mode. Esto toma entre 5 y 10 minutos, pero genera un modelo aproximadamente 20x más preciso que el modo de desarrollo.

Si el modo de desarrollo acertaba alrededor del 80% de los casos, es probable que el modo de producción alcance el 95% o más.

Aumentaciones: enseñar a la IA a manejar variación

Las aumentaciones modifican aleatoriamente sus imágenes de entrenamiento durante el proceso de entrenamiento, ajustando el brillo, añadiendo rotación, modificando el contraste, etc. Cada imagen se alimenta a la IA cientos de veces con aumentaciones ligeramente diferentes, pero la etiqueta permanece igual.

Esto es increíblemente poderoso para construir robustez frente a variaciones. Si la iluminación varía entre turnos, la aumentación de brillo enseña a la IA a manejarla. Si las piezas pueden llegar en cualquier ángulo, la aumentación de rotación hace que la orientación sea irrelevante.

Cuándo usar aumentaciones

AumentoUsar cuando...Escenario de ejemplo
BrilloLa iluminación varía (día/noche, sombras)Las luces generales de la fábrica cambian a lo largo del día
RotaciónLa pieza puede llegar en cualquier ánguloAgujeros de tornillo, donde la orientación no importa
Desenfoque por movimientoLas piezas se mueven rápido o la cámara tiemblaCinta transportadora de alta velocidad
SaturaciónEl color no forma parte de su inspecciónLa misma pieza en diferentes colores debe pasar por igual
ContrasteLa iluminación ambiental fluctúaCambios de luz estacionales a través de las ventanas

Cuándo NO usar aumentaciones

No aumentes lo que estás inspeccionando

Este es un arma de doble filo. Si añades aumentación de rotación pero estás inspeccionando si las piezas están orientadas correctamente, enseñarás a la IA que las piezas al revés siguen siendo "buenas".

  • ¿Inspeccionando la consistencia de color? No use la aumentación de saturación
  • ¿Inspeccionando desenfoque/foco? No use la aumentación de desenfoque por movimiento
  • ¿Inspeccionando orientación? No use la aumentación de rotación La regla: Aumenta todo excepto la propiedad específica que estás inspeccionando.

La diversidad de datos importa

Tus datos de entrenamiento deben representar toda la gama de lo que la IA verá en producción:

  • Diferentes momentos del día (si la iluminación varía)
  • Diferentes lotes de piezas (el acabado de la superficie puede variar ligeramente)
  • Piezas en diferentes posiciones dentro del marco
  • Casos fáciles y difíciles

Concentra tus esfuerzos en los casos más difíciles. Si tus datos de entrenamiento incluyen las 10 piezas más difíciles de clasificar, entonces el 90% de las piezas fáciles serán triviales para la IA.

Alta capacidad de aprendizaje

La IA de la cámara OV está diseñada para seguir mejorando con más datos. A diferencia de muchos sistemas de IA que se estancan tras 20 imágenes, este modelo continúa mejorando con 50, 100 e incluso 500+ imágenes. La mayoría de las inspecciones funcionan muy bien con 5-10 imágenes, pero si tienes un problema complejo de múltiples defectos, no dudes en seguir añadiendo datos.

Acelere con datos sintéticos: Defect Studio

¿Qué pasa si necesita entrenar para un defecto que rara vez ve? Un tornillo ausente que tendría que quitar intencionalmente, un rasguño que tendría que crear, una grieta que ocurre una vez por cada mil piezas. ¿Esperar meses para recoger suficientes ejemplos no es práctico?

El OV Auto-Defect Creator Studio en tools.overview.ai resuelve esto. Genera imágenes de defectos sintéticos fotorrealistas, hasta 10,000x más rápido que esperar a que aparezcan defectos reales en la línea de producción.

Cómo funciona: 5 pasos simples

  1. Subir una buena imagen de su pieza
  2. Marcar el área donde debería aparecer el defecto
  3. Describir el defecto en inglés sencillo (p. ej., "deep scratch across the surface" o "missing solder joint")
  4. Generar las variaciones del defecto (la IA genera resultados fotorrealistas)
  5. Exportar las imágenes sintéticas directamente a su conjunto de entrenamiento

Por qué funcionan los datos sintéticos

Las imágenes generadas no son simples artefactos pegados. Son variaciones fotorrealistas que coinciden con su iluminación real, ángulo de la cámara y la superficie de la pieza. La IA entiende la física de cómo se ven los defectos bajo sus condiciones de captura específicas.

Casos de uso

  • Defectos raros: Entrene para modos de fallo que nunca (o rara vez) ha visto
  • Lanzamientos de nuevos productos: Construya una inspección antes de que salga la primera pieza defectuosa de la línea
  • Casos límite: Genere ejemplos limítrofes para mejorar la frontera de decisión de la IA
  • Aumento de datos: Suple conjuntos de datos pequeños con variedad sintética

Véalo en acción

Comience con datos reales, acelere con sintéticos

El mejor enfoque: entrene con sus 3-5 imágenes reales iniciales primero, identifique dónde la IA tiene dificultades, luego use Defect Studio para generar ejemplos sintéticos dirigidos a esos modos de fallo específicos. Los datos reales enseñan la línea base; los datos sintéticos llenan los vacíos.

Lista de verificación de entrenamiento

Antes de continuar, confirme:

  • Imágenes iniciales capturadas, mínimo 3-5 por clase
  • Todas las etiquetas revisadas (View All ROIs)
  • Modo de desarrollo entrenado y probado con Live Preview
  • Modos de fallo identificados y datos dirigidos añadidos
  • 2-4 iteraciones de etiquetado → entrenamiento → prueba completadas
  • Modo de producción entrenado; los resultados cumplen las expectativas

¿El modelo está entrenado y funcionando bien? Avance a Paso 5: Configuración de salidas.