Paso 4: Entrene su modelo de IA
Tiempo: 5–10 minutos
Sus regiones de inspección están configuradas. Ahora es el momento de enseñar a la IA qué significa "bueno" y qué significa "malo".
Las tres reglas cardinales del entrenamiento
Antes que nada, internalice estas tres reglas. Se aplican ya sea que esté entrenando un clasificador o un segmentador, con 5 imágenes o 500.
Regla 1: Etiquetar a partir de la imagen únicamente
Nunca mire la pieza física (o póngala under un microscopio) para decidir si es buena o mala. Si no puede ver el defecto en la imagen de la cámara, la IA no puede aprenderlo.
La IA no es magia. Sólo puede trabajar con lo que la cámara ve. Si etiqueta una pieza como "defectuosa" basándose en algo que observó al tocarla o al hacer zoom con una lupa, pero la imagen de la cámara se ve bien, está enseñando a la IA a ver algo que no está allí.
Si no puede etiquetarlo a partir de la imagen únicamente, regrese al paso de Instalación y corrija la configuración física: mejor lente, mejor iluminación, montaje más cercano, ángulo distinto.
Regla 2: Verifique doble y triple sus etiquetas
Los errores de etiquetado le pueden ocurrir a cualquiera; incluso ingenieros experimentados los cometen. Pero una etiqueta incorrecta en un conjunto de datos pequeño puede arruinar sus resultados.
Con 5 imágenes de entrenamiento, una etiqueta mal puesta corrompe el 20% de sus datos de entrenamiento. Eso es catastrófico.
Antes de cada corrida de entrenamiento: haga clic en View All ROIs y verifique cada anotación. Esto es lo más fácil de arreglar y de mayor impacto.
Regla 3: Comience pequeño, iteré rápido
No etiquete 50 imágenes y luego inicie el entrenamiento. En su lugar, cree un ciclo corto: etiquete 3-5 imágenes por clase, entrene en Development Mode (aproximadamente 30 segundos), pruebe y trate de romperlo, luego agregue datos dirigidos donde falle. Repita este ciclo 2-4 veces en Development Mode, luego cambie a Production Mode.
Este ciclo es su camino más rápido hacia un buen modelo. Ejecútelo 2-4 veces en Development Mode y luego pase a Production Mode.
Flujo de entrenamiento paso a paso
1. Capture imágenes de entrenamiento iniciales
Con su receta activa y el flujo de piezas (o colocadas manualmente), capture imágenes. Necesita un mínimo de 3-5 imágenes por clase para empezar.
Para una inspección simple de pasada/fallo:
- 3-5 imágenes de piezas buenas
- 3-5 imágenes de piezas defectuosas
2. Etiquetar las imágenes

Para cada ROI en cada imagen, asigne la etiqueta de clase correcta:
- Clasificador: Seleccione la clase desde un desplegable (p. ej., "pass" o "fail")
- Segmentador: Use la herramienta de pincel para pintar las áreas defectuosas píxel por píxel
Si no está seguro de si usar clasificación o segmentación, comience con clasificación. Es mucho más rápido de etiquetar y funciona bien para la mayoría de escenarios de pass/fail. Ver Classifier vs. Segmenter para orientación.
3. Entrenar en Development Mode
Haga clic en Train y seleccione Development Mode. Esto toma aproximadamente 30 segundos y genera un modelo que es aproximadamente 20x menos preciso que la producción, pero es suficiente para verificar la señal.
Qué significa "verificar la señal": ¿La IA está empezando a aprender la diferencia entre bueno y malo? ¿O está entendiendo todo mal?
- Si está mayormente correcto → buena señal, siga adelante
- Si está completamente wrong → algo está fallando. Verifique etiquetas erróneas, verifique el tamaño de ROI, verifique la calidad de la imagen
4. Probar con Live Preview

Haga clic en Live Preview Mode y haga pasar las piezas. Observe los resultados:
- ¿Está manejando correctamente los casos fáciles?
- ¿Dónde tiene dificultades?
- ¿Cuáles son los casos límite?
Intente romperlo. Encuentre los casos en los que falla. Estas fallas son su hoja de ruta para la mejora.
5. Agregar datos dirigidos
No agregue imágenes nuevas al azar. Agregue imágenes que apunten específicamente a los modos de fallo que encontró:
- Si confunde rayones con reflejos, agregue más ejemplos de ambos
- Si pasa por alto defectos pequeños, agregue más imágenes de defectos pequeños
- Si falla en piezas en las esquinas, agregue más ejemplos en las esquinas
6. Reentrenar y retestar
Repita los pasos 3-5 de dos a cuatro veces. Cada iteración debe mejorar la precisión.
7. Cambiar a Production Mode
Cuando Development Mode funcione razonablemente bien, cambie a Production Mode. Esto toma entre 5 y 10 minutos pero produce un modelo que es aproximadamente 20x más preciso que Development Mode.
Si Development Mode estaba acertando en el 80% de los casos, Production Mode probablemente acertará en el 95% o más.
Aumentaciones: enseñar a la IA a manejar la variación
Aumentaciones modifican aleatoriamente sus imágenes de entrenamiento durante el proceso, ajustando el brillo, añadiendo rotación, ajustando el contraste, etc. Cada imagen se alimenta a la IA cientos de veces con aumentaciones ligeramente diferentes, pero la etiqueta permanece igual.
Esto es increíblemente poderoso para construir robustez. Si su iluminación varía entre turnos, la aumentación de brillo enseña a la IA a manejarlo. Si las piezas pueden llegar en cualquier ángulo, la aumentación de rotación hace que la orientación sea irrelevante.
Cuándo usar aumentaciones
| Aumento | Usar cuando... | Escenario de ejemplo |
|---|---|---|
| Brillo | La iluminación varía (día/noche, sombras) | Las luces sobre la línea de la fábrica cambian a lo largo del día |
| Rotación | La pieza puede llegar en cualquier ángulo | Orificios de tornillo, donde la orientación no importa |
| Desenfoque de movimiento | Las piezas se mueven rápido o la cámara tiembla | Correa transportadora de alta velocidad |
| Saturación | El color no forma parte de su inspección | La misma pieza en diferentes colores debería pasar igualmente |
| Contraste | La iluminación ambiental fluctúa | Cambios estacionales de luz a través de las ventanas |
Cuándo NO usar aumentaciones
Esto es una espada de doble filo. Si añades aumentación de rotación pero estás inspeccionando si las piezas están orientadas correctamente, enseñarás a la IA que las piezas al revés siguen siendo "buenas".
- ¿Inspeccionando consistencia de color? No uses aumentación de saturación
- ¿Inspeccionando desenfoque/buen enfoque? No uses aumentación de desenfoque de movimiento
- ¿Inspeccionando la orientación? No uses aumentación de rotación
La regla: Aumente todo excepto la propiedad específica que está inspeccionando.
La diversidad de datos importa
Sus datos de entrenamiento deben representar la gama completa de lo que la IA verá en producción:
- Diferentes momentos del día (si la iluminación varía)
- Diferentes lotes de piezas (el acabado de la superficie puede variar ligeramente)
- Piezas en distintas posiciones dentro del marco
- Casos fáciles y difíciles
Enfoque en los casos más difíciles. Si sus datos de entrenamiento incluyen las 10 piezas más difíciles de clasificar, entonces el 90% de las piezas fáciles serán triviales para la IA.
Alta capacidad de aprendizaje
La IA de la cámara OV está diseñada para seguir mejorando con más datos. A diferencia de muchos sistemas de IA que se estancan después de 20 imágenes, este modelo continúa mejorando con 50, 100, e incluso 500+ imágenes. La mayoría de las inspecciones funcionan muy bien con 5-10 imágenes, pero si tiene un problema complejo de múltiples defectos, no dude en seguir añadiendo datos.
Acelerar con datos sintéticos: Defect Studio
¿Y si necesita entrenar para un defecto que rara vez ve? Un tornillo faltante que tendría que quitar intencionalmente, un rayón que tendría que crear, una grieta que ocurre una vez por cada mil piezas? Esperar meses para recolectar suficientes ejemplos no es práctico.
The OV Auto-Defect Creator Studio en tools.overview.ai resuelve esto. Genera imágenes de defectos sintéticos fotorrealistas, hasta 10,000x más rápido que esperar a que aparezcan defectos reales en la línea de producción.
Cómo funciona: 5 pasos simples
- Subir una buena imagen de su pieza
- Marcar el área donde debe aparecer el defecto
- Describir el defecto en inglés sencillo (p. ej., "rasguño profundo en la superficie" o "soldadura faltante")
- Generar las variaciones del defecto (la IA crea resultados fotorrealistas)
- Exportar las imágenes sintéticas directamente a su conjunto de entrenamiento
Por qué funcionan los datos sintéticos
Las imágenes generadas no son meros artefactos "pegados". Son variaciones fotorrealistas que coinciden con su iluminación real, ángulo de la cámara y la superficie de la pieza. La IA comprende la física de cómo se ven los defectos bajo sus condiciones de captura específicas.
Casos de uso:
- Defectos raros: Entrene para modos de fallo que nunca (o raramente) ha visto
- Lanzamientos de nuevos productos: Construya una inspección antes de que salga la primera pieza defectuosa de la línea
- Casos límite: Genere ejemplos limítrofes para mejorar el borde de decisión de la IA
- Aumento de datos: Suple conjuntos de datos pequeños con variabilidad sintética
Vea en acción
La mejor estrategia: entrene con sus 3-5 imágenes reales iniciales, identifique dónde la IA tiene problemas y luego use Defect Studio para generar ejemplos sintéticos focalizados en esos modos de fallo específicos. Los datos reales enseñan la línea base; los datos sintéticos llenan los vacíos.
Lista de verificación de entrenamiento
Antes de continuar, confirme:
- Imágenes iniciales capturadas, mínimo 3-5 por clase
- Todas las etiquetas verificadas (Ver todas las ROI)
- Modo Development entrenado y probado con Live Preview
- Modos de fallo identificados y datos dirigidos añadidos
- 2-4 iteraciones de etiqueta → entrenamiento → prueba completadas
- Modo Production entrenado; los resultados cumplen con las expectativas
¿Modelo entrenado y se ve bien? Pase al Step 5: Setting Up Outputs.