DOCUMENTACIÓN CON IA
¿Qué desea saber?
Paso 4: Entrenar Su Modelo de IA
Sus regiones de interés (ROIs) están configuradas. Ahora es momento de enseñarle a la IA cómo se ve lo "bueno" y lo "malo".
Las tres reglas cardinales del entrenamiento
Antes que nada, internalice estas tres reglas. Aplican ya sea que esté entrenando un clasificador o un segmentador, con 5 imágenes o 500.
Regla 1: Etiquete solo a partir de la imagen
Nunca observe la pieza física (ni la coloque bajo un microscopio) para decidir si es buena o mala. Si no puede ver el defecto en la imagen de la cámara, la IA no puede aprenderlo.
La IA no es magia. Solo puede trabajar con lo que la cámara ve. Si etiqueta una pieza como "defectuosa" basándose en algo que notó al tocarla o al hacer zoom con una lupa, pero la imagen de la cámara se ve bien, está enseñándole a la IA a ver algo que no está ahí.
Si no puede etiquetarla solo a partir de la imagen, regrese al paso de Instalación y corrija la configuración física: mejor lente, mejor iluminación, montaje más cercano, ángulo diferente.
Regla 2: Verifique sus etiquetas dos y tres veces
Las etiquetas incorrectas le ocurren a todos; los ingenieros experimentados también lo hacen. Pero una mala etiqueta en un conjunto de datos pequeño puede destruir sus resultados.
Con 5 imágenes de entrenamiento, una etiqueta incorrecta corrompe el 20% de sus datos de entrenamiento. Eso es catastrófico.
Antes de cada ejecución de entrenamiento: Haga clic en Ver Todas las ROIs y verifique cada anotación. Esto es lo más fácil de corregir y lo de mayor impacto.
Regla 3: Comience poco a poco, itere rápido
No etiquete 50 imágenes y pulse entrenar. En su lugar, cree un ciclo cerrado: Etiquete 10-15 imágenes por clase, entrene (aproximadamente 30 segundos), pruebe e intente romperlo, luego agregue datos específicos donde falle. Repita este ciclo de 2 a 4 veces.
Este ciclo es su camino más rápido hacia un buen modelo.
Flujo de trabajo de entrenamiento paso a paso
1. Capture imágenes iniciales de entrenamiento
Con su receta activa y las piezas en flujo (o colocadas manualmente), capture imágenes. Necesita un mínimo de 10-15 imágenes por clase para comenzar.
Para una inspección simple de aprobado/rechazado:
- 10-15 imágenes de piezas buenas
- 10-15 imágenes de piezas defectuosas
2. Defina sus clases
Elija el tipo de modelo que está entrenando, luego lea las instrucciones correspondientes. El selector de abajo se mantiene sincronizado entre el Paso 2 y el Paso 3, y su elección se preserva en la URL para que sobreviva a una recarga o al compartirla.
- Classifier
- Segmenter
En la interfaz de etiquetado, agregue las clases que necesita cada tipo de inspección. Conjuntos de clases comunes para clasificadores:
- Aprobar / Fallar
- Presente / Ausente
- Bueno / Rayado / Agrietado
Manténgalo simple al principio. Siempre puede agregar clases después.
En la interfaz de etiquetado, agregue clases para los defectos (o características) que quiere que la IA enmascare. Conjuntos de clases comunes para segmentadores:
- Defecto / Fondo
- Rayón / Grieta / Mancha
- Primer plano / Fondo
Mantenga la lista de clases corta al principio. Cada clase necesita su propio color de pincel y sus propios ejemplos etiquetados, por lo que agregar más clases desde el inicio multiplica su trabajo de etiquetado.
3. Etiquetar las imágenes
- Classifier
- Segmenter

Cada ROI obtiene su propia clase de clasificación — seleccione la clase que describa ese ROI en esa imagen (por ejemplo, "pass" o "fail").
Si no está seguro de si usar clasificación o segmentación, comience con la clasificación. Es mucho más rápida de etiquetar y es buena para la mayoría de los escenarios de aprobado/rechazado. Consulte Classifier vs. Segmenter para obtener orientación.

Para cada ROI en cada imagen, utilice la herramienta de pincel para pintar las áreas defectuosas píxel por píxel. Las regiones pintadas son las que la AI aprende a detectar — todo lo que no pinte se trata como fondo.
Las etiquetas del segmentador requieren trabajo de pincel a nivel de píxel, lo cual es más lento que las selecciones desplegables del clasificador, pero le brindan mapas de defectos precisos con ubicación y forma. Comience con un pequeño conjunto de defectos claramente definidos y solo agregue más clases una vez que su primer modelo esté funcionando.
4. Entrenar el modelo
- Classifier
- Segmenter
Haga clic en Entrenar. El clasificador ofrece dos modos de entrenamiento:
- Modo rápido — alrededor de 30 segundos a un minuto. Ideal para una iteración rápida durante la configuración, verificación de la coherencia de sus etiquetas y piezas fáciles/bien diferenciadas. La precisión es menor que la del modo de producción, pero le permite ver la señal rápidamente.
- Modo de producción — toma más tiempo, pero produce un modelo notablemente más preciso. Siempre use el modo de producción antes de desplegar en la línea. Para piezas complicadas, defectos difíciles de distinguir o cualquier cosa en la que vaya a confiar en producción, el modo de producción es la respuesta correcta.
Un buen ritmo: itere en modo rápido mientras limpia las etiquetas y agrega datos, luego ejecute el modo de producción una vez que el resultado se vea bien — y nuevamente antes de desplegar.
Haga clic en Entrenar. La segmentación solo tiene un modo de entrenamiento — Producción — porque las máscaras a nivel de píxel necesitan el paso de entrenamiento más exhaustivo para ser confiables. El tiempo de entrenamiento aumenta con el número de imágenes y el número de ROIs que haya etiquetado, por lo que un conjunto inicial pequeño (10-15 imágenes por clase) se entrena en unos minutos; los conjuntos de datos más grandes toman más tiempo.
No hay una opción de "verificación rápida" aquí, así que asegúrese de que sus etiquetas estén limpias antes de entrenar (use Ver todos los ROIs para revisar cada máscara).
5. Probar con Vista Previa en Vivo
Haga clic en Modo de Vista Previa en Vivo y haga pasar piezas. Observe los resultados:
- ¿Está acertando en los casos fáciles?
- ¿Dónde tiene dificultades?
- ¿Cuáles son los casos límite?
Intente romperlo. Encuentre los casos en los que falla. Estas fallas son su hoja de ruta para la mejora.
- Classifier
- Segmenter

El panel de prueba muestra la clase predicha y el puntaje de confianza para cada ROI. Ejecute algunas capturas y busque veredictos de baja confianza (a menudo por debajo del 70%) — esos son sus casos límite y las piezas que más vale la pena etiquetar a continuación.

La Vista Previa en Vivo superpone la máscara de defecto predicha directamente sobre la imagen. Esté atento a máscaras que sean demasiado pequeñas, demasiado grandes o que aparezcan donde no hay un defecto real — esos son los modos de falla que abordará con la siguiente ronda de datos etiquetados.
6. Agregue datos específicos
No agregue imágenes nuevas al azar. Agregue imágenes que se enfoquen específicamente en los modos de falla que encontró:
- Si confunde rayones con reflejos, agregue más ejemplos de ambos
- Si pasa por alto defectos pequeños, agregue más imágenes de defectos pequeños
- Si falla en piezas que están en las esquinas, agregue más ejemplos de esquinas
7. Reentrene y vuelva a probar
Repita los pasos 4-6 de dos a cuatro veces. Cada iteración debería mejorar la precisión. Para un recorrido más detallado, que incluye cómo agregar imágenes nuevas a un modelo existente sin perder su entrenamiento previo, consulte Añadiendo Datos y Reentrenamiento.
Aumentos de datos: enseñando a la AI a manejar la variación
Los aumentos de datos modifican aleatoriamente sus imágenes de entrenamiento durante el proceso de entrenamiento, ajustando el brillo, agregando rotación, modificando el contraste, etc. Cada imagen se introduce en la AI cientos de veces con aumentos de datos ligeramente diferentes, pero la etiqueta permanece igual. Así es como se hace que un modelo sea robusto frente a las condiciones del mundo real sin tener que capturar un ejemplo de cada posible variación.
Qué activar por defecto
Casi siempre vale la pena activar una pequeña cantidad de variación de brillo: incluso la fábrica más controlada tiene luces cenitales que parpadean, sombras que cambian a lo largo del turno y una ligera deriva de los LED con el tiempo. El aumento de brillo hace que el modelo sea resistente a todo eso prácticamente sin costo.
Rotación: útil, pero cuide la forma de su ROI
El aumento de rotación es excelente si sus piezas realmente pueden llegar en diferentes ángulos (tornillos sueltos en un transportador, piezas colocadas a mano, cualquier cosa que no esté sujeta en una fijación). Pero interactúa con la forma del ROI:
- ROI cuadrado: el aumento de rotación funciona limpiamente: la imagen rotada todavía cabe dentro del cuadro del ROI.
- ROI no cuadrado en un clasificador: la rotación puede recortar la imagen. Cuando un ROI alto y estrecho se rota 45°, las esquinas del contenido rotado quedan fuera del cuadro y el modelo se entrena con una imagen parcial. Si su pieza puede rotar, ya sea haga el ROI cuadrado o dependa del alineador para manejar la rotación aguas arriba, de modo que no necesite el aumento de rotación aquí.
- Segmentador: aplica la misma preocupación de recorte, pero la segmentación es menos sensible porque aprende a partir de máscaras de píxeles en lugar de toda la forma del ROI.
Cuándo NO usar un aumento de datos específico
La regla general: no aumente la propiedad que está inspeccionando. Si está intentando detectar la orientación, el aumento de rotación le enseñará al modelo que las piezas al revés también son "buenas".
- ¿Inspeccionando consistencia de color? No use aumento de saturación.
- ¿Inspeccionando desenfoque/enfoque? No use aumento de desenfoque de movimiento.
- ¿Inspeccionando orientación? No use aumento de rotación (y probablemente tampoco use el alineador).
La diversidad de datos importa
Sus datos de entrenamiento deben representar el rango completo de lo que la AI verá en producción:
- Diferentes horas del día (si la iluminación varía)
- Diferentes lotes de piezas (el acabado de la superficie puede variar ligeramente)
- Piezas en diferentes posiciones dentro del cuadro
- Casos tanto fáciles como difíciles
Enfóquese en los casos más difíciles. Si sus datos de entrenamiento incluyen las 10 piezas más difíciles de clasificar, entonces el 90% de las piezas fáciles serán triviales para la AI.
Alta capacidad de aprendizaje
La AI de la cámara OV está diseñada para seguir mejorando con más datos. A diferencia de muchos sistemas de AI que se estancan después de 20 imágenes, este modelo continúa mejorando con 50, 100, incluso más de 500 imágenes. La mayoría de las inspecciones funcionan muy bien con 5-10 imágenes, pero si tiene un problema complejo de múltiples defectos, no dude en seguir agregando datos.
Acelere con datos sintéticos: Defect Studio
¿Qué pasa si necesita entrenar para un defecto que rara vez ve? ¿Un tornillo faltante que tendría que retirar intencionalmente, un rayón que tendría que crear, una grieta que ocurre una vez cada mil piezas? Esperar meses para recolectar suficientes ejemplos no es práctico.
El OV Auto-Defect Creator Studio en tools.overview.ai resuelve esto. Genera imágenes sintéticas fotorrealistas de defectos, hasta 10,000 veces más rápido que esperar a que aparezcan defectos reales en la línea de producción.
Cómo funciona: 5 pasos sencillos
- Cargue una imagen buena de su pieza
- Marque el área donde debería aparecer el defecto
- Describa el defecto en inglés sencillo (por ejemplo, "deep scratch across the surface" o "missing solder joint")
- Genere las variaciones del defecto (la AI crea resultados fotorrealistas)
- Exporte las imágenes sintéticas directamente a su conjunto de entrenamiento
Por qué funcionan los datos sintéticos
Las imágenes generadas no son simplemente artefactos "pegados". Son variaciones fotorrealistas que coinciden con su iluminación real, ángulo de cámara y superficie de la pieza. La AI comprende la física de cómo se ven los defectos bajo sus condiciones específicas de imagen.
Casos de uso:
- Defectos raros: Entrene para modos de falla que nunca (o rara vez) ha visto
- Lanzamientos de nuevos productos: Construya una inspección antes de que la primera pieza defectuosa salga de la línea
- Casos límite: Genere ejemplos limítrofes para mejorar el límite de decisión de la AI
- Aumento de datos: Complemente conjuntos de datos pequeños con variedad sintética
Véalo en acción
El mejor enfoque: entrene primero con sus 3-5 imágenes reales iniciales, identifique dónde la AI tiene dificultades, luego use Defect Studio para generar ejemplos sintéticos dirigidos a esos modos de falla específicos. Los datos reales enseñan la línea base; los datos sintéticos llenan los vacíos.
Lista de verificación de entrenamiento
Antes de continuar, confirme:
- Imágenes iniciales capturadas, mínimo 10-15 por clase
- Todas las etiquetas verificadas dos veces (View All ROIs)
- Entrenado y probado con Vista Previa en Vivo
- Modos de falla identificados y datos dirigidos agregados
- 2-4 iteraciones de etiquetar → entrenar → probar completadas
- Los resultados cumplen con las expectativas
¿Modelo entrenado y se ve bien? Pase al Paso 5: Configuración de Salidas.