ES2970391T3 - Sistemas, dispositivos y métodos para detectar fertilidad y género de huevos sin eclosionar - Google Patents

Sistemas, dispositivos y métodos para detectar fertilidad y género de huevos sin eclosionar Download PDF

Info

Publication number
ES2970391T3
ES2970391T3 ES16751842T ES16751842T ES2970391T3 ES 2970391 T3 ES2970391 T3 ES 2970391T3 ES 16751842 T ES16751842 T ES 16751842T ES 16751842 T ES16751842 T ES 16751842T ES 2970391 T3 ES2970391 T3 ES 2970391T3
Authority
ES
Spain
Prior art keywords
image
egg
unhatched
images
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES16751842T
Other languages
English (en)
Inventor
Michael Ngadi
Li Liu
Chen Zheng
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Matrixspec Solutions Inc
Original Assignee
Matrixspec Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matrixspec Solutions Inc filed Critical Matrixspec Solutions Inc
Application granted granted Critical
Publication of ES2970391T3 publication Critical patent/ES2970391T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K43/00Testing, sorting or cleaning eggs ; Conveying devices ; Pick-up devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30044Fetus; Embryo
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Environmental Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Quality & Reliability (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Animal Husbandry (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Biomedical Technology (AREA)
  • Signal Processing (AREA)

Abstract

Se divulgan sistemas, dispositivos y métodos para detectar características de un huevo no eclosionado. Se obtiene un conjunto de imágenes de un huevo no eclosionado, donde cada una de las imágenes espectrales se obtiene en un rango de longitud de onda particular. El conjunto de imágenes se procesa para extraer características de la imagen, donde las características de la imagen incluyen una característica de textura de la imagen. Las características de la imagen extraída se procesan para clasificar el huevo no eclosionado según al menos una característica. La al menos una característica puede incluir fertilidad y/o género. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Sistemas, dispositivos y métodos para detectar fertilidad y género de huevos sin eclosionar
Campo
La presente se refiere a la detección de la fertilidad y/o el sexo de huevos sin eclosionar, y más particularmente, a la detección automatizada de la fertilidad y/o el sexo de huevos sin eclosionar mediante el uso de datos de imagen.
Antecedentes
Solo aproximadamente del 60 al 90 % de los huevos incubados eclosionan en criaderos comerciales. Huevos no eclosionados incluyen huevos infértiles o huevos fértiles en los que los embriones habían muerto durante la incubación. Los huevos infértiles, que generalmente comprenden hasta el 25 % de todos los huevos, pueden encontrar aplicaciones útiles como huevos de mesa comercial o materia prima de bajo grado si se detectan temprano y aíslan en consecuencia antes de la incubación. El descarte de huevos no incubables ha planteado consistentemente importantes problemas de eliminación para los criaderos, especialmente en el caso de huevos explosivos en una cabina de incubación, lo que resulta en una alta tendencia a transferir infestaciones de moho y bacterias a otros huevos. Por lo tanto, la identificación y el aislamiento de huevos infértiles tienen importantes implicaciones económicas y de seguridad para las reproductoras comerciales de pollo de engorde.
La verificación al trasluz es una técnica que ilumina el interior del huevo con el fin de detectar huevos muertos o infértiles. Sin embargo, la verificación al trasluz es laboriosa y propensa a errores. Los estudios han demostrado que solo el 5 % de los huevos totales se pueden verificar al trasluz después de diez días de incubación. La dificultad de separar los huevos no fértiles del 95 % restante de los huevos hace que esta técnica no sea adoptable para operaciones industriales y a gran escala.
El sexo de los huevos fértiles también está entre las características de los huevos de interés para la industria de las aves de corral. En la industria de las ponedoras, los polluelos se sexan al nacer y los que son hembra (que pondrán huevos) se consideran primordiales, mientras que los que son macho se sacrifican. El caso opuesto es el caso con la industria de aves de engorde en la que las especies macho son cruciales. En cualquier caso, el descarte de los polluelos no deseados crea graves cuellos de botella en cuanto a la eliminación de desechos y los problemas de bienestar animal.
Se han usado varios enfoques para determinar el género de los huevos fértiles basados en ensayos moleculares y hormonales que son laboriosos e invasivos por naturaleza. Las técnicas son de uso limitado en la industria, ya que son inadecuadas para aplicaciones automatizadas de alto rendimiento.
Otros enfoques han utilizado la visión y espectroscopía por ordenador para determinar el sexo y/o la fertilidad de los huevos sin eclosionar. Sin embargo, tales enfoques han sufrido diversos inconvenientes, que incluyen, por ejemplo, un rendimiento deficiente en huevos marrones, que se limitan en los datos considerados (por ejemplo, limitados a datos espaciales o limitados a datos espectrales), que se ensayan solo en huevos fertilizados artificialmente, etc. El artículo L. Liu ET AL: “ Detecting Fertility and Early Embryo Development of Chicken Eggs Using Near-Infrared Hyperspectral Imaging” , Food and Bioprocess Technology, vol. 6, n.° 9, 2 agosto 2012 (2012-08-02), pp. 2503-2513, es un estudio sobre las capacidades discriminatorias de un sistema que usa características de textura extraídas de imágenes hiperespectrales de huevos de pollo para predecir la fertilidad de los huevos y la viabilidad del embrión.
Por lo tanto, existe la necesidad de una tecnología mejorada para detectar el sexo y/o la fertilidad de los huevos sin eclosionar.
Resumen
Según un primer aspecto, se proporciona un método implementado por ordenador para detectar una característica del huevo sin eclosionar. El método incluye recibir, por al menos un procesador usando un transceptor, un conjunto de imágenes espectrales de un huevo sin eclosionar, cada una de las imágenes espectrales obtenidas en un intervalo de longitud de onda particular, el conjunto de imágenes espectrales que forman una señal tridimensional, combinar, mediante el al menos un procesador, un subconjunto seleccionado del conjunto de imágenes espectrales en una imagen fusionada, comprendiendo el subconjunto seleccionado un subconjunto diferente al del conjunto recibido de imágenes espectrales; procesar, el al menos un procesador, la imagen fusionada para extraer características de imagen, incluyendo las características de imagen características de textura de imagen que describen información espacial y espectral de la imagen fusionada o una región de la imagen fusionada, incluyendo las características de textura de imagen una característica de textura de imagen que tiene información asociada con una distribución espacial de variaciones tonales dentro del intervalo de longitud de onda particular; procesar, por el al menos un procesador, las características de imagen extraídas para clasificar el huevo sin eclosionar según al menos una característica seleccionada del grupo que consiste en el género del huevo sin eclosionar y la fertilidad del huevo sin eclosionar; y transmitir, por el al menos un procesador, mediante el uso de un transceptor, las señales de datos de los resultados del huevo sin eclosionar clasificados.
Según un segundo aspecto, se proporciona un dispositivo dispuesto para realizar los pasos del primer aspecto, comprendiendo el dispositivo: una interfaz de formación de imágenes dispuesta para recibir el conjunto de imágenes espectrales del huevo sin eclosionar; un extractor de características dispuesto para procesar la imagen fundida para extraer características de imagen; y un clasificador dispuesto para procesar las características de imagen extraídas para clasificar el huevo sin eclosionar; en donde el dispositivo transmite una señal de control para accionar un aparato según el huevo no eclosionado clasificado.
Según un tercer aspecto, se proporciona un sistema para detectar una característica del huevo sin eclosionar. El sistema incluye el dispositivo del segundo aspecto, un dispositivo de formación de imágenes para capturar un conjunto de imágenes de un huevo sin eclosionar, el dispositivo de formación de imágenes que se proporciona en comunicación con la interfaz de formación de imágenes; el al menos un procesador en comunicación con el dispositivo de formación de imágenes. El al menos un procesador está configurado para: procesar la imagen fusionada; y procesar las características de imagen extraídas para clasificar el huevo sin eclosionar según al menos una característica; y un sistema de accionamiento para accionar un aparato según el huevo no eclosionado clasificado.
El huevo sin eclosionar puede ser un huevo blanco.
El huevo sin eclosionar puede ser un huevo marrón.
Muchas características adicionales y combinaciones de las mismas con respecto a las realizaciones descritas en la presente memoria aparecerán para los expertos en la técnica después de una lectura de la presente descripción.Descripción de las figuras
En las figuras,
la Figura 1 es un diagrama de bloques de alto nivel de un sistema de detección, interconectado con un sistema de formación de imágenes, a modo de ejemplo de una realización;
la Figura 2 es un diagrama de flujo de la clasificación de PLSR con un umbral óptico, como puede implementarse mediante el sistema de detección de la Figura 1, ejemplo de una realización;
la Figura 3 es un gráfico de la clasificación de PLSR con un umbral óptico de la Figura 2, ejemplo de una realización; la Figura 4 es un diagrama de bloques de alto nivel de componentes de hardware del sistema de detección de la Figura 1, ejemplo de una realización;
la Figura 5 es un diagrama de flujo que muestra la detección de características del huevo, ejemplo de una realización; la Figura 6 es un diagrama de flujo que muestra la detección de características del huevo con la selección de grupos de características de imagen y la selección de intervalos de longitud de onda, ejemplo de una realización;
la Figura 7 es un diagrama de flujo que muestra la evaluación de grupos de características de imagen y evaluación de diferentes intervalos de longitud de onda, ejemplo de una realización;
la Figura 8 es un diagrama de flujo esquemático de identificación del sexo por PCR en un embrión de pollo, ejemplo de una realización;
las Figuras 9A y 9B son imágenes espectrales ilustrativas de huevos marrones y blancos, respectivamente, a una longitud de onda dada (1076 nm), a modo de ejemplo de una realización;
las Figuras 10A, 10B, 10C, 10D, 10E y 10F son perfiles medios de características espectrales de imágenes para la fertilidad de huevos marrones y blancos;
las Figuras 11A, 11B, 11C, 11D, 11E y 11F son gráficos que muestran resultados de evaluación para diferentes grupos de características de imagen, para la fertilidad de huevos marrones y blancos;
las Figuras 12A, 12B, 12C, 12D, 12E y 12F son perfiles medios de características de imagen espectral para el género de huevos marrones y blancos; y
las Figuras 13A, 13B, 13C, 13D, 13E y 13F son gráficos que muestran resultados de evaluación para diferentes grupos de características de imagen, para el género de huevos marrones y blancos.
Descripción detallada
La Figura 1 ilustra un sistema de formación de imágenes 50 interconectado con un sistema de detección 100. El sistema de imágenes 50 proporciona el sistema de detección 100 con datos de imágenes espectrales de huevos sin eclosionar (por ejemplo, huevos 10) y el sistema de detección 100 procesa que los datos para detectar la fertilidad y/o el sexo de los huevos sin eclosionar. La detección de fertilidad y/o género de las maneras descritas en la presente memoria tiene en cuenta tanto información espacial como espectral transmitida en las imágenes de huevos sin eclosionar. La detección de fertilidad y/o género de las formas descritas en la presente memoria usa múltiples características de imagen extraídas de las imágenes. Las múltiples características de imagen pueden fusionarse de las maneras descritas en la presente memoria.
En una realización, el sistema de formación de imágenes 50 y el sistema de detección 100 están configurados cada uno para su uso con el huevo 10 que son huevos de pollo. En otras realizaciones, los huevos 10 pueden incluir otros tipos de huevos, por ejemplo, otros huevos aviares.
El sistema de imágenes 50 puede ser un sistema de formación de imágenes hiperespectrales que captura un conjunto de imágenes para cada huevo 10, con cada imagen que contiene datos espaciales obtenidos de un intervalo particular de longitud de onda. Cada una de dichas imágenes puede denominarse en la presente memoria como una “ imagen espectral” . En una realización, el conjunto de imágenes espectrales forma un cubo de datos tridimensional, con información espacial proporcionada a lo largo de dos ejes e información espectral (para cada posición de píxel) a lo largo de un tercer eje.
En una realización, el sistema 50 de formación de imágenes captura un conjunto de 167 imágenes para cada huevo 10, correspondiente a imágenes capturadas usando luz en 167 bandas de longitud de onda en un intervalo de aproximadamente 900 nm a 1.700 nm. En esta realización, el tamaño de cada banda de longitud de onda puede ser de aproximadamente 4 nm. En otras realizaciones, el sistema 50 de formación de imágenes puede capturar un número mayor o menor de imágenes para cada huevo 10, correspondiente a un número mayor o menor de bandas de longitud de onda. Además, el tamaño de cada banda de longitud de onda puede variar.
En una realización, el sistema 50 de formación de imágenes incluye un espectrograma de escaneo de línea interconectado con una cámara InGaAs configurada para capturar las imágenes espectrales. En una implementación de ejemplo, el espectrógrafo es un espectrógrafo Hyperspec™ proporcionado por Headwall Photonics Inc. (EE. UU.) con un intervalo espectral del infrarrojo cercano que abarca aproximadamente 900 nm a 1.700 nm y una resolución espectral de 2,8 nm. En una realización, los datos de imagen se recopilan en modo de transmisión. En una realización, los datos de imagen se recopilan y procesan a 100 cuadros por segundo. En una realización, el sistema de imágenes 50 puede incluir una cámara de instantáneas, escaneo de área y campo amplio.
En una realización, el sistema de formación de imágenes 50 incluye una o más fuentes de luz para proporcionar retroiluminación para el huevo 10 para facilitar la captura de imágenes. En una implementación de ejemplo, se usa una única lámpara de halógeno de 50 vatios como fuente de luz.
En una realización, el sistema de formación de imágenes 50 puede incluir un transportador configurado para mover el huevo 10 en el campo de visión de la óptica de la cámara del sistema. En una implementación de ejemplo, el transportador es un transportador en serie Dorner 2200 proporcionado por Dorner Mfg. Corp. (EE.UU.), accionado por un motor de paso de MDIP22314 proporcionado por Intelligent Mode System Inc. (EE.UU.). La velocidad del transportador puede ser ajustable. Por ejemplo, la velocidad del transportador puede ajustarse en base a la velocidad de la óptica de la cámara para minimizar la distorsión de la imagen (por ejemplo, el desenfoque por el movimiento). La velocidad del transportador también puede ajustarse en base a otros factores, por ejemplo, el rendimiento de detección deseado.
El transportador puede incluir bandejas adaptadas para recibir huevos 10 en el mismo, y mantener cada huevo 10 en una posición dada (por ejemplo, una posición vertical).
En una realización, el transportador puede configurarse para presentar múltiples huevos 10 (por ejemplo, dos huevos, cuatro huevos, etc.) a formar imágenes simultáneamente mediante el sistema de formación de imágenes 50. Por consiguiente, en esta realización, cada imagen espectral puede incluir datos para múltiples huevos 10, y cada una de estas imágenes puede segmentarse durante el procesamiento para aislar los datos para cada huevo 10. El sistema de detección 100 y/o el sistema de imágenes 50 pueden configurarse para enviar comandos de control al transportador para controlar su movimiento.
El sistema de imágenes 50 puede interconectarse con el sistema de detección 100 por medio de una interfaz convencional en serie o en paralelo. En una realización, el sistema de formación de imágenes 50 puede interconectarse con el sistema de detección 100 por medio de una red que comprende enlaces cableados, enlaces inalámbricos o una combinación de los mismos. En esta realización, uno o ambos del sistema de imágenes 50 y el sistema de detección 100 pueden incluir una interfaz de red y/o transceptores de red adecuados.
El sistema de detección 100 se conecta a un sistema de accionamiento 120 para activar el accionamiento de los aparatos basándose en los resultados calculados por el sistema de detección 100. El sistema de detección 100 es operable para transmitir una señal de control para accionar un aparato según el huevo no eclosionado clasificado. El sistema de detección 100 es operable para generar señales de datos para el sexo y la fertilidad del huevo sin eclosionar, por ejemplo. El sistema de detección 100 es operable para transmitir las señales de datos de salida al hardware o aparato (por ejemplo, el sistema de accionamiento 130) para activar el accionamiento del mismo. Por ejemplo, el sistema de accionamiento 130 puede mover o separar el huevo sin eclosionar. Otras características incluyen textura de yema y tono, por ejemplo.
El sistema de accionamiento 100 puede recibir señales de datos de resultados de clasificación del sistema de detección 100 y elimina los huevos no deseados (no fértiles y/o macho) de la línea de ensamblaje usando uno o más aparatos que están en contacto físico con los huevos o pueden desencadenar el movimiento o separación de huevos. Por ejemplo, el sistema de accionamiento 100 puede incluir o interactuar con uno o más brazos robóticos con efectores finales (manos robóticas) que pueden usarse para agarrar y soltar huevos que se indican por las señales de clasificación del sistema de detección 100 como huevos no fértiles y/o macho. Puede haber otros aparatos que puedan separar o mover huevos en función de las señales de clasificación del sistema de detección 100 y esto es solo un ejemplo ilustrativo. Por consiguiente, el sistema de accionamiento 120 activa la activación de componentes de hardware basándose en las señales de clasificación del sistema de detección 100. En realizaciones ilustrativas, el accionamiento puede implicar el movimiento físico de los huevos para separar los huevos en diferentes corrientes, por ejemplo. Como otro ejemplo, un transportador puede activarse o controlarse para mover los huevos. El sistema de detección 100 genera señales de salida para el sistema de accionamiento 120 para proporcionar comandos de control para desencadenar el accionamiento de diversos aparatos.
El sistema de detección 100 se conecta a un transceptor 130 para recibir y/o enviar datos a otros componentes y sistemas. Por ejemplo, el sistema de detección 100 puede recibir conjuntos de datos de otros sistemas para actualizar sus datos internos (usados por el pre-procesador 104, un extractor de características 106 y un clasificador 108, por ejemplo) mediante técnicas de aprendizaje automático, por ejemplo. El sistema de detección 100 también puede conectarse al sistema de formación de imágenes 50 y/o al sistema de accionamiento 120 a través del transceptor 130, por ejemplo. Como otro ejemplo, el sistema de detección 100 puede enviar comandos o señales de control al transceptor 130 para controlar otros componentes basados en los resultados de clasificación, por ejemplo, o para desencadenar la captura de datos de imagen del sistema de imágenes 50, como otro ejemplo. El sistema de detección 100 puede conectarse a un repositorio de datos central (no mostrado) para proporcionar resultados de clasificación para la gestión central y el almacenamiento en el repositorio de datos, donde los resultados pueden correlacionarse con los resultados de otros sistemas de detección, por ejemplo. Esto puede facilitar la generación de informes completos sobre los datos de clasificación, por ejemplo.
Como se muestra en la Figura 1, el sistema de detección 100 incluye una interfaz 102 de formación de imágenes, un pre-procesador 104, un extractor de características 106 y un clasificador 108. Como se detalla a continuación, estos componentes del sistema de detección 100 cooperan para detectar la fertilidad y/o el sexo de los huevos sin eclosionar.
La interfaz 102 de formación de imágenes está configurada para recibir datos de imagen del sistema 50 de formación de imágenes, y para formatear los datos para procesar en el sistema 100 de detección.
El pre-procesador 104 se configura para pre-procesar imágenes espectrales recibidas en el sistema de detección 100 del sistema de formación de imágenes 50. Las imágenes pueden calibrarse y normalizarse en función del porcentaje de transmisión. Por ejemplo, en una realización, tras la calibración y normalización, los valores de píxel de cada imagen espacial (por ejemplo, cada plano de un hipercubo de salida) pueden estar entre 0 (correspondiente a la imagen oscura, es decir, sin luz transmitida) y 1 (correspondiente a la imagen blanca, es decir, toda la luz de la fuente de luz transmitida).
En una realización, el pre-procesador 104 identifica una región de interés (ROI) en las imágenes correspondientes a cada huevo individual 10 en las imágenes. Por ejemplo, se puede usar una máscara para segmentar la ROI. La segmentación de imágenes puede usarse, por ejemplo, cuando una imagen incluye múltiples huevos. Por ejemplo, se puede usar una técnica de umbral adaptativo para crear una máscara para la segmentación de ROI. Puede usarse una segmentación de imagen basada en detección de límite, por ejemplo, cuando una imagen incluye múltiples huevos.
En una realización, el pre-procesador 104 aplica otros tipos de preprocesamiento, por ejemplo, filtrado para eliminar ruido, afinar, etc.
El extractor de características 106 se configura para procesar datos de imagen para extraer una o más características de imagen de interés. Los datos de imagen pueden ser, por ejemplo, datos de imagen procesados previamente por el pre-procesador 104. Los datos de imagen pueden segmentarse para incluir datos para un huevo individual.
Las características de imagen extraídas de interés pueden incluir características de textura de imagen. Las características de imagen extraídas pueden incluir características de imagen descritas en las medidas de primer orden.
Las características de imagen extraídas también pueden incluir características de imagen descritas en medidas de segundo orden.
Como se utiliza en la presente memoria, una característica de imagen significa una propiedad cuantificable de la imagen que puede medirse como características de un objeto cuya imagen se ha formado (p. ej., un huevo). Tal como se utiliza en este documento, una característica de textura de imagen es una característica que describe la suavidad, crudeza y regularidad de la imagen. Una característica de textura de imagen también puede incluir color, intensidad, homogeneidad, tono, textura de yema e información de estructura de superficie de una imagen. Por lo tanto, una característica de textura de imagen puede contener información sobre la distribución espacial de variaciones tonales dentro de una banda de longitud de onda.
Las medidas de primer orden son estadísticas, se calculan a partir de píxeles individuales y no consideran relaciones de vecindad de píxeles. Las medidas de primer orden incluyen, por ejemplo, un histograma de intensidad y características de intensidad.
En contraste, las relaciones entre píxeles vecinos se consideran para medidas de segundo orden. Las medidas de textura de segundo orden se pueden extraer, por ejemplo, utilizando la técnica de Matriz de Co-Ocurrencia de Niveles de Grises (GLCM). En general, GLCM proporciona un histograma de 2-D de niveles de gris para un par de píxeles, que están separados por una relación espacial fija. Se pueden extraer varias características de textura de segundo orden posibles. Tales características se basan típicamente en estadísticas seleccionadas que resumen la distribución de frecuencia relativa que describe cómo a menudo aparecerá un tono gris en una relación espacial especificada con otro tono gris en la imagen.
Por ejemplo, una característica puede definirse por lo siguiente:
<(>1<)>
donde C es la matriz de co-ocurrencia aplicada para el cálculo de la variación de la información de GLCM'iyjson los valores de intensidad de imagen de la imagen, p y q son las posiciones espaciales en la imagen y el desplazamiento (Ax, Ay).
En la realización representada, el extractor de características 106 está configurado para extraer tres características de primer orden, a saber, características de imagen espectral de media aritmética (A<m>S), características de imagen espectral de media aritmética (TMS) y características de imagen espectral de entropía (IES). En esta realización, el extractor de características 106 también está configurado para extraer tres características basadas en GLCM como características de segundo orden, concretamente, características de imagen espectral de energía (ES), características de imagen espectral de homogeneidad (HS) y características de imagen espectral de contraste (CS). Cada una de estas características se describe más adelante.
Características de primer orden
Las características espectrales medias describen las variaciones tonales promedio en las diversas bandas de espectro electromagnético. El extractor de características 106 extrae dos características espectrales medias diferentes: A<m>S y TMS. AMS evalúa la intensidad espectral promedio, incluida la normal (tal como el componente del huevo) y variaciones anormales (tales como el ruido del sensor y el ruido de la fuente de luz). El TMS reduce los efectos de los valores atípicos estadísticos eliminando un pequeño porcentaje de los valores más grandes y más pequeños entre un conjunto de números (como el ruido de pulso), antes de calcular el promedio de esos números.
El extractor de características 106 determina AMS y TMS de la siguiente manera:
donde Slmg (ij) es la imagen espectral de dos dimensiones,(ij)se refiere a un píxel en la imagen; M y N describen el número de píxeles en las direcciones vertical y horizontal, respectivamente; p es el porcentaje definido de píxeles que tienen intensidades extremas. K1 y K2 describen el número de píxeles que tienen los valores más bajos y más altos de píxeles de imagen porcentual de p/2, respectivamente.
La entropía de imagen es una medida de la distribución de nivel de grises (desorden o aleatoriedad) en un histograma de imagen. La entropía de la información de la imagen es mayor si los valores de intensidad de gris distribuidos en la imagen tienden al valor promedio, lo que indica que puede existir textura en las imágenes.
El extractor de características 106 extrae una característica de entropía de imagen, concretamente, IES. El extractor de características 106 determina IES de la siguiente manera:
IES = -sum aiPx log2(P)) (<4>) donde P contiene los recuentos de histograma para todos los niveles de valores de grises.
Características de segundo orden
El extractor de características 106 extrae tres características basadas en GLCM, relacionadas con energía, homogeneidad y contraste (ES, HS y CS, respectivamente). La característica ES, también denominada Uniformidad o Segundo Momento Angular, mide la uniformidad de textura, que son repeticiones de pares de píxeles. Detecta desórdenes en texturas. Cuando la variación en la escala de grises de imagen es plana y lenta, la matriz de coocurrencia de nivel de grises tiende a concentrarse en un valor específico. Un mayor valor de característica de energía significa que es menos probable que exista textura en las imágenes.
El extractor de características 106 determina ES de la siguiente manera:
La característica de HS, también conocida como Momento de Diferencia Inversa, mide la homogeneidad de la imagen ya que asume valores más grandes para diferencias de tono gris más pequeñas en elementos de pares. La homogeneidad es una medida que toma valores altos para imágenes de bajo contraste.
El extractor de características 106 determina HS de la siguiente manera:
La característica CS mide la frecuencia espacial de una imagen. Es la diferencia entre los valores más altos y más bajos de un conjunto contiguo de píxeles. Por lo tanto, mide la cantidad de variaciones locales presentes en una imagen. Una imagen de bajo contraste presenta un término de concentración GLCM alrededor de la diagonal principal y características bajas de frecuencias espaciales.
El extractor de características 106 determina CS de la siguiente manera:
Las características de imagen extraídas por el extractor de características 106 se proporcionan al clasificador 108. El clasificador 108 se configura para clasificar cada huevo según al menos una característica, a saber, sexo y/o fertilidad.
En una realización, el clasificador 108 realiza la clasificación aplicando un modelo de regresión de mínimos cuadrados parciales (PLSR) junto con un umbral óptico. Un modelo PLSR, junto con un umbral óptico, puede usarse para separar dos niveles de datos. En la realización representada, el clasificador 108 implementa PLSR para clasificar la fertilidad del huevo y/o el sexo, cada uno de los cuales consiste en dos niveles.
Un modelo PLSR puede ser particularmente eficaz para construir modelos predictivos cuando los factores son muchos y altamente colineales, como puede ser el caso cuando los datos de entrada incluyen múltiples características de imagen espectral.
En una realización, el modelo de PLSR particular implementado en el clasificador 108 puede describirse usando la notación MATLAB como sigue:
[XL,YL,XS,YS,BETA,PCTVAR] = plsregres(X,Y,ncomp) (8)
donde X es una matriz NxP del conjunto de datos de predictor con filas correspondientes a observaciones y columnas a variables, Y es una matriz de respuesta de N*1, ncomp es el número de componentes de PLSR como predictores. XL es una matriz Pxncomp de cargas de predictor, donde cada fila incluye coeficientes que definen una combinación lineal de componentes de PLS que se aproximan a las variables del predictor originales. YL es una matriz de Mxncomp de cargas de respuesta, donde cada fila contiene coeficientes que definen una combinación lineal de componentes de PLS que se aproximan a las variables de respuesta originales. BTA son coeficientes de regresión con una matriz (P+1)xN. PCTVAR es una matriz 2xncomp con el porcentaje de varianza explicado por el modelo.
La Figura 2 ilustra una disposición ilustrativa de un modelo 200 PLSR con técnica umbral óptica, según una realización. Las respuestas de observación X e Y se establecen como entrada en el modelo 200 PLSR para obtener los coeficientes de regresión BTA. El conjunto X de observación y el conjunto Z constante definido se combinan para obtener una nueva matriz X1 que funciona con BTA para obtener la predicción Y. Entonces, el resultado de la clasificación puede calcularse basándose en Ypredicción y el umbral óptico T. El umbral óptico T puede estar preconfigurado en el clasificador 108, y puede determinarse experimentalmente, por ejemplo, usando datos de entrenamiento.
La Figura 3 ilustra un gráfico 300 con la aplicación de un umbral óptico T, a modo de ejemplo de una realización.
Se pueden usar múltiples umbrales ópticos. Por ejemplo, un umbral óptico T puede definirse para cada característica de huevo para la cual se realiza la clasificación (por ejemplo, fertilidad, sexo, etc.). Se puede definir un umbral óptico T para cada grupo particular de características de imagen utilizadas para la clasificación. Se puede definir un umbral óptico T para cada intervalo de longitud de onda particular usado para la clasificación.
En otras realizaciones, el clasificador 108 puede usar un método de clasificación supervisado y/o no supervisado diferente. Por ejemplo, el análisis de componentes principales, el análisis discriminante lineal, la regresión logística, las redes neuronales, las máquinas de vectores de soporte, el árbol de decisión, o los métodos de agrupamiento tales como el algoritmo de K-medias, la clasificación de distancia de Mahalanobis, y así sucesivamente.
Interfaz 102 de formación de imágenes, pre-procesador 104, el extractor de características 106 y el clasificador 108 pueden configurarse cada uno usando un lenguaje informático convencional tal como C, C++, C#, Java, MATLAB, o similares. Interfaz 102 de formación de imágenes, pre-procesador 104, el extractor de características 106 y el clasificador 108 pueden estar cada uno en forma de aplicaciones ejecutables, secuencias de comandos o bibliotecas de unión estáticamente o dinámicamente.
La Figura 4 ilustra componentes de hardware del sistema 100 de detección, a modo de ejemplo de una realización. Como se muestra, el sistema 100 de detección incluye al menos un procesador 110, memoria 112, al menos una interfaz 114 de E/S y al menos una interfaz 116 de red.
El procesador 110 puede ser cualquier tipo de procesador, tal como, por ejemplo, cualquier tipo de microprocesador o microcontrolador de propósito general, un procesador de procesamiento de señales digitales (DSP), un circuito integrado, una matriz de puertas programables en campo (FPGA), un procesador reconfigurable o cualquier combinación de los mismos.
La memoria 112 puede ser cualquier tipo de memoria electrónica que se encuentre interna o externamente como, por ejemplo, memoria de acceso aleatorio (RAM), memoria de solo lectura (ROM), memoria de solo lectura de disco compacto (CDROM), memoria electroóptica, memoria magnetoóptica, memoria de solo lectura programable y borrable (EPROM) y memoria de solo lectura programable y borrable eléctricamente (EEPROM), RAM ferroeléctrica (FRAM) o similares.
La interfaz de E/S 114 permite que el sistema de detección 100 se interconecte con otros dispositivos y sistemas para entrada y/o salida. Por ejemplo, las interfaces de E/S 114 permiten que el sistema de detección 100 se interconecte con el sistema de formación de imágenes 50. Las interfaces de E/S 114 también permiten que el sistema de detección 100 se conecte con dispositivos periféricos o dispositivos de almacenamiento externo. Dichos dispositivos periféricos pueden incluir uno o más dispositivos de entrada, tales como un teclado, ratón, cámara, pantalla táctil y un micrófono, y también pueden incluir uno o más dispositivos de salida tales como una pantalla de visualización y un altavoz.
La interfaz 116 de red permite que el sistema 100 de detección se comunique por medio de una red, p. ej., para recuperar datos de imagen de un sistema de formación de imágenes remoto, o para proporcionar resultados de detección a una ubicación remota. Por ejemplo, en una realización, la detección de imagen 50 puede ubicarse en un criadero, y el sistema de detección 100 puede ubicarse en otra ubicación, por ejemplo, en la nube y puede interconectarse con el sistema de formación de imágenes 50 por medio de una red (por ejemplo, Internet). La interfaz de red 116 permite que el sistema de detección 100 se comunique con otros sistemas para transmitir resultados de clasificación y controlar el accionamiento remoto de aparatos para, por ejemplo, mover los huevos. Como ejemplo, la interfaz de red 116 permite que el sistema de detección 100 se comunique con el sistema de accionamiento 120 (Figura 1) para enviar resultados de clasificación y desencadenar la activación de componentes en base a los resultados de clasificación. Como otro ejemplo, la interfaz de red 116 permite que el sistema de detección 100 se comunique con el transceptor 130 (Figura 1) para enviar y recibir datos de otros sistemas y componentes, tales como imágenes o resultados.
El sistema de detección 100 puede incorporarse en un dispositivo informático, tal como un ordenador personal, estación de trabajo, servidor, ordenador portátil, dispositivo móvil, ordenador portátil, tableta, teléfono inteligente o similares, particularmente configurados como se describe en la presente memoria.
El funcionamiento del sistema de detección 100 se puede describir adicionalmente con referencia a la Figura 5, que ilustra bloques ilustrativos realizados en el sistema de detección 100 para detectar al menos una característica de un huevo, por ejemplo, sexo y/o fertilidad, ejemplo de una realización.
Como se representa, en el bloque 502, el sistema de detección 100 recibe un conjunto de imágenes espectrales de un huevo particular (por ejemplo, huevo 10). Las imágenes espectrales pueden recibirse por medio de la interfaz 102 de formación de imágenes desde el sistema 50 de imágenes. Cada una de las imágenes espectrales puede ser una imagen obtenida en un intervalo de longitud de onda particular. En una realización, cada una de las imágenes espectrales puede ser una imagen obtenida para una longitud de onda particular.
En el bloque 504, el sistema 100 de detección selecciona opcionalmente un grupo de características de imagen a extraer de las imágenes espectrales. El grupo de características de imagen puede incluir dos o más de las características de imagen de ejemplo descritas en la presente memoria (por ejemplo, AMS, TMS, IES, ES, HS, CS). El grupo de características de imagen también puede incluir otras características de imagen.
En una realización, el grupo de características de imagen se puede seleccionar basándose en la característica de huevo particular a detectar. Por ejemplo, el grupo puede seleccionarse como un grupo que proporciona un rendimiento de detección mejorado (por ejemplo, precisión) para la característica particular del huevo en comparación con otros grupos. Por lo tanto, un grupo seleccionado para la detección del género puede diferir de un grupo seleccionado para la detección de la fertilidad. El grupo seleccionado también puede depender del color del huevo (por ejemplo, blanco o marrón). El color puede usarse para diferentes aplicaciones de la industria. Además, el color puede usarse para la calibración.
La selección del grupo de características de imagen se describe más adelante, y el rendimiento de detección se evalúa para diversos grupos de características de imagen, para cada género y fertilidad.
En una realización, el grupo de características de imagen a usar puede estar preconfigurado, y el bloque 504 puede omitirse.
En el bloque 506, el sistema 100 de detección selecciona un subconjunto de imágenes espectrales, a partir de las cuales se van a extraer características de imagen. El subconjunto de imágenes espectrales corresponde a al menos un intervalo de longitud de onda, y cada intervalo puede incluir una o más de las bandas de longitud de onda descritas anteriormente.
En una realización, el subconjunto particular de imágenes espectrales puede seleccionarse en base a la característica de huevo particular a detectar. Por ejemplo, el subconjunto seleccionado puede seleccionarse como un subconjunto que proporciona un rendimiento de detección mejorado (por ejemplo, precisión) para la característica particular del huevo en comparación con otros subconjuntos. Por lo tanto, un subconjunto seleccionado para la detección del género puede diferir de un subconjunto seleccionado para la detección de la fertilidad.
En una realización, el subconjunto de imágenes espectrales a procesar, o el correspondiente intervalo o intervalos de longitud de onda, pueden estar preconfigurados, y el bloque 506 puede omitirse.
En el bloque 508, el extractor 106 de características del sistema 100 de detección procesa las imágenes espectrales para extraer características de imagen de interés. En una realización, las imágenes espectrales pueden ser preprocesadas por el pre-procesador 104 antes de la extracción de características de imagen, por ejemplo, para realizar la segmentación de imágenes de la región de interés para un huevo particular.
En una realización, el extractor de características 106 extrae solo características de imagen seleccionadas como características de imagen de interés. En una realización, el extractor 106 de características procesa solo un subconjunto seleccionado de imágenes espectrales.
Para cada huevo, una característica de imagen extraída puede describirse como un vector Nx1, donde N es la cantidad de imágenes espectrales. N es también el número de bandas de longitud de onda. Por lo tanto, cuando se extrae una característica de imagen de 167 bandas de longitud de onda, las características de imagen extraídas pueden describirse como un vector 167 x 1.
El extractor de características 106 fusiona características de imagen extraídas. El extractor de características 106 fusiona características de imagen extraídas en varios niveles. En la realización que se describe, el extractor de características 106 fusiona características de imagen extraídas en un nivel de imagen, por ejemplo, combinando múltiples imágenes obtenidas en una imagen fusionada y luego extrayendo características de imagen fusionada. Las características de imagen fusionadas se proporcionan entonces al clasificador 108 para la clasificación.
En un ejemplo no reivindicado, el extractor de características 106 puede fusionar características de imagen extraídas a un nivel de característica, por ejemplo, extrayendo características de imagen de cada una de las imágenes obtenidas, respectivamente, y luego combinando las características de imagen extraídas en un vector de características. En otro ejemplo no reivindicado, el extractor de características 106 puede fusionar características de imagen extraídas en un nivel de decisión, en cooperación con el clasificador 108. En particular, el extractor de características 106 puede extraer características de imagen de cada una de las imágenes obtenidas, y el clasificador 108 puede clasificar cada imagen en base a las características de imagen de esa imagen. Se puede tomar una decisión de clasificación agregada sobre los resultados de la clasificación para todas las imágenes, por ejemplo, por votación.
En el bloque 510, el clasificador 108 del sistema de detección 100 procesa las características de imagen extraídas para clasificar el huevo sin eclosionar según al menos una característica, por ejemplo, fertilidad y/o sexo. Por lo tanto, puede definirse un umbral óptico T, por ejemplo, para una característica particular a detectar, para las características de imagen de interés y el intervalo de longitud de onda de interés. La clasificación puede realizarse mediante el uso de un modelo PLSR junto con el umbral óptico T.
El clasificador 108 proporciona un indicador de la característica clasificada. Por ejemplo, el clasificador 108 proporciona un indicador de si se detecta que el huevo es masculino o femenino, y/o un indicador de si se detecta que el huevo es fértil o infértil.
Los bloques 504 y adelante pueden repetirse para detectar características adicionales. Los bloques 502 y adelante pueden repetirse para huevos adicionales.
Convenientemente, la realización representada facilita la detección temprana de fertilidad y/o género, por ejemplo, antes de la incubación.
La Figura 6 ilustra un diagrama de flujo 600 de selección de grupos de características de imagen y selección de intervalos de longitud de onda, a modo de ejemplo de una realización. Como se ilustra, en la adquisición de imágenes 602, las imágenes espectrales son capturadas por un sistema de formación de imágenes. En el pre-procesamiento 604 de la imagen, el sistema de imágenes se calibra mediante el uso del color del huevo, por ejemplo. El pre procesamiento 604 segmenta los datos de imágenes en ROI y filtra los datos de imagen de fondo de los datos de imagen relacionados con el huevo. A continuación, estas características de imagen espectral se procesan para seleccionar un grupo de características de imagen de interés para detectar una característica de huevo particular (por ejemplo, sexo, fertilidad, etc.) fusionando múltiples características de imagen 606 para la evaluación y clasificación de características. La selección de las características de imagen de interés puede basarse en el rendimiento de clasificación (por ejemplo, en un conjunto de datos de entrenamiento). Además, se aplica una ventana deslizante para seleccionar un intervalo de longitud de onda de interés para detectar una característica particular del huevo. La selección del intervalo de longitud de onda de interés puede basarse en el rendimiento de clasificación (por ejemplo, en un conjunto de datos de entrenamiento). Una generación 608 de salida proporciona señales que definen un grupo óptimo de MFIF con una ventana deslizante de tamaño específico para la clasificación de la fertilidad y el sexo.
La Figura 7 ilustra un diagrama de flujo 700 de la selección de grupos de características de imagen y la selección de intervalos de longitud de onda en dos pasos, a modo de ejemplo de una realización. En 702, el procesador procesa las imágenes espectrales obtenidas del sistema de imágenes 50, es decir, para todas las longitudes de onda (167 bandas) como se describe en la presente memoria.
En el ejemplo ilustrado en la Figura 7, se extraen seis características (AMS, TMS, IES, ES, HS y CS) para cada una de las imágenes espectrales (en todas las bandas), y las características se agrupan según diferentes combinaciones. Cada combinación de características se aplica como entradas en el modelo PLSR para evaluar el rendimiento de clasificación. La combinación de características que proporciona el mejor rendimiento puede seleccionarse como el grupo de características de imagen de interés. Los resultados de rendimiento de clasificación de ejemplo para diferentes grupos de características de imagen se describen a continuación en la Tabla 2 y en la Tabla 5.
Como se ilustra, en 704, el grupo de características de imagen de interés identificado en el primer paso se combina con el procesamiento de ventana deslizante para determinar el intervalo de longitud de onda de interés. Por lo tanto, diferentes tamaños N de una ventana deslizante (N=10, 30, 50, 80, 167 longitudes de onda) se definen para evaluar el rendimiento de clasificación de cada intervalo de longitud de onda. El intervalo de longitud de onda que proporciona el mejor rendimiento puede seleccionarse como el intervalo de longitud de onda de interés. Los resultados de rendimiento de clasificación ilustrativos para diferentes intervalos de longitud de onda se describen a continuación en la Tabla 3, Tabla 4 y Tabla 6.
Resultados experimentales
Este es un ejemplo ilustrativo no limitativo. Se recibió un total de 336 huevos de cáscara blanca y 336 huevos de cáscara marrón a partir de un criadero comercial de huevos de pollo fértiles en 14 lotes (48 huevos por lote) durante un período de 3 meses (12 de julio - 14 de octubre de 2013). Los huevos fueron puestos por aves de 30, 45 y 60 semanas de edad.
Se tomaron imágenes de todos los huevos mediante el sistema de imágenes 50 el Día 0 (justo antes de la incubación) e inmediatamente después de la obtención de imágenes, los huevos se incubaron en una incubadora de gabinete Ova-Easy 190Advance Serie II (Brinsea Products Inc., Florida, EE. UU.) a 37,78 °C. (100 °F) y 55 % de humedad relativa. Los huevos se giraron automáticamente cada hora.
Después de 10 días de incubación, los huevos se sacaron y se rompieron para determinar la fertilidad y la viabilidad del embrión. Además, se extrajo ADN de los tejidos embrionarios para la secuenciación de reacción en cadena de la polimerasa (PCR) para evaluar el sexo.
Para determinar el género de las muestras, se puede usar un procedimiento de PCR. El procedimiento puede incluir extracción de ADN del tejido, preparación de muestras de PCR y secuenciación, y genotipado.
La Figura 8 muestra la configuración experimental para el procedimiento de PCR.
Resultados de detección de la fertilidad
Del número total (672) de huevos recibidos, había dos huevos marrones y 1 huevo blanco rotos y 2 embriones muertos para huevos blancos.
La Tabla 1 resume la información de fertilidad de los huevos.
Tabla 1Muestras de huevos utilizadas en el estudio
Las Figuras 9A y 9B muestran imágenes espectrales ilustrativas obtenidas para huevos blancos y marrón. Los perfiles medios de las características de imagen espectral, es decir, AMS, TMS, ES, CS, HS e IES se muestran para huevos marrones y blancos en las Figuras 10A a 10F. Hubo grandes desviaciones en las características de imagen espectral entre huevos fértiles y no fértiles en ciertos intervalos específicos de longitud de onda. Como se apreciará, los datos en tales intervalos de longitud de onda pueden ser particularmente útiles para separar los 2 grupos diferentes, es decir, huevos fértiles y no fértiles.
La precisión de la clasificación para la fertilidad del huevo varió dependiendo de las características de imágenes que se usaron, como se muestra en las Figuras 11A a 11F. La precisión de clasificación cuando se usó una característica de imagen varió de 96,5 a 98,5 %. Los huevos marrones mostraron una mayor precisión en comparación con los huevos blancos. La precisión más baja se obtuvo con el número de cantidad de característica de 6 (es decir, características número = 6) del grupo 1 (1 combinación para 6 características en total 6) donde un número de cantidad de 3 (características número = 3) del grupo 8 (15 combinación diferente para 3 características en total 6) característica produjo la mayor precisión de clasificación. Como se muestra, el uso de múltiples características de imagen fusionadas puede proporcionar una precisión de clasificación mejorada.
La Tabla 2 muestra que la combinación de 2 características a saber, la característica 4 y 5 dio como resultado la mayor precisión de clasificación 99,7 % para los huevos marrones, mientras que la combinación de 3 características (características 3, 4 y 5) o 4 características (características 2, 3, 4 y 5) también contribuyó a la mayor precisión de clasificación del 99,7 % para los huevos blancos.
Tabla 2Mayor precisión de clasificación de las características espectrales de la imagen para la fertilidad, incluidos los huevos marrones y blancos. (Cantidad de longitudes de onda = 167)
Se puede aplicar una técnica de procesamiento de ventana deslizante para obtener el intervalo más alto sensible de longitud de onda para la clasificación de la fertilidad tanto para huevos marrones como blancos. En primer lugar, se combinaron varios tamaños definidos de ventanas deslizantes con un intervalo de 10 a 167 (es decir, 10 significa que cada ventana deslizante contiene 10 longitudes de onda). Las Tablas 3 y 4 muestran que la combinación de las características 3, 4 y 5 tiene la mayor precisión de clasificación con un tamaño de ventana de 80 tanto para huevos de cáscara marrón de 99,4 % como cáscara blanca de 100 %.
Tabla 3Resultados de la fertilidad incluyendo huevos marrones y blancos (Homogeneidad Energía Entropía*)
Tabla 4Resultados de la fertilidad incluyendo huevos marrones y blancos (Energía Homogeneidad, 4+5)
Resultados de detección de género
De la cantidad total de huevos recibidos, había 110 huevos marrones macho y 120 hembra, mientras que había 80 huevos blancos macho y 134 hembra.
Los perfiles medios de características de imagen espectral, ES decir, AMS, TMS, ES, CS, HS e IES se muestran para huevos marrones y blancos de las Figuras 12A a 12F. Pueden encontrarse grandes desviaciones de las características de imagen espectral entre los huevos macho y hembra para las características de imagen espectral en ciertos intervalos de longitud de onda. Como se apreciará, los datos en dichos intervalos de longitud de onda pueden ser particularmente útiles para separar los dos grupos diferentes, es decir, huevos macho y huevos hembra.
La precisión de la clasificación para el género del huevo varió dependiendo de las características de las imágenes que se usaron como se muestra en las Figuras 13A a 13F. La precisión de clasificación cuando se usó una característica de imagen varió del 83,4 % al 95,7 %. Se obtuvo la precisión más baja con el número de cantidad de 6 (número de características = 6) del grupo 1 (1 combinación para 6 características en total 6) mientras que el número de cantidad de 3 (número de características = 3) del grupo 8 (15 combinaciones diferentes para 3 características en total 6) la característica produjo la mayor precisión de clasificación. Como se muestra, el uso de múltiples características de imagen fusionadas puede proporcionar una precisión de clasificación mejorada.
Como se muestra en las Figuras 13A a 13F, los resultados de evaluación de diferentes grupos de características de imagen fusionadas para el género muestran que la cantidad de característica 2 con el grupo de la característica 4 y 5; cantidad 3 de característica con grupo de característica 3, 4 y 5; y la cantidad 4 de característica con el grupo de característica 2, 3, 4 y 5; produjo la mayor precisión de clasificación 98,7 % para los huevos marrones. De forma similar, la cantidad 2 de característica con grupo de la característica 3, 5; cantidad 3 de característica con grupos de las características 3, 4, 5 y 2, 3, 5 y cantidad 4 de característica con grupos de la característica 1, 2, 3, 5; y 2, 3, 4, 5 producen la mayor precisión de clasificación 99,53 % para huevos blancos. En la Tabla 5 se enumeran seis tipos basados en los resultados de la clasificación de la cantidad de características.
Tabla 5Mayor precisión de clasificación de las características de imagen espectral para el género que incluyen huevos marrones y blancos. (Cantidad de longitudes de onda = 167)
Se puede aplicar una técnica de procesamiento de ventana deslizante para obtener el intervalo más alto sensible de longitud de onda para la clasificación de la fertilidad tanto para huevos marrones como blancos. Los resultados de ejemplo se muestran en la Tabla 6.
Tabla 6Resultados para el sexo que incluyen huevos marrones y blancos (Homogeneidad Energía Entropía*)
Los resultados mostraron que no había diferencias significativas en la precisión de la clasificación entre los huevos marrones y blancos al detectar la fertilidad o el género de los huevos de las maneras descritas en la presente memoria. Aunque se ha mostrado experimentalmente para huevos de gallina, las realizaciones de los dispositivos, sistemas y métodos descritos en la presente memoria también pueden usarse para detectar la fertilidad y/o el género de otros tipos de huevos (por ejemplo, otros huevos de aves).
Las realizaciones de los dispositivos, sistemas y métodos descritos en la presente memoria pueden implementarse en una combinación tanto de hardware como de software. Estas realizaciones pueden implementarse en ordenadores programables, incluyendo cada ordenador al menos un procesador, un sistema de almacenamiento de datos (incluyendo memoria volátil o memoria no volátil u otros elementos de almacenamiento de datos o una combinación de los mismos) y al menos una interfaz de comunicación.
El código de programa (por ejemplo, almacenado en la memoria 112) se aplica a datos de entrada (por ejemplo, datos de imagen del sistema de imágenes 50) para realizar las funciones descritas en la presente memoria y generar información de salida. La información de salida se aplica a uno o más dispositivos de salida. En algunas realizaciones, la interfaz de comunicación puede ser una interfaz de comunicación de red. En realizaciones en las que pueden combinarse elementos, la interfaz de comunicación puede ser una interfaz de comunicación de software, tal como aquellas para comunicación entre procesos. En otras realizaciones más, puede haber una combinación de interfaces de comunicación implementadas como hardware, software y combinación de los mismos.
La discusión anterior proporciona muchas realizaciones. Aunque cada realización representa una combinación única de elementos inventivos, otros ejemplos pueden incluir todas las combinaciones posibles de los elementos descritos sin apartarse del alcance de las reivindicaciones adjuntas. Por lo tanto, si una realización comprende los elementos A, B y C, y una segunda realización comprende elementos B y D, otras combinaciones restantes de A, B, C o D también pueden usarse como ejemplos.
El término “ conectado” o “ acoplado a” puede incluir tanto acoplamiento directo (en el que dos elementos que están acoplados entre sí entran en contacto entre sí) como acoplamiento indirecto (en el que al menos un elemento adicional está ubicado entre los dos elementos).
La solución técnica de las realizaciones puede estar en forma de un producto de software. El producto de software puede almacenarse en un medio de almacenamiento no volátil o no transitorio, que puede ser una memoria de solo lectura de disco compacto (CD-ROM), disco flash USB o un disco duro extraíble. El producto de software incluye un número de instrucciones que permiten un dispositivo informático (ordenador personal, servidor o dispositivo de red) para ejecutar los métodos proporcionados por las realizaciones.
Las realizaciones descritas en la presente memoria se implementan mediante hardware de ordenador físico, incluyendo dispositivos informáticos, servidores, receptores, transmisores, procesadores, memoria, pantallas y redes. Las realizaciones descritas en la presente memoria proporcionan máquinas físicas útiles y disposiciones de hardware informático particularmente configuradas. Las realizaciones descritas en la presente memoria están dirigidas a máquinas y métodos electrónicos implementados por máquinas electrónicas adaptadas para procesar y transformar señales electromagnéticas que representan diversos tipos de información. Las realizaciones descritas en la presente memoria se relacionan de manera generalizada e integral con máquinas y sus usos; y las realizaciones descritas en la presente memoria no tienen un significado o una aplicabilidad práctica fuera de su uso con hardware, máquinas y diversos componentes de hardware. La sustitución del hardware físico configurado particularmente para implementar diversos actos para el hardware no físico, mediante el uso de pasos mentales, por ejemplo, puede afectar sustancialmente a la manera en que funcionan las realizaciones. Tales limitaciones de hardware de ordenador son elementos claramente esenciales de las realizaciones descritas en la presente memoria, y no pueden omitirse o sustituirse por medios mentales sin tener un efecto de material sobre el funcionamiento y la estructura de las realizaciones descritas en la presente memoria. El hardware informático es esencial para implementar las diversas realizaciones descritas en la presente memoria y no se usa simplemente para realizar pasos de manera rápida y eficiente.
Aunque las realizaciones se han descrito en detalle, debe entenderse que pueden realizarse diversos cambios, sustituciones y alteraciones en la presente memoria sin apartarse del alcance definido por las reivindicaciones adjuntas.
Además, el alcance de la presente solicitud no pretende limitarse a las realizaciones particulares del proceso, máquina, fabricación, composición de materia, medios, métodos y pasos descritos en la memoria descriptiva. Como apreciará fácilmente un experto en la técnica a partir de la descripción de la presente invención, pueden utilizarse procesos, máquinas, fabricación, composiciones de materia, medios, métodos o pasos, actualmente existentes o más adelante que se desarrollarán, que realizan sustancialmente la misma función o logran sustancialmente el mismo resultado que las realizaciones correspondientes descritas en la presente memoria. Por consiguiente, las reivindicaciones adjuntas pretenden incluir dentro de su alcance procesos, máquinas, fabricación, composiciones de materia, medios, métodos o pasos
Como puede entenderse, los ejemplos descritos anteriormente e ilustrados pretenden ser solo ilustrativos. El alcance se indica mediante las reivindicaciones adjuntas.

Claims (12)

  1. REIVINDICACIONES
    i.Un método implementado por ordenador para detectar una característica de un huevo sin eclosionar, comprendiendo el método:
    recibir, por al menos un procesador (110) usando un transceptor, un conjunto de imágenes espectrales de un huevo sin eclosionar, cada una de las imágenes espectrales obtenidas en un intervalo de longitud de onda particular, el conjunto de imágenes espectrales forma un cubo tridimensional;
    combinar, mediante el al menos un procesador (110), un subconjunto seleccionado del conjunto de imágenes espectrales en una imagen fusionada, comprendiendo el subconjunto seleccionado un subconjunto diferente al del conjunto recibido de imágenes espectrales;
    procesar, mediante el al menos un procesador (110), la imagen fusionada para extraer características de imagen, las características de imagen que incluyen características de textura de imagen que describen información espacial e espectral de la imagen fusionada o una región de la imagen fusionada, las características de textura de imagen que incluyen una característica de textura de imagen que tiene información asociada con una distribución espacial de variaciones tonales dentro del intervalo de longitud de onda particular;
    procesar, por el al menos un procesador (110), las características de imagen extraídas para clasificar el huevo sin eclosionar según al menos una característica seleccionada del grupo que consiste en el género del huevo sin eclosionar y la fertilidad del huevo sin eclosionar; y
    transmitir, por el al menos un procesador, mediante el uso de un transceptor 130, señales de datos de resultados del huevo sin eclosionar clasificadas.
  2. 2. El método de cualquier reivindicación anterior, en donde:
    la característica de textura de imagen comprende una medida de primer orden que no tiene en cuenta las relaciones de vecindad; o
    la característica de textura de imagen comprende una medida de segundo orden que refleja una relación entre píxeles vecinos en la imagen fusionada o una región de interés de la imagen fusionada.
  3. 3. El método de cualquier reivindicación anterior, que comprende al menos uno de:
    combinar al menos dos de las características de imagen extraídas en un vector de característica; seleccionar las características de imagen de la imagen fusionada basándose en al menos uno de:
    una característica particular de la al menos una característica a detectar; o
    color de la cáscara de huevo;
    procesar la imagen fusionada para detectar regiones de interés para filtrar datos de imagen del huevo a partir de datos de imagen de fondo;
    proporcionar un indicador de la al menos una característica, como clasificada; o transmitir la señal de control para accionar el aparato según al menos una característica para mover el huevo sin eclosionar clasificado.
  4. 4. El método de cualquier reivindicación anterior,
    en donde dicha combinación del conjunto de imágenes en la imagen fusionada comprende seleccionar un subconjunto de las imágenes para combinarse en la imagen fundida, y en donde dicha selección del subconjunto de imágenes se basa en al menos uno de:
    una característica particular de la al menos una característica a detectar; o
    color del huevo.
  5. 5. El método de cualquier reivindicación anterior, que comprende:
    recibir, en un aparato, las señales de datos de los resultados transmitidos por el transceptor; y usar, por el aparato, las señales de datos para accionar el aparato según al menos una característica para hacer contacto físico con el huevo sin eclosionar para mover o separar el huevo sin eclosionar clasificado en base a la al menos una característica.
  6. 6. El método de cualquier reivindicación anterior, que comprende:
    generar el conjunto de imágenes espectrales del huevo sin eclosionar de una interfaz de formación de imágenes para uno de:
    un espectrograma y una cámara; o
    un dispositivo de formación de imágenes hiperespectrales.
  7. 7. El método de cualquier reivindicación anterior, que comprende al menos uno de:
    determinar que el huevo sin eclosionar es un huevo blanco para calibración de un sistema de formación de imágenes para generar el conjunto de imágenes; o
    determinar que el huevo sin eclosionar es un huevo marrón para la calibración de un sistema de formación de imágenes para generar el conjunto de imágenes.
  8. 8. Un dispositivo dispuesto para realizar los pasos de cualquiera de las reivindicaciones 1 a 7, comprendiendo el dispositivo:
    una interfaz (102) de formación de imágenes dispuesta para recibir el conjunto de imágenes espectrales del huevo sin eclosionar;
    un extractor de características (106) dispuesto para procesar la imagen fundida para extraer características de imagen; y
    un clasificador (108) dispuesto para procesar las características de imagen extraídas para clasificar el huevo sin eclosionar;
    en donde el dispositivo transmite una señal de control para accionar un aparato según el huevo no eclosionado clasificado.
  9. 9. El dispositivo de la reivindicación 8, en donde:
    la interfaz (102) de formación de imágenes se acopla a un transceptor configurado para recibir el conjunto de imágenes de un huevo sin eclosiona;
    la al menos una característica comprende fertilidad y género; y
    comprendiendo una interfaz de red acoplada al transceptor para transmitir señales de datos de resultados del huevo sin eclosionar clasificado y la fertilidad y el género.
  10. 10. El dispositivo de la reivindicación 9 configurado para procesar el conjunto de imágenes para detectar regiones de interés para filtrar datos de imagen del huevo a partir de datos de imagen de fondo.
  11. 11. Un sistema para detectar una característica del huevo sin eclosionar, comprendiendo el sistema:
    el dispositivo de la reivindicación 8;
    un dispositivo (50) de formación de imágenes para capturar el conjunto de imágenes del huevo sin eclosionar, el dispositivo (50) de formación de imágenes proporcionando comunicación con la interfaz (102) de formación de imágenes;
    el al menos un procesador (130) en comunicación con el dispositivo (50) de formación de imágenes, el al menos un procesador (130) configurado para:
    procesar la imagen fusionada; y
    procesar las características de imagen extraídas para clasificar el huevo sin eclosionar según al menos una característica; y
    un sistema de accionamiento (120) para accionar un aparato según el huevo no eclosionado clasificado.
  12. 12. El sistema de la reivindicación 11, en donde el dispositivo (50) de formación de imágenes:
    comprende un espectrógrafo y una cámara; y/o
    es un dispositivo de formación de imágenes hiperespectrales.
ES16751842T 2015-02-17 2016-02-17 Sistemas, dispositivos y métodos para detectar fertilidad y género de huevos sin eclosionar Active ES2970391T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201562116954P 2015-02-17 2015-02-17
PCT/CA2016/000039 WO2016131124A1 (en) 2015-02-17 2016-02-17 Systems, devices, and methods for detecting fertility and gender of unhatched eggs

Publications (1)

Publication Number Publication Date
ES2970391T3 true ES2970391T3 (es) 2024-05-28

Family

ID=56622388

Family Applications (1)

Application Number Title Priority Date Filing Date
ES16751842T Active ES2970391T3 (es) 2015-02-17 2016-02-17 Sistemas, dispositivos y métodos para detectar fertilidad y género de huevos sin eclosionar

Country Status (7)

Country Link
US (5) US10713782B2 (es)
EP (2) EP4345769A3 (es)
BR (1) BR112017017557B1 (es)
CA (1) CA2976276A1 (es)
ES (1) ES2970391T3 (es)
MX (2) MX2017010333A (es)
WO (1) WO2016131124A1 (es)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
MX2017010333A (es) * 2015-02-17 2018-11-12 Matrixspec Solutions Inc Sistemas, dispositivos y métodos para detectar fertilidad y género de huevos no eclosionados.
CN106645605B (zh) * 2016-09-05 2019-01-08 中国农业大学 基于机器视觉的禽类受精蛋检测方法
DE102016011348A1 (de) * 2016-09-16 2018-03-22 Technische Universität Dresden Verfahren zur Klassifizierung von Spektren von Objekten mit komplexem Informationsgehalt
US10902577B2 (en) * 2017-06-19 2021-01-26 Apeel Technology, Inc. System and method for hyperspectral image processing to identify object
US10902581B2 (en) 2017-06-19 2021-01-26 Apeel Technology, Inc. System and method for hyperspectral image processing to identify foreign object
CN108074245B (zh) * 2018-01-03 2022-03-25 深圳北航新兴产业技术研究院 一种微观细胞图像分割与检测的方法和装置
US11925308B2 (en) * 2018-02-16 2024-03-12 Board Of Supervisors Of Louisiana State University And Agricultural And Mechanical College Ionizing radiation-free dental imaging by near-infrared fluorescence, and related systems
DE102018105512A1 (de) 2018-03-09 2019-09-12 Technische Universitaet Dresden Verfahren zur in-ovo fertilisations- und geschlechtsbestimmung am geschlossenen ei
EP3599465A1 (en) 2018-07-24 2020-01-29 Tronico Method for determining a specific characteristic of an embryo in an unhatched egg
EP3834128A1 (en) * 2018-08-07 2021-06-16 Cornell University System and method for selecting artificially fertilized embryos
WO2020095394A1 (ja) * 2018-11-07 2020-05-14 八木 宜英 有精卵雌雄鑑定装置、有精卵雌雄鑑定方法、及びプログラム
CN110458159A (zh) * 2019-08-27 2019-11-15 南京信息工程大学 一种图像纹理特征的提取分类装置及分类方法
CN110751178A (zh) * 2019-09-17 2020-02-04 佛山科学技术学院 一种基于蛋形特征参数的鸡蛋胚胎性别鉴定的方法及装置
CN110991220B (zh) * 2019-10-15 2023-11-07 京东科技信息技术有限公司 禽蛋检测、图像处理方法,装置、电子设备及存储介质
CN111126402B (zh) * 2019-11-04 2023-11-03 京东科技信息技术有限公司 一种图像处理方法、装置、电子设备及存储介质
CN110967459A (zh) * 2019-12-05 2020-04-07 浙江五芳斋实业股份有限公司 一种用于腌制咸鸭蛋的品质检测方法
CN116403245B (zh) * 2023-06-07 2023-08-11 广东省农业科学院动物科学研究所 一种家禽育种数据分析方法及系统

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4182571A (en) * 1978-02-22 1980-01-08 Kewpie Kabushiki Kaisha Egg inspecting apparatus
NL8403213A (nl) 1984-10-22 1986-05-16 Staalkat Bv Inrichting voor het schouwen van voorwerpen, zoals broedeieren.
US4914672A (en) * 1988-07-14 1990-04-03 Embrex, Inc. Method and apparatus of distinguishing between live and dead poultry eggs
US4955728A (en) * 1990-01-23 1990-09-11 Embrex, Inc. Method and apparatus of distinguishing between live and dead poultry eggs
US6396938B1 (en) * 1998-02-27 2002-05-28 University Of Arkansas, N.A. Automatic feather sexing of poultry chicks using ultraviolet imaging
US6234320B1 (en) * 1999-05-11 2001-05-22 Embrex, Inc. Method and apparatus for selectively classifying poultry eggs
JP2001230972A (ja) 1999-12-09 2001-08-24 Canon Inc 撮像装置、画像合成方法、画像処理装置及び画像処理方法
US6535277B2 (en) * 2000-12-20 2003-03-18 Embrex, Inc. Methods and apparatus for non-invasively identifying conditions of eggs via multi-wavelength spectral comparison
US6587575B1 (en) 2001-02-09 2003-07-01 The United States Of America As Represented By The Secretary Of Agriculture Method and system for contaminant detection during food processing
US6789500B2 (en) * 2001-02-27 2004-09-14 Willmar Poultry Company, Inc. Methods for growth stimulation
US7041439B2 (en) * 2001-04-17 2006-05-09 Embrex, Inc. Methods and apparatus for selectively processing eggs having identified characteristics
JP4128791B2 (ja) * 2002-03-27 2008-07-30 株式会社堀内 有精卵の雌雄鑑別技術
US20040040515A1 (en) * 2002-08-30 2004-03-04 Kabusiki Kaisya Horiuchi Method and apparatus for determining the sex of a fertilized egg
EP2338994B1 (en) 2004-09-02 2014-03-19 Yale University Regulation of oncogenes by microRNAs
US20080283449A1 (en) * 2004-10-22 2008-11-20 Image House A/S Method of Analyzing and Sorting Eggs
JP4811110B2 (ja) * 2006-05-10 2011-11-09 株式会社セガ スリット付きチャッカ及びメダルゲーム装置
JP2009095353A (ja) * 2007-10-12 2009-05-07 Aruze Corp ゲーミングマシン
WO2009142755A2 (en) * 2008-05-22 2009-11-26 Marical, Inc. Methods of nourishing animals
CA2804903A1 (en) * 2009-06-25 2010-12-29 Yissum Research Development Company Of The Hebrew University Of Jerusalem Ltd. Hyperspectral identification of egg fertility and gender
US9482397B2 (en) * 2010-03-17 2016-11-01 Once Innovations, Inc. Light sources adapted to spectral sensitivity of diurnal avians and humans
JP5807288B2 (ja) * 2010-06-30 2015-11-10 大日本印刷株式会社 体外培養による胚の製造方法、並びに胚を選別するための方法、装置、及びシステム
US9224200B2 (en) * 2012-04-27 2015-12-29 Parasite Technologies A/S Computer vision based method for extracting features relating to the developmental stages of Trichuris spp. eggs
CN103033512B (zh) * 2012-07-24 2015-06-03 南京农业大学 一种基于高光谱识别种蛋孵化的方法
PT2890973T (pt) * 2012-08-31 2020-09-04 Agri Advanced Tech Gmbh Análise espetrofotométrica da cor das penas de pintos embrionários
GB2518890B (en) * 2013-10-07 2015-09-23 Yair Or Adar System and method for determining viability of eggs
PL3057414T3 (pl) 2013-10-17 2023-10-23 Boehringer Ingelheim Animal Health USA Inc. Urządzenie do selektywnego namierzania struktur zarodkowych i dostarczania substancji
US9395346B2 (en) * 2013-11-18 2016-07-19 Zoetis Services Llc Non-contact egg identification system for determining egg viability, and associated method
AU2015277218B2 (en) * 2014-06-18 2021-02-25 Innopix, Inc. Spectral imaging system for remote and noninvasive detection of target substances using spectral filter arrays and image capture arrays
DE102014010150A1 (de) * 2014-07-04 2016-01-07 Technische Universität Dresden Verfahren und Vorrichtung zur Raman-spektroskopischen in-ovo Geschlechtsbestimmung von befruchteten und bebrüteten Vogeleiern
CN104316473A (zh) * 2014-10-28 2015-01-28 南京农业大学 一种基于高光谱图像对鸡种蛋孵化早期胚胎性别鉴定的方法
MX2017010333A (es) * 2015-02-17 2018-11-12 Matrixspec Solutions Inc Sistemas, dispositivos y métodos para detectar fertilidad y género de huevos no eclosionados.
CN108601335A (zh) * 2015-09-15 2018-09-28 万斯创新公司 促进孵育蛋中的生物反应
US9773154B2 (en) * 2015-10-09 2017-09-26 Universidad Nacional Autónoma de México System for the identification and quantification of helminth eggs in environmental samples
DE102016004051B3 (de) * 2016-04-04 2017-07-27 Technische Universität Dresden Verfahren und Vorrichtung zur optischen in-ovo Geschlechtsbestimmung von befruchteten und bebrüteten Vogeleiern
BR112018077184A2 (pt) * 2016-06-28 2019-04-02 Egg Waves Ltd sistema, aparelho e método para deteção não-invasiva de fertilidade de ovo de ave
EP3490371A4 (en) * 2016-07-29 2020-02-26 Novatrans Group S.A. SYSTEM AND METHOD FOR GENDER DETERMINATION OF BIRD EMBRYON IN OVO
EP3642616B1 (en) * 2017-06-18 2022-08-10 Zen Genetics Ltd. Method and system for spectral determination of egg gender and fertility
EP3483619A1 (en) * 2017-11-13 2019-05-15 Technische Universität München Automated noninvasive determining the sex of an embryo of and the fertility of a bird's egg
DE102018105512A1 (de) * 2018-03-09 2019-09-12 Technische Universitaet Dresden Verfahren zur in-ovo fertilisations- und geschlechtsbestimmung am geschlossenen ei
US10900835B2 (en) * 2018-09-13 2021-01-26 Hypermed Imaging, Inc. Hyperspectral imaging method and device

Also Published As

Publication number Publication date
MX2017010333A (es) 2018-11-12
US10713782B2 (en) 2020-07-14
US20180033139A1 (en) 2018-02-01
EP4345769A2 (en) 2024-04-03
US20200302604A1 (en) 2020-09-24
EP3259577A1 (en) 2017-12-27
US10607338B2 (en) 2020-03-31
BR112017017557B1 (pt) 2022-12-13
US11688064B2 (en) 2023-06-27
EP4345769A3 (en) 2024-05-29
WO2016131124A1 (en) 2016-08-25
EP3259577C0 (en) 2023-12-13
US20220230313A1 (en) 2022-07-21
US20160239953A1 (en) 2016-08-18
MX2022000580A (es) 2022-02-10
US20230281812A1 (en) 2023-09-07
CA2976276A1 (en) 2016-08-25
EP3259577A4 (en) 2018-09-05
US11302000B2 (en) 2022-04-12
US11972566B2 (en) 2024-04-30
BR112017017557A2 (pt) 2018-04-17
EP3259577B1 (en) 2023-12-13

Similar Documents

Publication Publication Date Title
ES2970391T3 (es) Sistemas, dispositivos y métodos para detectar fertilidad y género de huevos sin eclosionar
Li et al. Nonintrusive methods for biomass estimation in aquaculture with emphasis on fish: a review
Lu et al. Hyperspectral imaging technology for quality and safety evaluation of horticultural products: A review and celebration of the past 20-year progress
Saberioon et al. Application of machine vision systems in aquaculture with emphasis on fish: state‐of‐the‐art and key issues
Spottiswoode et al. Visual modeling shows that avian host parents use multiple visual cues in rejecting parasitic eggs
Dalton et al. Retinal specialization through spatially varying cell densities and opsin coexpression in cichlid fish
Zabawa et al. Detection of single grapevine berries in images using fully convolutional neural networks
Steiner et al. Gender determination of fertilized unincubated chicken eggs by infrared spectroscopic imaging
Zisi et al. Incorporating surface elevation information in UAV multispectral images for mapping weed patches
Park et al. Line-scan imaging analysis for rapid viability evaluation of white-fertilized-egg embryos
Przybylak et al. Quality evaluation of potato tubers using neural image analysis method
Majewski et al. Multipurpose monitoring system for edible insect breeding based on machine learning
Dong et al. Assessment of hatching properties for identifying multiple duck eggs on the hatching tray using machine vision technique
Barré et al. Automated phenotyping of epicuticular waxes of grapevine berries using light separation and convolutional neural networks
Nakaguchi et al. Development of an early embryo detection methodology for quail eggs using a thermal micro camera and the YOLO deep learning algorithm
Yemini et al. Preparation of samples for single-worm tracking
Unluturk et al. The discrimination of raw and UHT milk samples contaminated with penicillin G and ampicillin using image processing neural network and biocrystallization methods
Ong et al. Development of a deep learning model from breeding substrate images: a novel method for estimating the abundance of house fly (Musca domestica L.) larvae
AlSaaidah et al. Zebrafish larvae classification based on decision tree model: a comparative analysis
Scarboro et al. Detection of Gray Mold Infection in Plants Using a Multispectral Imaging System
US20240044860A1 (en) System and method of egg fertility and gender detection
Deitloff et al. Bold colors in a cryptic lineage: do Eastern Indigo Snakes exhibit color dimorphism?
Storchi et al. A high dimensional quantification of mouse defensive behaviours reveals enhanced diversity and stimulus specificity
Al-Jubouri Automatic Computer Vision Systems for Aquatic Research
Thomas et al. Egg size variability in trematodes: test of the bet-hedging hypothesis