ES2921128T3 - Procedimiento y dispositivo para la caracterización de ejemplares vivos de forma remota - Google Patents

Procedimiento y dispositivo para la caracterización de ejemplares vivos de forma remota Download PDF

Info

Publication number
ES2921128T3
ES2921128T3 ES18382110T ES18382110T ES2921128T3 ES 2921128 T3 ES2921128 T3 ES 2921128T3 ES 18382110 T ES18382110 T ES 18382110T ES 18382110 T ES18382110 T ES 18382110T ES 2921128 T3 ES2921128 T3 ES 2921128T3
Authority
ES
Spain
Prior art keywords
image
specimen
segmented image
map
live
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES18382110T
Other languages
English (en)
Inventor
Roldan Ivan Amat
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Touchless Animal Metrics SL
Original Assignee
Touchless Animal Metrics SL
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Touchless Animal Metrics SL filed Critical Touchless Animal Metrics SL
Application granted granted Critical
Publication of ES2921128T3 publication Critical patent/ES2921128T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01KANIMAL HUSBANDRY; CARE OF BIRDS, FISHES, INSECTS; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
    • A01K29/00Other apparatus for animal husbandry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • G06T2207/20041Distance transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • G06T2207/20044Skeletonization; Medial axis transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20061Hough transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30188Vegetation; Agriculture

Abstract

El método comprende adquirir una imagen de un espécimen vivo y segmentar la imagen que proporciona una imagen segmentada; midiendo una distancia a varias partes de dicha imagen, proporcionando varias mediciones de distancia y seleccionando un subconjunto de los contenidos en la imagen segmentada de la muestra viva; procesar la imagen segmentada y dijo varias mediciones de distancia referidas a diferentes posiciones contenidas dentro de la imagen segmentada caracterizando la forma del espécimen vivo, caracterizando la profundidad de la muestra viva dentro de las medidas de distancia contenidas en la imagen segmentada; y comparando el mapa de análisis de forma y el mapa de análisis de perfil de profundidad. Si el resultado de dicha comparación se compone dentro de un rango dado, los parámetros de rango de la muestra viva se determinan adicionalmente, incluidos los parámetros de postura, y/o la ubicación o corrección de dichos puntos de referencia anatómicos, y/o parámetros de tamaño corporal y/o un mapa corporal del El espécimen vivo está representado. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Procedimiento y dispositivo para la caracterización de ejemplares vivos de forma remota
Campo técnico
La presente invención está dirigida, en general, al campo de procedimientos y sistemas de mediciones automatizadas. En particular, la invención versa acerca de un procedimiento y de un dispositivo para la caracterización de ejemplares vivos, tales como animales de cría, a distancia, es decir, de forma remota o de una forma sin contacto. La caracterización incluye el cálculo de parámetros de tamaño de los ejemplares vivos, incluyendo la orientación, el tamaño y la postura, entre otros y/o una representación tridimensional de los ejemplares vivos.
En este documento, se comprenderá por “mapa” un número de relaciones espaciales o una secuencia de características o un gráfico en el que se relaciona distinta información. Por lo tanto, un mapa puede ser una secuencia de tamaños y de orientaciones corporales o una relación de temperaturas corporales en distintas posiciones. Esto es aplicable especialmente al mapa de análisis de la forma, al mapa de análisis del perfil de la profundidad y al mapa del cuerpo.
Antecedentes de la invención
Se conocen en la técnica procedimientos y/o dispositivos para una caracterización remota de ejemplares vivos.
Por ejemplo, el documento EP3158289, del mismo solicitante de la presente invención, versa acerca de un procedimiento y de un dispositivo para el cálculo automatizado de parámetros de un objeto, tal como un cerdo u otro animal de cría. El procedimiento comprende: obtener, mediante una cámara bidimensional, en una escena, una imagen bidimensional de al menos un objeto; identificar el objeto en la imagen bidimensional obtenida; calcular, mediante un primer medio, el tamaño de un píxel del objeto en la imagen bidimensional obtenida y segmentada teniendo en cuenta la distancia entre el objeto y la cámara bidimensional; y calcular, mediante un segundo medio, varios parámetros incluyendo al menos el tamaño, las dimensiones, las dimensiones de la parte corporal, características del cuerpo, peso y/o volumen del objeto utilizando dicho tamaño calculado del píxel y un modelo a priori del objeto, incluyendo dicho modelo a priori información que une distintas partes, contornos o formas representativos de varios objetos (200), obtenidos anteriormente con una cámara bidimensional, con varios parámetros de dichos varios objetos.
El documento US-5474085 proporciona un procedimiento y un aparato para una detección remota de animales de cría, utilizando un sistema de detección de imágenes termográficas, para determinar uno o más del número, del peso, de la localización, de la temperatura, del pH de la carcasa, etc., de animales en un área de vigilancia. Una imagen termográfica que comprende píxeles del área es enviada a una placa de digitalización en un microordenador, en el que se convierte la imagen en un conjunto de números. Entonces, los números son interpretados por soporte lógico para proporcionar la información deseada de una forma descifrable.
El documento US-5412420 da a conocer un sistema que mide las características fenotípicas tridimensionales de un animal, tal como una vaca lechera. El sistema utiliza un gran número de haces de luz láser modulada procedentes de una cámara de radar óptico para medir aproximadamente 16 puntos por centímetro cuadrado del animal. Cada haz de rayos láser mide la intensidad, las dimensiones horizontal, vertical y de profundidad y, al combinar las mediciones, el sistema compone una imagen tridimensional muy precisa del animal. El sistema calcula las mediciones fenotípicas deseadas para la conformación del animal al combinar mediciones de puntos seleccionados en el animal. Entonces, el animal almacena las mediciones para cada animal en una base de datos de ordenador para un uso posterior. El sistema también almacena una imagen de la intensidad de la luz de las marcas del animal que es comparada con otras imágenes almacenadas.
El documento US-A1-20150302241 da a conocer sistemas y procedimientos para mejorar la salud y el bienestar de sujetos en un entorno industrial. Los sistemas pueden incluir una cámara dispuesta de manera que observe una o más características de un sujeto, y un procesador, acoplado con la cámara, configurado el procesador para analizar una o más imágenes obtenidas de la misma, para extraer una o más características de la o las imágenes del sujeto, y para analizar una o más de las características o subcaracterísticas anidadas en las mismas para predecir un resultado de un estado del sujeto. En particular, el sistema puede estar configurado para generar una señal de diagnóstico (por ejemplo, un resultado, fiebre, mastitis, virus, una infección bacteriana, celo, etc.) en función del análisis.
El documento “Black cattle body shape and temperature measurement using thermography and KINECT sensor” presenta un sistema de medición de la forma corporal de ganado vacuno negro y de la temperatura. Como indican los autores de este documento, es importante evaluar la calidad del ganado vacuno negro japonés periódicamente durante su proceso de crecimiento, no solo el peso y el tamaño del ganado vacuno, sino que también necesita hacerse un seguimiento de la postura, de la forma y de la temperatura como criterios primarios de evaluación. En este estudio, un sensor KINECT y una cámara térmica obtienen la forma corporal y su temperatura. Todo el sistema está calibrado para operar en un sistema común de coordenadas. Se obtienen datos de nube de puntos desde distintos ángulos y son reconstruidos en un ordenador. Los datos térmicos también son captados. Se combinan tanto los datos de nube de puntos como la información térmica teniendo en cuenta la orientación de la vaca. La información recogida también es utilizada para evaluar y estimar manualmente las condiciones del ganado vacuno.
Sin embargo, ninguno de estos documentos de la técnica anterior permite llevar a cabo mediciones rápidas (por debajo del orden de segundos) y automatizadas para obtener una estimación fiable, reproducible y precisa de los parámetros de orientación y/o de postura tridimensionales del ejemplar vivo y/o calcular un mapa del cuerpo del mismo mientras que el ejemplar vivo se mueve libremente en una granja o en su entorno natural.
Descripción de la invención
La presente invención propone, según un primer aspecto, un procedimiento para la caracterización de un ejemplar vivo a distancia, preferiblemente un animal de cría tal como un cerdo, un toro, una vaca, una oveja, un pollo de engorde, un pato o un pollo, etc. mientras que el animal se mueve libremente en una granja o en su entorno natural.
El procedimiento comprende a) obtener una imagen de un ejemplar vivo mediante una unidad de obtención de imágenes, tal como una cámara, y segmentar, adicionalmente, la imagen obtenida por medio de una unidad de procesamiento, proporcionando una imagen segmentada; b) medir, mediante una unidad telemétrica (a una distancia dada de la unidad de obtención de imágenes), una distancia hasta varias partes de la imagen obtenida, proporcionando varias mediciones de distancia, y seleccionar un subconjunto de esas mediciones de distancia contenidas en la imagen segmentada del ejemplar vivo; y c) procesar, mediante una unidad de procesamiento (igual o distinta de la otra unidad de procesamiento), la imagen segmentada y dichas varias mediciones de distancia referidas a distintas posiciones contenidas en la imagen segmentada.
Según el procedimiento propuesto, dicha etapa c) comprende caracterizar la forma del ejemplar vivo, evaluando la profundidad del ejemplar vivo y comparar los resultados de dichas caracterizaciones anteriores para obtener un parámetro/estimación de calidad indicativo de que las partes corporales del ejemplar vivo o referencias anatómicas son medidas realmente o están colocadas de forma apropiada o se necesita encontrar una mejor estimación.
Es decir, si el resultado de la comparación está comprendido en un intervalo dado, lo que significa que las mediciones llevadas a cabo son correctas, el procedimiento puede determinar, adicionalmente, algunos parámetros del ejemplar vivo (por ejemplo, parámetros de la postura, tales como la orientación en la profundidad y/o la flexión del cuerpo del ejemplar vivo, la ubicación o la corrección de los puntos anatómicos de referencia, parámetros del tamaño corporal, etc.) y/o puede representar, adicionalmente, un mapa del cuerpo (preferiblemente, tridimensional) del ejemplar vivo. Al contrario, si el resultado de la comparación está comprendido fuera de dicho intervalo, lo que significa que las mediciones llevadas a cabo no son correctas, por ejemplo, debido a que se movió el ejemplar vivo mientras se obtenía la imagen, el procedimiento puede comprender, además, repetir las anteriores etapas a) a c), y obtener así un nuevo mapa de análisis del perfil de profundidad y un nuevo mapa de análisis de la forma. De forma alternativa, si el resultado está comprendido fuera del intervalo, puede escogerse hacer nada y representar un mapa del cuerpo del ejemplar vivo que tendrá un error asociado.
La caracterización de la forma se lleva a cabo implementando un algoritmo que calcula en la imagen segmentada uno o más de los siguientes: un centro de masas del ejemplar vivo, una orientación del ejemplar vivo en la imagen segmentada con respecto a un punto de referencia y/o una parte corporal específica del ejemplar vivo localizando puntos anatómicos de referencia del ejemplar vivo en la imagen segmentada. El resultado de la caracterización de la forma proporciona un mapa de análisis de la forma.
La caracterización de la profundidad también se lleva a cabo implementando un algoritmo que calcula en las mediciones de distancia contenidas en la imagen segmentada una parte corporal específica del ejemplar vivo localizando puntos anatómicos de referencia del ejemplar vivo en las mediciones de distancia. El resultado de la caracterización de la profundidad proporciona un mapa de análisis del perfil de la profundidad (puede proporcionar más de uno).
Se debería hacer notar que el orden en el que se llevan a cabo las etapas para las caracterizaciones es irrelevante. Además, ambas caracterizaciones pueden llevarse a cabo al mismo tiempo.
Además, según el procedimiento propuesto, la unidad de obtención de imágenes (por ejemplo, una cámara bien RGB, bien térmica o bien ambas cámaras) y la unidad telemétrica (por ejemplo, un sistema de radar óptico o un sistema de tiempo de vuelo (TOF)) están calibradas. Ambas unidades están dispuestas, preferiblemente, a una distancia dada entre ellas y fijadas, en particular, a un soporte común.
En una realización, el procedimiento estima, adicionalmente, parte de una información tridimensional de la posición relativa de la unidad de obtención de imágenes y del ejemplar vivo para obtener algunos parámetros adicionales, tales como: la media de al menos un ángulo entre la unidad de obtención de imágenes y el ejemplar vivo, el grado de flexión o de planicidad de la forma del ejemplar vivo, la altura de la unidad de obtención de imágenes con respecto al suelo o la altura de la unidad de obtención de imágenes con respecto a la altura del ejemplar vivo y/o un ángulo del eje óptico de la unidad de obtención de imágenes con respecto al suelo.
En una realización, la orientación del ejemplar vivo es calculada ajustando la imagen segmentada en una elipse mediante una función de ajuste por cuadrados, un modelo gaussiano, un análisis de componentes principales (PCA), un rectángulo de área mínima, una transformada de Hough o una relativa al eje principal de la transformada bidimensional de Fourier, entre otros.
En un caso en el que se calcula una parte corporal en el mapa de análisis de la forma, esta parte corporal puede ser calculada mediante una transformada circular de Hough que calcula el radio de una porción que contiene un jamón o un muslo en la imagen segmentada. De forma alternativa, la parte corporal puede ser calculada por una función polinómica de segundo orden que detecta la cola del ejemplar vivo en la imagen segmentada ajustando una parábola en torno al centro de masas y un eje de orientación.
Adicionalmente, para mejorar el mapa de análisis de la forma se pueden llevar a cabo cálculos adicionales. Por ejemplo, en una realización, se calcula el contorno del ejemplar vivo en la imagen segmentada, codificando el contorno calculado en coordenadas polares y aplicando, adicionalmente, una función de transformada de Fourier a dichas coordenadas polares, proporcionando varios coeficientes de Fourier, cuyos módulos son rotacionalmente invariantes y cuyo argumento contiene información de rotación.
En otra realización, la imagen segmentada puede ser codificada como momentos de imagen, por ejemplo, momentos estadísticos, momentos centrales o momentos Hu que proporcionan varios coeficientes que son una representación de la forma de una manera similar a la transformada de Fourier. Sin embargo, esta operación puede aplicarse a un área segmentada, a un contorno o a un subconjunto del contorno.
En otra realización, se calcula el contorno del ejemplar vivo y se calculan adicionalmente métricas de distancia en el contorno calculado en función de una métrica de distancia que incluye euclídea, geodésica, o de métrica de Manhattan, entre otras.
En otra realización, se calcula el contorno del ejemplar vivo a partir de la imagen segmentada mediante una función de esqueletización, proporcionando una imagen del esqueleto del ejemplar vivo. Opcionalmente, se pueden calcular, adicionalmente, puntos de bifurcación y puntos extremos en dicho esqueleto para estimar las posiciones anatómicas de distintas partes corporales.
En otra realización más, se calcula una transformada de la distancia de la imagen segmentada.
La etapa a) puede comprender la captura de varias imágenes del ejemplar vivo en distintos periodos de tiempo, de forma que se puedan captar distintas posturas del ejemplar vivo. En este caso, para cada imagen obtenida, se obtiene una secuencia de mediciones de la distancia.
En este último caso, la información obtenida para cada captura puede integrarse, de forma que se obtenga una secuencia de mapa de análisis del perfil de la profundidad y de mapa de análisis de la forma emparejados. Entonces, el procedimiento puede comprender, además, asignar una puntuación a cada par de mapas y seleccionar el par que tiene una puntuación máxima. De forma alternativa, el procedimiento puede hacer coincidir, adicionalmente, puntos anatómicos de referencia en todas las capturas y acumular distintos fragmentos de los mapas de análisis de los perfiles de profundidad y puntos anatómicos de referencia para calcular una reconstrucción tridimensional del ejemplar vivo, o incluso, el procedimiento puede calcular un mapa del cuerpo para cada captura y acumular toda la información de cada mapa del cuerpo, introduciéndola en un mapa corporal extendido (o mejorado).
En el caso en el que se representa el mapa del cuerpo del ejemplar vivo, este mapa del cuerpo puede ser utilizado para calcular características del mapa del cuerpo en función de características de la unidad de obtención de imágenes (por ejemplo, el color, la temperatura, etc.) o calcular características adicionales medidas mediante un dispositivo adicional, calibrado anteriormente (por ejemplo, una cámara térmica de alta resolución, propiedades espectrales).
Puede ocurrir que la imagen obtenida incluya más de un ejemplar vivo. En este caso, el procedimiento propuesto, en una realización, puede calcular y comparar el mapa de análisis de la forma y el mapa de análisis del perfil de la profundidad obtenidos para cada ejemplar vivo incluido en la imagen, de forma que los ejemplares incluidos en una imagen puedan caracterizarse en una única captura.
La presente invención también propone, según otro aspecto, un dispositivo para la caracterización a distancia de ejemplares vivos. El dispositivo comprende una unidad de obtención de imágenes para obtener una o más imágenes de uno o más ejemplares vivos; una primera unidad de procesamiento para segmentar la imagen obtenida, proporcionando una imagen segmentada; una unidad telemétrica para medir una distancia hasta varias partes de la imagen obtenida, proporcionando varias mediciones de distancia y para medir un subconjunto de esas mediciones de distancia contenido en la imagen segmentada del ejemplar vivo; y una segunda unidad de procesamiento configurada para procesar la imagen segmentada y dichas varias mediciones de distancia referidas a distintas posiciones contenidas en la imagen segmentada.
Preferiblemente, la unidad de obtención de imágenes y la unidad telemétrica están dispuestas a una distancia dada en un mismo soporte.
Las unidades primera y segunda de procesamiento pueden ser unidades independientes o la misma unidad.
Según el dispositivo propuesto, la segunda unidad de procesamiento está adaptada y configurada para implementar el procedimiento del primer aspecto de la invención. Además, la unidad de obtención de imágenes y la unidad telemétrica están calibradas.
El sistema de obtención de imágenes puede ser una cámara de RGB con NIR extendido en el canal rojo y/o una cámara térmica. La unidad telemétrica puede ser un radar óptico giratorio, un radar óptico de barrido, una pluralidad de radares ópticos, un sensor de tiempo de vuelo (TOF), una cámara de TOF o cualquier otro medio telemétrico con o sin partes móviles basado en una detección de un único punto o de múltiples puntos.
Breve descripción de los dibujos
Se comprenderán más completamente las anteriores y otras ventajas y características a partir de la siguiente descripción detallada de realizaciones, con referencia a las figuras adjuntas, que deben ser consideradas de forma ilustrativa y no limitante, en las que:
Las Figuras 1 y 2 son dos diagramas de flujo que ilustran dos realizaciones de un procedimiento para la caracterización a distancia de ejemplares vivos.
La Fig. 3 muestra las tres opciones distintas que pueden ser utilizadas, solas o en combinación de las mismas, para obtener el mapa de análisis de la forma. La Fig. 3A muestra tres capturas en las que se detecta la cola como la distancia mínima del perfil de la profundidad, y esto concuerda con el análisis de la forma al tener el centro de masas más cercano al perfil de la profundidad en la columna central; la Fig. 3B muestra los mismos tres capturas en las que se detecta la cola como la distancia mínima del perfil de la profundidad, y esto concuerda con el análisis de la forma al tener el eje más paralelo al perfil de la profundidad en la columna central; la Fig. 3C muestra las mismas tres capturas en las que se detecta la cola como la distancia mínima del perfil de la profundidad, y esto concuerda con el análisis de la forma localizando la cola en el lado derecho en la columna central.
La Fig. 4A ilustra cómo se llevan a cabo el cálculo del centro de masas y la orientación estimada según una realización; la Fig. 4B muestra cómo se ajustan dos parábolas a los extremos izquierdo (línea discontinua) y derecho (línea continua) del contorno después de corregir la orientación.
La Fig. 5 muestra una representación de la transformada de la distancia de una imagen binaria en función de métrica euclídea como líneas de contorno. La línea discontinua muestra el límite de la imagen segmentada. La puntuación de la imagen es mayor para los puntos que se encuentran más alejados de cualquier límite.
La Fig. 6A muestra una esqueletización de la imagen; la Fig. 6B ilustra triángulos que muestran puntos extremos y círculos que muestran puntos de bifurcación; la Fig. 6C muestra una línea recta que marca la conexión entre la pezuña delantera, la cruz, la cadera y la pezuña trasera que es una primera estimación de puntos anatómicos de referencia; y la Fig. 6D muestra líneas adicionales que marcan la conexión con otros puntos de referencia como la cabeza y la cola (con un círculo blanco) y la anchura del cuerpo en el centro.
La Fig. 7 ilustra cómo permite la coincidencia del mapa de análisis de la forma y de la ubicación del radar óptico de barrido conocer la profundidad específica de un número de puntos de imagen.
La Fig. 8 en su fila superior muestra la secuencia de obtenciones de imagen segmentada y de mediciones telemétricas por medio de un radar óptico, según una realización. La fila central muestra mediciones de distancia y la posición del píxel horizontal en la imagen. La fila inferior muestra la transformación de la distancia y de posiciones de píxeles en un espacio real.
La Fig. 9 muestra la corrección angular del mapa de análisis de perfil medido de la profundidad para medir características corporales específicas y estimar la calidad de la medición.
La Fig. 10A muestra una interpolación del perfil corregido de profundidad y la anotación de partes corporales calculadas por el análisis de la forma y del perfil de la profundidad, en el que es posible comparar el cálculo de posiciones anatómicas de ambos análisis; y la Fig. 10B muestra la imagen original con un contorno binario de la imagen segmentada, un mapa de análisis del perfil interpolado de profundidad y partes corporales calculadas por el análisis del perfil en la Fig. 10A.
La Fig. 11 es un ejemplo de un mapa del cuerpo de un cerdo en el que los puntos anatómicos de referencia están ubicados en un eje tridimensional. El centro de masas es (0,0,0) y distintas partes del cuerpo, como la cola o la cabeza, están cartografiados en un espacio real mostrando las coordenadas en centímetros, por ejemplo.
Las Figuras 12A y 12B son dos imágenes del mismo cerdo obtenidas en dos momentos distintos, puede verse una verja en el lado derecho de (A), mientras que una pared es el único fondo en (B); las figuras 12C y 12D son una esqueletización de una imagen segmentada; las partes corporales son obtenidas mediante un análisis de la forma y procedimientos en la Fig. 6.
La Fig. 13A muestra contornos binarios superpuestos y puntos de referencia y puntos corporales de dos capturas mostradas en la Fig. 12; la Fig. 13B muestra el espacio normalizado mediante traslación y rotación; y la Fig. 13C muestra la transformación espacial en función de los puntos de referencia.
Las Figuras 14A y 14B muestran el contorno, el perfil de la profundidad, los puntos de referencia del análisis del perfil de las columnas izquierda y central de la Fig. 8, respectivamente; la Fig. 14C muestra la superposición de puntos de referencia y de perfiles de la profundidad con coordenadas corregidas en la imagen (B); y la Fig. 14D muestra la superposición de los puntos de referencia, del contorno y de la acumulación de dos mapas de análisis de perfil de la profundidad.
La Fig. 15 muestra la relación anatómica de partes corporales o puntos de referencia.
La Fig. 16 ilustra proyecciones de vista superior y frontal para una relación inequívoca de ángulos fi y zeta. En esta figura también puede observarse que las imágenes pueden ser obtenidas desde cualquier ángulo y distancia.
La Fig. 17A es una segmentación de la imagen de un toro en la que se detectan las puntas de los cuernos, el punto central entre los cuernos y la boca y se trazan líneas de referencia en relación con este par de puntos para construir un mapa de la forma; los puntos muestran la posición de la imagen en la que se mide el perfil de la profundidad (de la Fig. 17d ); la Fig. 17B muestra el análisis de la forma en función de la esqueletización y de la detección de puntos de bifurcación (círculos) y de puntos extremos (triángulos); la Fig. 17C es una ampliación de la Fig. 17B para mostrar ubicaciones específicas de puntos de bifurcación y de puntos extremos; y la Fig. 17D es el perfil de la profundidad en la base de los cuernos y la parte superior de la cabeza.
La Fig. 18 ilustra el mapa de análisis de la forma de la cabeza para localizar los cuernos y calcular la longitud total.
La Fig. 19A es la imagen original; la Fig. 19B muestra contornos delineados e internos desde el borde de Canny; y la Fig. 19C muestra la esqueletización, puntos de bifurcación y puntos extremos como base del mapa de análisis de la forma.
La Fig. 20A es una imagen segmentada como contorno, centro de masas como círculo blanco y posiciones de la imagen del mapa de análisis del perfil de la profundidad como eje perpendicular a la orientación mostrada como la línea de puntos; y la Fig. 20B es el mapa obtenido de análisis de perfil de la profundidad en un espacio real.
La Fig. 21A es una imagen segmentada como contorno, centro de masas como círculo blanco y posiciones de la imagen de la profundidad del perfil como trayectoria que pasa a través de la cabeza y de la cola mostrada como línea de puntos o puntos específicos del mapa de análisis de la forma; y la Fig. 21B es el mapa obtenido de análisis del perfil de profundidad en un espacio real.
Descripción detallada de la invención y de realizaciones preferidas
La presente invención proporciona un procedimiento y un dispositivo para llevar a cabo mediciones automatizadas de ejemplares vivos para caracterizarlos.
La Fig. 1 ilustra gráficamente un diagrama de flujo del procedimiento propuesto según una realización. Según esta realización, el procedimiento obtiene una imagen de un ejemplar vivo mediante una unidad de obtención de imágenes, tal como una cámara térmica o una cámara de RGB, en este caso particular de un cerdo (sin limitación; se puede caracterizar cualquier ejemplar vivo), y segmenta adicionalmente la imagen obtenida proporcionando una imagen segmentada (etapa a). Al mismo tiempo, o posteriormente, el procedimiento mide mediante una unidad telemétrica una distancia hasta varias partes de dicha imagen obtenida, proporcionando varias mediciones de distancia, y selecciona un subconjunto de esas mediciones de distancia contenidas en la imagen segmentada del cerdo (etapa b). Entonces, la imagen segmentada y las mediciones de distancia son procesadas (etapa c). En esta realización particular, la etapa de procesamiento comprende caracterizar la forma del cerdo mediante un algoritmo que calcula un mapa de análisis de la forma (etapa c1); caracterizar la profundidad del cerdo mediante un algoritmo que calcula un mapa de análisis del perfil de la profundidad (etapa c2). Finalmente, el procedimiento implica una comparación del mapa de análisis de la forma y del mapa de análisis del perfil de la profundidad (etapa c3). Se puede utilizar el resultado/puntuación de la comparación decidir si los parámetros del cerdo pueden ser calculados con suficiente calidad y/o se puede calcular un mapa del cuerpo (véase la Fig. 2), preferiblemente una representación tridimensional, con suficiente calidad o si el procedimiento ha de ser repetido, corregido o detenido.
La imagen obtenida es, preferiblemente, una imagen bidimensional de cualquier tipo (por ejemplo, en escala de grises, de color, térmica o de color y térmica). Se puede utilizar cualquier procedimiento de segmentación que convierta la imagen obtenida en una imagen segmentada. Una imagen segmentada es el resultado del procesamiento de una imagen (por ejemplo, en escala de grises, de color, térmica, o combinaciones de las mismas) y de la división de los píxeles de la imagen en dos clases: (1) los píxeles que están contenidos en el cerdo y (2) píxeles no contenidos en el cerdo.
Las imágenes segmentadas pueden ser codificadas de distintas formas: (1) mapa binario, en el que los píxeles contenidos en el cerdo están configurados a un valor máximo y los píxeles no contenidos en el cerdo están configurados al valor mínimo; (2) contorno binario, en el que los píxeles contenidos en el borde del cerdo están configurados al valor máximo y los píxeles no contenidos en el cerdo están configurados a un valor mínimo; (3) vector, en el que las posiciones del límite están configurados en un vector.
La unidad telemétrica está configurada para medir la distancia de al menos dos puntos que están contenidos en la imagen segmentada. Las mediciones de distancia pueden obtenerse mediante distintos procedimientos. Por ejemplo, la unidad telemétrica puede implementarse mediante un radar óptico giratorio con una velocidad de giro de 10 Hz (100 ms para una lectura completa de los ángulos y de las distancias) y menos de un grado de resolución. Una calibración anterior de la unidad de obtención de imágenes y del radar óptico, o la calibración de la cámara térmica como una cámara de luz visible o casi infrarroja que es, entonces, calibrada como radar óptico permite construir una tabla que es utilizada para transformar las coordenadas de radar óptico (es decir, el ángulo y la distancia medida) en coordenadas de imagen (es decir, la fila y la columna de la imagen bidimensional). De forma alternativa, se puede utilizar una cámara dedicada con un filtro óptico específico para detectar únicamente una longitud de onda de radar óptico para un posicionamiento exacto de coordenadas de la imagen e información de radar óptico. De forma alternativa, la unidad telemétrica puede ser implementada mediante un nuevo tipo de cámaras con tecnología de TOF que proporcionan una imagen bidimensional con distancias. La velocidad supera 10 fotogramas por segundo y, en algunos casos, puede lograr 1000 fps. Una calibración anterior de la unidad de obtención de imágenes y del sensor o de la cámara de TOF permite encontrar una relación entre píxeles de la unidad de obtención de imágenes y píxeles del sensor o de la cámara de TOF.
La calibración de la unidad telemétrica y de la unidad de obtención de imágenes puede llevarse a cabo mediante un par de resistencias eléctricas de calentamiento colocadas en un plano en dos profundidades arbitrarias hasta ese plano. En este caso, la unidad de captura es una cámara térmica que está colocada de una forma que la captura sea paralela al plano y las resistencias eléctricas de calentamiento están colocadas en torno al centro del eje vertical de la imagen térmica. El radar óptico giratorio es regulado de una forma que las distancias d1 y d2 de cada resistencia eléctrica de calentamiento sean medidas con respecto a un valor inicial de dL, por ejemplo 2 metros, con respecto a coordenadas de radar óptico (para el radar óptico giratorio estas son el ángulo y la distancia). Dado que la posición en la imagen obtenida cambia con distancias dL esta operación es repetida para distintas distancias dL. Este procedimiento permite construir una tabla de puntos que relacionan posiciones de píxeles y distancias medidas. Entonces, se construye un modelo de regresión que relaciona cualquier coordenada de radar óptico (ángulo y distancia) con una posición específica (x,y) en la imagen obtenida y en la imagen segmentada.
En otro ejemplo, para el caso particular de que la unidad de obtención de imágenes sea una cámara térmica y la unidad telemétrica sea una cámara o un sensor de TOF, la calibración se realiza como antes, pero teniendo en cuenta más puntos y no solo dependiendo de una línea de barrido del radar óptico giratorio.
También son posibles otros procedimientos de calibración. Por ejemplo, se pueden calibrar conjuntamente una unidad de obtención de imágenes compuesta por una cámara de RGB con una extensión de NIR en el canal rojo y una cámara térmica y una unidad telemétrica basadas en un radar óptico giratorio.
La caracterización de la forma para calcular el mapa de análisis de la forma comprende el cálculo de un centro de masas del cerdo, de una orientación del cerdo en la imagen segmentada con respecto a un punto de referencia, y/o de una parte corporal específica del cerdo mediante la localización de puntos anatómicos de referencia del cerdo en la imagen segmentada. Se debería hacer notar que solo se necesita una metodología de lo indicado anteriormente para calcular el mapa de análisis de la forma. Sin embargo, son posibles combinaciones de lo anterior. Las Figuras 3A-3C muestran una realización de los tres cálculos.
Para caracterizar la forma del cerdo, el cerdo se define mediante la imagen segmentada. La forma del cerdo es la forma de la imagen segmentada. La imagen obtenida y la imagen segmentada pueden expresarse como una secuencia de posiciones para construir un mapa binario, un contorno binario o una aproximación de múltiples puntos del contorno. Por lo tanto, una imagen segmentada, s(x,y), en cualquiera de sus formatos puede expresarse como sigue:
1 (x, y) e imagen segmentada
( ’ ■" 0 en otro lugar
en la que x,y son columnas y filas de la imagen digital, respectivamente.
Para calcular el centro de masas, en una realización, la forma del cerdo se caracteriza por medio de momentos de la imagen: Entonces, siguiendo este formato, es posible calcular cualquier momento de la imagen, Mnk según fórmulas estándar:
Mnk = ' Y ^ x n ■ y k ■ s(x,y)
x y
El número de píxeles es igual al momento M00, el centro de masas es igual a (M10/M 00,M01/M 00).
Estos momentos pueden extenderse directamente a momentos centrales, que son invariantes en traslación. Entonces, los momentos invariantes en traslación pueden extenderse adicionalmente para que sean invariantes en escala, y tal invariancia en escala puede extenderse adicionalmente a invariancia en giro (invariancia de momento Hu) mediante cálculos bien conocidos del estado de la técnica. Este conjunto de momentos permite calcular rasgos característicos que pueden asociarse con formas específicas, como una forma de cerdo vista desde puntos de vista específicos (o ángulos de orientación).
Estos momentos también pueden extenderse trivialmente a múltiples dimensiones, por ejemplo 3D para caracterizar también formas tridimensionales:
Figure imgf000008_0001
s(x,y,z ) 1 (x,y,z) e volumen segmentado
0 en otro lugar
en las que x,y,z son columnas, filas y profundidad de un volumen digital, respectivamente.
Para calcular la orientación, la imagen segmentada puede ser ajustada en una elipse mediante un ajuste por mínimos cuadrados, modelos gaussianos, un análisis de componentes principales, una transformada de Hough, etc. La orientación de la elipse ajustada, la orientación de la distribución gaussiana, el ángulo del primer componente principal o la orientación media de líneas de Hough son procedimientos rápidos y fiables para estimar la orientación del objeto.
Para calcular la parte corporal específica, según una realización, véase la Fig. 3C, se puede utilizar una transformada de Hough. La transformada de Hough puede implementarse de muchas formas. En particular, la transformada circular de Hough permite identificar áreas circulares para un intervalo de radios. Esto puede utilizarse para diferenciar la cabeza y la cola del cerdo. Dado que la cola es más redonda puede ser ajustada en un círculo más grande. Por ejemplo, teniendo en cuenta la imagen segmentada como un contorno binario, según se muestra en la Fig. 3C, se puede configurar la transformada circular de Hough para detectar círculos con una sensibilidad elevada y requerir únicamente un número de puntos para ajustarse en un círculo. Un intervalo de círculos puede ser determinado por la siguiente estimación: 1) radio del jamón, RH, será aproximadamente 1/3 del tamaño vertical de la imagen segmentada; 2) entonces, se configura el intervalo de búsqueda de radios a RH /-50% del RH. Entonces, se selecciona el círculo más grande entre los 5 círculos con un máximo de puntuación, lo que tiene como resultado un círculo centrado en la parte de la cola.
Se puede extender el análisis de Hough mediante una transformada semicircular de Hough y obtener el ajuste por semicírculos que será más fiable para obtener diferencias entre la cola y la cabeza. También se extiende a formas elípticas para ajustar la parte central u otras partes del cuerpo o de la cabeza del cerdo. Una transformada generalizada de Hough es otro procedimiento para ajustar un número de formas específicas a distintos ángulos y escalas para hacer que coincidan con una forma. Hay disponibles procedimientos similares de coincidencia de formas y pueden ser utilizados de una forma equivalente.
De una forma similar, se puede detectar la cola del cerdo ajustando un segundo orden polinómico al eje definido por el centro de masas y el ángulo de orientación. La Fig. 4A muestra el centro de masas y el eje de orientación, la Fig. 4B corrige la orientación y ajusta una parábola (segundo orden polinómico) en torno a ambos márgenes. La parte inferior es detectada por la parábola que tiene el vértice más cercano al centro de masas.
El mapa de análisis de la forma puede ser perfeccionado mediante varias estrategias adicionales de cálculo. Por ejemplo, con un análisis de Fourier; en este caso, se puede codificar el contorno del cerdo en coordenadas polares y luego ser ajustado mediante una transformada de Fourier. Esto proporciona varios coeficientes de Fourier, cuyos módulos son invariantes en rotación y cuyo argumento contiene información de rotación.
La Fig. 5 muestra otra estrategia que puede ser utilizada. En este caso, la imagen segmentada es puntuada según la distancia de cualquier punto en la imagen segmentada con respecto al punto límite más cercano. Las métricas de distancia pueden ser múltiples: euclídea, o de métrica de Manhattan o cualquier otra métrica de distancia.
Otra estrategia es calcular el contorno del cerdo calculando una función de esqueletización a partir de la imagen segmentada. El esqueleto de la imagen es una versión delgada de esa forma que es equidistante de sus límites. El esqueleto normalmente hace hincapié en propiedades geométricas y topológicas de la forma, tal como su conectividad, topología, longitud, dirección y anchura. Junto con la distancia de sus puntos hasta el límite de la forma, el esqueleto también puede servir de representación de la forma (contienen toda la información necesaria para reconstruir la forma). Entonces, se pueden utilizar puntos de bifurcación y puntos extremos para estimar posiciones anatómicas de distintas partes corporales.
Se debería hacer notar que estas estrategias complementarias para calcular el mapa de análisis de la forma pueden ser utilizadas en combinación entre ellas.
Con referencia de nuevo a las Figuras 3 y 4, estas figuras muestran ejemplos acerca de cómo el análisis de la forma permite identificar la orientación de la cabeza con respecto a la cola mediante una “detección de la cola” apropiada, que es una etapa básica para asociar puntos de la imagen con partes corporales. La caracterización adicional de la forma permite asociar otros puntos de la imagen con otras partes corporales. Por ejemplo, los puntos de bifurcación con una puntuación límite elevada (calculada a partir de la transformada de la distancia) o cerca del eje del centro de masas pueden asociarse con la cruz (hombro) y la cadera, según se muestra en la Fig. 5. La detección de la cola discrimina adicionalmente entre la cruz y la cadera. Las pezuñas son determinadas por puntos extremos ubicados en la parte inferior de la imagen segmentada y son casi perpendiculares a la línea dibujada por la cruz y la cadera (o eje del centro de masas) y los puntos extremos en la parte inferior, según se muestra en la Fig. 6C.
Con respecto a la caracterización de la profundidad del cerdo para calcular un mapa de análisis del perfil de la profundidad, este procedimiento comprende calcular en las mediciones de la distancia contenidas en la imagen segmentada una parte corporal específica del ejemplar vivo localizando puntos anatómicos de referencia del ejemplar vivo en las mediciones de distancia.
Esta etapa puede dividirse en dos partes principales: (1) la localización de distancias telemétricas en puntos de la imagen se logra mediante una calibración anterior, según se ha descrito anteriormente, y permite calcular coordenadas de la imagen con información de profundidad; y (2) una relación de los puntos de la imagen y de distancias con las partes corporales.
Las coordenadas de la imagen con información de profundidad contenida en la imagen segmentada proporcionan un perfil de la profundidad, según se muestra en la Fig. 7; los puntos más grandes son puntos que se encuentran dentro de la imagen segmentada, mientras que los puntos más pequeños se encuentran fuera. Los resultados del mapa de análisis de la forma permiten asociar puntos de imagen (e información de profundidad) con partes corporales o puntos de referencia. Por ejemplo, información de profundidad obtenida de puntos específicos de referencia, como el centro de masas, la cruz, la cadera, la cola u otros puntos de referencia obtenidos a partir de referencias anatómicas y otros análisis de la forma como una transformada de la distancia o una esqueletización.
El alineamiento específico de la unidad de obtención de imágenes y de la unidad telemétrica permite obtener información tridimensional relevante relacionada con tamaños corporales y una mayor fiabilidad de las partes corporales medidas o de puntos de referencia. Por ejemplo, el alineamiento de un radar óptico giratorio con el eje del centro de masas o la línea del cuerpo definida a lo largo de la cruz y de la cadera en la imagen permite barrer características corporales importantes para obtener información específica de profundidad. La Fig. 7 muestra que cuando el radar óptico alineado barre el eje del centro de masas, el perfil de profundidad obtiene una curva de múltiples picos.
La Fig. 8 muestra ejemplos prácticos en secuencias de imágenes obtenidas con distintos alineamientos del radar óptico, estando definido el eje por los puntos de la cruz y de la cadera. En la fila superior pueden verse tres contornos (o siluetas) binarios en líneas discontinuas; cruces blancas en el contorno muestran la posición de la imagen de las mediciones de distancia obtenidas por un radar óptico giratorio; los círculos muestran las mediciones más cercanas del radar óptico a las posiciones de la cruz y de la cadera definidas por el esqueleto, los puntos de bifurcación y cálculos adicionales explicados anteriormente. La fila central muestra distancias medidas y la posición de la imagen en píxeles horizontales. La fila inferior muestra las mediciones convertidas de posiciones de la imagen a espacio real.
El análisis de curvas de perfil en un espacio real permite confirmar si los puntos de referencia, tales como partes corporales o referencias anatómicas, son medidos realmente y están colocados de forma apropiada o si se puede encontrar una mejor estimación.
La columna izquierda de la Fig. 8 muestra una situación en la que el radar óptico giratorio barre el cerdo cerca del eje definido por la cruz y la cadera, dado que pasa en realidad muy cerca del punto marcado anteriormente como cadera y mostrado en la Fig. 6. Sin embargo, el ángulo del radar óptico giratorio está fuera del eje definido por la cruz y la cadera. En este contexto, el mapa de análisis del perfil de profundidad parece carecer de características corporales importantes. La columna derecha de la Fig. 8 muestra una situación en la que el radar óptico giratorio barre el cerdo alejándose del eje definido por la cruz y la cadera, en la que no es posible obtener ninguna información de profundidad de la forma del cerdo. La columna central de la Fig. 8 muestra una situación en la que el radar óptico giratorio barre el cerdo siguiendo el eje definido por la cruz y la cadera. Como puede verse en la profundidad del perfil en un espacio real, la medición contiene información acerca de la pata trasera. La pata trasera de un cerdo es una parte importante del cerdo y el grosor de la pata trasera de un cerdo es una característica relevante en muchos contextos. Por ejemplo, el tamaño de la pata trasera de un cerdo ibérico es importante cuando se estima el valor de mercado de todo el cerdo. La Fig. 9 muestra un perfil medido cerca del eje definido por la cruz y la cadera en un espacio real que es corregido estimando la componente lineal del perfil. Esto permite medir el grosor del jamón estimando la diferencia de profundidad en la imagen correcta desde la posición más alejada entre la cruz y la cadera hasta la posición más cercana entre la cadera y la cola. Este pico negativo encontrado en la posición más cercana entre la cadera y la cola puede ser considerado un nuevo punto de referencia denominado “cadera-máx”, en referencia a la que es la posición en la que el grosor es máximo en la pata trasera. Se puede configurar la ubicación de este “cadera-máx” como una limitación que debe ser satisfecha en una medición para validar toda la estimación de la orientación, llevar a cabo cualquier medición de parte corporal o almacenar la información de profundidad.
El mapa de análisis del perfil de la profundidad, cuando es barrido a través de puntos clave (por ejemplo, pasando a través de los puntos de la cruz y de cadera estimados en la imagen segmentada por el análisis de la forma), puede ser utilizado adicionalmente para estimar la posición exacta de los puntos de referencia o de las partes corporales. Se puede utilizar para este fin un modelo “a priori” del perfil de la profundidad o la curva de interpolación previstos. La Fig. 10 muestra una interpolación basada en una curva de interpolación de mediciones del perfil de la profundidad de la Fig. 9, mostrando los cuadrados inclinados las posiciones de la cruz y de la cadera calculadas por el análisis de la forma (según se muestra en la Fig. 8), nuevas partes corporales son recalculadas a partir del perfil de profundidad interpolada en el que: la posición de la cruz es la distancia mínima cerca de la cabeza vista de forma lateral, caderamáx es la distancia mínima cerca del lado de la cola y la cadera es el punto de inflexión entre cadera-máx y el punto máximo cerca del centro de masas hacia el lado de la cola.
De una forma más general, la relación de puntos de la imagen y de distancias a partes corporales puede realizarse haciendo referencia a mediciones de profundidad con respecto a puntos de referencia o partes corporales, lo que permite combinar información de una secuencia de mediciones para tener una imagen tridimensional más completa del animal o del objeto complejo, según se muestra en la Fig. 11, es decir, el mapa del cuerpo. Esto puede lograrse como sigue: (1) obtener puntos de referencia o partes corporales a partir del análisis de la forma de la imagen segmentada, según se muestra en la Fig. 6D; (2) calcular un espacio normalizado de referencia; (3) calcular una transformación espacial en función de tales puntos de referencia con respecto al espacio normalizado de referencia; (3) aplicar tal transformación espacial a todas las capturas; (4) acumular todos los perfiles de profundidad en el espacio normalizado de referencia.
La Fig. 12 muestra la primera etapa para obtener puntos de referencia o partes corporales a partir del análisis de la forma de la imagen segmentada. La Fig. 13A muestra la superposición de puntos binarios de contorno y de referencia en coordenadas de la imagen segmentada. Se puede calcular un primer espacio normalizado mediante una traslación directa del contorno binario al centro de masas. A continuación, una rotación de puntos corrigiendo la orientación, según se ha calculado anteriormente. El resultado se presenta en la Fig. 13B. Dado que se consiguieron ambas capturas a distancias similares no necesita corregirse la escala, pero en algunas otras capturas puede ser requerido. Se puede lograr una segunda mejora de coordenadas construyendo una transformación espacial en función de pares de puntos de referencia según se conoce en la técnica mediante distintos medios: función polinómica, correlación ponderada local o por fragmentos. En la Fig. 13C se presenta un mapa polinómico de tercer orden.
Dependiendo de la coincidencia de los puntos de referencia entre dos capturas, se podría rechazar la acumulación de una superposición y se podría solicitar otra captura. La coincidencia de una captura puede estar limitada a la lectura de un perfil de información de profundidad que satisface algunas normas previstas cuando hace referencia a puntos específicos de referencia derivados del análisis de la forma, según se muestra en la Fig. 8, en el que la columna central representa una captura aceptable en términos de radar óptico giratorio de barrido a través de posiciones estimadas de cruz y de cadera, y el perfil de profundidad contiene los picos previstos que están relacionados con el grosor del jamón y del hombro. En esta línea, se pueden requerir múltiples barridos del radar óptico giratorio para captar suficiente información de profundidad y de forma para calcular la orientación y los tamaños del animal o del objeto complejo según información conocida acerca del animal, del ser humano o de objetos complejos.
Las anteriores explicaciones también son aplicables cuando se utilizan una cámara 3D y una imagen segmentada. Por ejemplo, se puede utilizar una cámara térmica y una cámara de TOF para estimar la orientación y los tamaños corporales de un animal. Se puede utilizar una cámara térmica para generar la imagen segmentada que es procesada según los procedimientos descritos anteriormente. La cámara de TOF proporcionará información de profundidad en múltiples puntos, pero el análisis de la forma de la imagen segmentada proporcionará el contexto corporal necesario para aceptar la captura. De una forma similar, la cámara de TOF permite llevar a cabo múltiples barridos lineales a partir de una única captura, y esto podría acelerar de forma significativa el tiempo total de captura.
La Fig. 15 muestra la relación del mapa de análisis de la forma y/o de las coordenadas de la imagen con la información de profundidad para obtener partes corporales o puntos de referencia, por ejemplo, la cruz, comienzo del jamón y la cola, según se muestra en la figura.
En una realización, el procedimiento propuesto comprende, además, estimar parte de la información tridimensional de la posición relativa de la unidad de obtención de imágenes y del ejemplar vivo para obtener la media de al menos un ángulo (zeta o fi) entre la unidad de obtención de imágenes y el cerdo, véase la Fig. 16, por ejemplo calculando el arco tangente de la pendiente de la aproximación lineal del mapa de análisis de perfil de la profundidad. Además, también puede obtenerse un grado de flexión o de planicidad de la forma del cerdo. Se puede estimar la planicidad o la flexión extendiendo el planteamiento mostrado en la Fig. 9, en el que es posible ajustar una función lineal para estimar el ángulo fi. Sin embargo, este principio puede ser extendido a cualquier forma, por ejemplo, mediante un polinomio de segundo o tercer orden. Se puede utilizar un coeficiente ajustado de R al cuadrado para evaluar si una función cuadrática se ajusta mejor que un modelo lineal. Cuando es más probable que se ajuste una función cuadrática, significa que el animal está flexionado y las mediciones necesitan ser repetidas o corregidas de forma apropiada. El cerdo ibérico es un animal muy musculoso en comparación con otros tipos de cerdos y, en general, flexiona su cuerpo y adopta una forma defensiva. Esto debe tenerse en cuenta con frecuencia para superar esta fuente de error en la caracterización.
También puede obtenerse la altura de la unidad de obtención de imágenes con respecto al suelo o la altura de la unidad de obtención de imágenes con respecto a la altura del cerdo. En el primer caso, una unidad telemétrica adicional también podría proporcionar un medio adicional de medición de la distancia para estimar la altura relativa a la que operan la unidad de obtención de imágenes y la unidad telemétrica. En el segundo caso, dado que se mide al menos una distancia mediante la unidad telemétrica y la imagen segmentada está asociada directamente con una medición de la distancia, es posible estimar la altura del animal. Puede calcularse la altura total del animal como sigue: (1) la extensión vertical del contorno segmentado después de que se ha corregido la orientación, según se ha descrito anteriormente; (2) se convierte el cálculo de un número de píxeles mediante la relación de la distancia y del campo de visión vertical o la calibración. Si el radar óptico giratorio está configurado para barrer verticalmente o la unidad telemétrica proporciona una imagen bidimensional de distancias, utilizando puntos de referencia o partes corporales será posible extraer las coordenadas tridimensionales y calcular la altura como una distancia entre puntos de coordenadas. De una forma similar, es posible estimar la altura a partir de un punto de referencia o una parte corporal, por ejemplo “cadera-máx”, según se ha descrito anteriormente, hasta la pezuña trasera, también descrita anteriormente. Entonces, se puede convertir el número de píxeles según la relación del campo de visión y de la distancia, otro procedimiento de calibración, procedente del radar óptico giratorio vertical, o imagen bidimensional de distancias como distancias de coordenadas.
Incluso se puede obtener el ángulo del eje óptico de la unidad de obtención de imágenes con respecto al suelo.
En una realización, el procedimiento propuesto también permite el cálculo de relaciones entre distintas partes corporales o puntos de referencia para obtener un análisis corporal del cerdo. Todos los puntos de referencia o las partes corporales pueden ser utilizados para construir una simplificación del cerdo, según se muestra en la Fig. 6. La calibración permite calcular cualquier punto de imagen con respecto a coordenadas tridimensionales en un espacio real, lo que permite una estimación directa de la orientación y de tamaños en objetos complejos, animales o seres humanos. De la cabeza a la cola como la longitud total del animal, de la cruz a la cola como la longitud del cuerpo, de la cruz a la cadera como la longitud corta del cuerpo, de la cadera a las pezuñas traseras como la longitud del jamón, de la cruz a las pezuñas delanteras como la longitud de la pata delantera, partes superior e inferior de la parte central del cuerpo como anchura del animal. La Fig. 9 también muestra cómo estimar el grosor del jamón a partir del mapa de análisis del perfil de la profundidad, que es una característica importante de los jamones ibéricos. Además, correcciones realizadas sobre el posicionamiento de la cruz, de la cadera o de la cadera-máx podrían proporcionar mediciones más fiables o más interesantes del tamaño y de la orientación. Además, pueden realizarse mediciones del área y del volumen. La medición del área del jamón puede lograrse manteniendo únicamente el área de la imagen segmentada más allá del punto de la cadera. Al añadir información del mapa de análisis del perfil de la profundidad también puede producirse una estimación del volumen del jamón. De forma similar, se pueden lograr el área y el volumen del cuerpo manteniendo el área más allá de la cruz como un punto de referencia.
También se pueden utilizar todos los datos de contexto, tales como el ángulo fi de captura, las distancias mínima, máxima y media, distintos tamaños y la relación entre distintos tamaños, tales como longitudes, áreas o volúmenes para generar una secuencia de características del cerdo.
En este documento, la forma de un cerdo sirve como ejemplo general de una forma compleja. Otros animales como reses, gallinas, pollos de engorde, toros, vacas, ovejas, se adaptarían a este planteamiento en particular, dado que son animales de cría. Los seres humanos también pueden ser modelados según estas referencias y objetos complejos podrían necesitar adaptaciones específicas, dado que un objeto complejo es una expresión amplia. Sin embargo, objetos que siguen un patrón con claros puntos de referencia que no son simplemente cuadrados, triangulares o redondos pueden ser adaptados directamente a partir de este planteamiento, que combina un análisis de la forma de la imagen segmentada e información de profundidad obtenida mediante un medio telemétrico (radar óptico, radar óptico giratorio, radar óptico de barrido, cámaras de TOF o cualquier dispositivo que proporcione una secuencia uni o bidimensional de distancias) que ha sido calibrado de forma apropiada.
Las Figuras 17-20 muestran distintos ejemplos en otros animales de cría, como el toro de lidia o el pollo de engorde. En estas figuras se muestra un planteamiento similar para construir un mapa del cuerpo o una parte de un mapa del cuerpo. Por ejemplo, la Fig. 17A muestra cómo se utilizan puntos anatómicos de referencia para construir un mapa de referencia de la cabeza de un toro de lidia para medir la distancia de los cuernos, una característica importante para establecer el valor de un toro de lidia. También se puede utilizar el mapa de análisis de perfil de la profundidad para calcular la orientación de la cabeza y calcular, con precisión, tal distancia, o incluso la longitud de los cuernos, según se muestra en la Fig. 17B. En la Fig. 19 se muestra la aplicación del mismo procedimiento de esqueletización para un pollo de engorde. En algunos casos, podría ser importante medir con precisión la anchura del pollo de engorde, según se muestra en la Fig. 20. Otros esfuerzos podrían requerir una medición precisa en otro eje, según se muestra en la Fig. 21, o incluso una combinación de la información de ambos ejes o de una superficie bidimensional.
Con referencia a las Figuras 17A-17D, se puede detectar la punta del cuerno de un toro como las posiciones izquierda superior y derecha superior en la cabeza o por encima de la boca. Se puede detectar el centro de masas de la boca mediante un análisis de color o un análisis térmico de la imagen obtenida, dado que la boca tiene una diferencia bien definida en aspecto de color o temperatura. También pueden medirse y detectarse las patas (véase la Fig. 17B) mediante un análisis de la forma similar al de los cerdos haciendo referencia, según una realización, a puntos de bifurcación y puntos extremos en el mapa de análisis de la forma. La cola también puede ser detectada de la misma forma descrita anteriormente con cerdos ajustando una transformada circular de Hough o una función cuadrática.
La orientación de la cabeza puede estimarse mediante un análisis del perfil de la profundidad de una forma similar a la de los cerdos, según se ha descrito anteriormente.
La medición de la distancia entre las puntas de los cuernos puede calcularse con éxito teniendo en cuenta la orientación de la cabeza y corrigiendo la distorsión de la imagen introducida no solo por la distancia (x,y) sino también por la profundidad. Se puede calcular información adicional de la longitud total de los cuernos según se muestra en la Fig. 18. Las propiedades simétricas de la cabeza pueden utilizarse para localizar puntos específicos de referencia o un eje.
También se puede adaptar un pollo de engorde o pollo al procedimiento propuesto. Por ejemplo, la Fig. 19 muestra un pollo de engorde (19A), su imagen segmentada y contornos (19B) y la esqueletización con la detección de puntos de bifurcación y de puntos extremos para construir un mapa de análisis de la forma (19C).
Se pueden utilizar el centro de masas y el eje perpendicular a la orientación como una referencia para obtener un perfil de la profundidad en el eje corto. De forma similar, se pueden utilizar la cabeza y la cola obtenidos a partir de puntos de bifurcación para identificar el eje largo y obtener información del perfil de la profundidad en la otra dirección. Las imágenes desde arriba o el uso de una cámara de TOF permiten el cálculo de ambos perfiles de profundidad a partir de la misma captura. Además, los puntos fuera de la imagen segmentada pueden ser utilizados para calcular la altura del pollo de engorde.
Se presentan ejemplos del mapa de análisis del perfil de la profundidad como mediciones lineales, pero las cámaras de TOF que captan una imagen bidimensional o una acumulación de varias líneas de barrido del radar óptico girado que se correlacionan anatómicamente con el mapa del cuerpo permiten llevar a cabo otros cálculos como el ajuste de un elipsoide. Las mediciones lineales son las mediciones más similares cuando se compara este planteamiento con el uso real de una cinta métrica y la medición de la longitud de un animal. Sin embargo, este procedimiento no está limitado a mediciones lineales y se puede utilizar la información de TOF para ajustar superficies.
Además, los puntos anatómicos pueden contar adicionalmente con la aportación de la información de la imagen. Por ejemplo, la cabeza de los pollos de engorde está más caliente que el cuerpo y esta característica puede ser utilizada para localizar directamente la cabeza. De una forma similar, la cabeza se encuentra normalmente por encima de otras partes corporales y esto puede ser aprovechado por la telemetría o una posición de la imagen.
También se proporciona un dispositivo para la caracterización remota de los ejemplares vivos. El dispositivo comprende principalmente la unidad mencionada de obtención de imágenes, un medio de segmentación, la citada unidad telemétrica y un medio de procesamiento para procesar los distintos datos/información descritos para permitir la caracterización del ejemplar vivo o del objeto complejo. El dispositivo puede incluir, además, una memoria para almacenar las distintas mediciones o información procesadas.
La invención propuesta puede ser implementada en soporte físico, en soporte lógico, en soporte lógico inalterable o en cualquier combinación de los mismos. Si se implementa en soporte lógico, las funciones pueden ser almacenadas como uno o más códigos o instrucciones, o codificadas en los mismos, en un soporte legible por un ordenador.
El soporte legible por ordenador incluye soportes de almacenamiento informático. Los soportes de almacenamiento pueden ser cualquier soporte disponible al que pueda accederse mediante un ordenador. A modo de ejemplo, y no de limitación, tales soportes legibles por un ordenador comprenden RAM, ROM, EEPROM, c D-ROm u otro almacenamiento de disco óptico, almacenamiento de disco magnético u otro dispositivo de almacenamiento magnético, o cualquier otro soporte que pueda ser utilizado para transportar o almacenar un código de programa deseado en forma de instrucciones o estructuras de datos y al que pueda accederse mediante un ordenador. Disco, según se utiliza en la presente memoria, incluye disco compacto (CD), disco láser, disco óptico, disco versátil digital (DVD), y disco Blu-ray, reproduciendo todos ellos los datos ópticamente con láseres, mientras que otros tipos de discos, como los disquetes, normalmente reproducen datos de forma magnética. También se deberían incluir las combinaciones de lo anterior dentro del alcance de los soportes legibles por un ordenador. Cualquier procesador y el soporte de almacenamiento pueden residir en un ASIC. El ASIC puede residir en un terminal de usuario. De forma alternativa, el procesador y el soporte de almacenamiento pueden residir como componentes diferenciados en un terminal de usuario.
Según se utiliza en la presente memoria, los productos de programa de ordenador que comprenden soportes legibles por un ordenador incluyen todas las formas de soporte legible por un ordenador salvo en la medida que se considere que tales soportes son señales transitorias de propagación no reglamentarias.
El alcance de la presente invención está definido en el siguiente conjunto de reivindicaciones.

Claims (15)

REIVINDICACIONES
1. Un procedimiento para la caracterización a distancia de ejemplares vivos, comprendiendo el procedimiento:
a) obtener mediante una unidad de obtención de imágenes una imagen de al menos un ejemplar vivo y, además, segmentar mediante una unidad de procesamiento la imagen obtenida, proporcionando una imagen segmentada; estando definida la forma del ejemplar vivo por la imagen segmentada, expresándose la imagen segmentada como una secuencia de posiciones que forman un mapa binario, un contorno binario o una aproximación multipunto del contorno;
b) medir, mediante una unidad telemétrica, una distancia hasta varias partes de dicha imagen obtenida, proporcionando varias mediciones de distancia, y seleccionar un subconjunto de esas mediciones de distancia contenidas en la imagen segmentada del ejemplar vivo,
en el que dicha unidad de obtención de imágenes y dicha unidad telemétrica están calibradas;
c) procesar, mediante una unidad de procesamiento, la imagen segmentada y dichas varias mediciones de distancia, estando relacionadas dichas varias mediciones de distancia a distintas posiciones contenidas en la imagen segmentada por:
c1) la caracterización de la forma del ejemplar vivo implementando un algoritmo que calcula, en la imagen segmentada, uno o más de los siguientes:
• un centro de masas del ejemplar vivo, y/o
• una orientación del ejemplar vivo en la imagen segmentada con respecto a un punto de referencia, y/o
• una parte corporal específica del ejemplar vivo localizando puntos anatómicos de referencia del ejemplar vivo en la imagen segmentada, proporcionando el resultado de la caracterización de la forma un mapa de análisis de la forma; y
c2) caracterizar la profundidad del ejemplar vivo implementando un algoritmo que calcula en las mediciones de distancia contenidas en la imagen segmentada:
• una parte corporal específica del ejemplar vivo localizando puntos anatómicos de referencia del ejemplar vivo en las mediciones de distancia, siendo el resultado de la caracterización de la profundidad un mapa de análisis del perfil de profundidad; y
c3) comparar el mapa de análisis de la forma y el mapa de análisis del perfil de profundidad, en el que:
- si un resultado de dicha comparación está comprendido en un intervalo dado, el procedimiento comprende, además, determinar parámetros del ejemplar vivo, incluyendo parámetros de la postura, y/o la localización o la corrección de dichos puntos anatómicos de referencia y/o parámetros del tamaño del cuerpo y/o representar un mapa del cuerpo del ejemplar vivo;
- si el resultado de dicha comparación está comprendido fuera de dicho intervalo, el procedimiento comprende, además, repetir las etapas a) a c) obteniendo un nuevo mapa de análisis del perfil de profundidad y un nuevo mapa de análisis de la forma; y
en el que las etapas a) y b) se llevan a cabo en cualquier momento.
2. El procedimiento según la reivindicación 1, en el que la etapa a) comprende la obtención de varias imágenes de dicho ejemplar vivo en distintos periodos de tiempo, captando distintas posturas del ejemplar vivo, y para cada imagen obtenida obtener una secuencia de mediciones de distancia.
3. El procedimiento según cualquiera de las reivindicaciones anteriores, que comprende, además, estimar parte de una información tridimensional de la posición relativa de la unidad de obtención de imágenes y del ejemplar vivo para obtener al menos dos de los siguientes parámetros: la media de al menos un ángulo entre la unidad de obtención de imágenes y el ejemplar vivo, un grado de flexión o de planicidad de la forma del ejemplar vivo, una altura de la unidad de obtención de imágenes con respecto al suelo o la altura de la unidad de obtención de imágenes con respecto a la altura del ejemplar vivo y/o un ángulo de un eje óptico de la unidad de obtención de imágenes con respecto al suelo.
4. El procedimiento según la reivindicación 1, en el que la orientación del ejemplar vivo se calcula ajustando la imagen segmentada en una elipse mediante una función de ajuste por cuadrados, un modelo gaussiano, un análisis de componentes principales, un rectángulo de área mínima o una transformada de Hough.
5. El procedimiento según la reivindicación 1, en el que la parte corporal del mapa de análisis de la forma se calcula mediante:
- una transformada circular de Hough que calcula el radio del jamón o del muslo en la imagen segmentada;
o
- una función polinómica de segundo orden que detecta la cola del ejemplar vivo en la imagen segmentada ajustando una parábola en torno al centro de masas y a un eje de orientación.
6. El procedimiento según la reivindicación 1 o 5, en el que la parte corporal del mapa de análisis de la forma se calcula, adicionalmente:
- calculando un contorno del ejemplar vivo en la imagen segmentada, codificando el contorno calculado en coordenadas polares y aplicando, adicionalmente, una función de transformada de Fourier a dichas coordenadas polares, proporcionando varios coeficientes de Fourier, cuyo módulos son invariantes en rotación y cuyo argumento contiene información de rotación; y/o
- calculando un contorno del ejemplar vivo y calculando, adicionalmente, métricas de distancia en dicho contorno calculado en función de una métrica de distancia incluyendo euclídea, geodésica, o de métrica de Manhattan; y/o
- calculando una transformada de la distancia de la imagen segmentada; y/o
- calculando un contorno del ejemplar vivo calculando una función de esqueletización a partir de la imagen segmentada, proporcionando una imagen del esqueleto del ejemplar vivo y, opcionalmente, calculando adicionalmente puntos de bifurcación y puntos extremos en dicho esqueleto para estimar posiciones anatómicas de distintas partes corporales; y/o
- calculando momentos de imagen de la imagen segmentada.
7. El procedimiento de la reivindicación 2, que comprende, además:
- obtener una secuencia de mapas emparejados de análisis del perfil de profundidad y de análisis de la forma integrando la información obtenida para cada captura;
- asignar una puntuación a cada par de mapas; y
- seleccionar el par que tiene una puntuación máxima.
8. El procedimiento según la reivindicación 2, que comprende, además:
- obtener una secuencia de mapas emparejados de análisis del perfil de profundidad y de análisis de la forma integrando la información obtenida para cada captura;
- asignar una puntuación a cada par de mapas; y
- hacer coincidir puntos anatómicos de referencia en todas las capturas y acumular distintos fragmentos de los mapas de análisis de perfiles de profundidad y puntos anatómicos de referencia para calcular una reconstrucción tridimensional del ejemplar vivo, o
- calcular un mapa del cuerpo para cada captura y acumular toda la información de cada mapa del cuerpo, e introducirla en un mapa corporal extendido.
9. El procedimiento según la reivindicación 1, en el que se representa un mapa del cuerpo del ejemplar vivo, siendo utilizado, adicionalmente, el mapa del cuerpo para calcular características del mapa del cuerpo en función de características de la unidad de obtención de imágenes, incluyendo el color y/o la temperatura y/o para calcular características adicionales medidas por un dispositivo adicional, calibrado anteriormente.
10. El procedimiento según la reivindicación 1, en el que la imagen obtenida en la etapa a) incluye dos o más ejemplares vivos, y el procedimiento comprende calcular y comparar el mapa de análisis de la forma y el mapa de análisis del perfil de profundidad para cada ejemplar vivo incluido en la imagen, evaluando, así, los dos o más ejemplares vivos en la misma captura.
11. El procedimiento según la reivindicación 1, 8 o 9, en el que el mapa del cuerpo es una representación tridimensional del ejemplar vivo.
12. El procedimiento según una cualquiera de las reivindicaciones anteriores, en el que el ejemplar vivo es un animal de cría incluyendo un cerdo, un toro, una vaca, una oveja, un pollo de engorde, un pato o un pollo.
13. Un dispositivo para la caracterización a distancia de ejemplares vivos, que comprende:
- una unidad de obtención de imágenes configurada para obtener al menos una imagen de al menos un ejemplar vivo;
- una primera unidad de procesamiento configurada para segmentar la imagen obtenida, proporcionando una imagen segmentada; definiéndose una forma del ejemplar vivo por la imagen segmentada, en la que la imagen segmentada es expresada como una secuencia de posiciones que forman un mapa binario, un contorno binario o una aproximación de múltiples puntos del contorno;
- una unidad telemétrica configurada para medir una distancia hasta varias partes de dicha imagen obtenida, proporcionando varias mediciones de distancia, en la que se selecciona un subconjunto de esas mediciones de distancia contenidas en la imagen segmentada del ejemplar vivo, estando calibradas dicha unidad de obtención de imágenes y dicha unidad telemétrica;
- una segunda unidad de procesamiento configurada para procesar la imagen segmentada y dichas varias mediciones de distancia, estando relacionadas dichas varias mediciones de distancia con diferentes posiciones contenidas en la imagen segmentada, ejecutando la etapa c) de la reivindicación 1.
14. El dispositivo de la reivindicación 13, en el que el sistema de obtención de imágenes comprende una cámara RGB con NIR extendido en el canal rojo y/o una cámara térmica.
15. El dispositivo de la reivindicación 13 o 14, en el que la unidad telemétrica comprende un radar óptico giratorio, un radar óptico de barrido, una pluralidad de radares ópticos, un sensor de tiempo de vuelo, TOF, o una cámara de TOF.
ES18382110T 2018-02-26 2018-02-26 Procedimiento y dispositivo para la caracterización de ejemplares vivos de forma remota Active ES2921128T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP18382110.7A EP3531373B1 (en) 2018-02-26 2018-02-26 A method and device for the characterization of living specimens from a distance

Publications (1)

Publication Number Publication Date
ES2921128T3 true ES2921128T3 (es) 2022-08-18

Family

ID=61283149

Family Applications (1)

Application Number Title Priority Date Filing Date
ES18382110T Active ES2921128T3 (es) 2018-02-26 2018-02-26 Procedimiento y dispositivo para la caracterización de ejemplares vivos de forma remota

Country Status (16)

Country Link
US (1) US11587350B2 (es)
EP (1) EP3531373B1 (es)
JP (1) JP7336691B2 (es)
KR (1) KR20200127016A (es)
CN (1) CN112262408A (es)
AU (1) AU2019223705A1 (es)
BR (1) BR112020017434A2 (es)
CA (1) CA3092209A1 (es)
DK (1) DK3531373T3 (es)
ES (1) ES2921128T3 (es)
HU (1) HUE059001T2 (es)
MX (1) MX2020008861A (es)
PH (1) PH12020551508A1 (es)
PL (1) PL3531373T3 (es)
PT (1) PT3531373T (es)
WO (1) WO2019162180A1 (es)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110910393B (zh) * 2018-09-18 2023-03-24 北京市商汤科技开发有限公司 数据处理方法及装置、电子设备及存储介质
WO2020261403A1 (ja) * 2019-06-26 2020-12-30 日本電気株式会社 身長推定装置、身長推定方法及びプログラムが格納された非一時的なコンピュータ可読媒体
EP3756458A1 (en) * 2019-06-26 2020-12-30 Viking Genetics FmbA Weight determination of an animal based on 3d imaging
CN111145240A (zh) * 2019-11-18 2020-05-12 西宁市动物疫病预防控制中心(挂西宁市畜牧兽医站牌子) 一种基于3d相机的活体西门塔尔牛体尺在线测量方法
CN113316803A (zh) * 2019-12-20 2021-08-27 博医来股份公司 使用历史校正的统计分析来校正医学图像的分割
CN113915740B (zh) * 2020-07-08 2023-12-22 海信空调有限公司 一种空调器和控制方法
US11892574B2 (en) * 2020-07-31 2024-02-06 GM Global Technology Operations LLC Dynamic lidar to camera alignment
CN111986168B (zh) * 2020-08-07 2024-03-15 中国农业大学 T形分支的双耳根检测与最佳耳根测温帧检测方法及系统
CN112927282A (zh) * 2021-01-25 2021-06-08 华南农业大学 一种基于机器视觉的畜禽脚参数自动测量方法
CN113632749B (zh) * 2021-09-07 2022-11-22 华中农业大学 一种基于动物行为的猪身体状态监测方法
CN113808156B (zh) * 2021-09-18 2023-04-18 内蒙古大学 一种户外牛体体尺检测方法与装置
CN114243925B (zh) * 2021-12-21 2024-02-09 国网山东省电力公司淄博供电公司 基于智能融合终端的台区配变态势感知方法及系统
CN114838665B (zh) * 2022-07-04 2022-09-02 江西农业大学 一种基于黑皮鸡枞菌的尺寸原位测量方法
CN116363141B (zh) * 2023-06-02 2023-08-18 四川省畜牧科学研究院 一种妊娠母猪智能体型评价装置及系统
CN117746343A (zh) * 2024-02-20 2024-03-22 济南格林信息科技有限公司 基于等高轮廓图的人员流动检测方法及系统

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5412420A (en) 1992-10-26 1995-05-02 Pheno Imaging, Inc. Three-dimensional phenotypic measuring system for animals
US5474085A (en) 1994-02-24 1995-12-12 University Of Prince Edward Island Remote thermographic sensing of livestock
IL150915A0 (en) * 2002-07-25 2003-02-12 Vet Tech Ltd Imaging system and method for body condition evaluation
US6974373B2 (en) * 2002-08-02 2005-12-13 Geissler Technologies, Llc Apparatus and methods for the volumetric and dimensional measurement of livestock
US8463006B2 (en) * 2007-04-17 2013-06-11 Francine J. Prokoski System and method for using three dimensional infrared imaging to provide detailed anatomical structure maps
NL1034292C2 (nl) * 2007-08-27 2009-03-02 Maasland Nv Systeem en werkwijze voor het beheren van een groep dieren.
JP5519693B2 (ja) * 2008-12-03 2014-06-11 デラヴァル ホルディング アーベー 動物の身体の状態のスコアを決定するための装置及び方法
AU2010219406B2 (en) * 2010-05-19 2013-01-24 Plf Agritech Pty Ltd Image analysis for making animal measurements
AU2013350867B2 (en) 2012-12-02 2017-08-31 Agricam Ab Systems and methods for predicting the outcome of a state of a subject
EP2957861A1 (en) 2014-06-17 2015-12-23 Expert Ymaging, SL Device and method for automated parameters calculation of an object
US20170196196A1 (en) * 2016-01-08 2017-07-13 Leo Trottier Animal interaction devices, systems and methods
CN110869977A (zh) * 2017-06-29 2020-03-06 吉斯艾集团有限责任公司 基于回归的动物体重估计

Also Published As

Publication number Publication date
AU2019223705A1 (en) 2020-10-01
JP2021515323A (ja) 2021-06-17
BR112020017434A2 (pt) 2020-12-22
US20210004577A1 (en) 2021-01-07
DK3531373T3 (da) 2022-07-11
WO2019162180A1 (en) 2019-08-29
PH12020551508A1 (en) 2021-09-06
PT3531373T (pt) 2022-08-16
HUE059001T2 (hu) 2022-09-28
RU2020131518A (ru) 2022-03-29
KR20200127016A (ko) 2020-11-09
US11587350B2 (en) 2023-02-21
JP7336691B2 (ja) 2023-09-01
MX2020008861A (es) 2020-10-28
EP3531373B1 (en) 2022-05-04
EP3531373A1 (en) 2019-08-28
PL3531373T3 (pl) 2022-08-08
CA3092209A1 (en) 2019-08-29
CN112262408A (zh) 2021-01-22

Similar Documents

Publication Publication Date Title
ES2921128T3 (es) Procedimiento y dispositivo para la caracterización de ejemplares vivos de forma remota
US20200268339A1 (en) System and method for patient positioning
US8340402B2 (en) Device and method for detecting a plant
US7853046B2 (en) Imaging system and method for body condition evaluation
WO2019015154A1 (zh) 基于单目三维扫描系统的三维重构方法和装置
US20100135550A1 (en) Method, device and system for thermography
WO2016113745A1 (en) System, device, and method for dental intraoral scanning
WO2015176637A1 (en) Non-invasive multimodal biometrical identification system of animals
ES2713180T3 (es) Mejoras en y relacionadas con el diagnóstico por imágenes del ojo
US20150043800A1 (en) Image processing apparatus and image processing method
ES2898936T3 (es) Procedimiento de imagen radiográfica, dispositivo de procesamiento de imagen radiográfica y dispositivo de imagen radiográfica
Lati et al. Plant growth parameter estimation from sparse 3D reconstruction based on highly-textured feature points
BR112020022154A2 (pt) sistema e método para determinar a área de superfície corporal animal e subsequentemente determinar o estado de saúde animal
Malian et al. Medphos: A new photogrammetric system for medical measurement
RU2785149C2 (ru) Способ и устройство для получения характеристик живых особей на расстоянии
Detchev et al. Image matching and surface registration for 3D reconstruction of a scoliotic torso
US11341661B2 (en) Method and apparatus for registering live medical image with anatomical model
US11461898B2 (en) Medical imaging device
JP3557509B2 (ja) 動物の個体識別装置
WO2020016812A1 (es) Dispositivo y método de reconstrucción 3d para la medición de pápulas en la piel
Chen QUiLT (Quantitative Ultrasound in Longitudinal Tissue Tracking): Stitching 2D images into 3D Volumes for Organ Health Monitoring
Kumar Novel 3D Back Reconstruction using Stereo Digital Cameras
KR20230105896A (ko) 의료영상 어노테이션 방법 및 장치
JP2024518392A (ja) 医療イメージングのための拡張現実ヘッドセット及びプローブ
CN116262050A (zh) 用于超声标准切面的寻找方法以及测量膀胱容积的计算方法