WO2009087258A1 - Dispositivo portátil y método para determinar la calidad de un trozo de carne - Google Patents

Dispositivo portátil y método para determinar la calidad de un trozo de carne Download PDF

Info

Publication number
WO2009087258A1
WO2009087258A1 PCT/ES2009/000009 ES2009000009W WO2009087258A1 WO 2009087258 A1 WO2009087258 A1 WO 2009087258A1 ES 2009000009 W ES2009000009 W ES 2009000009W WO 2009087258 A1 WO2009087258 A1 WO 2009087258A1
Authority
WO
WIPO (PCT)
Prior art keywords
meat
image
sample
portable system
texture
Prior art date
Application number
PCT/ES2009/000009
Other languages
English (en)
French (fr)
Inventor
Gerda Tomic Stefanin
Renato Salinas Silva
Jose Rolando Silva Serrano
Original Assignee
Universidad De Santiago De Chile
Romeral Cabeza, Angel
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Universidad De Santiago De Chile, Romeral Cabeza, Angel filed Critical Universidad De Santiago De Chile
Publication of WO2009087258A1 publication Critical patent/WO2009087258A1/es

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/02Food
    • G01N33/12Meat; Fish
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20064Wavelet transform [DWT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30128Food products

Definitions

  • the present invention relates to a portable method and system for evaluating the quality of the meat, which can be beef, sheep, pork, poultry or other.
  • the instrument of the present invention comprises a portable device that approaches the samples of meat to be analyzed and with which an image is taken; subsequently relates said image with quality parameters of the meat, in an objective manner, by means of an image analysis method.
  • the present invention solves in a practical, fast and satisfactory way the determination of meat quality parameters such as texture, color and the percentage of contained intramuscular fat.
  • the patent US 6,751,364 discloses a method of obtaining image and analysis of said image, by means of which it allows to determine acceptability, yield and quality of the carcass of an animal, or of a cut of the same, for its later classification.
  • the system consists of a portable instrument for taking the image, which presents inside a camera equipped with a flash.
  • the image is obtained from a piece of meat attached to the area of the twelfth rib, and from said image, the analysis determines different characteristics of the cut, which represent determining parameters of acceptability, yield and quality of meat.
  • the characteristics obtained from the analysis are: percentage and total area of lean tissue, total area of fat, total area of the cut of "loin vein” (also known as ribe eye) and thickness of the fat adjacent to it, and the total area of veined.
  • FIGURES Figure 1 there is an external view (a), a general interior view (b) and a rear view (c).
  • Figure 2 shows a view of the portable device that describes the following components: screen (1), LED ring (2), image capture (3), control buttons (4), screen for the display of information and result (5) and handle (6).
  • Figure 3 main flow diagram for the analysis of color, texture and intramuscular fat of a meat sample.
  • Figure 4 subroutine of capturing a digital image.
  • Figure 5 flow chart for the process of obtaining texture values.
  • Figure 6A and 6B flow chart for the process of obtaining percentage of intramuscular fat.
  • the present invention relates to a portable instrument, by means of which the quality of the meat can be determined with the minimum possible error, substituting the human visual appreciation, for that of a computer (artificial vision).
  • a portable instrument by means of which the quality of the meat can be determined with the minimum possible error, substituting the human visual appreciation, for that of a computer (artificial vision).
  • the meats considered is the meat of cattle, sheep, pigs or poultry or other.
  • the development of the present invention involved developing a new method of measuring parameters, such as the amount of fat contained in the meat, texture and color thereof, by means of a method that allows relating these parameters of meat quality with values obtained from images.
  • artificial vision refers to the image obtained by an electronic device and its interpretation by a computer. This term is also known as "computer vision” (from the English Computer Vision), it is a sub-field of artificial intelligence. The purpose of artificial vision is to program a computer to "understand” a scene or the characteristics of an image.
  • canal refers to the primary unit of the meat resulting from the animal once desensitized, bled, skinned, eviscerated with the head cut at the level of the occipito-atloid articulation without external genital organs and the extremities cut at the level of Ia articulation carpo-metacarpiana and tarso metatarsiana.
  • the term "texture of the meat” refers to the sensory manifestation of the structure of the food and the way of reacting to the application of forces (shear force). It is considered a parameter of edible quality, since it directly influences the palatability, being observed only when the meat has been exposed to a cooking process. It is determined directly by the properties of the myofibrillar conjunctive structures of the cytoskeleton, which are highly variable and depends on the species, race, sex and age, influencing biological and technological variables.
  • the amount of intramuscular fat influences the taste, tenderness or tenderness of the meat and the juiciness of the meat, depending mainly on the sex, the age of the sacrifice and especially the genetic type.
  • the quality of the fat of the meat depends basically on the composition of the feed that the animal has consumed in the fattening phase.
  • color space identify a coordinate system and a region or subspace within that system where each color is represented by a single point.
  • a color space allows you to specify and display any color.
  • the psychophysical parameters of the perception of color are three: the luminosity, the tone and the saturation.
  • the color spaces used are the following: -
  • the "RGB” color space is based on the combination of 3 different chromatic luminance signals: red (R), green (G) and blue (B). Graphically it is represented by a cube.
  • the gray tones are represented by a line joining the origin (0, 0, 0) with the point (255, 255, 255) on which the three color components have the same magnitude. This is coordinate space used by electronic devices such as digital cameras and monitors.
  • - The "XYZ" color space uses a brightness component (component
  • the components “X”, “Y”, “Z” have a value between 0 and 100.
  • the values of each component are obtained through an integration, or summation, which considers the source of illumination, the reflectance of the object and the curves of sensitivity of a standard human observer. Quantitative colorimetry uses three data to calculate colors: the energy of the light source (400 to 700 nm), the reflectance of the object and the sensitivity curves of the eye.
  • the "Lab” color space represents the colors by means of the Hunter Lab scale, as it is one of the easiest to interpret in the food specialty.
  • L measures the luminosity on a scale from 0 to 100, where 100 represents the target and 0 represents the black, "a” measures the shades of red (+127) to green (-128) ) and “b” measures the tones from yellow (+127) to blue (-128).
  • the Lab coordinates can be obtained by mathematical formulas from the values of the XYZ coordinates and the values of X 0 , Y 0 , Z 0 , which represent the "white pattern" of the system, for example:
  • the spatial relationship between a reference pixel X and its neighbor can be defined in any direction (north "N”, south “S”, east “E”, west “O”, or the diagonals
  • Homogeneity _ local ⁇ T ⁇ T
  • image segmentation refers to the technique by means of which, in an image, it is possible to separate the object of interest from the "background" of the image. It does not necessarily identify the category of the object. For example, if it is a
  • clustering refers to a particular method of segmentation of images, which makes a grouping of classes, which are defined through groups, or clusters, which serve as a reference to each point of the image. The clustering is done as follows:
  • a pair of points, or pixels, are selected from the image (the corresponding minimum and maximum in gray scale),
  • Each point, or pixel, of the image is classified according to its proximity to these reference points. In this way the points of the image are separated into two categories, which present a similarity in their gray level values. These particular categories correspond to the group of pixels that correspond to meat and the pixels that do not correspond to meat (which correspond to the background of the image).
  • Thresholding refers to an image segmentation technique. Thresholding is the method by which a threshold level is chosen
  • the "Otsu method” can be used as a thresholding method. This is an iterative method that calculates an optimal threshold for a normalized histogram that contains two pixel distributions. The method assumes that the histogram is formed by two Gaussian curves, and that the threshold T should minimize the weighted sum of each of the variances of the present objects.
  • the present invention has as its objective the creation of a portable instrument, by means of which it is possible to determine the quality of the meat with the minimum possible error, replacing the human visual appreciation with that of a computer (artificial vision).
  • This involved developing a new method for measuring parameters such as the amount of fat contained in the meat, texture and color of the same, by means of a method that allows relating these parameters with values obtained from images captured by a portable device.
  • the present instrument (figure No. 1), is composed of a housing, ideally tubular (1), which has a handle (6), which has a trigger or trigger button and a screen or display (5). Inside the housing there is an image capture device (3) and a microcontroller which are they are connected to the trigger and display, respectively, to proceed with the activation of the device and the display of information. Furthermore, inside the housing there is a lighting and light diffusion system, to obtain a uniform image and without optical aberrations.
  • the present invention consists of a system that is capable of objectively measuring parameters of meat quality, using a method of image analysis, which allows the measurement of meat quality parameters without the need to manipulate the same .
  • the instrument of the present invention is constituted by a portable device that approaches the samples to be analyzed and with which the imaging is performed; later, by means of a method of analyzing the images, it is possible to determine quality parameters of the meat, measured in units understandable to the user, to finally display the results obtained on the screen.
  • the analysis of the image is performed by a computer, through an image analysis method specially designed for this purpose, which starts with the capture of the image and then analyzes the image and displays the results on the screen. of the parameters measured in units understandable to the user.
  • Said analysis is carried out by means of a method that allows the measurement of three quality parameters of the meat, which correspond to: texture of the meat, color and percentage of intramuscular fat, the values of which are displayed in a comprehensible manner for the user (in units of measurement used in the science of food).
  • the procedure to obtain said parameters of the meat begins by approaching the device to a sample of interest, the device in question comprises inside it a lighting system that allows to homogenize the light inside said apparatus, and a device for capturing images, with which an image of the sample is obtained.
  • the procedure to obtain the quality parameters of the meat from an image is semi-automatic, controlled by a computer program, which is initiated by the operator once the image capture device of the sample is triggered. Said program commands the commands of the image capture device and then processes the acquired image to finally display the information on the screen.
  • the computer program once initialized, performs a check of the state of the device, which includes the lighting system and checking the camera.
  • the verification of the image capture device checks the state of the power supply, the state of the memory, communication with the computer, etc. If there is any wrong parameter, the program displays an error message, otherwise the program goes through an automatic device configuration process for the image capture process.
  • the configuration establishes the format of the image, storage location of the image, exposure time, focus adjustment, diaphragm aperture, white balance, etc. Once ready, the image is captured and stored in the previously selected address. Subsequently the program performs a new check of the capture device.
  • artificial vision is used for the determination of quality parameters of the meat.
  • RNA Artificial Neural Networks
  • Artificial neural networks type backpropagation have the characteristic that they are capable of "learning", and it is this characteristic that allows these neural networks to be able to transform the data captured from the image into data of another nature (conventional methods), such as IoT. are the data obtained by a colorimeter, Warner - Bratzler, etc.
  • the Artificial Neural Networks (RNA) are trained associating an input value, a value in the output. Said input value, in the present invention corresponds to a value obtained from selected data of the image obtained from the sample, and said output value refers to the result of the respective parameter obtained by a physical or chemical method on the same sample.
  • the output values for each of the parameters: percentage of intramuscular fat, texture of the meat, and color are determined by the following physical techniques:
  • a method of determining the percentage of intramuscular fat consists of disposing on the wet sample a strip, which has drawn a grid grid. The operator then proceeds to count the areas that correspond to meat and those that correspond to fat within the grid. Subsequently, the recorded fat is expressed as a percentage in the sample. Determination of texture
  • the method of determining the texture of the meat is based on the Warner-Bratzler technique.
  • each cut of meat to analyze obtains cylinders, denominated "cores", of 1, 27 cm. of diameter and 2,5 cm. high, where each cylinder must have an orientation parallel to the muscle fibers.
  • the temperature is stabilized between 1-3 ° C, then these samples are subjected to room temperature.
  • each cylinder (core) is subjected to shearing by a Warner-Bratzler probe, applying the cut perpendicular to the orientation of the muscle fibers for a single time, at a speed of 200 mm / min., With an approximate speed of 80 mm / min. and with a preload of 0.01 kgf.
  • a Texturometer with maximum load cell of 500N (DO-FB05TS Model 2003, Zwick, UIm, Germany) is used.
  • the texture is expressed as Maximum Force in kgf, as an average of 6 measurements. Determination of color
  • the method of determining the color of the meat is carried out by measuring the reflectance of the sample. Said evaluation by reflectance is carried out in a Miniscan XE Plus model N ° 45 / 0-1 Hunterlab, which uses the CIELAB system expressing the results in terms of the variables L, a and b. Six measurements are made for each sample, these being on the surface of the sample, the equipment is programmed with a 10 ° inclination (observation angle) with illuminant D65 (similar to natural light) using an absolute scale for the L coordinates , a and b, where the color is defined in a three-dimensional and spherical space. The average of the 6 measurements represents the value of each of the variables.
  • a method of analyzing the image of the meat sample comprises the steps of: color analysis, analysis of the texture and analysis of the fatty percentage of the meat, and finally the display on the screen of the results obtained in a form understandable to the user.
  • the analysis of the texture is carried out by means of an analysis subroutine, which begins with the recovery of the image stored from a defined address on the computer's hard disk.
  • the clustering or segmentation function is applied to this image, which cuts or segments the image that will be analyzed, selecting from the image only the regions that represent a meat image, and discards the other elements such as the background of the image.
  • the image is subdivided into several sub-images of smaller size, for example, 128 X 128 pixels.
  • Each of these images is analyzed to determine if they correspond only to meat or have a background.
  • the background is black, so if the image contains black pixels, it is discarded.
  • the images finally considered are subjected to a Wavelet analysis, by means of which a vector of 8 components is obtained (1-, 2->, 4-, 5-, 6-, 7-, 8-) Obtained these data, and through the correlation made by the Network
  • the texture variables are transformed to values of shear force.
  • the values obtained from each subimage are averaged in a final stage, and said average value, denoted by F JOTAL , is the delivered as the value corresponding to the texture measurement of the meat.
  • Another alternative to deliver data to the trained Artificial Neural Network is to use the gray values of the image, with which the functions of average entropy, average energy, average local homogeneity and average inertia can be calculated, and from these data , obtain the texture of the meat.
  • a parameter also important in the measurement of meat quality is the percentage of intramuscular fat contained in the meat cut.
  • the process of obtaining the value of the percentage of intramuscular fat begins with the recovery of the image that is in the memory of the computer.
  • the program proceeds to highlight the areas of interest, through simple operations, such as multiplying the image by itself, filtering unwanted brightness, adjust the intensity, etc., in this way a greater contrast of the image with the background is created and at this point the segmentation of the image is performed to separate the background from the area of interest.
  • the RGB coordinates of the image are transformed to CMY coordinates that allow a better definition and the image is transformed in colors to a grayscale image, then a thresholding method is applied, which uses an adaptive method (OTSU method) to find a suitable threshold according to the histogram of the image to achieve a discernment between grays that correspond to white and black.
  • OTSU method adaptive method
  • the process of obtaining color begins with the recovery of the image that is in the memory of the computer. Then this image is reduced in its pixels and then the portion of the image that will be analyzed is segmented, through a function called clustering, considering only the areas with meat. From it, the RGB coordinates that are representative of the sample are obtained. Subsequently, the artificial neural network performs the transformation from the RGB color space to the XYZ color space of the colored zones (meat zone) differentiation of colored zones, through data correlation, to transform the previous coordinates to XYZ coordinates and then to CIE Lab coordinates. Finally, the CIE Lab coordinates are displayed and recorded, obtaining the average color of the meat cut analyzed and returning to the beginning of the program.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Food Science & Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Analytical Chemistry (AREA)
  • Medicinal Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Quality & Reliability (AREA)
  • Spectrometry And Color Measurement (AREA)
  • Image Analysis (AREA)

Abstract

La presente invención se refiere a un método y sistema portátil para la evaluación de la calidad de la carne, que puede ser carne de bovino, ovino, porcino, aves de corral u otra. El instrumento de la presente invención comprende un aparato portátil que se acerca a las muestras de carne a analizar y con el que se realiza una toma de imagen; posteriormente relaciona dicha imagen con parámetros de calidad de Ia carne, en forma objetiva, mediante un método de análisis de imágenes. La presente invención resuelve en forma práctica, rápida y satisfactoria la determinación de parámetros de calidad de la carne como son Ia textura, el color y el porcentaje de grasa intramuscular contenido.

Description

DISPOSITIVO PORTÁTIL Y MÉTODO PARA DETERMINAR LA CALIDAD DE UN TROZO DE CARNE
La presente invención se refiere a un método y sistema portátil para Ia evaluación de Ia calidad de Ia carne, que puede ser carne de bovino, ovino, porcino, aves de corral u otra. El instrumento de Ia presente invención comprende un aparato portátil que se acerca a las muestras de carne a analizar y con el que se realiza una toma de imagen; posteriormente relaciona dicha imagen con parámetros de calidad de Ia carne, en forma objetiva, mediante un método de análisis de imágenes. La presente invención resuelve en forma práctica, rápida y satisfactoria Ia determinación de parámetros de calidad de Ia carne como son Ia textura, el color y el porcentaje de grasa intramuscular contenido. ANTECEDENTES
La patente US 6.751.364 divulga un método de obtención de imagen y el análisis de dicha imagen, mediante el cual permite determinar aceptabilidad, rendimiento y calidad de Ia canal de un animal, o de un corte de Ia misma, para su posterior clasificación. El sistema, consiste en un instrumento portátil para Ia toma de Ia imagen, el cual presenta en su interior una cámara fotográfica provista de un flash. La imagen es obtenida de un trozo de carne adosado a Ia zona de Ia doceava costilla, y a partir de dicha imagen, el análisis determina distintas características del corte, las cuales representan parámetros determinantes de aceptabilidad, rendimiento y calidad de carne. Las características obtenidas del análisis son: porcentaje y área total de tejido magro, área total de grasa, área total de del corte de "lomo vetado" (conocido también como ribe eye) y grosor de Ia grasa adyacente a él, y el área total de veteado.
BREVE DESCRIPCIÓN DE LAS FIGURAS Figura 1, se observa una vista externa (a) , una vista interior general (b) y una vista posterior (c).
Figura 2, se observa una vista del dispositivo portátil que describe los siguientes componentes: pantalla (1), anillo de leds (2), capturadora de imagen (3), botones de control (4), pantalla para el despliegue de información y resultado (5) y mango (6).
Figura 3, diagrama de flujo principal para el análisis de color, textura y grasa intramuscular de una muestra de carne.
Figura 4, subrutina de captura de una imagen digital.
Figura 5, diagrama de flujo para el proceso de obtención de valores de textura. Figura 6A y 6B, diagrama de flujo para el proceso de obtención de porcentaje de grasa intramuscular.
Figura 7, diagrama de flujo para el proceso de obtención de coordenadas CIE-Lab del color.
BREVE DESCRIPCIÓN DE LA INVENCIÓN
La presente invención se relaciona con un instrumento portátil, mediante el cual se puede determinar Ia calidad de Ia carne con el mínimo error posible, sustituyendo Ia apreciación visual humana, por Ia de un computador (visión artificial). Dentro de las carnes consideradas, se encuentra Ia carne de bovino, ovino, porcino o aves de corral u otras.
El desarrollo de Ia presente invención implicó desarrollar un nuevo método de medición de parámetros, tales como Ia cantidad de grasa contenida en Ia carne, textura y el color de Ia misma, por medio de un método que permite relacionar dichos parámetros de calidad de Ia carne con valores obtenidos desde imágenes.
DESCRIPCIÓN DE LA INVENCIÓN
Dentro de Ia presente solicitud se utilizan algunos términos técnicos específicos, que son detallados a continuación para evitar confusiones con otros usos o significados que se puedan ser asociados a los mismos términos:
El término "visión artificial" se refiere a Ia imagen obtenida mediante un dispositivo electrónico y su interpretación por parte de un computador. Este término también es conocido como "visión por computador" (del inglés Computer Vision), es un sub-campo de Ia inteligencia artificial. El propósito de Ia visión artificial es programar un computador para que "entienda" una escena o las características de una imagen. El término "canal" se refiere a Ia unidad primaria de Ia carne que resulta del animal una vez insensibilizado, desangrado, desollado, eviscerado con Ia cabeza cortada al nivel de Ia articulación occipito-atloídea sin órganos genitales externos y las extremidades cortadas al nivel de Ia articulación carpo-metacarpiana y tarso metatarsiana.
El término "textura de Ia carne" se refiere a Ia manifestación sensorial de Ia estructura del alimento y Ia forma de reaccionar frente a Ia aplicación de fuerzas (fuerza de cizalle). Se considera un parámetro de calidad comestible, ya que influye directamente en Ia palatabilidad, observándose sólo cuando Ia carne se ha expuesto a un proceso de cocción. Está determinada directamente por las propiedades de las estructuras miofibrilares conjuntivas del citoesqueleto, las que son muy variables y depende de Ia especie, raza, sexo y edad, influyendo en variables biológicas y tecnológicas.
El término "porcentaje de grasa intramuscular", conocida también como veteado, marmóreo o marmoleado, se refiere a Ia cantidad de grasa visible en un corte de Ia carne. La cantidad de grasa intramuscular influye en el sabor, terneza o ternura de Ia carne y Ia jugosidad de Ia carne, dependiendo fundamentalmente del sexo, Ia edad del sacrificio y sobre todo del tipo genético.
La calidad de Ia grasa de Ia carne depende básicamente de Ia composición del pienso que ha consumido el animal en Ia fase del engorde.
Los términos "espacio de color", "módulos de color" o "sistemas de color", identifican un sistema de coordenadas y una región o subespacio dentro de ese sistema donde cada color es representado por un único punto. Un espacio de color permite especificar y visualizar cualquier color. Los parámetros sicofísicos de Ia percepción de color son tres: Ia luminosidad, el tono y Ia saturación. En Ia presente invención los espacios de color utilizados son ios siguientes: - El espacio de color "RGB", se basa en Ia combinación de 3 señales de luminancia cromática distintas: rojo (R), verde (G) y azul (B). Gráficamente se representa por un cubo. Los tonos grises se representan por una recta que une el origen (0, 0, 0) con el punto (255, 255, 255) sobre Ia cual las tres componentes de color tienen Ia misma magnitud. Este es espacio coordenado utilizado por dispositivos electrónicos como cámaras digitales y monitores. - El espacio de color "XYZ" utiliza una componente de luminosidad (componente
"Y") y dos componentes de coloración o cromaticidad, que corresponden a las componentes "X" y "Z". Las componentes "X", "Y", "Z" poseen un valor comprendido entre 0 y 100. Los valores de cada componente se obtienen mediante una integración, o sumatoria, que considera Ia fuente de iluminación, Ia reflectancia del objeto y las curvas de sensibilidad de un observador humano estándar. La colorimetría cuantitativa utiliza tres datos para calcular colores: Ia energía de Ia fuente luminosa (400 a 700nm), Ia reflectancia del objeto y las curvas de sensibilidad del ojo.
- El espacio de color "Lab" representa los colores mediante Ia escala de Hunter Lab, por ser una de las más fáciles de interpretar en Ia especialidad de alimentos.
Utiliza los parámetros L, a y b, donde "L" mide Ia luminosidad en una escala de 0 a 100, donde 100 representa al blanco y 0 representa el negro, "a" mide las tonalidades de rojo (+127) hasta verde (-128) y "b" mide las tonalidades de amarillo (+127) hasta azul (-128). Las coordenadas Lab pueden obtenerse mediante fórmulas matemáticas a partir de los valores de las coordenadas XYZ y de los valores de X0, Y0, Z0, que representan al "patrón blanco" del sistema, por ejemplo:
I* = 116 - (7/70)1/3 - 16 a* = 500 - [(X/X0)U3 - (Y/Y0)U3 \ b* = 200 - [(Y/Yj3 - {Z/ Zj13}
El término "matriz de co-ocurrencia" describe Ia frecuencia con que aparece un nivel de gris en relación espacial específica con otro valor de gris, basadas en estadísticas de segundo orden, dentro de un área determinada; el nivel de gris de una imagen se obtiene al promediar las coordenadas RGB de dicha imagen, es decir, Nivel_gris=(R+G+B)/3; corresponde a un resumen de Ia forma en que los valores de gris de los píxeles ocurren al lado de otro valor en un área determinada. Corresponde a un histograma de los niveles de grises en dos dimensiones para un par de píxeles (píxel de referencia y vecino).
La relación espacial entre un píxel de referencia X y su vecino puede estar definida en cualquier dirección (norte "N", sur "S", este "E", oeste "O", o las diagonales
"NE", "NO", "SO" o "SE"), solo se consideran cuatro de ellas, ya que basta con estas para describir el espacio deseado. Cuando se habla de una relación "espacialmente invariante" se eligen las direcciones: N, NE, E y SE y se promedian. Se referirá de ahora en adelante a Ia dirección "E" como Ia interacción a 0o, "NE" a 45°, "N" a 90° y "NO" a 135°
Figure imgf000007_0001
Figure imgf000007_0002
A partir de Ia matriz de co-ocurrencia se pueden obtener los siguientes parámetros:
Ng Ng
Energía = ∑∑{p{i,j,d,a))2
• i
Ng Ng i - j)2 - P(iJ, d,a))
¡ i
Ng Ng
Entropía = £ J] (p(/, j, d, a) • log[p(i, j, d, a)])
Ng Ng
Homogeneidad _ local = ^T ^T |p(/5 y 5 J5 a) • (l + (/ + y)2 JJ
' j Donde "i", "j" corresponden a tonalidades de grises; "d" es Ia distancia entre vecinos, "a" es el ángulo del elemento a comparar y "P (i, j)" es Ia probabilidad de Ia frecuencia de observar cuando un par de vecinos separados una distancia "d", tienen un salto de tonalidad de gris "i" a otra tonalidad "j".
El término "segmentación de imágenes" se refiere a Ia técnica mediante Ia cual, en una imagen, es posible separar el Objeto de interés' del 'fondo' de Ia imagen. No necesariamente identifica Ia categoría del objeto. Por ejemplo, si se trata de un
carácter, como Ia letra "A", Ia segmentación sólo identifica Ia región de Ia imagen donde es posible encontrar dicho carácter. El término "clustering", se refiere a un método particular de segmentación de imágenes, que realiza un agrupamiento de clases, las que se definen a través de grupos, o clusters, que sirven de referencia a cada punto de Ia imagen. El clustering se realiza de Ia siguiente forma:
De Ia imagen se seleccionan un par de puntos, o píxeles, referenciales (el mínimo y máximo correspondientes en escala de grises),
Se clasifica cada punto, o píxel, de Ia imagen de acuerdo a su cercanía respecto a estos puntos referenciales. De esta forma se separan los puntos de Ia imagen en dos categorías, los cuales presentan una semejanza en sus valores de nivel de grises. Estas categorías en particular corresponden al grupo de píxeles que corresponden a carne y los píxeles que no corresponden a carne (que corresponden al fondo de Ia imagen).
El término "umbralización" se refiere a una técnica de segmentación de imágenes. La umbralización es el método mediante el cual se elige un nivel de umbral
"T", de manera de clasificar cada píxel de Ia imagen f(x, y) según cumpla con alguna propiedad respecto al umbral, por ejemplo f(x, y) > T, y se asigne a Ia clase objeto, de otro modo, se asigna a Ia clase fondo. Por ejemplo, puede utilizarse el "método de Otsu" como método de umbralización, Este es un método iterativo que calcula un umbral óptimo para un histograma normalizado que contiene dos distribuciones de píxeles. El método asume que el histograma está formado por dos curvas gaussianas, y que el umbral T debe minimizar Ia suma ponderada de cada una de las varianzas de los objetos presentes.
DEFINICIÓN DEL INSTRUMENTO La presente invención tiene como objetivo Ia creación de un instrumento portátil, mediante el cual es posible determinar Ia calidad de Ia carne con el mínimo error posible, sustituyendo Ia apreciación visual humana, por Ia de un computador (visión artificial). Esto implicó desarrollar un nuevo método de medición de parámetros como Ia cantidad de grasa contenida en Ia carne, textura y el color de Ia misma, por medio de un método que permite relacionar dichos parámetros con valores obtenidos desde imágenes capturadas por un dispositivo portátil.
El presente instrumento (figura N°1), está compuesto de una carcasa, idealmente de forma tubular (1), que posee un mango (6), en el cual se dispone de un gatillo o botón de disparo y de una pantalla o display (5). En el interior de Ia carcasa se dispone un dispositivo de captura de imágenes (3) y un microcontrolador los cuales se encuentran conectados al gatillo y display, respectivamente, para proceder al accionamiento del dispositivo y al despliegue de información. Además en el interior de Ia carcasa se dispone de un sistema de iluminación y difusión de luz, para obtener una imagen uniforme y sin aberraciones ópticas.
Aspectos relevantes a considerar para Ia medición de los parámetros de calidad de Ia carne son el origen de Ia carne (ovino, bovino, etc.), el tipo de carne, etc. para poder determinar en forma correcta los parámetros de calidad. La presente invención consiste en un sistema que es capaz de medir en forma objetiva parámetros de calidad de Ia carne, utilizando para ello un método de análisis de imágenes, Io que permite Ia medición de parámetros de calidad de Ia carne sin necesidad de manipular Ia misma.
El instrumento de Ia presente invención está constituido por un dispositivo portátil que se acerca a las muestras a analizar y con el cual se realiza Ia toma de imágenes; posteriormente mediante un método de análisis de las imágenes es posible determinar parámetros de calidad de Ia carne, medidos en unidades comprensibles para el usuario, para finalmente desplegar en pantalla los resultados obtenidos. El análisis de Ia imagen es realizado por un computador, a través de un método de análisis de imágenes especialmente diseñado para este propósito, y que se inicia con Ia captura de Ia imagen para luego realizar el análisis de dicha imagen y desplegar en pantalla los resultados de los parámetros medidos en unidades comprensibles para el usuario. Dicho análisis se realiza mediante un método que permite que Ia medición de tres parámetros de calidad de Ia carne, que corresponden a: textura de Ia carne, el color y el porcentaje de grasa intramuscular, los valores de los cuales son desplegados en forma comprensible para el usuario (en unidades de medida utilizadas en Ia ciencia de los alimentos).
El procedimiento para obtener dichos parámetros de Ia carne comienza por acercar el dispositivo a una muestra de interés, el dispositivo en cuestión comprende en su interior un sistema de iluminación que permite homogeneizar Ia luz en el interior de dicho aparato, y un dispositivo de captura de imágenes, con el cual se obtiene una imagen de Ia muestra. El procedimiento para obtener los parámetros de calidad de Ia carne a partir de una imagen es semi-automático, controlado por un programa computacional, el cual es iniciado por el operador una vez que se gatilla el dispositivo de captura de imágenes de Ia muestra. Dicho programa comanda las órdenes del dispositivo de captura de imagen y posteriormente procesa Ia imagen adquirida para finalmente desplegar Ia información en pantalla.
El programa computacional una vez inicializado, realiza un chequeo del estado del aparato, que comprende el encendido del sistema de iluminación y comprobación de Ia cámara.
La comprobación del dispositivo de captura de imágenes comprueba el estado de Ia alimentación, estado de Ia memoria, comunicación con el computador, etc. Si existe algún parámetro erróneo el programa despliega un mensaje de error, en caso contrario el programa pasa a un proceso de configuración automática del dispositivo para el proceso de captura de imagen. La configuración establece el formato de Ia imagen, localización de almacenamiento de Ia imagen, tiempo de exposición, ajuste de foco, apertura de diafragma, balance de blancos, etc. Una vez listo, se procede a capturar Ia imagen y almacenarla en Ia dirección anteriormente seleccionada. Posteriormente el programa realiza un nuevo chequeo del dispositivo de captura. En Ia presente invención, se utiliza la visión artificial para Ia determinación de parámetros de calidad de Ia carne.
Para realizar el análisis de las imágenes se utiliza una técnica de Redes Neuronales Artificiales (RNA). Las redes neuronales artificiales tipo backpropagation poseen Ia característica que son capaces de "aprender", y es esta característica Ia que permite que dichas redes neuronales sean capaces de transformar los datos capturados desde Ia imagen en datos de otra naturaleza (métodos convencionales), como Io son los datos obtenidos por un colorímetro, Warner - Bratzler, etc. Las Redes Neuronales Artificiales (RNA) son entrenadas asociando a un valor de entrada, un valor en Ia salida. Dicho valor de entrada, en Ia presente invención corresponde a un valor obtenido desde datos seleccionados de Ia imagen obtenida de Ia muestra, y dicho valor de salida se refiere al resultado del parámetro respectivo obtenido mediante un método físico o químico sobre Ia misma muestra. Los valores de salida para cada uno de los parámetros: porcentaje de grasa intramuscular, textura de Ia carne, y color son determinados mediante las siguientes técnicas físicas:
Determinación de grasa intramuscular
Un método de determinación del porcentaje de Grasa Intramuscular, consiste en disponer sobre Ia muestra húmeda una regleta, Ia cual posee dibujada una malla cuadriculada. El operador entonces, procede a contar las zonas que corresponden a carne y las que corresponden a grasa dentro del cuadriculado. Posteriormente, Ia grasa contabilizada se expresa como un porcentaje en Ia muestra. Determinación de textura
El método de determinación de Ia Textura de Ia carne, se basa en Ia técnica de Warner-Bratzler.
De cada corte de carne a analizar se obtiene cilindros, denominados "cores", de 1 ,27 cm. de diámetro y 2,5 cm. de alto, en donde cada cilindro debe presentar una orientación paralela a las fibras musculares. Se procede a estabilizar Ia temperatura entre 1-3° C, luego se someten dichas muestras a temperatura ambiente. Luego de transcurridos 5 minutos cada cilindro (core) se somete a cizallado mediante una sonda Warner-Bratzler, aplicando el corte en sentido perpendicular a Ia orientación de las fibras musculares por 1 sola vez, a una velocidad de 200 mm/min., con una velocidad de aproximación de 80 mm/min. y con una precarga de 0,01 kgf.
Se utiliza un Texturómetro con celda máxima de carga de 500N (DO-FB05TS Modelo 2003, Zwick, UIm, Alemania). La textura se expresa como Fuerza Máxima en kgf, como un promedio de 6 mediciones. Determinación de color
El método de determinación del color de Ia carne, se realiza midiendo Ia reflectancia de Ia muestra. Dicha evaluación por reflectancia se lleva a cabo en un Miniscan XE Plus modelo N° 45 /0-1 Hunterlab, el cual utiliza el sistema CIELAB expresando los resultados en término de las variables L, a y b. Se realizan 6 mediciones por cada muestra, siendo estas sobre Ia superficie de Ia muestra, se programa el equipo con una inclinación de 10° (ángulo de observación) con iluminante D65 (semejante a Ia luz natural) usando una escala absoluta para las coordenadas L, a y b, en donde se define el color en un espacio tridimensional y esférico. El promedio de las 6 mediciones representa el valor de cada una de las variables. En Ia presente invención se describe un método de análisis de Ia imagen de Ia muestra de carne que comprende las etapas de: análisis del color, análisis de Ia textura y análisis del porcentaje graso de Ia carne, y finalmente el despliegue en pantalla de los resultados obtenidos en forma comprensible para el usuario.
ANÁLISIS DE LA TEXTURA DE LA CARNE,
EI análisis de la textura se realiza mediante una subrutina de análisis, que comienza con Ia recuperación de Ia imagen almacenada desde una dirección definida en el disco duro del computador. A esta imagen se Ie aplica Ia función de clustering o segmentación, que recorta o segmenta Ia imagen que será analizada, seleccionando de Ia imagen solamente las regiones que representan una imagen de carne, y desecha los demás elementos como es el fondo de Ia imagen. Luego se subdivide Ia imagen en varias subimágenes de menor tamaño, por ejemplo, de 128 X 128 pixeles. Cada una de estas imágenes es analizada para determinar si ellas corresponden solamente a carne o poseen parte de fondo. El fondo es negro, por Io tanto si Ia imagen contiene pixeles negros, es descartada. Las imágenes finalmente consideradas son sometidas a un análisis de Wavelet, mediante el cual se obtiene un vector de 8 componentes (1- , 2- > , 4- , 5- , 6- , 7- , 8-) Obtenidos estos datos, y mediante la correlación realizada por la Red
Neuronal Artificial entrenada, se transforman las variables de textura a valores de fuerza de cizalle. Los valores obtenidos de cada subimagen son promediados en una etapa final, y dicho valor promedio, que denotamos por FJOTAL, es el entregado como el valor correspondiente a Ia medición de textura de Ia carne. Otra alternativa para entregar datos a Ia Red Neuronal Artificial entrenada, es usar los valores de grises de Ia imagen, con los que se pueden calcular las funciones de entropía promedio, energía promedio, homogeneidad local promedio y Ia inercia promedio, y a partir de estos datos, obtener Ia textura de Ia carne.
ANÁLISIS DEL PORCENTAJE DE GRASA INTRAMUSCULAR.
Un parámetro también importante en Ia medición de calidad de carne, es el porcentaje de grasa intramuscular contenido en el corte de carne.
El proceso de obtención del valor del porcentaje de grasa intramuscular, se inicia con Ia recuperación de la imagen que se encuentra en Ia memoria del computador. A Ia imagen obtenida el programa procede a resaltar las zonas de interés, mediante operaciones simples, como multiplicar Ia imagen por sí misma, filtrar brillo indeseado, ajustar la intensidad, etc., de esta forma se crea un mayor contraste de Ia imagen con el fondo y en este punto se realiza Ia segmentación de Ia imagen para separar el fondo de Ia zona de interés. Las coordenadas RGB de Ia imagen se transforman a coordenadas CMY que permiten una mejor definición y se procede a transformar Ia imagen en colores a una imagen en escala de grises, posteriormente se aplica un método de umbralización, que utiliza un método adaptativo (método OTSU) para buscar un umbral adecuado según el histograma de Ia imagen para lograr un discernimiento entre grises que correspondan a blanco y a negro.
Luego se realiza un conteo de píxeles blancos y negros, con Io que se logra obtener el área correspondiente a grasa y carne en el corte. El área de grasa y el área correspondiente a carne se transforman en porcentaje de grasa intramuscular contenida en el corte, siendo desplegado éste resultado en una pantalla.
ANÁLISIS DEL COLOR DE LA MUESTRA DE CARNE,
El proceso de obtención del color, se inicia con Ia recuperación de Ia imagen que se encuentra en Ia memoria del computador. Luego esta imagen es reducida en sus píxeles y posteriormente es segmentada Ia porción de imagen que se analizará, a través de una función llamada clustering considerando sólo las zonas con carne. De ella se obtienen las coordenadas RGB que son representativas de Ia muestra. Posteriormente, Ia red neuronal artificial realiza Ia transformación desde el espacio de color RGB al espacio de color XYZ de las zonas coloreadas (zona de carne) diferenciación de zonas coloreadas, a través de correlación de datos, para transformar las coordenadas anteriores a coordenadas XYZ y luego a coordenadas CIE Lab. Finalmente se despliegan y registran las coordenadas CIE Lab obteniéndose el color promedio del corte de carne analizado y se regresa al inicio del programa.

Claims

REIVINDICACIONES
1.- Sistema portátil mediante el cual se puede determinar Ia calidad de un trozo de carne sin necesidad de manipularla, que permite Ia captura de imágenes para su posterior procesamiento, CARACTERIZADO porque posee:
Carcasa para contener los elementos que componen el dispositivo portátil; Medios de iluminación para iluminar Ia muestra de carne a fotografiar; Medios ópticos para optimizar las características de percepción de Ia muestra de carne;
Medios de captura de imagen;
Medios para el procesamiento de datos correspondiente a Ia imagen capturada; Medio para el despliegue de información antes y después de analizada Ia muestra de carne; Botones de control;
Mango para sostener el contenedor; Medios para transferir datos; Medios para suministrar energía al dispositivo.
2 - El sistema portátil, según Ia reivindicación 1 , CARACTERIZADO porque Ia carcasa contenedor es un tubo opaco, hermético a Ia luz al momento de medir, en cuyo interior y en un extremo se ubica el medio de captura de imagen y en el extremo opuesto alejado de Ia cámara, Ia abertura que toma contacto con Ia muestra de carne a medir. 3.- El dispositivo portátil, según Ia reivindicación 1 , CARACTERIZADO porque el medio de iluminación es un anillo de LEDs luz día ubicado al interior del contenedor. A - El sistema portátil, según Ia reivindicación 3, CARACTERIZADO porque un difusor de luz homogeniza Ia iluminación de la muestra.
5.- El sistema portátil, según Ia reivindicación 1 , CARACTERIZADO porque los medios ópticos corresponden a un lente polarizador para disminuir los brillos y un filtro para corregir Ia temperatura del color.
6.- El sistema portátil, según Ia reivindicación 1, CARACTERIZADO porque el medio de captura de imagen es una cámara fotográfica digital o una cámara de video digital. 7.- El sistema portátil, según Ia reivindicación 6, CARACTERIZADO porque Ia imagen capturada tiene una resolución a Io menos 1 Mega pixeles.
8.- El sistema portátil, según Ia reivindicación 1, CARACTERIZADO porque el medio para el despliegue de información es una pantalla en Ia cual es mostrada información para configurar el perfil de Ia muestra de carne a medir y el resultado de la medición. 9.- El sistema portátil, según Ia reivindicación 1 , CARACTERIZADO porque el medio para el procesamiento de datos es un computador personal.
10.- El sistema portátil, según Ia reivindicación 1 , CARACTERIZADO porque el medio para el procesamiento de datos es una memoria acoplada a un procesador, ambos ubicados en el interior del dispositivo portátil. 11.- El sistema portátil, según Ia reivindicación 1 y 9, CARACTERIZADO porque el medio para transferir datos es un cable fijo o desmontable con conector USB que conecta con el computador portátil.
12.- El sistema portátil, según Ia reivindicación 1 , CARACTERIZADO porque el medio para transferir datos es un sistema inalámbrico. 13.- El sistema portátil, según Ia reivindicación 1 , CARACTERIZADO porque el medio para suministrar energía es una batería.
14.- El sistema portátil, según la reivindicación 1 , CARACTERIZADO porque el medio para suministrar energía es un cable conectado a una fuente externa. 15.- Método para la evaluación de Ia calidad de un trozo de carne sin la necesidad de manipularla, CARACTERIZADO porque comprende las siguientes etapas: Encender el dispositivo portátil;
Presionar el botón o gatillo del dispositivo portátil para dar inicio a Ia medición; Iniciar proceso de captura de imagen por Ia ejecución del software almacenado en Ia memoria acoplada al procesador o en computador personal que realiza los siguientes pasos:
Verificar Ia comunicación entre el dispositivo portátil y el procesador; Encender los leds; Encender Ia cámara;
Verificar estado de Ia cámara;
Desplegar en pantalla opciones de configuración de acuerdo al tipo de carne a medir;
Seleccionar el tipo de carne a medir;
Configurar Ia cámara de acuerdo al perfil de Ia muestra a medir; Capturar una imagen fotográfica digital; Transmitir la imagen digital al procesador; almacenar Ia imagen digital en Ia mmeemmoorriiéa acoplada al procesador;
Activar el modo ahorro de energía de Ia cámara hasta que se inicie un nuevo ciclo;
Calcular, sobre Ia base de Ia imagen obtenida, parámetros de textura, grasa intramuscular y color de Ia carne;
Desplegar el resultado en Ia pantalla.
16.- Un método según Ia reivindicación 15, CARACTERIZADO porque Ia etapa de configurar Ia cámara, parámetros como formato de Ia imagen, foco, tiempo de exposición, diafragma y balances de blancos son entregados por el procesador a Ia cámara, de acuerdo al tipo de carne de Ia muestra seleccionada. 17.- Un método según Ia reivindicación 15, CARACTERIZADO porque determinar parámetros de Ia textura de Ia muestra de carne comprende los siguientes pasos:
Recuperar Ia imagen digital desde memoria;
Aplicar una función matemática para segmentar Ia imagen digital;
Seleccionar, de Ia imagen, regiones que correspondan sólo a carne;
Aplicar una función matemática para transformar Ia imagen en colores en una imagen en escala de grises;
Obtener un vector de 8 componentes;
Correlacionar a través de Ia Red Neuronal Artificial las variables obtenidas; Obtener un valor de textura de Ia carne asociado a un conjunto de datos de textura de Ia carne;
Calcular, mediante el un análisis de Wavelet, un vector de 8 componentes; Obtener un valor de textura de Ia carne asociado al vector de 8 componentes; Desplegar el resultado obtenido para Ia textura de Ia carne en una pantalla.
18.- Un método según Ia reivindicación 17, CARACTERIZADO porque los datos de textura de la carne también pueden ser obtenidos mediante pruebas de fuerza de cizalle, Ia cual se basa en la técnica de Warner-Bratzler, en donde se calcula, utilizando Ia escala de grises, las funciones de entropía promedio, energía promedio, homogeneidad local promedio y Ia inercia promedio.
19.- Un método según Ia reivindicación 15, CARACTERIZADO porque determinar el parámetro del color de Ia muestra de carne comprende los siguientes pasos:
Recuperar Ia imagen digital desde memoria; Reducir el número de píxeles;
Segmentar Ia porción de Ia imagen a analizar, considerando sólo zona con carne;
Obtener coordenadas RGB representativas de Ia muestra;
Aplicar una función matemática para transformar los datos desde el espacio de color RGB al espacio de color XYZ; Relacionar los valores de las coordenadas XYZ con un valor seleccionado de un conjunto de datos de color expresado en coordenadas ClE L*a*b
Desplegar en pantalla las coordenadas CIE Lab con el color promedio del corte de carne analizado.
20.- Un método según Ia reivindicación 15, CARACTERIZADO porque determinar el parámetro el porcentaje de grasa intramuscular de Ia muestra de carne comprende los siguientes pasos:
Recuperar Ia imagen digital desde memoria;
Aplicar una función de segmentación;
Obtener una zona de interés; Transformar Ia imagen en escala de grises;
Aplicar una función de umbralización;
Aplicar un método adaptativo para buscar umbral adecuado de discernimiento entre grises que correspondan a blanco y negro;
Realizar el conteo de pixeles correspondientes a grasa; Realizar el conteo de píxeles correspondientes a carne;
Calcular el porcentaje de grasa intramuscular en base al cálculo del área de grasa y al cálculo del área de carne;
Desplegar el resultado en pantalla.
21.- Un método según Ia reivindicación 20, CARACTERIZADO porque Ia etapa de aplicar una función de umbralización consiste en definir un nivel umbral de manera de clasificar cada píxel de acuerdo al tipo de carne de Ia muestra.
22.- Un método según la reivindicación 17,19 y 20, CARACTERIZADO porque en el cálculo de parámetros se utilizan redes neuronales.
PCT/ES2009/000009 2008-01-10 2009-01-09 Dispositivo portátil y método para determinar la calidad de un trozo de carne WO2009087258A1 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CLCL62-2008 2008-01-10
CL200800062A CL2008000062A1 (es) 2008-01-10 2008-01-10 Sistema portatil mediante el cual se puede determinar la calidad de un trozo de carne sin necesidad de manipularla, que permite la captura de imagenes para su posterior procesamiento; y metodo asociado.

Publications (1)

Publication Number Publication Date
WO2009087258A1 true WO2009087258A1 (es) 2009-07-16

Family

ID=40261124

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/ES2009/000009 WO2009087258A1 (es) 2008-01-10 2009-01-09 Dispositivo portátil y método para determinar la calidad de un trozo de carne

Country Status (5)

Country Link
AR (1) AR066601A1 (es)
BR (1) BRPI0804880A2 (es)
CL (1) CL2008000062A1 (es)
DE (1) DE102008044764A1 (es)
WO (1) WO2009087258A1 (es)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011058529A3 (es) * 2009-11-16 2011-07-07 Pontificia Universidad Católica De Chile Método y sistema para analizar automáticamente en tiempo real, la calidad de muestras de carnes de pescado procesado en base a su apariencia externa, que circulan a través de una cinta transportadora permitiendo detectar defectos superficiales y clasificar las carnes según patrones de calidad
CN109612950A (zh) * 2018-12-29 2019-04-12 中国肉类食品综合研究中心 一种冷冻畜肉储藏周期预测装置及方法
US11497221B2 (en) 2019-07-19 2022-11-15 Walmart Apollo, Llc Systems and methods for managing meat cut quality
CN116359142A (zh) * 2023-03-27 2023-06-30 山东千禧农牧发展有限公司 一种鸡肉品质的评价方法
US11803958B1 (en) 2021-10-21 2023-10-31 Triumph Foods Llc Systems and methods for determining muscle fascicle fracturing

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2516118B1 (de) * 2009-12-23 2013-11-06 CFS Bühl GmbH Verfahren zum qualitätsklassieren von lebensmittelscheiben eines lebensmittelriegels
US20160203591A1 (en) * 2015-01-09 2016-07-14 Umm Al-Qura University System and process for monitoring the quality of food in a refrigerator

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0444675A2 (en) * 1990-02-28 1991-09-04 Slagteriernes Forskningsinstitut Method and apparatus for determining the quality properties of individual pieces of meat
GB2273774A (en) * 1992-12-22 1994-06-29 Cornell Res Foundation Inc Methods and apparatus for analyzing an ultrasonic image of an animal or carcass
US20030072472A1 (en) * 2001-10-15 2003-04-17 Peter Haagensen Image analysis systems for grading of meat, predicting quality of meat and/or predicting meat yield of an animal carcass
WO2003034059A1 (en) * 2001-10-18 2003-04-24 Machinery Developments Limited Apparatus and process for analyzing cuts of meat

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0444675A2 (en) * 1990-02-28 1991-09-04 Slagteriernes Forskningsinstitut Method and apparatus for determining the quality properties of individual pieces of meat
GB2273774A (en) * 1992-12-22 1994-06-29 Cornell Res Foundation Inc Methods and apparatus for analyzing an ultrasonic image of an animal or carcass
US20030072472A1 (en) * 2001-10-15 2003-04-17 Peter Haagensen Image analysis systems for grading of meat, predicting quality of meat and/or predicting meat yield of an animal carcass
WO2003034059A1 (en) * 2001-10-18 2003-04-24 Machinery Developments Limited Apparatus and process for analyzing cuts of meat

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011058529A3 (es) * 2009-11-16 2011-07-07 Pontificia Universidad Católica De Chile Método y sistema para analizar automáticamente en tiempo real, la calidad de muestras de carnes de pescado procesado en base a su apariencia externa, que circulan a través de una cinta transportadora permitiendo detectar defectos superficiales y clasificar las carnes según patrones de calidad
CN109612950A (zh) * 2018-12-29 2019-04-12 中国肉类食品综合研究中心 一种冷冻畜肉储藏周期预测装置及方法
CN109612950B (zh) * 2018-12-29 2021-04-30 中国肉类食品综合研究中心 一种冷冻畜肉储藏周期预测装置及方法
US11497221B2 (en) 2019-07-19 2022-11-15 Walmart Apollo, Llc Systems and methods for managing meat cut quality
US11864562B2 (en) 2019-07-19 2024-01-09 Walmart Apollo, Llc Systems and methods for managing meat cut quality
US11803958B1 (en) 2021-10-21 2023-10-31 Triumph Foods Llc Systems and methods for determining muscle fascicle fracturing
CN116359142A (zh) * 2023-03-27 2023-06-30 山东千禧农牧发展有限公司 一种鸡肉品质的评价方法
CN116359142B (zh) * 2023-03-27 2024-03-22 山东千禧农牧发展有限公司 一种鸡肉品质的评价方法

Also Published As

Publication number Publication date
AR066601A1 (es) 2009-09-02
DE102008044764A1 (de) 2009-07-30
BRPI0804880A2 (pt) 2009-09-08
CL2008000062A1 (es) 2008-03-24

Similar Documents

Publication Publication Date Title
WO2009087258A1 (es) Dispositivo portátil y método para determinar la calidad de un trozo de carne
US10285624B2 (en) Systems, devices, and methods for estimating bilirubin levels
CN108445007B (zh) 一种基于图像融合的检测方法及其检测装置
CN104880412B (zh) 新鲜度信息输出方法和新鲜度信息输出装置
CN102119361B (zh) 以高精度检测眼睛缺陷的基于相机的方法
CN105122943B (zh) 特性化光源和移动设备的方法
AU2009301638B2 (en) Modified apparatus and method for assessment, evaluation and grading of gemstones
JP2021511901A (ja) 創傷の撮像および分析
US8260005B2 (en) Portable tool for determining meat quality
JP2011530911A5 (es)
CN107277356A (zh) 逆光场景的人脸区域处理方法和装置
CN104114079A (zh) 用于识别眼部健康状况的系统和方法
EP2967359A1 (en) Estimating bilirubin levels
EP2140251A1 (en) Apparatus and methods for assessment, evaluation and grading of gemstones
JP6356141B2 (ja) カメラ−プロジェクタ・システムを用いてアクシデントの最中にヘモグロビンレベルを測定する医療装置又はシステム
US20190298252A1 (en) Imaging-based methods and apparatuses for assessing skin pigmentation
EP3219251A1 (en) Organ image capture device and program
Spitzer et al. Color constancy: a biological model and its application for still and video images
CN113092489A (zh) 一种电池外观缺陷的检测系统及方法
ES2552405B1 (es) Sistema y método de detección de parásitos Anisakis en filetes de pescado
JP7171549B2 (ja) 画像解析評価方法、コンピュータプログラム、画像解析評価装置
US20150304620A1 (en) Color Calibration and Use of Multi-LED Flash Modules
van den Berg et al. Using colour pattern edge contrast statistics to predict detection speed and success in triggerfish (Rhinecanthus aculeatus)
JP7358411B2 (ja) 体外診断システムにおける試料容器の特性を決定するための方法、分析デバイス、および体外診断システム
Kibria et al. Smartphone-based point-of-care urinalysis assessment

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09701220

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09701220

Country of ref document: EP

Kind code of ref document: A1