ES2936063T3 - Dispositivo para reconocer la identidad de un animal utilizando huellas nasales de animal - Google Patents
Dispositivo para reconocer la identidad de un animal utilizando huellas nasales de animal Download PDFInfo
- Publication number
- ES2936063T3 ES2936063T3 ES14801824T ES14801824T ES2936063T3 ES 2936063 T3 ES2936063 T3 ES 2936063T3 ES 14801824 T ES14801824 T ES 14801824T ES 14801824 T ES14801824 T ES 14801824T ES 2936063 T3 ES2936063 T3 ES 2936063T3
- Authority
- ES
- Spain
- Prior art keywords
- unit
- nose
- image
- nose pattern
- animal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 241001465754 Metazoa Species 0.000 title claims abstract description 162
- 238000000034 method Methods 0.000 claims abstract description 155
- 241000894007 species Species 0.000 claims description 46
- 125000006850 spacer group Chemical group 0.000 claims description 23
- 238000005286 illumination Methods 0.000 claims description 21
- 230000008569 process Effects 0.000 claims description 11
- 238000004458 analytical method Methods 0.000 claims description 8
- 239000012528 membrane Substances 0.000 claims 1
- 238000013519 translation Methods 0.000 abstract description 3
- 210000001331 nose Anatomy 0.000 description 340
- 239000003381 stabilizer Substances 0.000 description 90
- 238000010586 diagram Methods 0.000 description 82
- 210000004027 cell Anatomy 0.000 description 48
- 230000000873 masking effect Effects 0.000 description 45
- 238000013459 approach Methods 0.000 description 35
- 210000003128 head Anatomy 0.000 description 29
- 238000012795 verification Methods 0.000 description 25
- 241000282472 Canis lupus familiaris Species 0.000 description 22
- 239000000306 component Substances 0.000 description 19
- 241000283690 Bos taurus Species 0.000 description 18
- 238000010191 image analysis Methods 0.000 description 15
- 238000006073 displacement reaction Methods 0.000 description 12
- 230000010354 integration Effects 0.000 description 11
- 230000000694 effects Effects 0.000 description 10
- 230000009466 transformation Effects 0.000 description 10
- 241000282994 Cervidae Species 0.000 description 9
- 230000008859 change Effects 0.000 description 9
- 230000000087 stabilizing effect Effects 0.000 description 9
- 241000282326 Felis catus Species 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 8
- 238000009826 distribution Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 229920002994 synthetic fiber Polymers 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 6
- 239000000463 material Substances 0.000 description 6
- 238000007619 statistical method Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000012544 monitoring process Methods 0.000 description 5
- 238000005315 distribution function Methods 0.000 description 4
- 239000012634 fragment Substances 0.000 description 4
- 239000007788 liquid Substances 0.000 description 4
- 244000144972 livestock Species 0.000 description 4
- 239000002184 metal Substances 0.000 description 4
- 229910052751 metal Inorganic materials 0.000 description 4
- 239000000123 paper Substances 0.000 description 4
- 230000001131 transforming effect Effects 0.000 description 4
- 241000282465 Canis Species 0.000 description 3
- 238000013500 data storage Methods 0.000 description 3
- 239000007789 gas Substances 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000003825 pressing Methods 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 239000004758 synthetic textile Substances 0.000 description 3
- 238000011426 transformation method Methods 0.000 description 3
- IJGRMHOSHXDMSA-UHFFFAOYSA-N Atomic nitrogen Chemical compound N#N IJGRMHOSHXDMSA-UHFFFAOYSA-N 0.000 description 2
- 241001494479 Pecora Species 0.000 description 2
- 230000002411 adverse Effects 0.000 description 2
- 210000003423 ankle Anatomy 0.000 description 2
- 230000001174 ascending effect Effects 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000002508 contact lithography Methods 0.000 description 2
- 230000006378 damage Effects 0.000 description 2
- 201000010099 disease Diseases 0.000 description 2
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 2
- 239000000428 dust Substances 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 210000002683 foot Anatomy 0.000 description 2
- 238000009432 framing Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 210000000003 hoof Anatomy 0.000 description 2
- 238000003707 image sharpening Methods 0.000 description 2
- 230000008676 import Effects 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000036961 partial effect Effects 0.000 description 2
- 239000004033 plastic Substances 0.000 description 2
- 229920003023 plastic Polymers 0.000 description 2
- 238000007639 printing Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000010187 selection method Methods 0.000 description 2
- 230000006641 stabilisation Effects 0.000 description 2
- 238000011105 stabilization Methods 0.000 description 2
- 229920003051 synthetic elastomer Polymers 0.000 description 2
- 239000012209 synthetic fiber Substances 0.000 description 2
- 239000005061 synthetic rubber Substances 0.000 description 2
- 230000000451 tissue damage Effects 0.000 description 2
- 231100000827 tissue damage Toxicity 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 230000014616 translation Effects 0.000 description 2
- 238000004148 unit process Methods 0.000 description 2
- 239000002023 wood Substances 0.000 description 2
- 206010001488 Aggression Diseases 0.000 description 1
- 206010002091 Anaesthesia Diseases 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- CURLTUGMZLYLDI-UHFFFAOYSA-N Carbon dioxide Chemical compound O=C=O CURLTUGMZLYLDI-UHFFFAOYSA-N 0.000 description 1
- LFQSCWFLJHTTHZ-UHFFFAOYSA-N Ethanol Chemical compound CCO LFQSCWFLJHTTHZ-UHFFFAOYSA-N 0.000 description 1
- 241000218213 Morus <angiosperm> Species 0.000 description 1
- 235000008708 Morus alba Nutrition 0.000 description 1
- 206010028980 Neoplasm Diseases 0.000 description 1
- 241000282849 Ruminantia Species 0.000 description 1
- 229910000831 Steel Inorganic materials 0.000 description 1
- 241000282887 Suidae Species 0.000 description 1
- 206010000496 acne Diseases 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000016571 aggressive behavior Effects 0.000 description 1
- 208000012761 aggressive behavior Diseases 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000037005 anaesthesia Effects 0.000 description 1
- 210000003719 b-lymphocyte Anatomy 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000001914 calming effect Effects 0.000 description 1
- 235000011089 carbon dioxide Nutrition 0.000 description 1
- 239000011111 cardboard Substances 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 239000008358 core component Substances 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 229920001971 elastomer Polymers 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 229920002457 flexible plastic Polymers 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 230000002262 irrigation Effects 0.000 description 1
- 238000003973 irrigation Methods 0.000 description 1
- 230000031700 light absorption Effects 0.000 description 1
- 230000013011 mating Effects 0.000 description 1
- 235000013372 meat Nutrition 0.000 description 1
- 150000002739 metals Chemical class 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 230000017074 necrotic cell death Effects 0.000 description 1
- 229910052757 nitrogen Inorganic materials 0.000 description 1
- 230000000414 obstructive effect Effects 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 239000011087 paperboard Substances 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000037081 physical activity Effects 0.000 description 1
- 230000035479 physiological effects, processes and functions Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 239000005060 rubber Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 210000004894 snout Anatomy 0.000 description 1
- 239000010959 steel Substances 0.000 description 1
- 239000004575 stone Substances 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 239000012780 transparent material Substances 0.000 description 1
- 230000028838 turning behavior Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01K—ANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
- A01K11/00—Marking of animals
- A01K11/006—Automatic identification systems for animals, e.g. electronic devices, transponders for animals
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01K—ANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
- A01K15/00—Devices for taming animals, e.g. nose-rings or hobbles; Devices for overturning animals in general; Training or exercising equipment; Covering boxes
- A01K15/04—Devices for impeding movement; Devices for impeding passage through fencing, e.g. hobbles or the like; Anti-kicking devices
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01K—ANIMAL HUSBANDRY; AVICULTURE; APICULTURE; PISCICULTURE; FISHING; REARING OR BREEDING ANIMALS, NOT OTHERWISE PROVIDED FOR; NEW BREEDS OF ANIMALS
- A01K29/00—Other apparatus for animal husbandry
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0077—Devices for viewing the surface of the body, e.g. camera, magnifying lens
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/117—Identification of persons
- A61B5/1171—Identification of persons based on the shapes or appearances of their bodies or parts thereof
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/117—Identification of persons
- A61B5/1171—Identification of persons based on the shapes or appearances of their bodies or parts thereof
- A61B5/1176—Recognition of faces
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6801—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
- A61B5/6813—Specially adapted to be attached to a specific body part
- A61B5/6814—Head
- A61B5/6819—Nose
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/70—Means for positioning the patient in relation to the detecting, measuring or recording means
- A61B5/702—Posture restraints
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7253—Details of waveform analysis characterised by using transforms
- A61B5/7257—Details of waveform analysis characterised by using transforms using Fourier transforms
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7235—Details of waveform analysis
- A61B5/7253—Details of waveform analysis characterised by using transforms
- A61B5/726—Details of waveform analysis characterised by using transforms using Wavelet transforms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/88—Image or video recognition using optical means, e.g. reference filters, holographic masks, frequency domain filters or spatial domain filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2503/00—Evaluating a particular growth phase or type of persons or animals
- A61B2503/40—Animals
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2562/00—Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
- A61B2562/02—Details of sensors specially adapted for in-vivo measurements
- A61B2562/0233—Special features of optical sensors or probes classified in A61B5/00
- A61B2562/0242—Special features of optical sensors or probes classified in A61B5/00 for varying or adjusting the optical path length in the tissue
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2576/00—Medical imaging apparatus involving image processing or analysis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
Landscapes
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Medical Informatics (AREA)
- Environmental Sciences (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Heart & Thoracic Surgery (AREA)
- Surgery (AREA)
- Biomedical Technology (AREA)
- Pathology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Veterinary Medicine (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Animal Husbandry (AREA)
- Biodiversity & Conservation Biology (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Zoology (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Birds (AREA)
- Radiology & Medical Imaging (AREA)
- Physical Education & Sports Medicine (AREA)
- Otolaryngology (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Quality & Reliability (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
Abstract
La presente invención se refiere a un dispositivo y un método para reconocer la identidad de un animal mediante el uso de huellas nasales de animales y, más específicamente, a un dispositivo y un método para reconocer la identidad de los animales, el dispositivo que comprende: una unidad de fijación del movimiento del animal para detener el movimiento de un animal individual para adquirir una imagen de huella nasal identificable necesaria para reconocer la identidad del animal; una unidad de adquisición de imágenes para adquirir y almacenar la imagen de la huella de la nariz del animal individual cuyo movimiento es detenido por la unidad de fijación del movimiento del animal; y una unidad de reconocimiento de imagen para generar, registrar, verificar e identificar un código de huella nasal a partir de la imagen de huella nasal adquirida por la unidad de adquisición de imágenes o de una imagen de huella nasal corregida. (Traducción automática con Google Translate, sin valor legal)
Description
DESCRIPCIÓN
Dispositivo para reconocer la identidad de un animal utilizando huellas nasales de animal
Campo técnico
La presente invención se refiere a un aparato y a un método de reconocimiento de un animal mediante la utilización de patrones de nariz, y particularmente a un aparato y a un método de reconocimiento de un animal, que comprende una unidad de adquisición de imágenes para obtener y almacenar la imagen del patrón de nariz y una unidad de reconocimiento de imágenes para generar, inscribir, verificar e identificar el código en bruto o procesado del patrón de nariz a partir de la imagen adquirida del patrón de nariz.
Antecedentes de la técnica
Se ha realizado la identificación de animales desde hace miles de años, tal como se señala en el Código de Hammurabi, que se remonta a aproximadamente el año 1754 a.C. En ese tiempo, el método preferido de marcar una parte corporal (marcado) se utilizaba principalmente para evitar el robo de activos animales valiosos, por ejemplo caballos. Actualmente, además de evitar el robo y como prueba general de propiedad, la identificación del animal tiene una función importante en la gestión de la producción y el control de enfermedades del ganado, la gestión de especies en peligro y protegidas, así como en el procedimiento esencial de inspección de las importaciones y exportaciones de animales. La globalización ha incrementado la demanda mundial de animales para una diversidad de propósitos, desde el consumo de carne hasta la recolección de mascotas exóticas.
De acuerdo con lo anterior, se están criando en masa y exportando animales, aunque ello ha resultado en la extensión de epidemias como la enfermedad de las vacas locas, que anteriormente estaba limitada a granjas o regiones específicas. Por lo tanto, todos y cada uno de los estados, incluyendo la ONU, ha buscado una manera de utilizar un sistema de seguimiento e identificación eficaz y fiable para gestionar los riesgos que implica la producción, distribución y transporte domésticos e internacionales de animales. Más recientemente, se están realizando diversos estudios en un intento por mejorar los métodos y sistemas tradicionales mediante la incorporación de los nuevos desarrollos en tecnología de la información.
Entre los métodos convencionales de gestión de animales (ganado) se incluyen: muescas en las orejas, principalmente para cerdos; etiquetas con códigos de barras en las orejas, principalmente para vacas y ovejas; cadenas con chapa numerada que se cuelga del cuello para vacas; números o letras marcadas en frío utilizando metal enfriado en nitrógeno líquido, hielo seco o alcohol; marcado con pintura y los tatuajes. Dichos procedimientos requieren agujas o modificaciones o accesorios dolorosos en el cuerpo del animal, potencialmente dañando los animales y los necesarios profesionales manipuladores. Incluso en el caso de que se ejecuten sin complicaciones, dichos marcados o etiquetas externos pueden resultar difíciles de identificar en la oscuridad, o resultar dañados por las actividades físicas del animal o por actos de vandalismo realizados por personas.
Las alternativas a los métodos anteriores se encuadran principalmente en dos categorías: identificación electrónica e identificación biométrica. La identificación electrónica requiere el uso de una etiqueta electrónica de oreja, un transpondedor inyectable o un arnés para rumiantes para contener y ser escaneado para obtener la información deseada. Sin embargo, los daños involuntarios o la manipulación intencionada del microchip o antena, así como la no disponibilidad de un escáner adecuado pueden imposibilitar la identificación. Además, algunos estudios han encontrado que el material circundante a la unidad de microchip y antena puede causar tumores o necrosis en los tejidos del animal, produciendo motivos importantes de preocupación a los propietarios de los animales de compañía y de ganado.
Por otra parte, la segunda alternativa es más prometedora. La identificación biométrica se basa en las características intrínsecas únicas de los individuos, sin necesidad de procedimientos invasivos y, al contrario que los métodos tradicionales o la identificación de microchip, los datos biométricos de un animal no pueden falsearse. Los estudios actualmente en marcha buscan avanzar en la captación de imágenes del iris y retina del animal, en los análisis del ADN y en la obtención de imágenes del patrón de nariz. Sin embargo, los tres primeros no se han desarrollado suficientemente todavía para resultar aplicables en la práctica.
De esta manera, a finales del siglo XX se realizaron algunos esfuerzos limitados, tras generalizarse la aceptación del carácter de unicidad de los patrones de nariz individuales en determinadas especies de ganado, con el fin de obtener y comparar los patrones de nariz de vacas u ovejas individuales del mismo modo que inicialmente se recogían las huellas digitales: mediante lavado de la superficie de la nariz seguido de la obtención de impresiones de la misma con tinta. Sin embargo, dicho método es algo tosco y presenta constantemente múltiples problemas de practicidad y precisión; según la experiencia del administrador se producen sangrados no deseados de la tinta o distorsiones de la impresión debido a la aplicación desigual de la presión, con frecuencia dando como resultado impresiones dispares de la misma nariz, aunque fuesen realizadas por la misma persona. Además, una nariz saludable del animal debería mantener la humedad mediante la irrigación nasal natural o mediante el lamido natural, lo que resulta en que cada transferencia de tinta sea un procedimiento laborioso.
La publicación de patente coreana abierta al público n° 10-2004-0008072 presenta la configuración técnica de terminal portátil de información para el control del ganado bovino, mientras que la publicación de patente coreana abierta al público n° 10-2004-0006822 describe un método de identificación remota de bovinos y monitorización del estado de salud mediante la utilización de datos de patrones de nariz previamente escaneados, mediante internet o una red de comunicación. Sin embargo, debido a la dependencia en el método tradicional de impresión con tinta antes del escaneo de la impresión en tinta resultante para obtener la imagen del patrón de nariz, predominan las limitaciones de precisión y el potencial de aberraciones surgidas del error humano durante el procedimiento. Además, los métodos anteriormente indicados se refieren únicamente a sujetos bovinos y, de esta manera, resultan inaplicables en animales con narices de dimensiones, formas y patrones diferentes a ellos.
La publicación de patente coreana abierta al público n° 10-2002-00066771 presenta la configuración técnica de un sistema de identificación canina que utiliza datos de patrones de nariz mediante una red de comunicación, pero no especifica el método de obtención de dichos datos.
Por otra parte, la solicitud de patente US n° 10/770,120 sí da a conocer una construcción técnica para obtener las imágenes de patrón de nariz de mascotas caninas. Los datos de patrones se recogen mediante disparo en modo macro con una cámara fotográfica especializada para compensar la dificultad de los ajustes de enfoque durante la sujeción manual del hocico del animal, o mediante la obtención de una impresión de la nariz (de manera similar al método tradicional) mediante la utilización de algún plástico flexible recubierto con tinta o un papel o cartón que comprende dos capas diferentes de compuestos químicos en lugar de tinta.
Con el método de disparo en modo macro pueden producirse distorsiones del tamaño y espaciado de la imagen del patrón de nariz y, tal como se ha mencionado en dicha patente como cuestión problemática, resulta difícil para una persona promedio operar una cámara digital convencional o videocámara para realizar ajustes de enfoque precisos. Otro método descrito en la patente anteriormente indicada utiliza una cámara Polaroid, en la que el enfoque se establece mediante convergencia de dos haces de radiación, aunque es altamente probable que durante el procedimiento, se agite la fuente de luz y cause que el sujeto canino se resista a las restricciones o se mueva e impida la captación de la fotografía. Además, en el campo resulta difícil predecir la sensibilidad o la reacción de cada animal a la iluminación artificial y, con frecuencia, los perros de menor tamaño resultan bastante intimidados por la cámara misma, añadiéndose a las dificultades. Además, asimismo existe el problema de que se producen reflexiones de luz no deseadas por la humedad normalmente presente sobre la piel de la nariz al utilizar la iluminación directa durante la captura de la imagen.
Este último enfoque que utiliza la impresión por contacto es idéntico en la práctica, así como en sus limitaciones, al método tradicional con tinta. Además, la tendencia del perro a mantener activamente la humedad de la nariz mediante lamidos cuando se seca deliberadamente implica que se requiere un esfuerzo apresurado para obtener una impresión limpia, mientras que las especificaciones de tamaño y forma del equipo limitan los sujetos apropiados a las razas caninas.
Otra invención anterior relacionada con la presente invención es la publicación de patente japonesa abierta al público n° 2003-346148, que prescribe que se presione un marco de vidrio o de algún otro material transparente contra la nariz de una vaca a fin de obtener la imagen con una cámara digital para el análisis. Sin embargo, dicho método asimismo es similar al método tradicional de impresión con tinta, en el que un marco transparente ha sustituido meramente al papel de calca, y presenta los mismos problemas de distorsión como consecuencia del contacto directo con la nariz, así como su limitación a bovinos.
El documento de patente japonesa JPH1145330 Ada a conocer un dispositivo de impresión del hocico que presenta una fuente lumínica para iluminar la nariz de un animal sobre un prisma presionado sobre la nariz y una cámara para captar la imagen del patrón del hocico.
El documento de patente japonesa JPH09265523 A da a conocer cómo capta una imagen de depresión del patrón de ruido un componente de captación de la imagen de depresión.
De esta manera se infiere que existe una demanda de un sistema simplificado de identificación animal que no requiera operadores profesionales, pueda superar las limitaciones anteriormente mencionadas y pueda aplicarse fácil y económicamente en entornos de granjas pequeñas o en el ganado, en sistemas de identificación animal o incluso en inspecciones de importación y exportación.
Divulgación de la invención
Problema técnico
Un objetivo de la presente invención es adquirir y reconocer patrones de nariz animales sin establecer contacto físico directo con la nariz.
Todavía otro objetivo de la presente invención es adquirir imágenes de patrón de nariz de alta calidad mediante la utilización de iluminación indirecta de regiones de longitud de onda apropiadas aplicadas mediante una subunidad de conducto lumínico, subunidad difusora de la luz y espaciador sobre la nariz del sujeto para evitar reflexiones no deseadas de la luz que puedan reflejarse a partir de la capa de humedad sobre la superficie de la nariz de los animales.
Todavía otro objetivo de la presente invención es adquirir imágenes de patrón de nariz de alta calidad mediante la utilización de una unidad de captura de imágenes que es modificable para adaptarse a animales de diferentes especies.
Todavía otro objetivo de la presente invención es permitir a usuarios no profesionales la adquisición de imágenes de patrón de nariz adecuadas para el fácil reconocimiento mediante la utilización de la unidad de adquisición de imágenes.
Todavía otro objetivo de la presente invención es permitir la identificación de cualquier animal con un patrón de nariz distinguible, con independencia de los tipos de patrón específicos de especie o de raza.
Todavía otro objetivo de la presente invención es hacer posible la identificación con independencia de la presencia de fenómenos fisiológicos o ambientales externos, tales como humedad, pelaje o polvo en la superficie nasal del animal.
Todavía otro objetivo de la presente invención es hacer posible la identificación a pesar de las variaciones razonables en el ángulo de captura de la imagen.
Todavía otro objetivo de la presente invención es generar un código nasal de carácter universal, independiente de especie o raza, para la utilización en la identificación.
Todavía otro objetivo de la presente invención es utilizar el método más apropiado de verificación o identificación para la especies o razas particulares.
Todavía otro objetivo de la presente invención es incrementar la tasa de exactitud en el reconocimiento de cada especie de animales mediante la comparación y el emparejamiento con imágenes de patrón de nariz previamente almacenadas con las de nueva obtención, mediante la utilización de unidades apropiadas de estabilización corporal, adquisición de imágenes y reconocimiento de imágenes.
Solución técnica
Una solución técnica de la presente invención es proporcionar un aparato de reconocimiento de animales según la reivindicación 1.
Efectos ventajosos
La presente invención presenta el efecto ventajoso del reconocimiento rápido y preciso de animales mediante la adquisición del patrón de nariz sin establecer contacto físico directo con la nariz.
Todavía otro efecto de la presente invención es la adquisición de imágenes de patrón de nariz de alta calidad mediante la utilización de iluminación indirecta de regiones de longitud de onda apropiadas aplicadas mediante una subunidad de conducto lumínico, subunidad difusora de la luz y espaciador sobre la nariz del sujeto para evitar reflexiones no deseadas de la luz que puedan reflejarse a partir de la capa de humedad sobre la superficie de la nariz de los animales.
Todavía otro efecto de la presente invención es la adquisición de imágenes de patrón de nariz de alta calidad mediante la utilización de una unidad de captura de imágenes que es modificable para adaptarse a animales de diferentes especies.
Todavía otro efecto de la presente invención es permitir a usuarios no profesionales la adquisición de imágenes de patrón de nariz adecuadas para el fácil reconocimiento mediante la utilización de la unidad de adquisición de imágenes.
Todavía otro efecto de la presente invención es permitir la identificación de cualquier animal con un patrón de nariz distinguible, con independencia de los tipos de patrón específicos de especie o de raza.
Todavía otro efecto de la presente invención es hacer posible la identificación con independencia de la presencia de fenómenos fisiológicos o ambientales externos, tales como humedad, pelaje o polvo en la superficie nasal del animal.
Todavía otro efecto de la presente invención es hacer posible la identificación a pesar de las variaciones razonables en el ángulo de captura de la imagen.
Todavía otro efecto de la presente invención es generar un código nasal de carácter universal, independiente de especie o raza, para la utilización en la identificación.
Todavía otro efecto de la presente invención es la utilización del método de verificación o identificación más apropiado a la especie o raza particular.
Breve descripción de los dibujos
La figura 1 es un diagrama esquemático de la forma de realización del aparato de reconocimiento de animales descrito en la presente invención.
La figura 2 es una fotografía del patrón de nariz de una especie animal específica (ciervo) que muestra un ejemplo del sujeto de la presente invención.
La figura 3 es una fotografía del patrón de nariz de una especie animal específica (perro) que muestra otro ejemplo del sujeto de la presente invención.
La figura 4 es una fotografía de reflexiones lumínicas obstructoras procedentes de la humedad naturalmente presente sobre la superficie de la nariz de los animales de la invención.
La figura 5 es un diagrama que ilustra el funcionamiento del aparato de reconocimiento de animales en la presente invención.
La figura 6 es una presentación del aparato de reconocimiento de animales en la figura 5 representado desde diferentes ángulos.
La figura 7 es un diagrama de bloques que ilustra una configuración del aparato de reconocimiento de animales en la presente invención en el que cada una de las partes: la unidad estabilizadora corporal, la unidad de adquisición de imágenes y la unidad de reconocimiento de imágenes, están todas separadas unas de otras. La figura 8 es un diagrama de bloques que ilustra una configuración del aparato de reconocimiento de animales en la presente invención en el que la unidad estabilizadora corporal y la unidad de adquisición de imágenes están separadas de la unidad de reconocimiento de imágenes.
La figura 9 es un diagrama de bloques que ilustra una configuración del aparato de reconocimiento de animales en la presente invención en el que la unidad de adquisición de imágenes y la unidad de reconocimiento de imágenes están separadas de la unidad estabilizadora corporal.
La figura 10 es un diagrama de bloques que ilustra una configuración del aparato de reconocimiento de animales en la presente invención en el que la unidad estabilizadora corporal, la unidad de adquisición de imágenes y la unidad de reconocimiento de imágenes están todas conectadas entre sí.
La figura 11 es un diagrama de flujo que ilustra el método de funcionamiento del aparato de reconocimiento de animales en la presente invención.
La figura 12 es un diagrama de bloques que muestra esquemáticamente cómo utilizar la unidad estabilizadora corporal.
La figura 13 es un diagrama de bloques que muestra esquemáticamente cómo utilizar la unidad estabilizadora de la postura.
La figura 14 es un diagrama de bloques que muestra esquemáticamente cómo utilizar la unidad de ajuste de la posición.
La figura 15 es un diagrama que ilustra la aplicación de las unidades estabilizadoras corporales superior e inferior en dos especies específicas (vaca y ciervo).
La figura 16 es un diagrama que ilustra la aplicación de las unidades estabilizadoras corporales superior e inferior en dos otras especies específicas (perro y gato).
La figura 17 es un diagrama que ilustra la configuración de la unidad estabilizadora de la cabeza.
La figura 18 es un diagrama que ilustra la implementación de la unidad estabilizadora de la postura apropiada
y de la unidad de ajuste de la posición en una especie determinada (vaca).
La figura 19 es un diagrama que ilustra la implementación de la unidad estabilizadora de la postura apropiada y de la unidad de ajuste de la posición en otra especie (ciervo).
La figura 20 es un diagrama que ilustra la implementación de la unidad estabilizadora de la postura apropiada y de la unidad de ajuste de la posición en dos especies de pequeño tamaño (perro y gato).
La figura 21 es un diagrama de flujo que ilustra el método de funcionamiento de la unidad estabilizadora corporal en la presente invención.
La figura 22 es un diagrama de bloques que ilustra la configuración de la unidad de adquisición de imágenes. La figura 23 es un diagrama de bloques que ilustra esquemáticamente la unidad de captura de imágenes y la unidad de análisis de imágenes dentro de la unidad de adquisición de imágenes.
La figura 24 es un diagrama de bloques que ilustra la configuración de la unidad de captura de imágenes que mueve el módulo de lentes y el sensor según el principio de ajuste de la distancia del módulo ajustador de la distancia.
La figura 25 es un diagrama de bloques que ilustra la configuración de la unidad de captura de imágenes que ajusta la distancia entre las lentes en el módulo de lentes según el principio de ajuste de la distancia del módulo ajustador de la distancia.
La figura 26 es un diagrama que ilustra la configuración de la unidad frontal de la unidad de captura de imágenes.
La figura 27 es un diagrama que ilustra la configuración de la unidad de iluminación.
La figura 28 es un diagrama de bloques que ilustra el método de obtención de las imágenes de patrón de nariz que son utilizables por la unidad de reconocimiento de imágenes mediante la unidad de captura de imágenes. La figura 29 es un diagrama que ilustra el método de ajuste del campo de visión y del enfoque mediante el desplazamiento del módulo de lentes o el sensor en la unidad de captura de imágenes.
La figura 30 es un diagrama que ilustra el método de ajuste del campo de visión y del enfoque mediante el desplazamiento de las lentes dentro del módulo de lentes de la unidad de captura de imágenes.
La figura 31 es un diagrama que ilustra cómo manipular la lente de ajuste del campo de visión, la longitud del espaciador y el tipo de unidad frontal para el ajuste a las narices de animales de la invención de mayor tamaño (vacas y ciervos).
La figura 32 es un diagrama que ilustra cómo manipular la lente de ajuste del campo de visión, la longitud del espaciador y el tipo de unidad frontal para el ajuste a las narices de animales de la invención de tamaño intermedio (perros).
La figura 33 es un diagrama que ilustra cómo manipular la lente de ajuste del campo de visión, la longitud del espaciador y el tipo de unidad frontal para el ajuste a las narices de animales de la invención de tamaño más pequeño (gatos o perros muy pequeños).
La figura 34 es un conjunto de fotografías que muestra los resultados de la utilización de tres tipos diferentes de unidad frontal.
La figura 35 es un par de fotografías que comparan los resultados de utilizar iluminación directa de una cámara convencional con la iluminación indirecta de la presente invención en la adquisición de una imagen del patrón de nariz del mismo individuo.
La figura 36 es un diagrama de bloques que describe esquemáticamente la unidad de análisis de imágenes de la presente invención.
La figura 37 es un diagrama que ilustra el método de adquisición de imágenes de patrón de nariz durante el modo de captura.
La figura 38 es un diagrama de flujo que ilustra el método de adquisición de imágenes de patrón de nariz con la unidad de adquisición de imágenes.
La figura 39 es un diagrama de bloques que describe esquemáticamente la unidad de reconocimiento de imágenes de la presente invención.
La figura 40 es un diagrama de flujo que ilustra el método de análisis y reconocimiento de imágenes de patrón de nariz.
La figura 41 es un diagrama de bloques que describe esquemáticamente la unidad de fijación de la zona de interés.
La figura 42 es un diagrama que ilustra el método para encontrar los límites de las fosas nasales.
La figura 43 es un par de diagramas que ilustra el método de aproximación de los límites de las fosas nasales mediante la utilización de curvas (círculos y elipses, respectivamente).
La figura 44 es un diagrama que ilustra el método de obtención de la zona contralateral de cada fosa, que está situada en el exterior de las curvas de aproximación (círculos/elipses).
La figura 45 es un diagrama que ilustra el método de selección de la zona rectangular entre las curvas de aproximación (círculos/elipses) como la zona de interés.
La figura 46 es un diagrama que ilustra las diferencias en la zona de interés que resultan de utilizar curvas de aproximación circulares y elípticas en la misma imagen de patrón de nariz.
La figura 47 es un diagrama que ilustra el procedimiento de generación de una zona de interés estandarizada a partir de una zona de interés previamente fijada.
La figura 48 es un diagrama de bloques simplificado que describe la unidad de generación de códigos de patrón de nariz.
La figura 49 es un diagrama de bloques que ilustra el procedimiento de generación de códigos de patrón de nariz a partir de la zona de interés.
La figura 50 es un diagrama que ilustra cómo dividir la zona de interés en bloques de celda más pequeña de dimensiones especificadas, a partir de los cuales se generan códigos de transformación de frecuencia.
La figura 51 es un diagrama que ilustra la comparación de una zona de cálculo teórica y la zona real al generar el código de transformada de frecuencia mediante la utilización de la transformada de Gabor, la transformada coseno de Gabor, la transformada seno de Gabor, etc.
La figura 52 es un diagrama de bloques simplificado que describe la unidad de emparejamiento de códigos de patrón de nariz.
La figura 53 es un diagrama que ilustra el método de identificación de códigos de patrón de nariz mediante emparejamiento simple.
La figura 54 es un diagrama que ilustra una situación en la que se han seleccionado diferentes zonas de interés de la misma imagen de patrón de nariz del mismo individuo para el emparejamiento.
La figura 55 es un diagrama que ilustra el método de identificación de códigos de patrón de nariz mediante emparejamiento por desplazamiento.
La figura 56 es un diagrama que ilustra una situación de emparejamiento en la que las zonas de interés del código de patrón de nariz seleccionadas del mismo individuo presentan proporciones verticales y horizontales no iguales.
La figura 57 es un diagrama que ilustra el método de identificación de códigos de patrón de nariz mediante emparejamiento por desplazamiento de bloques.
La figura 58 es un diagrama que ilustra el procedimiento de identificación de códigos de patrón de nariz mediante emparejamiento por desplazamiento que utiliza una transformada seno de Gabor.
La figura 59 es un diagrama que ilustra el procedimiento de identificación de códigos de patrón de nariz mediante emparejamiento por desplazamiento de bloques que utiliza una transformada seno de Gabor. La figura 60 es un diagrama que ilustra el método de identificación de códigos de patrón de nariz (emparejamiento de uno con muchos).
Mejor modo de poner en práctica la invención
La sección a continuación describe la configuración y el funcionamiento de la presente invención, en la que los diagramas adjuntos únicamente proporcionan ejemplos de una o más posibles formas de realización y que no limitan el concepto técnico o sus componentes y aplicaciones centrales. Por lo tanto, el experto en la materia y la persona con conocimiento del campo de la presente invención debería poder aplicar diversos cambios y modificaciones a la forma de realización actualmente descrita de un aparato de reconocimiento de animales sin apartarse del concepto central.
En la explicación de los componentes de la presente invención pueden utilizarse términos tales como A, B, (a), (b) y similares. Simplemente están destinados a distinguir un componente de otro y no son un reflejo de la naturaleza, orden o secuencia específica de dichos componentes. En el caso de que un componente se describa como "conectado con", "incluido en" o "que configura" otro componente, pueden encontrarse conectados o acoplados directamente, aunque debe entenderse que algún otro componente asimismo podría encontrarse "conectado con", "incluido en" o "que configura" cada uno de dichos componentes.
Además, para facilitar la comprensión, en el caso de que se muestre un componente en varias figuras, se proporcionará un número de referencia diferente en cada ocasión que mantenga la correspondencia con el resto del diagrama.
Además, la presente invención pretende distinguir entre los términos verificación, identificación y reconocimiento. Específicamente, verificación se refiere a un emparejamiento de uno con uno (1:1), el emparejamiento, la identificación o búsqueda se refiere al emparejamiento de uno con muchos (1:n) y el reconocimiento comprende tanto procedimientos de verificación como de identificación.
En la presente memoria se han seleccionado varias especies representativas (vaca, ciervo, perro y gato) y sus patrones de nariz con el fin de ilustrar la utilización de la presente invención y siempre que el método o aparato sea de aplicación universal, se muestra una única especie en el ejemplo para una comprensión suficiente. Lo anterior implica que la aplicación de la presente invención se refiere no solo a los animales específicamente mencionados, sino a todas y cada una de las especies con patrones de nariz distintivos.
En la presente invención, el patrón de nariz se refiere a cómo los granos y surcos forman patrones geométricos sobre la superficie nasal, y debe señalarse que el tamaño y complejidad de los patrones puede variar incluso dentro de la misma especie.
La presente invención, tal como se describe de manera general en la figura 1, describe un método y aparato de reconocimiento de animales para animales con patrones de nariz únicos (sujetos animales) mediante la adquisición de imágenes identificables de patrón de nariz que utiliza una unidad estabilizadora corporal para minimizar el movimiento y la resistencia en los sujetos; una unidad de adquisición de imágenes para capturar dichas imágenes, y una unidad de reconocimiento de imágenes que genera imágenes procesadas de patrón de nariz mediante técnicas de reducción de ruido y de mejora de la calidad de imagen, y a partir de ellas, códigos de patrón de nariz para el registro e identificación.
La unidad de adquisición de imagen 102 puede incluir la unidad de análisis de imágenes que se describe posteriormente, o la unidad de análisis de imágenes puede incluirse la unidad de reconocimiento de imagen 103. Es decir, son perfectamente posibles diversas configuraciones y modificaciones para adaptarse a las peticiones del usuario o al propósito del diseñador.
Se conoce que un número significativo de especies animales presenta patrones de nariz únicos. La figura 2 y la figura 3 muestran dos ejemplos de patrones de nariz, obtenidos mediante la utilización de un modelo de la unidad de adquisición de imágenes. En el patrón de nariz de ciervo en la figura 2, las características clave son las fosas nasales y los patrones de granos y surcos, en los que los granos son las zonas de piel nasal elevadas y los surcos son las arrugas estrechas que circundan cada grano. La figura 3 muestra el patrón de nariz en un perro en el que, aunque difieren en el tamaño y la forma específicos, puede observarse un patrón similar de granos y surcos.
En el caso de las vacas, ciervos y otros animales de mayor tamaño, los granos tienden, además, a ser relativamente más grandes, mientras que en especies más pequeñas, como gatos y perros, los granos tienden a ser proporcionalmente más pequeños. De hecho, incluso en la misma especie, el tamaño de la zona nasal que es generalmente dependiente del tamaño corporal puede afectar al tamaño de los patrones de granos, por lo que resulta necesario que el aparato y método de reconocimiento tenga en cuenta las variaciones de patrón de diferentes especies y razas.
A continuación, resulta imperativo considerar las características fisiológicas de la nariz de los sujetos animales. Tal como se muestra en la figura 4, una nariz sana mantiene una capa de humedad sobre la superficie, que refleja agresivamente la luz en las fotografías obtenidas en contextos naturales. Lo anterior asimismo puede afectar
adversamente a los resultados de cualquier método que se basa en la impresión por contacto, tal como con papel o vidrio, ya que la humedad con frecuencia puede causar borrosidad y distorsiones de la imagen. Respecto a la captura de la imagen, asimismo existen amplias posibilidades de que la humedad refleje la luz o absorba en el rango de los infrarrojos. De esta manera, la humedad presenta un problema inevitable que necesita considerarse y resolverse.
El tamaño y forma de la cara y cuerpo del animal, según la especie y la raza, asimismo es importante, ya que la forma y longitud de la cabeza y el hocico afectan a las unidades de captura y estabilizadora corporal.
El temperamento del animal asimismo es un factor que se debe considerar, ya que puede variar de un individuo a otro, incluso de la misma especie o raza. Aunque algunos sujetos son naturalmente dóciles y colaboradores, otros son más tímidos o agresivos, especialmente hacia los diversos aparatos (de captura, de estabilización o de iluminación) y hacia los operadores humanos, provocando que el trabajo en la práctica resulte difícil o inseguro, especialmente para un usuario no profesional. Por lo tanto, un método y aparato eficaces no deben molestar a los sujetos animales de la invención.
La configuración técnica del aparato de reconocimiento de animales es la siguiente: unidad estabilizadora corporal, unidad de adquisición de imágenes y unidad de reconocimiento de imágenes. La unidad estabilizadora corporal se refiere al conjunto de dispositivos que evitan los movimientos disruptivos del animal; la unidad de adquisición de imágenes se refiere al software y al hardware descritos en la presente invención necesarios para adquirir las imágenes de patrón de nariz de una diversidad de animales, y la unidad de reconocimiento de imágenes se refiere al software y hardware necesarios para el reconocimiento de imágenes de patrón de nariz.
Las figuras 5 y 6 ilustran una aplicación práctica y el funcionamiento del aparato global de reconocimiento animal en la presente invención, mientras que los diagramas de bloques en las figuras 7, 8 y 9 muestran las combinaciones conectoras de las unidades estabilizadora corporal, de adquisición de imágenes y de reconocimiento de imágenes. Tal como se ha mencionado anteriormente, el aparato de reconocimiento de animales puede configurarse con un cierto nivel de flexibilidad, según el animal o contexto dado, mientras que podrían conectarse las tres unidades componentes, o solo dos, o configurar por separado las tres unidades.
El diagrama de flujo en la figura 11 resume el método de reconocimiento animal en la presente invención, partiendo de S1101 que selecciona y S1102, que ajusta, al animal en la unidad estabilizadora corporal apropiada; S1103 fija la nariz del sujeto en la unidad de adquisición de imágenes y S1104 adquiere la imagen del patrón de nariz; S1105 es la unidad de reconocimiento de imágenes, que genera un código de patrón de nariz utilizando la imagen en bruto o procesada del patrón de nariz, y S1106, que registra e identifica al individuo mediante la utilización del código de patrón de nariz. Sin embargo, lo anterior no implica que dicha secuencia de sucesos no pueda modificarse: el experto en la materia de la presente invención podría optar por cambiar el orden de las etapas o llevar a cabo más de una en paralelo, sin que ello implique apartarse del concepto central.
El propósito de la unidad estabilizadora corporal es controlar temporalmente el movimiento o la resistencia del animal en su reacción a la iluminación o al operador, tal como el giro de la cabeza o el comportamiento agresivo, durante el procedimiento de adquisición de las imágenes del patrón de nariz, a fin de proporcionar una imagen de la máxima calidad. Es una medida de seguridad para evitar que el animal se dañe a sí mismo o a los operadores humanos accidentalmente, lo que podría añadir dificultades, además de costes. Además, una imagen de patrón de nariz ideal es una imagen obtenida frontalmente y ello resulta difícil de obtener con un sujeto animal muy poco colaborador sin la ayuda de un estabilizador corporal.
De esta manera, las cuatro funciones principales de la unidad estabilizadora corporal son las siguientes: minimizar el movimiento del sujeto animal durante el procedimiento de adquisición de imágenes; actuar como medida de seguridad que proteja al operador y al aparato, y proteger al sujeto animal de daños autoinfligidos y sujetar la nariz en un ángulo óptimo para la captura de imágenes. Tal como se muestra en la figura 12, la unidad estabilizadora corporal comprende la unidad estabilizadora de la postura 1201 y, además, la unidad de ajuste de la posición 1202, para ajustar la anchura de la postura del sujeto. La figura 13 muestra un desglose más detallado de la unidad estabilizadora de la postura.
Aunque resulta fácil suponer que la única parte corporal que necesita restringirse adecuadamente para obtener una buena imagen de la nariz es la cabeza, el sujeto animal puede resistirse, y con frecuencia se resisten, con todo el cuerpo y, de esta manera, provocar que las imágenes sean borrosas. El problema puede mitigarse mediante la estabilización de la zona de cuello y hombro (parte superior del cuerpo), así como el lomo, y patas delanteras y traseras (parte inferior del cuerpo). Los veterinarios habitualmente evitan el uso de anestesia durante las intervenciones siempre que resulte posible mediante la aplicación de presión en la nuca u hombro de los animalespacientes; el estabilizador corporal pretende simular este método, dejando que el sujeto animal descanse la cabeza en la sujeción de barbilla, manteniéndola en posición con la unidad estabilizadora de la cabeza 1302 y aplicando una presión adecuada mediante la utilización de la unidad estabilizadora de la parte superior del cuerpo 1301. El movimiento adicional de la parte inferior del cuerpo, especialmente en el caso de los animales de mayor tamaño, cuyas potentes piernas podrían suponer un peligro para los operadores y los equipos, pueden controlarse
adicionalmente con la unidad estabilizadora de la parte inferior del cuerpo 1303.
La configuración de la unidad de ajuste de la posición es modificable de acuerdo con la configuración de la unidad estabilizadora de la postura, según considere adecuado el operador para el sujeto animal. Son posibles adiciones, la unidad de ajuste de la altura 1404 a la unidad estabilizadora de la parte superior del cuerpo 1401; la unidad de ajuste de la anchura de la postura 1406 a la unidad estabilizadora de la parte inferior del cuerpo 1403, y la unidad de ajuste del equilibrio horizontal 1405 y la unidad de ajuste de la altura 1407 a la unidad estabilizadora de la cabeza 1402.
Las figuras 15 y 16 representan, cada una, un ejemplo de la unidad estabilizadora de la postura con unidades estabilizadoras de la parte superior e inferior del cuerpo, según resulte apropiado para animales de mayor tamaño, tales como vacas y ciervos, y para animales más pequeños, tales como perros y gatos, respectivamente. Según la especie, los estabilizadores de la parte superior e inferior del cuerpo pueden configurarse en diversas combinaciones: cada una independientemente, junto con, o en conexión con, determinadas partes.
Tanto en la figura 15 como la figura 16, la unidad estabilizadora de la parte superior del cuerpo comprende la subunidad de sujeción estabilizadora de la parte superior del cuerpo 1501, 1601 y la subunidad de bloqueo de sujeción estabilizadora de la parte superior del cuerpo 1502, 1602; la subunidad de ajuste de la presión de sujeción estabilizadora de la parte superior del cuerpo 1503, 1603 es opcional. La subunidad de sujeción estabilizadora de la parte superior del cuerpo 1501, 1601 puede convertirse en un tipo cubierta, con tejidos sintéticos resistentes, o con cinturones o cables ajustables longitudinalmente. La subunidad de bloqueo de sujeción estabilizadora de la parte superior del cuerpo 1502, 1602 evita que la subunidad de sujeción se desate durante el procedimiento y puede ser manual o electrónica. La subunidad de ajuste de la presión de sujeción estabilizadora de la parte superior del cuerpo 1503, 1603 permite que la subunidad de abrazadera estabilizadora de la parte superior del cuerpo aplique presión en el sujeto animal mediante el hinchado, por ejemplo, de la abrazadera con algún gas o líquido mediante la utilización de un inyector de presión emparejado con una subunidad de monitorización de la presión.
De manera similar, tanto en la figura 15 como en la figura 16, la unidad estabilizadora de la parte inferior del cuerpo comprende la subunidad de sujeción estabilizadora de la parte inferior del cuerpo 1504, 1604, y la subunidad de bloqueo de sujeción estabilizadora de la parte inferior del cuerpo 1505, 1605; la subunidad de ajuste de la presión de sujeción estabilizadora de la parte inferior del cuerpo 1506, 1606, así como la subunidad de soporte estabilizadora de la parte inferior del cuerpo 1507, 1607, son opcionales. La subunidad de sujeción estabilizadora de la parte inferior del cuerpo 1504, 1604 puede convertirse en un tipo de cubierta, con tejidos sintéticos resistentes, o con cinturones o cables ajustables longitudinalmente. La subunidad de bloqueo de sujeción estabilizadora de la parte inferior del cuerpo 1505, 1605 evita que la subunidad de sujeción se desate durante el procedimiento y puede ser manual o electrónica. La subunidad de ajuste de la presión de sujeción estabilizadora de la parte inferior del cuerpo 1506, 1606 permite que la subunidad de abrazadera estabilizadora de la parte inferior del cuerpo aplique presión en el sujeto animal mediante el hinchado, por ejemplo, de la abrazadera con algún gas o líquido mediante la utilización de un inyector de presión emparejado con una subunidad de monitorización de la presión. La subunidad de soporte estabilizadora de la parte inferior del cuerpo 1507, 1607 fija la unidad estabilizadora de la parte inferior del cuerpo al suelo o a una distancia determinada de los equipos, y puede estar constituida por la subunidad de soporte de la parte inferior del cuerpo y la subunidad conectora de soporte de la parte inferior del cuerpo. La subunidad de soporte de la parte inferior del cuerpo y la subunidad conectora de la parte inferior del cuerpo pueden adoptar muchas formas para adaptarse al sujeto animal, y pueden realizarse en acero o en otros metales, así como en fibras sintéticas resistentes, caucho o tejido.
La unidad estabilizadora de la cabeza en la figura 17 comprende la sujeción de barbilla 1701 y la subunidad de hocico estabilizadora 1702, que sujeta la nariz del sujeto en la posición correcta. La sujeción de barbilla 1701 puede realizarse en diversos materiales, tales como madera, plástico, caucho o metal, y debe resistir el peso de la cabeza del sujeto, proporcionando simultáneamente un reposo confortable para la cabeza y espacio para accesorios de soporte adicionales. La subunidad de hocico estabilizadora 1702 se utiliza en el caso de que el movimiento de la cabeza no pueda controlarse con la sujeción de barbilla por sí sola, y puede realizarse en un tipo de cubierta con tejido sintético resistente, o con cinturones o cables ajustables longitudinalmente, para abarcar la zona del hocico. La subunidad de bloqueo de hocico estabilizadora 1703 evita que la subunidad de sujeción se desate durante el procedimiento y puede ser manual o electrónica. La subunidad de ajuste de la presión de hocico estabilizadora 1704 permite que la subunidad de hocico estabilizadora aplique presión en el hocico del sujeto animal mediante el hinchado, por ejemplo, de la abrazadera con algún gas o líquido mediante la utilización de un inyector de presión emparejado con una subunidad de monitorización de la presión. La unidad estabilizadora de la cabeza puede presentar, además, un soporte estabilizador de la cabeza 1750 que fija la unidad estabilizadora de la cabeza en el suelo o a una determinada distancia de los equipos, soportando simultáneamente el peso de la cabeza del sujeto animal, y puede realizarse en diversas formas mediante la utilización de materiales resistentes, tales como madera, piedra o metal.
La unidad de ajuste de la posición ajusta la configuración de la unidad estabilizadora de la postura según las características físicas de cada animal con el fin de producir la posición más confortable para el sujeto y comprende la unidad de ajuste de la altura, la unidad de ajuste del equilibrio horizontal y la unidad de ajuste de la anchura de
la postura. Los ejemplos en las figuras 18 y 19 representan el sujeto animal (vaca y ciervo, respectivamente) ajustado dentro de las unidades estabilizadoras de parte superior y de parte inferior del cuerpo, en las que las unidades de ajuste de la altura 1801, 1804, 1901, 1904 se fijan para adaptarse a la altura del sujeto. El ajustador de altura 1801, 1901 conecta las unidades estabilizadoras de parte superior y de parte inferior del cuerpo y puede comprender la subunidad conectora 1802, 1902 construida con cinturones o cables, y la subunidad de ajuste de la longitud 1803, 1903, que ajusta la longitud de la subunidad conectora. La unidad de ajuste de la altura 1804, 1904 para la unidad estabilizadora de la cabeza puede comprender, además, la subunidad conectora 1805, 1905, que conecta la sujeción de barbilla al suelo y la unidad ajustadora de la altura 1806, 1906 de la sujeción de barbilla. La unidad ajustadora del equilibrio horizontal 1807, 1907 situada en el interior o exterior de la sujeción de barbilla y que comprende un sensor de equilibrio horizontal con un monitor de visualización, posiciona la sujeción de barbilla bajo la cabeza del sujeto animal para que se encuentre directamente enfrentada a la unidad de adquisición de imágenes. El sensor de equilibrio horizontal puede comprender sensores de gravedad, giroscopio o presión. La unidad ajustadora de la anchura de la postura 1808, 1908 puede utilizarse cuando la parte inferior del cuerpo se ha fijado en la unidad estabilizadora de la parte inferior del cuerpo y puede comprender la subunidad conectora 1809, 1909 de cinturones o cables y una subunidad de ajuste de la longitud 1810, 1910 que conecta ambos lados de la parte inferior del cuerpo.
Tal como se muestra en la figura 20, para determinadas especies de animales como gatos o perros, puede resultar apropiado combinar las unidades estabilizadoras de parte superior y de parte inferior del cuerpo con una unidad ajustadora de la altura 2001 situada delante o sobre la unidad estabilizadora de la cabeza, que posiciona la sujeción de barbilla para ajustarse a la altura del sujeto animal y que alcance su cabeza. La unidad ajustadora de la altura 2001 que ajusta la altura de la unidad estabilizadora de la cabeza puede comprender una unidad conectora 2002 que conecta la sujeción de barbilla al suelo y una subunidad ajustadora de la altura 2003 que ajusta la altura de la subunidad conectora. La unidad ajustadora del equilibrio horizontal 2004 situada en el interior o exterior de la sujeción de barbilla y que comprende un sensor de equilibrio horizontal con un monitor de visualización, posiciona la sujeción de barbilla bajo la cabeza del sujeto animal para que se encuentre directamente enfrentada a la unidad de adquisición de imágenes. El sensor de equilibrio horizontal puede comprender sensores de gravedad, giroscopio o presión. La unidad ajustadora de la anchura de la postura 2005 puede utilizarse cuando la parte inferior del cuerpo se ha fijado en la unidad estabilizadora de la parte inferior del cuerpo y puede comprender la subunidad conectora 2006 de cinturones o cables y una subunidad de ajuste de la longitud 2007 que conecta ambos lados de la parte inferior del cuerpo.
La secuencia de operaciones de la unidad estabilizadora del cuerpo es la siguiente: S2101 selección de la unidad estabilizadora corporal adecuada para el sujeto animal teniendo en consideración el tamaño total, la longitud de las patas, tamaño de los pies/pezuñas, tamaño de la cabeza y posición relativa de la nariz; S2102 ajuste del sujeto animal en el interior de la unidad estabilizadora de la parte superior del cuerpo; S2103 sujeción de la parte superior del cuerpo mediante la utilización de la subunidad de abrazadera estabilizadora de parte superior del cuerpo y de la subunidad de ajuste de la presión de la abrazadera estabilizadora de parte superior del cuerpo, para ajustarse a la anchura de los hombros; S2104 ajuste del sujeto animal dentro del estabilizador de parte inferior del cuerpo; S2105 fijación de la parte inferior del cuerpo mediante la utilización de la subunidad de abrazadera estabilizadora de parte inferior del cuerpo y de la subunidad ajustadora de presión de la abrazadera estabilizadora de parte inferior del cuerpo para adaptarse a los tobillos o patas; S2106 fijación del ajustador de altura de la postura y asimismo del ajustador de la altura para adaptarse a la altura del sujeto en caso necesario, a fin de conectar las unidades estabilizadoras de parte superior y de parte inferior del cuerpo; S2107 fijación de la cabeza mediante la utilización de la unidad estabilizadora de la cabeza, asegurándose de configurar la unidad ajustadora de la altura a la altura correcta y la unidad ajustadora del equilibrio horizontal para que la nariz se encuentre orientada enfrente de la unidad de adquisición de imágenes. Dicha secuencia de operaciones puede ser modificada, por experto en la materia de la presente invención, sin apartarse del concepto central.
El propósito de la unidad de adquisición de imágenes es la captura y la adquisición de imágenes de patrones de nariz. Lo anterior aparentemente es conceptualmente inocuo, pero la ejecución no lo es en absoluto, debido a la diversidad morfológica de la nariz y de los patrones de nariz, así como la naturaleza fisiológica del rinario, que proporciona reflexiones de la luz no deseadas. De esta manera, las seis funciones principales de la unidad de adquisición de imágenes son las siguientes: adquisición de imágenes de buena calidad de la nariz utilizables por la unidad de reconocimiento de imágenes sin basarse en los métodos tradicionales que exigen el contacto directo; adquisición de imágenes nasales de buena calidad de una amplia diversidad de especies; no resultar afectado por el tamaño, forma o fisiología particular del sujeto animal; la utilización de un tipo especial de iluminación que evita los problemas de las reflexiones de la luz en el hocico húmedo, y permitir que el usuario no profesional consiga los cinco puntos anteriores con facilidad.
Tal como se muestra en la figura 22, la unidad de adquisición de imágenes comprende la unidad de captura de imágenes 2201 que captura fotográficamente imágenes de patrón de nariz y posiblemente asimismo la unidad de análisis de imágenes 2202 que analiza las imágenes capturadas y procesa determinadas señales e información. La unidad de captura de imágenes comprende la unidad de captura 2301, la unidad frontal 2302, que ajusta el campo de visión (FOV) y la distancia de captura para cada sujeto, bloqueando simultáneamente la luz ambiental para un medio más controlado, y adicionalmente, la unidad de iluminación 2303, que proporciona iluminación
indirecta para superar el problema de reflexión de luz (figura 23).
La unidad de captura de imágenes, tal como se ilustra en la figura 24, comprende el módulo de lentes 2401 con dos o más lentes; un sensor de imagen 2402 (CMOS o CCD), y el módulo ajustador de la distancia 2403, que controla el FOV y el enfoque mediante desplazamiento del módulo de lentes y el sensor, manipulando de esta manera las distancias entre las lentes y entre el módulo de lentes y el sensor dentro de la unidad frontal 2404. El módulo ajustador de la distancia 2403 desplaza el módulo de lentes o una pluralidad de lentes, y comprende un pequeño motor y dentado de cremallera que convierte el movimiento circular del motor en desplazamiento lineal. Además, asimismo puede instalarse un carril de guiado que permite que el módulo de lentes 2401 y el sensor 2402, en movimiento periódico lineal gracias al dentado de cremallera, se desplacen entre posiciones predeterminadas. Alternativamente, la unidad de captura de imágenes comprende, además, el módulo de lentes 2501 y el sensor 2502 en posiciones fijas, en la que el módulo ajustador de la distancia 2503 únicamente controla las distancias entre las lentes dentro del módulo de lentes (figura 25).
La unidad frontal puede comprender una cubierta frontal 2601 que rodea y/o entra en contacto con la piel circundante a la nariz cuando la nariz entra en la unidad frontal; una lente de ajuste del FOV 2603; un espaciador 2602 que ajusta la distancia entre la nariz del sujeto y la lente de ajuste 2603 del FOV. La cubierta frontal 2601 y el espaciador 2602 pueden presentar formas o tamaños variables para adaptarse a diferentes especies o razas. La cubierta frontal 2601 debe ser de un color que sea óptimo para bloquear la luz ambiental, lo más probablemente negro u otros tonos oscuros, y realizada en materiales que no perturben a los sujetos animales, por ejemplo fibras sintéticas, caucho, textil o plástico. La cubierta frontal asimismo puede impregnarse con un olor calmante para los sujetos animales y hacer que sea amovible para una fácil sustitución al tratar sujetos con diferentes requisitos físicos durante la misma sesión.
La lente de ajuste del FOV estándar 2603 se modela según el tamaño de nariz de un perro típico (de tamaño medio); se utiliza una lente reductora para narices más grandes y una lente magnificadora para narices más pequeñas. La lente estándar se refiere a una lente única o a un grupo de lentes que permita enmarcar una nariz de perro típica, y las lentes reductoras y magnificadoras se construyen con relación al estándar.
El espaciador 2602 consiste en un exterior que bloquea la luz procedente del exterior, y el interior que circunda la nariz del sujeto animal, y posiblemente que asimismo aloja una unidad de iluminación. La longitud del espaciador, que determina la distancia entre la lente de ajuste del FOV y la nariz del sujeto puede optimizarse utilizando los resultados de campo de prueba. Asimismo puede resultar eficiente disponer de unidades frontales amovibles prediseñadas con espaciadores y de lentes de ajuste del FOV configuradas para adaptarse a especies o tamaños de nariz particulares basándose en resultados experimentales.
La unidad de iluminación en la figura 27 busca eliminar los problemas que aparecen por la reflexión y absorción de luz por la humedad sobre la superficie de la nariz mediante la incorporación de una fuente de luz 2701 de una región de longitud de onda específica (que no suponga ninguna amenaza para la salud del sujeto animal) en iluminación indirecta, en el que la luz viaja por una subunidad de conducto lumínico 2703 y una subunidad difusora de luz 2702. La fuente lumínica 2701, la subunidad difusora de luz 2702 y la subunidad de conducción de luz 2703 pueden variar para adaptarse a diferentes especies de sujetos animales. La fuente de luz 2701 debe presentar una luminosidad ajustable, evitar la región de los infrarrojos, que pueden ser absorbidos por la humedad, y la región de UV, que puede causar daños en los tejidos, y optimizarse para adaptarse a las características particulares de una especie. Resultaría suficiente cualquier tipo de fuente de luz que corresponda a la descripción anteriormente proporcionada.
La subunidad difusora de la luz 2702 absorbe y refleja parcialmente la luz procedente de la fuente de luz a través de la superficie del difusor, iluminando indirectamente toda la superficie de la nariz insertada en la unidad frontal. La cantidad de luz que finalmente pasa por el difusor puede controlarse con el tipo de material utilizado, tal como Hanji (papel coreano tradicional hecho a mano a partir de árboles de morera), papel de calco traslúcido o un tipo especial de vidrio, y asimismo pueden utilizarse materiales similares para revestir el interior de la subunidad de conducción de luz 2703.
En general, para obtener una imagen de alta calidad, es importante configurar correctamente la profundidad de campo; con este fin, normalmente se ajusta la apertura, el FOV, el enfoque y la distancia al sujeto. La unidad de captura de imágenes 2801 utiliza una diversidad de maneras para obtener imágenes de buena calidad. En la unidad de captura 2802, el FOV y el enfoque se controlan con el módulo ajustador de la distancia 2805, desplazando el módulo de lentes 2811A o el sensor 2812, o mediante el desplazamiento de la pluralidad de lentes 2813 dentro del módulo de lentes, mientras se dejan fijos el módulo de lentes 2811B y el sensor 2812. La unidad frontal 2803 ajusta el FOV con la lente de ajuste del FOV 2806 y el enfoque mediante la modificación de la distancia entre la lente de FOV 2806 y el módulo de lentes 2815 mediante la longitud variable del espaciador 2807. La unidad de iluminación 2804 utiliza una fuente de luz 2808 de una región de longitudes de onda óptima para imágenes de la nariz y la subunidad de conducción de la luz 2809 y la subunidad difusora de la luz 2801 para la iluminación indirecta, que resulta esencial para producir imágenes de buena calidad sin reflexiones obstructoras (figura 28).
Existen dos maneras diferentes en las que la unidad de captura ajusta el FOV y el enfoque. El primer método, tal como se muestra en la figura 29, implica desplazar el módulo de lentes 2901 o el sensor 2902, independiente o simultáneamente, a lo largo de un eje lineal utilizando el módulo ajustador de la distancia. El cambio en la posición del módulo de lentes 2901 o el sensor 2902 modifica la distancia (a) entre los dos, y la distancia (b) entre el módulo de lentes 2901 y la lente de ajuste del FOV en el interior de la unidad frontal 2903, modificando de esta manera el FOV y el enfoque. La longitud del espaciador 2903 está prefijada para el sujeto animal particular, y las distancias (d1, d2) entre las lentes 2904 en el módulo de lentes asimismo están fijadas. Los valores de a y b asimismo podrían fijarse previamente para especies específicas, de manera que los usuarios no profesionales puedan llevar a cabo con facilidad el procedimiento de captura.
El segundo método, tal como se muestra en la figura 30, implica desplazar las lentes 3004 dentro del módulo de lentes a lo largo de un eje lineal, modificando de esta manera las distancias entre las lentes (d1, d2), cambiando el FOV y el enfoque. Simultáneamente, se fija previamente la longitud (c) de la unidad frontal 3003 para la especie correspondiente y, por lo tanto, es un valor fijo, y asimismo se fija la distancia (a) entre el módulo de lentes 3001 y el sensor 3002, y la distancia (b) entre el módulo de lentes y la lente de ajuste del FOV en la unidad frontal 3003. Además, puede configurarse el módulo ajustador de la distancia para desplazarse con las lentes 3004 dentro del módulo de lentes de manera que solo puedan manipularse los valores d1 y d2. Nuevamente, los valores de a y b asimismo podrían fijarse previamente para especies específicas, de manera que los usuarios no profesionales puedan llevar a cabo con facilidad el procedimiento de captura.
La unidad frontal utiliza la lente de ajuste de FOV y la longitud del espaciador para manipular el FOV y el enfoque. Las figuras 31, 32 y 33 ilustran cómo pueden utilizarse diferentes combinaciones de la lente de ajuste de FOV y la longitud del espaciador para adaptarse a sujetos animales de diferente tamaño. Tal como se ha indicado anteriormente, la lente de ajuste del FOV estándar se modela según el tamaño de nariz de un perro típico (de tamaño medio); en su lugar, se utiliza una lente reductora para narices más grandes y una lente magnificadora para narices más pequeñas. La lente estándar se refiere a una lente única o a un grupo de lentes que permita enmarcar una nariz de perro típica, y las lentes reductoras y magnificadoras se construyen con relación al estándar. Además, puede modificarse la longitud del espaciador según el tamaño de nariz del sujeto animal a fin de ajustar el enfoque (distancia).
Para sujetos animales con una superficie de nariz grande, como la vaca en la figura 31, la utilización de una lente estándar calibrada para el tamaño de un perro típico no proporcionaría un FOV suficientemente grande para capturar la nariz completa y podría afectar negativamente a la precisión del reconocimiento. Por lo tanto, la lente de ajuste del FOV 3101 debería ser una lente reductora y el espaciador 3102 debería fijarse previamente a una longitud apropiada para obtener el enfoque correcto del sujeto animal. Además, debido a que la longitud (c) del espaciador 3102 puede cambiar, la distancia (a) entre el módulo de lentes 3103 y el sensor 3104 y la distancia (b) entre el módulo de lentes y la lente de ajuste del FOV en la unidad frontal 3101 asimismo pueden cambiar.
Para sujetos animales con una superficie de nariz intermedia, como el perro en la figura 32, la utilización de una lente reductora ampliaría en exceso el FOV y proporcionaría imágenes que no muestran el nivel de detalle en la imagen del patrón de nariz necesario para una identificación precisa. A la inversa, la utilización de una lente magnificadora reduciría el FOV en exceso y no capturaría toda la nariz, reduciendo la cantidad obtenida de datos del patrón de nariz. Por lo tanto, debería utilizarse una lente de ajuste del FOV estándar 3201 para narices de tamaño medio, emparejada con un espaciador adecuadamente alargado 3202. Además, debido a que la longitud (c'') del espaciador puede cambiar, la distancia (a'') entre el módulo de lentes 3203 y el sensor 3204 y la distancia (b'') entre el módulo de lentes y la lente de ajuste del FOV en la unidad frontal 3201 asimismo pueden cambiar.
Para sujetos animales con una superficie de nariz pequeña, como gatos o el perro pequeño en la figura 33, la utilización de la lente estándar ampliaría en exceso el FOV y proporcionaría imágenes que no muestran el nivel de detalle en la imagen del patrón de nariz necesario para una identificación precisa. Por lo tanto, la lente de ajuste del FOV 3301 debería ser una lente magnificadora y el espaciador 3302 debería fijarse previamente a una longitud apropiada para obtener el enfoque correcto en el sujeto animal. Además, debido a que la longitud (c"") del espaciador puede cambiar, la distancia (a'''') entre el módulo de lentes 3303 y el sensor 3304 y la distancia (b"") entre el módulo de lentes y la lente de ajuste del FOV en la unidad frontal 3301 asimismo pueden cambiar.
La figura 34 representa los resultados de utilizar las diferentes configuraciones de la unidad frontal en un perro, demostrando la importancia de seleccionar la correcta; la primera imagen se obtuvo con la configuración de magnificación; la segunda, con la estándar, y la tercera, con la de reducción.
La siguiente etapa para mejorar la calidad de la imagen se refiere a la iluminación. La figura 35 representa una comparación lado a lado de la misma imagen de nariz de perro capturada mediante la utilización de una iluminación directa convencional (flash de cámara) y la iluminación indirecta de la unidad de iluminación.
La unidad de iluminación controla las reflexiones de luz (que aparecen como motas blancas en la imagen de la izquierda y son altamente obstructoras para una identificación precisa) en la humedad sobre la superficie de la nariz aplicando iluminación indirecta mediante el uso de una fuente lumínica, subunidad de conducción de luz y
subunidad difusora de luz especiales. La fuente de luz debe evitar la región infrarroja, que puede resultar absorbida por la humedad, y la región de UV, que puede causar daños en los tejidos, y optimizarse para adaptarse a las características particulares de una especie.
Además, la figura 35 muestra que la utilización del flash de cámara convencional no ayuda a contrastar la fosa nasal respecto a la superficie de la nariz, mientras que la iluminación indirecta resulta en una clara diferenciación de los límites. Lo anterior afecta a la facilidad con la que pueden establecerse los límites de las fosas y, de esta manera, las imágenes iluminadas indirectamente generalmente incrementan la precisión del reconocimiento.
La unidad de análisis de imágenes analiza las imágenes de patrón de nariz adquiridas por la unidad de captura de imágenes, gestiona diversos tipos de información y señales del procedimiento, y asimismo puede conectarse no únicamente a la unidad de adquisición de imágenes, sino asimismo a la unidad de reconocimiento de imágenes. Tal como se ilustra en el diagrama de bloques en la figura 36, la unidad de análisis de imágenes puede comprender la unidad de procesador principal 3601, la memoria intermedia 3602, la base de datos (DB) 3603 y la unidad de comunicaciones 3604. Además, puede añadirse una unidad de visualización 3605 para que el operador vea las imágenes capturadas por la unidad de captura de imágenes en tiempo real, y seleccione y adquiera imágenes de buena calidad.
La unidad de procesador principal selecciona las imágenes de patrón de nariz que son de calidad suficiente para la utilización en la unidad de reconocimiento de imágenes, de entre todas las imágenes capturadas por la unidad de captura de imágenes. En el caso de que la unidad de captura de imágenes obtenga múltiples imágenes de patrón de nariz, se asigna a cada imagen una puntuación individual de variables específicas y se seleccionan las imágenes que superan el umbral fijado por la unidad de análisis de imágenes. Si ninguna de las imágenes de un lote particular llega al umbral, se descarta todo el grupo y se envía una petición para un nuevo lote a la unidad de captura de imágenes. Durante dicho procedimiento de selección, las imágenes son evaluadas según criterios como la cantidad de luz reflejada, la nitidez, la relación de contraste, ROI para la captura, el nivel de ruido, etc., y únicamente se aceptan aquellas imágenes que superen el umbral para cada variable. En el caso de que más de una imagen de un solo lote superen el umbral, se selecciona la que presenta la puntuación total más alta (suma de las puntuaciones individuales) y este procedimiento puede realizarse simultáneamente a la adquisición de imágenes en la unidad de análisis de imágenes o en la unidad de reconocimiento de imágenes.
Existen dos tipos de variable: aquellas que no están relacionadas con características específicas de especie (A1-A3) y aquellas variables que sí están relacionadas (A4-A12). Entre las primeras se incluyen la nitidez A1, el contraste A2 y el nivel de ruido A3; entre las segundas se incluyen la ROI para la captura A4, la presencia de reflexión lumínica A5, la localización de las fosas A6, la nitidez de la imagen de las fosas A7, el nivel de contraste de la imagen de las fosas A8, el nivel de ruido de la imagen de las fosas A9, la nitidez del límite entre las fosas y la ROI A10, el nivel de contraste en el límite entre las fosas y la ROI A11 y el nivel de ruido en el límite entre las fosas y la ROI A12. Pueden añadirse o eliminarse variables adecuadamente desde la lista anteriormente indicada dependiendo de las características particulares de la especie del sujeto animal (Tabla 1).
Tabla 1. Variables de evaluación de las imágenes de patrón de nariz.
Durante el cálculo de la puntuación total para seleccionar la mejor imagen (la imagen de puntuación más alta) de un lote que proporciona más de una imagen que supera el umbral, si el valor numérico de nitidez es a1 y el factor de ponderación del mismo es w1; el contraste es a2 yw2; el nivel de ruido es a3 y w3; la ROI para la captura es a4, y w4; la presencia de reflexión lumínica es a5, y w5; la localización de las fosas es a6, y w6; la nitidez de la imagen de las fosas es a7, y w7; el nivel de contraste de la imagen de las fosas es a8, y w8; el nivel de ruido de la imagen de las fosas es a9, y w9; la nitidez de los límites entre las fosas y la ROI es a10, y w10; el nivel de contraste entre los límites entre las fosas y la ROI es a11, y w11, y el nivel de ruido en los límites entre las fosas y la ROI es a12, y w12; entonces la puntuación total es la suma de los productos de a1 y w1, a2 y w2, a3 y w3, a4 y w4, a5 y w5, a6 y w6, a7 y w7, a8 y w8, a9 y w9, a10 y w10, a11 y w11, y a12 y w12, que se expresa utilizando la fórmula a
continuación:
Puntuación total =
wl*al
+
w2* a2
+
w3* a3
+
w4* a4
+
w5* a5
+
w6* a6+ w7* a7+ w8* a8
+ w9* a9+ wlO* alO w ll* a l l w l2*al2 —.........-........-
............... (Ecuación
1)
La puntuación total anteriormente indicada es la suma ponderada de las puntuaciones individuales y, por lo tanto, el grado de importancia de una variable particular puede reflejarse mediante el ajuste de su valor de ponderación.
Existen dos maneras de que la unidad de adquisición de imágenes pueda capturar un lote de imágenes de patrón de nariz. En el caso de que la unidad de captura de imágenes no se encuentre en espera o en modo de suspensión, se encontrará en modo automático o en modo de captura manual. El modo de captura automática recibe los valores umbral para la especie o raza de la DB y los compara con las puntuaciones individuales de las imágenes capturadas en la unidad de procesador principal. Por otra parte, en el modo manual, el usuario opera la unidad de adquisición de imágenes, realiza visualmente una evaluación estimativa de las puntuaciones individuales de cada variable y toma la decisión de captura en el caso de que dichas puntuaciones se consideren satisfactorias. El modo de suspensión es un modo de espera antes de que entre en el modo de captura (grabación), y el modo de captura está destinado a la adquisición final de la imagen de patrón de nariz. La unidad de adquisición de imágenes puede pasar del modo de suspensión al modo de captura cuando el usuario pulsa un botón designado en la unidad de visualización.
La figura 37 ilustra la adquisición de un lote de imágenes de patrón de nariz en modo de captura. Una vez en el modo de captura, el módulo de lentes o sensor en la unidad de captura se desplaza hasta la posición fijada según el valor preasignado. La transición de modo de captura a modo de suspensión ocurre cuando la unidad de procesador principal ha seleccionado satisfactoriamente la mejor imagen (que supera el umbral) del lote guardado en la memoria intermedia. En el caso de que el tiempo al inicio de la grabación sea T_inicio y al final de la grabación sea T_final, entonces se adquiere un número n de imágenes durante ese tiempo a una tasa por segundo constante. La velocidad de imágenes por segundo variará según la resolución y asimismo puede variar dependiendo de la configuración del hardware y el tipo de cámara. La unidad de procesador principal asimismo puede avisar al operador al final del proceso de captura mediante una notificación en la unidad de visualización.
Los componentes de hardware mínimos de la unidad de procesador principal son la CPU, la RAM y la memoria no volátil (ROM, memoria rápida, etc.). La CPU realiza todas las operaciones que ejecuta la unidad de análisis de imágenes. En la memoria no volátil se instala el programa residente, donde están almacenados los valores umbral, donde se evalúan las puntuaciones individuales de las imágenes de patrón de nariz y donde se almacena el algoritmo que permite guardar las imágenes seleccionadas y toda la información relacionada en la memoria intermedia. Además, en el caso de que el cálculo de selección de la mejor imagen sea excesivamente complicado o si se trata un número muy elevado de imágenes transferidas de la unidad de adquisición de imágenes, la memoria no volátil podría no proporcionar un procesamiento rápido de manera eficiente, en cuyo caso podría resultar útil añadir RAM a la unidad de procesador principal.
La memoria intermedia almacena una diversidad de información que aparece mientras la unidad de procesador principal está en el proceso de seleccionar las imágenes que superan el umbral, y puede consistir en una memoria rápida o en una DB. Debido a que la DB en la memoria intermedia puede ser reemplazada en cualquier momento por el usuario, la DB de la memoria intermedia generada por la unidad de análisis de imágenes debería almacenarse preferentemente en la memoria rápida. La DB de parámetros almacena los valores de umbral y las puntuaciones individuales seleccionadas por la unidad de procesador principal en la unidad de adquisición de imágenes.
La unidad de comunicaciones retransmite información entre la unidad de captura de imágenes y la unidad de análisis de imágenes. La unidad de comunicaciones tiene encomendada la salida de señales para los comandos de posicionamiento durante la captura y la notificación de alertas al usuario de los cambios de modo y, de esta manera, está básicamente equipada con un transmisor de señales para la emisión de señales de instrucción. El transmisor de señales puede comprender uno o más de los siguientes: generador de señales audibles (para voz u otros sonidos), generador de señales visuales (para LED o flash) y generador de vibraciones. Además, podría complementarse con una unidad de visualización, posiblemente que comprenda un espejo o pantalla LCD para permitir una revisión rápida y fácil de las imágenes obtenidas por la unidad de captura de imágenes.
Los procesos de la unidad de análisis de las imágenes descritos hasta el momento no requieren un sistema operativo separado, aunque puede instalarse uno apropiado si surge la necesidad de gestionar la memoria u otros recursos, la sincronización de los tiempos o la planificación de tiempos de CPU. Además, la totalidad del hardware anteriormente mencionado puede montarse en un único chip, para una solución de chip único (microprocesador de un chip).
Se ilustra un ejemplo del procedimiento de adquisición de imágenes en la figura 38; el orden de los sucesos no está necesariamente limitado al siguiente. S3801 el operador selecciona la especie en la unidad de visualización
para iniciar el modo automático, o selecciona el modo manual; S3802 en modo automático, una vez se ha realizado la selección de especie, pulsar el botón de captura inicia la adquisición del lote de imágenes de patrón de nariz a n imágenes por segundo, mientras se desplaza el módulo de lentes dentro del rango preasignado de posiciones (valores de ajuste de a y b). En el modo automático, la unidad de captura de imágenes, la unidad de iluminación y la unidad frontal se ajustan automáticamente para adaptarse al sujeto animal basándose en los valores almacenados en la DB de parámetros del FOV, enfoque, luminosidad, etc. Sin embargo, en modo manual, el operador evalúa visualmente las características y variables de las imágenes de patrón de nariz mediante la unidad de visualización y selecciona la mejor imagen. S3803 las imágenes de patrón de nariz adquiridas por el sensor de la unidad de captura de imágenes se almacenan en la memoria intermedia, y entonces la unidad de procesador principal calcula las puntuaciones individuales y realiza las comparaciones con los valores umbral contenidos en la DB de referencias. S3804 una vez se ha seleccionado la mejor imagen que supera todos los umbrales, es almacenada en la memoria intermedia.
Tal como se ha mencionado anteriormente, la unidad de reconocimiento de imágenes genera imágenes de patrón de nariz procesadas y códigos de patrón de nariz para el registro y la identificación. Con el fin de tratar satisfactoriamente un amplio abanico de varianzas, la unidad de reconocimiento de imágenes debe ser capaz de lo siguiente: identificar cualquier animal individual con patrones de nariz viables, con independencia de las características idiosincráticas; identificar con independencia de fenómenos fisiológicos externos (tales como humedad o pelaje, etc.); compensar determinadas distorsiones que se producen en las imágenes capturadas desde diferentes ángulos y realizar una identificación precisa; crear códigos universales de patrón de nariz para la identificación de cualquier especie o raza con patrones de nariz viables, y utilizar el mejor modo de identificación al realizar el emparejamiento dentro de una especie o raza conocida.
Tal como se muestra en la figura 39, la unidad de reconocimiento de imágenes puede comprender la unidad de fijación 3901 de la zona de interés (ROI), la unidad de generación de códigos de patrón de nariz 3902, que genera el código de patrón de nariz a partir de la ROI fijada; la unidad de emparejamiento 3903 de los códigos de patrón de nariz y la base de datos (DB) 3904 de códigos de patrón de nariz, en la que se almacenan los códigos de patrón de nariz generados durante la etapa de inscripción e identificación. Son posibles adicionales la unidad de procesamiento de imágenes 3905, que procesa la imagen de patrón de nariz, en caso necesario antes de fijar la ROI, y la unidad de fijación de la ROI estandarizada 3906, que estandariza la ROI antes de fijar la ROI y generar el código de patrón de nariz. Además, la unidad de análisis de imágenes anteriormente mencionada de la unidad de adquisición de imágenes puede configurarse en la unidad de reconocimiento de imágenes.
La figura 40 ilustra el método mediante el que se analiza una imagen de patrón de nariz animal que será utilizada para la identificación, el orden del cual puede modificarse para adaptarse mejor a los equipos o a las circunstancias; S4001 adquisición de la imagen de patrón de nariz del sujeto animal mediante la utilización de la unidad estabilizadora corporal y la unidad de adquisición de imágenes; S4003 fijación de la ROI en la imagen de patrón de nariz (procesada); S4005 generación de un código de patrón de nariz de la ROI fijada; S4006 inscripción del código de patrón de nariz generado; S4007 comparación del código de patrón de nariz almacenado del registro con el código de patrón de nariz recién generado en emparejamiento de uno a uno para la verificación, y S4008 ejecución de emparejamiento de uno a varios para la identificación. Las imágenes adquiridas en S4001 que han sido procesadas se denominan imágenes de patrón de nariz procesadas y puede incluirse una etapa adicional S4002 para almacenarlas. Además, asimismo puede ser necesaria la etapa S4004, de generación de una ROI estandarizada a partir de la ROI seleccionada en S4003.
La unidad de procesamiento de imágenes procesa las imágenes de patrón de nariz adquiridas con el fin de incrementar la tasa de identificación y almacena la imagen resultante. Las imágenes adquiridas en bruto pueden presentar diferentes niveles de ruido y borrosidad, y pueden requerir ajustes de contraste para normalizar la distribución de los valores de los píxeles. La presente invención utiliza la técnica de ecualización de histograma para normalizar la distribución de valores de píxeles de las imágenes. Con el fin de ajustar la distribución de los valores de los píxeles, se fija una función de distribución y se aplica la ecualización de histograma a cada imagen de patrón de nariz para que presente la misma función de distribución fija. Además, pueden aplicarse técnicas de filtración de imagen para tratar los problemas de ruido y borrosidad, con filtros gaussianos o de mediana para el ajuste del nivel de ruido y con una variedad de filtros de paso bajo en el dominio de frecuencias.
Además, pueden utilizarse técnicas de definición de imagen mediante la utilización de derivadas para acentuar los patrones de nariz grabados, y pueden utilizarse técnicas de desconvolución para restaurar las imágenes dañadas. En la presente invención, excepto cuando resulte necesario distinguir entre las imágenes de patrón de nariz en bruto y las imágenes de patrón de nariz procesadas, ambas se denominarán normalmente imágenes de patrón de nariz, en aras de la simplicidad.
La figura 41 es un diagrama esquemático que ilustra brevemente la unidad de fijación de la ROI como una forma de realización de la presente invención. La unidad de fijación de la ROI, tal como se muestra en la figura 41, puede comprender la unidad de segmentación 4101, la unidad de curva de aproximación 4102 y la unidad de división de la ROI 4103. La unidad de segmentación fija los límites de las fosas nasales, que se convierten en la base para fijar la ROI en la imagen de patrón de nariz.
La figura 42 es un diagrama esquemático que ilustra cómo encontrar los límites de las fosas nasales, a modo de una forma de realización de la presente invención. La figura 42 ilustra el procedimiento de fijación de los límites de las fosas nasales, en el que las fosas nasales aparecen como una sombra debido a la iluminación indirecta. Los límites de dicha sombra son la base para los límites de las fosas nasales, que pueden adoptar la forma de un arco circular o elíptico, etc. Con el fin de extraer los puntos de los límites, partiendo de uno o más puntos dentro de la sombra como el punto o puntos centrales, se localizan los puntos de los límites basándose en los cambios de brillo a lo largo del rayo desde los puntos de centro fijos. Los puntos a lo largo de los rayos que se extienden en diversas direcciones que muestran un cambio acusado de brillo se marcan como puntos candidatos, y los puntos de límite correctos se encuentran entre los puntos candidatos basándose en el análisis estadístico de la forma y localización de la fosa nasal.
Mediante la utilización del análisis estadístico anteriormente indicado, podrían no extraerse todos los puntos de límite de la fosa nasal en diversas direcciones, dando como resultado que únicamente se extraigan partes de los puntos de límite.
En ocasiones, incluso con iluminación indirecta, podrían aparecer determinadas zonas que no son parte de las fosas nasales dentro de una sombra similar y, por lo tanto, resulta útil utilizar múltiples puntos de centro y el análisis estadístico que utiliza la información de forma y localización de las fosas nasales para evitar encontrar puntos de límite incorrectos.
La unidad de curva de aproximación calcula una aproximación de las curvas de límite de los límites de las fosas nasales mediante la utilización de los puntos de límite encontrados en la unidad de segmentación. En dicha aproximación, la curva de aproximación final es la mejor curva que se ajuste a los puntos de límite encontrados mediante diversos análisis de regresión, y generalmente es un arco circular o un arco elíptico.
La figura 43 es un diagrama que ilustra cómo aproximar los límites de las fosas nasales con círculos o elipses, a modo de una forma de realización de la presente invención. Aunque, tal como se muestra en la figura 43, los límites de las fosas izquierda y derecha pueden considerarse curvas simétricas vistas desde delante de la nariz; las dos curvas de aproximación pueden ser elipses asimétricas si la imagen de patrón de nariz se capta de lado.
Además, debido a que la unidad de curva de aproximación aproxima por separado los límites de las fosas izquierda y derecha, las dos curvas de aproximación pueden presentar formas diferentes, resultando en que una curva sea un círculo y la otra sea una elipse. Asimismo resulta posible que las dos curvas de aproximación presenten un tamaño diferente, aunque las dos sean círculos o elipses.
La unidad de división de la ROI extrae una región cuadrangular de una imagen de patrón de nariz entre las dos curvas de aproximación obtenidas de la unidad de aproximación. Este procedimiento consta de dos etapas: a) identificación de la zona entre dos curvas de aproximación y b) extracción de una zona cuadrangular contenida en la zona identificada.
(A) La primera etapa en la que se identifica la zona entre dos curvas de aproximación:
La figura 44 es un diagrama esquemático que ilustra cómo identificar la zona entre las dos curvas de aproximación (círculos o elipses), a modo de una forma de realización de la presente invención. Tal como se muestra en la figura 44, se localizan dos puntos que están en las intersecciones entre cada curva de aproximación y el segmento de línea que conecta dos centros de las curvas de aproximación, y se estiman las dos líneas tangentes, tangentes en cada punto localizado respecto a la curva de aproximación (la línea tangente izquierda se indica mediante T_L y la línea tangente derecha, T_R). Dichas líneas tangentes pueden ser perpendiculares al segmento de línea que conecta los dos centros en el caso de que las dos curvas de aproximación sean simétricas, y pueden ser no perpendiculares en el caso de que no sean simétricas.
A continuación, se estiman las dos líneas conectoras: una línea que conecta dos puntos de vértice superior de las curvas de aproximación, y la otra línea, que conecta dos puntos de vértice inferior (la línea superior se indica mediante T_U y la línea inferior se indica mediante T_D). En esta etapa, las dos líneas conectoras son líneas tangentes, tangentes a ambas curvas de aproximación en el caso de que ambas sean círculos y las dos líneas conectan dos puntos de vértice superior o dos puntos de vértice inferior en el caso de que ambas sean elipses.
(B) La segunda etapa en la que se extrae la zona cuadrangular entre dos curvas de aproximación, que será la ROI:
La figura 45 es un diagrama esquemático que ilustra cómo extraer la zona cuadrangular entre las dos curvas de aproximación, a modo de una forma de realización de la presente invención. Tal como se muestra en la figura 45, la ROI es la zona cuadrangular abarcada por las cuatro líneas obtenidas en la etapa A. La forma y el tamaño de la ROI pueden modificarse según la posición relativa de la nariz respecto a la posición de la unidad de adquisición de imágenes durante la captura de la imagen nasal y, de esta manera, puede modificarse incluso la ROI del mismo sujeto animal.
En la unidad de curva de aproximación, pueden obtenerse las dos curvas de aproximación de manera que el segmento de línea que conecta los puntos de centro de las curvas de aproximación pase los puntos de vértice de las dos curvas de aproximación en el caso de que ambas se aproximen por elipses.
Partiendo de la premisa de que las dos curvas de límite de las fosas nasales son simétricas al capturarlas directamente desde delante, el segmento de línea que conecta los dos puntos de centro de las dos curvas de límite elípticas de las fosas debería pasar por el punto de vértice de cada elipse. Aplicando este hecho, pueden aproximarse las curvas límite por elipses, de manera que el segmento de línea que conecta los puntos de centro de las elipses pase por los puntos de vértice de las mismas.
Se proporciona una explicación detallada de la unidad de fijación de ROI estandarizada posteriormente.
La unidad de fijación de ROI estandarizada se ocupa del procedimiento de transformación de la ROI adquirida por la unidad de fijación de ROI en ROI estandarizada, en caso de que resulte necesario. La figura 46 es un diagrama que ilustra cómo la ROI de la misma imagen de patrón de nariz puede modificarse dependiendo de las curvas de aproximación de los límites de las fosas nasales. Tal como se muestra en la figura 46, la ROI cuadrangular de incluso la misma imagen de patrón de nariz puede modificarse al utilizar diferentes curvas de aproximación, y la ROI cuadrangular anteriormente indicada de incluso el mismo sujeto animal asimismo puede modificarse según la posición relativa de la nariz respecto a la unidad de adquisición de imágenes durante la captura.
Con el fin de incrementar la tasa de identificación, resulta necesario transformar la ROI dada en la forma estandarizada, que es independiente de la posición relativa de la nariz y de las formas de las curvas de aproximación. La unidad de fijación de ROI estandarizada se ocupa del procedimiento de transformación de la ROI en la forma rectangular estándar basándose en la ecuación (2).
La figura 47 es un diagrama que ilustra el procedimiento de transformación de la ROI anteriormente determinada en una ROI estandarizada, a modo de una forma de realización de la presente invención. Tal como se muestra en la figura 47, se transforma una ROI cuadrangular con cuatro vértices O, A, B y C en una zona rectangular de anchura A y altura H mediante la ecuación 2.
X = P ^ ( Q - P ) = fí ^ (S - R) ......................... (Ecuación 2)
En esta transformación, las coordenadas del punto correspondiente X en la ROI pueden no ser valores integrales, en contraste con el punto en la ROI estandarizada, que presenta las coordenadas integrales a y b. En este caso, el valor de brillo K(X) del punto X puede interpolarse a partir de los valores de píxel cercanos y la intensidad del punto (a, b) se define mediante la ecuación 3.
I(a,b) - K (X )------------------(Ecuación 3)
Mediante la transformación anteriormente indicada, pueden transformarse diversas formas de la ROI cuadrangular en una forma rectangular.
En la presente invención, excepto cuando resulte necesario distinguir entre la ROI y la ROI estandarizada, ambas se denominarán normalmente ROI, en aras de la simplicidad. Se proporciona una explicación detallada de la unidad de generación de códigos de patrón de nariz posteriormente.
La figura 48 es un diagrama de bloques simplificado que describe la unidad de generación de códigos de patrón de nariz, a modo de una forma de realización de la presente invención. Tal como se muestra en la figura 48, la unidad de generación de códigos de patrón de nariz puede comprender la unidad de generación de códigos de transformada de frecuencia 4801 y la unidad de generación de códigos de enmascaramiento 4802.
Un código de patrón de nariz consiste en un código de transformada de frecuencia y un código de enmascaramiento que son generados por la unidad de generación de códigos de transformada de frecuencia y la unidad de generación de códigos de enmascaramiento, respectivamente. Se proporciona una explicación detallada de la unidad de generación de códigos de patrón de nariz posteriormente.
La figura 49 es un diagrama de bloques que ilustra el procedimiento de generación de códigos de patrón de nariz a partir de la ROI. Tal como se muestra en la figura 49, un código de patrón de nariz consiste en el código de transformada de frecuencia generado en la unidad de generación de códigos de transformada de frecuencia y el código de enmascaramiento generados en la unidad de generación de códigos de enmascaramiento utilizando la ROI. El código de patrón de nariz es una matriz de 2 bits y su valor componente se determina mediante métodos
de transformada de frecuencia predeterminados y parámetros de las transformadas.
Entre los métodos de transformada de la frecuencia predeterminados pueden incluirse varios métodos de frecuencia, incluyendo la transformada de Gabor, la transformada de Haar, la transformada coseno de Gabor, la transformada seno de Gabor, la transformada seno, la transformada coseno y diversas transformadas "wavelet".
En la presente invención, pueden utilizarse diferentes frecuencias para partes reales e imaginarias de la transformada Gabor. Además, puede utilizarse por sí sola la parte real de la transformada de Gabor (transformada coseno de Gabor) o la parte imaginaria de la transformada de Gabor (transformada seno de Gabor). La elección de métodos de transformada de la frecuencia en la unidad de generación de códigos de patrón de nariz puede determinarse según el rendimiento y la velocidad de procesamiento de la unidad de reconocimiento de imágenes.
Posteriormente se proporciona una explicación detallada del procedimiento de generación de códigos de transformada de frecuencias a partir de la ROI en la unidad de generación de códigos de transformada de frecuencias.
La figura 50 es un diagrama que ilustra cómo dividir la ROI en zonas más pequeñas con dimensiones especificadas que se denominan bloques de celdas y cómo se generan códigos de transformada de frecuencia a partir de dichos bloques de celdas. Cada bloque de celdas puede consistir en uno o más píxeles. En el caso de que el tamaño de la imagen nasal dada sea grande, puede reducirse un grupo de píxeles a un pixel calculando el promedio de los valores en el grupo. El grupo de píxeles puede considerarse como un bloque de celdas en este procedimiento. Es decir, cada bloque de celdas puede representarse mediante un valor de píxel mediante la utilización de métodos adecuados.
Tal como se muestra en la figura 50, la ROI de anchura A y altura H se divide en n(=M * L) bloques de celdas idénticos. El número total de bloques de celdas y el tamaño de cada bloque de celdas puede modificarse según el tamaño de la imagen nasal, la raza del sujeto animal, los métodos de transformada de frecuencia, los parámetros utilizados en los métodos de transformada de frecuencia, etc.
Además, los códigos de transformada de frecuencia consisten en valores de transformada de frecuencia, cada uno de los cuales se obtiene a partir de un grupo de bloques de celdas denominado grupo de celdas, tal como se muestra en la figura 50. Es decir, un grupo de celdas es la unidad básica para obtener códigos de transformada de frecuencia. Dos grupos de celdas diferentes pueden incluir algunos bloques de celdas en común.
El número de grupos de celdas y el número de bloques de celdas en cada grupo de celdas puede modificarse según la raza del sujeto animal, los métodos de transformada de frecuencia, los parámetros utilizados en los métodos de transformada de frecuencia, etc. Cada valor de transformada de frecuencia de un grupo de celdas es un valor de bit binario (0 o 1) calculado basándose en el método y parámetros predeterminados de transformada de frecuencia.
Mientras que en la mayoría de casos cada grupo de celdas proporciona únicamente un valor de transformada de frecuencia de manera que la longitud del código de transformada de frecuencia es igual al número de grupos de celdas, pueden obtenerse múltiples valores de transformada de frecuencia a partir de un grupo de celdas con múltiples métodos y parámetros de transformada de frecuencia. Además, con algún método de transformación de secuencias pueden obtenerse múltiples valores de transformación de frecuencia a partir de cada grupo de celdas incluso con un parámetro.
Por ejemplo, mediante la transformada Gabor se generan a partir de cada grupo de celdas dos valores de transformación de las frecuencias: las partes real e imaginaria de la transformada de frecuencia. Aunque los métodos de transformada de frecuencia varían en la manera en que se obtiene el valor de bit binario de cada grupo de celdas, esencialmente son iguales excepto en su fórmula y parámetros de transformación. De esta manera, la fórmula de transformación y sus parámetros se consideran explícitamente en la presente invención solo para la transformada de Gabor, la transformada coseno de Gabor y la transformada seno de Gabor.
Posteriormente se proporciona una explicación detallada del procedimiento de generación de códigos de transformada de frecuencia a partir de la ROI indicada anteriormente en el caso de la transformada de Gabor, la transformada coseno de Gabor y la transformada seno de Gabor.
[Ejemplo] Transformada de Gabor, transformada coseno de Gabor y transformada seno de Gabor
El método de transformación de la frecuencia de la transformada de Gabor se proporciona mediante la ecuación (4) con sus parámetros. La transformada coseno de Gabor y la transformada seno de Gabor calculan, cada una, los valores de bit binario de los códigos de transformada de frecuencia mediante la utilización de la ecuación (5) y la ecuación (6), respectivamente.
En las ecuaciones (4), (5) y (6), I(a,b) indica el brillo del píxel en la ROI en la posición (a,b) y representa las coordenadas de un punto en la ROI. Además, a y p son parámetros de la transformada de Gabor para determinar el tamaño de la región efectiva a considerar en el cálculo de la transformada de frecuencia y son parámetros para determinar la frecuencia horizontal y la frecuencia vertical, respectivamente.
Aunque la integración en la presente invención se lleva a cabo en continuo en las ecuaciones (4), (5) y (6), la integración se aproxima mediante la suma de los valores del integrando en punto del retículo finito.
Posteriormente se proporciona una explicación detallada del procedimiento de aproximación de las integraciones, en las ecuaciones (4), (5) y (6). La zona de integración en las ecuaciones (4), (5) y (6) es diferente de la zona real que se debe considerar durante la aproximación de la integración. La figura 51 es un diagrama que ilustra cómo las dos zonas difieren según se utiliza la transformada de Gabor, la transformada coseno de Gabor o la transformada seno de Gabor, a modo de una forma de realización de la presente invención.
Tal como se muestra en la figura 51, la zona teórica de integración de las ecuaciones (4), (5) y (6) es la ROI completa, pero la zona real que se debe considerar al aproximar la integración está restringida a la zona donde el valor de ( q - q 0 ) 2 (b -b 0y
a2 e P2 es superior al umbral dado, ya que el valor de integración presenta pocas diferencias con los píxeles en la zona en la que el valor de
(g-g0)2 (fc-ftp)2
e a2 e P2 es inferior al umbral dado. A este respecto, pueden formarse grupos de celdas de manera que cada grupo de celdas únicamente consista en tres bloques de celdas donde el valor de
sea superior al umbral dado.
Dichos bloques de celdas están determinados por el punto (a0 , b0) y los parámetros a y p. La zona de dicho bloque de celdas se indica mediante R(a0, b0 , a, p), posteriormente. Al aproximar la integración en las ecuaciones (4), (5) y (6), solo se considera la zona R(ao , bo, a, p). Es decir, la zona real de integración en las ecuaciones (4), (5) y (6) es la zona R(ao , bo , a, p). En la figura 51, el rectángulo de líneas de puntos representa el grupo de celdas R(ao , bo , a, p).
De esta manera, las ecuaciones (4), (5) y (6) pueden aproximarse con las ecuaciones (4-1), (5-1) y (6-1).
)
Al calcular la transformada coseno de Gabor o la transformada seno de Gabor, se evalúa V en la ecuación (4-1) en la zona R(ao, bü, a, p). En el caso de la transformada coseno de Gabor, el valor de bit binario del código de transformada de frecuencia está determinado por el signo de Re(V) en la ecuación (5-1): es 1 si Re(V)>0, o ü en caso contrario. En el caso de la transformada seno de Gabor, el valor de bit binario del código de transformada de frecuencia está determinado por el signo de lm(V) en la ecuación (6-1) del mismo modo.
De esta manera, para N configuraciones de los métodos y valores de la transformada de frecuencia ao , bo, a, p, Wx , Wy y N, se genera un código de bit binario. En este caso, N indica la longitud del código de transformada de frecuencia. Debido a que pueden obtenerse múltiples valores de transformada de frecuencia de cada grupo de celdas utilizando diferentes métodos de frecuencia y sus parámetros, la longitud N del código de transformada de frecuencia puede ser diferente del número de grupos de celdas.
Cada valor binario de los códigos de transformada de frecuencia puede obtenerse basándose en su propio método y parámetros predeterminados de transformada de frecuencia. Es decir, pueden utilizarse diferentes métodos de frecuencia o diferentes parámetros para cada valor binario del código de transformada de frecuencia. De esta manera, las diversas características de una imagen de patrón de nariz pueden codificarse mejor en el código de transformada de frecuencia y, por lo tanto, incrementar la tasa de precisión del reconocimiento en comparación con el caso en que se calculen todos los valores binarios mediante la utilización del mismo método o parámetros de frecuencia.
Dicha estrategia asimismo puede aplicarse a cada tipo de raza. Aunque pueden seleccionarse el mismo método o parámetros de transformada de frecuencia con independencia del tipo de raza, puede incrementarse la tasa de precisión del reconocimiento si se seleccionan adecuadamente para cada tipo de raza diferentes métodos o parámetros de frecuencia.
Por ejemplo, puede seleccionarse el mejor método y parámetros de transformación de frecuencia (por ejemplo, frecuencias) al generar los códigos de patrón de nariz basándose en el tamaño estimado de las características de patrón de nariz en la imagen dada de patrón de nariz. Mediante la utilización de dicha estrategia puede conseguirse una distinción fina entre razas, en las que los tamaños de elementos del patrón de nariz son significativamente diferentes.
Posteriormente se proporciona una explicación detallada del procedimiento de generación del código de enmascaramiento a partir de la ROI en la unidad de generación de código de enmascaramiento.
Cada valor de bit de un código de enmascaramiento corresponde a un valor de bit de un código de transformada de frecuencia. Al generar un código de frecuencia de N bits a partir de N configuraciones de métodos y valores de transformada de frecuencia de ao, bo, a, p, Wx y Wy, asimismo se calcula cada valor de bit de un código de enmascaramiento de cada una de las N configuraciones. De esta manera, la longitud de los códigos de enmascaramiento es igual a la longitud de los códigos de transformada de frecuencia.
El procedimiento de generación de código de enmascaramiento pasa por una etapa de enmascaramiento de la reflexión de la luz y una etapa adicional de enmascaramiento. Dependiendo de los métodos de generación de código de enmascaramiento pueden aplicarse ambas etapas o únicamente una.
(A) Etapa de enmascaramiento de la reflexión lumínica
En el caso de que haya fuertes reflexiones de luz debido a la humedad de la nariz o a problemas inesperados de iluminación, el patrón de nariz podría presentar una apariencia dañada en la imagen nasal adquirida. Dichas zonas se marcan como zonas dañadas en el código de enmascaramiento.
Más específicamente, cada valor del código de enmascaramiento se asigna de manera que pueda distinguirse del valor esté dañado o no el valor de transformada de frecuencia correspondiente debido a las reflexiones de la luz. Por ejemplo, en el caso de que la zona de integración real R(ao, bo, a, p) incluya zonas dañadas debido a reflexiones de la luz tal como en la figura 5o, se asigna el valor de o al valor de bit de enmascaramiento correspondiente para marcar el valor de transformada de frecuencia como dañado. En caso contrario, se asigna el valor de 1 al valor de bit de enmascaramiento correspondiente.
(b) Etapa de enmascaramiento adicional
La zona que contiene patrones de nariz en las imágenes nasales de los sujetos animales puede estar dañada debido a pelos nasales o faciales, bigotes largos o sustancias extrañas adheridas a una nariz húmeda. En el caso de que la zona R(ao, bo, a, p) esté dañada debido a dichos motivos, se asigna el valor de o al valor de bit de enmascaramiento correspondiente para marcar el valor de la transformada de frecuencia como dañado. En caso contrario, se asigna el valor de 1 al valor de bit de enmascaramiento correspondiente.
Una vez se ha generado el código de patrón de nariz que consiste en el código de transformada de frecuencia y el código de enmascaramiento anteriormente mencionados, se almacena en la DB de códigos de patrón de nariz en la unidad de reconocimiento de imágenes.
Se proporciona posteriormente una explicación detallada de la unidad de emparejamiento con códigos de patrón de nariz.
La figura 52 es un diagrama de bloques simplificado que describe la unidad de emparejamiento con códigos de patrón de nariz. Tal como se muestra en la figura 52, la unidad de emparejamiento de códigos de patrón de nariz puede incluir la unidad de verificación de códigos de patrón de nariz 5201 y la unidad de identificación de códigos de patrón de nariz 5202.
La unidad de verificación de códigos de patrón de nariz realiza la verificación (emparejamiento uno a uno) mediante la comparación del código de patrón de nariz generada para la verificación y el código de patrón de nariz almacenado en la DB de códigos de patrón de nariz en la unidad de reconocimiento de imágenes. La verificación del código de patrón de nariz generado se lleva a cabo mediante cálculo de la disimilitud (la distancia) entre dos códigos de patrón de nariz mediante la utilización de uno de los métodos de emparejamiento siguientes: a) simple emparejamiento, b) emparejamiento por desplazamiento y c) emparejamiento por desplazamiento de bloques.
(A) Emparejamiento simple
La figura 53 es un diagrama que ilustra el método de verificación de códigos de patrón de nariz mediante emparejamiento simple. Tal como se muestra en la figura 53, la ROI A completa se compara con la ROI B completa en el emparejamiento simple. En el caso de que la distancia entre los dos códigos de patrón de nariz correspondientes a los grupos de celdas entre A1 y An de la ROI A y los grupos de celdas entre B1 y Bn de la ROI B sea inferior al umbral dado, se concluye que las dos imágenes de patrón de nariz han sido obtenidas del mismo sujeto. En caso contrario, se concluye que las dos imágenes han sido obtenidas de diferentes sujetos animales.
La figura 54 es un diagrama que ilustra una situación en la que se han seleccionado diferentes ROI de la misma imagen de patrón de nariz de un individuo para el emparejamiento. Tal como se muestra en la figura 54, la selección de la misma ROI es un elemento crucial para incrementar la tasa de precisión del reconocimiento, ya que diferentes ROI del mismo sujeto animal resultan en una distancia elevada y, de esta manera, en un falso no emparejamiento en el emparejamiento simple. Existe una elevada probabilidad de error en el emparejamiento simple si resulta difícil localizar la misma ROI a partir de las imágenes de patrón de nariz.
(B) Emparejamiento por desplazamiento
Tal como se muestra en la figura 54, la probabilidad de obtener un falso no emparejamiento es elevada si la ROI A y la ROI B se comparan mediante emparejamiento simple, aunque procedan del mismo sujeto animal. Más específicamente, al comparar el grupo de celdas A1 de la ROI A con el grupo de celdas B1 de la ROI B en un emparejamiento simple, se concluye que han sido obtenidos de individuos diferentes.
Sin embargo, si se compara el grupo de celdas A1 de la ROIA con el grupo de celdas B2 de la ROI B, la distancia entre los dos grupos de celdas será muy pequeña, ya que contienen el mismo patrón de nariz y, de esta manera, los mismos códigos de transformada de frecuencia. Por lo tanto, existe una probabilidad de error baja en el emparejamiento si se comparan las zonas parciales (zonas locales) de las dos ROI y no las zonas enteras.
La figura 55 es un diagrama que ilustra el método de identificación de códigos de patrón de nariz mediante emparejamiento por desplazamiento, a modo de una forma de realización de la presente invención. Tal como se muestra en la figura 55, la zona local a en la ROI A se compara con la zona local b en la ROI B. El código de patrón de nariz generado a partir de los grupos de celdas en la zona local "a" se comparan con el código de patrón de nariz generado a partir de los grupos de celdas en la zona local "b".
En el emparejamiento por desplazamiento, la distancia entre los dos códigos de patrón de nariz se calcula para cada pareja de "a" de zona local en la ROI A y "b" de zona local en la ROI B. Mediante traducción de las zonas locales a y b en cada ROI, se calculan múltiples valores de distancia. En el caso de que el mínimo de los múltiples valores de distancia sea inferior al umbral dado, se concluye que las dos imágenes de patrón de nariz han sido obtenidas del mismo individuo. En caso contrario, se concluye que las dos imágenes de patrón de nariz han sido obtenidas de diferentes sujetos animales.
Para el emparejamiento por desplazamiento, deben generarse códigos de patrón de nariz para todas las posibles zonas locales en la ROI. Es decir, debe calcularse el valor de la transformada de frecuencia para cada grupo de celdas en todas las posibles zonas locales. De esta manera, se requiere calcular todos los valores de la transformada de frecuencia para todos los grupos de celdas en todas las posibles zonas locales. Para una mayor eficiencia, pueden utilizarse los valores precalculados de la transformada de frecuencia de los grupos de celdas en lugar de calcular cada posible valor de la transformada de frecuencia para todos los grupos de celdas. En el
caso de que un grupo de celdas se encuentre en una zona local diferente, el valor precalculado de una zona local se utiliza para la otra zona local en lugar de recalcular el valor de la transformada de frecuencia para el grupo de celdas. Por este motivo, pueden construirse zonas y grupos de celdas locales con la eficiencia de computación en mente. En el caso de que se aproveche este tipo de eficiencia computacional, en primer lugar se calculan todos los valores de la transformada de frecuencia de todos los posibles grupos de celdas y se construye el código de patrón de nariz de cada zona local mediante la utilización de los valores precalculados de la transformada de frecuencia.
La figura 56 es un diagrama que ilustra una situación de emparejamiento en la que las ROI del código de patrón de nariz seleccionadas del mismo individuo presentan proporciones verticales y horizontales no iguales. Tal como se muestra en la figura 56, es crucial para incrementar la tasa de precisión del reconocimiento que se incorpore la transformación de una ROI cuadrangular a una ROI rectangular estándar en el emparejamiento por desplazamiento, ya que diferentes formas de RDI del mismo sujeto animal resultan en diferentes transformaciones y en un no emparejamiento aunque se comparen todas las zonas locales traducidas. Por lo tanto, la probabilidad de error es elevada en el emparejamiento por desplazamiento si cualquiera de las zonas locales traducidas es una ROI que no se corresponde con ninguna zona local de la otra ROI o si se aplican transformaciones diferentes para generar una ROI rectangular estándar.
(C) Emparejamiento por desplazamiento de bloques
Tal como se muestra en la figura 56, si la zona local a en la ROI A se compara con la zona local traducida de b en la ROI B, la probabilidad de reconocer el mismo animal de origen es baja. Sin embargo, existe una probabilidad de error baja en la identificación si se selecciona una zona parcial (denominada "zona de corte") de una zona local si se selecciona y se compara mediante traducción de la zona de corte en una zona local. Por ejemplo, tal como en la figura 56, si las zonas de corte A3, A5 y A7 en la zona local "a" presentan el mismo patrón de nariz que las zonas de corte B2, B5 y B8 en la zona local "b", respectivamente, los valores correspondientes de la transformada de frecuencia de dichas zonas de corte son iguales. De esta manera, mediante la traducción de una zona de corte, es probable que se realice un emparejamiento entre la ROI A y la ROI B.
La figura 57 es un diagrama que ilustra el método de identificación de códigos de patrón de nariz mediante emparejamiento por desplazamiento de bloques, a modo de una forma de realización de la presente invención. Tal como se muestra en la figura 57, la región corte a de la zona local "a" en la ROI A se compara con la zona de corte p de la zona local "b" en la ROI B. La zona local "a" en la ROI A y la zona local "b" en la ROI B se subdividen en n*m fragmentos de igual tamaño, es decir n fragmentos horizontales y m fragmentos verticales. A continuación, se calcula la distancia entre el código de patrón de nariz correspondiente a cada fragmento de la zona local "a" y la zona local "b".
En el emparejamiento por desplazamiento de bloques, se traducen las zonas de corte a y p en un rango dado de manera que se calculan múltiples valores de distancia. De esta manera, aunque únicamente se calcula una distancia para cada par de zonas locales en el emparejamiento por desplazamiento, en el emparejamiento por desplazamiento de bloques, la distancia se calcula para cada par de zonas de corte y, de esta manera, existen múltiples valores de distancia para cada par de zonas locales. Por lo tanto, resulta necesario calcular un valor representativo de la distancia (denominado "distancia final") a partir de múltiples valores de distancia para la comparación con el umbral dado.
Con el fin de calcular la distancia final para cada par de zonas locales en el emparejamiento por desplazamiento de bloques, debe calcularse la distancia para cada par de zonas de corte. La distancia (denominada distancia de bloques) entre un par de zonas de corte es el valor mínimo de todas las posibles distancias calculadas a partir de todas las posibles traducciones de zonas de corte. De esta manera, la distancia final puede definirse como una de entre la distancia mínima, la media geométrica y la media aritmética de todas las distancias en el bloque. En el caso de que dicha distancia final sea inferior al umbral dado, se considera que los dos sujetos animales son el mismo individuo. En caso contrario, los dos sujetos animales se consideran individuos diferentes.
En dichos métodos de verificación (emparejamiento simple, emparejamiento por desplazamiento y emparejamiento por desplazamiento de bloques), la r O i A anteriormente indicada puede ser la ROI a partir de la que se genera un código de patrón de nariz almacenado, y la ROI B puede ser una zona a partir de la que se genera el código de patrón de nariz para la verificación, y viceversa.
Posteriormente se proporciona una explicación detallada de los métodos de búsqueda de correspondiente para la transformada seno de Gabor.
[Ejemplo] Transformada seno de Gabor
(A) Emparejamiento simple
Para una ROI, sea C un código de transformada de frecuencia de la ROI y M un código de enmascaramiento de
la ROI generada mediante transformada seno de Gabor. Entonces el código de patrón de nariz para la ROI A consiste en N bits de código C1 de transformada de frecuencia y N bits de código de enmascaramiento M1, y el código de patrón de nariz para la ROI B consiste en N bits de código C2 de transformada de frecuencia y N bits de código de enmascaramiento M2.
La distancia (D) entre dos códigos de patrón de nariz puede calcularse mediante la ecuación (7).
—..........— ............. -........ (Ecuación 7)
En la ecuación (7), XOR indica el operador OR de disyunción exclusiva por bits; AND es el operador de AND por bits. El número de bits cuyo valor es 1 en la matriz de bits A se indica mediante |A|.
En el caso de que la distancia calculada anteriormente indicada sea inferior al umbral dado, se concluye que los dos sujetos animales representados por dichos dos códigos de patrón de nariz son idénticos, y en caso contrario, que son individuos diferentes.
(B) Emparejamiento por desplazamiento
Para una zona local en una ROI, sea C un código de transformada de frecuencia de la zona local y sea M un código de enmascaramiento de la zona local generada mediante transformada seno de Gabor. Entonces el código de patrón de nariz para la zona local "a" en la ROI A consiste en N bits de código C1 de transformada de frecuencia y N bits de código de enmascaramiento M1, y el código de patrón de nariz para la zona local "b" en la ROI B consiste en N bits de código C2 de transformada de frecuencia y N bits de código de enmascaramiento M2.
La figura 58 es un diagrama que ilustra el procedimiento de identificación de códigos de patrón de nariz mediante emparejamiento por desplazamiento que utiliza una transformada seno de Gabor. Sea R1 el conjunto de todos los puntos (5x , 5y) de los vértices izquierdos inferiores de todas las posibles zonas locales traducidas en la ROI A y sea R2 el conjunto de todos los puntos (Ax , Ay ) de los vértices izquierdos inferiores de todas las posibles zonas locales traducidas en la ROI B. La figura 58 es un diagrama que ilustra el caso en que R1={(1,1)}, R2={(0,0),(1,0),(2,0),(0,1),(1,1),(2,1),(0,2),(1,2),(2,2)}.
Entonces, se generan un código de patrón de nariz (a(1,1)) de la ROI A, y nueve códigos de patrón de nariz (b(0,0), b(1,0), b(2,0), b(0,1), b(1,1), b(2,1),b(0,2), b(1,2), b(2,2)) de la ROI B y estos códigos proporcionan un total de nueve valores de distancia mediante la comparación uno a uno. De esta manera, en este caso solo resulta necesario comprobar si el mínimo de los nueve valores de distancia es inferior al umbral dado.
De esta manera, en el caso de que el código de patrón de nariz para una zona local "a" en la ROI A se indique como C1(5x , 5y), M1(5x , 5y ) y que, para una zona local "b" en la ROI B indicada como C2(Ax , Ay), M2(Ax , Ay), la distancia entre las dos ROI puede calcularse mediante la ecuación (8).
........................... (Ecuación 8)
En la ecuación (8), XOR indica el operador OR de disyunción exclusiva por bits; AND es el operador de AND por bits. El número de bits cuyo valor es 1 en la matriz de bits A se indica mediante |A|.
(C) Emparejamiento por desplazamiento de bloques
Para una zona de corte de una zona local en una ROI, sea C un código de transformada de frecuencia de la zona de corte y sea M un código de enmascaramiento de la zona de corte generada mediante transformada seno de Gabor. Entonces el código de patrón de nariz para la zona de corte a de la zona local "a" en la ROI A consiste en N bits de código C1 de transformada de frecuencia y N bits de código de enmascaramiento M1, y el código de patrón de nariz para la zona de corte p de la zona local "b" en la ROI B consiste en N bits de código C2 de transformada de frecuencia y N bits de código de enmascaramiento M2.
La figura 59 es un diagrama que ilustra el procedimiento de identificación de códigos de patrón de nariz mediante emparejamiento por desplazamiento de bloques que utiliza una transformada seno de Gabor.
Sea R1 el conjunto de todos los puntos (óx , 5y ) de los vértices izquierdos inferiores de todas las posibles zonas traducidas a partir de la zona de corte a en la ROI A y R2, el conjunto de todos los puntos (Ax , Ay ) de los vértices
izquierdos inferiores de todas las posibles zonas traducidas a partir de la zona de corte p en la ROI B. La figura 58 es un diagrama que ilustra el caso en que R1={(1,1)}, R2={(0,0),(1,0),(2,0),(0,1),(1,1),(2,1),(0,2),(1,2),(2,2)}.
Entonces, se generan un código de patrón de nariz (a(1,1)) de la zona de corte a en la ROI A, y nueve códigos de patrón de nariz (P(0,0), p(1,0), p(2,0), p(0,1), p(1,1), p(2,1), p(0,2), p(1,2), p(2,2)) de la zona de corte p en ROI B, y estos códigos proporcionan un total de nueve valores de distancia mediante la comparación uno a uno. El mínimo de la totalidad de dichos valores de distancia se denomina distancia entre zonas de corte y la distancia final entre dos ROI puede definirse como una de entre la media aritmética, la media geométrica y el mínimo de todas las posibles distancias entre dos zonas de corte correspondientes.
De esta manera, en el caso de que el código de patrón de nariz para una zona traducida de la zona de corte késima a en la ROI A se indique como C1(k, Sx , Sy), M1(k, Sx , Sy) y la de la zona traducida de la zona de corte késima p en la ROI B se indique como C2(k, Ax , Ay ), M2(k, Ax , Ay ), la distancia entre las dos zonas de corte k-ésimas correspondientes puede calcularse mediante la ecuación (9).
En la ecuación (9), XOR indica el operador OR de disyunción exclusiva por bits; AND es el operador de AND por bits. El número de bits cuyo valor es 1 en la matriz de bits A se indica mediante |A|.
La distancia final entre dos ROI puede definirse como una de entre la media geométrica, la media aritmética y el mínimo de todos los valores de distancia entre dos zonas de corte correspondientes para todos los pares de zonas de corte. En el caso de que la distancia calculada anteriormente indicada sea inferior al umbral dado, se concluye que los dos sujetos animales representados por dichos dos códigos de patrón de nariz son idénticos, y en caso contrario, que son individuos diferentes.
En dichos métodos de verificación (emparejamiento simple, emparejamiento por desplazamiento y emparejamiento por desplazamiento de bloques), la ROI A anteriormente indicada puede ser la ROI a partir de la que se genera un código de patrón de nariz almacenado, y la ROI B puede ser una zona a partir de la que se genera el código de patrón de nariz para la verificación, y viceversa.
Se proporciona posteriormente una explicación detallada de la unidad de identificación de código de patrón de nariz anteriormente indicado.
La unidad de identificación de códigos de patrón de nariz realiza la identificación (emparejamiento uno a varios) mediante la comparación del código de patrón de nariz generado para la identificación con múltiples códigos de patrón de nariz almacenados en la DB de códigos de patrón de nariz en la unidad de reconocimiento de imágenes.
Aunque la verificación (emparejamiento uno a uno) requiere el cálculo de la distancia entre un único código de patrón de nariz y un único código de patrón de nariz almacenado mediante emparejamiento simple, emparejamiento por desplazamiento o emparejamiento por desplazamiento de bloques, la identificación (emparejamiento uno a varios) requiere el cálculo de las distancias entre el código de patrón de nariz único y cada uno de los múltiples códigos de patrón de nariz almacenados en la DB.
La figura 60 es un diagrama que ilustra el método de identificación de códigos de patrón de nariz (emparejamiento uno a varios), a modo de una forma de realización de la presente invención. Tal como se muestra en la figura 60, la identificación se lleva a cabo mediante el cálculo de las distancias entre un único código de patrón de nariz para la identificación y cada uno de los k códigos de patrón de nariz (código de patrón de nariz 1... , código de patrón de nariz k) almacenados en la DB. Tal como se ha indicado anteriormente, cada código de patrón de nariz almacenado en la DB consiste en el código C de transformada de frecuencia y el código M de enmascaramiento y la DB de códigos prerregistrados de patrón de nariz puede construirse como parte de la unidad de reconocimiento de imágenes.
A partir de los k códigos de patrón de nariz en la DB y un único código de patrón de nariz para la identificación, se calcula un total de k distancias, y estas k distancias pueden indicarse como D1, ..., Dk. Los valores de D1, ..., Dk pueden clasificarse en orden descendente o ascendente. Puede seleccionarse uno o más códigos candidatos de patrón de nariz, según una de las tres reglas de selección predefinidas: (a) una regla de selección del código de patrón de nariz que proporciona la distancia mínima entre todas las que proporcionan distancias inferiores al umbral dado, (b) una regla que selecciona todos los códigos de patrón de nariz cuya distancia es inferior al umbral dado, y (c) una regla que selecciona un número predefinido, por ejemplo n, de códigos de patrón de nariz cuya distancia se encuentra entre las n distancias más pequeñas.
Por ejemplo, tal como se muestra en la figura 60, en el caso de que las distancias D1, D2, ..., Dk se ordenen de manera que D3 < D1 < Dk < D2 < ... y los valores de D3, D1, Dk, D2 sean todos valores inferiores al umbral dado, el grupo de códigos de patrón de nariz seleccionados consiste únicamente en un código de patrón de nariz cuya distancia es D3 según la regla (a); la totalidad de D3, D1, Dk, D2 según la regla (b); o D3, D1 y Dk según la regla (c) con n=3.
La unidad de reconocimiento de imágenes según una forma de realización de la presente invención tal como se ha indicado anteriormente puede implementarse como un programa y grabarse en un medio legible por ordenador, que incluye todo tipo de dispositivos de almacenamiento de datos compatibles, tales como ROM, RAM, CD ROM, cintas magnéticas, disquetes y dispositivos de almacenamiento de datos ópticos y ondas portadoras (por ejemplo, transmisión por internet).
El medio de grabación asimismo puede distribuirse por sistemas informáticos conectados a una red de manera que el código legible por ordenador pueda almacenarse y ejecutarse de una manera distribuida. Además, los programas funcionales, códigos y segmentos de código para implementar la presente invención pueden ser fácilmente interpretados por programadores expertos en la materia con respecto a la invención.
A continuación se explica la configuración técnica del método de reconocimiento animal anteriormente mencionado que implica las características del sujeto animal.
El diagrama de flujo en la figura 11 resume el método de reconocimiento animal en la presente invención, partiendo de que S1101 selecciona y S1102 ajusta al animal en la unidad estabilizadora corporal apropiada; S1103 fija la nariz del sujeto en la unidad de adquisición de imágenes y S1104 adquiere la imagen del patrón de nariz; S1105 es la unidad de reconocimiento de imágenes, que genera un código de patrón de nariz utilizando la imagen en bruto o procesada del patrón de nariz, y S1106, que registra e identifica al individuo mediante la utilización del código de patrón de nariz.
Se han omitido datos técnicos adicionales para evitar repeticiones.
La secuencia de operaciones de la unidad estabilizadora corporal tal como se muestra en la figura 21 es la siguiente: S2101 selección de la unidad estabilizadora corporal adecuada para el sujeto animal teniendo en consideración el tamaño total, la longitud de las patas, tamaño de los pies/pezuñas, tamaño de la cabeza y posición relativa de la nariz; S2102 ajuste del sujeto animal en el interior de la unidad estabilizadora de la parte superior del cuerpo; S2103 sujeción de la parte superior del cuerpo mediante la utilización de la subunidad de abrazadera estabilizadora de parte superior del cuerpo y de la subunidad de ajuste de la presión de la abrazadera estabilizadora de parte superior del cuerpo, para ajustarse a la anchura de los hombros; S2104 ajuste del sujeto animal dentro del estabilizador de parte inferior del cuerpo; S2105 fijación de la parte inferior del cuerpo mediante la utilización de la subunidad de abrazadera estabilizadora de parte inferior del cuerpo y de la subunidad ajustadora de presión de la abrazadera estabilizadora de parte inferior del cuerpo para adaptarse a los tobillos o patas; S2106 fijación del ajustador de altura de la postura y asimismo del ajustador de la altura para adaptarse a la altura del sujeto en caso necesario, a fin de conectar las unidades estabilizadoras de parte superior y de parte inferior del cuerpo; S2107 fijación de la cabeza mediante la utilización de la unidad estabilizadora de la cabeza, asegurándose de configurar la unidad ajustadora de la altura a la altura correcta y la unidad ajustadora del equilibrio horizontal para que la nariz se encuentre orientada enfrente de la unidad de adquisición de imágenes.
Se han omitido datos técnicos adicionales para evitar repeticiones.
Se ilustra un ejemplo del procedimiento de adquisición de imágenes en la figura 38; el orden de los sucesos no está necesariamente limitado al siguiente. S3801 el operador selecciona la especie en la unidad de visualización para iniciar el modo automático, o selecciona el modo manual; S3802 en modo automático, una vez se ha realizado la selección de especie, pulsar el botón de captura inicia la adquisición del lote de imágenes de patrón de nariz a n imágenes por segundo, mientras se desplaza el módulo de lentes dentro del rango preasignado de posiciones (valores de ajuste de a y b). En el modo automático, la unidad de captura de imágenes, la unidad de iluminación y la unidad frontal se ajustan automáticamente para adaptarse al sujeto animal basándose en los valores almacenados en la DB de parámetros del FOV, enfoque, luminosidad, etc. Sin embargo, en modo manual, el operador evalúa visualmente las características y variables de las imágenes de patrón de nariz mediante la unidad de visualización y selecciona la mejor imagen. Las imágenes de patrón de nariz adquiridas por el sensor de la unidad de captura de imágenes se almacenan en la memoria intermedia, y entonces la unidad de procesador principal calcula las puntuaciones individuales y realiza las comparaciones con los valores umbral contenidos en la DB de referencias. Una vez se ha seleccionado la mejor imagen que supera todos los umbrales, es almacenada en la memoria intermedia.
Se han omitido datos técnicos adicionales para evitar repeticiones.
La figura 40 ilustra el método mediante el que se analiza una imagen de patrón de nariz animal que será utilizada para la identificación, el orden del cual puede modificarse para adaptarse mejor a los equipos o a las
circunstancias; S4001 adquisición de la imagen de patrón de nariz del sujeto animal mediante la utilización de la unidad estabilizadora corporal y la unidad de adquisición de imágenes; S4003 fijación de la ROI en la imagen de patrón de nariz (procesada); S4005 generación de un código de patrón de nariz de la ROI fijada; S4006 inscripción del código de patrón de nariz generado; S4007 comparación del código de patrón de nariz almacenado del registro con el código de patrón de nariz recién generado en emparejamiento de uno a uno para la verificación, y S4008 ejecución de emparejamientos de uno a varios para la identificación. Las imágenes adquiridas en S4001 que han sido procesadas se denominan imágenes de patrón de nariz procesadas y puede incluirse una etapa adicional S4002 para almacenarlas. Además, asimismo puede ser necesaria la etapa S4004, de generación de una ROI estandarizada a partir de la ROI seleccionada en S4003.
Se han omitido datos técnicos adicionales para evitar repeticiones.
Las etapas siguientes describen el procedimiento de selección de imágenes de patrón de nariz utilizables. La unidad de procesador principal selecciona las imágenes de patrón de nariz que son de calidad suficiente para la utilización en la unidad de reconocimiento de imágenes, de entre todas las imágenes capturadas por la unidad de captura de imágenes. En el caso de que la unidad de captura de imágenes obtenga múltiples imágenes de patrón de nariz, se asigna a cada imagen una puntuación individual de variables específicas y se seleccionan las imágenes que superan el umbral fijado por la unidad de análisis de imágenes. Si ninguna de las imágenes de un lote particular llega al umbral, se descarta todo el grupo y se envía una petición para un nuevo lote a la unidad de captura de imágenes. Durante dicho procedimiento de selección, las imágenes son evaluadas según criterios como la cantidad de luz reflejada, la nitidez, la relación de contraste, la zona de interés (ROI) para la captura, el nivel de ruido, etc., y solo se aceptan aquellas imágenes que superen el umbral para cada variable. En el caso de que más de una imagen de un solo lote supere el umbral, se selecciona la que presenta la puntuación total más alta (suma de las puntuaciones individuales) y este procedimiento puede realizarse simultáneamente a la adquisición de imágenes en la unidad de análisis de imágenes o en la unidad de reconocimiento de imágenes.
Existen dos tipos de variable: aquellas que no están relacionadas con características específicas de especie (A1-A3) y aquellas variables que sí están relacionadas (A4-A12). Entre las primeras se incluyen la nitidez A1, el contraste A2 y el nivel de ruido A3; entre las segundas se incluyen la r O i para la captura A4, la presencia de reflexión lumínica A5, la localización de las fosas A6, la nitidez de la imagen de las fosas A7, el nivel de contraste de la imagen de las fosas A8, el nivel de ruido de la imagen de las fosas A9, la nitidez del límite entre las fosas y la ROI A10, el nivel de contraste en el límite entre las fosas y la ROI A11 y el nivel de ruido en el límite entre las fosas y la ROI A12. Pueden añadirse o eliminarse variables adecuadamente desde la lista anteriormente indicada dependiendo de las características particulares de la especie del sujeto animal.
Al seleccionar imágenes de patrón de nariz, se asignan a cada imagen puntuaciones individuales de variables específicas y se seleccionan las imágenes que superan el umbral fijado por la unidad de análisis de imágenes. En el caso de que más de una imagen de un solo lote supere el umbral, se selecciona la puntuación total más alta (suma de puntuaciones individuales).
Se han omitido datos técnicos adicionales para evitar repeticiones.
A continuación, se proporciona una explicación detallada de los métodos de procesamiento de imágenes de patrón de nariz en bruto en imágenes de patrón de nariz procesadas.
Las imágenes de patrón de nariz recién adquiridas pueden requerir un procesamiento con el fin de incrementar la tasa de identificación. Las imágenes adquiridas en bruto pueden presentar diferentes niveles de ruido y borrosidad, y pueden requerir ajustes de contraste para normalizar la distribución de los valores de los píxeles.
La presente invención utiliza la técnica de ecualización de histograma para normalizar la distribución de valores de píxeles de las imágenes. Con el fin de ajustar la distribución de los valores de los píxeles, se fija una función de distribución y se aplica la ecualización de histograma a cada imagen de patrón de nariz para que presente la misma función de distribución fija.
Además, pueden aplicarse técnicas de filtración de imagen para tratar los problemas de ruido y borrosidad, con filtros gaussianos o de mediana para el ajuste del nivel de ruido y con una variedad de filtros de paso bajo en el dominio de frecuencias. Además, pueden utilizarse técnicas de definición de imagen mediante la utilización de derivadas para acentuar los patrones de nariz grabados, y pueden utilizarse técnicas de desconvolución para restaurar las imágenes dañadas.
A continuación, se proporciona una explicación detallada del método de fijación de la ROI a partir de la imagen de patrón de nariz (procesada).
En la primera etapa, necesita encontrarse el límite de las fosas nasales con el fin de fijar la ROI a partir de la imagen de patrón de nariz.
La figura 42 es un diagrama esquemático que ilustra cómo encontrar los límites de las fosas nasales, a modo de una forma de realización de la presente invención. La figura 42 ilustra el procedimiento de fijación de los límites de las fosas nasales, en el que las fosas nasales aparecen como una sombra debido a la iluminación indirecta. Los límites de dicha sombra son la base para los límites de las fosas nasales, que pueden adoptar la forma de un arco circular o elíptico, etc. Con el fin de extraer los puntos de los límites, partiendo de uno o más puntos dentro de la sombra como el punto o puntos centrales, se localizan los puntos de los límites basándose en los cambios de brillo a lo largo del rayo desde los puntos de centro fijos. Los puntos a lo largo de los rayos que se extienden en diversas direcciones que muestran un cambio acusado de brillo se marcan como puntos candidatos, y los puntos de límite correctos se encuentran entre los puntos candidatos basándose en el análisis estadístico de la forma y localización de la fosa nasal.
Mediante la utilización del análisis estadístico anteriormente indicado, podrían no extraerse todos los puntos de límite de la fosa nasal en diversas direcciones, dando como resultado que únicamente se extraigan partes de los puntos de límite.
En ocasiones, incluso con iluminación indirecta, podrían aparecer determinadas zonas que no son parte de las fosas nasales dentro de una sombra similar y, por lo tanto, resulta útil utilizar múltiples puntos de centro y el análisis estadístico que utiliza la información de forma y localización de las fosas nasales para evitar encontrar puntos de límite incorrectos.
Los límites de las fosas nasales se aproximan mediante ajuste de curvas a los puntos de límite encontrados en la etapa anterior. En dicha aproximación, la curva de aproximación final es la mejor curva que se ajuste a los puntos de límite encontrados mediante diversos análisis de regresión, y generalmente es un arco circular o un arco elíptico.
Aunque los límites de las fosas izquierda y derecha pueden considerarse curvas simétricas vistas desde delante de la nariz; las dos curvas de aproximación pueden ser elipses asimétricas si la imagen de patrón de nariz se capta de lado.
Además, debido a que la unidad de curva de aproximación aproxima por separado los límites de las fosas izquierda y derecha, las dos curvas de aproximación pueden presentar formas diferentes, resultando en que una curva sea un círculo y la otra sea una elipse. Asimismo resulta posible que las dos curvas de aproximación presenten un tamaño diferente, aunque las dos sean círculos o elipses.
Debe definirse una zona cuadrangular de una imagen de patrón de nariz entre las dos curvas de aproximación obtenidas en la etapa anterior. Este procedimiento consta de dos etapas: a) identificación de la zona entre dos curvas de aproximación y b) extracción de una zona cuadrangular contenida en la zona identificada.
(A) La primera etapa en la que se identifica la zona entre dos curvas de aproximación:
La figura 44 es un diagrama esquemático que ilustra cómo identificar la zona entre las dos curvas de aproximación (círculos o elipses), a modo de una forma de realización de la presente invención. Tal como se muestra en la figura 44, se localizan dos puntos que están en las intersecciones entre cada curva de aproximación y el segmento de línea que conecta dos centros de las curvas de aproximación, y se estiman las dos líneas tangentes, tangentes en cada punto localizado respecto a la curva de aproximación (la línea tangente izquierda se indica mediante T_L y la línea tangente derecha, T_R). Dichas líneas tangentes pueden ser perpendiculares al segmento de línea que conecta los dos centros en el caso de que las dos curvas de aproximación sean simétricas, y pueden ser no perpendiculares en el caso de que no sean simétricas.
A continuación, se estiman las dos líneas conectoras: una línea que conecta dos puntos de vértice superior de las curvas de aproximación, y la otra línea, que conecta dos puntos de vértice inferior (la línea superior se indica mediante T_U y la línea inferior se indica mediante T_D). En esta etapa, las dos líneas conectoras son líneas tangentes, tangentes a ambas curvas de aproximación en el caso de que ambas sean círculos y las dos líneas conectan dos puntos de vértice superior o dos puntos de vértice inferior en el caso de que ambas sean elipses.
(B) La segunda etapa en la que se extrae la zona cuadrangular entre dos curvas de aproximación, que será la ROI:
La figura 45 es un diagrama esquemático que ilustra cómo extraer la zona cuadrangular entre las dos curvas de aproximación, a modo de una forma de realización de la presente invención. Tal como se muestra en la figura 45, la ROI es la zona cuadrangular abarcada por las cuatro líneas obtenidas en la etapa A. La forma y el tamaño de la ROI pueden modificarse según la posición relativa de la nariz respecto a la posición de la unidad de adquisición de imágenes durante la captura de la imagen nasal y, de esta manera, puede modificarse incluso la ROI del mismo sujeto animal.
En la unidad de curva de aproximación, pueden obtenerse las dos curvas de aproximación de manera que el segmento de línea que conecta dos puntos de centro de las curvas de aproximación pase por cada uno de los puntos de vértice de las dos curvas de aproximación en el caso de que ambas se aproximen mediante elipses.
Partiendo de la premisa de que las dos curvas de límite de las fosas nasales son simétricas al capturarlas directamente desde delante, el segmento de línea que conecta los dos puntos de centro de las dos curvas de límite elípticas de las fosas debería pasar por el punto de vértice de cada elipse. Aplicando este hecho, pueden aproximarse las curvas límite por elipses, de manera que el segmento de línea que conecta dos puntos de centro de las elipses pase por los puntos de vértice de las mismas.
Se han omitido datos técnicos adicionales para evitar repeticiones.
A continuación se proporciona una explicación detallada de la etapa de generación de la ROI estandarizada a partir de la ROI anteriormente indicada.
La ROI se transforma en la ROI estandarizada en el caso de que resulte necesario normalizar la ROI anteriormente indicada que se ha obtenido en la etapa de fijación de la ROI. La figura 46 es un diagrama que ilustra cómo la ROI de la misma imagen de patrón de nariz puede modificarse dependiendo de las curvas de aproximación de los límites de las fosas nasales. Tal como se muestra en la figura 46, la ROI cuadrangular de incluso la misma imagen de patrón de nariz puede modificarse al utilizar diferentes curvas de aproximación, y la ROI cuadrangular anteriormente indicada de incluso el mismo sujeto animal asimismo puede modificarse según la posición relativa de la nariz respecto a la unidad de adquisición de imágenes durante la captura.
Con el fin de incrementar la tasa de identificación, resulta necesario transformar la ROI dada en la forma estandarizada, que es independiente de la posición relativa de la nariz y de las formas de las curvas de aproximación. La unidad de fijación de ROI estandarizada se ocupa del procedimiento de transformación de la ROI en la forma rectangular estándar basándose en la ecuación (2).
Mediante la transformación anteriormente indicada, pueden transformarse diversas formas de las ROI cuadrangulares en una forma rectangular, que es la ROI estándar y, de esta manera, almacenarse en la memoria o en la DB. Los datos técnicos de la ROI estándar se han omitido para evitar repeticiones.
A continuación se proporciona una explicación detallada del procedimiento de generación de los códigos de patrón de nariz a partir de la ROI anteriormente indicada.
Los códigos de patrón de nariz se generan mediante las etapas de generación de a) el código de transformada de frecuencia y b) el código de enmascaramiento a partir de la ROI.
A continuación se proporciona una explicación detallada del procedimiento de generación de los códigos de transformada de frecuencia a partir de la ROI anteriormente indicada.
La figura 49 es un diagrama de bloques que ilustra el procedimiento de generación de códigos de patrón de nariz a partir de la ROI. Tal como se muestra en la figura 49, un código de patrón de nariz consiste en el código de transformada de frecuencia y el código de enmascaramiento generado a partir de la ROI completa. El código de patrón de nariz es una matriz de 2 bits y su valor componente se determina mediante métodos de transformada de frecuencia predeterminados y parámetros de las transformadas.
Entre los métodos de transformada de la frecuencia predeterminados pueden incluirse varios métodos de frecuencia, incluyendo la transformada de Gabor, la transformada de Haar, la transformada coseno de Gabor, la transformada seno de Gabor, la transformada seno, la transformada coseno y diversas transformadas "wavelet". En la presente invención, pueden utilizarse diferentes frecuencias para partes reales e imaginarias de la transformada de Gabor. Además, puede utilizarse por sí sola la parte real de la transformada de Gabor (transformada coseno de Gabor) o la parte imaginaria de la transformada de Gabor (transformada seno de Gabor). La elección de métodos de transformada de la frecuencia puede determinarse según el rendimiento y la velocidad de procesamiento de la unidad de reconocimiento de imágenes. Los datos técnicos de la generación de códigos de transformada de frecuencia se han omitido para evitar repeticiones.
A continuación se proporciona una explicación detallada del procedimiento de generación de los códigos de enmascaramiento a partir de la ROI anteriormente indicada.
Cada valor de bit de un código de enmascaramiento corresponde a un valor de bit de un código de transformada de frecuencia. Al generar un código de frecuencia de N bits a partir de N configuraciones de métodos y valores de transformada de frecuencia de ao, bo, a, p, u>x y Wy, asimismo se calcula cada valor de bit de un código de enmascaramiento de cada una de las N configuraciones. De esta manera, la longitud de los códigos de enmascaramiento es igual a la longitud de los códigos de transformada de frecuencia.
El procedimiento de generación de código de enmascaramiento pasa por una etapa de enmascaramiento de la reflexión de la luz y una etapa adicional de enmascaramiento. Dependiendo de los métodos de generación de
código de enmascaramiento pueden aplicarse ambas etapas o únicamente una. Los datos técnicos de la generación de códigos de enmascaramiento se han omitido para evitar repeticiones.
A continuación se proporciona una explicación detallada del procedimiento de verificación (emparejamiento uno a uno), en la que un código de patrón de nariz generado para la verificación se compara con un código de patrón de nariz almacenado en la DB de códigos de patrón de nariz.
La unidad de verificación de códigos de patrón de nariz realiza la verificación (emparejamiento uno a uno) mediante la comparación del código de patrón de nariz generado para la verificación y el código de patrón de nariz almacenado. La verificación del código de patrón de nariz generado se lleva a cabo mediante cálculo de la distancia entre dos códigos de patrón de nariz mediante la utilización de uno de los métodos de emparejamiento siguientes: a) simple emparejamiento, b) emparejamiento por desplazamiento y c) emparejamiento por desplazamiento de bloques. Los datos técnicos relativos a los métodos de emparejamiento se han omitido para evitar repeticiones.
A continuación se proporciona una explicación detallada del procedimiento de identificación (emparejamiento uno a varios), en la que se calcula la distancia entre el código de patrón de nariz generado para la identificación y cada uno de los múltiples códigos de patrón de nariz en la DB de códigos de patrón de nariz.
Aunque la verificación (emparejamiento uno a uno) requiere el cálculo de la distancia entre un único código de patrón de nariz y un único código de patrón de nariz almacenado mediante emparejamiento simple, emparejamiento por desplazamiento o emparejamiento por desplazamiento de bloques, la identificación (emparejamiento uno a varios) requiere el cálculo de las distancias entre el código de patrón de nariz único y cada uno de los múltiples códigos de patrón de nariz almacenados en la DB.
La figura 60 es un diagrama que ilustra el método de identificación de códigos de patrón de nariz (emparejamiento uno a varios), a modo de una forma de realización de la presente invención. Tal como se muestra en la figura 60, la identificación se lleva a cabo mediante el cálculo de las distancias entre un único código de patrón de nariz para la identificación y cada uno de los k códigos de patrón de nariz (código de patrón de nariz 1... , código de patrón de nariz k) almacenados en la DB. Tal como se ha indicado anteriormente, cada código de patrón de nariz almacenado en la DB consiste en el código C de transformada de frecuencia y el código M de enmascaramiento y la DB de códigos prerregistrados de patrón de nariz puede construirse como parte de la unidad de reconocimiento de imágenes.
A partir de los k códigos de patrón de nariz en la DB y un único código de patrón de nariz para la identificación, se calcula un total de k distancias, y estas k distancias pueden indicarse mediante D1, ..., Dk. Los valores de D1, ..., Dk pueden clasificarse en orden descendente o ascendente. Puede seleccionarse uno o más códigos candidatos de patrón de nariz, según una de las tres reglas de selección predefinidas: (a) una regla de selección del código de patrón de nariz que proporciona la distancia mínima entre todas las que proporcionan distancias inferiores al umbral dado, (b) una regla que selecciona todos los códigos de patrón de nariz cuya distancia es inferior al umbral dado, y (c) una regla que selecciona un número predefinido, por ejemplo n, de códigos de patrón de nariz cuya distancia se encuentra entre las n distancias más pequeñas.
Se han omitido datos técnicos adicionales para evitar repeticiones.
Finalmente, debe indicarse que el hecho de que determinados componentes de la presente invención se hayan descrito como operativos en combinación, o combinados en uno solo, no sugiere que la invención se encuentre necesariamente limitada a tales formas de realización. Es decir, dentro del alcance de la presente invención, tal como se definen mediante las reivindicaciones adjuntas, dichos componentes pueden operar mediante unión selectiva a uno o a todos los demás componentes. Además, aunque cada componente puede implementarse como un hardware independiente, una parte o la totalidad de cada componente puede combinarse opcionalmente para realizar una función, o una combinación de algunas funciones, o todas las funciones de...
Además, los programas funcionales, códigos y segmentos de código para implementar la presente invención pueden ser fácilmente interpretados por programadores expertos en la materia pertinente a la invención. Dicho programa informático puede guardarse en un medio legible por ordenador para ser leído y ejecutado por un ordenador, y entre los posibles dispositivos de almacenamiento se incluyen ROM, RAM, CD ROM, cintas magnéticas, disquetes y dispositivos de almacenamiento de datos ópticos, y onda portadora.
Además, expresiones tales como "que incluye", "que comprende" o "que presenta", tal como se han indicado anteriormente, a menos que se indique lo contrario, no deben interpretarse como excluyentes de otros componentes sino, por el contrario, debe interpretarse que asimismo incluyen otros.
Todos los términos, incluyendo los términos técnicos y científicos, a menos que se definen de otro modo, deben interpretarse con el significado según la definición convencional. Otros términos utilizados comúnmente deben entenderse para que correspondan al significado contextual pertinente a la técnica.
Aplicabilidad industrial
La presente invención se refiere al aparato y método de reconocimiento de animales mediante la utilización de patrones de nariz. Específicamente, implica la utilización de una unidad estabilizadora corporal, la unidad de adquisición de imágenes y la unidad de reconocimiento de imágenes para obtener imágenes identificables de patrón de nariz. El método propuesto resulta física y económicamente fácil de implementar y requiere poco conocimiento experto por parte del operador, y de esta manera, presenta un potencial muy alto para la aplicabilidad industrial.
Claims (7)
1. Aparato de reconocimiento de animales que comprende una unidad de captura de imágenes (2801, 2802) configurada para capturar imágenes de patrón de nariz y una unidad de adquisición de imágenes que está configurada para adquirir y almacenar las imágenes de patrón de nariz, en el que la unidad de captura de imágenes comprende una unidad frontal (2404, 2803, 2903, 3003) con una unidad de iluminación fijada (2804) que está configurada para proporcionar una iluminación indirecta para la adquisición de imágenes de patrón de nariz de buena calidad sin reflexiones obstructoras, la unidad de captura comprende un módulo de lente (2401, 2811,2901, 3001) y un sensor de imagen (2402, 2812, 2902, 3002), la unidad de captura comprende además un módulo de ajuste de distancia (2403, 2805) que está configurado para ajustar la distancia entre el módulo de lente (2401, 2811, 2901, 3001) y el sensor de imagen (2402, 2812, 2902, 3002) y la distancia entre las lentes (2813, 2904, 3004) dentro del módulo de lente (2401, 2811,2901, 3001).
2. Aparato de reconocimiento de animales según la reivindicación 1, en el que la unidad de adquisición de imágenes está configurada para analizar y almacenar las imágenes de patrón de nariz capturadas por la unidad de captura de imágenes, y que comprende además una unidad de análisis de imágenes que está configurada para procesar y almacenar determinadas señales e información que surgen a partir del proceso de captura.
3. Aparato de reconocimiento de animales según la reivindicación 1, en el que el módulo de ajuste de distancia es apto para ajustar rápidamente el campo de visión (FOV) y el enfoque para la captura de imágenes de patrón de nariz de buena calidad múltiples.
4. Aparato de reconocimiento de animales según la reivindicación 1, en el que la unidad frontal comprende
una cubierta frontal que rodea y/o entra en contacto con la piel alrededor de la nariz;
una lente de ajuste de FOV; y
un espaciador que está configurado para ajustar la distancia entre la nariz del sujeto y la lente de ajuste de FOV.
5. Aparato de reconocimiento de animales según la reivindicación 4, en el que la cubierta frontal, la lente de ajuste de FOV y el espaciador están adaptados para diferentes especies de sujeto animal y tamaños de nariz, y la unidad frontal presenta unas partes de ensamblaje dimensionadas de manera diferente para alojar diversos tamaños de nariz.
6. Aparato de reconocimiento de animales según la reivindicación 1, en el que la unidad de iluminación comprende una subunidad difusora de luz para producir unas imágenes de buena calidad sin reflexiones obstructoras, y una subunidad de conducción de luz para alojar y facilitar la iluminación difusa.
7. Aparato de reconocimiento de animales según la reivindicación 6, en el que la subunidad difusora de luz comprende una fuente de luz con luminosidad ajustable instalada en el interior de la subunidad de conducción de luz, y una membrana difusora que está configurada para absorber, reflejar y transmitir parcialmente la luz desde la fuente de luz.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130057667A KR101527801B1 (ko) | 2013-05-22 | 2013-05-22 | 동물들의 코무늬를 이용한 동물 개체 인식 장치 및 방법 |
PCT/KR2014/004487 WO2014189250A2 (ko) | 2013-05-22 | 2014-05-20 | 동물들의 코무늬를 이용한 동물 개체 인식 장치 및 방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2936063T3 true ES2936063T3 (es) | 2023-03-14 |
Family
ID=51934284
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES14801824T Active ES2936063T3 (es) | 2013-05-22 | 2014-05-20 | Dispositivo para reconocer la identidad de un animal utilizando huellas nasales de animal |
Country Status (7)
Country | Link |
---|---|
US (3) | US10268880B2 (es) |
EP (2) | EP3029603B1 (es) |
JP (3) | JP6466920B2 (es) |
KR (1) | KR101527801B1 (es) |
CA (1) | CA2925275C (es) |
ES (1) | ES2936063T3 (es) |
WO (1) | WO2014189250A2 (es) |
Families Citing this family (48)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3002744B1 (en) * | 2013-03-12 | 2018-10-24 | Arizona Board of Regents, a Body Corporate of the State of Arizona acting for and on behalf of Arizona State University | Image processing of dendritic structures used in tags as physical unclonable function for anti-counterfeiting |
US10810731B2 (en) | 2014-11-07 | 2020-10-20 | Arizona Board Of Regents On Behalf Of Arizona State University | Information coding in dendritic structures and tags |
KR102375864B1 (ko) * | 2015-02-10 | 2022-03-18 | 한화테크윈 주식회사 | 요약 영상 브라우징 시스템 및 방법 |
FI3316680T4 (fi) | 2015-07-01 | 2023-11-02 | Viking Genetics Fmba | Järjestelmä ja menetelmä yksittäisten eläinten tunnistamiseksi selästä otettujen kuvien perusteella |
US10621445B2 (en) * | 2016-06-29 | 2020-04-14 | Toyota Motor Engineering & Manufacturing North America, Inc. | Vehicle video systems including rear mounted video cameras |
CN109496123B (zh) * | 2016-07-20 | 2022-02-08 | 农场机器人和自动化有限公司 | 家畜的机器人协助监视 |
US11430233B2 (en) | 2017-06-16 | 2022-08-30 | Arizona Board Of Regents On Behalf Of Arizona State University | Polarized scanning of dendritic identifiers |
KR102083509B1 (ko) * | 2017-07-04 | 2020-03-04 | 심동희 | 동물병원 경영 클라우드 플랫폼의 운영 장치 및 그 기반으로 구축한 비문 기반 동물 개체 인식 방법 |
US11025803B2 (en) * | 2017-10-11 | 2021-06-01 | Iscilab Corporation | Apparatus for capturing animal nose pattern images on mobile devices |
KR102168508B1 (ko) * | 2017-12-05 | 2020-10-21 | (주)링크옵틱스 | 비문촬영시스템 |
US10755404B2 (en) * | 2017-12-07 | 2020-08-25 | International Business Machines Corporation | Integrated circuit defect detection using pattern images |
EP3494780A1 (de) * | 2017-12-07 | 2019-06-12 | Siemens Aktiengesellschaft | Verfahren und anordnung zur tieridentifikation |
JP7362234B2 (ja) * | 2017-12-22 | 2023-10-17 | 東芝ライテック株式会社 | 支援システム |
EP3732662B1 (en) * | 2017-12-29 | 2023-10-11 | InterDigital VC Holdings, Inc. | Method and system for maintaining color calibration using common objects |
US10535006B2 (en) | 2018-01-23 | 2020-01-14 | Here Global B.V. | Method, apparatus, and system for providing a redundant feature detection engine |
CN108830138B (zh) * | 2018-04-26 | 2021-05-07 | 平安科技(深圳)有限公司 | 牲畜识别方法、装置及存储介质 |
WO2019210129A1 (en) | 2018-04-26 | 2019-10-31 | Kozicki Michael N | Fabrication of dendritic structures and tags |
CN110826371A (zh) * | 2018-08-10 | 2020-02-21 | 京东数字科技控股有限公司 | 一种动物识别方法、装置、介质及电子设备 |
KR20200019302A (ko) * | 2018-08-13 | 2020-02-24 | 주식회사 아이싸이랩 | 동물의 비문 이미지 획득 방법 |
KR102170931B1 (ko) | 2018-08-29 | 2020-10-29 | 주식회사 아이싸이랩 | 비문 획득을 위한 조명 장치 |
KR102131007B1 (ko) * | 2018-09-11 | 2020-07-09 | 주식회사 아이싸이랩 | 동물 등록 및 인증 중 적어도 하나의 서비스 제공 방법 |
KR102117860B1 (ko) * | 2018-10-11 | 2020-06-02 | 주식회사 핏펫 | 동물의 안면 및 비문 이미지에 기초하여 동물의 개체 정보를 제공하는 컴퓨터 프로그램 및 단말기 |
KR102228725B1 (ko) * | 2018-10-17 | 2021-03-17 | 여태환 | 동물의 생체인식 식별을 위한 방법 및 장치 |
CN109858363B (zh) * | 2018-12-28 | 2020-07-17 | 北京旷视科技有限公司 | 一种狗鼻纹特征点的检测方法、装置、系统及存储介质 |
JP7377876B2 (ja) * | 2019-02-01 | 2023-11-10 | ソシエテ・デ・プロデュイ・ネスレ・エス・アー | ペットフードを推奨する装置及び方法 |
CN109948458A (zh) * | 2019-02-25 | 2019-06-28 | 广东智媒云图科技股份有限公司 | 基于鼻纹的宠物身份识别方法、装置、设备及存储介质 |
CN110532854B (zh) * | 2019-07-11 | 2021-11-26 | 中国农业大学 | 一种生猪爬跨行为检测方法及系统 |
US20210049355A1 (en) * | 2019-08-16 | 2021-02-18 | Stephanie Sujin CHOI | Method for clustering and identifying animals based on the shapes, relative positions and other features of body parts |
US11051493B2 (en) * | 2019-09-09 | 2021-07-06 | Council Of Agriculture | Method and system for distinguishing identities based on nose prints of animals |
US11450130B2 (en) | 2019-09-25 | 2022-09-20 | Pal Universe, Inc. | Animal identification based on unique nose patterns |
CN110762031B (zh) * | 2019-10-23 | 2020-08-14 | 台州辉腾泵业有限公司 | 基于数据定量控制的水泵驱动装置 |
CN110929650B (zh) * | 2019-11-25 | 2022-04-12 | 蚂蚁胜信(上海)信息技术有限公司 | 豢养物身份识别方法、装置、计算设备、可读存储介质 |
KR102251434B1 (ko) * | 2019-12-24 | 2021-05-12 | 이주철 | 애완동물 식별과 생애주기 관리 인프라시스템 및 활용방법 |
KR102215133B1 (ko) * | 2019-12-24 | 2021-02-10 | 이주철 | 반려동물의 비문 촬영 장치 |
KR102318500B1 (ko) | 2020-02-28 | 2021-10-29 | 주식회사 아이싸이랩 | 카메라가 내장된 단말기를 이용한 동물 코무늬 이미지의 등록, 인증 및 조회 서비스 방법 |
US20210315186A1 (en) * | 2020-04-14 | 2021-10-14 | The United States Of America, As Represented By Secretary Of Agriculture | Intelligent dual sensory species-specific recognition trigger system |
WO2021230680A1 (en) * | 2020-05-13 | 2021-11-18 | Pireco Co,. Ltd. | Method and device for detecting object in image |
CN111831843A (zh) * | 2020-06-11 | 2020-10-27 | 广东工业大学 | 一种基于区块链的动物身份管理方法和系统 |
KR102176934B1 (ko) * | 2020-09-24 | 2020-11-10 | 주식회사 디랩스 | 안면인식을 이용한 반려동물 종합 관리 서비스 제공 시스템 |
EP4229546A4 (en) | 2020-10-14 | 2024-04-10 | One Cup Productions Ltd. | ANIMAL VISUAL IDENTIFICATION, TRACKING, SURVEILLANCE AND EVALUATION SYSTEMS AND ASSOCIATED METHODS |
KR20220087310A (ko) | 2020-12-17 | 2022-06-24 | 대한민국(농촌진흥청장) | 영상 기반 반려견 개체 식별 방법 및 장치 |
KR102303862B1 (ko) * | 2020-12-28 | 2021-09-17 | 한국축산데이터 주식회사 농업회사법인 | 인공지능 기반 온라인 가축 경매 장치 및 방법 |
USD977509S1 (en) * | 2021-03-11 | 2023-02-07 | Mars, Incorporated | Display screen or portion thereof with a graphical user interface |
USD977521S1 (en) * | 2021-03-11 | 2023-02-07 | Mars, Incorporated | Display screen or portion thereof with a graphical user interface |
KR102325259B1 (ko) * | 2021-05-11 | 2021-11-11 | (주) 아지랑랑이랑 | 반려동물 생애 관리 시스템 및 그 방법 |
WO2023095174A1 (en) * | 2021-11-28 | 2023-06-01 | Adis Technologies Pvt. Ltd. | A process for identification of a snouted animal |
JP7464305B2 (ja) * | 2021-11-29 | 2024-04-09 | まちなかMeセンター株式会社 | 動物のバイタルサイン管理システム、及び、これを備えた動物のバイタルサイン管理方法 |
CN115797226B (zh) * | 2023-01-09 | 2023-04-25 | 腾讯科技(深圳)有限公司 | 图像降噪方法、装置、计算机设备和存储介质 |
Family Cites Families (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3250252A (en) * | 1964-05-28 | 1966-05-10 | Leopold Seymour | Veterinary animal restraining apparatus |
US4286547A (en) * | 1980-01-28 | 1981-09-01 | Nuwbauer Robert E | Animal restraint unit |
US4693212A (en) * | 1986-02-03 | 1987-09-15 | Black Kenneth R | Animal restraint apparatus and method |
US5799617A (en) * | 1995-09-27 | 1998-09-01 | Rena Pimpl | Animal head support device and method of use |
JP3563184B2 (ja) * | 1995-11-22 | 2004-09-08 | 畜産用電子技術研究組合 | 家畜の鼻紋採取装置 |
JPH09265523A (ja) * | 1996-03-28 | 1997-10-07 | Fujitsu Denso Ltd | 鼻紋採取装置及び鼻紋採取処理方法 |
US5690365A (en) | 1996-06-03 | 1997-11-25 | Fascenelli, Jr.; Frederick W. | Pet identification tags |
JPH1145330A (ja) * | 1997-07-29 | 1999-02-16 | Fujitsu Denso Ltd | 鼻紋採取装置 |
US6003473A (en) | 1998-02-12 | 1999-12-21 | Printz; Robert L. | Pet identification and retrieval device |
JP2001148957A (ja) | 1999-11-25 | 2001-06-05 | Nec Yonezawa Ltd | 鼻紋認証装置による家畜管理システム |
JP2001161199A (ja) * | 1999-12-03 | 2001-06-19 | Surge Miyawaki Co Ltd | 動物の映像管理方法および映像記録方法 |
US6538243B1 (en) * | 2000-01-04 | 2003-03-25 | Hewlett-Packard Company | Contact image sensor with light guide having least reflectivity near a light source |
US20020116390A1 (en) * | 2000-12-22 | 2002-08-22 | Meadows Louis B. | Pet identification system and method |
KR100414606B1 (ko) | 2001-02-13 | 2004-01-07 | 박현종 | 네트워크 기반의 개의 비문 정보를 이용한 신원확인 시스템 |
USD458421S1 (en) | 2001-08-23 | 2002-06-04 | Dennis Jay Wasserman | Pet identification tag |
US6568354B1 (en) | 2002-02-05 | 2003-05-27 | Dennis J. Wasserman | Pet identification tag with electronic display |
JP4190209B2 (ja) | 2002-05-23 | 2008-12-03 | サージミヤワキ株式会社 | 鼻紋の照合方法 |
KR100485922B1 (ko) | 2002-07-15 | 2005-04-29 | 김윤옥 | 소 개체관리 휴대형 정보 단말기 및 비문인식방법 |
KR100479937B1 (ko) | 2002-07-15 | 2005-03-30 | 김윤옥 | 인터넷 망과 cdma 네트워크 망을 통한 소 개체 관리방법 |
USD494326S1 (en) | 2002-12-23 | 2004-08-10 | Angela Rae Long | Personalized animal/pet identification tag |
USD491323S1 (en) | 2003-04-14 | 2004-06-08 | Amy Wilcox | Pet identification collar |
KR200337597Y1 (ko) * | 2003-10-20 | 2004-01-03 | 김주경 | 동물의 유동을 방지하는 유동방지기구 |
JP2007512830A (ja) * | 2003-12-03 | 2007-05-24 | サン−ヒー パク | ペット用美容、医療及び浴槽システム |
US7230539B2 (en) | 2004-10-26 | 2007-06-12 | Klein Elliot S | Pet identification tag with internal cavity for transponder capsule |
JP4080476B2 (ja) * | 2004-10-29 | 2008-04-23 | 岩則 中田 | 犬保持装置 |
JP2007135501A (ja) * | 2005-11-21 | 2007-06-07 | Atom System:Kk | 鼻特徴情報生成装置及び鼻特徴情報生成プログラム |
WO2007077694A1 (ja) * | 2005-12-28 | 2007-07-12 | Atomsystem Co., Ltd. | 鼻紋情報生成装置及び鼻紋情報照合装置及び鼻紋情報生成プログラム及び鼻紋情報生成方法 |
US20080298642A1 (en) * | 2006-11-03 | 2008-12-04 | Snowflake Technologies Corporation | Method and apparatus for extraction and matching of biometric detail |
JP4665997B2 (ja) * | 2008-05-12 | 2011-04-06 | 日本電気株式会社 | 生体パターン撮像装置、生体パターン撮像方法、生体パターン撮像プログラム |
US20110006172A1 (en) * | 2009-07-09 | 2011-01-13 | Sargent Timothy J | Animal Head Positioning Device |
JP5437016B2 (ja) * | 2009-10-22 | 2014-03-12 | 株式会社ロゼフテクノロジー | 画像処理用照明装置 |
JP5590412B2 (ja) * | 2011-02-15 | 2014-09-17 | 株式会社デンソー | 投光システム及び顔撮影システム |
US9323783B1 (en) * | 2011-07-11 | 2016-04-26 | Snoutscan Llc | System and method for animal identification |
WO2015041833A1 (en) * | 2013-09-17 | 2015-03-26 | William Brian Kinard | Animal/pet identification system and method based on biometrics |
US9826713B2 (en) * | 2015-09-28 | 2017-11-28 | Hadi Hosseini | Animal muzzle pattern scanning device |
-
2013
- 2013-05-22 KR KR1020130057667A patent/KR101527801B1/ko active IP Right Grant
-
2014
- 2014-05-20 EP EP14801824.5A patent/EP3029603B1/en active Active
- 2014-05-20 EP EP22202289.9A patent/EP4140294A1/en active Pending
- 2014-05-20 JP JP2016515261A patent/JP6466920B2/ja active Active
- 2014-05-20 WO PCT/KR2014/004487 patent/WO2014189250A2/ko active Application Filing
- 2014-05-20 ES ES14801824T patent/ES2936063T3/es active Active
- 2014-05-20 US US14/893,043 patent/US10268880B2/en active Active
- 2014-05-20 CA CA2925275A patent/CA2925275C/en active Active
-
2018
- 2018-08-07 JP JP2018148391A patent/JP6840703B2/ja active Active
- 2018-08-07 JP JP2018148390A patent/JP2019003669A/ja active Pending
- 2018-11-09 US US16/185,354 patent/US10552673B2/en active Active
- 2018-11-09 US US16/185,324 patent/US10565440B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
EP4140294A1 (en) | 2023-03-01 |
EP3029603A4 (en) | 2017-08-30 |
CA2925275C (en) | 2022-11-08 |
EP3029603B1 (en) | 2022-10-19 |
JP6466920B2 (ja) | 2019-02-06 |
WO2014189250A2 (ko) | 2014-11-27 |
JP2018191648A (ja) | 2018-12-06 |
US10552673B2 (en) | 2020-02-04 |
EP3029603A2 (en) | 2016-06-08 |
KR101527801B1 (ko) | 2015-06-11 |
JP6840703B2 (ja) | 2021-03-10 |
US10268880B2 (en) | 2019-04-23 |
KR20140137149A (ko) | 2014-12-02 |
JP2019003669A (ja) | 2019-01-10 |
US20190080160A1 (en) | 2019-03-14 |
US20190080159A1 (en) | 2019-03-14 |
US20160259970A1 (en) | 2016-09-08 |
WO2014189250A3 (ko) | 2015-01-15 |
CA2925275A1 (en) | 2014-11-27 |
JP2016519941A (ja) | 2016-07-11 |
US10565440B2 (en) | 2020-02-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2936063T3 (es) | Dispositivo para reconocer la identidad de un animal utilizando huellas nasales de animal | |
KR101494716B1 (ko) | 동물들의 코무늬를 이용한 동물 개체 인식 장치 | |
KR101494717B1 (ko) | 동물들의 코무늬를 이용한 동물 개체 인식 장치 | |
US9489560B2 (en) | On-the go touchless fingerprint scanner | |
US20070038118A1 (en) | Subcutaneous tissue imager | |
US20070127781A1 (en) | Animal eye biometrics | |
US20050238208A1 (en) | Handheld biometric computer for 2D/3D image capture | |
EP1905350A4 (en) | IMAGE PROCESSOR, SYSTEM AND IMAGE PROCESSING PROGRAM | |
US11715308B2 (en) | Animal identification using vision techniques | |
US20160095292A1 (en) | Animal muzzle pattern scanning device | |
KR102233244B1 (ko) | 광학식 비문 이미지 획득장치 및 비문 등록방법 | |
EP3105712A1 (en) | On-the-go touchless fingerprint scanner | |
JPH11161796A (ja) | 動物の個体識別装置および画像処理方法 | |
CN107702652A (zh) | 现场快速鉴定方法及其系统 | |
KR20240002171A (ko) | 비문이 접촉하는 탄성접촉부를 구비한 비문 이미지 획득장치 | |
KR102114180B1 (ko) | 동물의 귀 정맥 영상 촬영 장치 | |
KR20230001452U (ko) | 비문이 미끄러지지 않도록 입력창 주위에 가이드를 구비한 비문 이미지 획득장치 | |
US20240017039A1 (en) | Image guided catheter insertion system and method | |
JP2000137811A (ja) | 個体識別装置 | |
JPH10302065A (ja) | 個体識別方法および個体識別装置 | |
JP3563184B2 (ja) | 家畜の鼻紋採取装置 | |
WO2001064029A1 (en) | Method and apparatus for livestock identification |