JP2000182050A - Individual identifying device for animal - Google Patents

Individual identifying device for animal

Info

Publication number
JP2000182050A
JP2000182050A JP10352480A JP35248098A JP2000182050A JP 2000182050 A JP2000182050 A JP 2000182050A JP 10352480 A JP10352480 A JP 10352480A JP 35248098 A JP35248098 A JP 35248098A JP 2000182050 A JP2000182050 A JP 2000182050A
Authority
JP
Japan
Prior art keywords
iris
contour
unit
area
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10352480A
Other languages
Japanese (ja)
Inventor
Osamu Yamakita
治 山北
Yuji Kuno
裕次 久野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP10352480A priority Critical patent/JP2000182050A/en
Publication of JP2000182050A publication Critical patent/JP2000182050A/en
Pending legal-status Critical Current

Links

Landscapes

  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

PROBLEM TO BE SOLVED: To perform highly accurate individual identification of an animal. SOLUTION: Contour data of an iris grain registered in a contour dictionary storage part 3 is geometrically converted into coordinate strings in an inputted image from an eye area image pickup part 1 by a contour geometrical conversion part 2. Edge intensity of the coordinate strings which is geometrically converted by the contour geometrical conversion part 2 is compared with a determined required value and when the edge intensity is larger than the required value, the contour of the iris grain in the inputted image is regarded to be detected by an edge intensity calculating part 4. Average of difference between data of an area in the contour calculated by the edge intensity calculating part 4 and registration data registered in a density dictionary storage part 6 is calculated and a degree of difference between the inputted image and the dictionary is calculated by an average difference calculating part 5. The individual identification is performed by comparing the degree of difference calculated by the average difference calculating part 5 with the required value by an identifying part 7.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、例えば、(競走)
馬、(牧)牛等の動物の個体管理が必要な機関におい
て、動物の個体識別のためのデータを登録し、且つ照合
を行うための動物の個体識別装置に関する。
The present invention relates to, for example, (race)
TECHNICAL FIELD The present invention relates to an animal individual identification device for registering data for individual identification of animals and performing collation in an institution requiring individual management of animals such as horses and (pastoral) cattle.

【0002】[0002]

【従来の技術】競馬場やセリ場、あるいは繁殖牧場での
サラブレッドの個体識別は、血統書統括機関の主導のも
とに行われている。現行の日本での個体識別方法は毛色
・肢部の白斑・頭部の白斑・旋毛によるものであり、世
界的にはこの他に血液型による方法や烙印・入れ墨を用
いる方法等がある(参考文献:「馬の知識」,II−
3.馬の見分け方,P.153〜P.154)。
2. Description of the Related Art Individual identification of thoroughbreds at a racetrack, auction field, or a breeding ranch is carried out under the initiative of a pedigree control agency. The current method of identifying individuals in Japan is based on coat color, vitiligo on the limbs, vitiligo on the head, and curl. In the world, there are other methods based on blood type, branding, tattooing, etc. Reference: "Knowledge of Horses", II-
3. How to identify a horse, P. 153-P. 154).

【0003】牛の個体識別の場合、首輪や耳タグ等の識
別表札や烙印・入れ墨を用いる方法が一般の牧場にも採
用されている。
[0003] In the case of individual identification of cattle, a method using identification nameplates such as collars and ear tags and branding and tattooing has been adopted in general ranches.

【0004】また昨今注目されている動物の個体識別方
法に、MC(Micro Chip)を利用した技術が
ある。これは超小型集積回路内蔵チップをガラス管に封
入したもので、動物の生体内に注射器等の注入器によっ
て埋め込み、識別の際には非接触検知器で埋め込み局所
をなぞって、その出力信号を個体識別の情報とするもの
である。
[0004] As an individual identification method of an animal that has recently attracted attention, there is a technique using an MC (Micro Chip). This is a chip with a built-in microminiature integrated circuit enclosed in a glass tube, which is implanted in the body of an animal with an injector such as a syringe.In the case of identification, the embedded signal is traced by a non-contact detector to trace the output signal. This is used as information for individual identification.

【0005】[0005]

【発明が解決しようとする課題】ところで、上記のよう
な従来の技術には次のような解決すべき課題があった。
毛色・白徴・白斑・旋毛による識別の場合、特徴の少な
い馬や、同一の特徴を有する馬が多いため馬の特定が度
々不完全になることがある。更に烙印・入れ墨は消えて
しまったり、改竄される危険性がある上、動物が受ける
疼痛や局所の化膿等、動物愛護の面からも改善が望まれ
ていた。また血液型による個体識別は正確な反面、判定
までにかなりの処理時間を要するうえコスト高になる欠
点がある。
However, the above-mentioned prior art has the following problems to be solved.
In the case of discrimination based on coat color, white mark, vitiligo, and curl, there are many horses with few features and horses with the same feature, so that the identification of the horse is often incomplete. In addition, there is a risk that the branding and tattoos may disappear or be tampered with, and improvements in animal welfare such as pain and local suppuration received by animals have been desired. In addition, although individual identification based on blood type is accurate, there is a disadvantage that a considerable processing time is required for determination and the cost is high.

【0006】識別表札は破損・紛失したり盗難される危
険性があり、また烙印・入れ墨等の場合は馬の場合と同
様に消えてしまったり、改竄される危険性がある等の問
題を持っている。特にこの改竄行為が明らかになったと
しても、元来どこに所属していたかを証明することが困
難であることにも問題がある。
[0006] The identification nameplate has a risk of being damaged, lost or stolen, and in the case of branding or tattooing, it has a risk of disappearing or being tampered with like a horse. ing. In particular, even if this falsification is revealed, it is difficult to prove where the person originally belonged.

【0007】MC方法は、一度埋め込めば半永久的に利
用でき、利便性が高い等の利点もある。しかし、生体動
物への埋め込みの操作性、埋め込み時の動物に与える疼
痛性、腫脹、圧痛、化膿等の局所反応性、動物の運動機
能障害や臨床上の異常性、MCの生体内での移動性、検
知器の操作性、検知感度の変化及び安定性、信頼性で多
くの課題を持っている。そして何よりも動物愛護の面か
ら、MC方式の採用に抵抗感を持つ動物関係者もあり、
MC識別方式に代わる利便性のある識別方法が望まれて
いた。
[0007] The MC method can be used semi-permanently once it is embedded, and also has advantages such as high convenience. However, the operability of implantation in living animals, pain given to animals at the time of implantation, local reactivity such as swelling, tenderness, suppuration, etc., motor dysfunction and clinical abnormalities in animals, movement of MC in vivo There are many issues in terms of performance, operability of detector, change in detection sensitivity, stability, and reliability. And above all, from the aspect of animal welfare, there are animal officials who are reluctant to adopt the MC method,
A convenient identification method that replaces the MC identification method has been desired.

【0008】[0008]

【課題を解決するための手段】本発明は、前述の課題を
解決するため次の構成を採用する。 〈構成1〉予め登録した虹彩顆粒の輪郭データを入力画
像中の座標列に幾何変換する輪郭幾何変換部と、輪郭幾
何変換部で幾何変換した座標列のエッジ強度を既定の所
要値と比較し、所要値よりも大きい場合に入力画像中の
虹彩顆粒の輪郭を検出したと見なすエッジ強度計算部
と、エッジ強度計算部で検出した虹彩顆粒の輪郭内の領
域を虹彩顆粒領域候補として、この領域候補を予め登録
した虹彩顆粒の領域と照合し、個体識別を行う識別部と
を備えたことを特徴とする動物の個体識別装置である。
The present invention employs the following structure to solve the above-mentioned problems. <Configuration 1> A contour geometric transformation unit for geometrically transforming the contour data of the iris granules registered in advance into a coordinate sequence in the input image, and the edge strength of the coordinate sequence geometrically transformed by the contour geometric transformation unit is compared with a predetermined required value. An edge intensity calculation unit that considers that the contour of the iris granule in the input image has been detected if it is larger than a required value; and an area within the contour of the iris granule detected by the edge intensity calculation unit as an iris granule region candidate. An animal individual identification device, comprising: an identification unit configured to identify a candidate with an area of an iris granule registered in advance and identify an individual.

【0009】〈構成2〉虹彩顆粒の領域を複数の領域に
分割する領域分割部と、領域分割部で分割した虹彩顆粒
の領域毎に、各領域を幾何変換する領域幾何変換部と、
領域幾何変換部で幾何変換した領域毎に、各領域を予め
登録した虹彩顆粒の値と照合し、個体識別を行う識別部
とを備えたことを特徴とする動物の個体識別装置であ
る。
<Structure 2> An area dividing unit that divides an iris granule area into a plurality of areas, and an area geometric transformation unit that geometrically transforms each area for each iris granule area divided by the area dividing unit.
An individual identification device for an animal, comprising: an identification unit that performs individual identification by comparing each region with a value of an iris granule registered in advance for each region geometrically transformed by the region geometric transformation unit.

【0010】[0010]

【発明の実施の形態】以下、本発明の実施の形態を具体
例を用いて詳細に説明する。本発明は、動物の個体識別
における従来の問題を解決するために、虹彩顆粒の輪郭
および濃度情報を登録し、かつ、照合処理することを特
徴とした個体識別装置である。以下、各具体例では、対
象とする動物として特に馬の場合を例に取り上げて説明
する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of the present invention will be described below in detail with reference to specific examples. The present invention is an individual identification apparatus characterized by registering contour and density information of iris granules and performing collation processing in order to solve a conventional problem in individual identification of an animal. Hereinafter, in each specific example, a case where a target animal is a horse in particular will be described as an example.

【0011】図2は、馬の眼球の正面図を示したもので
ある。図2に示すように、馬の眼は主として、上下のま
ぶた13の間の瞳孔10、アイリス(虹彩)11、虹彩
顆粒12よりなる。
FIG. 2 shows a front view of the eyeball of a horse. As shown in FIG. 2, the horse's eye mainly includes a pupil 10, an iris (iris) 11, and an iris granule 12 between upper and lower eyelids 13.

【0012】また、瞳孔10、アイリス11の前面には
透明な半球状に隆起した角膜がある。馬の目が人間の目
と大きく異なる点は、瞳孔10が楕円形であり、また、
馬や反芻類に特有の虹彩顆粒12を持つことである。
A transparent hemispherically raised cornea is provided in front of the pupil 10 and the iris 11. The major difference between horse eyes and human eyes is that the pupil 10 is elliptical,
It is to have iris granules 12 unique to horses and ruminants.

【0013】外界からの光は瞳孔10を通過し、瞳孔奥
にある網膜に到達する。アイリス11は瞳孔10を取り
巻く筋肉であり、収縮・散大して瞳孔10への入射光量
を制御する働きを持つ。また、虹彩顆粒12は、アイリ
ス11と瞳孔10の間に位置し、半球状の隆起した顆粒
が連なった形をなす。虹彩顆粒12は、メラニン色素に
富んだ黒色をしており、アイリス11が収縮してもなお
眩しい日中の光を吸収する働きがあるとされている。
Light from the outside passes through the pupil 10 and reaches the retina at the back of the pupil. The iris 11 is a muscle surrounding the pupil 10 and has a function of controlling the amount of light incident on the pupil 10 by contracting and expanding. The iris granules 12 are located between the iris 11 and the pupil 10 and have a shape in which hemispherical raised granules are connected. The iris granules 12 have a black color rich in melanin pigment, and are said to have a function of absorbing dazzling daylight even when the iris 11 contracts.

【0014】この虹彩顆粒12が馬により、また、同一
馬の目の左右によっても様々な大きさ・形を持ち個体差
があることはこれまであまり知られていなかった。本発
明は、この虹彩顆粒12をカメラで撮影して予め登録し
ておいたデータと照合することにより個体を識別するも
のである。
It has not been well known that the iris granules 12 have various sizes and shapes depending on the horse and the right and left eyes of the same horse and have individual differences. In the present invention, an individual is identified by photographing the iris granule 12 with a camera and collating it with data registered in advance.

【0015】登録データと照合を精度良く行うために
は、虹彩顆粒の領域を抽出した上で照合を行うことが有
効である。そのためには抽出領域とその周囲の領域との
濃淡・器質の差により生じる境界の濃度差(以下、これ
をエッジ強度という)が重要な情報となる。エッジ強度
を用いた瞳孔抽出例を示す文献としては、以下のものが
あった。文献名「坂口,中野,山本,“自動車運転中の
ドライバの視線検出”,電子情報通信学会PRU研究会
技術報告,PRU95−28」
In order to perform the matching with the registered data with high accuracy, it is effective to perform the matching after extracting the area of the iris granules. For that purpose, important information is a density difference at a boundary (hereinafter referred to as an edge intensity) caused by a difference in shading / organism between an extraction area and a surrounding area. The following documents show examples of pupil extraction using edge strength. Document name "Sakaguchi, Nakano, Yamamoto,"Driver's gaze detection while driving a car ", IEICE PRU Technical Report, PRU95-28"

【0016】しかしながら、日中の明るい日差しの中で
目を撮像すると角膜内よりも周囲が明るいために角膜表
面に周囲の景色が写り込む鏡面反射現象が生じる。この
鏡面反射像が抽出領域の境界に重なると濃度差が鈍り、
その結果、エッジ検出エラーによる領域欠損が生じて正
確な照合が行えない問題があった。
However, when the eyes are imaged in the bright sunshine during the day, the surroundings are brighter than in the cornea, so that a specular reflection phenomenon occurs in which the surrounding scene is reflected on the corneal surface. When this specular reflection image overlaps the boundary of the extraction area, the density difference becomes dull,
As a result, there is a problem that a region is lost due to an edge detection error and accurate matching cannot be performed.

【0017】この問題に対し、鏡面反射像はより強い照
明を照射することでその影響を軽減できるが、目の安全
性、生産コスト等の観点から照明の増強には制約があ
り、像の全てを消し去ることは困難である。
To solve this problem, the effect of the specular reflection image can be reduced by irradiating stronger illumination. However, there is a limitation in enhancing the illumination from the viewpoint of eye safety, production cost, and the like. It is difficult to erase.

【0018】そこで本発明では登録画像(以下、辞書と
いう)の輪郭は正確に抽出されていることに着目し、辞
書の輪郭データを用いて虹彩顆粒の領域を抽出すること
でこの問題を解決する。具体的には辞書の輪郭データの
位置・大きさ・傾きを様々な変換パラメータによって幾
何変換し、入力画像の虹彩顆粒輪郭を探索する。各変換
された輪郭辞書の座標上のエッジ強度の総和を計算すれ
ば、入力画像の虹彩顆粒と重なった時に値が大きくなる
ため所望の領域を検出できる。この方法によれば鏡面反
射により局所的にエッジ強度の弱い領域があっても、強
度の強いエッジとの総和は値が平均化されるため、安定
して検出することが可能であり、また固定形状の領域を
用いることで欠損のない領域を抽出できる。以下、本発
明の動物の個体識別装置を具体例を用いて詳細に説明す
る。
In the present invention, attention is paid to the fact that the outline of a registered image (hereinafter, referred to as a dictionary) is accurately extracted, and this problem is solved by extracting an iris granule region using outline data of the dictionary. . Specifically, the position, size, and inclination of the contour data of the dictionary are geometrically transformed by various transformation parameters, and the iris granule contour of the input image is searched. By calculating the sum of the edge intensities on the coordinates of each of the converted outline dictionaries, a desired area can be detected because the value increases when overlapping with the iris granules of the input image. According to this method, even if there is an area where the edge strength is weak locally due to specular reflection, the value of the sum with the edge having a strong strength is averaged, so that it is possible to stably detect the sum and fix it. By using the shape region, a region without loss can be extracted. Hereinafter, the animal individual identification device of the present invention will be described in detail using specific examples.

【0019】《具体例1》具体例1は、虹彩顆粒の輪郭
データを入力画像中の座標に幾何変換し、この幾何変換
したエッジ強度を所定の値と比較し、所要値よりも大き
い場合に虹彩顆粒領域候補を検出したと見なすようにし
たものである。
<< Specific Example 1 >> In the specific example 1, the contour data of the iris granules are geometrically transformed into coordinates in the input image, and the geometrically transformed edge strength is compared with a predetermined value. The iris granule region candidate is regarded as being detected.

【0020】〈構成〉図1は本発明の動物の個体識別装
置の具体例1を示す構成図である。具体例1は、目領域
撮像部1、輪郭幾何変換部2、輪郭辞書記憶部3、エッ
ジ強度計算部4、平均差分計算部5、濃度辞書記憶部
6、識別部7、識別結果出力部8よりなる。以下に各部
の具体的な構成を説明する。
<Structure> FIG. 1 is a diagram showing the structure of a specific example 1 of the animal individual identification apparatus of the present invention. Specific example 1 includes an eye area imaging unit 1, a contour geometry conversion unit 2, a contour dictionary storage unit 3, an edge strength calculation unit 4, an average difference calculation unit 5, a density dictionary storage unit 6, an identification unit 7, and an identification result output unit 8. Consisting of The specific configuration of each unit will be described below.

【0021】目領域撮像部1は、画像入力部および光源
部よりなり、馬の目の映像を電気信号に変換して装置に
入力する役割を担う。ここで画像入力部は、レンズ、C
CDセンサ、映像信号出力回路等により構成され、馬の
目の像のアナログ光情報をCCD素子によりデジタル電
気信号に変換する処理を行う。また、光源部は電源、ラ
ンプ等よりなる照明であり、馬の目をコントラスト良く
捉えるために用いる。光源には馬が眩しくて過剰に動く
ことを避けるために、赤色光あるいは近赤外光、赤外光
のような動物には感知しにくい波長の光を用いる。
The eye area imaging section 1 is composed of an image input section and a light source section, and plays a role of converting an image of a horse eye into an electric signal and inputting it to the apparatus. Here, the image input unit is a lens, C
It is composed of a CD sensor, a video signal output circuit and the like, and performs a process of converting analog optical information of an image of a horse eye into a digital electric signal by a CCD element. The light source unit is illumination composed of a power supply, a lamp, and the like, and is used to catch the horse's eyes with good contrast. In order to prevent the horse from dazzling and moving excessively, light of a wavelength such as red light, near-infrared light, or infrared light that is hardly perceived by animals is used as a light source.

【0022】輪郭幾何変換部2は座標変換手段であり、
輪郭の2次元座標列を所定の位置、大きさ、傾きに変換
する機能を有している。即ち、輪郭辞書記憶部3に記憶
されている輪郭データ(=輪郭の形状)を幾何的に種々
の形状に変換し、これらの座標を目領域撮像部1で撮像
された入力画像中の座標に変換する機能を有している。
The contour geometric converter 2 is a coordinate converter.
It has a function of converting a two-dimensional coordinate sequence of a contour into a predetermined position, size, and inclination. That is, the contour data (= contour shape) stored in the contour dictionary storage unit 3 is geometrically converted into various shapes, and these coordinates are converted to the coordinates in the input image captured by the eye area imaging unit 1. It has a function to convert.

【0023】輪郭辞書記憶部3は、半導体メモリ、ハー
ドディスク、磁気テープ等の記録媒体と、記録ヘッド、
制御回路等よりなる記憶手段であり、馬のID毎に輪郭
の2次元(x,y)座標列が登録されている。
The outline dictionary storage unit 3 includes a recording medium such as a semiconductor memory, a hard disk, and a magnetic tape;
This is storage means including a control circuit and the like, and a two-dimensional (x, y) coordinate sequence of a contour is registered for each horse ID.

【0024】エッジ強度計算部4は、エッジ強度を表す
画像の隣接画素値の平均差分の計算手段および強度と所
要値の比較手段よりなり、入力画像における辞書輪郭座
標上のエッジ強度を計算すると共に、求めたエッジ強度
を所要値と比較して、虹彩顆粒領域の候補とするか否か
の判定も行う機能を有している。
The edge strength calculator 4 comprises means for calculating the average difference between adjacent pixel values of the image representing the edge strength and means for comparing the strength with a required value, and calculates the edge strength on the dictionary contour coordinates in the input image. Has a function of comparing the obtained edge intensity with a required value to determine whether or not to be a candidate for the iris granule region.

【0025】平均差分計算部5は、辞書データ読み出し
機能、画像間の差分計算機能、および累積機能よりな
り、虹彩顆粒領域に対して入力画像と濃度辞書との画像
間の相違度を計算する。
The average difference calculator 5 has a dictionary data reading function, a difference calculation function between images, and an accumulation function, and calculates the degree of difference between the input image and the density dictionary for the iris granule area.

【0026】濃度辞書記憶部6は、輪郭辞書記憶部3と
同様、半導体メモリやハードディスク、磁気テープ等の
記録媒体と、記録ヘッド、制御回路等よりなる記憶手段
であり、馬のID毎に虹彩顆粒の濃度値および馬の名前
や年齢・性別等の属性が登録されている。
The density dictionary storage unit 6, like the contour dictionary storage unit 3, is a storage unit including a recording medium such as a semiconductor memory, a hard disk, and a magnetic tape, a recording head, a control circuit, and the like. Attributes such as the concentration value of granules and the name, age, and sex of the horse are registered.

【0027】識別部7は、平均差分計算部5で求めた平
均差分と所要値の比較手段よりなり、入力画像のアクセ
プト・リジェクトを判定する他、探索の繰り返しの終了
判定を行う機能を有している。
The discriminating section 7 comprises means for comparing the average difference obtained by the average difference calculating section 5 with a required value, and has a function of determining accept / reject of the input image and a function of determining the end of repetition of the search. ing.

【0028】識別結果出力部8は、ディスプレイ、プリ
ンタ、スピーカといった表示・出力部であり、識別結果
および馬の属性を利用者に提示する機能を有している。
The identification result output unit 8 is a display / output unit such as a display, a printer, and a speaker, and has a function of presenting the identification result and the attributes of the horse to the user.

【0029】尚、上記構成において、輪郭幾何変換部2
〜識別部7は、各機能部に対応したプログラムをマイク
ロプロセッサが実行することによって実現される。ま
た、このようなプログラムは記録媒体に記録して提供さ
れる。
In the above configuration, the contour geometric conversion unit 2
The identification unit 7 is realized by a microprocessor executing a program corresponding to each function unit. Further, such a program is provided by being recorded on a recording medium.

【0030】〈動作〉図3は、具体例1の動作を示す説
明図である。図1との対応は、ステップS1が目領域撮
像部1、ステップS2,S3が輪郭幾何変換部2、ステ
ップS4,S5がエッジ強度計算部4、ステップS6が
平均差分計算部5、ステップS7,S8が識別部7、ス
テップS9,S10が識別結果出力部8にそれぞれ対応
している。以下、順に各動作ステップを説明する。
<Operation> FIG. 3 is an explanatory diagram showing the operation of the first embodiment. Correspondence with FIG. 1 is as follows: Step S1 is the eye area imaging unit 1, Steps S2 and S3 are the contour geometric conversion unit 2, Steps S4 and S5 are the edge strength calculation unit 4, Step S6 is the average difference calculation unit 5, Step S7 and Step S7. S8 corresponds to the identification unit 7, and steps S9 and S10 correspond to the identification result output unit 8, respectively. Hereinafter, each operation step will be described in order.

【0031】ステップS1で馬を個体識別する利用者
は、目領域撮像部1で馬の目を撮影する。目領域撮像部
1の光源部は馬の目を赤色光あるいは近赤外光、赤外光
の波長を光源とする照明で照らし、馬の目による反射
光、即ち映像はCCDセンサにより2次元の配列である
電気信号に変換される。これは、2次元に配列された光
電変換素子(CCD)が撮像対象の反射光を一定時間露
光し、光電変換効果により印荷された電圧を一定の階調
で量子化することによるものである。入力された光はデ
ジタル電気信号として出力される。この2次元配列の電
気信号が「画像」である。
In step S 1, a user who identifies a horse individually photographs the horse's eyes with the eye area imaging unit 1. The light source unit of the eye area imaging unit 1 illuminates the horse's eyes with illumination using red light, near-infrared light, and infrared light as a light source, and the reflected light from the horse's eyes, that is, the image, is two-dimensional by a CCD sensor. It is converted into an electrical signal that is an array. This is because a two-dimensionally arranged photoelectric conversion element (CCD) exposes reflected light of an imaging target for a certain period of time, and quantizes a voltage impressed by a photoelectric conversion effect at a certain gradation. . The input light is output as a digital electric signal. This two-dimensional array of electric signals is an “image”.

【0032】ステップS2では幾何変換変数を設定す
る。幾何変換変数とは輪郭辞書記憶部3に登録されてい
る輪郭データの位置・大きさ・傾きの変換量を表す変数
(dx,dy),p,θである。前述のように本発明の
原理は辞書の輪郭座標列を用いて入力画像中の虹彩顆粒
の輪郭の位置を探索するものであるため、この変換量を
様々な値とすることで探索する。
In step S2, a geometric conversion variable is set. The geometric conversion variables are variables (dx, dy), p, and θ representing the amount of conversion of the position, size, and inclination of the contour data registered in the contour dictionary storage unit 3. As described above, since the principle of the present invention is to search the position of the contour of the iris granule in the input image using the outline coordinate sequence of the dictionary, the search is performed by setting this conversion amount to various values.

【0033】ステップS3では、先ず輪郭辞書記憶部3
から輪郭辞書を読み出す。輪郭辞書は画像上の座標値
(x,y)よりなる配列であり、ステップS2で設定し
た位置・大きさ・傾きの変換量を表す変数(dx,d
y),p,θを用いて新たな座標値に変換する。変換式
は辞書の座標値を(x,y)、変換後の座標値を(X
t,Yt)とすると次式で表される。
In step S3, first, the outline dictionary storage unit 3
Read the contour dictionary from. The outline dictionary is an array of coordinate values (x, y) on the image, and variables (dx, d) representing the amount of conversion of the position, size, and inclination set in step S2.
y), p, and θ are used to convert to new coordinate values. The conversion formula uses the coordinate values of the dictionary as (x, y), and the converted coordinate values as (X
t, Yt), it is expressed by the following equation.

【0034】 Xt=(xcosθ−ysinθ)p+dx …(1) Yt=(xsinθ+ycosθ)p+dy …(2)Xt = (xcos θ−ysin θ) p + dx (1) Yt = (xsin θ + ycos θ) p + dy (2)

【0035】ステップS4では入力画像におけるステッ
プS3で求めた辞書の幾何変換座標列のエッジ強度eを
求める。エッジ強度eの計算方法としては様々な方法が
本発明には適用可能であるが、例えばy軸方向の上下隣
接画素の差分の絶対値(e=|P(Xt,Yt−1)−P
(Xt,Yt+1)|:P(x,y)は座標(x,y)の
画素値)などを用いて全ての輪郭点のエッジ強度を求め
その平均を求める方法がある。
In step S4, the edge strength e of the geometric transformation coordinate sequence of the dictionary of the input image obtained in step S3 is obtained. Various methods can be applied to the present invention to calculate the edge strength e. For example, the absolute value of the difference between the upper and lower adjacent pixels in the y-axis direction (e = | P (Xt, Yt-1) -P
(Xt, Yt + 1) |: P (x, y) is a method of obtaining the edge intensities of all the contour points using coordinates (x, y) pixel values) and the like and calculating the average.

【0036】ステップS4で求めたエッジ強度eは、輪
郭辞書の座標値が入力画像の虹彩顆粒の輪郭と重なった
時に大きな値を示すはずである。そこでステップS5で
はエッジ強度eを予め定めた所要値Teと比較し、強度
eが所要値Teよりも大きい場合(e>Te)は虹彩顆粒
の輪郭が重なったものとしてステップS6以降の照合処
理に移行し、そうでない場合(e≦Te)はステップS
8を経て次の探索ステップに進む。
The edge strength e obtained in step S4 should show a large value when the coordinate value of the outline dictionary overlaps with the outline of the iris granules of the input image. Therefore, in step S5, the edge intensity e is compared with a predetermined required value Te. If the intensity e is larger than the required value Te (e> Te), it is determined that the contours of the iris granules overlap and the matching process from step S6 is performed. If not (e ≦ Te), step S
Proceed to the next search step via 8.

【0037】ステップS6では、先ず濃度辞書記憶部6
から虹彩顆粒の画素の濃度値を読み込み、入力画像の輪
郭内の領域について相違度を計算する。画像間の相違度
計算方法としては様々なものが本具体例には適用可能で
あるが、対応する画素毎の差分の絶対値の平均である濃
度の平均差分dを用いる。
In step S6, first, the density dictionary storage unit 6
, The density value of the pixel of the iris granule is read, and the degree of dissimilarity is calculated for a region within the outline of the input image. Although various methods of calculating the degree of difference between images are applicable to this specific example, the average difference d of the density, which is the average of the absolute value of the difference for each corresponding pixel, is used.

【0038】ステップS6で求めた平均差分dは入力画
像中の該領域と辞書との類似度の尺度であり、同一の馬
の目同士であればその値が小さくなり、また他の馬の目
であれば個体差があるため値は大きくなる。そこでこれ
を予め定めた閾値Tdによって同一目と他の目を区別す
ることができる。従ってステップS7では平均差分dが
所要値Tdよりも小さい場合(d<Td)は虹彩顆粒が同
一の馬の目のものとしてステップS10のアクセプト処
理に進み、そうでない場合(d≧Td)はステップS8
を経て次の探索ステップに進む。
The average difference d obtained in step S6 is a measure of the degree of similarity between the area in the input image and the dictionary. If the eyes are of the same horse, the value is small. In this case, the value increases because of individual differences. Therefore, the same eye and other eyes can be distinguished from each other by a predetermined threshold value Td. Therefore, in step S7, if the average difference d is smaller than the required value Td (d <Td), the iris granules proceed to the accepting process in step S10 assuming that the iris granules are eyes of the same horse, and if not (d ≧ Td), the process proceeds to step S10. S8
To the next search step.

【0039】ステップS8では、ステップS1からステ
ップS8に至るまでの処理の繰り返し回数をカウント
し、所定回数を超えた場合は探索処理を終了してステッ
プS9のリジェクト処理に進む。また、所定回数以下の
場合は再びステップS2に進み、探索処理を実行する。
In step S8, the number of repetitions of the processing from step S1 to step S8 is counted. If the number of times exceeds a predetermined number, the search processing is terminated, and the flow proceeds to reject processing in step S9. If the number is equal to or less than the predetermined number, the process proceeds to step S2 again to execute a search process.

【0040】ステップS9ではリジェクトの旨を表示装
置に出力してユーザに通知する。ステップS9ではアク
セプトである旨およびアクセプトとなった馬のID情報
を表示装置に出力してユーザに通知する。以上が本具体
例の動作の説明である。
In step S9, the rejection is output to the display device to notify the user. In step S9, the fact that the horse has been accepted and the ID information of the horse that has been accepted are output to the display device to notify the user. The above is the description of the operation of this specific example.

【0041】〈効果〉以上述べたように本具体例によれ
ば以下のような効果が見込める。 ●入力画像中の虹彩顆粒領域を輪郭辞書のエッジ強度の
総和を用いて探索するため、角膜鏡面反射像による局所
的なエッジなまりによる抽出誤りを軽減し、欠損なく虹
彩顆粒領域を抽出することが可能である。従って、精度
の高い個体識別を行うことができる。
<Effects> As described above, according to this embodiment, the following effects can be expected. ● Since the iris granule region in the input image is searched using the sum of the edge intensities of the contour dictionary, it is possible to reduce the extraction error due to local edge rounding by the corneal specular reflection image and extract the iris granule region without loss It is possible. Therefore, highly accurate individual identification can be performed.

【0042】《具体例2》虹彩顆粒は瞳孔寄りのアイリ
ス辺縁部に位置した顆粒状の物体である。アイリスは瞳
孔への入射光量を一定に保つために周囲の明るさに応じ
て散大・縮小する、いわゆる散瞳・縮瞳の役割を担う。
そのため散瞳・縮瞳がアイリス辺縁の非線形な伸び・縮
みを生じ、それによって虹彩顆粒は瞳孔サイズに依存し
て異なった形状に歪む場合がある。特に虹彩顆粒が複数
あり、それらが独立にアイリス辺縁に繋がっている場合
は、アイリスの伸び・縮みによって複数の虹彩顆粒の相
互の距離が変化するため顕著である。
<< Specific Example 2 >> The iris granules are granular objects located near the iris near the pupil. The iris plays a role of so-called mydriasis and miosis, in which the iris expands and contracts according to the surrounding brightness in order to keep the amount of light incident on the pupil constant.
As a result, mydriasis / miosis causes nonlinear expansion / contraction of the iris margin, which may cause the iris granules to be distorted into different shapes depending on the pupil size. In particular, when there are a plurality of iris granules which are independently connected to the iris margin, the distance between the plurality of iris granules changes due to the expansion and contraction of the iris, which is remarkable.

【0043】このように虹彩顆粒は瞳孔変化によって非
線形に歪むため、特定の瞳孔サイズの虹彩顆粒を辞書と
して、それを線形変換しても照合領域が合致せず誤リジ
ェクトを引き起こす問題がある。
As described above, since the iris granules are distorted non-linearly due to pupil change, even if the iris granules having a specific pupil size are used as a dictionary, even if the iris granules are linearly transformed, there is a problem that the collation regions do not match and an erroneous rejection occurs.

【0044】これに対して具体例2では、虹彩顆粒が複
数ある場合、あるいは虹彩顆粒に変形し易い部位がある
場合に、それらを分割してそれぞれ幾何変換して相違度
を計算し、相違度の最も小さくなる位置を探索すること
によりこの照合不良の問題を解消するものである。
On the other hand, in the specific example 2, when there are a plurality of iris granules, or when there are easily deformable parts in the iris granules, they are divided and geometrically transformed to calculate the dissimilarity. The problem of the poor matching is solved by searching for the position where is the smallest.

【0045】〈構成〉図4は、具体例2の構成図であ
る。図4に示す通り、本具体例2は、目領域撮像部10
1、領域分割部102、領域幾何変換部103、相違度
計算部104、記憶部105、識別部106、識別結果
出力部107よりなる。以下に各部の具体的な構成を説
明する。
<Structure> FIG. 4 is a diagram showing the structure of the second embodiment. As shown in FIG. 4, the specific example 2 is different from the eye area
1, a region dividing unit 102, a region geometric transforming unit 103, a dissimilarity calculation unit 104, a storage unit 105, an identification unit 106, and an identification result output unit 107. The specific configuration of each unit will be described below.

【0046】目領域撮像部101は、画像入力部および
光源部よりなり、馬の目の映像を電気信号に変換して装
置に入力する役割を担う。ここで画像入力部は、レン
ズ、CCDセンサ、映像信号出力回路等により構成さ
れ、馬の目の像のアナログ光情報をCCD素子によりデ
ジタル電気信号に変換する処理を行う。また、光源部は
電源、ランプ等よりなる照明であり、馬の目をコントラ
スト良く捉えるために用いる。光源には馬が眩しくて過
剰に動くことを避けるために、赤色光あるいは近赤外
光、赤外光のような動物には感知しにくい波長の光を用
いる。
The eye area imaging section 101 is composed of an image input section and a light source section, and has a role of converting a horse eye image into an electric signal and inputting it to the apparatus. Here, the image input unit includes a lens, a CCD sensor, a video signal output circuit, and the like, and performs a process of converting analog optical information of an image of a horse eye into a digital electric signal by a CCD element. The light source unit is illumination composed of a power supply, a lamp, and the like, and is used to catch the horse's eyes with good contrast. In order to prevent the horse from dazzling and moving excessively, light of a wavelength such as red light, near-infrared light, or infrared light that is hardly perceived by animals is used as a light source.

【0047】領域分割部102は虹彩顆粒領域の分割手
段であり、目領域撮像部101より目画像を得た後の虹
彩顆粒の領域抽出機能、ヒストグラム作成機能、領域分
割機能よりなる。
The region dividing unit 102 is a means for dividing the iris granule region, and includes an iris granule region extracting function, a histogram creating function, and a region dividing function after obtaining an eye image from the eye region imaging unit 101.

【0048】領域幾何変換部103は分割した領域毎の
幾何変換手段であり、変換変数の設定機能と幾何変換機
能よりなる。
The area geometric conversion unit 103 is a geometric conversion means for each divided area, and has a function of setting a conversion variable and a function of geometric conversion.

【0049】相違度計算部104は、領域毎の相違度の
計算手段であり、記憶部105からの濃度辞書読み込み
機能と入力画像と辞書との画像間の相違度計算機能より
なる。
The dissimilarity calculation unit 104 is a means for calculating the dissimilarity for each area, and has a function of reading the density dictionary from the storage unit 105 and a function of calculating the dissimilarity between the input image and the image of the dictionary.

【0050】記憶部105は、半導体メモリ、ハードデ
ィスク、磁気テープ等の記録媒体と、記録ヘッド、制御
回路等よりなる記憶手段であり、馬のID毎に濃度辞書
および馬の名前や年齢・性別等の属性が登録されてい
る。
The storage unit 105 is a storage means including a recording medium such as a semiconductor memory, a hard disk, a magnetic tape, and the like, a recording head, a control circuit, and the like. Attribute is registered.

【0051】識別部106は、相違度計算部104で求
めた相違度と所要値の比較手段よりなり、入力画像のア
クセプト・リジェクト判定機能と探索の繰り返しの終了
判定機能よりなる。
The discriminating section 106 comprises means for comparing the degree of difference obtained by the degree of difference calculating section 104 with a required value, and comprises a function of judging accept / reject of an input image and a function of judging the end of repetition of search.

【0052】識別結果出力部107は、ディスプレイ、
プリンタ、スピーカといった表示・出力装置であり、識
別結果および馬の属性を利用者に提示する機能をもつ。
The identification result output unit 107 includes a display,
It is a display / output device such as a printer and a speaker, and has a function of presenting the identification result and the attributes of the horse to the user.

【0053】尚、上記構成において、領域分割部102
〜識別部106は、各機能部に対応したプログラムをマ
イクロプロセッサが実行することによって実現される。
また、このようなプログラムは記録媒体に記録して提供
される。
In the above configuration, the area dividing unit 102
The identification unit 106 is realized by a microprocessor executing a program corresponding to each function unit.
Further, such a program is provided by being recorded on a recording medium.

【0054】〈動作〉図5は、具体例2の動作を説明す
る説明図である。図4との対応は、ステップS101が
目領域撮像部101、ステップS102〜S104が領
域分割部102、ステップS105,S106が領域幾
何変換部103、ステップS107が相違度計算部10
4、ステップS108,S109が識別部106、ステ
ップS110,S111が識別結果出力部107にそれ
ぞれ対応している。以下に順に各動作ステップを説明す
る。
<Operation> FIG. 5 is an explanatory diagram for explaining the operation of the second embodiment. The correspondence with FIG. 4 is that step S101 is the eye region imaging unit 101, steps S102 to S104 are the region division unit 102, steps S105 and S106 are the region geometric conversion unit 103, and step S107 is the dissimilarity calculation unit 10
4. Steps S108 and S109 correspond to the identification unit 106, and steps S110 and S111 correspond to the identification result output unit 107, respectively. The operation steps will be described below in order.

【0055】ステップS101で馬を個体識別する利用
者は、本発明の個体識別装置の目領域撮像部1で馬の目
を撮影する。目領域撮像部1の光源部は馬の目を赤色光
あるいは近赤外光、赤外光の波長を光源とする照明で照
らし、馬の目による反射光、即ち映像はCCDセンサに
より2次元の配列である電気信号に変換される。これは
2次元に配列された光電変換素子(CCD)が撮像対象
の反射光を一定時間露光し、光電変換効果により印荷さ
れた電圧を一定の階調で量子化することによるものであ
る。入力された光はデジタル電気信号として出力され
る。この2次元配列の電気信号が「画像」である。
In step S101, a user who individually identifies a horse takes an image of the horse's eyes with the eye area imaging unit 1 of the individual identification apparatus of the present invention. The light source unit of the eye area imaging unit 1 illuminates the horse's eyes with illumination using red light, near-infrared light, and infrared light as a light source, and the reflected light from the horse's eyes, that is, the image, is two-dimensional by a CCD sensor. It is converted into an electrical signal that is an array. This is because a two-dimensionally arranged photoelectric conversion element (CCD) exposes the reflected light of the imaging target for a certain period of time and quantizes the impressed voltage with a certain gradation by the photoelectric conversion effect. The input light is output as a digital electric signal. This two-dimensional array of electric signals is an “image”.

【0056】ステップS102では虹彩顆粒の領域を抽
出する。領域抽出の例を以下に説明するが、本発明はこ
れに依存するものではなく、他の各種の領域抽出方法が
本発明に適用可能である。
In step S102, the region of the iris granule is extracted. An example of region extraction will be described below, but the present invention is not dependent on this, and various other region extraction methods can be applied to the present invention.

【0057】図6は、具体例2における領域抽出動作の
説明図である。目領域撮像部101から得られる画像
は、まぶた13、瞳孔10、アイリス11、虹彩顆粒1
2を含んでいる。領域抽出ステップS102は画像処理
によりこれらの中から虹彩顆粒領域を抽出することを目
的とする。瞳孔10は中空であることから照明による反
射光が少ない。従って、瞳孔10は濃度が低く均一な領
域となる。それに対して瞳孔10を取り巻くアイリス、
虹彩顆粒はそれよりも濃度が高いため、濃度にある閾値
を設けることにより、閾値よりも画像の画素値が低く、
かつ面積がある所要値以上である一連の領域を瞳孔10
として特定することができる。
FIG. 6 is an explanatory diagram of the area extracting operation in the second embodiment. An image obtained from the eye area imaging unit 101 includes an eyelid 13, a pupil 10, an iris 11, and an iris granule 1.
Contains 2. The region extraction step S102 aims to extract an iris granule region from these by image processing. Since the pupil 10 is hollow, there is little reflected light due to illumination. Therefore, the pupil 10 is a uniform region having a low density. In contrast, the iris surrounding the pupil 10
Since the iris granules have a higher density, by setting a certain threshold in the density, the pixel value of the image is lower than the threshold,
A series of regions whose area is equal to or larger than a predetermined value
Can be specified as

【0058】次に虹彩顆粒12の輪郭を求める。瞳孔1
0の上部には虹彩顆粒12があり、更にその上にはアイ
リス11が位置し、それぞれの器官の内部の変化に較
べ、器官の境界における濃度の変化の方が大きい。その
ためSobelオペレータに代表される濃度変化検出処
理を施した画像では、境界の画素値が大きな値を持つ。
従って、先に特定した瞳孔領域の重心Cを先ず求めた上
で、重心Cを始点として画素値が所要の閾値以上となる
画素を探索して上向すれば、最初に瞳孔10と虹彩顆粒
12の境界上の点P1が検出され、次に虹彩顆粒12と
アイリス11の境界上の点P2が検出される。
Next, the contour of the iris granule 12 is determined. Pupil 1
Above 0, there is an iris granule 12, on which an iris 11 is located. The change in density at the boundary between organs is larger than the change inside each organ. Therefore, in the image subjected to the density change detection process represented by the Sobel operator, the pixel value of the boundary has a large value.
Therefore, the center of gravity C of the previously specified pupil region is first obtained, and then the pixel whose pixel value is equal to or more than a predetermined threshold value is searched starting from the center of gravity C and ascending upwards. Is detected, and then a point P2 on the boundary between the iris granules 12 and the iris 11 is detected.

【0059】同様の手順により、重心Cを通る水平線L
上の他の点についても、重心Cの隣接点から順に始点と
して上向探索を行えば、虹彩顆粒の全領域について下縁
と上縁が求められる。またこのようにして求められる虹
彩顆粒の上縁と下縁の左右両端は上縁と下縁の垂直方向
の間隔が所要の小さな値以下となった点E1,E2として
求められる。このようにして虹彩顆粒12の上縁および
下縁の輪郭を抽出することができるため、その内部を虹
彩顆粒の領域と特定できる。
According to the same procedure, a horizontal line L passing through the center of gravity C
For the other points above, if the upward search is performed starting from the point adjacent to the center of gravity C as the starting point, the lower edge and the upper edge are obtained for the entire region of the iris granule. The left and right ends of the upper and lower edges of the iris granule thus obtained are obtained as points E1 and E2 at which the vertical distance between the upper and lower edges is smaller than a required small value. Since the contours of the upper edge and the lower edge of the iris granule 12 can be extracted in this manner, the inside can be specified as the region of the iris granule.

【0060】ステップS103では、ステップS102
で抽出した領域に対して画素数ヒストグラムおよび濃度
ヒストグラムを求める(図7参照)。
In step S103, step S102
A histogram of the number of pixels and a density histogram are obtained for the region extracted in (2) (see FIG. 7).

【0061】図7は、領域分割動作の説明図である。こ
こで画素数ヒストグラムとは画像の垂直方向の領域画素
数を水平画素毎に求めたものであり、縦幅の大きい位置
ほどヒストグラムの値が大きくなる。また濃度ヒストグ
ラムとは画像の垂直方向の領域画素の濃度の和を水平画
素毎に求めたものであり、縦幅が大きくかつ濃度が明る
い位置ほどヒストグラムの値が大きくなる。
FIG. 7 is an explanatory diagram of the area dividing operation. Here, the pixel number histogram is obtained by calculating the number of pixels in the vertical direction of the image for each horizontal pixel, and the value of the histogram increases as the position of the vertical width increases. The density histogram is obtained by calculating the sum of the densities of the area pixels in the vertical direction of the image for each horizontal pixel, and the value of the histogram becomes larger at a position where the vertical width is large and the density is bright.

【0062】ステップS104では、ステップS103
で求めた画素数ヒストグラムと濃度ヒストグラムを用い
て領域を分割する。ここで分割方法は画素数ヒストグラ
ムの値が予め定めた所要値以下であり、かつ濃度ヒスト
グラムも同様に別に予め定めた所要値以下の場合に限
り、虹彩顆粒の領域に垂直な分離線を設けて左右に分割
するものである。これは複数の虹彩顆粒が連なる場合の
連結部、あるいは単体の虹彩顆粒においても最も大きく
変形を受ける位置が幅狭であり、また照明の影による濃
度値が小さい点に着目したものである。
In step S104, step S103
The area is divided using the pixel number histogram and the density histogram obtained in step (1). Here, the dividing method is to provide a vertical separation line in the iris granule region only when the value of the pixel number histogram is equal to or less than a predetermined required value and the density histogram is also equal to or less than a separately required value. It is divided into left and right. This focuses on the point that the connection portion where a plurality of iris granules are continuous or the position where the single iris granule undergoes the largest deformation is narrow and the density value due to the shadow of illumination is small.

【0063】ステップS105では幾何変換変数を設定
する。幾何変換変数とはステップS104で分割した各
領域の位置・大きさ・傾きの変換量を表す変数(dx,
dy),p,θであり、各分割された領域毎に設定す
る。前述のように本発明の原理は分割された領域毎に虹
彩顆粒の領域を探索するものであるため、この変換量を
様々な値とすることで探索を行う。
In step S105, a geometric transformation variable is set. The geometric conversion variable is a variable (dx,
dy), p, and θ, which are set for each of the divided areas. As described above, since the principle of the present invention is to search for an iris granule area for each divided area, the search is performed by setting the conversion amount to various values.

【0064】ステップS106では、ステップS105
で設定した変換変数を用いて各分割領域を幾何変換す
る。分割領域は画像上の座標値(x,y)よりなる配列
であり、ステップS105で設定した位置・大きさ・傾
きの変換量を表す変数(dx,dy),p,θを用いて
新たな座標値に変換する。変換式は具体例1と同様であ
り領域の座標値を(x,y)、変換後の座標値を(X
t,Yt)とすると次式で表される。
In step S106, step S105
Each of the divided areas is geometrically transformed using the transformation variables set in the step (1). The divided area is an array composed of coordinate values (x, y) on the image, and new variables (dx, dy), p, and θ representing the amounts of position, size, and inclination conversion set in step S105. Convert to coordinate values. The conversion formula is the same as that of the first embodiment. The coordinate value of the area is (x, y), and the coordinate value after the conversion is (X
t, Yt), it is expressed by the following equation.

【0065】 Xt=(xcosθ−ysinθ)p+dx …(3) Yt=(xsinθ+ycosθ)p+dy …(4)Xt = (xcos θ−ysin θ) p + dx (3) Yt = (xsin θ + ycos θ) p + dy (4)

【0066】ステップS107では記憶部105から濃
度辞書を読み込み、ステップS106で求めた分割領域
との相違度を各領域毎に個別に計算し(d1,d2,…,
dn:nは分割数)、更にそれらの平均(d=(d1+d
2+,…+dn)/n)を求める。相違度計算方法として
は様々な方法が本発明には適用可能であるが、具体例1
の動作説明図におけるステップS6と同様に、対応する
画素の濃度値の差分の絶対値の平均とするなどの方法が
ある。
In step S107, the density dictionary is read from the storage unit 105, and the degree of difference from the divided area obtained in step S106 is individually calculated for each area (d1, d2,..., D1).
dn: n is the number of divisions, and their average (d = (d1 + d
2+,... + Dn) / n). Various methods can be applied to the present invention for calculating the degree of difference.
Similar to step S6 in the operation explanatory diagram, there is a method of averaging the absolute values of the differences between the density values of the corresponding pixels.

【0067】ステップS108では、ステップS107
で求めた相違度を用いて検査対象のアクセプトか否かを
判定する。相違度は入力画像中の該領域と辞書との類似
度の尺度であり、同一の馬の目同士であればその値が小
さくなり、また、他の馬の目であれば個体差があるため
値は大きくなる。そこでこれを予め定めた閾値Tdによ
って同一目と他の目とを区別することができる。従って
ステップS108では平均差分dが所要値Tdよりも小
さい場合(d<Td)は虹彩顆粒が同一の馬の目のもの
としてステップS111のアクセプト処理に進み、そう
でない場合(d≧Td)はステップS109を経て次の
探索ステップに進む。
In step S108, step S107
It is determined whether or not the acceptance is an inspection target using the difference obtained in step (1). The degree of difference is a measure of the degree of similarity between the region in the input image and the dictionary, and the value is small for eyes of the same horse, and there is an individual difference for eyes of another horse. The value increases. Therefore, the same eye can be distinguished from other eyes by a predetermined threshold Td. Therefore, in step S108, when the average difference d is smaller than the required value Td (d <Td), the iris granules proceed to the accepting process in step S111 assuming that the iris granules are eyes of the same horse, and when not (d ≧ Td), the process proceeds to step S111. The process proceeds to the next search step via S109.

【0068】ステップS109ではステップS105か
らステップS108に至るまでの処理の繰り返し回数を
カウントし、所定回数を超えた場合は探索処理を終了し
てステップS110のリジェクト処理に進む。また、所
定回数以下の場合は再びステップS105に進み探索処
理を実行する。
In step S109, the number of repetitions of the processing from step S105 to step S108 is counted. If the number of repetitions exceeds a predetermined number, the search processing is terminated, and the flow proceeds to reject processing in step S110. If the number is equal to or less than the predetermined number, the process returns to step S105 to execute the search process.

【0069】ステップS110ではリジェクトの旨を表
示装置に出力してユーザに通知する。ステップS111
ではアクセプトである旨およびアクセプトとなった馬の
ID情報を表示装置に出力してユーザに通知する。
In step S110, the fact of rejection is output to the display device to notify the user. Step S111
Then, information indicating that the horse has been accepted and the ID information of the horse that has been accepted are output to the display device to notify the user.

【0070】〈効果〉以上述べたように本具体例によれ
ば以下のような効果が見込める。 ●虹彩顆粒の変形を受け易い位置を基に領域を分割して
個別に幾何変換を行い照合するため、瞳孔変化による非
線形な変形にも追随して領域を探索することが可能とな
り、照合エラーを救済することができる。
<Effects> As described above, according to this example, the following effects can be expected. ● Since the area is divided based on the position where the iris granules are easily deformed, and the geometric transformation is performed individually and collation is performed, it is possible to search for the area following the non-linear deformation due to pupil change, and the collation error is reduced. Can be remedied.

【0071】《利用形態》上記具体例1の説明では入力
画像中の辞書輪郭座標上のエッジを計算するのに隣接画
素間の差分の「平均」を用いたが、虹彩顆粒以外の局所
的に強いエッジが誤って検出されるのを防ぐ目的で値の
散らばり程度を表す「標準偏差」を併用するなど様々な
エッジ強度計算方法が本発明には適用可能である。
<< Usage Form >> In the description of the first embodiment, the “average” of the difference between adjacent pixels is used to calculate the edge on the dictionary contour coordinates in the input image. Various edge strength calculation methods can be applied to the present invention, such as using together a “standard deviation” indicating the degree of dispersion of values in order to prevent a strong edge from being erroneously detected.

【0072】また、上記具体例1,2では、動物の一例
として馬の場合を説明したが、牛等、他の動物であって
も同様に適用可能である。
Further, in the above specific examples 1 and 2, the case of a horse was described as an example of an animal, but other animals such as a cow can be similarly applied.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の動物の個体識別装置の具体例1の構成
図である。
FIG. 1 is a configuration diagram of a specific example 1 of an animal individual identification device of the present invention.

【図2】馬の目の画像の説明図である。FIG. 2 is an explanatory diagram of an image of a horse's eye.

【図3】本発明の動物の個体識別装置の具体例1の動作
を示す説明図である。
FIG. 3 is an explanatory diagram showing an operation of a specific example 1 of the animal individual identification device of the present invention.

【図4】本発明の動物の個体識別装置の具体例2の構成
図である。
FIG. 4 is a configuration diagram of a specific example 2 of the animal individual identification device of the present invention.

【図5】本発明の動物の個体識別装置の具体例2の動作
を示す説明図である。
FIG. 5 is an explanatory diagram showing an operation of a specific example 2 of the animal individual identification device of the present invention.

【図6】本発明の動物の個体識別装置の具体例2の領域
抽出動作の説明図である。
FIG. 6 is an explanatory diagram of an area extracting operation of a specific example 2 of the animal individual identification device of the present invention.

【図7】本発明の動物の個体識別装置の具体例2の領域
分割動作の説明図である。
FIG. 7 is an explanatory diagram of an area dividing operation of the specific example 2 of the animal individual identification device of the present invention.

【符号の説明】[Explanation of symbols]

2 輪郭幾何変換部 3 輪郭辞書記憶部 4 エッジ強度計算部 5 平均差分計算部 6 濃度辞書記憶部 7、106 識別部 102 領域分割部 103 領域幾何変換部 104 相違度計算部 105 記憶部 2 contour geometric conversion unit 3 contour dictionary storage unit 4 edge strength calculation unit 5 average difference calculation unit 6 density dictionary storage unit 7, 106 identification unit 102 region division unit 103 region geometric conversion unit 104 difference degree calculation unit 105 storage unit

フロントページの続き Fターム(参考) 4C038 VA07 VB04 VC05 5B043 AA09 BA01 DA05 GA02 5L096 AA03 BA03 BA18 CA02 CA14 EA26 FA06 FA32 GA08 HA09 JA03 Continued on the front page F term (reference) 4C038 VA07 VB04 VC05 5B043 AA09 BA01 DA05 GA02 5L096 AA03 BA03 BA18 CA02 CA14 EA26 FA06 FA32 GA08 HA09 JA03

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 予め登録した虹彩顆粒の輪郭データを入
力画像中の座標列に幾何変換する輪郭幾何変換部と、 前記輪郭幾何変換部で幾何変換した座標列のエッジ強度
を既定の所要値と比較し、所要値よりも大きい場合に前
記入力画像中の虹彩顆粒の輪郭を検出したと見なすエッ
ジ強度計算部と、 前記エッジ強度計算部で検出した虹彩顆粒の輪郭内の領
域を虹彩顆粒領域候補として、この領域候補を予め登録
した虹彩顆粒の領域と照合し、個体識別を行う識別部と
を備えたことを特徴とする動物の個体識別装置。
1. A contour geometric transformation unit for geometrically transforming contour data of iris granules registered in advance into a coordinate sequence in an input image, and an edge strength of the coordinate sequence geometrically transformed by the contour geometric transformation unit is set to a predetermined required value. Comparing an edge intensity calculation unit that considers that the contour of the iris granule in the input image has been detected when it is larger than a required value; and an area within the contour of the iris granule detected by the edge intensity calculation unit as an iris granule region candidate. An individual identification device for an animal, comprising: an identification unit that identifies the individual by comparing the area candidate with an area of an iris granule registered in advance.
【請求項2】 虹彩顆粒の領域を複数の領域に分割する
領域分割部と、 前記領域分割部で分割した虹彩顆粒の領域毎に、各領域
を幾何変換する領域幾何変換部と、 前記領域幾何変換部で幾何変換した領域毎に、各領域を
予め登録した虹彩顆粒の値と照合し、個体識別を行う識
別部とを備えたことを特徴とする動物の個体識別装置。
2. An area dividing unit that divides an iris granule area into a plurality of areas; an area geometric transforming unit that geometrically transforms each area for each iris granule area divided by the area dividing unit; An individual identification device for an animal, comprising: an identification unit that performs individual identification by collating each region with a value of an iris granule registered in advance for each region geometrically transformed by the conversion unit.
JP10352480A 1998-12-11 1998-12-11 Individual identifying device for animal Pending JP2000182050A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10352480A JP2000182050A (en) 1998-12-11 1998-12-11 Individual identifying device for animal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10352480A JP2000182050A (en) 1998-12-11 1998-12-11 Individual identifying device for animal

Publications (1)

Publication Number Publication Date
JP2000182050A true JP2000182050A (en) 2000-06-30

Family

ID=18424366

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10352480A Pending JP2000182050A (en) 1998-12-11 1998-12-11 Individual identifying device for animal

Country Status (1)

Country Link
JP (1) JP2000182050A (en)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001064029A1 (en) * 2000-03-03 2001-09-07 Id+Plus Ltd Method and apparatus for livestock identification
US7761453B2 (en) 2005-01-26 2010-07-20 Honeywell International Inc. Method and system for indexing and searching an iris image database
JP2010272129A (en) * 2010-07-16 2010-12-02 Hitachi Ltd Individual authentication device and method
US7933507B2 (en) 2006-03-03 2011-04-26 Honeywell International Inc. Single lens splitter camera
US8045764B2 (en) 2005-01-26 2011-10-25 Honeywell International Inc. Expedient encoding system
US8050463B2 (en) 2005-01-26 2011-11-01 Honeywell International Inc. Iris recognition system having image quality metrics
US8049812B2 (en) 2006-03-03 2011-11-01 Honeywell International Inc. Camera with auto focus capability
US8063889B2 (en) 2007-04-25 2011-11-22 Honeywell International Inc. Biometric data collection system
US8064647B2 (en) 2006-03-03 2011-11-22 Honeywell International Inc. System for iris detection tracking and recognition at a distance
US8085993B2 (en) 2006-03-03 2011-12-27 Honeywell International Inc. Modular biometrics collection system architecture
US8090246B2 (en) 2008-08-08 2012-01-03 Honeywell International Inc. Image acquisition system
US8090157B2 (en) 2005-01-26 2012-01-03 Honeywell International Inc. Approaches and apparatus for eye detection in a digital image
US8098901B2 (en) 2005-01-26 2012-01-17 Honeywell International Inc. Standoff iris recognition system
US8213782B2 (en) 2008-08-07 2012-07-03 Honeywell International Inc. Predictive autofocusing system
US8280119B2 (en) 2008-12-05 2012-10-02 Honeywell International Inc. Iris recognition system using quality metrics
US8285005B2 (en) 2005-01-26 2012-10-09 Honeywell International Inc. Distance iris recognition
US8436907B2 (en) 2008-05-09 2013-05-07 Honeywell International Inc. Heterogeneous video capturing system
US8442276B2 (en) 2006-03-03 2013-05-14 Honeywell International Inc. Invariant radial iris segmentation
US8472681B2 (en) 2009-06-15 2013-06-25 Honeywell International Inc. Iris and ocular recognition system using trace transforms
US8630464B2 (en) 2009-06-15 2014-01-14 Honeywell International Inc. Adaptive iris matching using database indexing
US8705808B2 (en) 2003-09-05 2014-04-22 Honeywell International Inc. Combined face and iris recognition system
US8742887B2 (en) 2010-09-03 2014-06-03 Honeywell International Inc. Biometric visitor check system
JP2014115979A (en) * 2012-11-15 2014-06-26 Ricoh Co Ltd Area extraction device, area extraction method, and program

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001064029A1 (en) * 2000-03-03 2001-09-07 Id+Plus Ltd Method and apparatus for livestock identification
US8705808B2 (en) 2003-09-05 2014-04-22 Honeywell International Inc. Combined face and iris recognition system
US8090157B2 (en) 2005-01-26 2012-01-03 Honeywell International Inc. Approaches and apparatus for eye detection in a digital image
US7761453B2 (en) 2005-01-26 2010-07-20 Honeywell International Inc. Method and system for indexing and searching an iris image database
US8488846B2 (en) 2005-01-26 2013-07-16 Honeywell International Inc. Expedient encoding system
US8045764B2 (en) 2005-01-26 2011-10-25 Honeywell International Inc. Expedient encoding system
US8050463B2 (en) 2005-01-26 2011-11-01 Honeywell International Inc. Iris recognition system having image quality metrics
US8285005B2 (en) 2005-01-26 2012-10-09 Honeywell International Inc. Distance iris recognition
US8098901B2 (en) 2005-01-26 2012-01-17 Honeywell International Inc. Standoff iris recognition system
US8049812B2 (en) 2006-03-03 2011-11-01 Honeywell International Inc. Camera with auto focus capability
US8442276B2 (en) 2006-03-03 2013-05-14 Honeywell International Inc. Invariant radial iris segmentation
US8085993B2 (en) 2006-03-03 2011-12-27 Honeywell International Inc. Modular biometrics collection system architecture
US8064647B2 (en) 2006-03-03 2011-11-22 Honeywell International Inc. System for iris detection tracking and recognition at a distance
US8761458B2 (en) 2006-03-03 2014-06-24 Honeywell International Inc. System for iris detection, tracking and recognition at a distance
US7933507B2 (en) 2006-03-03 2011-04-26 Honeywell International Inc. Single lens splitter camera
US8063889B2 (en) 2007-04-25 2011-11-22 Honeywell International Inc. Biometric data collection system
US8436907B2 (en) 2008-05-09 2013-05-07 Honeywell International Inc. Heterogeneous video capturing system
US8213782B2 (en) 2008-08-07 2012-07-03 Honeywell International Inc. Predictive autofocusing system
US8090246B2 (en) 2008-08-08 2012-01-03 Honeywell International Inc. Image acquisition system
US8280119B2 (en) 2008-12-05 2012-10-02 Honeywell International Inc. Iris recognition system using quality metrics
US8472681B2 (en) 2009-06-15 2013-06-25 Honeywell International Inc. Iris and ocular recognition system using trace transforms
US8630464B2 (en) 2009-06-15 2014-01-14 Honeywell International Inc. Adaptive iris matching using database indexing
JP2010272129A (en) * 2010-07-16 2010-12-02 Hitachi Ltd Individual authentication device and method
US8742887B2 (en) 2010-09-03 2014-06-03 Honeywell International Inc. Biometric visitor check system
JP2014115979A (en) * 2012-11-15 2014-06-26 Ricoh Co Ltd Area extraction device, area extraction method, and program

Similar Documents

Publication Publication Date Title
JP2000182050A (en) Individual identifying device for animal
US6285780B1 (en) Apparatus for identifying individual animals and image processing method
US6229905B1 (en) Animal identification based on irial granule analysis
JP6466920B2 (en) Animal individual recognition apparatus and method using nose handles of animals
US8768014B2 (en) System and method for identifying a person with reference to a sclera image
Li et al. Automated feature extraction in color retinal images by a model based approach
Lalonde et al. Fast and robust optic disc detection using pyramidal decomposition and Hausdorff-based template matching
CN107292877B (en) Left and right eye identification method based on fundus image characteristics
US8315440B2 (en) System and method for animal identification using iris images
Dai et al. Optic disc segmentation based on variational model with multiple energies
US11450130B2 (en) Animal identification based on unique nose patterns
CN107239772B (en) Palm print and palm vein image collecting device and clearance gate
US20090169101A1 (en) Image processing method and apparatus, image sensing apparatus, and program
JPH11244261A (en) Iris recognition method and device thereof, data conversion method and device thereof
TW200414072A (en) Iris extraction method
CN105205437B (en) Side face detection method and device based on contouring head verifying
US8325991B2 (en) Device and method for biometrics authentication
JP3045129B2 (en) Animal identification device
KR100376415B1 (en) Pupil acquisition method using eye image
Tavakoli et al. Effect of two different preprocessing steps in detection of optic nerve head in fundus images
JP3557509B2 (en) Animal identification device
JP2000137813A (en) Individual identifier
Daniel Chaves Viquez et al. Synthesising wider field images from narrow-field retinal video acquired using a low-cost direct ophthalmoscope (Arclight) attached to a smartphone
JPH10275236A (en) Animal identification system
JP2000137812A (en) Individual identifier