JP2022048464A - Nose print collation device, method and program - Google Patents

Nose print collation device, method and program Download PDF

Info

Publication number
JP2022048464A
JP2022048464A JP2020154289A JP2020154289A JP2022048464A JP 2022048464 A JP2022048464 A JP 2022048464A JP 2020154289 A JP2020154289 A JP 2020154289A JP 2020154289 A JP2020154289 A JP 2020154289A JP 2022048464 A JP2022048464 A JP 2022048464A
Authority
JP
Japan
Prior art keywords
print
nose
nose print
images
nasal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020154289A
Other languages
Japanese (ja)
Other versions
JP6795243B1 (en
Inventor
沁 王
Qin Wang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawayuii Holdings Ltd
Original Assignee
Kawayuii Holdings Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawayuii Holdings Ltd filed Critical Kawayuii Holdings Ltd
Priority to JP2020154289A priority Critical patent/JP6795243B1/en
Application granted granted Critical
Publication of JP6795243B1 publication Critical patent/JP6795243B1/en
Publication of JP2022048464A publication Critical patent/JP2022048464A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To provide a nose print collation device, a method and a program capable of collating a nose print image with high accuracy.SOLUTION: A nose print collation device includes: a nose print position estimation unit 11 that accepts input of a face image of a captured arbitrary face into a neural network for detecting a nose print machine-learned by means of position information of nose prints included in a plurality of face images captured in advance, so as to estimate a position of a nose print included in the face image; a nose print image extraction unit 12 that specifies a nose print area based on the estimated position of the nose print to extract a nose print image in the nose print area; a nose print image feature amount acquisition unit 13 that accepts input of a plurality of nose print images to be collated to the neural network for classifying nose print images machine-learned by means of the plurality of nose print images acquired in advance, so as to acquire feature amounts of the plurality of nose print images; and a nose print image collation unit 14 that collates the plurality of nose print images based on the feature amounts of the plurality of nose print images, so as to output a result of the collation.SELECTED DRAWING: Figure 1

Description

本発明は、複数の顔画像から抽出された鼻紋の照合を行う鼻紋照合装置および方法並びにプログラムに関するものである。 The present invention relates to a nasal print collation device, a method, and a program for collating nasal prints extracted from a plurality of facial images.

牛は、人間の指紋と同じく、それぞれ固有の鼻紋を有することから、その固有の鼻紋を使用して個々の牛を識別し、個体管理などが行われている。たとえば牛の鼻紋を予め登録しておき、後日、鼻紋の照合によって牛の個体を識別する鼻紋照合方法が採用されている。 Like human fingerprints, cows have their own unique nose prints, so individual cows are identified using the unique nose prints, and individual management is performed. For example, a nose print collation method is adopted in which a bovine nose print is registered in advance and an individual cow is identified by collation of the nose print at a later date.

従来は、牛の鼻先に墨を付けて鼻紋拓を採取して予め保存しておき、この保存した鼻紋拓と後日採取した鼻紋拓とを目視により比較することによって照合が行われてきたが、非常に手間がかかり、牛にもストレスがかかってしまう。 Conventionally, the tip of the nose of a cow is inked, the nose print is collected and stored in advance, and the stored nose print is visually compared with the collected nose print at a later date. However, it is very time-consuming and stresses the cow.

そこで、近年、牛の鼻紋をカメラで撮影し、その撮影した画像を比較することによって照合を行う方法が提案されている。 Therefore, in recent years, a method has been proposed in which a cow's nose print is photographed with a camera and collation is performed by comparing the photographed images.

たとえば特許文献1においては、鼻紋内に存在する溝で囲まれる複数のセルの最も長い線分を抽出し、その線分の分布状態を用いて、鼻紋の照合を行う方法が提案されている。 For example, Patent Document 1 proposes a method of extracting the longest line segment of a plurality of cells surrounded by a groove existing in a nose print and collating the nose print using the distribution state of the line segment. There is.

また、特許文献2においては、機械学習した分類器を用いて犬の候補を抽出し、その犬の候補の鼻紋画像からそれぞれ特徴点を抽出し、その抽出した特徴点と照合対象の鼻紋画像の特徴点とを比較することによって、犬の鼻紋の照合を行う方法が提案されている。 Further, in Patent Document 2, dog candidates are extracted using a machine-learned classifier, feature points are extracted from the nose print images of the dog candidates, and the extracted feature points and the nose print to be collated are extracted. A method of collating a dog's nose print by comparing it with a feature point of an image has been proposed.

特許第4190209号Patent No. 4190209 特許第6567638号Patent No. 6567638

しかしながら、特許文献1に記載の方法では、多数のセルの線分を抽出する必要があるため、非常に処理が重く、またその線分の抽出精度により照合精度が左右され、高い照合精度を得ることができない。 However, in the method described in Patent Document 1, since it is necessary to extract line segments of a large number of cells, the processing is very heavy, and the collation accuracy is influenced by the extraction accuracy of the line segments, and high collation accuracy is obtained. Can't.

また、特許文献2に記載の方法では、鼻紋画像に対して平滑化処理を複数回実行し、その平滑化した画像ごとの差分から輝度の勾配方向等を検出することで特徴点を算出しているが、このような方法で算出した特徴点の比較による照合では、高い照合精度を得ることができないことが分かった。 Further, in the method described in Patent Document 2, a smoothing process is executed a plurality of times on a nose print image, and feature points are calculated by detecting the gradient direction of luminance from the difference between the smoothed images. However, it was found that high collation accuracy cannot be obtained by collation by comparing feature points calculated by such a method.

また、特許文献2では、犬の2つの目、鼻、2つの耳のつけ根および額の頂点の6つの点から鼻の位置を検出しているが、たとえば犬の画像に耳が全く含まれていない場合や、犬が正面を向いておらず一方の耳しか含まれていない場合には、2つの耳の位置が特定できないので、鼻の位置を検出することができず、鼻紋画像を得ることができない。すなわち、特許文献2では、犬が正面を向き、かつ犬の顔全体が撮影されていなければ照合処理を行うことができない。 Further, in Patent Document 2, the position of the nose is detected from six points of the dog's two eyes, nose, two ears, and the apex of the forehead. If there is no dog, or if the dog is not facing forward and contains only one ear, the positions of the two ears cannot be identified, so the position of the nose cannot be detected and a nose print image is obtained. I can't. That is, in Patent Document 2, the collation process cannot be performed unless the dog faces the front and the entire face of the dog is photographed.

本発明は、上記の問題に鑑み、鼻紋画像の照合を高精度に行うことができる鼻紋照合装置および方法並びにプログラムを提供することを目的とする。 In view of the above problems, it is an object of the present invention to provide a nose print collation device, a method and a program capable of collating a nose print image with high accuracy.

本発明の鼻紋照合装置は、予め撮影された複数の顔画像に含まれる鼻紋の位置情報を用いて機械学習された鼻紋検出用ニューラルネットワークに対して、任意の顔を撮影した顔画像を入力することによって顔画像に含まれる鼻紋の位置を推定する鼻紋位置推定部と、鼻紋位置推定部によって推定された鼻紋の位置に基づいて鼻紋領域を特定し、その特定した鼻紋領域の鼻紋画像を抽出する鼻紋画像抽出部と、予め取得された複数の鼻紋画像を用いて機械学習された鼻紋画像分類用ニューラルネットワークに対して、照合される複数の鼻紋画像を入力することによって、複数の鼻紋画像の特徴量を取得する鼻紋画像特徴量取得部と、複数の鼻紋画像の特徴量に基づいて、複数の鼻紋画像を照合し、その照合の結果を出力する鼻紋画像照合部とを備える。 The nose print collating device of the present invention is a face image obtained by photographing an arbitrary face with respect to a neural network for detecting nose prints machine-learned using the position information of the nose prints included in a plurality of face images taken in advance. The nose print area is specified based on the nose print position estimation unit that estimates the position of the nose print included in the face image and the nose print position estimated by the nose print position estimation unit, and the identification is performed. A plurality of noses to be collated against a nose print image extraction unit that extracts a nose print image in a nose print region and a neural network for classifying a nose print image machine-learned using a plurality of previously acquired nose print images. A nose print image feature amount acquisition unit that acquires the feature amount of a plurality of nose print images by inputting a pattern image, and a plurality of nose print images are collated based on the feature amounts of the plurality of nose print images, and the same. It is provided with a nose print image collation unit that outputs the collation result.

また、上記本発明の鼻紋照合装置において、鼻紋画像特徴量取得部は、特徴量として特徴ベクトルを取得することができる。 Further, in the nose print collation device of the present invention, the nose print image feature amount acquisition unit can acquire a feature vector as a feature amount.

また、上記本発明の鼻紋照合装置において、鼻紋画像照合部は、複数の鼻紋画像の特徴ベクトルに基づいて、複数の鼻紋画像の類似度を算出することができる。 Further, in the nose print collation device of the present invention, the nose print collation unit can calculate the similarity of a plurality of nose print images based on the feature vectors of the plurality of nose print images.

また、上記本発明の鼻紋照合装置において、鼻紋検出用ニューラルネットワークは、予め撮影された複数の顔画像に対して、鼻紋の全部または一部を囲むマークを付した画像が入力されて機械学習されたものとすることができる。 Further, in the nose print collating device of the present invention, the neural network for detecting the nose print is input with an image having a mark surrounding all or a part of the nose print for a plurality of face images taken in advance. It can be machine-learned.

また、上記本発明の鼻紋照合装置において、上記予め撮影された複数の顔画像は、顔を正面方向以外の方向から撮影した顔画像であって、鼻紋の全部または一部を囲むマークが付された顔画像を含むことができる。 Further, in the nose print collating device of the present invention, the plurality of face images taken in advance are face images taken from a direction other than the front direction, and marks surrounding all or part of the nose print are present. The attached facial image can be included.

また、上記本発明の鼻紋照合装置において、鼻紋は、牛の鼻紋とすることができる。 Further, in the nose print collating device of the present invention, the nose print can be a cow nose print.

本発明の鼻紋照合方法は、予め撮影された複数の顔画像に含まれる鼻紋の位置情報を用いて機械学習された鼻紋検出用ニューラルネットワークに対して、任意の顔を撮影した顔画像を入力することによって顔画像に含まれる鼻紋の位置を推定し、その推定した鼻紋の位置に基づいて鼻紋領域を特定し、その特定した鼻紋領域の鼻紋画像を抽出し、予め取得された複数の鼻紋画像を用いて機械学習された鼻紋画像分類用ニューラルネットワークに対して、照合される複数の鼻紋画像を入力することによって、複数の鼻紋画像の特徴量を取得し、複数の鼻紋画像の特徴量に基づいて、複数の鼻紋画像を照合し、その照合の結果を出力する。 The nose print collation method of the present invention is a face image obtained by photographing an arbitrary face with respect to a neural network for detecting nose prints machine-learned using the position information of the nose prints included in a plurality of face images taken in advance. By inputting, the position of the nose print included in the face image is estimated, the nose print area is specified based on the estimated position of the nose print, and the nose print image of the specified nose print area is extracted in advance. By inputting multiple nasal print images to be matched against a neural network for nasal print image classification machine-learned using multiple acquired nasal print images, feature quantities of multiple nasal print images are acquired. Then, based on the feature quantities of the plurality of nose print images, the plurality of nose print images are collated, and the collation result is output.

本発明の鼻紋照合プログラムは、予め撮影された複数の顔画像に含まれる鼻紋の位置情報を用いて機械学習された鼻紋検出用ニューラルネットワークに対して、任意の顔を撮影した顔画像を入力することによって顔画像に含まれる鼻紋の位置を推定するステップと、推定した鼻紋の位置に基づいて鼻紋領域を特定し、その特定した鼻紋領域の鼻紋画像を抽出するステップと、予め取得された複数の鼻紋画像を用いて機械学習された鼻紋画像分類用ニューラルネットワークに対して、照合される複数の鼻紋画像を入力することによって、複数の鼻紋画像の特徴量を取得するステップと、複数の鼻紋画像の特徴量に基づいて、複数の鼻紋画像を照合し、その照合の結果を出力するステップとをコンピュータに実行させる。 The nose print collation program of the present invention is a face image obtained by photographing an arbitrary face with respect to a neural network for detecting nose prints machine-learned using the position information of the nose prints included in a plurality of face images taken in advance. A step of estimating the position of the nose print included in the face image by inputting, and a step of specifying the nose print area based on the estimated position of the nose print and extracting the nose print image of the specified nose print area. And, by inputting a plurality of nasal print images to be collated into a neural network for classifying nasal print images machine-learned using a plurality of nasal print images acquired in advance, features of a plurality of nasal print images. A computer is made to perform a step of acquiring the amount and a step of collating a plurality of nose print images based on the feature quantities of the plurality of nose print images and outputting the collation result.

本発明の鼻紋照合装置および方法並びにプログラムによれば、鼻紋検出用ニューラルネットワークを用いて顔画像に含まれる鼻紋の位置を推定するとともに、鼻紋画像分類用ニューラルネットワークを用いて複数の鼻紋画像の特徴量を取得し、その取得した複数の鼻紋画像の特徴量に基づいて、複数の鼻紋画像を照合するようにしたので、すなわち鼻紋位置の推定と鼻紋画像の特徴量の取得との2段階でニューラルネットワークを用いて鼻紋画像の照合を行うようにしたので、鼻紋画像の照合を高精度に行うことができる。 According to the nose print collation device, method and program of the present invention, the position of the nose print included in the face image is estimated using the nose print detection neural network, and a plurality of nose print classification neural networks are used. Since the feature amount of the nose print image was acquired and the multiple nose print images were collated based on the feature quantity of the acquired multiple nose print images, that is, the estimation of the nose print position and the feature of the nose print image were performed. Since the collation of the nose print image is performed using the neural network in two steps of the acquisition of the quantity, the collation of the nose print image can be performed with high accuracy.

本発明の鼻紋照合装置の一実施形態を用いた鼻紋照合システムの概略構成を示すブロック図A block diagram showing a schematic configuration of a nasal print matching system using an embodiment of the nasal print matching device of the present invention. 鼻紋検出用ニューラルネットワークに入力される牛の顔画像の一例を示す図A diagram showing an example of a cow's face image input to a neural network for detecting nose prints. 図1に示す鼻紋照合システムの処理の流れを示すフローチャートA flowchart showing the processing flow of the nose print matching system shown in FIG.

以下、本発明の鼻紋照合装置の一実施形態を用いた鼻紋照合システムについて、図面を参照しながら詳細に説明する。図1は、本実施形態の鼻紋照合システム1の概略構成図である。 Hereinafter, a nasal print collation system using an embodiment of the nasal print collation device of the present invention will be described in detail with reference to the drawings. FIG. 1 is a schematic configuration diagram of the nose print collation system 1 of the present embodiment.

本実施形態の鼻紋照合システム1は、図1に示すように、鼻紋照合装置10と、撮影装置20と、表示装置30とを備えている。鼻紋照合装置10と撮影装置20および表示装置30との間は、有線または無線によって通信可能に接続されており、種々の信号のやり取りが可能に構成されている。 As shown in FIG. 1, the nasal print collation system 1 of the present embodiment includes a nasal print collation device 10, an imaging device 20, and a display device 30. The nose print collating device 10 and the photographing device 20 and the display device 30 are communicably connected by wire or wirelessly, and are configured to enable exchange of various signals.

本実施形態の鼻紋照合装置10は、牛の顔を撮影した顔画像を複数受け付け、その複数の顔画像から鼻紋を含む鼻紋画像をそれぞれ抽出し、これらの鼻紋画像を照合することによって、同じ牛の鼻紋画像であるか否かを判定可能とする。 The nose print collation device 10 of the present embodiment receives a plurality of facial images obtained by photographing a cow's face, extracts each of the nose print images including the nose print from the plurality of face images, and collates these nose print images. It is possible to determine whether or not the image is the same cow's nose print.

鼻紋照合装置10は、図1に示すように、鼻紋位置推定部11と、鼻紋画像抽出部12と、鼻紋画像特徴量取得部13と、鼻紋画像照合部14とを備えている。 As shown in FIG. 1, the nose print collation device 10 includes a nose print position estimation unit 11, a nose print image extraction unit 12, a nose print image feature amount acquisition unit 13, and a nose print image matching unit 14. There is.

鼻紋照合装置10は、たとえばコンピュータから構成されるものであり、CPU(Central Processing Unit)、半導体メモリおよびハードディスクなどの記憶媒体並びに通信I/Fなどを備えている。 The nose print collating device 10 is composed of, for example, a computer, and includes a CPU (Central Processing Unit), a storage medium such as a semiconductor memory and a hard disk, a communication I / F, and the like.

鼻紋照合装置10の半導体メモリまたはハードディスクには、本発明の鼻紋照合プログラムの一実施形態がインストールされている。そして、この鼻紋照合プログラムが、CPUによって実行されることによって、上述した鼻紋位置推定部11、鼻紋画像抽出部12、鼻紋画像特徴量取得部13および鼻紋画像照合部14が機能する。 An embodiment of the nose print matching program of the present invention is installed in the semiconductor memory or the hard disk of the nose print matching device 10. Then, when this nose print matching program is executed by the CPU, the above-mentioned nose print position estimation unit 11, nose print image extraction unit 12, nose print image feature amount acquisition unit 13, and nose print image matching unit 14 function. do.

なお、本実施形態においては、上述した各部の機能を全て鼻紋照合プログラムによって実行するようにしたが、これに限らず、一部または全部の機能をASIC(Application Specific Integrated Circuit)やFPGA(Field-Programmable Gate Array)、その他の電気回路などのハードウェアから構成するようにしてもよい。 In addition, in this embodiment, all the functions of the above-mentioned parts are executed by the nose print collation program, but the present invention is not limited to this, and some or all the functions are performed by ASIC (Application Specific Integrated Circuit) or FPGA (Field). -Programmable Gate Array) and other hardware such as electric circuits may be configured.

鼻紋位置推定部11は、任意の牛の顔を撮影した顔画像を受け付け、その顔画像に含まれる牛の鼻紋の位置を推定する。具体的には、本実施形態の鼻紋位置推定部11は、予め撮影された複数の牛の顔画像に含まれる鼻紋の位置情報を用いて機械学習された鼻紋検出用ニューラルネットワークを記憶する。鼻紋検出用ニューラルネットワークとしては、VGC16、ResNet、SENe、Darknetなどの構造を有する畳み込みニューラルネットワークを用いることができる。 The nose print position estimation unit 11 receives a face image of an arbitrary cow's face and estimates the position of the cow's nose print included in the face image. Specifically, the nose print position estimation unit 11 of the present embodiment stores a neural network for nose print detection machine-learned using the position information of the nose print included in the face images of a plurality of cows taken in advance. do. As the neural network for detecting the nose print, a convolutional neural network having a structure such as VGC16, ResNet, SENe, Darknet can be used.

図2は、上述した鼻紋検出用ニューラルネットワークに入力される牛の顔画像の一例を示す図である。図2に示すように、牛の顔画像には、鼻紋の位置情報を示す指標として、たとえば矩形のマークが付される。鼻紋検出用ニューラルネットワークには、上述した矩形のマークが付された牛の顔画像が多数入力されて機械学習が行われる。 FIG. 2 is a diagram showing an example of a cow face image input to the above-mentioned neural network for detecting nose prints. As shown in FIG. 2, the cow's face image is marked with, for example, a rectangle as an index indicating the position information of the nose print. A large number of cow face images with the above-mentioned rectangular marks are input to the neural network for detecting nose prints, and machine learning is performed.

矩形マークとしては、鼻紋の全部または一部を囲む矩形マークであることが好ましい。鼻紋の全部を囲む矩形マークとしては、鼻紋の外周を円または楕円で囲んだ場合に、その円または楕円に接する矩形マークを用いることができる。また、鼻紋の一部を囲む矩形マークとしては、たとえば鼻紋の中心近傍を囲む矩形マークを用いることができる。なお、鼻紋を囲むマークの形状は矩形に限らず、円、楕円またはその他の多角形でもよい。 The rectangular mark is preferably a rectangular mark that surrounds all or part of the nose print. As the rectangular mark that surrounds the entire nose print, when the outer circumference of the nose print is surrounded by a circle or an ellipse, a rectangular mark that touches the circle or the ellipse can be used. Further, as the rectangular mark surrounding a part of the nose print, for example, a rectangular mark surrounding the vicinity of the center of the nose print can be used. The shape of the mark surrounding the nose print is not limited to a rectangle, and may be a circle, an ellipse, or another polygon.

また、牛の顔画像としては、牛がカメラなどの撮影装置に向かって正面を向いている顔画像に限らず、その他の方向を向いている顔画像も含まれていることが好ましい。ただし、その他の方向を向いている顔画像には、上記矩形マークが必ず含まれているものとする。 Further, the face image of the cow is not limited to the face image in which the cow faces the front toward a photographing device such as a camera, but also preferably includes the face image in which the cow faces in another direction. However, it is assumed that the above rectangular mark is always included in the face image facing in other directions.

上述したように正面以外の方向を向いている顔画像も含めて機械学習を行うことによって、たとえば照合対象の顔画像が正面以外の方向を向いて撮影された顔画像であっても、鼻紋の位置を適切に推定することができる。 By performing machine learning including a face image facing a direction other than the front as described above, for example, even if the face image to be collated is a face image taken in a direction other than the front, the nose print. The position of can be estimated appropriately.

そして、鼻紋位置推定部11は、上述した鼻紋検出用ニューラルネットワークに対して、任意の牛の顔を撮影した顔画像を入力することによって、その顔画像に含まれる牛の鼻紋の位置を推定する。具体的には、鼻紋位置推定部11は、入力された顔画像に含まれる鼻紋の位置を示す矩形を推定し、その矩形の位置情報を鼻紋画像抽出部12に出力する。 Then, the nose print position estimation unit 11 inputs a face image obtained by photographing an arbitrary cow's face to the above-mentioned neural network for nose print detection, and the position of the cow's nose print included in the face image. To estimate. Specifically, the nose print position estimation unit 11 estimates a rectangle indicating the position of the nose print included in the input face image, and outputs the position information of the rectangle to the nose print image extraction unit 12.

鼻紋画像抽出部12は、鼻紋位置推定部11によって推定された鼻紋の位置に基づいて鼻紋領域を特定し、その特定した鼻紋領域の鼻紋画像を抽出する。具体的には、本実施形態の鼻紋画像抽出部12は、鼻紋位置推定部11によって推定された鼻紋の位置を示す矩形内の画像を鼻紋画像として抽出する。なお、顔画像から抽出する鼻紋画像の範囲としては、これに限らず、上記矩形の範囲を基準として、大きめに抽出したり、小さめに抽出したりするようにしてもよい。 The nose print image extraction unit 12 identifies the nose print region based on the position of the nose print estimated by the nose print position estimation unit 11, and extracts the nose print image of the specified nose print region. Specifically, the nose print image extraction unit 12 of the present embodiment extracts an image in a rectangle indicating the position of the nose print estimated by the nose print position estimation unit 11 as a nose print image. The range of the nose print image to be extracted from the face image is not limited to this, and may be extracted larger or smaller based on the range of the rectangle.

鼻紋画像特徴量取得部13は、鼻紋画像抽出部12によって抽出された複数の鼻紋画像を受け付け、その複数の鼻紋画像の特徴量を取得する。具体的には、本実施形態の鼻紋画像特徴量取得部13は、予め取得された複数の鼻紋画像を用いて機械学習された鼻紋画像分類用ニューラルネットワークを記憶する。鼻紋画像分類用ニューラルネットワークとしては、VGC16、ResNet、SENe、Darknetなどの構造を有する畳み込みニューラルネットワークを用いることができる。 The nose print image feature amount acquisition unit 13 receives a plurality of nose print images extracted by the nose print image extraction unit 12 and acquires the feature amounts of the plurality of nose print images. Specifically, the nose print image feature amount acquisition unit 13 of the present embodiment stores a neural network for classifying nose print images machine-learned using a plurality of previously acquired nose print images. As the neural network for classifying the nose print, a convolutional neural network having a structure such as VGC16, ResNet, SENe, Darknet can be used.

そして、本実施形態の鼻紋画像特徴量取得部13は、鼻紋画像分類用ニューラルネットワークに対して鼻紋画像を入力し、鼻紋画像を低次元の特徴ベクトルに変換する。すなわち鼻紋画像のエンコードを行って特徴ベクトルに変換する。具体的には、鼻紋画像分類用ニューラルネットワークの中間層の出力を取り出すことによって、鼻紋画像の特徴ベクトルを取得する。 Then, the nose print image feature amount acquisition unit 13 of the present embodiment inputs the nose print image to the neural network for classification of the nose print image, and converts the nose print image into a low-dimensional feature vector. That is, the nose print image is encoded and converted into a feature vector. Specifically, the feature vector of the nasal print image is acquired by extracting the output of the intermediate layer of the neural network for nasal print image classification.

本実施形態では、鼻紋画像特徴量取得部13に対して、複数の鼻紋画像を入力し、各鼻紋画像の特徴ベクトルを取得する。 In the present embodiment, a plurality of nose print images are input to the nose print image feature amount acquisition unit 13, and the feature vector of each nose print image is acquired.

鼻紋画像照合部14は、鼻紋画像特徴量取得部13によって取得された複数の鼻紋画像の特徴ベクトルに基づいて、複数の鼻紋画像を照合し、その照合の結果を出力する。具体的には、本実施形態の鼻紋画像照合部14は、2つの鼻紋画像の照合処理として、2つの鼻紋画像の特徴ベクトルの類似度を算出する。類似度の算出方法としては、たとえば2つの特徴ベクトルのユークリッド距離や、コサイン類似度を算出する。このように、複数の鼻紋画像の特徴ベクトルの類似度を算出することによって、複数の鼻紋画像の照合を高精度に行うことができる。 The nose print image collation unit 14 collates a plurality of nose print images based on the feature vectors of the plurality of nose print images acquired by the nose print image feature amount acquisition unit 13, and outputs the collation result. Specifically, the nose print image matching unit 14 of the present embodiment calculates the similarity of the feature vectors of the two nose print images as the matching process of the two nose print images. As a method of calculating the similarity, for example, the Euclidean distance between the two feature vectors and the cosine similarity are calculated. In this way, by calculating the similarity of the feature vectors of the plurality of nose print images, it is possible to collate the plurality of nose print images with high accuracy.

そして、鼻紋画像照合部14は、算出した類似度に基づいて、照合の結果を出力する。照合結果の出力方法としては、たとえば類似度自体を出力するようにしてもよいし、類似度が、予め設定された閾値以上であるか否かを判定し、閾値以上であれば「照合成立」の情報を出力し、閾値未満であれば「照合不成立」の情報を出力するようにしてもよい。 Then, the nose print image collation unit 14 outputs the collation result based on the calculated similarity. As a method of outputting the collation result, for example, the similarity itself may be output, or it is determined whether or not the similarity is equal to or higher than a preset threshold value, and if it is equal to or higher than the threshold value, "collation is established". Information may be output, and if it is less than the threshold value, the information of "verification failure" may be output.

撮影装置20は、カメラなどを備えたものであり、照合対象の牛の顔を撮影し、その撮影された顔画像を鼻紋照合装置10に出力する。 The photographing device 20 is provided with a camera or the like, photographs the face of the cow to be collated, and outputs the photographed face image to the nose print collating device 10.

表示装置30は、液晶ディスプレイなどの表示デバイスを備えたものであり、ユーザに対して種々の情報を提示する。具体的には、本実施形態の表示装置30は、鼻紋照合装置10に入力された牛の顔画像、鼻紋画像抽出部12によって抽出された鼻紋画像および鼻紋画像照合部14から出力された照合結果を表示する。 The display device 30 includes a display device such as a liquid crystal display, and presents various information to the user. Specifically, the display device 30 of the present embodiment outputs a cow face image input to the nose print collation device 10, a nose print image extracted by the nose print image extraction unit 12, and a nose print image matching unit 14. Display the collation result.

また、鼻紋照合装置10、撮影装置20および表示装置30を、カメラ機能を有するタブレット端末によって構成するようにしてもよい。 Further, the nose print collation device 10, the photographing device 20, and the display device 30 may be configured by a tablet terminal having a camera function.

次に、本実施形態の鼻紋照合システム1の処理の流れについて、図3に示すフローチャートを参照しながら、より詳細に説明する。 Next, the processing flow of the nose print collation system 1 of the present embodiment will be described in more detail with reference to the flowchart shown in FIG.

まず、撮影装置20を用いて照合対象の牛の顔画像が撮影され、その撮影された顔画像が、鼻紋照合装置10に入力される(S10)。 First, a face image of a cow to be collated is photographed using the photographing device 20, and the photographed face image is input to the nose print collation device 10 (S10).

鼻紋照合装置10に入力された顔画像は、上述した鼻紋検出用ニューラルネットワークに対して入力され、その顔画像に含まれる牛の鼻紋の位置が推定される(S12)。 The face image input to the nose print collating device 10 is input to the above-mentioned neural network for detecting nose prints, and the position of the nose print of the cow included in the face image is estimated (S12).

次いで、その推定された牛の鼻紋の位置に基づいて鼻紋領域が特定され、その特定された鼻紋領域の鼻紋画像が顔画像から抽出される(S14)。 Next, a nasal print region is identified based on the estimated position of the bovine nasal print, and a nasal print image of the identified nasal print region is extracted from the facial image (S14).

抽出された鼻紋画像は、上述した鼻紋画像分類用ニューラルネットワークに入力され、エンコードが行われて特徴ベクトルが取得される(S16)。 The extracted nose print image is input to the above-mentioned neural network for nose print image classification, encoded, and a feature vector is acquired (S16).

そして、今回撮影された牛の顔画像から取得された鼻紋画像の特徴ベクトルと、以前に撮影された牛の顔画像に基づいて、上述したS10~S16と同様の処理を行うことによって取得された鼻紋画像の特徴ベクトルとの類似度が算出されることによって照合処理が行われる(S18)。 Then, based on the feature vector of the nose print image acquired from the cow face image taken this time and the cow face image taken before, it is acquired by performing the same processing as S10 to S16 described above. The collation process is performed by calculating the similarity with the feature vector of the nose print image (S18).

そして、照合結果が表示装置30に表示されることによって、ユーザに提示される(S20)。 Then, the collation result is displayed on the display device 30 and presented to the user (S20).

上記実施形態の鼻紋照合システムによれば、鼻紋検出用ニューラルネットワークを用いて顔画像に含まれる鼻紋の位置を推定するとともに、鼻紋画像分類用ニューラルネットワークを用いて複数の鼻紋画像の特徴量を取得し、その取得した複数の鼻紋画像の特徴量に基づいて、複数の鼻紋画像を照合するようにしたので、すなわち鼻紋位置の推定と鼻紋画像の特徴量の取得との2段階のニューラルネットワークを用いて鼻紋画像の照合を行うようにしたので、鼻紋画像の照合を高精度に行うことができる。 According to the nose print matching system of the above embodiment, the position of the nose print included in the face image is estimated using the nose print detection neural network, and a plurality of nose print images are estimated using the nose print image classification neural network. The feature amount of the Since the collation of the nose print image is performed using the two-step neural network of the above, the collation of the nose print image can be performed with high accuracy.

なお、上記実施形態の説明では、2つの牛の顔画像の照合を行うようにしたが、これに限らず、複数の牛の顔画像を予め記憶しておき、今回撮影した牛の顔画像から取得された鼻紋画像の特徴ベクトルと、予め記憶された複数の顔画像から取得された複数の鼻紋画像の特徴ベクトルとをそれぞれ照合するようにしてもよい。 In the description of the above embodiment, the two cow face images are collated, but the present invention is not limited to this, and the face images of a plurality of cows are stored in advance and the cow face images taken this time are used. The feature vector of the acquired nose print image may be collated with the feature vector of the plurality of nose print images acquired from the plurality of face images stored in advance.

そして、予め記憶された複数の牛の顔画像の中から、今回撮影された牛と同一の牛の顔画像を特定することによって、今回撮影された牛を特定するようにしてもよい。 Then, the cow photographed this time may be identified by specifying the face image of the same cow as the cow photographed this time from the face images of the plurality of cows stored in advance.

また、上記実施形態の鼻紋照合システム1では、牛の鼻紋の照合を行うようにしたが、牛に限らず、たとえば犬や猫などといったその他の生物の鼻紋の照合を行うようにしてもよい。 Further, in the nose print collation system 1 of the above embodiment, the nose print of a cow is collated, but the nose print of not only a cow but also other organisms such as dogs and cats is collated. May be good.

1 鼻紋照合システム
10 鼻紋照合装置
11 鼻紋位置推定部
12 鼻紋画像抽出部
13 鼻紋画像特徴量取得部
14 鼻紋画像照合部
20 撮影装置
30 表示装置
1 Nose print matching system 10 Nose print matching device 11 Nose print position estimation unit 12 Nose print image extraction unit 13 Nose print image feature amount acquisition unit 14 Nose print image matching unit 20 Imaging device 30 Display device

Claims (8)

予め撮影された複数の顔画像に含まれる鼻紋の位置情報を用いて機械学習された鼻紋検出用ニューラルネットワークに対して、任意の顔を撮影した顔画像を入力することによって前記顔画像に含まれる鼻紋の位置を推定する鼻紋位置推定部と、
前記鼻紋位置推定部によって推定された鼻紋の位置に基づいて鼻紋領域を特定し、該特定した鼻紋領域の鼻紋画像を抽出する鼻紋画像抽出部と、
予め取得された複数の前記鼻紋画像を用いて機械学習された鼻紋画像分類用ニューラルネットワークに対して、照合される複数の前記鼻紋画像を入力することによって、前記複数の鼻紋画像の特徴量を取得する鼻紋画像特徴量取得部と、
前記複数の鼻紋画像の特徴量に基づいて、前記複数の鼻紋画像を照合し、該照合の結果を出力する鼻紋画像照合部とを備えた鼻紋照合装置。
By inputting a face image of an arbitrary face into a neural network for detecting a nose print machine-learned using the position information of the nose print included in a plurality of face images taken in advance, the face image can be obtained. The nose print position estimation unit that estimates the position of the included nose print,
A nasal print image extraction unit that identifies a nasal print region based on the position of the nasal print estimated by the nasal print position estimation unit and extracts a nasal print image of the specified nasal print region.
By inputting the plurality of the nasal print images to be collated into the neural network for classifying the nasal print images machine-learned using the plurality of the nasal print images acquired in advance, the plurality of nasal print images can be obtained. Nose print image to acquire features
A nose print collation device including a nose print image collation unit that collates the plurality of nose print images based on the feature amounts of the plurality of nose print images and outputs the collation result.
前記鼻紋画像特徴量取得部が、前記特徴量として特徴ベクトルを取得する請求項1記載の鼻紋照合装置。 The nose print collation device according to claim 1, wherein the nose print image feature amount acquisition unit acquires a feature vector as the feature amount. 前記鼻紋画像照合部が、前記複数の鼻紋画像の特徴ベクトルに基づいて、前記複数の鼻紋画像の類似度を算出する請求項1または2記載の鼻紋照合装置。 The nose print matching device according to claim 1 or 2, wherein the nose print matching unit calculates the similarity of the plurality of nose print images based on the feature vectors of the plurality of nose print images. 前記鼻紋検出用ニューラルネットワークが、前記予め撮影された複数の顔画像に対して、前記鼻紋の全部または一部を囲むマークを付した画像が入力されて機械学習されたものである請求項1から3いずれか1項記載の鼻紋照合装置。 The claim that the neural network for detecting a nose print is machine-learned by inputting an image with a mark surrounding all or a part of the nose print on a plurality of face images taken in advance. The nose print collating device according to any one of 1 to 3. 前記予め撮影された複数の顔画像が、顔を正面方向以外の方向から撮影した顔画像であって、前記鼻紋の全部または一部を囲むマークが付された顔画像を含む請求項4記載の鼻紋照合装置。 The fourth aspect of claim 4, wherein the plurality of face images taken in advance are face images taken from a direction other than the front direction, and include a face image with a mark surrounding all or part of the nose print. Nose print matching device. 前記鼻紋が、牛の鼻紋である請求項1から5いずれか1項記載の鼻紋照合装置。 The nose print collating device according to any one of claims 1 to 5, wherein the nose print is a cow nose print. 予め撮影された複数の顔画像に含まれる鼻紋の位置情報を用いて機械学習された鼻紋検出用ニューラルネットワークに対して、任意の顔を撮影した顔画像を入力することによって前記顔画像に含まれる鼻紋の位置を推定し、
該推定した鼻紋の位置に基づいて鼻紋領域を特定し、該特定した鼻紋領域の鼻紋画像を抽出し、
予め取得された複数の前記鼻紋画像を用いて機械学習された鼻紋画像分類用ニューラルネットワークに対して、照合される複数の前記鼻紋画像を入力することによって、前記複数の鼻紋画像の特徴量を取得し、
前記複数の鼻紋画像の特徴量に基づいて、前記複数の鼻紋画像を照合し、該照合の結果を出力する鼻紋照合方法。
By inputting a face image of an arbitrary face into a neural network for detecting a nose print machine-learned using the position information of the nose print included in a plurality of face images taken in advance, the face image can be obtained. Estimate the position of the included nose print and
The nasal print region is specified based on the estimated position of the nasal print, and the nasal print image of the specified nasal print region is extracted.
By inputting the plurality of the nasal print images to be collated into the neural network for classifying the nasal print images machine-learned using the plurality of the nasal print images acquired in advance, the plurality of nasal print images can be obtained. Get the feature amount,
A nose print collation method in which the plurality of nose print images are collated based on the feature amounts of the plurality of nose print images, and the collation result is output.
予め撮影された複数の顔画像に含まれる鼻紋の位置情報を用いて機械学習された鼻紋検出用ニューラルネットワークに対して、任意の顔を撮影した顔画像を入力することによって前記顔画像に含まれる鼻紋の位置を推定するステップと、
該推定した鼻紋の位置に基づいて鼻紋領域を特定し、該特定した鼻紋領域の鼻紋画像を抽出するステップと、
予め取得された複数の前記鼻紋画像を用いて機械学習された鼻紋画像分類用ニューラルネットワークに対して、照合される複数の前記鼻紋画像を入力することによって、前記複数の鼻紋画像の特徴量を取得するステップと、
前記複数の鼻紋画像の特徴量に基づいて、前記複数の鼻紋画像を照合し、該照合の結果を出力するステップとをコンピュータに実行させる鼻紋照合プログラム。
By inputting a face image of an arbitrary face into a neural network for detecting a nose print machine-learned using the position information of the nose print included in a plurality of face images taken in advance, the face image can be obtained. Steps to estimate the position of the included nose print,
A step of identifying a nasal print region based on the estimated position of the nasal print and extracting a nasal print image of the specified nasal print region.
By inputting the plurality of the nasal print images to be collated into the neural network for classifying the nasal print images machine-learned using the plurality of the nasal print images acquired in advance, the plurality of nasal print images can be obtained. Steps to acquire features and
A nose print collation program that causes a computer to perform a step of collating the plurality of nose print images based on the feature amounts of the plurality of nose print images and outputting the collation result.
JP2020154289A 2020-09-15 2020-09-15 Nose print matching device and method and program Active JP6795243B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020154289A JP6795243B1 (en) 2020-09-15 2020-09-15 Nose print matching device and method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020154289A JP6795243B1 (en) 2020-09-15 2020-09-15 Nose print matching device and method and program

Publications (2)

Publication Number Publication Date
JP6795243B1 JP6795243B1 (en) 2020-12-02
JP2022048464A true JP2022048464A (en) 2022-03-28

Family

ID=73544846

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020154289A Active JP6795243B1 (en) 2020-09-15 2020-09-15 Nose print matching device and method and program

Country Status (1)

Country Link
JP (1) JP6795243B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112784741A (en) * 2021-01-21 2021-05-11 宠爱王国(北京)网络科技有限公司 Pet identity recognition method and device and nonvolatile storage medium
CN117558034B (en) * 2024-01-05 2024-03-26 四川智迅车联科技有限公司 Multi-dimensional cow face recognition method and system based on image

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007135501A (en) * 2005-11-21 2007-06-07 Atom System:Kk Nose characteristic information-producing apparatus and nose characteristic information-producing program
JP4190209B2 (en) * 2002-05-23 2008-12-03 サージミヤワキ株式会社 Noseprint matching method
JPWO2011042950A1 (en) * 2009-10-05 2013-02-28 富士通株式会社 Biological information processing apparatus, biological information processing method, and computer program for biological information processing
JPWO2011114520A1 (en) * 2010-03-19 2013-06-27 富士通株式会社 Identification device, identification method, and program
JPWO2017033394A1 (en) * 2015-08-25 2018-06-07 ソニー株式会社 Livestock registration system and livestock registration method
JP6567638B2 (en) * 2017-12-21 2019-08-28 株式会社リクルート Noseprint matching system, noseprint matching method, and noseprint matching program
JP2020135888A (en) * 2019-02-14 2020-08-31 エヌエイチエヌ コーポレーション Similar-commodity providing method of deep learning base

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4190209B2 (en) * 2002-05-23 2008-12-03 サージミヤワキ株式会社 Noseprint matching method
JP2007135501A (en) * 2005-11-21 2007-06-07 Atom System:Kk Nose characteristic information-producing apparatus and nose characteristic information-producing program
JPWO2011042950A1 (en) * 2009-10-05 2013-02-28 富士通株式会社 Biological information processing apparatus, biological information processing method, and computer program for biological information processing
JPWO2011114520A1 (en) * 2010-03-19 2013-06-27 富士通株式会社 Identification device, identification method, and program
JPWO2017033394A1 (en) * 2015-08-25 2018-06-07 ソニー株式会社 Livestock registration system and livestock registration method
JP6567638B2 (en) * 2017-12-21 2019-08-28 株式会社リクルート Noseprint matching system, noseprint matching method, and noseprint matching program
JP2020135888A (en) * 2019-02-14 2020-08-31 エヌエイチエヌ コーポレーション Similar-commodity providing method of deep learning base

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
山下 隆義, イラストで学ぶ ディープラーニング 改訂第2版, vol. 改訂第2版, JPN6020037689, 19 November 2018 (2018-11-19), JP, pages 63 - 70, ISSN: 0004361525 *

Also Published As

Publication number Publication date
JP6795243B1 (en) 2020-12-02

Similar Documents

Publication Publication Date Title
KR102596897B1 (en) Method of motion vector and feature vector based fake face detection and apparatus for the same
US10176377B2 (en) Iris liveness detection for mobile devices
US8929595B2 (en) Dictionary creation using image similarity
US20150339516A1 (en) Collation apparatus and method for the same, and image searching apparatus and method for the same
US8270682B2 (en) Hair segmentation
WO2019061658A1 (en) Method and device for positioning eyeglass, and storage medium
US11450130B2 (en) Animal identification based on unique nose patterns
KR20150143304A (en) Image recognition device and method for registering feature data in image recognition device
JP2006293644A (en) Information processing device and information processing method
US9792484B2 (en) Biometric information registration apparatus and biometric information registration method
JP6040640B2 (en) Image processing apparatus and program
JP6795243B1 (en) Nose print matching device and method and program
KR102145132B1 (en) Surrogate Interview Prevention Method Using Deep Learning
WO2020195732A1 (en) Image processing device, image processing method, and recording medium in which program is stored
JP5730044B2 (en) Face image authentication device
CN112364827A (en) Face recognition method and device, computer equipment and storage medium
KR20190093799A (en) Real-time missing person recognition system using cctv and method thereof
JP2015197708A (en) Object identification device, object identification method, and program
US11295113B2 (en) 3D biometric identification system for identifying animals
JP6567638B2 (en) Noseprint matching system, noseprint matching method, and noseprint matching program
CN111079617A (en) Poultry identification method and device, readable storage medium and electronic equipment
JP2008065651A (en) Face image authentication method, face image authentication apparatus and program
JP4859057B2 (en) Image processing apparatus, image processing method, program, and recording medium
US20230206678A1 (en) Animal object identification apparatus based on image and method thereof
WO2024135313A1 (en) Position identification method and position identification device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200918

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200918

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201023

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201105

R150 Certificate of patent or registration of utility model

Ref document number: 6795243

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250