JP2007135501A - Nose characteristic information-producing apparatus and nose characteristic information-producing program - Google Patents

Nose characteristic information-producing apparatus and nose characteristic information-producing program Download PDF

Info

Publication number
JP2007135501A
JP2007135501A JP2005335433A JP2005335433A JP2007135501A JP 2007135501 A JP2007135501 A JP 2007135501A JP 2005335433 A JP2005335433 A JP 2005335433A JP 2005335433 A JP2005335433 A JP 2005335433A JP 2007135501 A JP2007135501 A JP 2007135501A
Authority
JP
Japan
Prior art keywords
nose
nostril
feature information
reference position
contour
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005335433A
Other languages
Japanese (ja)
Inventor
Tetsuya Hosono
哲也 細野
Takashi Tanaka
隆 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATOM SYSTEM KK
Original Assignee
ATOM SYSTEM KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATOM SYSTEM KK filed Critical ATOM SYSTEM KK
Priority to JP2005335433A priority Critical patent/JP2007135501A/en
Publication of JP2007135501A publication Critical patent/JP2007135501A/en
Pending legal-status Critical Current

Links

Landscapes

  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an apparatus which can inexpensively, easily and quickly obtain information for discriminating a pet even by a general pet owner without damaging the pet and without a special device. <P>SOLUTION: A pet control apparatus 100 comprises an image input portion 111 for inputting a front face photograph of a pet, a nose outline image extraction portion 112 for extracting a nose outline image front face photograph along the outline of the nose, a correction determining portion 113 for determining whether a prescribed correction is necessary or not for the nose outline image, then subjecting the prescribed correction to the nose outline image, when the correction is necessary, or not subjecting the prescribed correction to the nose outline image, when the correction is not necessary, and then outputting the nose outline image, an element extraction portion 114 for extracting the outline of the nose and the outlines of the first nose nostril and the second nostril from the nose outline image outputted from the correction determining portion 113, an element shape-specifying portion 115 for specifying the outline shape of the nose and the outlines of a first nose nostril and a second nostril, and a nose characteristic information production portion for producing nose characteristic information including the outline shape of the nose and the outlines of the first nose nostril and the second nostril. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、犬や猫等の哺乳類の鼻の形状と鼻孔の形状とから、犬や猫等の個体識別に使用する鼻特徴情報を生成する鼻特徴情報生成装置及び鼻特徴情報生成プログラムに関する。   The present invention relates to a nasal feature information generation apparatus and a nasal feature information generation program for generating nasal feature information used for individual identification of a dog, a cat, or the like from the shape of a nose of a mammal such as a dog or a cat and the shape of a nostril.

犬や猫等のペットを識別する方法には、ペットの特徴をデータベースに登録したり(特許文献1)、マイクロチップをペットの体内に埋め込んだり(特許文献2)、首輪につけたり(特許文献3)、あるいは、DNAを分析し結果をデータベースに登録するなどの方法がとられている。また、犬の場合は犬のIDを記録した鑑札を犬の首輪につけるなどの方法がある。また、犬や牛の場合、鼻紋によって識別する方法もとられてきた(特許文献4)。   To identify pets such as dogs and cats, pet characteristics are registered in a database (Patent Document 1), a microchip is embedded in the body of a pet (Patent Document 2), or attached to a collar (Patent Document 3). Or a method of analyzing DNA and registering the result in a database. In the case of a dog, there is a method such as attaching a signature tag recording a dog ID to the dog collar. In the case of dogs and cows, a method for identifying them by a nose pattern has been used (Patent Document 4).

これらの識別方法は、ペットを伴って保健所や動物病院、ペットショップなどに行き、IDを取得して鑑札を作成したり、マイクロチップにペットの識別IDや飼い主情報を書き込んだり、ペットのDNAを採取して分析する方法である。   These identification methods include going to health centers, animal hospitals, pet shops, etc. with pets, creating IDs and creating identification tags, writing pet identification IDs and owner information on microchips, and pet DNA. It is a method of collecting and analyzing.

マイクロチップを利用する方法は、マイクロチップそのもののコストや、マイクロチップにペット情報や飼い主情報を書き込む装置およびマイクロチップの情報を読みとる装置等にコストが掛かり、手軽に利用できるシステムとはいいがたい。   The method of using a microchip is costly for the cost of the microchip itself, a device for writing pet information and owner information on the microchip, and a device for reading the information of the microchip, etc. .

また、ペットの体内にマイクロチップを埋め込むことは、ペット個体を傷つけ苦痛を伴うものである。   Moreover, embedding a microchip in the body of a pet is hurting and painful for the individual pet.

さらに首輪がない犬も存在すること、猫には首輪はあまりつけないこと、鼻紋の採取は牛や犬の鼻を汚すものであり、牛や犬も嫌がり容易でないこと等を勘案すると、犬や猫等のペットにマイクロチップを用いたりタグを利用したり、鼻紋を採取する方法に代替する方法が必要である。さらに、これらの識別は、保健所や動物病院、ペットショップなどに行って、鑑札の検索や、マイクロチップを読み込ませたり、DNAを採取してペット情報や飼い主情報を検索する必要があった。このように、従来の方法では、ペットを識別するための情報を得るためには、保健所や動物病院、ペットショップ等に動物を持ち込む必要があった。あるいは、何らかの特殊な装置を用いたり、手術等が必要となった。そのため、一般のペットの飼い主が、ペットを識別するための情報を取得することは容易ではなかった。
特開2003−263488号公報 特開2002−10720号公報 特開2004−357589号公報 特開平9−265523号公報
In addition, there are dogs without collars, cats don't wear collars very much, and collecting nose prints is what makes cows and dogs nose dirty. There is a need for an alternative to using microchips and tags for pets such as cats and cats, and collecting noseprints. Furthermore, these identifications have to be performed at health centers, animal hospitals, pet shops, etc. to search for a label, read a microchip, collect DNA, and search pet information and owner information. As described above, in the conventional method, in order to obtain information for identifying a pet, it is necessary to bring the animal to a health center, an animal hospital, a pet shop, or the like. Alternatively, some special device or surgery is required. Therefore, it is not easy for a general pet owner to acquire information for identifying a pet.
JP 2003-263488 A JP 2002-10720 A JP 2004-357589 A JP-A-9-265523

本発明は、犬や猫等を傷つけることなく、また、特殊な装置を用いることなく、安価かつ容易にすばやく、一般のペットの飼い主でも犬や猫等のペットを識別するための情報を取得できる装置の提供を目的とする。また、この装置を用いたペット管理システムの提供を目的とする。   INDUSTRIAL APPLICABILITY The present invention can acquire information for identifying pets such as dogs and cats quickly and easily without damaging dogs and cats and without using special devices. The purpose is to provide a device. Moreover, it aims at provision of the pet management system using this apparatus.

この発明の鼻特徴情報生成装置は、
哺乳類の鼻の画像であって2つの鼻孔を含む鼻全体が撮影されている鼻撮影画像を入力する画像入力部と、
前記画像入力部が入力した鼻撮影画像から鼻の輪郭を識別し、識別した鼻の輪郭に沿って鼻撮影画像から2つの鼻孔を含む鼻の画像である鼻輪郭画像を切り出して鼻輪郭画像を抽出する鼻輪郭画像抽出部と、
前記鼻輪郭画像抽出部が抽出した鼻輪郭画像に所定の補正をする必要があるかどうかを判定し、補正の必要があると判定した場合には所定の補正を行って補正後の鼻輪郭画像を補正判定済み画像として出力し、補正の必要がないと判定した場合には補正を行うことなく鼻輪郭画像を補正判定済み画像として出力する補正判定部と、
前記補正判定部が出力した補正判定済み画像から、鼻の構成要素として、鼻の輪郭と、2つの鼻孔である第1鼻孔と第2鼻孔とのそれぞれの輪郭とを抽出する要素抽出部と、
前記要素抽出部が抽出した鼻の輪郭の形状の特定に使用する基準位置である鼻基準位置を予め定められた鼻基準位置算出方法により算出して算出した鼻基準位置と前記要素抽出部が抽出した鼻の輪郭とから鼻の輪郭形状を特定し、
前記要素抽出部が抽出した第1鼻孔の輪郭の形状の特定に使用する基準位置である第1鼻孔基準位置を予め定められた第1鼻孔基準位置算出方法により算出して算出した第1鼻孔基準位置と前記要素抽出部が抽出した第1鼻孔の輪郭とから第1鼻孔の輪郭形状を特定し、
前記要素抽出部が抽出した第2鼻孔の輪郭の形状の特定に使用する基準位置である第2鼻孔基準位置を予め定められた第2鼻孔基準位置算出方法により算出して算出した第2鼻孔基準位置と前記要素抽出部が抽出した第2鼻孔の輪郭とから第2鼻孔の輪郭形状を特定する要素形状特定部と、
前記要素形状特定部が特定した鼻の輪郭形状と、第1鼻孔の輪郭形状と、第2鼻孔の輪郭形状とを含む情報を鼻特徴情報として生成する鼻特徴情報生成部と
を備えたことを特徴とする。
The nose feature information generating device of the present invention comprises:
An image input unit for inputting a nose photographed image in which the entire nose including two nostrils is photographed;
The nose contour image is identified by identifying the outline of the nose from the nose photographed image input by the image input unit, and cutting out a nose contour image that is a nose image including two nostrils from the nose photographed image along the identified nose contour. A nose contour image extraction unit to extract;
It is determined whether or not the nose contour image extracted by the nose contour image extraction unit needs to be corrected. When it is determined that correction is necessary, the corrected nose contour image is corrected by performing the predetermined correction. A correction determination unit that outputs a nose contour image as a correction determined image without performing correction when it is determined that correction is not necessary,
An element extraction unit that extracts the outline of the nose and the outlines of the first and second nostrils, which are the two nostrils, from the correction determined image output by the correction determination unit;
The nasal reference position calculated by calculating the nasal reference position, which is a reference position used for specifying the shape of the nose outline extracted by the element extraction unit, by a predetermined nasal reference position calculation method and the element extraction unit extract Identify the shape of the nose from the contour of the nose
A first nostril reference calculated by calculating a first nostril reference position, which is a reference position used for specifying the contour shape of the first nostril extracted by the element extraction unit, by a predetermined first nostril reference position calculation method. Identifying the contour shape of the first nostril from the position and the contour of the first nostril extracted by the element extraction unit;
A second nostril reference calculated by calculating a second nostril reference position, which is a reference position used for specifying the contour shape of the second nostril extracted by the element extraction unit, by a predetermined second nostril reference position calculation method. An element shape specifying unit for specifying the contour shape of the second nostril from the position and the contour of the second nostril extracted by the element extracting unit;
A nose feature information generating unit configured to generate information including nose contour shape specified by the element shape specifying unit, contour shape of the first nostril, and contour shape of the second nostril as nose feature information; Features.

前記要素形状特定部は、
予め定められた鼻基準位置算出方法として前記要素抽出部が抽出した鼻の輪郭により定まる輪郭形状の図形の重心位置を算出して鼻基準位置とし、
予め定められた第1鼻孔基準位置算出方法として前記要素抽出部が抽出した第1鼻孔の輪郭により定まる輪郭形状の図形の重心位置を算出して第1鼻孔基準位置とし、
予め定められた第2鼻孔基準位置算出方法として前記要素抽出部が抽出した第2鼻孔の輪郭により定まる輪郭形状の図形の重心位置を算出して第2鼻孔基準位置とする
ことを特徴とする。
The element shape specifying part is
As a predetermined nose reference position calculation method, the center of gravity position of the figure of the contour shape determined by the nose outline extracted by the element extraction unit is calculated as the nose reference position,
As a first nostril reference position calculation method determined in advance, a center of gravity position of a figure having a contour shape determined by the outline of the first nostril extracted by the element extraction unit is calculated as a first nostril reference position;
As a predetermined second nostril reference position calculation method, the center of gravity position of a figure having a contour shape determined by the contour of the second nostril extracted by the element extraction unit is calculated and used as the second nostril reference position.

前記画像入力部は、
哺乳類の鼻の画像であって2つの鼻孔と、2つの鼻孔のそれぞれに対応する鼻翼と、鼻橋部とを含む鼻全体が撮影されている鼻撮影画像を入力し、
前記要素抽出部は、
鼻の構成要素として、鼻の輪郭と、2つの鼻孔である第1鼻孔と第2鼻孔とのそれぞれの輪郭と、鼻橋部と、第1鼻孔に対応する第1鼻翼と、第2鼻孔に対応する第2鼻翼とを抽出し、
前記要素形状特定部は、
予め定められた鼻基準位置算出方法として前記要素抽出部が抽出した鼻橋部に基づいて鼻基準位置を算出し、
予め定められた第1鼻孔基準位置算出方法として前記要素抽出部が抽出した第1鼻翼に基づいて第1鼻孔基準位置を算出し、
予め定められた第2鼻孔基準位置算出方法として前記要素抽出部が抽出した第2鼻翼に基づいて第2鼻孔基準位置を算出することを特徴とする。
The image input unit
Enter a nose photographed image of the entire nose, including two nostrils, a nostril corresponding to each of the two nostrils, and a nose bridge,
The element extraction unit includes:
As components of the nose, the outline of the nose, the outlines of the two nostrils, the first nostril and the second nostril, the nose bridge part, the first nostril corresponding to the first nostril, and the second nostril Extract the corresponding second nose wing,
The element shape specifying part is
Calculate the nose reference position based on the nose bridge extracted by the element extraction unit as a predetermined nose reference position calculation method,
Calculating a first nostril reference position based on the first nostril extracted by the element extraction unit as a predetermined first nostril reference position calculating method;
As a predetermined second nostril reference position calculation method, the second nostril reference position is calculated based on the second nose wing extracted by the element extraction unit.

前記要素抽出部は、
鼻橋部を帯状として抽出するとともに、第1鼻翼と第2鼻翼とのそれぞれを線分として抽出し、
前記要素形状特定部は、
予め定められた鼻基準位置算出方法として、帯状として抽出された鼻橋部上に所定の2点を設定してこの2点を通る線分であって両端が鼻の輪郭上に位置する第1線分を作成し第1線分と直交する線分であって両端が鼻の輪郭上に位置する線分のうち最も長い線分を第2線分として作成し第1線分と第2線分との交点を算出して鼻基準位置とし、
予め定められた第1鼻孔基準位置算出方法として、線分として抽出された第1鼻翼を延長することにより第1鼻孔の輪郭と2つの交点を共有する第3線分を作成し第3線分と直交する線分であって両端が第1鼻孔の輪郭上に位置する線分のうち最も長い線分を第4線分として作成し第3線分と第4線分との交点を算出して第1鼻孔基準位置とし、
予め定められた第2鼻孔基準位置算出方法として、線分として抽出された第2鼻翼を延長することにより第2鼻孔の輪郭と2つの交点を共有する第5線分を作成し第5線分と直交する線分であって両端が第2鼻孔の輪郭上に位置する線分のうち最も長い線分を第6線分として作成し第5線分と第6線分との交点を算出して第2鼻孔基準位置とすることを特徴とする。
The element extraction unit includes:
Extract the nose bridge as a band, and extract each of the first and second nose wings as line segments,
The element shape specifying part is
As a predetermined nose reference position calculation method, a predetermined two points are set on the nose bridge portion extracted as a belt-like shape, a line segment passing through the two points, and both ends thereof are positioned on the nose contour. The longest line segment is created as a second line segment that is a line segment that is orthogonal to the first line segment and whose both ends are located on the nose contour, and the first and second line segments are created. Calculate the intersection with the minute and set it as the nose reference position,
As a predetermined first nostril reference position calculation method, a third line segment is created by sharing the outline of the first nostril and two intersections by extending the first nose wing extracted as a line segment. The longest line segment among the line segments that are orthogonal to each other and whose both ends are located on the outline of the first nostril is created as the fourth line segment, and the intersection of the third and fourth line segments is calculated. To the first nostril reference position,
As a predetermined second nostril reference position calculation method, a fifth line segment is created by sharing the outline of the second nostril and two intersection points by extending the second nose wing extracted as a line segment. The longest line segment is created as the sixth line segment among the line segments that are orthogonal to each other and whose both ends are located on the outline of the second nostril, and the intersection of the fifth and sixth line segments is calculated. And the second nostril reference position.

前記要素形状特定部は、
前記要素抽出部が抽出した鼻橋部の形状を特定し、
前記鼻特徴情報生成部は、
前記要素形状特定部が特定した鼻橋部の形状を鼻特徴情報に含めて、鼻特徴情報を生成することを特徴とする。
The element shape specifying part is
Identify the shape of the nasal bridge extracted by the element extraction unit,
The nose feature information generation unit
The nasal feature information is generated by including the shape of the nasal bridge specified by the element shape specifying unit in the nasal feature information.

前記要素形状特定部は、
鼻基準位置を鼻の輪郭の内部領域のいずれかの位置として算出し、かつ、第1鼻孔基準位置を第1鼻孔の輪郭の内部領域のいずれかの位置として算出し、かつ、第2鼻孔基準位置を第2鼻孔の輪郭の内部領域のいずれかの位置として算出した場合に、
鼻基準位置を始点として互いに異なる複数の方向に向かう複数の線分であって終点が鼻の輪郭上に存在する複数の線分を設定して設定した複数の線分のそれぞれの長さと方向とから鼻の輪郭形状を特定し、
第1鼻孔基準位置を始点として互いに異なる複数の方向に向かう複数の線分であって終点が第1鼻孔の輪郭上に存在する複数の線分を設定して設定した複数の線分のそれぞれの長さと方向とから第1鼻孔の輪郭形状を特定し、
第2鼻孔基準位置を始点として互いに異なる複数の方向に向かう複数の線分であって終点が第2鼻孔の輪郭上に存在する複数の線分を設定して設定した複数の線分のそれぞれの長さと方向とから第2鼻孔の輪郭形状を特定することを特徴とする。
The element shape specifying part is
The nose reference position is calculated as any position in the inner region of the nose contour, the first nostril reference position is calculated as any position in the inner region of the first nostril contour, and the second nostril reference When the position is calculated as any position of the inner region of the outline of the second nostril,
Lengths and directions of a plurality of line segments set by setting a plurality of line segments that start from the nose reference position in a plurality of different directions and have end points on the nose outline Identify the contour shape of the nose from the
Each of a plurality of line segments that are set by setting a plurality of line segments that are in a plurality of different directions starting from the first nostril reference position and whose end points exist on the outline of the first nostril From the length and direction, specify the contour shape of the first nostril,
Each of a plurality of line segments that are set by setting a plurality of line segments that are in a plurality of different directions starting from the second nostril reference position and whose end points are present on the outline of the second nostril The contour shape of the second nostril is specified from the length and direction.

前記要素形状特定部は、
鼻基準位置を始点として略10度おきに互いに異なる36の方向に向かう36本の線分であって終点が鼻の輪郭上に存在する36本の線分を設定して設定した36本の線分のそれぞれの長さと方向とから鼻の輪郭形状を特定し、
第1鼻孔基準位置を始点として略10度おきに互いに異なる36の方向に向かう36本の線分であって終点が第1鼻孔の輪郭上に存在する36本の線分を設定して設定した36本の線分のそれぞれの長さと方向とから第1鼻孔の輪郭形状を特定し、
第2鼻孔基準位置を始点として略10度おきに互いに異なる36の方向に向かう36本の線分であって終点が第2鼻孔の輪郭上に存在する36本の線分を設定して設定した36本の線分のそれぞれの長さと方向とから第2鼻孔の輪郭形状を特定することを特徴とする。
The element shape specifying part is
36 lines set by setting 36 line segments starting from the nose reference position and extending in 36 directions that are different from each other at approximately 10 degrees and whose end points are present on the outline of the nose. Identify the contour shape of the nose from the length and direction of each minute,
The first nostril reference position is set as a starting point, and 36 line segments are set at approximately 10 degrees in different 36 directions and the end point is on the outline of the first nostril. Identify the contour shape of the first nostril from the length and direction of each of the 36 line segments,
36 line segments are set by setting 36 line segments starting from the second nostril reference position and extending in different 36 directions at intervals of approximately 10 degrees, with the end point existing on the outline of the second nostril. The contour shape of the second nostril is specified from the length and direction of each of the 36 line segments.

前記要素形状特定部は、
鼻基準位置を始点として略5度おきに互いに異なる72の方向に向かう72本の線分であって終点が鼻の輪郭上に存在する72本の線分を設定して設定した72本の線分それぞれの長さと方向とから鼻の輪郭形状を特定し、
第1鼻孔基準位置を始点として略5度おきに互いに異なる72の方向に向かう72本の線分であって終点が第1鼻孔の輪郭上に存在する72本の線分を設定して設定した72本の線分それぞれの長さと方向とから第1鼻孔の輪郭形状を特定し、
第2鼻孔基準位置を始点として略5度おきに互いに異なる72の方向に向かう72本の線分であって終点が第2鼻孔の輪郭上に存在する72本の線分を設定して設定した72本の線分それぞれの長さと方向とから第2鼻孔の輪郭形状を特定することを特徴とする。
The element shape specifying part is
72 lines set by setting 72 line segments starting from the nose reference position and starting in the direction of 72 different from each other at intervals of about 5 degrees and having the end points existing on the nose outline. Identify the contour shape of the nose from the length and direction of each minute,
72 line segments are set by setting 72 line segments that start in the first nostril reference position and move in different 72 directions at intervals of about 5 degrees and whose end points are on the outline of the first nostril. Identify the contour shape of the first nostril from the length and direction of each of the 72 line segments,
72 line segments that are in the direction of 72 different from each other at approximately every 5 degrees starting from the second nostril reference position are set and set as 72 line segments whose end points exist on the outline of the second nostril. The contour shape of the second nostril is specified from the length and direction of each of the 72 line segments.

前記鼻特徴情報生成装置は、さらに、
所定種類の哺乳類の鼻特徴情報を登録する鼻特徴情報登録部と、
送信元から前記所定種類の哺乳類の鼻撮影画像と送信元を示す送信元データとを含む送信元情報を受信し、受信した送信元情報に含まれる鼻撮影情報を前記画像入力部に出力する通信部と
を備え、
前記鼻特徴情報生成部は、
前記通信部が前記画像入力部に出力した鼻撮影画像を元にする鼻特徴情報を生成し、生成した鼻特徴情報を通信部が受信した送信元情報に含まれる送信元データに対応付けて対応付け鼻特徴情報として前記鼻特徴情報登録部に登録することを特徴とする。
The nose feature information generating device further includes:
A nasal feature information registration unit for registering nasal feature information of a predetermined type of mammal;
Communication that receives transmission source information including a nose photographed image of the predetermined type of mammal and transmission source data indicating the transmission source from the transmission source, and outputs the nose imaging information included in the received transmission source information to the image input unit With
The nose feature information generation unit
The communication unit generates nose feature information based on the nose photographed image output to the image input unit, and the generated nose feature information is associated with the transmission source data included in the transmission source information received by the communication unit. The attached nose feature information is registered in the nose feature information registration unit.

前記鼻特徴情報登録部は、
前記所定種類の哺乳類について、対応付け鼻特徴情報を複数登録しており、
前記通信部は、
前記鼻特徴情報登録部に登録されている対応付け鼻特徴情報のいずれかと一致するかどうかの判定を要求する判定要求情報であって判定要求に係る鼻撮影画像を含む判定要求情報を送信する判定要求装置から判定要求情報を受信し、受信した判定要求に係る鼻撮影画像を前記画像入力部に出力し、
前記鼻特徴情報生成部は、
前記通信部が前記画像入力部に出力した判定要求に係る鼻撮影画像を元にする鼻特徴情報である判定要求鼻特徴情報を生成し、
前記鼻特徴情報生成装置は、さらに、
前記鼻特徴情報生成部が生成した判定要求鼻特徴情報を前記鼻特徴情報登録部に登録されている複数の対応付け鼻特徴情報のそれぞれと予め定められた所定の比較方法によって比較して予め設定された検索基準に基づいて前記鼻特徴情報登録部から対応付け鼻特徴情報を検索し、検索結果を前記通信部を介して前記判定要求装置に返信する検索部を
備えたことを特徴とする。
The nose feature information registration unit
For the predetermined type of mammal, a plurality of associated nose feature information is registered,
The communication unit is
Determination request information for requesting determination as to whether or not any of the associated nose feature information registered in the nose feature information registration unit is matched, and transmitting determination request information including a nose photographed image related to the determination request Receiving determination request information from the requesting device, outputting a nose photographed image related to the received determination request to the image input unit,
The nose feature information generation unit
Generating determination request nose feature information that is nose feature information based on a nose photographed image related to the determination request output by the communication unit to the image input unit;
The nose feature information generating device further includes:
The determination request nose feature information generated by the nose feature information generation unit is set in advance by comparing each of the plurality of associated nose feature information registered in the nose feature information registration unit with a predetermined comparison method. And a nose feature information registration unit that searches the associated nose feature information from the nose feature information registration unit and returns a search result to the determination requesting device via the communication unit.

前記検索部は、
検索の結果、前記鼻特徴情報登録部から対応付け鼻特徴情報が検索できた場合には、検索結果として、検索された対応付け鼻特徴情報に対応する送信元データを返信することを特徴とする。
The search unit
As a result of the search, when the associated nose feature information can be retrieved from the nose feature information registration unit, transmission source data corresponding to the retrieved associated nose feature information is returned as a search result. .

前記通信部が受信する送信元情報は、
送信元情報に含まれる鼻撮影画像に係る前記所定種類の哺乳類の個体の特徴を示す個体特徴データを含み、
前記鼻特徴情報生成部は、
対応付け鼻特徴情報をさらに個体特徴データに対応付けて前記鼻特徴情報登録部に登録し、
前記検索部は、
検索の結果、前記鼻特徴情報登録部から対応付け鼻特徴情報が検索できた場合には、検索結果として、対応付け鼻特徴情報に対応する送信元データと個体特徴データとを返信することを特徴とする。
The transmission source information received by the communication unit is:
Including individual feature data indicating characteristics of the individual mammal of the predetermined type related to the nose photograph image included in the transmission source information,
The nose feature information generation unit
The associated nose feature information is further registered in the nose feature information registration unit in association with the individual feature data,
The search unit
As a result of the search, when the associated nose feature information can be retrieved from the nose feature information registration unit, the source data and the individual feature data corresponding to the associated nose feature information are returned as a search result. And

前記通信部が受信する個体特徴データは、
前記所定種類の哺乳類の個体の全体を撮影した全体撮影画像を含むことを特徴とする。
The individual feature data received by the communication unit is:
A whole photographed image obtained by photographing the whole mammal of the predetermined type is included.

本発明の鼻特徴情報生成プログラムは、
哺乳類の鼻の画像であって2つの鼻孔を含む鼻全体が撮影されている鼻撮影画像を入力する処理と、
入力された前記鼻撮影画像から鼻の輪郭を識別し、識別した鼻の輪郭に沿って前記鼻撮影画像から2つの鼻孔を含む鼻の画像である鼻輪郭画像を切り出して前記鼻輪郭画像を抽出する処理と、
抽出された鼻輪郭画像に所定の補正をする必要があるかどうかを判定し、補正の必要があると判定した場合には所定の補正を行って補正後の鼻輪郭画像を補正判定済み画像として出力し、補正の必要がないと判定した場合には補正を行うことなく鼻輪郭画像を補正判定済み画像として出力する処理と、
出力された補正判定済み画像から、鼻の構成要素として、鼻の輪郭と、2つの鼻孔である第1鼻孔と第2鼻孔とのそれぞれの輪郭とを抽出する処理と、
抽出された鼻の輪郭の形状の特定に使用する基準位置である鼻基準位置を予め定められた鼻基準位置算出方法により算出して算出した前記鼻基準位置と抽出された鼻の輪郭とから鼻の輪郭形状を特定し、
抽出された第1鼻孔の輪郭の形状の特定に使用する基準位置である第1鼻孔基準位置を予め定められた第1鼻孔基準位置算出方法により算出して算出した第1鼻孔基準位置と抽出された第1鼻孔の輪郭とから第1鼻孔の輪郭形状を特定し、
抽出された第2鼻孔の輪郭の形状の特定に使用する基準位置である第2鼻孔基準位置を予め定められた第2鼻孔基準位置算出方法により算出して算出した第2鼻孔基準位置と抽出された第2鼻孔の輪郭とから第2鼻孔の輪郭形状を特定する処理と、
特定された鼻の輪郭形状と、第1鼻孔の輪郭形状と、第2鼻孔の輪郭形状とを含む情報を鼻特徴情報として生成する処理と
をコンピュータに実行させることを特徴とする。
The nose feature information generation program of the present invention is
A process of inputting a nose photograph image in which the entire nose including two nostrils is photographed, which is an image of a mammal's nose;
A nose outline is identified by identifying a nose outline from the input nose photographed image, and extracting a nose outline image that is a nose outline image including two nostrils from the nose photographed image along the identified nose outline. Processing to
It is determined whether or not the extracted nose contour image needs to be corrected. If it is determined that correction is necessary, the corrected nose contour image is corrected and determined as a corrected image. A process of outputting a nose contour image as a corrected determination image without performing correction when it is determined that there is no need for correction;
A process of extracting the outline of the nose and the outlines of the two nostrils, the first nostril and the second nostril, from the output corrected and determined image,
A nose based on the nose reference position calculated by calculating a nose reference position, which is a reference position used for specifying the shape of the extracted nose outline, by a predetermined nose reference position calculation method and the extracted nose outline Identify the contour shape of
The first nostril reference position calculated by calculating the first nostril reference position, which is a reference position used for specifying the extracted contour shape of the first nostril, by a predetermined first nostril reference position calculation method is extracted. Identifying the contour shape of the first nostril from the contour of the first nostril,
A second nostril reference position calculated by calculating a second nostril reference position, which is a reference position used for specifying the contour shape of the extracted second nostril, by a predetermined second nostril reference position calculation method is extracted. A process of specifying the contour shape of the second nostril from the contour of the second nostril;
It is characterized by causing a computer to execute processing for generating information including the identified nose contour shape, the first nostril contour shape, and the second nostril contour shape as nose feature information.

本発明により、安価かつ容易にすばやく、一般のペットの飼い主でも犬や猫等のペットを識別するための情報を取得することができる。 According to the present invention, information for identifying pets such as dogs and cats can be acquired easily and quickly by a general pet owner.

実施の形態1.
図1〜図17を用いて実施の形態1を説明する。実施の形態1は、哺乳類の個体の鼻の特徴を示す鼻特徴情報を生成する鼻特徴情報生成装置に関する。以下の実施の形態では、鼻特徴情報生成装置の一例として、ペット管理装置を説明する。以下に説明するペット管理装置は、哺乳類として犬を例にしているが、これは一例である。鼻特徴情報生成装置は、人を含め、哺乳類に適用が可能である。
Embodiment 1 FIG.
The first embodiment will be described with reference to FIGS. The first embodiment relates to a nasal feature information generation apparatus that generates nasal feature information indicating the characteristics of the nose of a mammal individual. In the following embodiments, a pet management apparatus will be described as an example of a nose feature information generation apparatus. The pet management apparatus described below takes a dog as an example of a mammal, but this is an example. The nasal feature information generation device can be applied to mammals including humans.

ペット管理装置の説明の前に、図1により鼻各部の名称を説明する。図1は、鼻の各部の名称を示す図である。図1は、後述する図4の写真(鼻撮影画像)の鼻に対応する。図1において鼻尖の上部には目があり、鼻橋部の下部に口がある。2つの鼻孔のうち、図の左側の鼻孔を第1鼻孔と呼び、右側を第2鼻孔と呼ぶこととする。第1鼻孔と第2鼻孔の間に鼻橋部が存在する。また、第1鼻孔、第2鼻孔から伸びている線分状のものを鼻翼と呼ぶ。第1鼻孔の鼻翼を第1鼻翼と呼び、第2鼻孔の鼻翼を第2鼻翼と呼ぶこととする。   Prior to the description of the pet management apparatus, the names of the nose parts will be described with reference to FIG. FIG. 1 is a diagram showing names of respective parts of the nose. FIG. 1 corresponds to the nose of the photograph (nose photographed image) of FIG. 4 described later. In FIG. 1, there is an eye at the top of the nose tip and a mouth at the bottom of the nose bridge. Of the two nostrils, the nostril on the left side of the figure is called the first nostril, and the right nostril is called the second nostril. There is a nasal bridge between the first nostril and the second nostril. A line segment extending from the first nostril and the second nostril is referred to as a nose wing. The nose wing of the first nostril is referred to as the first nose wing, and the nose wing of the second nostril is referred to as the second nose wing.

図2は、実施の形態1におけるペット管理装置100(鼻特徴情報生成装置の一例)の構成図である。ペット管理装置100は、ペット情報識別部110と、ペット情報格納部120(鼻特徴情報生成部)と、ペット情報検索部130(検索部)と、通信部140と、ペット管理データベース(DB)150(鼻特徴情報登録部)と、ペット飼い主データベース(DB)160と、表示部170とを備える。また、ペット情報識別部110は、画像入力部111、鼻輪郭画像抽出部112、補正判定部113、要素抽出部114、要素形状特定部115を備えている。   FIG. 2 is a configuration diagram of the pet management apparatus 100 (an example of the nose feature information generation apparatus) in the first embodiment. The pet management apparatus 100 includes a pet information identification unit 110, a pet information storage unit 120 (nose feature information generation unit), a pet information search unit 130 (search unit), a communication unit 140, and a pet management database (DB) 150. (Nose feature information registration unit), a pet owner database (DB) 160, and a display unit 170. The pet information identification unit 110 includes an image input unit 111, a nose contour image extraction unit 112, a correction determination unit 113, an element extraction unit 114, and an element shape identification unit 115.

ペット情報識別部110は、犬(哺乳類の一例)の鼻の画像を入力し、この画像から鼻の輪郭形状、2つの鼻孔のそれぞれの輪郭形状などを特定する。   The pet information identification unit 110 inputs an image of the nose of a dog (an example of a mammal), and specifies the contour shape of the nose, the contour shape of each of the two nostrils, and the like from this image.

ペット情報格納部120(鼻特徴情報生成部)は、ペット情報識別部110が特定した鼻の輪郭形状などをもとにして鼻特徴情報を生成し、この生成した鼻特徴情報をペット管理DB150に登録する。鼻特徴情報は、図17において後述する。   The pet information storage unit 120 (nose feature information generation unit) generates nose feature information based on the contour shape of the nose specified by the pet information identification unit 110, and stores the generated nose feature information in the pet management DB 150. sign up. The nose feature information will be described later with reference to FIG.

ペット情報検索部130(検索部)は、クライアント端末等の他の装置からの検索要求に基づき、ペット管理DB150に登録されている鼻特徴情報から所定の鼻特徴情報を検索する。なお、ペット情報検索部130の詳しい説明は、実施の形態2で述べる。   The pet information search unit 130 (search unit) searches predetermined nose feature information from the nose feature information registered in the pet management DB 150 based on a search request from another device such as a client terminal. A detailed description of the pet information search unit 130 will be given in the second embodiment.

通信部140は、他の装置とネットワークを介して通信を行う。   The communication unit 140 communicates with other devices via a network.

ペット管理DB150(鼻特徴情報登録部)は、複数の犬のそれぞれの鼻特徴情報を登録し格納している。   The pet management DB 150 (nose feature information registration unit) registers and stores the nose feature information of each of a plurality of dogs.

ペット飼い主管理DB160は、鼻特徴情報に紐付けされたペット飼い主のデータを格納している。   The pet owner management DB 160 stores pet owner data associated with the nose feature information.

図3を使用して、ペット管理装置100が犬の鼻特徴情報を生成する動作を説明する。図3は、ペット管理装置100による鼻特徴情報を生成するための画像処理を示すフローチャートである。   The operation | movement which the pet management apparatus 100 produces | generates the nose characteristic information of a dog is demonstrated using FIG. FIG. 3 is a flowchart showing image processing for generating nose feature information by the pet management apparatus 100.

まず、ペット管理装置100の画像入力部111が、ペット(犬)の鼻全体が撮影されている正面写真(鼻撮影画像)を入力する(S101)。図4に、一例として、犬の正面写真20を示す。この正面写真20は、画像入力部111が、他の装置から通信部140を介して入力する。あるいは、画像入力部111が、写真リーダ200から入力する。このように、画像入力部111は、図4の正面写真20のように、犬(哺乳類の一例)の鼻の画像であって2つの鼻孔を含む鼻全体が撮影されている正面写真(鼻撮影画像)を入力する。   First, the image input unit 111 of the pet management apparatus 100 inputs a front photograph (nose photographed image) in which the entire nose of the pet (dog) is photographed (S101). FIG. 4 shows a front photograph 20 of a dog as an example. The front photograph 20 is input by the image input unit 111 from another device via the communication unit 140. Alternatively, the image input unit 111 inputs from the photo reader 200. As described above, the image input unit 111 is an image of the nose of a dog (an example of a mammal) and the entire nose including two nostrils (nose photography) as shown in the front photograph 20 of FIG. Image).

次に、画像入力部111は、入力した正面写真(鼻撮影画像)を表示部170に表示し、鼻全体を含む鼻領域1を指定するようにペット管理装置100の操作者に促す(S102)。操作者は、表示部170に表示された正面写真20に対して、鼻領域1を指定する。図4の枠は、操作者によって指定された鼻領域1を示す。図5は、鼻領域1を示す図である。   Next, the image input unit 111 displays the input front photograph (nose photographed image) on the display unit 170 and prompts the operator of the pet management apparatus 100 to designate the nose region 1 including the entire nose (S102). . The operator designates the nose region 1 with respect to the front photograph 20 displayed on the display unit 170. The frame in FIG. 4 shows the nose region 1 designated by the operator. FIG. 5 is a diagram showing the nose region 1.

次に、鼻輪郭画像抽出部112は、鼻領域1から鼻の輪郭を識別して、識別した鼻の輪郭に沿って鼻領域1から2つの鼻孔を含む「鼻輪郭画像3」を切り出して「鼻輪郭画像3」を抽出する(S103)。図6は、鼻輪郭画像抽出部112が切り出した鼻輪郭画像3を示す。   Next, the nose contour image extraction unit 112 identifies the nose contour from the nose region 1 and cuts out the “nasal contour image 3” including two nostrils from the nose region 1 along the identified nose contour. The nose contour image 3 ”is extracted (S103). FIG. 6 shows the nose contour image 3 cut out by the nose contour image extraction unit 112.

補正判定部113は、鼻輪郭画像抽出部112が抽出した鼻輪郭画像3に所定の補正をする必要があるかどうかを判定し、補正の必要があると判定した場合には所定の補正を行って補正後の鼻輪郭画像を「補正判定済み画像」として出力し、補正の必要がないと判定した場合には補正を行うことなく鼻輪郭画像を「補正判定済み画像」として出力する。ここで所定の補正とは、画像処理技術により、鼻輪郭画像3を一定の大きさに補正すること、及び、正面になるように処理する補正である。これは、鼻輪郭画像3を一定の大きさ及び正面から見た状態に補正することで、互いに異なる正面写真(鼻撮影画像)を元に生成された鼻特徴情報どうしを比較できるようにするためである。なお、補正判定部113が補正の必要がないと判断するのは、鼻輪郭画像3が既に一定の大きさであり、かつ、正面から見た状態になっている場合である(S104)。   The correction determination unit 113 determines whether or not the nose contour image 3 extracted by the nose contour image extraction unit 112 needs to be corrected. If it is determined that correction is necessary, the correction determination unit 113 performs the predetermined correction. Then, the corrected nose contour image is output as a “correction determined image”, and when it is determined that correction is not necessary, the nose contour image is output as a “correction determined image” without performing correction. Here, the predetermined correction is correction for correcting the nose contour image 3 to a certain size and processing so as to be in front by an image processing technique. This is to make it possible to compare the nose feature information generated based on different front photographs (nose photographed images) by correcting the nose contour image 3 to a constant size and a state seen from the front. It is. The correction determination unit 113 determines that the correction is not necessary when the nose contour image 3 is already a certain size and is in a state viewed from the front (S104).

要素抽出部114は、補正判定部113が出力した補正判定済み画像から、鼻の構成要素として、鼻の輪郭と、2つの鼻孔である第1鼻孔と第2鼻孔とのそれぞれの輪郭と、鼻橋部と、第1鼻翼及び第2鼻翼とを抽出する(S105)。   The element extraction unit 114, as a nose component, from the correction-determined image output by the correction determination unit 113, includes the outline of the nose, the outlines of the first and second nostrils, which are the two nostrils, and the nose. The bridge portion, the first nose wing and the second nose wing are extracted (S105).

図7は、要素抽出部114が抽出した状態を示す。なお、本実施の形態1では、要素抽出部114は、鼻橋部を帯状として抽出するとともに、第1鼻翼と第2鼻翼とのそれぞれを線分として抽出する。   FIG. 7 shows the state extracted by the element extraction unit 114. In the first embodiment, the element extraction unit 114 extracts the nose bridge portion as a band and extracts each of the first nose wing and the second nose wing as a line segment.

要素形状特定部115は、要素抽出部114が抽出した鼻の輪郭、第1鼻孔の輪郭、第2鼻孔の輪郭、鼻橋部、第1鼻翼、第2鼻翼から、鼻の輪郭の形状、第1鼻孔の輪郭の形状、第2鼻孔の輪郭の形状、鼻橋部の形状を特定する(S106)。要素形状特定部115が特定した鼻の輪郭形状を「鼻形状情報」と呼ぶこととする。また、要素形状特定部115が特定した鼻孔の輪郭形状をそれぞれ「第1鼻孔形状情報」、「第2鼻孔形状情報」と呼ぶこととする。また、鼻橋部の形状として、要素形状特定部115は、要素抽出部114が帯状として抽出した鼻橋部に対して、(a)帯の幅、(b)帯の長さ、(c)上部(図7に示す)の幅の略中央の位置、(d)下部(図7に示す)の幅の略中央の位置の4つにより鼻橋部を特定する。要素形状特定部115が特定した(a)〜(d)を、「鼻橋部情報」と呼ぶこととする。なお、鼻の輪郭形状、鼻孔の輪郭形状の特定についての詳細は、後述する。   The element shape specifying unit 115 extracts the outline of the nose from the outline of the nose, the outline of the first nostril, the outline of the second nostril, the nose bridge part, the first nose wing, and the second nose wing extracted by the element extraction unit 114. The shape of the outline of the first nostril, the shape of the outline of the second nostril, and the shape of the nasal bridge portion are specified (S106). The nose contour shape specified by the element shape specifying unit 115 is referred to as “nasal shape information”. In addition, the nostril contour shapes identified by the element shape identifying unit 115 are referred to as “first nostril shape information” and “second nostril shape information”, respectively. Further, as the shape of the nasal bridge portion, the element shape specifying unit 115 compares (a) the width of the band, (b) the length of the band with respect to the nasal bridge portion extracted as a band shape by the element extraction unit 114, (c) The nasal bridge portion is specified by four positions: a substantially central position of the width of the upper part (shown in FIG. 7), and (d) a substantially central position of the width of the lower part (shown in FIG. 7). (A) to (d) specified by the element shape specifying unit 115 are referred to as “nasal bridge part information”. The details of specifying the contour shape of the nose and the contour shape of the nostril will be described later.

ペット情報格納部120は、要素形状特定部115が特定した鼻の輪郭形状と、第1鼻孔の輪郭形状と、第2鼻孔の輪郭形状と、鼻橋部の形状とを含む情報を「鼻特徴情報」として生成し、この「鼻特徴情報」をペット管理DB150に登録する(S107)。   The pet information storage unit 120 displays information including the nose contour shape specified by the element shape specifying unit 115, the first nostril contour shape, the second nostril contour shape, and the nasal bridge portion shape as "nose characteristics". Information ”is generated, and this“ nose feature information ”is registered in the pet management DB 150 (S107).

図8は、要素形状特定部115が、鼻の輪郭形状を特定する過程を説明するフローチャートである。図8を参照して、要素形状特定部115が鼻の輪郭形状を特定する場合を説明する。   FIG. 8 is a flowchart for explaining a process in which the element shape specifying unit 115 specifies the contour shape of the nose. With reference to FIG. 8, a case where the element shape specifying unit 115 specifies the contour shape of the nose will be described.

図9は、要素抽出部114が抽出した鼻の輪郭などを示す。   FIG. 9 shows the outline of the nose extracted by the element extraction unit 114.

要素形状特定部115は、まず、次に示す方法(鼻基準位置算出方法)により、要素抽出部114が抽出した鼻の輪郭形状の特定に使用する基準位置である「鼻基準位置」を算出する。要素形状特定部115は、図9に示す様に、要素抽出部114により帯状として抽出された鼻橋部上に所定の2点、例えば点a,点bを設定する。そして、この2点を通り、その両端が鼻の輪郭上に位置する線分8(第1線分)を作成する(S201)。   The element shape specifying unit 115 first calculates a “nose reference position” that is a reference position used for specifying the outline shape of the nose extracted by the element extraction unit 114 by the following method (nasal reference position calculation method). . As shown in FIG. 9, the element shape specifying unit 115 sets two predetermined points, for example, a point b and point b, on the nasal bridge extracted by the element extraction unit 114 as a band shape. Then, a line segment 8 (first line segment) that passes through these two points and whose both ends are located on the outline of the nose is created (S201).

次に要素形状特定部115は、図10に示すように、線分8と直交する線分であって両端が鼻の輪郭上に位置する線分のうち最も長い線分を線分9(第2線分)として作成する。そして、線分8と線分9との交点10を算出し、この交点10を「鼻基準位置」とする(S202)。   Next, as shown in FIG. 10, the element shape specifying unit 115 determines the longest line segment among the line segments orthogonal to the line segment 8 and having both ends located on the nose contour as the line segment 9 (first segment). 2 lines). Then, an intersection point 10 between the line segment 8 and the line segment 9 is calculated, and this intersection point 10 is set as a “nose reference position” (S202).

要素形状特定部115は、図11に示すように、交点10(鼻基準位置)を始点とし終点が鼻の輪郭上にある線分を、角度基準線を基準として、略10度おきに互いに異なる36の方向に36本設定する。そして、この設定した36本の線分のそれぞれの長さと方向とから鼻の輪郭形状を特定する。以下では、この鼻の36本の線分の長さを「36方向長さ」という場合がある。なお「略10度おきに36本」という値は一例である。鼻の輪郭形状が特定できる限り、「略n度おきに360/n(本)」としても構わない。例えば、「略5度おきに360/5=72(本)」としても良い(S203)。   As shown in FIG. 11, the element shape specifying unit 115 differs from each other by approximately 10 degrees with respect to a line segment whose start point is the intersection point 10 (nose reference position) and whose end point is on the nose outline, with the angle reference line as a reference. 36 are set in 36 directions. Then, the contour shape of the nose is specified from the length and direction of each of the set 36 line segments. Hereinafter, the length of the 36 line segments of the nose may be referred to as “length in 36 direction”. Note that the value of “36 lines approximately every 10 degrees” is an example. As long as the outline shape of the nose can be specified, “360 / n (book) every approximately n degrees” may be used. For example, “every 5 degrees, 360/5 = 72 (books)” may be set (S203).

次に図12を参照して、要素形状特定部115が第1鼻孔の輪郭形状を特定する場合を説明する。図12は、要素形状特定部115が第1鼻孔の輪郭形状を特定する動作を示すフローチャートである。なお、第2鼻孔の輪郭形状の特定は第1鼻孔の場合と同じであるので省略する。   Next, a case where the element shape specifying unit 115 specifies the outline shape of the first nostril will be described with reference to FIG. FIG. 12 is a flowchart illustrating an operation in which the element shape specifying unit 115 specifies the contour shape of the first nostril. The specification of the contour shape of the second nostril is the same as in the case of the first nostril, and is therefore omitted.

要素形状特定部115は、次に示す方法(第1鼻孔基準位置算出方法)により、要素抽出部114が抽出した第1鼻孔の輪郭形状の特定に使用する基準位置である「第1鼻孔基準位置」を算出する。要素形状特定部115は、図13に示すように、要素抽出部114が抽出した第1鼻孔の輪郭について、この第1鼻孔の輪郭と接している部分であり要素抽出部114が線分として抽出した第1鼻翼11を特定する(S301)。   The element shape specifying unit 115 is a “first nostril reference position” which is a reference position used for specifying the contour shape of the first nostril extracted by the element extracting unit 114 by the following method (first nostril reference position calculating method). Is calculated. As shown in FIG. 13, the element shape specifying unit 115 is a portion in contact with the outline of the first nostril extracted by the element extracting unit 114, and the element extracting unit 114 extracts it as a line segment. The first nose wing 11 is identified (S301).

要素形状特定部115は、図14に示す様に、第1鼻翼11を延長することにより第1鼻孔の輪郭と2つの交点を共有する線分13(第3線分)を作成する(S302)。   As shown in FIG. 14, the element shape specifying unit 115 extends the first nose wing 11 to create a line segment 13 (third line segment) sharing the outline of the first nostril and the two intersections (S302). .

次に、要素形状特定部115は、図15に示すように、線分13と直交する線分であって両端が第1鼻孔の輪郭上に位置する線分のうち最も長い線分を線分14(第4線分)として作成する。そして、線分13と線分14との交点15を算出し、この交点15を「第1鼻孔基準位置」とする(S303)。なお要素形状特定部115は、第2鼻孔についても同様に、線分13に対応する線分(第5線分)と線分14に対応する線分(第6線分)とから第2鼻孔の輪郭形状の特定に使用する基準位置である第2鼻孔基準位置を算出する。   Next, as shown in FIG. 15, the element shape specifying unit 115 determines the longest line segment among the line segments orthogonal to the line segment 13 and having both ends positioned on the outline of the first nostril. 14 (fourth line segment). And the intersection 15 of the line segment 13 and the line segment 14 is calculated, and this intersection 15 is made into the "1st nostril reference position" (S303). The element shape specifying unit 115 also applies the second nostril to the second nostril from the line segment corresponding to the line segment 13 (fifth line segment) and the line segment corresponding to the line segment 14 (sixth line segment). A second nostril reference position, which is a reference position used for specifying the contour shape of the second nostril, is calculated.

次に、要素形状特定部115は、図16に示すように、交点15(第1鼻孔基準位置)を始点として、略10度おきに、互いに異なる36の方向に向かう36本の線分であって終点が第1鼻孔の輪郭上に存在する36本の線分を設定する。そして、この設定した36本の線分のそれぞれの長さと方向とから第1鼻孔の輪郭形状を特定する。以下では、第1鼻孔のこの36本の長さを「第1鼻孔の36方向長さ」という場合がある。同様に、第2鼻孔についても「第2鼻孔の36方向長さ」という場合がある。なお「略10度おきに36本」という値は一例である。第1鼻孔の輪郭形状が特定できる限り、「略n度おきに360/n(本)」としても構わない。例えば、「略5度おきに360/5=72(本)」としても良い(S304)。   Next, as shown in FIG. 16, the element shape specifying unit 115 includes 36 line segments that start at the intersection 15 (first nostril reference position) and go to different 36 directions at approximately 10 degrees. Thus, 36 line segments whose end points are present on the outline of the first nostril are set. Then, the contour shape of the first nostril is specified from the length and direction of each of the set 36 line segments. Hereinafter, the 36 lengths of the first nostril may be referred to as “the length of the first nostril in the 36 direction”. Similarly, the second nostril may also be referred to as “the length of the second nostril in the 36 direction”. Note that the value of “36 lines approximately every 10 degrees” is an example. As long as the contour shape of the first nostril can be specified, “360 / n (book) every approximately n degrees” may be used. For example, “every 5 degrees, 360/5 = 72 (books)” may be set (S304).

図17は、ペット情報格納部120が生成し、ペット管理DB150に登録する鼻特徴情報の内容を示す図である。鼻特徴情報は、「鼻」について
鼻形状情報、第1鼻孔形状情報、第2鼻孔形状情報、鼻橋部情報を含む。
(1)鼻形状情報は、鼻の輪郭について要素形状特定部115が特定した36方向の線分の長さ、その角度(方向)である。
(2)第1鼻孔形状情報は、第1鼻孔の輪郭について要素形状特定部115が特定した第1鼻孔の36方向長さ、及びその線分の角度(方向)である。
(3)第2鼻孔形状情報は、第2鼻孔の輪郭について要素形状特定部115が特定した36方向長さ、及びその角度(方向)である。
(4)鼻橋部情報は、帯状として抽出された鼻橋部の長さ、幅、上部位置、下部位置である。
FIG. 17 is a diagram illustrating the contents of the nose feature information generated by the pet information storage unit 120 and registered in the pet management DB 150. The nose feature information includes nose shape information, first nostril shape information, second nostril shape information, and nasal bridge portion information regarding “nose”.
(1) The nose shape information is the length and angle (direction) of a line segment in 36 directions specified by the element shape specifying unit 115 with respect to the outline of the nose.
(2) The first nostril shape information is the 36-direction length of the first nostril identified by the element shape identifying unit 115 with respect to the outline of the first nostril, and the angle (direction) of the line segment.
(3) The second nostril shape information is the 36-direction length specified by the element shape specifying unit 115 and the angle (direction) of the outline of the second nostril.
(4) Nasal bridge information is the length, width, upper position, and lower position of the nose bridge extracted as a band.

なお、図8のS202、及び図12のS303では、要素形状特定部115は、線分8と線分9とを求めてこれらの交点10を鼻基準位置として算出し、また線分13と線分14を求めてこれらの交点15を第1鼻孔基準位置として算出した。しかし、これらの基準位置の算出方法は一例である。要素形状特定部115は、これらの他に、要素抽出部114が抽出した鼻の輪郭により定まる輪郭形状の図形の重心位置を算出して鼻基準位置とし、要素抽出部114が抽出した第1鼻孔の輪郭により定まる輪郭形状の図形の重心位置を算出して第1鼻孔基準位置とし、要素抽出部114が抽出した第2鼻孔の輪郭により定まる輪郭形状の図形の重心位置を算出して第2鼻孔基準位置としても構わない。   In S202 of FIG. 8 and S303 of FIG. 12, the element shape specifying unit 115 obtains the line segment 8 and the line segment 9, calculates the intersection point 10 as the nose reference position, and the line segment 13 and the line segment 9. The minutes 14 were calculated and the intersection 15 was calculated as the first nostril reference position. However, the calculation method of these reference positions is an example. In addition to these, the element shape specifying unit 115 calculates the barycentric position of the contour-shaped figure determined by the nose contour extracted by the element extraction unit 114 to obtain the nose reference position, and the first nostril extracted by the element extraction unit 114 The centroid position of the contour-shaped figure determined by the contour is calculated as the first nostril reference position, and the centroid position of the contour-shaped figure determined by the contour of the second nostril extracted by the element extraction unit 114 is calculated to calculate the second nostril It does not matter as the reference position.

本実施の形態のペット管理装置によれば、犬や猫等を傷つけることなく、また特殊な装置を用いることなく、安価かつ容易にすばやく、一般のペットの飼い主でも犬や猫等のペットを識別するための鼻特徴情報を取得することができる。   According to the pet management apparatus of the present embodiment, a pet owner such as a dog or cat can be identified quickly and easily without damaging dogs and cats and without using a special apparatus. Nose feature information can be acquired.

実施の形態2.
次に、図18〜図36を使用して実施の形態2を説明する。実施の形態2は、実施の形態1で説明したペット管理装置100を備えたペット管理システム1000に関する。
Embodiment 2. FIG.
Next, Embodiment 2 will be described with reference to FIGS. The second embodiment relates to a pet management system 1000 including the pet management apparatus 100 described in the first embodiment.

図18は、実施の形態2におけるペット管理システム1000の構成を示す図である。ペット管理システム1000は、写真リーダ200が接続されたペット管理装置100と、携帯電話401と、クライアント端末402と、クライアント端末403と、クライアントLAN410とがインターネット300を介して互いに通信可能に接続されている。クライアントLAN410には、クライアント端末411,412が接続されており、これらはインターネット300を介してペット管理装置100と通信が可能である。   FIG. 18 is a diagram illustrating a configuration of the pet management system 1000 according to the second embodiment. The pet management system 1000 includes a pet management apparatus 100 to which a photo reader 200 is connected, a mobile phone 401, a client terminal 402, a client terminal 403, and a client LAN 410 that are communicably connected to each other via the Internet 300. Yes. Client terminals 411 and 412 are connected to the client LAN 410, and these can communicate with the pet management apparatus 100 via the Internet 300.

クライアント端末、携帯電話からペット管理装置100に対し、犬(所定の哺乳類の一例)の個体について、その犬の正面写真(鼻撮影画像)を送信し鼻特徴情報を含む後述のペット識別情報の登録を要求することができる。また、クライアント端末、携帯電話からペット管理装置100に対し、鼻撮影画像等を送信することにより、その被写体である犬に関するペット識別情報をペット管理装置100が有するかどうかの検索を要求することができる。   Registration of later-described pet identification information including nose characteristic information by transmitting a front view photograph (nose photographed image) of the dog (an example of a predetermined mammal) from the client terminal or mobile phone to the pet management apparatus 100 Can be requested. In addition, by transmitting a nose shot image or the like from the client terminal or the mobile phone to the pet management apparatus 100, a search for whether the pet management apparatus 100 has pet identification information regarding the dog that is the subject may be requested. it can.

図19は、ペット識別情報を示す図である。「ペット識別情報」とは、ペットを識別するための情報である。ペット識別情報は、ペット管理装置100のペット管理DB150に登録される。鼻特徴情報は、このペット識別情報に含まれることによりペット管理DB150に登録される。図19に示すように、ペット識別情報は、個体ごとに作成され、また、ペットの種類ごとに管理される。すなわち、図19は犬に関するペット識別情報である。またペット識別情報30aはある一匹の犬に関する情報であり、ペット識別情報30bは他のある一匹の犬に関する情報であり、ペット識別情報30cは他のある一匹の犬に関する情報である。
ペット識別情報30aは、
(1)ペット識別情報を区別するための「NO(ナンバー)」、
(2)ペットの全体写真及び正面写真(鼻撮影画像)
(3)種類、大きさ、性別、毛並みなど、ペットの特徴を示すペット特徴情報、
(4)飼い主を特定する飼い主ID、
(5)そのペット識別情報の登録を申請した者を示す登録申請者ID、
(6)鼻特徴情報
とを含む。(2)ペットの全体写真及び正面写真(鼻撮影画像)と(3)ペット特徴情報とは、ペット個体の特徴を示す個体特徴データである。
FIG. 19 is a diagram showing pet identification information. “Pet identification information” is information for identifying a pet. The pet identification information is registered in the pet management DB 150 of the pet management apparatus 100. The nose feature information is registered in the pet management DB 150 by being included in the pet identification information. As shown in FIG. 19, the pet identification information is created for each individual and managed for each type of pet. That is, FIG. 19 shows pet identification information regarding a dog. The pet identification information 30a is information regarding a certain dog, the pet identification information 30b is information regarding a certain other dog, and the pet identification information 30c is information regarding a certain other dog.
The pet identification information 30a is
(1) “NO (number)” for distinguishing pet identification information;
(2) Overall photo and front photo of the pet (nose shot image)
(3) Pet feature information indicating pet features such as type, size, gender, fur,
(4) Owner ID that identifies the owner,
(5) Registration applicant ID indicating the person who applied for registration of the pet identification information;
(6) including nose feature information. (2) The whole pet photograph and the front photograph (nose photographed image) and (3) pet characteristic information are individual characteristic data indicating the characteristics of the pet individual.

図20は、ペット飼い主情報40aの一例を示す図である。ペット飼い主情報は、各飼い主ごとに作成される。このペット飼い主情報40aは、ペット飼い主管理DB160に格納される。ペット識別情報30aの「飼い主ID」は、ペット飼い主情報40aの「飼い主ID」に対応している。これにより、ペット識別情報30aはペット飼い主情報40aに対応付けられている。図20に示すように、ペット飼い主情報40aは、飼い主ID、飼い主の氏名、飼い主の住所、飼い主の連絡先として、e−mailアドレス、電話番号などを含む。   FIG. 20 is a diagram illustrating an example of the pet owner information 40a. The pet owner information is created for each owner. The pet owner information 40a is stored in the pet owner management DB 160. The “owner ID” of the pet identification information 30a corresponds to the “owner ID” of the pet owner information 40a. Thereby, the pet identification information 30a is associated with the pet owner information 40a. As shown in FIG. 20, the pet owner information 40 a includes an owner ID, owner name, owner address, owner e-mail address, telephone number, and the like.

図21は、登録申請者情報50aの一例を示す。ペット管理装置100に対してペット識別情報の登録を申請(要求)した者が飼い主でない場合には、登録申請者として登録される。登録申請者情報は、ペット飼い主管理DB160に格納される。ペット識別情報の登録申請者がペットの飼い主の場合は、ペット飼い主情報に登録される。ペット識別情報30aの「登録申請者ID」は、登録申請者情報50aの「登録申請者ID」に対応している。これにより、ペット識別情報30aは登録申請者情報50aに対応付けられている。図21に示すように、登録申請者情報50aは、登録申請者ID、名称、登録申請者の住所、登録申請者の連絡先として、e−mailアドレス、電話番号などを含む。登録申請者情報として登録されるのは、保健所、ペットショップ、動物病院などが想定される。   FIG. 21 shows an example of the registration applicant information 50a. If the person who applied for (requests) registration of pet identification information from the pet management apparatus 100 is not the owner, the person is registered as a registration applicant. The registration applicant information is stored in the pet owner management DB 160. If the pet identification information registration applicant is a pet owner, it is registered in the pet owner information. The “registration applicant ID” of the pet identification information 30a corresponds to the “registration applicant ID” of the registration applicant information 50a. Thereby, the pet identification information 30a is associated with the registration applicant information 50a. As illustrated in FIG. 21, the registration applicant information 50 a includes a registration applicant ID, a name, an address of the registration applicant, an e-mail address, a telephone number, and the like as the contact information of the registration applicant. Registered as registration applicant information is assumed to be health centers, pet shops, animal hospitals, and the like.

図22は、ペット飼い主の「ペット飼い主側端末」と、ペット管理装置100と、保健所の「保健所側端末」とのやり取りを示すシーケンス図である。「ペット飼い主側端末」は、ペット識別情報の登録を要求する登録要求側とする。「保健所側端末」は、検索を要求する検索要求側とする。「飼い主側端末」は、図18において、例えば携帯電話401であり、「保健所側端末」はクライアント端末411である。   FIG. 22 is a sequence diagram showing exchanges between the “pet owner side terminal” of the pet owner, the pet management apparatus 100, and the “health center side terminal” of the health center. The “pet owner side terminal” is a registration requesting side that requests registration of pet identification information. The “health center terminal” is a search requester that requests a search. In FIG. 18, the “owner side terminal” is, for example, the mobile phone 401, and the “health center terminal” is the client terminal 411.

ペット識別情報の登録要求側であるペットの飼い主は、携帯電話401からインターネット300を介して、ペット(犬)の飼い主側写真データ(鼻撮影画像)と、図20に示した氏名や連絡先等の飼い主情報(送信元データの一例)と、ペットの全体写真(全体撮影画像)やペット特徴情報を含む「登録要求情報」(送信元情報の一例)をペット管理装置100に送信する(S401)。   The pet owner who is the registration request side of the pet identification information sends the pet (dog) owner side photo data (nose photographed image) from the mobile phone 401 via the Internet 300, and the name and contact information shown in FIG. Owner information (an example of transmission source data) and “registration request information” (an example of transmission source information) including an entire pet photo (entire captured image) and pet characteristic information are transmitted to the pet management apparatus 100 (S401). .

ペット情報識別部110は、実施の形態1で述べた動作により、携帯電話401からインターネット300を介して送信された「登録要求情報」に含まれるペットの「飼い主側写真データ」(鼻撮影画像)を元にして、その犬の「鼻の輪郭形状」、「第1鼻孔の輪郭形状」、「第2鼻孔の輪郭形状」、「鼻橋部の形状」等を特定する(S402)。   The pet information identification unit 110 performs the operation described in the first embodiment, and the “owner side photo data” (nose photographed image) of the pet included in the “registration request information” transmitted from the mobile phone 401 via the Internet 300. Based on the above, the “nose contour shape”, “contour shape of the first nostril”, “contour shape of the second nostril”, “shape of the nasal bridge”, etc. are specified (S402).

ペット情報格納部120(鼻特徴情報生成部)は、実施の形態1で述べたように、ペット情報識別部110が特定した「鼻の輪郭形状」、「第1鼻孔の輪郭形状」、「第2鼻孔の輪郭形状」、「鼻橋部の形状」等を含む鼻特徴特徴情報を生成し、この鼻特徴特徴情報をペット識別情報の一部として登録する(S403)。ペット情報格納部120は、鼻特徴特徴情報を登録する場合には、図19に示すように、鼻特徴特徴情報を
(1)全体写真及び正面写真(鼻撮影画像)、
(3)ペット特徴情報、
(4)飼い主ID
とともに、「ペット識別情報」としてペット管理DB150に登録する。
As described in the first embodiment, the pet information storage unit 120 (nose feature information generation unit) has the “nose outline shape”, “first nostral outline shape”, “ Nose feature feature information including “nose nose contour shape”, “nasal bridge shape” and the like is generated, and this nose feature feature information is registered as a part of pet identification information (S403). When the nose feature feature information is registered, as shown in FIG. 19, the pet information storage unit 120 displays the nose feature feature information as (1) an entire photograph and a front photograph (nose photographed image),
(3) Pet characteristic information,
(4) Owner ID
At the same time, it is registered in the pet management DB 150 as “pet identification information”.

ペット情報格納部120は、このように登録要求側がペット飼い主の場合には、登録要求情報に含まれる「ペット飼い主情報」を「ペット識別情報」と紐付けて、ペット飼い主管理DB4に登録する(S404)。具体的には、図19に示すように、ペット情報格納部120は、ペット識別情報30a中に「飼い主ID」の項目を設け、飼い主IDを設定する。ペット識別情報30a中では「飼い主ID」は「1001」である。この「飼い主ID」は、図20に示すペット飼い主情報40aの「飼い主ID」と対応付けされている。このように、「飼い主ID」により、「ペット飼い主情報」が「ペット識別情報」と紐付けられている。したがって、「ペット識別情報」と「ペット飼い主情報」との一方から他方を特定することができる。したがって、「ペット識別情報」は、必ず鼻特徴情報を含むので、鼻特徴情報(対応付け鼻特徴情報)は、「ペット飼い主情報」と対応付けられることになる。   When the registration requesting side is the pet owner in this way, the pet information storage unit 120 associates the “pet owner information” included in the registration request information with the “pet identification information” and registers it in the pet owner management DB 4 ( S404). Specifically, as shown in FIG. 19, the pet information storage unit 120 provides an item “owner ID” in the pet identification information 30a and sets the owner ID. In the pet identification information 30a, the “owner ID” is “1001”. This “owner ID” is associated with the “owner ID” of the pet owner information 40a shown in FIG. In this way, “pet owner information” is associated with “pet identification information” by “owner ID”. Therefore, one of the “pet identification information” and the “pet owner information” can be specified. Therefore, since “pet identification information” always includes nose feature information, nose feature information (associated nose feature information) is associated with “pet owner information”.

なお、ペットの飼い主以外である保健所や動物病院、ペットショップなどが登録要求側になる場合もある。この場合は、ペット情報格納部120は、「ペット飼い主」の場合と同様に、保健所や動物病院、ペットショップ等を図19における「登録申請者ID」を付与して記録し、この「登録申請者ID」により「ペット識別情報」を図21の登録申請者情報と紐付ける。ペット情報格納部120は、この登録申請者情報をペット飼い主管理DB4に登録する(S404)。以上のS401〜S404が登録要求側からの要求に応答して、ペット管理装置100がペット識別情報を登録する過程の動作である。   In addition, health centers, animal hospitals, pet shops, etc. other than pet owners may be registration requesters. In this case, the pet information storage unit 120 records the health center, the animal hospital, the pet shop, etc. with the “registration applicant ID” in FIG. 19 as in the case of the “pet owner”. “Pet identification information” is associated with the registration applicant information of FIG. The pet information storage unit 120 registers the registration applicant information in the pet owner management DB 4 (S404). The above S401 to S404 are operations in the process in which the pet management apparatus 100 registers pet identification information in response to a request from the registration request side.

次に、S405〜S407により、検索要求の過程を説明する。   Next, the search request process will be described with reference to S405 to S407.

(検索要求の過程)
ペット管理装置100は、例えば犬について、図19に示すように、複数の「ペット識別情報」をペット管理DB150に登録し、格納している。保健所側は、クライアント端末411(判定要求装置)から検索要求情報(判定要求情報)を送信する(S405)。検索要求情報は、保健所側写真データ(鼻撮影画像)、保健所の名称、住所、連絡先などを含む保健所情報、犬の特徴を示すペット特徴情報と写真である個体特徴データなどを含む。保健所側が検索要求側として検索要求するのは、次のような場合である。保健所では、犬(一例である)が持ち込まれた場合、その犬の飼い主を見つけるため、持ち込まれた犬の鼻の写真(鼻撮影画像)を撮影し、その撮影した写真をクライアント端末411から、インターネット300を介して検索要求情報に含めてペット管理装置100に送信する。
(Search request process)
For example, for a dog, the pet management apparatus 100 registers and stores a plurality of “pet identification information” in the pet management DB 150 as shown in FIG. The health center transmits search request information (determination request information) from the client terminal 411 (determination request device) (S405). The search request information includes health center photo data (nose photographed image), health center information including the name, address, and contact information of the health center, pet feature information indicating the characteristics of the dog, and individual feature data that is a photograph. The health center side makes a search request as a search request side in the following cases. In the health center, when a dog (an example) is brought in, in order to find the owner of the dog, a picture of the dog's nose (nose photographed image) is taken, and the photograph taken is taken from the client terminal 411. The search request information is included in the search request information and transmitted to the pet management apparatus 100 via the Internet 300.

ペット管理装置100は、検索要求情報を受信すると、S402の場合と同様に、ペット情報識別部110が、実施の形態1で述べた動作により、クライアント端末411からインターネット300を介して送信された「検索要求情報」に含まれる保健所側写真データ(鼻撮影画像)を元にして、その検索要求に係る犬の「鼻の輪郭形状」、「第1鼻孔の輪郭形状」、「第2鼻孔の輪郭形状」、「鼻橋部の形状」等を特定し、ペット情報格納部120が、その検索要求に係る犬について、「鼻の輪郭形状」、「第1鼻孔の輪郭形状」、「第2鼻孔の輪郭形状」、「鼻橋部の形状」等を含む鼻特徴情報(判定要求鼻特徴情報)を作成する。   When the pet management apparatus 100 receives the search request information, the pet information identification unit 110 is transmitted from the client terminal 411 via the Internet 300 by the operation described in the first embodiment, as in the case of S402. Based on the health center photo data (nose image) included in the search request information, the dog's “nose outline shape”, “first nostril outline shape”, and “second nostril outline” related to the search request The pet information storage unit 120 identifies “shape”, “shape of the nose bridge”, etc., and the pet information storage unit 120 performs “nose contour shape”, “contour shape of the first nostril”, “second nostril” for the dog related to the search request. Nose feature information (determination request nose feature information) including “contour shape”, “shape of nasal bridge portion”, and the like.

ペット情報検索部130(検索部)は、ペット情報格納部120が生成した検索要求に係る鼻特徴情報(判定要求鼻特徴情報)を、ペット管理DB150に登録されている複数の鼻特徴情報(対応付け鼻特徴情報)のそれぞれと予め定められた所定の比較方法によって比較する。この比較により、ペット情報検索部130は、予め設定された検索基準に基づいて、ペット管理DB150から鼻特徴情報を検索する。ペット情報検索部130は、ペット管理DB150を検索して「ペット識別情報」(鼻特徴情報)が一致または一定の範囲で近似するペット識別情報を抽出する(S406)。この検索の過程は、図23〜図36を用いて、後述する。   The pet information retrieval unit 130 (retrieval unit) obtains nasal feature information (determination request nose feature information) related to the retrieval request generated by the pet information storage unit 120, and a plurality of nasal feature information (corresponding to the correspondence). Each of the artificial nose characteristic information) is compared with a predetermined predetermined comparison method. By this comparison, the pet information search unit 130 searches the pet management DB 150 for nose feature information based on a preset search criterion. The pet information search unit 130 searches the pet management DB 150 and extracts pet identification information whose “pet identification information” (nose feature information) matches or approximates within a certain range (S406). This search process will be described later with reference to FIGS.

ペット情報検索部130は、検索結果を通信部140を介して保健所のクライアント端末411に返信する(S407)。検索結果として、ペット情報検索部130は、クライアント端末411に、検索によりヒットしたペット識別情報に含まれるペットの正面写真(鼻撮影画像)と、ペットの全体写真と、ペット特徴情報と、ペットの飼い主情報が存在する場合はペット飼い主管理DB160からペット飼い主情報を抽出して返信する。   The pet information search unit 130 returns the search result to the client terminal 411 of the health center via the communication unit 140 (S407). As a search result, the pet information search unit 130 causes the client terminal 411 to display a front view of the pet (nose photographed image), a whole pet photo, pet feature information, If the owner information exists, the pet owner information is extracted from the pet owner management DB 160 and returned.

持ち込まれた犬の飼い主を捜している保健所は、返信された情報から登録されているペット(犬)と判断した場合は、紐付けられているペットの飼い主に連絡して、引き取りに来てもらえばよい。   If the health center looking for the owner of the dog brought in determines that it is a registered pet (dog) from the returned information, it will contact the owner of the associated pet and come to pick it up. That's fine.

以上のように図22の場合は、登録要求側であるペットの飼い主が、自分のパーソナルコンピュータや携帯電話からインターネット300を利用して、ペットの写真をペット管理装置100に送信し、ペット管理装置100でペットの「鼻特徴情報」を抽出させ、「ペット識別情報」として予めペット管理DB150に登録させる場合を説明した。また「ペット識別情報」には「ペット飼い主情報」を紐付けてペット飼い主管理DB160に登録する場合を説明した。そして、ペットが保健所(その他、動物病院、ペットショップ等でもかまわない)に持ち込まれた場合、保健所(あるいは、動物病院、ペットショップ等)は、持ち込まれたペットの鼻の写真を取り、検索要求側として、自己のクライアント端末から、撮影した写真をインターネット300を利用してペット管理装置100に送信する。ペット管理装置100は検索要求にかかる写真の「鼻特徴情報」を抽出し、抽出した「鼻特徴情報」を用いてペット管理DB150を検索することにより、そのペットの飼い主を捜すことができることを説明した。この場合、飼い主が見つからない場合は、検索要求にかかる「ペット識別情報」をペット管理DB150に登録する。   As described above, in the case of FIG. 22, the pet owner on the registration request side uses the Internet 300 from his / her personal computer or mobile phone to send a photo of the pet to the pet management apparatus 100, and the pet management apparatus A case has been described in which “nose feature information” of a pet is extracted at 100 and registered in the pet management DB 150 in advance as “pet identification information”. Further, the case where “pet owner information” is associated with “pet identification information” and registered in the pet owner management DB 160 has been described. When a pet is brought into a health center (others may be an animal hospital, pet shop, etc.), the health center (or animal hospital, pet shop, etc.) takes a picture of the pet's nose and requests a search. As a side, a photograph taken from its own client terminal is transmitted to the pet management apparatus 100 using the Internet 300. The pet management apparatus 100 extracts the “nose feature information” of the photo according to the search request, and searches the pet management DB 150 using the extracted “nose feature information” to explain that the pet owner can be found. did. In this case, if the owner is not found, “pet identification information” related to the search request is registered in the pet management DB 150.

また、ペットの飼い主が検索要求側になる場合もある。次のような場合である。飼い主は、自分のペットが迷子や盗難にあったと判断した場合、検索要求側として、自分のパーソナルコンピュータや携帯電話からインターネット300を利用して、あらかじめ撮影しておいたペットの写真(鼻撮影画像)、ペット特徴情報等をペット管理装置100に送信し、ペット管理装置100でペットの「鼻特徴情報」を生成させ、この鼻特徴情報基づきペット管理DB150で検索させる。これにより、迷子や盗難にあった自己のペットを捜すことができる。検索要求側がペットの飼い主の場合であって、ペット管理装置100からの返信結果から、自分のペットである判断した場合は、紐付けられている預かり場所(保健所や動物病院、ペットショップ等)に引き取りに行けばよい。一方、ペット管理装置100は、検索の結果、ヒットしなかった場合は、検索で用いた検索要求に係る「ペット識別情報」をペット管理DB150に登録し、また、存在する場合にはこれに紐付けされるペット飼い主をペット飼い主管理DB160に登録する。   In some cases, the pet owner is the search requester. This is the case. When the owner determines that his / her pet has been lost or stolen, the search request side uses the Internet 300 from his / her personal computer or mobile phone to take a picture of the pet (nose shot image). ), Pet characteristic information and the like are transmitted to the pet management apparatus 100, and the pet management apparatus 100 generates "nose characteristic information" of the pet and searches the pet management DB 150 based on the nose characteristic information. As a result, it is possible to search for a pet that is lost or stolen. If the search requesting side is a pet owner and it is determined from the reply from the pet management apparatus 100 that the pet is his / her pet, it can be stored in a linked storage location (such as a health center, animal hospital, or pet shop). Just go to pick up. On the other hand, if no hit is found as a result of the search, the pet management apparatus 100 registers “pet identification information” related to the search request used in the search in the pet management DB 150, and if it exists, The attached pet owner is registered in the pet owner management DB 160.

次に図23〜図36を用いて、図22のS406における検索処理の内容を説明する。図23は、ペット情報検索部130による検索処理を示す図である。図23における検索要求側鼻特徴情報は、検索要求(判定要求)に係るペットの正面写真(鼻撮影画像)を元に、画像入力部111と、鼻輪郭画像抽出部112と、補正判定部113と、要素抽出部114と、要素形状特定部115とから構成されるペット情報識別部110が、鼻の輪郭形状、第1鼻孔の輪郭形状、第2鼻孔の輪郭形状を特定し、特定された鼻の輪郭形状等をもとに、ペット情報格納部120が生成したものである。ペット情報検索部130は、検索要求があった場合、検索要求側鼻特徴情報(判定要求鼻特徴情報)を、ペット管理DB150に登録されている複数のペット識別情報の鼻特徴情報のそれぞれと予め定められた所定の比較方法によって比較する。そして予め設定された検索基準に基づいてペット管理DB150から鼻特徴情報を検索し、検索結果を通信部140を介して、検索要求側の端末に返信する。すなわち、ペット情報検索部130は、図23において、検索要求側鼻特徴情報を鼻特徴情報1、鼻特徴情報2、・・・、鼻特徴情報nのそれぞれと、後述の比較方法により比較する。ペット情報検索部130は、比較の結果、鼻特徴情報1〜鼻特徴情報nのうち検索基準に合致するものがある場合には、その鼻特徴情報を含むペット識別情報を選択する。このように、ペット情報検索部130は、鼻特徴情報をキーとして、ペット識別情報を検索する。   Next, the contents of the search process in S406 of FIG. 22 will be described with reference to FIGS. FIG. 23 is a diagram showing search processing by the pet information search unit 130. The nose feature information on the search request side in FIG. 23 is based on the front photograph (nose photographed image) of the pet related to the search request (determination request), the image input unit 111, the nose contour image extraction unit 112, and the correction determination unit 113. The pet information identifying unit 110 including the element extracting unit 114 and the element shape identifying unit 115 identifies the contour shape of the nose, the contour shape of the first nostril, and the contour shape of the second nostril. The information is generated by the pet information storage unit 120 based on the outline shape of the nose. When there is a search request, the pet information search unit 130 stores the search request side nose feature information (determination request nose feature information) in advance with each of the nose feature information of the plurality of pet identification information registered in the pet management DB 150. Comparison is made by a predetermined predetermined comparison method. Then, the nose feature information is searched from the pet management DB 150 based on the preset search criteria, and the search result is returned to the search requesting terminal via the communication unit 140. That is, in FIG. 23, the pet information search unit 130 compares the search request side nose feature information with each of the nose feature information 1, the nose feature information 2,. If the comparison result indicates that there is a piece that matches the search criteria among the nose feature information 1 to the nose feature information n, the pet information search unit 130 selects pet identification information including the nose feature information. In this way, the pet information search unit 130 searches for pet identification information using the nose feature information as a key.

図24〜図36は、ペット情報検索部130による比較方法を説明する図である。ペット情報検索部130は、予め定められた所定の比較方法により比較するが、この比較方法の一例として、次の(1)〜(4)の4つを説明する。ペット情報検索部130は、これら4つのいずれかを用いることにより、検索することができる。
(1)大きさを比較する比較方法、
(2)最小自乗法による一次式モデルを用いる比較方法、
(3)最小自乗法による多項式モデルを用いる比較方法、
(4)フーリエ級数を用いる比較方法
である。
24-36 is a figure explaining the comparison method by the pet information search part 130. FIG. The pet information search unit 130 performs comparison using a predetermined comparison method set in advance. The following four items (1) to (4) will be described as examples of the comparison method. The pet information search unit 130 can search by using any of these four.
(1) Comparison method for comparing sizes,
(2) A comparison method using a linear model by the method of least squares,
(3) A comparison method using a polynomial model by the method of least squares,
(4) A comparison method using a Fourier series.

これらの検索のための比較方法は、単独で行うことも可能であるが、検索精度を向上するためには、(1)の方法と他の方法を組み合わせることで検索精度を向上することができる。これらの比較方法は、ペット(哺乳類)の鼻の形状、鼻孔の形状を比較し判定するものである。ペットの個体を検索するには、更にペットの種類、毛並み、色、大きさ、ペットの飼い主情報等を追加し、各項目が一致したときに、ペットの個体が一致するとみなす方法を取り入れることで、より検索精度を向上することができる。   These comparison methods for searching can be performed independently, but in order to improve the search accuracy, the search accuracy can be improved by combining the method (1) with another method. . These comparison methods compare and determine the shape of the nose of the pet (mammal) and the shape of the nostril. To search for individual pets, add a pet type, fur, color, size, pet owner information, etc., and adopt a method that considers that individual pets match when each item matches. The search accuracy can be improved.

(1.大きさを比較する比較方法、)
(1.1)図24を用いて「大きさを比較する比較方法」のうち、第1の比較方法を説明する。第1の比較方法は、「鼻の輪郭形状」及び「第1鼻孔の輪郭形状」、「第2鼻孔の輪郭形状」(各中心からの長さ:36×3)を全て比較し一致しているか調べて判定する方法である。すなわち、
「鼻の輪郭形状」の36方向長さ、
「第1鼻孔の輪郭形状」の36方向長さ、
「第2鼻孔の形状」の36方向長さの「36×3=108(本)」を対応する長さ同士の108組をそれぞれ比較する方法である。例えば、図23において、検索要求側鼻特徴情報とペット識別情報1に含まれる鼻特徴情報1とを比較する場合を想定する。この場合、図24に示すように、この比較方法は、検索要求側鼻特徴情報と鼻特徴情報1とにおいて、対応する36×3=108本のそれぞれの「36方向長さ」どうしの108組すべてについて比を求め、その比が一定の範囲(例えば95%以内)にあれば一致しているとみなす。さらに、108組の全部について、一定の数の組以上(例えば100組以上:許容本数という)が一致していれば、比較している動物の鼻は同じ鼻とし(検索基準の一例)、検索している動物は同じ個体であるとして、ペット識別情報1を選択する。
(1.2)次に図25を用いて「大きさを比較する比較方法」のうち、第2の比較方法を説明する。第2の比較方法は、「鼻の大きさ」と、「第1鼻孔の大きさ」と、「第2鼻孔の大きさ」とをそれぞれ個別に比較し、これら3つの大きさのいずれも同じと判定した場合に同一の個体と判定する方法である。すなわち、図23において、検索要求側鼻特徴情報とペット識別情報1に含まれる鼻特徴情報1とを比較する場合を想定するとすれば、
検索要求側鼻特徴情報と鼻特徴情報1とにおいて、
互いの「鼻の輪郭形状」について対応する36方向長さ同士を比較し、
互いの「第1鼻孔の輪郭形状」について対応する36方向長さ同士を比較し、
互いの「第2鼻孔の輪郭形状」について対応する36方向長さ同士を比較する。
互いの「鼻の輪郭形状」については、第1の方法と同様に、それぞれの場合について一致と見なす基準を設けておく。図25は、「鼻の輪郭形状」の場合を示している。
ペット情報検索部130が一致と判定するのは、
「鼻の輪郭形状が一致」&「第1鼻孔の輪郭形状が一致」&「第2鼻孔の輪郭形状が一致」
と、3つの全部を一致と判定した場合である。この場合に、ペット情報検索部130は、
鼻特徴情報1を含むペット識別情報1を選択する。
(1. Comparison method for comparing sizes)
(1.1) The first comparison method among the “comparison methods for comparing sizes” will be described with reference to FIG. The first comparison method compares and matches all of the “nose contour shape”, “first nostril contour shape”, and “second nostril contour shape” (length from each center: 36 × 3). This is a method of checking and determining whether or not. That is,
36-direction length of the "nose contour shape"
36-direction length of “contour shape of first nostril”,
This is a method of comparing 108 sets of corresponding lengths of “36 × 3 = 108 (books)” in the 36-direction length of the “second nostril shape”. For example, in FIG. 23, a case is assumed where the search request side nose feature information is compared with the nose feature information 1 included in the pet identification information 1. In this case, as shown in FIG. 24, in this comparison method, the search request side nose feature information and the nose feature information 1 have 108 sets of 36 × 3 = 108 corresponding “lengths in 36 directions”. Ratios are obtained for all, and if the ratios are within a certain range (for example, within 95%), they are regarded as matching. Further, for all 108 sets, if a certain number of sets or more (for example, 100 sets or more: allowable number) match, the noses of the animals being compared are the same nose (an example of search criteria) and search The pet identification information 1 is selected on the assumption that the animals are the same individual.
(1.2) Next, the second comparison method among the “comparison methods for comparing sizes” will be described with reference to FIG. In the second comparison method, “the size of the nose”, “the size of the first nostril”, and “the size of the second nostril” are individually compared, and all of these three sizes are the same. Is determined to be the same individual. That is, in FIG. 23, assuming that the search request side nose feature information is compared with the nose feature information 1 included in the pet identification information 1,
In search request side nose feature information and nose feature information 1,
Compare the 36 lengths corresponding to each other's "nose contour shape",
Compare the 36-direction lengths corresponding to each other's "contour shape of the first nostril",
The 36-direction lengths corresponding to each other's “contour shape of the second nostril” are compared.
As for each “nose outline shape”, a reference for determining that each case matches is provided in the same manner as in the first method. FIG. 25 shows a case of “nose outline shape”.
The pet information search unit 130 determines that they match.
"Nose contour shape matches"&"First nostril contour shape matches"&"Second nostril contour shape matches"
And when all three are determined to be coincident. In this case, the pet information search unit 130
Pet identification information 1 including nose feature information 1 is selected.

(2.最小自乗法による一次式モデルを用いる比較方法)
次に、図26〜図29を用いて、最小自乗法による回帰分析によるペットの鼻の大きさ及び鼻孔の大きさの「識別情報」を求める比較方法を説明する。図26の犬の鼻を例に説明する。図26において、鼻の中心(鼻基準位置)からの36方向長さのそれぞれを点としてプロットすると、図27に示すモデル(グラフ)が得られる。すなわち横軸は、それぞれの36方向長さの「角度」を示し、縦軸は36方向長さそれぞれの「長さ」を表す。このモデル(グラフ)を数式で表すことを考える。角度を説明変数(x)、長さの値を目的変数(y)とする。xに対するyの予測値を求める。yの予測式を直線とし、
y=ax+b
とする。この場合、実測値yiと予測値yj(=axi+b)の差の自乗和が最小となる回帰係数a、bを求めればよい。なお、モデル(グラフ)は、「鼻の形状」、「第1鼻孔の形状」、「第2鼻孔の形状」の3種類があるが、「鼻の形状」についてのa、b等は、a(鼻)、b(鼻)等と表し、「第1鼻孔の形状」についてのa、b等は、a(第1鼻孔)、b(第1鼻孔)等と表し、「第2鼻孔の形状」についてのa、b等は、a(第2鼻孔)、b(第2鼻孔)等と表わす。図28に示すように、実測値のデータ個数N、i番目のxの実測値をxi,xiに対するyの実測値をyi,直線の傾きをa、直線の切片をbとする。この場合、aおよびbは、図29に示す式によって求めることができる。これは、a、bが予測値と実測値の差の自乗を最小にするような予測値の係数を求めることを意味する。図29の式で得られた傾きa(鼻)および切片b(鼻)をペット(犬)の「鼻の大きさ」を識別するための「識別情報」とする。第1鼻孔と第2鼻孔につても、ペット情報検索部130は、a(第1鼻孔)、b(第1鼻孔)及びa(第2鼻孔)、b(第2鼻孔)を求める。そして、鼻、第1鼻孔、第2鼻孔についての計3種類の直線の傾きaと切片bがすべて一定の誤差(例:3ピクセル以内や0.3mm以内等:許容値という)以内であれば、検索している動物は同じ個体であるとする。すなわち、図23において、検索要求側鼻特徴情報とペット識別情報1に含まれる鼻特徴情報1とを比較する場合を想定するとすれば、検索要求側鼻特徴情報から得られるa(鼻)、b(鼻)、a(第1鼻孔)、b(第1鼻孔)、a(第2鼻孔)、b(第2鼻孔)と鼻特徴情報1から得られるa(鼻)、b(鼻)、a(第1鼻孔)、b(第1鼻孔)、a(第2鼻孔)、b(第2鼻孔)とについて、対応する傾きa、対応する切片bどうしが一定の誤差以内の場合に、ペット情報検索部130は、鼻特徴情報1を含むペット識別情報1を選択する。
(2. Comparison method using linear model by least square method)
Next, a comparison method for obtaining “identification information” of the size of the nose of the pet and the size of the nostril by regression analysis using the least square method will be described with reference to FIGS. The dog nose in FIG. 26 will be described as an example. In FIG. 26, when each of the lengths in the 36 directions from the center of the nose (nasal reference position) is plotted as a point, a model (graph) shown in FIG. 27 is obtained. That is, the horizontal axis represents the “angle” of the length in each 36 direction, and the vertical axis represents the “length” of each length in the 36 direction. Let us consider expressing this model (graph) by a mathematical expression. The angle is an explanatory variable (x), and the length value is an objective variable (y). A predicted value of y with respect to x is obtained. The prediction formula of y is a straight line,
y = ax + b
And In this case, the regression coefficients a and b that minimize the square sum of the difference between the actual measurement value yi and the predicted value yj (= axi + b) may be obtained. There are three types of models (graphs): “nose shape”, “first nostril shape”, and “second nostril shape”. (Nose), b (nose), etc., and “a, b” etc. for “the shape of the first nostril” are a (first nostril), b (first nostril), etc., and “the shape of the second nostril” ", A, b, etc." are represented as a (second nostril), b (second nostril), and the like. As shown in FIG. 28, the number N of actually measured values, the actually measured value of the i-th x as xi, the actually measured value of y with respect to xi as yi, the slope of the straight line as a, and the intercept of the straight line as b. In this case, a and b can be obtained by the equation shown in FIG. This means that the coefficient of the predicted value is calculated such that a and b minimize the square of the difference between the predicted value and the actually measured value. The inclination a (nose) and the segment b (nose) obtained by the equation of FIG. 29 are set as “identification information” for identifying the “nose size” of the pet (dog). For the first nostril and the second nostril, the pet information search unit 130 obtains a (first nostril), b (first nostril) and a (second nostril), b (second nostril). If the slopes a and intercepts b of all three types of nose, first nostril, and second nostril are all within a certain error (eg, within 3 pixels, within 0.3 mm, etc .: allowable value). Assume that the animals being searched are the same individual. That is, in FIG. 23, assuming that the search request side nose feature information is compared with the nose feature information 1 included in the pet identification information 1, a (nose) and b obtained from the search request side nose feature information. A (nose), a (first nostril), b (first nostril), a (second nostril), b (second nostril) and a (nose), b (nose), a obtained from nose feature information 1 When the corresponding inclination a and the corresponding intercepts b are within a certain error with respect to (first nostril), b (first nostril), a (second nostril), b (second nostril), pet information The search unit 130 selects the pet identification information 1 including the nose feature information 1.

(3.最小自乗法による多項式モデルを用いる比較方法)
次に、図30〜図32を用いて、最小自乗法による多項式モデルの近似によるペットの鼻の大きさ及び鼻孔の大きさの「識別情報」を求める比較方法を説明する。図27の場合と同様に、ペットの鼻の中心(鼻基準位置)から36方向長さのそれぞれを点としてプロットすると、図30に示すモデル(グラフ)が得られる。図30のモデル(グラフ)を近似する多項式を考える。例えば、2次方程式で近似とすれば、図31に示す(式1)〜(式3)が得られる。図31の(式3)において偏微分を行うと、a,b,cは,図32に示す式から求めることができる。図32に示す式から得られたa(鼻)、b(鼻)、c(鼻)をペットの「鼻の大きさ」の識別情報とする。「第1鼻孔の大きさ」、「第2鼻孔の大きさ」についても、上記の「2.最小自乗法による一次式モデルを用いる比較方法」で説明したのと同様である。そして、「鼻の大きさ」と「第1鼻孔の大きさ」、「第2鼻孔の大きさ」の計3種類のa、b、cがすべて一定の誤差(例:3ピクセル以内や0.3mm以内等:許容値という)以内であれば、検索している動物は同じ個体であるとする。また、次元数は適宜定めればよく、下記の5次元の式の場合であれば、同様にして、a、b、c、d、e、fを求めればよい。
y=ax+bx+cX+dx+ex+f
(3. Comparison method using polynomial model by least square method)
Next, a comparison method for obtaining “identification information” of the pet nose size and nostril size by approximation of a polynomial model by the least square method will be described with reference to FIGS. As in the case of FIG. 27, plotting each of the lengths in the 36 directions from the center (nose reference position) of the pet's nose as a point, the model (graph) shown in FIG. 30 is obtained. Consider a polynomial that approximates the model (graph) of FIG. For example, if approximated by a quadratic equation, (Expression 1) to (Expression 3) shown in FIG. 31 are obtained. When partial differentiation is performed in (Equation 3) in FIG. 31, a, b, and c can be obtained from the equation shown in FIG. The a (nose), b (nose), and c (nose) obtained from the equation shown in FIG. 32 are used as identification information of the “nose size” of the pet. The “size of the first nostril” and the “size of the second nostril” are also the same as described in “2. Comparison method using the first-order model by the least square method”. A total of three types a, b, and c of “the size of the nose”, “the size of the first nostril”, and “the size of the second nostril” are all constant errors (eg, within 3 pixels or 0. 0). If it is within 3 mm, etc. (referred to as an allowable value), the searched animals are assumed to be the same individual. The number of dimensions may be determined as appropriate. In the case of the following five-dimensional expression, a, b, c, d, e, and f may be obtained in the same manner.
y = ax 5 + bx 4 + cX 3 + dx 2 + ex + f

(4.フーリエ級数を用いる比較方法)
次に、図33〜図36を用いて、周期2πの関数のフーリエ級数モデルによるペットの鼻の大きさ及び鼻孔の大きさの「識別情報」を求める比較方法を説明する。図33のペット(犬)の鼻の例で、ペットの鼻の中心(鼻基準位置)から鼻の輪郭までの長さ(36方向長さ)をX軸、Y軸をとって点で表す場合、図34に示すモデル(グラフ)が得られる。図34のモデル(グラフ)は、周期2πの関数であることがわかる。この周期関数f(x)は、図35に示す(式4)として表わすことができる。図35の(式4)において、係数a1,b2,・・・、b1、・・・を直交関係を用いて求めると、図36の(式5)〜(式9)のようになる。偶関数の場合は、(式5)〜(式7)から求めることができる。また、奇関数の場合は、(式8)〜(式9)から求めることができる。「鼻の大きさ」および「鼻孔の大きさ」のそれぞれについて求めたaやa、bをペットの識別情報とする。求められた「識別情報」が一定の誤差以内であれば、比較対象としているペットの鼻の大きさ、または、第1鼻孔の大きさ、第2鼻孔の大きさは同じとする。さらに、ペット情報検索部130が、鼻の大きさ、第1鼻孔の大きさ、第2鼻孔の大きさが一致していると判断したときに、比較対象としているペットは同じ個体である判定する。
(4. Comparison method using Fourier series)
Next, a comparison method for obtaining “identification information” of the size of the pet's nose and the size of the nostril based on the Fourier series model of the function of the period 2π will be described with reference to FIGS. In the example of the nose of the pet (dog) in FIG. 33, the length from the center of the nose of the pet (nose reference position) to the outline of the nose (the length in the 36 direction) is represented by a point taking the X axis and the Y axis. A model (graph) shown in FIG. 34 is obtained. It can be seen that the model (graph) in FIG. 34 is a function of period 2π. This periodic function f (x) can be expressed as (Equation 4) shown in FIG. 35, when the coefficients a1, b2,..., B1,... Are obtained by using the orthogonal relationship, (Expression 5) to (Expression 9) in FIG. In the case of an even function, it can be obtained from (Expression 5) to (Expression 7). In the case of an odd function, it can be obtained from (Expression 8) to (Expression 9). The a 0 , a x , and b x obtained for each of “the size of the nose” and “the size of the nostril” are used as pet identification information. If the obtained “identification information” is within a certain error, it is assumed that the size of the nose of the pet to be compared, the size of the first nostril, and the size of the second nostril are the same. Furthermore, when the pet information search unit 130 determines that the size of the nose, the size of the first nostril, and the size of the second nostril match, the pets to be compared are determined to be the same individual. .

本実施の形態2のペット管理システムは、犬や猫等の鼻の識別情報によって、ペットとその飼い主をDB(データベース)で管理するシステムである。ペットの鼻特徴情報はデジタル化された写真から取り出されるものであるため、デジタルカメラや、携帯電話に付属しているカメラからの写真を入力すればよい。よって、飼い主の携帯電話やパーソナルコンピュータ、あるいは保健所や動物病院、ペットショップ等のパーソナルコンピュータからインターネットが利用できる環境であれば、ペットの登録と検索が可能になり、迷子や盗難等にあった犬や猫等のペットの管理に大変便利である。   The pet management system of the second embodiment is a system that manages pets and their owners in a DB (database) based on identification information of noses such as dogs and cats. Since the pet's nose characteristic information is extracted from a digitized photograph, a photograph from a digital camera or a camera attached to a mobile phone may be input. Therefore, if you can use the Internet from your owner's mobile phone or personal computer, or a personal computer such as a health center, animal hospital, or pet shop, you can register and search for pets, and dogs that are lost or stolen. It is very convenient for managing pets such as cats and cats.

また、鼻の存在する動物であればどのような動物でも管理することができる。そのため、ペットショップでのペット管理、ネット販売システムにも利用することも可能である。さらに、動物園における動物の管理や、自然に生息する動物の個体管理にも応用することが可能である。   In addition, any animal having a nose can be managed. Therefore, it can also be used for pet management at pet shops and online sales systems. Furthermore, the present invention can be applied to the management of animals in zoos and individual management of animals that naturally inhabit.

この鼻よる認証方式を人間の個人認証に用いることもできる。   This nose authentication method can also be used for human personal authentication.

本実施の形態2のペット管理システムは、ペットの鼻の識別情報をDBに登録することにより、ペットとその飼い主を管理するシステムである。そのためデジタル写真を扱うことができ、インターネットを利用できる環境であればペット情報をDBに登録することができ、特殊な装置や機器を使用することなく、安価に迷子や盗難のペットを検索して飼い主をすばやく探し出すことができる。また、飼い主が迷子や盗難にあったペットを探している場合には、迷子のペットを保護している場所を捜し出すことができる。従って、迷子や盗難、交通事故等で、保健所や動物病院、ペットショップ等にペットが持ち込まれた場合、速やかに飼い主を探して引き渡すことができる。   The pet management system of the second embodiment is a system that manages pets and their owners by registering pet nose identification information in a DB. Therefore, if you can handle digital photos and can use the Internet, you can register pet information in the DB and search for lost or stolen pets at low cost without using special devices or equipment. Find owners quickly. In addition, when the owner is searching for a lost pet or a stolen pet, the place where the lost pet is protected can be found. Therefore, when a pet is brought into a health center, an animal hospital, a pet shop, or the like due to a lost child, theft, a traffic accident, or the like, the owner can be quickly searched for and delivered.

実施の形態3.
図37〜図39を用いて実施の形態3を説明する。実施の形態3は、実施の形態1のペット管理装置100の動作を、プログラム及びプログラムを記録した記録媒体により実施する実施形態である。
Embodiment 3 FIG.
The third embodiment will be described with reference to FIGS. The third embodiment is an embodiment in which the operation of the pet management apparatus 100 according to the first embodiment is implemented by a program and a recording medium on which the program is recorded.

実施の形態1においては、ペット管理装置100における「〜部」として示した各構成要素の動作は互いに関連しており、動作の関連を考慮することにより、コンピュータに実施させる一連の処理に置き換えることができる。各構成要素の動作を一連の処理に置き換えることにより、鼻特徴情報生成プログラムの実施形態とすることができる。また、この鼻特徴情報生成プログラムを、コンピュータ読み取り可能な記録媒体に記録させることで、プログラムを記録したコンピュータ読み取り可能な記録媒体の実施の形態とすることができる。   In the first embodiment, the operations of the constituent elements shown as “to” in the pet management apparatus 100 are related to each other, and are replaced with a series of processes to be performed by the computer by considering the relationship of the operations. Can do. By replacing the operation of each component with a series of processes, the embodiment of the nose feature information generation program can be obtained. Further, by recording this nose feature information generation program on a computer-readable recording medium, an embodiment of a computer-readable recording medium on which the program is recorded can be obtained.

図37は、図2に示した
ペット管理装置100の
(1)画像入力部111の動作、
(2)鼻輪郭画像抽出部112の動作、
(3)補正判定部113の動作、
(4)要素抽出部114の動作、
(5)要素形状特定部115の動作、
(6)ペット情報格納部116(鼻特徴情報生成部)の動作
という一連の動作を、コンピュータに実施させるための一連の処理に置き換えて、
鼻特徴情報生成プログラムの実施形態としたフローチャートである。
FIG. 37 shows (1) the operation of the image input unit 111 of the pet management apparatus 100 shown in FIG.
(2) operation of the nose contour image extraction unit 112;
(3) Operation of the correction determination unit 113,
(4) operation of the element extraction unit 114;
(5) Operation of the element shape specifying unit 115,
(6) Replacing a series of operations called operations of the pet information storage unit 116 (nose feature information generation unit) with a series of processes for causing a computer to execute,
It is the flowchart made into embodiment of a nose characteristic information generation program.

S501は、哺乳類の鼻の画像であって2つの鼻孔を含む鼻全体が撮影されている鼻撮影画像を入力する処理である。   S501 is a process of inputting a nose photograph image in which the entire nose including two nostrils is photographed, which is an image of a mammal's nose.

S502は、入力された前記鼻撮影画像から鼻の輪郭を識別し、識別した鼻の輪郭に沿って前記鼻撮影画像から2つの鼻孔を含む鼻の画像である鼻輪郭画像を切り出して前記鼻輪郭画像を抽出する処理である。   S502 identifies a nose outline from the input nose photographed image, and cuts out a nose outline image that is a nose image including two nostrils from the nose photographed image along the identified nose outline. This is a process of extracting an image.

S503は、抽出された鼻輪郭画像に所定の補正をする必要があるかどうかを判定し、補正の必要があると判定した場合には所定の補正を行って補正後の鼻輪郭画像を補正判定済み画像として出力し、補正の必要がないと判定した場合には補正を行うことなく鼻輪郭画像を補正判定済み画像として出力する処理である。   In step S503, it is determined whether or not the extracted nose contour image needs to be corrected. If it is determined that correction is necessary, the corrected nose contour image is corrected and determined. This is a process of outputting a nose contour image as a corrected and determined image without performing correction when it is determined that there is no need for correction.

S504は、出力された補正判定済み画像から、鼻の構成要素として、鼻の輪郭と、2つの鼻孔である第1鼻孔と第2鼻孔とのそれぞれの輪郭とを抽出する処理である。   S504 is a process of extracting the outline of the nose and the outlines of the two nostrils, the first nostril and the second nostril, from the output correction-determined image.

S505は、抽出された鼻の輪郭の形状の特定に使用する基準位置である鼻基準位置を予め定められた鼻基準位置算出方法により算出して算出した前記鼻基準位置と抽出された鼻の輪郭とから鼻の輪郭形状を特定し、抽出された第1鼻孔の輪郭の形状の特定に使用する基準位置である第1鼻孔基準位置を予め定められた第1鼻孔基準位置算出方法により算出して算出した第1鼻孔基準位置と抽出された第1鼻孔の輪郭とから第1鼻孔の輪郭形状を特定し、抽出された第2鼻孔の輪郭の形状の特定に使用する基準位置である第2鼻孔基準位置を予め定められた第2鼻孔基準位置算出方法により算出して算出した第2鼻孔基準位置と抽出された第2鼻孔の輪郭とから第2鼻孔の輪郭形状を特定する処理である。   In step S505, the nasal reference position calculated by calculating a nasal reference position, which is a reference position used to specify the shape of the extracted nasal contour, by a predetermined nasal reference position calculation method and the extracted nasal contour The nose contour shape is identified from the first nostril reference position, which is a reference position used to identify the extracted first nostril contour shape, by a predetermined first nostril reference position calculation method. The first nostril reference position and the extracted outline of the first nostril are used to specify the outline shape of the first nostril, and the second nostril is a reference position used for specifying the extracted outline shape of the second nostril. This is a process for specifying the outline shape of the second nostril from the second nostril reference position calculated by calculating the reference position using a predetermined second nostril reference position calculation method and the extracted outline of the second nostril.

S506は、特定された鼻の輪郭形状と、第1鼻孔の輪郭形状と、第2鼻孔の輪郭形状とを含む情報を鼻特徴情報として生成する処理である。   S506 is a process of generating information including the identified nose contour shape, the first nostril contour shape, and the second nostril contour shape as the nose feature information.

プログラムの実施の形態及びプログラムを記録したコンピュータ読み取り可能な記録媒体の実施の形態は、すべてコンピュータで動作可能なプログラムにより構成することができる。   The embodiment of the program and the embodiment of the computer-readable recording medium on which the program is recorded can be configured by a program operable by a computer.

図38は、図2に示した実施の形態1のペット管理装置100の機能を実現するコンピュータシステム800の外観を示す。図38において、コンピュータシステム800は、システムユニット830、液晶ディスプレイ813、キーボード(K/B)814、マウス815、写真リーダ818、プリンタ819を備え、これらはケーブルで接続されている。また、コンピュータシステム800は、携帯電話401、クライアント端末402等と接続されている。   FIG. 38 shows the external appearance of a computer system 800 that implements the functions of the pet management apparatus 100 of the first embodiment shown in FIG. 38, a computer system 800 includes a system unit 830, a liquid crystal display 813, a keyboard (K / B) 814, a mouse 815, a photo reader 818, and a printer 819, which are connected by a cable. The computer system 800 is connected to a mobile phone 401, a client terminal 402, and the like.

図39は、図38のコンピュータシステム800のハードウェア構成図である。図39において、コンピュータシステム800は、プログラムを実行するCPU(Central Processing Unit)810を備えている。CPU810は、バス825を介してROM811、RAM812、液晶ディスプレイ813、K/B814、マウス815、通信ボード816、FDD817、写真リーダ818、プリンタ819、及び磁気ディスク装置820、コンパクトディスクドライブ(CDD)826と接続されている。   FIG. 39 is a hardware configuration diagram of the computer system 800 of FIG. In FIG. 39, the computer system 800 includes a CPU (Central Processing Unit) 810 that executes a program. The CPU 810 is connected to the ROM 811, RAM 812, liquid crystal display 813, K / B 814, mouse 815, communication board 816, FDD 817, photo reader 818, printer 819, magnetic disk device 820, compact disk drive (CDD) 826 via the bus 825. It is connected.

磁気ディスク装置820には、オペレーティングシステム(OS)821、ウィンドウシステム822、プログラム群823、ファイル群824が記憶されている。プログラム群823は、CPU810、OS821、ウィンドウシステム822により実行される。   The magnetic disk device 820 stores an operating system (OS) 821, a window system 822, a program group 823, and a file group 824. The program group 823 is executed by the CPU 810, the OS 821, and the window system 822.

上記プログラム群823には、実施の形態1の説明において「〜部」として説明した機能を実行するプログラムが記憶されている。プログラムは、CPU810により読み出され実行される。   The program group 823 stores a program for executing the function described as “˜unit” in the description of the first embodiment. The program is read and executed by the CPU 810.

また、ファイル群824には、図2で説明した、ペット管理DB150やペット飼い主管理DB160の情報がファイルとして格納される。   In the file group 824, the information of the pet management DB 150 and the pet owner management DB 160 described in FIG. 2 is stored as a file.

実施の形態1の図2において「〜部」として説明したものは、ROM811に記憶されたファームウェアで実現されていても構わない。或いは、ソフトウェアのみ、或いは、ハードウェアのみ、或いは、ソフトウェアとハードウェアとの組み合わせ、さらには、ファームウェアとの組み合わせで実施されても構わない。   2 described in FIG. 2 of the first embodiment may be realized by firmware stored in the ROM 811. Alternatively, it may be implemented by software alone, hardware alone, a combination of software and hardware, or a combination of firmware.

プログラムの実施の形態及びプログラムを記録したコンピュータ読み取り可能な記録媒体の実施の形態における各処理は、プログラムで実行されるが、このプログラムは、前述のようにプログラム群823に記録されている。そして、プログラム群823からCPU810に読み込まれ、CPU810によって、プログラムの各処理が実行される。   Each processing in the embodiment of the program and the embodiment of the computer-readable recording medium on which the program is recorded is executed by the program, and this program is recorded in the program group 823 as described above. Then, the program is read from the program group 823 into the CPU 810, and each process of the program is executed by the CPU 810.

また、ソフトウェア、あるいはプログラムは、ROM811に記憶されたファームウェアで実行されても構わない。あるいは、ソフトウェアとファームウェアとハードウェアの組み合わせでプログラムを実行しても構わない。   The software or program may be executed by firmware stored in the ROM 811. Alternatively, the program may be executed by a combination of software, firmware, and hardware.

以上の実施の形態では、ペット正面写真から鼻を抽出し、ペットの鼻の輪郭を識別し、識別した輪郭からペットの鼻の真中にある溝を識別し、この溝からペットの鼻の中心を求め、中心から36方向について鼻の輪郭までの長さとそれぞれの角度を求め、次にペットの左右の鼻の穴を識別し、左右の鼻の穴の輪郭を識別し、左右の鼻の穴の中心を求め、求めた中心から36方向について鼻の穴の輪郭までの長さとそれぞれの角度を求め、求めた鼻の大きさ情報(鼻の中心から輪郭までの36方向の長さとそれぞれの角度)と、鼻の溝の情報(溝の長さ、溝の幅、溝の上の位置、溝の下の位置)と、左右の鼻の穴の大きさ情報(鼻の穴の中心から鼻の穴の輪郭までの36方向の長さとそれぞれの角度)をペットの鼻特徴情報とするペットの鼻特徴情報生成装置を説明した。   In the above embodiment, the nose is extracted from the front photo of the pet, the contour of the pet's nose is identified, the groove in the middle of the pet's nose is identified from the identified contour, and the center of the pet's nose is identified from this groove. Determine the length and angle of each nose from the center in 36 directions, then identify the left and right nostrils of the pet, identify the left and right nostrils, The center is obtained, the length from the obtained center to the outline of the nostril and the respective angles in 36 directions, and the obtained nose size information (the length in the 36 directions from the center of the nose to the outline and the respective angles) And nose groove information (groove length, groove width, groove upper position, groove lower position), and right and left nostril size information (nose hole center to nose hole) Pet's nose characteristics with 36 directions length to each contour and each angle) It described the information generating apparatus.

以上の実施の形態では、ペットの正面写真からペットの鼻の輪郭を識別する方法を有するペットの鼻特徴情報生成装置を説明した。   In the above embodiment, the pet nose characteristic information generating apparatus having the method for identifying the outline of the pet nose from the front photo of the pet has been described.

以上の実施の形態では、識別した輪郭からペット鼻の真中にある溝を識別する方法を有するペットの鼻特徴情報生成装置を説明した。   In the above embodiment, the pet nose characteristic information generating apparatus having the method for identifying the groove in the middle of the pet nose from the identified contour has been described.

以上の実施の形態では、識別した鼻の真中にある溝からペットの鼻の中心を求める方法を有するペットの鼻特徴情報生成装置を説明した。   In the above embodiment, the pet nose feature information generating apparatus having the method of obtaining the center of the pet's nose from the groove in the middle of the identified nose has been described.

以上の実施の形態では、識別した鼻の中心から36方向について鼻の輪郭までの長さを求める方法を有するペットの鼻特徴情報生成装置を説明した。   In the above embodiment, the nose characteristic information generation apparatus for a pet having the method for obtaining the length from the identified nose center to the nose contour in 36 directions has been described.

以上の実施の形態では、ペットの左右の鼻の穴を識別する方法を有するペットの鼻特徴情報生成装置を説明した。   In the above embodiment, the pet nose characteristic information generation apparatus having the method for identifying the right and left nostrils of the pet has been described.

以上の実施の形態では、識別したペットの鼻の輪郭からペットの左右の鼻の穴の中心を求める方法を有するペットの鼻特徴情報生成装置を説明した。   In the above embodiment, the pet nose feature information generation apparatus having the method of obtaining the center of the right and left nostrils of the pet from the identified pet nose contour has been described.

以上の実施の形態では、求めたペットの鼻の中心から36方向について鼻の穴の輪郭までの長さを求める方法を有する鼻特徴情報生成装置を説明した。   In the above embodiment, the nasal feature information generation apparatus having the method for obtaining the length from the center of the obtained pet nose to the outline of the nostril in 36 directions has been described.

以上の実施の形態では、識別した溝の下の位置から溝の上に向かってペットの鼻の輪郭と交わる点までの線を求める。求めた線を上から下に向かって、溝の延長戦に直角に線を左右に伸ばして、鼻の輪郭と交わる点までの長さを求める。求めた線の中から最も長い線と鼻の溝を下から上に伸ばした線とが交わる点をペットの鼻の中心とする鼻特徴情報生成装置を説明した。   In the above embodiment, the line from the position below the identified groove to the point where it intersects the contour of the pet's nose is obtained. From the top to the bottom, the line is extended to the right and left at right angles to the extension game of the groove, and the length to the point where it intersects with the outline of the nose is obtained. A description has been given of a nasal feature information generating device in which the point where the longest line among the obtained lines intersects with the line extending from the bottom of the nose to the top intersects with the center of the pet's nose.

以上の実施の形態では、ペットの鼻の中心から36方向にペットの鼻の輪郭と交わる点までの長さを求め、求めた長さと角度をペットの鼻の大きさとする鼻特徴情報生成装置を説明した。   In the above embodiment, the nose feature information generation device is obtained in which the length from the center of the pet's nose to the point where it intersects with the contour of the pet's nose is obtained in 36 directions and the obtained length and angle are the size of the pet's nose. explained.

以上の実施の形態では、識別した左右の鼻の穴について、識別したペットの鼻の輪郭と接している部分を求める。求められた鼻の輪郭と接している部分から鼻の穴に向かっている溝のような部分(鼻翼)を求める。求めた溝を鼻の接点から鼻の穴で一番長くなる線を求める。求めた線上でその線と直角に交わる線を鼻の穴の中で求める。その中でもっとも長い線と前記で求めた溝との交点を鼻の穴の中心とする鼻特徴情報生成装置を説明した。   In the above-described embodiment, for the identified left and right nostrils, the portion in contact with the identified pet nose contour is obtained. A groove-like portion (nose wing) is obtained from the portion in contact with the determined nose contour toward the nostril. Find the longest line in the nostril from the contact point of the nose. Find the line that intersects the line at right angles on the calculated line in the nostril. A description has been given of a nasal feature information generation device in which the intersection of the longest line and the groove obtained above is the center of the nostril.

以上の実施の形態では、求めた鼻の穴の中心から36方向にペットの鼻穴の輪郭と交わる点までの長さを求め、求めた長さと角度をペットの鼻の穴の大きさとする鼻特徴情報生成装置を説明した。   In the above embodiment, the length from the center of the determined nostril to the point where it intersects the contour of the pet's nostril in 36 directions is determined, and the nose with the determined length and angle as the size of the pet's nostril A feature information generation apparatus has been described.

以上の実施の形態では、求めたペットの鼻の大きさ情報、鼻の溝の情報、左右の鼻の穴の大きさ情報をペットの鼻識別情報とする鼻特徴情報生成装置を説明した。   In the above embodiment, the description has been given of the nasal feature information generation apparatus using the obtained pet nose size information, nasal groove information, and left and right nostril size information as pet nose identification information.

実施の形態1における鼻各部の名称を説明する図である。FIG. 4 is a diagram for describing names of respective nose portions in the first embodiment. 実施の形態1におけるペット管理装置100の構成を示す。The structure of the pet management apparatus 100 in Embodiment 1 is shown. 実施の形態1におけるペット管理装置100による画像処理を示すフローチャート。3 is a flowchart showing image processing by the pet management apparatus 100 according to the first embodiment. 実施の形態1におけるペットの正面写真を示す。The front photograph of the pet in Embodiment 1 is shown. 実施の形態1における正面写真から切り出された鼻領域を示す。The nose area | region cut out from the front photograph in Embodiment 1 is shown. 実施の形態1における鼻輪郭画像を示す。3 shows a nose outline image in the first embodiment. 実施の形態1における鼻輪郭画像抽出部112が抽出した要素を示す。The element which the nose outline image extraction part 112 in Embodiment 1 extracted is shown. 実施の形態1における要素形状特定部115による鼻の輪郭形状の特定過程のフローチャート。5 is a flowchart of a process of specifying a nose contour shape by the element shape specifying unit 115 according to the first embodiment. 実施の形態1における要素形状特定部115による鼻の輪郭形状の特定を説明するための図である。6 is a diagram for describing identification of a nose contour shape by an element shape identifying unit 115 according to Embodiment 1. FIG. 実施の形態1における要素形状特定部115による鼻の輪郭形状の特定を説明するための図である。6 is a diagram for describing identification of a nose contour shape by an element shape identifying unit 115 according to Embodiment 1. FIG. 実施の形態1における要素形状特定部115による鼻の輪郭形状の特定を説明するための図である。6 is a diagram for describing identification of a nose contour shape by an element shape identifying unit 115 according to Embodiment 1. FIG. 実施の形態1における要素形状特定部115による第1鼻孔の輪郭形状の特定過程のフローチャート。5 is a flowchart of a process for specifying the contour shape of the first nostril by the element shape specifying unit 115 according to the first embodiment. 実施の形態1における要素形状特定部115による第1鼻孔の輪郭形状の特定を説明するための図である。FIG. 10 is a diagram for describing identification of the contour shape of the first nostril by the element shape identification unit 115 in the first embodiment. 実施の形態1における要素形状特定部115による第1鼻孔の輪郭形状の特定を説明するための図である。FIG. 10 is a diagram for describing identification of the contour shape of the first nostril by the element shape identification unit 115 in the first embodiment. 実施の形態1における要素形状特定部115による第1鼻孔の輪郭形状の特定を説明するための図である。FIG. 10 is a diagram for describing identification of the contour shape of the first nostril by the element shape identification unit 115 in the first embodiment. 実施の形態1における要素形状特定部115による第1鼻孔の輪郭形状の特定を説明するための図である。FIG. 10 is a diagram for describing identification of the contour shape of the first nostril by the element shape identification unit 115 in the first embodiment. 実施の形態1における鼻特徴情報の内容を示す図である。FIG. 6 is a diagram showing the contents of nose feature information in the first embodiment. 実施の形態2におけるペット管理システム1000のシステム構成を示す。The system configuration | structure of the pet management system 1000 in Embodiment 2 is shown. 実施の形態2におけるペット識別情報の内容を示す。The content of the pet identification information in Embodiment 2 is shown. 実施の形態2におけるペット飼い主情報の内容を示す。The content of the pet owner information in Embodiment 2 is shown. 実施の形態2における保健所情報の内容を示す。The contents of health center information in Embodiment 2 are shown. 実施の形態2におけるペット飼い主側端末、ペット管理装置100、保健所側端末のやり取りのシーケンス図である。It is a sequence diagram of the exchange between the pet owner side terminal, the pet management device 100, and the health center side terminal in the second embodiment. 実施の形態2における検索要求側鼻特徴情報を鼻特徴情報1等とを比較する場合を示す図である。It is a figure which shows the case where the search request side nose feature information in Embodiment 2 is compared with nose feature information 1 grade | etc.,. 実施の形態2におけるペット情報検索部130による「大きさを比較する比較方法」を示す図である。It is a figure which shows the "comparison method which compares a magnitude | size" by the pet information search part 130 in Embodiment 2. FIG. 実施の形態2におけるペット情報検索部130による「大きさを比較する比較方法」を示す図である。It is a figure which shows the "comparison method which compares a magnitude | size" by the pet information search part 130 in Embodiment 2. FIG. 実施の形態2におけるペット情報検索部130による「最小自乗法による一次式モデルを用いる比較方法」を示す図である。FIG. 10 is a diagram illustrating a “comparison method using a linear model using a least square method” performed by a pet information search unit 130 according to Embodiment 2. 実施の形態2におけるペット情報検索部130による「最小自乗法による一次式モデルを用いる比較方法」を示す図である。FIG. 10 is a diagram illustrating a “comparison method using a linear model using a least square method” performed by a pet information search unit 130 according to Embodiment 2. 実施の形態2におけるペット情報検索部130による「最小自乗法による一次式モデルを用いる比較方法」を示す図である。FIG. 10 is a diagram illustrating a “comparison method using a linear model using a least square method” performed by a pet information search unit 130 according to Embodiment 2. 実施の形態2におけるペット情報検索部130による「最小自乗法による一次式モデルを用いる比較方法」を示す図である。FIG. 10 is a diagram illustrating a “comparison method using a linear model using a least square method” performed by a pet information search unit 130 according to Embodiment 2. 実施の形態2におけるペット情報検索部130による「最小自乗法による多項式モデルを用いる比較方法」を示す図である。It is a figure which shows the "comparison method using the polynomial model by the least square method" by the pet information search part 130 in Embodiment 2. FIG. 実施の形態2におけるペット情報検索部130による「最小自乗法による多項式モデルを用いる比較方法」を示す図である。It is a figure which shows the "comparison method using the polynomial model by the least square method" by the pet information search part 130 in Embodiment 2. FIG. 実施の形態2におけるペット情報検索部130による「最小自乗法による多項式モデルを用いる比較方法」を示す図である。It is a figure which shows the "comparison method using the polynomial model by the least square method" by the pet information search part 130 in Embodiment 2. FIG. 実施の形態2におけるペット情報検索部130による「フーリエ級数を用いる比較方法」を示す図である。It is a figure which shows the "comparison method using a Fourier series" by the pet information search part 130 in Embodiment 2. FIG. 実施の形態2におけるペット情報検索部130による「フーリエ級数を用いる比較方法」を示す図である。It is a figure which shows the "comparison method using a Fourier series" by the pet information search part 130 in Embodiment 2. FIG. 実施の形態2におけるペット情報検索部130による「フーリエ級数を用いる比較方法」を示す図である。It is a figure which shows the "comparison method using a Fourier series" by the pet information search part 130 in Embodiment 2. FIG. 実施の形態2におけるペット情報検索部130による「フーリエ級数を用いる比較方法」を示す図である。It is a figure which shows the "comparison method using a Fourier series" by the pet information search part 130 in Embodiment 2. FIG. 実施の形態3における鼻特徴情報生成プログラムの処理過程を示すフローチャートである。14 is a flowchart illustrating a process of a nose feature information generation program according to the third embodiment. 実施の形態3におけるコンピュータシステムの外観を示す。14 shows an external appearance of a computer system according to a third embodiment. 実施の形態3におけるコンピュータシステムのハードウェア構成を示す。10 illustrates a hardware configuration of a computer system according to a third embodiment.

符号の説明Explanation of symbols

1 鼻領域、3 鼻輪郭画像、10 交点、11 第1鼻翼、15 交点、20 正面写真、30a,30b,30c ペット識別情報、40a ペット飼い主情報、50a 登録申請者情報、100 ペット管理装置、110 ペット情報識別部、111 画像入力部、112 鼻輪郭画像抽出部、113 補正判定部、114 要素抽出部、115 要素形状特定部、120 ペット情報格納部、130 ペット情報検索部、140 通信部、150 ペット管理DB、160 ペット飼い主管理DB、170 表示部、200 写真リーダ、300 インターネット、401 携帯電話、402,403 クライアント端末、410 クライアントLAN、411,412 クライアント端末、413 モデム/ルータ、800 コンピュータシステム、810 CPU、811 ROM、812 RAM、813 DSP、814 K/B、815 マウス、816 通信ボード、817 FDD、818 写真リーダ、819 プリンタ、820 磁気ディスク装置、821 OS、822 ウィンドウシステム、823 プログラム群、824 ファイル群、825 バス、826 CDD、830 システムユニット、1000 ペット管理システム。   DESCRIPTION OF SYMBOLS 1 Nose area, 3 nose outline image, 10 intersection, 11 1st nose wing, 15 intersection, 20 front photograph, 30a, 30b, 30c pet identification information, 40a pet owner information, 50a registration applicant information, 100 pet management apparatus, 110 Pet information identification unit, 111 image input unit, 112 nose contour image extraction unit, 113 correction determination unit, 114 element extraction unit, 115 element shape identification unit, 120 pet information storage unit, 130 pet information search unit, 140 communication unit, 150 Pet management DB, 160 Pet owner management DB, 170 Display unit, 200 Photo reader, 300 Internet, 401 Mobile phone, 402,403 Client terminal, 410 Client LAN, 411, 412 Client terminal, 413 Modem / router, 800 Computer system, 8 0 CPU, 811 ROM, 812 RAM, 813 DSP, 814 K / B, 815 mouse, 816 communication board, 817 FDD, 818 photo reader, 819 printer, 820 magnetic disk unit, 821 OS, 822 window system, 823 program group, 824 files, 825 bus, 826 CDD, 830 system unit, 1000 pet management system.

Claims (14)

哺乳類の鼻の画像であって2つの鼻孔を含む鼻全体が撮影されている鼻撮影画像を入力する画像入力部と、
前記画像入力部が入力した鼻撮影画像から鼻の輪郭を識別し、識別した鼻の輪郭に沿って鼻撮影画像から2つの鼻孔を含む鼻の画像である鼻輪郭画像を切り出して鼻輪郭画像を抽出する鼻輪郭画像抽出部と、
前記鼻輪郭画像抽出部が抽出した鼻輪郭画像に所定の補正をする必要があるかどうかを判定し、補正の必要があると判定した場合には所定の補正を行って補正後の鼻輪郭画像を補正判定済み画像として出力し、補正の必要がないと判定した場合には補正を行うことなく鼻輪郭画像を補正判定済み画像として出力する補正判定部と、
前記補正判定部が出力した補正判定済み画像から、鼻の構成要素として、鼻の輪郭と、2つの鼻孔である第1鼻孔と第2鼻孔とのそれぞれの輪郭とを抽出する要素抽出部と、
前記要素抽出部が抽出した鼻の輪郭の形状の特定に使用する基準位置である鼻基準位置を予め定められた鼻基準位置算出方法により算出して算出した鼻基準位置と前記要素抽出部が抽出した鼻の輪郭とから鼻の輪郭形状を特定し、
前記要素抽出部が抽出した第1鼻孔の輪郭の形状の特定に使用する基準位置である第1鼻孔基準位置を予め定められた第1鼻孔基準位置算出方法により算出して算出した第1鼻孔基準位置と前記要素抽出部が抽出した第1鼻孔の輪郭とから第1鼻孔の輪郭形状を特定し、
前記要素抽出部が抽出した第2鼻孔の輪郭の形状の特定に使用する基準位置である第2鼻孔基準位置を予め定められた第2鼻孔基準位置算出方法により算出して算出した第2鼻孔基準位置と前記要素抽出部が抽出した第2鼻孔の輪郭とから第2鼻孔の輪郭形状を特定する要素形状特定部と、
前記要素形状特定部が特定した鼻の輪郭形状と、第1鼻孔の輪郭形状と、第2鼻孔の輪郭形状とを含む情報を鼻特徴情報として生成する鼻特徴情報生成部と
を備えたことを特徴とする鼻特徴情報生成装置。
An image input unit for inputting a nose photographed image in which the entire nose including two nostrils is photographed;
The nose contour image is identified by identifying the outline of the nose from the nose photographed image input by the image input unit, and cutting out a nose contour image that is a nose image including two nostrils from the nose photographed image along the identified nose contour. A nose contour image extraction unit to extract;
It is determined whether or not the nose contour image extracted by the nose contour image extraction unit needs to be corrected. When it is determined that correction is necessary, the corrected nose contour image is corrected by performing the predetermined correction. A correction determination unit that outputs a nose contour image as a correction determined image without performing correction when it is determined that correction is not necessary,
An element extraction unit that extracts the outline of the nose and the outlines of the first and second nostrils, which are the two nostrils, from the correction determined image output by the correction determination unit;
The nasal reference position calculated by calculating the nasal reference position, which is a reference position used for specifying the shape of the nose outline extracted by the element extraction unit, by a predetermined nasal reference position calculation method and the element extraction unit extract Identify the shape of the nose from the contour of the nose
A first nostril reference calculated by calculating a first nostril reference position, which is a reference position used for specifying the contour shape of the first nostril extracted by the element extraction unit, by a predetermined first nostril reference position calculation method. Identifying the contour shape of the first nostril from the position and the contour of the first nostril extracted by the element extraction unit;
A second nostril reference calculated by calculating a second nostril reference position, which is a reference position used for specifying the contour shape of the second nostril extracted by the element extraction unit, by a predetermined second nostril reference position calculation method. An element shape specifying unit for specifying the contour shape of the second nostril from the position and the contour of the second nostril extracted by the element extracting unit;
A nose feature information generating unit configured to generate information including nose contour shape specified by the element shape specifying unit, contour shape of the first nostril, and contour shape of the second nostril as nose feature information; A nose feature information generating device.
前記要素形状特定部は、
予め定められた鼻基準位置算出方法として前記要素抽出部が抽出した鼻の輪郭により定まる輪郭形状の図形の重心位置を算出して鼻基準位置とし、
予め定められた第1鼻孔基準位置算出方法として前記要素抽出部が抽出した第1鼻孔の輪郭により定まる輪郭形状の図形の重心位置を算出して第1鼻孔基準位置とし、
予め定められた第2鼻孔基準位置算出方法として前記要素抽出部が抽出した第2鼻孔の輪郭により定まる輪郭形状の図形の重心位置を算出して第2鼻孔基準位置とする
ことを特徴とする請求項1記載の鼻特徴情報生成装置。
The element shape specifying part is
As a predetermined nose reference position calculation method, the center of gravity position of the figure of the contour shape determined by the nose outline extracted by the element extraction unit is calculated as the nose reference position,
As a first nostril reference position calculation method determined in advance, a center of gravity position of a figure having a contour shape determined by the outline of the first nostril extracted by the element extraction unit is calculated as a first nostril reference position;
A predetermined second nostril reference position calculation method is characterized in that a center of gravity position of a figure having a contour shape determined by the contour of the second nostril extracted by the element extraction unit is calculated and used as a second nostril reference position. Item 1. The nasal feature information generation device according to item 1.
前記画像入力部は、
哺乳類の鼻の画像であって2つの鼻孔と、2つの鼻孔のそれぞれに対応する鼻翼と、鼻橋部とを含む鼻全体が撮影されている鼻撮影画像を入力し、
前記要素抽出部は、
鼻の構成要素として、鼻の輪郭と、2つの鼻孔である第1鼻孔と第2鼻孔とのそれぞれの輪郭と、鼻橋部と、第1鼻孔に対応する第1鼻翼と、第2鼻孔に対応する第2鼻翼とを抽出し、
前記要素形状特定部は、
予め定められた鼻基準位置算出方法として前記要素抽出部が抽出した鼻橋部に基づいて鼻基準位置を算出し、
予め定められた第1鼻孔基準位置算出方法として前記要素抽出部が抽出した第1鼻翼に基づいて第1鼻孔基準位置を算出し、
予め定められた第2鼻孔基準位置算出方法として前記要素抽出部が抽出した第2鼻翼に基づいて第2鼻孔基準位置を算出することを特徴とする請求項1記載の鼻特徴情報生成装置。
The image input unit
Enter a nose photographed image of the entire nose, including two nostrils, a nostril corresponding to each of the two nostrils, and a nose bridge,
The element extraction unit includes:
As components of the nose, the outline of the nose, the outlines of the two nostrils, the first nostril and the second nostril, the nose bridge part, the first nostril corresponding to the first nostril, and the second nostril Extract the corresponding second nose wing,
The element shape specifying part is
Calculate the nose reference position based on the nose bridge extracted by the element extraction unit as a predetermined nose reference position calculation method,
Calculating a first nostril reference position based on the first nostril extracted by the element extraction unit as a predetermined first nostril reference position calculating method;
The nose feature information generation apparatus according to claim 1, wherein the second nostril reference position is calculated based on the second nostril extracted by the element extraction unit as a predetermined second nostril reference position calculation method.
前記要素抽出部は、
鼻橋部を帯状として抽出するとともに、第1鼻翼と第2鼻翼とのそれぞれを線分として抽出し、
前記要素形状特定部は、
予め定められた鼻基準位置算出方法として、帯状として抽出された鼻橋部上に所定の2点を設定してこの2点を通る線分であって両端が鼻の輪郭上に位置する第1線分を作成し第1線分と直交する線分であって両端が鼻の輪郭上に位置する線分のうち最も長い線分を第2線分として作成し第1線分と第2線分との交点を算出して鼻基準位置とし、
予め定められた第1鼻孔基準位置算出方法として、線分として抽出された第1鼻翼を延長することにより第1鼻孔の輪郭と2つの交点を共有する第3線分を作成し第3線分と直交する線分であって両端が第1鼻孔の輪郭上に位置する線分のうち最も長い線分を第4線分として作成し第3線分と第4線分との交点を算出して第1鼻孔基準位置とし、
予め定められた第2鼻孔基準位置算出方法として、線分として抽出された第2鼻翼を延長することにより第2鼻孔の輪郭と2つの交点を共有する第5線分を作成し第5線分と直交する線分であって両端が第2鼻孔の輪郭上に位置する線分のうち最も長い線分を第6線分として作成し第5線分と第6線分との交点を算出して第2鼻孔基準位置とすることを特徴とする請求項3記載の鼻特徴情報生成装置。
The element extraction unit includes:
Extract the nose bridge as a band, and extract each of the first and second nose wings as line segments,
The element shape specifying part is
As a predetermined nose reference position calculation method, a predetermined two points are set on the nose bridge portion extracted as a belt-like shape, a line segment passing through the two points, and both ends thereof are positioned on the nose contour. The longest line segment is created as a second line segment that is a line segment that is orthogonal to the first line segment and whose both ends are located on the nose contour, and the first and second line segments are created. Calculate the intersection with the minute and set it as the nose reference position,
As a predetermined first nostril reference position calculation method, a third line segment is created by sharing the outline of the first nostril and two intersections by extending the first nose wing extracted as a line segment. The longest line segment among the line segments that are orthogonal to each other and whose both ends are located on the outline of the first nostril is created as the fourth line segment, and the intersection of the third and fourth line segments is calculated. To the first nostril reference position,
As a predetermined second nostril reference position calculation method, a fifth line segment is created by sharing the outline of the second nostril and two intersection points by extending the second nose wing extracted as a line segment. The longest line segment is created as the sixth line segment among the line segments that are orthogonal to each other and whose both ends are located on the outline of the second nostril, and the intersection of the fifth and sixth line segments is calculated. The nose feature information generating apparatus according to claim 3, wherein the second nostril reference position is used.
前記要素形状特定部は、
前記要素抽出部が抽出した鼻橋部の形状を特定し、
前記鼻特徴情報生成部は、
前記要素形状特定部が特定した鼻橋部の形状を鼻特徴情報に含めて、鼻特徴情報を生成することを特徴とする請求項3または4のいずれかに記載の鼻特徴情報生成装置。
The element shape specifying part is
Identify the shape of the nasal bridge extracted by the element extraction unit,
The nose feature information generation unit
5. The nasal feature information generation apparatus according to claim 3, wherein the nasal feature information is generated by including the shape of the nasal bridge specified by the element shape specifying unit in the nasal feature information.
前記要素形状特定部は、
鼻基準位置を鼻の輪郭の内部領域のいずれかの位置として算出し、かつ、第1鼻孔基準位置を第1鼻孔の輪郭の内部領域のいずれかの位置として算出し、かつ、第2鼻孔基準位置を第2鼻孔の輪郭の内部領域のいずれかの位置として算出した場合に、
鼻基準位置を始点として互いに異なる複数の方向に向かう複数の線分であって終点が鼻の輪郭上に存在する複数の線分を設定して設定した複数の線分のそれぞれの長さと方向とから鼻の輪郭形状を特定し、
第1鼻孔基準位置を始点として互いに異なる複数の方向に向かう複数の線分であって終点が第1鼻孔の輪郭上に存在する複数の線分を設定して設定した複数の線分のそれぞれの長さと方向とから第1鼻孔の輪郭形状を特定し、
第2鼻孔基準位置を始点として互いに異なる複数の方向に向かう複数の線分であって終点が第2鼻孔の輪郭上に存在する複数の線分を設定して設定した複数の線分のそれぞれの長さと方向とから第2鼻孔の輪郭形状を特定することを特徴とする請求項1〜5いずれかに記載の鼻特徴情報生成装置。
The element shape specifying part is
The nose reference position is calculated as any position in the inner region of the nose contour, the first nostril reference position is calculated as any position in the inner region of the first nostril contour, and the second nostril reference When the position is calculated as any position of the inner region of the outline of the second nostril,
Lengths and directions of a plurality of line segments set by setting a plurality of line segments that start from the nose reference position in a plurality of different directions and have end points on the nose outline Identify the contour shape of the nose from the
Each of a plurality of line segments that are set by setting a plurality of line segments that are in a plurality of different directions starting from the first nostril reference position and whose end points exist on the outline of the first nostril From the length and direction, specify the contour shape of the first nostril,
Each of a plurality of line segments that are set by setting a plurality of line segments that are in a plurality of different directions starting from the second nostril reference position and whose end points are present on the outline of the second nostril The nose feature information generation device according to any one of claims 1 to 5, wherein the contour shape of the second nostril is specified from the length and direction.
前記要素形状特定部は、
鼻基準位置を始点として略10度おきに互いに異なる36の方向に向かう36本の線分であって終点が鼻の輪郭上に存在する36本の線分を設定して設定した36本の線分のそれぞれの長さと方向とから鼻の輪郭形状を特定し、
第1鼻孔基準位置を始点として略10度おきに互いに異なる36の方向に向かう36本の線分であって終点が第1鼻孔の輪郭上に存在する36本の線分を設定して設定した36本の線分のそれぞれの長さと方向とから第1鼻孔の輪郭形状を特定し、
第2鼻孔基準位置を始点として略10度おきに互いに異なる36の方向に向かう36本の線分であって終点が第2鼻孔の輪郭上に存在する36本の線分を設定して設定した36本の線分のそれぞれの長さと方向とから第2鼻孔の輪郭形状を特定することを特徴とする請求項6記載の鼻特徴情報生成装置。
The element shape specifying part is
36 lines set by setting 36 line segments starting from the nose reference position and extending in 36 directions that are different from each other at approximately 10 degrees and whose end points are present on the outline of the nose. Identify the contour shape of the nose from the length and direction of each minute,
The first nostril reference position is set as a starting point, and 36 line segments are set at approximately 10 degrees in different 36 directions and the end point is on the outline of the first nostril. Identify the contour shape of the first nostril from the length and direction of each of the 36 line segments,
36 line segments are set by setting 36 line segments starting from the second nostril reference position and extending in different 36 directions at intervals of approximately 10 degrees, with the end point existing on the outline of the second nostril. The nose feature information generation device according to claim 6, wherein the contour shape of the second nostril is specified from the length and direction of each of the 36 line segments.
前記要素形状特定部は、
鼻基準位置を始点として略5度おきに互いに異なる72の方向に向かう72本の線分であって終点が鼻の輪郭上に存在する72本の線分を設定して設定した72本の線分それぞれの長さと方向とから鼻の輪郭形状を特定し、
第1鼻孔基準位置を始点として略5度おきに互いに異なる72の方向に向かう72本の線分であって終点が第1鼻孔の輪郭上に存在する72本の線分を設定して設定した72本の線分それぞれの長さと方向とから第1鼻孔の輪郭形状を特定し、
第2鼻孔基準位置を始点として略5度おきに互いに異なる72の方向に向かう72本の線分であって終点が第2鼻孔の輪郭上に存在する72本の線分を設定して設定した72本の線分それぞれの長さと方向とから第2鼻孔の輪郭形状を特定することを特徴とする請求項6記載の鼻特徴情報生成装置。
The element shape specifying part is
72 lines set by setting 72 line segments starting from the nose reference position and starting in the direction of 72 different from each other at intervals of about 5 degrees and having the end points existing on the nose outline. Identify the contour shape of the nose from the length and direction of each minute,
72 line segments are set by setting 72 line segments that start in the first nostril reference position and move in different 72 directions at intervals of about 5 degrees and whose end points are on the outline of the first nostril. Identify the contour shape of the first nostril from the length and direction of each of the 72 line segments,
72 line segments that are in the direction of 72 different from each other at approximately every 5 degrees starting from the second nostril reference position are set and set as 72 line segments whose end points exist on the outline of the second nostril. The nose feature information generation device according to claim 6, wherein the contour shape of the second nostril is specified from the length and direction of each of the 72 line segments.
前記鼻特徴情報生成装置は、さらに、
所定種類の哺乳類の鼻特徴情報を登録する鼻特徴情報登録部と、
送信元から前記所定種類の哺乳類の鼻撮影画像と送信元を示す送信元データとを含む送信元情報を受信し、受信した送信元情報に含まれる鼻撮影情報を前記画像入力部に出力する通信部と
を備え、
前記鼻特徴情報生成部は、
前記通信部が前記画像入力部に出力した鼻撮影画像を元にする鼻特徴情報を生成し、生成した鼻特徴情報を前記通信部が受信した送信元情報に含まれる送信元データに対応付けて対応付け鼻特徴情報として前記鼻特徴情報登録部に登録することを特徴とする請求項1記載の鼻特徴情報生成装置。
The nose feature information generating device further includes:
A nasal feature information registration unit for registering nasal feature information of a predetermined type of mammal;
Communication that receives transmission source information including a nose photographed image of the predetermined type of mammal and transmission source data indicating the transmission source from the transmission source, and outputs the nose imaging information included in the received transmission source information to the image input unit With
The nose feature information generation unit
The communication unit generates nose feature information based on the nose photographed image output to the image input unit, and associates the generated nose feature information with the transmission source data included in the transmission source information received by the communication unit. The nasal feature information generation apparatus according to claim 1, wherein the nasal feature information is registered in the nose feature information registration unit as the associated nose feature information.
前記鼻特徴情報登録部は、
前記所定種類の哺乳類について、対応付け鼻特徴情報を複数登録しており、
前記通信部は、
前記鼻特徴情報登録部に登録されている対応付け鼻特徴情報のいずれかと一致するかどうかの判定を要求する判定要求情報であって判定要求に係る鼻撮影画像を含む判定要求情報を送信する判定要求装置から判定要求情報を受信し、受信した判定要求に係る鼻撮影画像を前記画像入力部に出力し、
前記鼻特徴情報生成部は、
前記通信部が前記画像入力部に出力した判定要求に係る鼻撮影画像を元にする鼻特徴情報である判定要求鼻特徴情報を生成し、
前記鼻特徴情報生成装置は、さらに、
前記鼻特徴情報生成部が生成した判定要求鼻特徴情報を前記鼻特徴情報登録部に登録されている複数の対応付け鼻特徴情報のそれぞれと予め定められた所定の比較方法によって比較して予め設定された検索基準に基づいて前記鼻特徴情報登録部から対応付け鼻特徴情報を検索し、検索結果を前記通信部を介して前記判定要求装置に返信する検索部を
備えたことを特徴とする請求項9記載の鼻特徴情報生成装置。
The nose feature information registration unit
For the predetermined type of mammal, a plurality of associated nose feature information is registered,
The communication unit is
Determination request information for requesting determination as to whether or not any of the associated nose feature information registered in the nose feature information registration unit is matched, and transmitting determination request information including a nose photographed image related to the determination request Receiving determination request information from the requesting device, outputting a nose photographed image related to the received determination request to the image input unit,
The nose feature information generation unit
Generating determination request nose feature information that is nose feature information based on a nose photographed image related to the determination request output by the communication unit to the image input unit;
The nose feature information generating device further includes:
The determination request nose feature information generated by the nose feature information generation unit is set in advance by comparing each of the plurality of associated nose feature information registered in the nose feature information registration unit with a predetermined comparison method. And a search unit configured to search the associated nose feature information from the nose feature information registration unit based on the search criteria and return a search result to the determination requesting device via the communication unit. Item 9. The nasal feature information generation device according to Item 9.
前記検索部は、
検索の結果、前記鼻特徴情報登録部から対応付け鼻特徴情報が検索できた場合には、検索結果として、検索された対応付け鼻特徴情報に対応する送信元データを返信することを特徴とする請求項10記載の鼻特徴情報生成装置。
The search unit
As a result of the search, when the associated nose feature information can be retrieved from the nose feature information registration unit, transmission source data corresponding to the retrieved associated nose feature information is returned as a search result. The nose characteristic information generation device according to claim 10.
前記通信部が受信する送信元情報は、
送信元情報に含まれる鼻撮影画像に係る前記所定種類の哺乳類の個体の特徴を示す個体特徴データを含み、
前記鼻特徴情報生成部は、
対応付け鼻特徴情報をさらに個体特徴データに対応付けて前記鼻特徴情報登録部に登録し、
前記検索部は、
検索の結果、前記鼻特徴情報登録部から対応付け鼻特徴情報が検索できた場合には、検索結果として、対応付け鼻特徴情報に対応する送信元データと個体特徴データとを返信することを特徴とする請求項10記載の鼻特徴情報生成装置。
The transmission source information received by the communication unit is:
Including individual feature data indicating characteristics of the individual mammal of the predetermined type related to the nose photograph image included in the transmission source information,
The nose feature information generation unit
The associated nose feature information is further registered in the nose feature information registration unit in association with the individual feature data,
The search unit
As a result of the search, when the associated nose feature information can be retrieved from the nose feature information registration unit, the source data and the individual feature data corresponding to the associated nose feature information are returned as a search result. The nose feature information generation device according to claim 10.
前記通信部が受信する個体特徴データは、
前記所定種類の哺乳類の個体の全体を撮影した全体撮影画像を含むことを特徴とする請求項12記載の鼻特徴情報生成装置。
The individual feature data received by the communication unit is:
13. The nasal feature information generation apparatus according to claim 12, further comprising a whole photographed image obtained by photographing the whole mammal of the predetermined type.
哺乳類の鼻の画像であって2つの鼻孔を含む鼻全体が撮影されている鼻撮影画像を入力する処理と、
入力された前記鼻撮影画像から鼻の輪郭を識別し、識別した鼻の輪郭に沿って前記鼻撮影画像から2つの鼻孔を含む鼻の画像である鼻輪郭画像を切り出して前記鼻輪郭画像を抽出する処理と、
抽出された鼻輪郭画像に所定の補正をする必要があるかどうかを判定し、補正の必要があると判定した場合には所定の補正を行って補正後の鼻輪郭画像を補正判定済み画像として出力し、補正の必要がないと判定した場合には補正を行うことなく鼻輪郭画像を補正判定済み画像として出力する処理と、
出力された補正判定済み画像から、鼻の構成要素として、鼻の輪郭と、2つの鼻孔である第1鼻孔と第2鼻孔とのそれぞれの輪郭とを抽出する処理と、
抽出された鼻の輪郭の形状の特定に使用する基準位置である鼻基準位置を予め定められた鼻基準位置算出方法により算出して算出した前記鼻基準位置と抽出された鼻の輪郭とから鼻の輪郭形状を特定し、
抽出された第1鼻孔の輪郭の形状の特定に使用する基準位置である第1鼻孔基準位置を予め定められた第1鼻孔基準位置算出方法により算出して算出した第1鼻孔基準位置と抽出された第1鼻孔の輪郭とから第1鼻孔の輪郭形状を特定し、
抽出された第2鼻孔の輪郭の形状の特定に使用する基準位置である第2鼻孔基準位置を予め定められた第2鼻孔基準位置算出方法により算出して算出した第2鼻孔基準位置と抽出された第2鼻孔の輪郭とから第2鼻孔の輪郭形状を特定する処理と、
特定された鼻の輪郭形状と、第1鼻孔の輪郭形状と、第2鼻孔の輪郭形状とを含む情報を鼻特徴情報として生成する処理と
をコンピュータに実行させることを特徴とする鼻特徴情報生成プログラム。
A process of inputting a nose photograph image in which the entire nose including two nostrils is photographed, which is an image of a mammal's nose;
A nose outline is identified by identifying a nose outline from the input nose photographed image, and extracting a nose outline image that is a nose outline image including two nostrils from the nose photographed image along the identified nose outline. Processing to
It is determined whether or not the extracted nose contour image needs to be corrected. If it is determined that correction is necessary, the corrected nose contour image is corrected and determined as a corrected image. A process of outputting a nose contour image as a corrected determination image without performing correction when it is determined that there is no need for correction;
A process of extracting the outline of the nose and the outlines of the two nostrils, the first nostril and the second nostril, from the output corrected and determined image,
A nose based on the nose reference position calculated by calculating a nose reference position, which is a reference position used for specifying the shape of the extracted nose outline, by a predetermined nose reference position calculation method and the extracted nose outline Identify the contour shape of
The first nostril reference position calculated by calculating the first nostril reference position, which is a reference position used for specifying the extracted contour shape of the first nostril, by a predetermined first nostril reference position calculation method is extracted. Identifying the contour shape of the first nostril from the contour of the first nostril,
A second nostril reference position calculated by calculating a second nostril reference position, which is a reference position used for specifying the contour shape of the extracted second nostril, by a predetermined second nostril reference position calculation method is extracted. A process of specifying the contour shape of the second nostril from the contour of the second nostril;
Nose feature information generation characterized by causing a computer to execute processing for generating information including the identified nose contour shape, the first nostril contour shape, and the second nostril contour shape as nose feature information program.
JP2005335433A 2005-11-21 2005-11-21 Nose characteristic information-producing apparatus and nose characteristic information-producing program Pending JP2007135501A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005335433A JP2007135501A (en) 2005-11-21 2005-11-21 Nose characteristic information-producing apparatus and nose characteristic information-producing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005335433A JP2007135501A (en) 2005-11-21 2005-11-21 Nose characteristic information-producing apparatus and nose characteristic information-producing program

Publications (1)

Publication Number Publication Date
JP2007135501A true JP2007135501A (en) 2007-06-07

Family

ID=38199102

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005335433A Pending JP2007135501A (en) 2005-11-21 2005-11-21 Nose characteristic information-producing apparatus and nose characteristic information-producing program

Country Status (1)

Country Link
JP (1) JP2007135501A (en)

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009021862A (en) * 2007-07-12 2009-01-29 Fujifilm Corp Imaging apparatus, and imaging control method
WO2010018669A1 (en) 2008-08-11 2010-02-18 オムロン株式会社 Detection information registration device, object detection device, electronic device, method for controlling detection information registration device, method for controlling object detection device, program for controlling detection information registration device, and program for controlling object detection device
WO2013018615A1 (en) * 2011-07-29 2013-02-07 日本電気株式会社 Comparison/search system, comparison/search server, image characteristic extraction device, comparison/search method, and program
WO2013018614A1 (en) * 2011-07-29 2013-02-07 日本電気株式会社 Comparison/search system, comparison/search server, image characteristic extraction device, comparison/search method, and program
WO2013018613A1 (en) * 2011-07-29 2013-02-07 日本電気株式会社 Comparison system, comparison server, comparison method, characteristic extraction device, comparison/search device, and program
WO2014189250A3 (en) * 2013-05-22 2015-01-15 주식회사 아이싸이랩 Device and method for recognizing animal's identity by using animal nose prints
KR101494716B1 (en) * 2014-10-31 2015-02-26 주식회사 아이싸이랩 Apparatus of Animal Recognition System using nose patterns
JP2018007625A (en) * 2016-07-14 2018-01-18 シャープ株式会社 Biological information processing device
JP2018536513A (en) * 2015-10-15 2018-12-13 ドセントアールエックス エルティーディーDosentrx Ltd Formulation dispenser based on image recognition
KR101936188B1 (en) 2017-07-12 2019-01-08 이민정 Mehtod and apparatus for distinguishing entity
KR20190066323A (en) 2017-12-05 2019-06-13 (주)링크옵틱스 Animal nose print photographing apparatus
WO2020036368A1 (en) * 2018-08-13 2020-02-20 주식회사 아이싸이랩 Method for acquiring animal noseprint image
WO2020075888A1 (en) * 2018-10-11 2020-04-16 주식회사 핏펫 Computer program and terminal for providing information about individual animals on basis of animal face and noseprint images
KR20200041296A (en) * 2018-10-11 2020-04-21 주식회사 핏펫 Computer program and theminal for providing individual animal information based on the facial and nose pattern imanges of the animal
KR20200082125A (en) 2018-12-28 2020-07-08 (주)링크옵틱스 Food distribution system for obtaining companion animal nose pattern information
JP2021036871A (en) * 2020-10-21 2021-03-11 シャープ株式会社 Biological information processing device and program
WO2021172670A1 (en) * 2020-02-28 2021-09-02 주식회사 아이싸이랩 Method for registration, authentication, and inquiry service for animal nose pattern image using terminal having camera built therein
KR20220016255A (en) * 2019-12-19 2022-02-08 주식회사 유니온커뮤니티 Method and Apparatus for Analysing Pattern Feature of Muzzle Print Images, and Software Distribution Server for Publishing Softwares for the Method
JP2022048464A (en) * 2020-09-15 2022-03-28 株式会社華和結ホールディングス Nose print collation device, method and program
CN115393904A (en) * 2022-10-20 2022-11-25 星宠王国(北京)科技有限公司 Dog nose print identification method and system
US11948390B1 (en) 2023-06-30 2024-04-02 Xingchong Kingdom (Beijing) Technology Co., Ltd Dog nose print recognition method and system

Cited By (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009021862A (en) * 2007-07-12 2009-01-29 Fujifilm Corp Imaging apparatus, and imaging control method
US8774456B2 (en) 2008-08-11 2014-07-08 Omron Corporation Detective information registration device and target object detection device for detecting an object in an image
WO2010018669A1 (en) 2008-08-11 2010-02-18 オムロン株式会社 Detection information registration device, object detection device, electronic device, method for controlling detection information registration device, method for controlling object detection device, program for controlling detection information registration device, and program for controlling object detection device
EP2892027A1 (en) 2008-08-11 2015-07-08 Omron Corporation Detective information registration device, method of controlling detective information registration device and control program for detective information registration device
US10460216B2 (en) 2011-07-29 2019-10-29 Nec Corporation Collation/retrieval system, collation/retrieval server, image feature extraction apparatus, collation/retrieval method, and program
WO2013018613A1 (en) * 2011-07-29 2013-02-07 日本電気株式会社 Comparison system, comparison server, comparison method, characteristic extraction device, comparison/search device, and program
US9842285B2 (en) 2011-07-29 2017-12-12 Nec Corporation Collation/retrieval system, collation/retrieval server, image feature extraction apparatus, collation/retrieval method, and program
US10853705B2 (en) 2011-07-29 2020-12-01 Nec Corporation Collation/retrieval system, collation/retrieval server, image feature extraction apparatus, collation/retrieval method, and program
JPWO2013018615A1 (en) * 2011-07-29 2015-03-05 日本電気株式会社 Collation / search system, collation / search server, image feature extraction device, collation / search method and program
JPWO2013018614A1 (en) * 2011-07-29 2015-03-05 日本電気株式会社 Collation / search system, collation / search server, image feature extraction device, collation / search method and program
WO2013018614A1 (en) * 2011-07-29 2013-02-07 日本電気株式会社 Comparison/search system, comparison/search server, image characteristic extraction device, comparison/search method, and program
WO2013018615A1 (en) * 2011-07-29 2013-02-07 日本電気株式会社 Comparison/search system, comparison/search server, image characteristic extraction device, comparison/search method, and program
US11983725B2 (en) 2011-07-29 2024-05-14 Nec Corporation Collation/retrieval system, collation/retrieval server, image feature extraction apparatus, collation/retrieval method, and program
KR101527801B1 (en) * 2013-05-22 2015-06-11 주식회사 아이싸이랩 Apparatus and Method of an Animal Recognition System using nose patterns
EP4140294A1 (en) * 2013-05-22 2023-03-01 Iscilab Corporation Device for recognizing animal's identity by using animal nose prints
JP2018191648A (en) * 2013-05-22 2018-12-06 アイエスシーアイラボ コーポレイション Animal individual recognition device and method using nose patterns of animals
EP3029603A4 (en) * 2013-05-22 2017-08-30 Iscilab Corporation Device and method for recognizing animal's identity by using animal nose prints
US10552673B2 (en) 2013-05-22 2020-02-04 Iscilab Corporation Device and method for recognizing animal's identity by using animal nose prints
US10268880B2 (en) 2013-05-22 2019-04-23 Iscilab Corporation Device and method for recognizing animal's identity by using animal nose prints
US10565440B2 (en) 2013-05-22 2020-02-18 Iscilab Corporation Device for recognizing animal's identity by using animal nose prints
WO2014189250A3 (en) * 2013-05-22 2015-01-15 주식회사 아이싸이랩 Device and method for recognizing animal's identity by using animal nose prints
KR101494716B1 (en) * 2014-10-31 2015-02-26 주식회사 아이싸이랩 Apparatus of Animal Recognition System using nose patterns
JP2018536513A (en) * 2015-10-15 2018-12-13 ドセントアールエックス エルティーディーDosentrx Ltd Formulation dispenser based on image recognition
JP2018007625A (en) * 2016-07-14 2018-01-18 シャープ株式会社 Biological information processing device
KR101936188B1 (en) 2017-07-12 2019-01-08 이민정 Mehtod and apparatus for distinguishing entity
KR20190066323A (en) 2017-12-05 2019-06-13 (주)링크옵틱스 Animal nose print photographing apparatus
KR102168508B1 (en) 2017-12-05 2020-10-21 (주)링크옵틱스 Animal nose print photographing apparatus
WO2020036368A1 (en) * 2018-08-13 2020-02-20 주식회사 아이싸이랩 Method for acquiring animal noseprint image
WO2020075888A1 (en) * 2018-10-11 2020-04-16 주식회사 핏펫 Computer program and terminal for providing information about individual animals on basis of animal face and noseprint images
KR102117860B1 (en) * 2018-10-11 2020-06-02 주식회사 핏펫 Computer program and theminal for providing individual animal information based on the facial and nose pattern imanges of the animal
KR20200041296A (en) * 2018-10-11 2020-04-21 주식회사 핏펫 Computer program and theminal for providing individual animal information based on the facial and nose pattern imanges of the animal
KR20200044209A (en) * 2018-10-11 2020-04-29 주식회사 핏펫 Computer program and theminal for providing individual animal information based on the facial and nose pattern imanges of the animal
KR102487825B1 (en) * 2018-10-11 2023-01-12 주식회사 핏펫 Computer program and theminal for providing individual animal information based on the facial and nose pattern imanges of the animal
KR20200082125A (en) 2018-12-28 2020-07-08 (주)링크옵틱스 Food distribution system for obtaining companion animal nose pattern information
KR102551821B1 (en) * 2019-12-19 2023-07-05 주식회사 유니온커뮤니티 Method and Apparatus for Analysing Pattern Feature of Muzzle Print Images, and Software Distribution Server for Publishing Softwares for the Method
KR20220016255A (en) * 2019-12-19 2022-02-08 주식회사 유니온커뮤니티 Method and Apparatus for Analysing Pattern Feature of Muzzle Print Images, and Software Distribution Server for Publishing Softwares for the Method
WO2021172670A1 (en) * 2020-02-28 2021-09-02 주식회사 아이싸이랩 Method for registration, authentication, and inquiry service for animal nose pattern image using terminal having camera built therein
JP2022048464A (en) * 2020-09-15 2022-03-28 株式会社華和結ホールディングス Nose print collation device, method and program
JP2021191286A (en) * 2020-10-21 2021-12-16 シャープ株式会社 Biological information processing device and program
JP7054121B2 (en) 2020-10-21 2022-04-13 シャープ株式会社 Biometric information processing equipment and programs
JP7166403B2 (en) 2020-10-21 2022-11-07 シャープ株式会社 Biological information processing device and program
JP7166402B2 (en) 2020-10-21 2022-11-07 シャープ株式会社 Biological information processing device and program
JP2021191288A (en) * 2020-10-21 2021-12-16 シャープ株式会社 Biological information processing device and program
JP2021191289A (en) * 2020-10-21 2021-12-16 シャープ株式会社 Biological information processing device and program
JP7238050B2 (en) 2020-10-21 2023-03-13 シャープ株式会社 Biological information processing device
JP7238049B2 (en) 2020-10-21 2023-03-13 シャープ株式会社 Biological information processing device and program
JP2021191287A (en) * 2020-10-21 2021-12-16 シャープ株式会社 Biological information processing device
JP2021036871A (en) * 2020-10-21 2021-03-11 シャープ株式会社 Biological information processing device and program
CN115393904A (en) * 2022-10-20 2022-11-25 星宠王国(北京)科技有限公司 Dog nose print identification method and system
WO2024082714A1 (en) * 2022-10-20 2024-04-25 星宠王国(北京)科技有限公司 Dog noseprint recognition method and system
US11948390B1 (en) 2023-06-30 2024-04-02 Xingchong Kingdom (Beijing) Technology Co., Ltd Dog nose print recognition method and system

Similar Documents

Publication Publication Date Title
JP2007135501A (en) Nose characteristic information-producing apparatus and nose characteristic information-producing program
US9443166B2 (en) Animal / pet identification system and method based on biometrics
Dunn et al. Geometric deep learning enables 3D kinematic profiling across species and environments
Tsagkrasoulis et al. Heritability maps of human face morphology through large-scale automated three-dimensional phenotyping
US10952410B2 (en) System and method of estimating livestock weight
EP2676222B1 (en) Facial recognition
Nikita et al. A quantitative approach for sex estimation based on cranial morphology
US20170340419A1 (en) Tooth type judgment program, tooth type position judgment device and method of the same
KR101788272B1 (en) Animal Identification and Registration Method based on Biometrics
US9826713B2 (en) Animal muzzle pattern scanning device
JP6610695B2 (en) Information acquisition apparatus and server
JP5785667B1 (en) Person identification system
WO2020119167A1 (en) Data processing method and device, system and medium
US20170091539A1 (en) ID Information for Identifying an Animal
EP3426152A1 (en) Computer-aided telemedical evaluation
JP2023520302A (en) Systems and methods for detecting and weighing animals
KR20190059148A (en) Method for identification of companion animals using muzzle patternrecognition from an identity verification agency
JP2023553812A (en) Nose-based pet identification system and method
JP2012079348A (en) Person specification device, person specification method, and person specification program
JP2004151820A (en) Lost child searching and monitoring system
US20160282827A1 (en) Method for providing custom fit saddle trees
KR20020066771A (en) System for network-based identification of the dog using a nose pattern
JP7048408B2 (en) Hospital support systems, hospital support methods, controls, and control programs
JP2019170360A (en) Identification device, identification method and program
JP4453867B2 (en) Content cooperation degree calculation device and program