JP2021174442A - Individual identification system - Google Patents

Individual identification system Download PDF

Info

Publication number
JP2021174442A
JP2021174442A JP2020080323A JP2020080323A JP2021174442A JP 2021174442 A JP2021174442 A JP 2021174442A JP 2020080323 A JP2020080323 A JP 2020080323A JP 2020080323 A JP2020080323 A JP 2020080323A JP 2021174442 A JP2021174442 A JP 2021174442A
Authority
JP
Japan
Prior art keywords
processing unit
image
collation
condition
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020080323A
Other languages
Japanese (ja)
Other versions
JP7377163B2 (en
Inventor
達也 水井
Tatsuya MIZUI
太 須納瀬
Futoshi SUNOSE
文人 寺井
Fumito Terai
悠一 吉田
Yuichi Yoshida
満 安倍
Mitsuru Abe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Denso IT Laboratory Inc
Original Assignee
Denso Corp
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Denso IT Laboratory Inc filed Critical Denso Corp
Priority to JP2020080323A priority Critical patent/JP7377163B2/en
Priority to PCT/JP2021/015595 priority patent/WO2021220828A1/en
Priority to TW110115492A priority patent/TW202211158A/en
Publication of JP2021174442A publication Critical patent/JP2021174442A/en
Application granted granted Critical
Publication of JP7377163B2 publication Critical patent/JP7377163B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

To improve identification accuracy.SOLUTION: An individual identification system 1 includes an image acquisition processing unit 212, a feature point extraction processing unit 221, a local feature quantity calculation processing unit 222, and a specification processing unit 2612. The individual identification system 1 includes at least two of a visualization apparatus 33 for superimposing feature points on an image to be displayed on a display device, an imaging condition adjustment apparatus 31 having an imaging object adjustment processing unit 312 for adjusting an imaging object condition and an imaging device condition adjustment processing unit 311 for adjusting an imaging device condition, and a cross-check identification adjustment apparatus 32 having a collation result display processing unit 333 configured to execute collation result display processing for collectively displaying collation results of collation processing on the display device 12 using a parameter set.SELECTED DRAWING: Figure 1

Description

本発明の実施形態は、個体表面に表れる個体固有の模様いわゆる個体指紋に基づいて個体を識別することができる個体識別システムに関する。 An embodiment of the present invention relates to an individual identification system capable of identifying an individual based on an individual pattern appearing on the surface of the individual, a so-called individual fingerprint.

近年、例えば工業製品等は生産後の流通過程だけでなく生産過程においても高いトレーサビリティが要求されるようになっている。例えば同一工程でかつ同一ロットで生産された同一種類の部品であっても、その性能に通常の使用には何ら問題ない程度の僅かな違いを有していることがある。製品の生産過程において、このような部品1個1個の僅かな特性の違いも考慮に入れて最適な組み合わせで製品を製造することができれば、その製品の性能を向上させることができるからである。 In recent years, for example, industrial products are required to have high traceability not only in the distribution process after production but also in the production process. For example, even parts of the same type produced in the same process and in the same lot may have slight differences in their performance to the extent that there is no problem in normal use. This is because the performance of the product can be improved if the product can be manufactured in the optimum combination in consideration of such a slight difference in the characteristics of each part in the production process of the product. ..

また、従来の生産工程では、部品の加工条件等と検査結果とが紐付けされていないため、検査結果を加工条件等に反映させることが難しかった。これに対し、生産過程において部品1個単位で追跡することができれば、検査結果を加工条件等に適切に反映させることができ、その結果、不良の低減や品質・性能を更に向上させることができる。 Further, in the conventional production process, since the processing conditions of parts and the inspection results are not linked, it is difficult to reflect the inspection results in the processing conditions and the like. On the other hand, if it is possible to track each part in the production process, the inspection result can be appropriately reflected in the processing conditions and the like, and as a result, defects can be reduced and quality / performance can be further improved. ..

従来、製品等の追跡管理する手法としては、例えば二次元コードやRFIDを用いるものがある。しかしながら、二次元コードやRFIDは、印字や貼り付けのコストが高い。そのため、製品を構成する多数の部品1個1個に対して、二次元コードやRFIDを付与することは経済的に考えても実現困難である。 Conventionally, as a method for tracking and managing products and the like, for example, there is a method using a two-dimensional code or RFID. However, two-dimensional codes and RFID are expensive to print and paste. Therefore, it is economically difficult to assign a two-dimensional code or RFID to each of a large number of parts constituting a product.

そこで、個々の個体が固有に有する表面形状を用いて個体を識別する技術が注目されている。このような物体の表面形状や模様であれば、二次元コードやRFID等を付与する必要がないため、部品1個1個の追跡管理も低コストで実現できる。 Therefore, attention is being paid to a technique for identifying an individual by using the surface shape unique to each individual. With such a surface shape or pattern of an object, it is not necessary to add a two-dimensional code, RFID, or the like, so tracking management of each part can be realized at low cost.

特開2012−103758号公報Japanese Unexamined Patent Publication No. 2012-103758 特開2012−181566号公報Japanese Unexamined Patent Publication No. 2012-181566

しかしながら、物体の表面形状や模様を用いて個体を識別することには次のような複数の課題がある。まず第1の課題として、工業製品を構成する部品は、例えば製造過程で熱の影響を受けたり経時変化したりして、識別対象となる部品の登録時と識別時とでその表面の模様の色味等が変化することがある。すると、画像の登録時と識別時とで抽出される表面模様の特徴が大きく変わる可能性があり、その結果、識別精度が低下してしまう。 However, identifying an individual using the surface shape or pattern of an object has the following multiple problems. First, as the first issue, the parts that make up an industrial product are affected by heat or change over time in the manufacturing process, for example, and the pattern on the surface of the parts to be identified is displayed at the time of registration and at the time of identification. Color etc. may change. Then, the characteristics of the surface pattern extracted at the time of registering the image and at the time of identification may be significantly changed, and as a result, the identification accuracy is lowered.

次に第2の課題として、工場内においては粉塵や工場内の照明、外光等の自然光、周囲のノイズ源等が外乱の要因となって、登録画像の撮影と識別画像の撮影との撮影環境が大きく変わる可能性がある。すると、抽出される特徴点や局所特徴量等が変わり、識別性能が低下するおそれがある。 Next, as a second issue, in the factory, dust, lighting in the factory, natural light such as outside light, ambient noise sources, etc. become factors of disturbance, and the registered image is taken and the identification image is taken. The environment can change significantly. Then, the extracted feature points, local feature amounts, and the like may change, and the discrimination performance may deteriorate.

そして、第3の課題として、工業製品の部品においては、人の顔や指紋と異なり、照合識別しようとする対象の種類や材質、加工方法によってその表面に表れる模様の特徴も様々である。このため、識別しようとする対象の種類によって、照合識別に用いるアルゴリズムのパラメータを適切なものに調整する必要がある。しかし、パラメータの項目は多数あり、その全ての組み合わせの中からユーザが手動で最適な組み合わせを探すことは大変な手間と時間がかかる。 As a third problem, unlike human faces and fingerprints, the characteristics of patterns appearing on the surface of industrial product parts vary depending on the type, material, and processing method of the object to be collated and identified. Therefore, it is necessary to adjust the parameters of the algorithm used for collation identification to appropriate ones depending on the type of the object to be identified. However, there are many parameter items, and it takes a lot of time and effort for the user to manually search for the optimum combination from all the combinations.

本発明は上記課題を鑑みてなされたものであり、その目的は、上記第1〜第3の課題のうち少なくとも2つを同時に解決することができる個体識別システムを提供することにある。 The present invention has been made in view of the above problems, and an object of the present invention is to provide an individual identification system capable of solving at least two of the first to third problems at the same time.

実施形態の個体識別システム(1)は、撮影機器によって撮影した被写体の画像を識別画像として取得する画像取得処理を実行可能な画像取得処理部(212)と、前記画像取得処理で取得した前記識別画像に含まれる特徴点を抽出する特徴点抽出処理を実行可能な特徴点抽出処理部(221)と、前記特徴点抽出処理で抽出された前記特徴点の局所特徴量を計算する局所特徴量計算処を実行可能な局所特徴量計算処理部(222)と、予め登録された複数の登録画像に係る前記局所特徴量と前記識別画像の前記局所特徴量とを比較し、複数の前記登録画像の中から前記識別画像の前記局所特徴量に最も相関が高い前記局所特徴量を有している登録画像を特定する特定処理を実行可能な特定処理部(2612)と、を有する個体識別装置を備える個体識別システム(1)である。 The individual identification system (1) of the embodiment includes an image acquisition processing unit (212) capable of performing an image acquisition process for acquiring an image of a subject photographed by a photographing device as an identification image, and the identification acquired by the image acquisition process. A feature point extraction processing unit (221) capable of executing a feature point extraction process for extracting feature points included in an image, and a local feature amount calculation for calculating a local feature amount of the feature points extracted by the feature point extraction process. The local feature amount calculation processing unit (222) capable of performing the process compares the local feature amount related to the plurality of registered images registered in advance with the local feature amount of the identification image, and compares the local feature amount of the plurality of registered images. It is provided with an individual identification device having a specific processing unit (2612) capable of executing a specific process for specifying a registered image having the local feature amount having the highest correlation with the local feature amount of the identification image. This is an individual identification system (1).

個体識別システム(1)は、前記個体識別装置の他に、前記特徴点抽出処理により抽出した前記特徴点を前記画像に重ねて表示装置に表示する特徴点表示処理を実行可能な特徴点表示処理部(331)を有する可視化装置(33)、又は、予め登録された複数の登録画像のうち同一の被写体を撮影した前記登録画像と前記識別画像とにおける前記局所特徴量を比較し前記特徴点の対応点数を取得して前記登録画像と前記識別画像とを照合する照合処理を前記個体識別装置に実行させるとともに、撮影対象に関する条件である撮影対象条件を調整する撮影対象条件調整処理を実行可能な撮影対象条件調整処理部(312)と、前記撮影機器に関する条件である撮影機器条件を調整する撮影機器条件調整処理を実行可能な撮影機器条件調整処理部(311)と、を有する撮影条件調整装置(31)、又は、前記照合処理の条件を設定するためのパラメータについて、各前記パラメータに定められた設定範囲内の設定値に設定された各前記パラメータを組み合わせて複数のパラメータセットを生成するパラメータセット生成処理を実行可能なパラメータセット生成処理部(324)と、ユーザの操作に基づいて前記パラメータセットを設定するパラメータセット設定処理を実行可能なパラメータセット設定処理部(325)と、を有し、前記照合処理部に、前記パラメータセット生成処理で生成された各前記パラメータセットを用いて前記照合処理を実行する処理を実行させるとともに、各前記パラメータセットを用いて前記照合処理の照合結果をまとめて表示装置(12)に表示する照合結果表示処理を実行可能な照合結果表示処理部(333)を更に有している照合識別条件調整装置(32)、のうち少なくとも2つの装置を備えている。 In the individual identification system (1), in addition to the individual identification device, a feature point display process capable of executing a feature point display process of superimposing the feature points extracted by the feature point extraction process on the image and displaying them on the display device. The visualization device (33) having the unit (331), or the local feature amount in the registered image obtained by photographing the same subject among a plurality of registered images registered in advance and the identification image is compared, and the feature points of the feature points are compared. It is possible to cause the individual identification device to execute a collation process of acquiring the corresponding points and collating the registered image with the identification image, and to execute a shooting target condition adjustment process for adjusting the shooting target condition which is a condition related to the shooting target. A shooting condition adjusting device having a shooting target condition adjustment processing unit (312) and a shooting device condition adjustment processing unit (311) capable of executing a shooting device condition adjustment process for adjusting the shooting device condition which is a condition related to the shooting device. (31) Or, with respect to the parameter for setting the condition of the collation process, a parameter for generating a plurality of parameter sets by combining each of the parameters set in the set value within the setting range defined for each of the parameters. It has a parameter set generation processing unit (324) capable of executing a set generation process, and a parameter set setting processing unit (325) capable of executing a parameter set setting process for setting the parameter set based on a user operation. , The collation processing unit is made to execute the process of executing the collation process using each of the parameter sets generated in the parameter set generation process, and the collation result of the collation process is summarized using each of the parameter sets. The collation identification condition adjusting device (32) further having a collation result display processing unit (333) capable of executing the collation result display process to be displayed on the display device (12) is provided with at least two devices. ..

一実施形態による個体識別システムの概略構成の一例を示すブロック図A block diagram showing an example of a schematic configuration of an individual identification system according to an embodiment. 一実施形態による個体識別システムが備える撮影装置の概略構成の一例を示すブロック図A block diagram showing an example of a schematic configuration of an imaging device included in an individual identification system according to an embodiment. 一実施形態による個体識別システムが備える特徴抽出装置の概略構成の一例を示すブロック図A block diagram showing an example of a schematic configuration of a feature extraction device included in an individual identification system according to an embodiment. 一実施形態による個体識別システムが備える登録処理装置の概略構成の一例を示すブロック図A block diagram showing an example of a schematic configuration of a registration processing device included in an individual identification system according to an embodiment. 一実施形態による個体識別システムが備える記録装置の概略構成の一例を示すブロック図A block diagram showing an example of a schematic configuration of a recording device included in an individual identification system according to an embodiment. 一実施形態による個体識別システムが備える辞書装置の概略構成の一例を示すブロック図A block diagram showing an example of a schematic configuration of a dictionary device included in an individual identification system according to an embodiment. 一実施形態による個体識別システムが備える画像照合識別装置の概略構成の一例を示すブロック図A block diagram showing an example of a schematic configuration of an image collation identification device included in an individual identification system according to an embodiment. 一実施形態による個体識別システムが備える撮影条件調整装置の概略構成の一例を示すブロック図A block diagram showing an example of a schematic configuration of an imaging condition adjusting device included in an individual identification system according to an embodiment. 一実施形態による個体識別システムが備える照合識別条件調整装置の概略構成の一例を示すブロック図A block diagram showing an example of a schematic configuration of a collation identification condition adjusting device included in an individual identification system according to an embodiment. 一実施形態による個体識別システムが備える可視化装置の概略構成の一例を示すブロック図A block diagram showing an example of a schematic configuration of a visualization device included in an individual identification system according to an embodiment. 一実施形態による個体識別システムにおいて特徴点抽出処理の実行結果の一例を示す図(その1)The figure which shows an example of the execution result of the feature point extraction process in the individual identification system by one Embodiment (the 1). 一実施形態による個体識別システムにおいて特徴点抽出処理の実行結果の一例を示す図(その2)The figure which shows an example of the execution result of the feature point extraction process in the individual identification system by one Embodiment (the 2). 一実施形態による個体識別システムにおいて局所特徴量から大域特徴量を計算する手法の一例を概念的に示す図A diagram conceptually showing an example of a method of calculating a global feature from a local feature in an individual identification system according to an embodiment. 一実施形態による個体識別システムにおいて大域特徴量辞書の生成方法の一例を概念的に示す図A diagram conceptually showing an example of a method for generating a global feature dictionary in an individual identification system according to an embodiment. 一実施形態による個体識別システムにおいて大域特徴量を用いた絞り込み処理の一例を概念的に示す図A diagram conceptually showing an example of narrowing down processing using global features in an individual identification system according to an embodiment. 一実施形態による個体識別システムにおいて局所特徴量を用いた特定処理の一例を概念的に示す図A diagram conceptually showing an example of specific processing using local features in an individual identification system according to an embodiment. 一実施形態による個体識別システムにおいてパラメータセットの一例を示す図The figure which shows an example of the parameter set in the individual identification system by one Embodiment 一実施形態による個体識別システムにおいて正対応点数と負対応点数の一例を概念的に示す図A diagram conceptually showing an example of a positive correspondence score and a negative correspondence score in an individual identification system according to an embodiment. 一実施形態による個体識別システムにおいて総当たり条件生成処理で生成される条件の組み合わせの一例を示す図The figure which shows an example of the combination of the conditions generated by the brute force condition generation process in the individual identification system by one Embodiment. 一実施形態による個体識別システムにおいて最適条件提示処理で生成されるグラフの一例を示す図The figure which shows an example of the graph generated by the optimum condition presentation processing in the individual identification system by one Embodiment. 一実施形態による個体識別システムにおいて特徴点表示処理で表示装置に表示される表示内容の一例を示す図The figure which shows an example of the display content displayed on the display device by the feature point display process in the individual identification system by one Embodiment. 一実施形態による個体識別システムにおいて照合結果表示処理で表示装置に表示される表示内容の一例を示す図(その1)The figure which shows an example of the display content displayed on the display device by the collation result display processing in the individual identification system by one Embodiment (the 1). 一実施形態による個体識別システムにおいて照合結果表示処理で表示装置に表示される表示内容の一例を示す図(その2)The figure which shows an example of the display content displayed on the display device by the collation result display processing in the individual identification system by one Embodiment (the 2).

以下では、一実施形態について図面を参照しながら説明する。なお、各ブロック図における矢印はデータの流れを示す。本実施形態で説明する各処理部つまり機能ブロックは、それぞれ異なるハードウェアで構成することもできるし、1つのハードウェアで複数の装置又は処理部を共用する構成としても良い。また、詳細は図示しないが、各装置及び各処理部を構成するハードウェアは、それぞれ例えばCPUや、ROM、RAM、及び書き換え可能なフラッシュメモリなどの記憶領域を有するマイクロコンピュータを主体に構成さすることができる。記憶領域は、各装置及び各処理部を実現するための個体識別プログラムを記憶している。そして、CPUにおいて個体識別プログラムを実行することにより、各装置及び各処理部における各処理を実現することができる。 Hereinafter, one embodiment will be described with reference to the drawings. The arrows in each block diagram indicate the data flow. Each processing unit, that is, the functional block described in the present embodiment may be configured by different hardware, or may be configured to share a plurality of devices or processing units by one hardware. Although details are not shown, the hardware constituting each device and each processing unit is mainly composed of a microcomputer having a storage area such as a CPU, a ROM, a RAM, and a rewritable flash memory, respectively. be able to. The storage area stores an individual identification program for realizing each device and each processing unit. Then, by executing the individual identification program in the CPU, each process in each device and each processing unit can be realized.

すなわち、本実施形態で説明する各処理部は、CPUが上述した記憶領域等の非遷移的実体的記憶媒体に格納されているコンピュータプログラムを実行してコンピュータプログラムに対応する処理を実行することにより実現されている、つまりソフトウェアにより実現されている。なお、各処理部のうち少なくとも一部をハードウェアにより実現する構成としてもよい。 That is, each processing unit described in the present embodiment executes the computer program stored in the non-transitional substantive storage medium such as the storage area described above by the CPU to execute the processing corresponding to the computer program. It is realized, that is, it is realized by software. In addition, at least a part of each processing unit may be realized by hardware.

本実施形態の個体識別システム1は、予め登録された複数の登録画像と撮影機器で撮影した識別画像とを比較し、複数の登録画像の中から識別画像の被写体が写っている登録画像を識別するこができるシステムである。この個体識別システム1は、例えば工場等における部品のトレースに用いることができるが、これに限られない。 The individual identification system 1 of the present embodiment compares a plurality of registered images registered in advance with an identification image taken by a photographing device, and identifies a registered image in which the subject of the identification image is shown from among the plurality of registered images. It is a system that can do this. This individual identification system 1 can be used, for example, for tracing parts in factories and the like, but is not limited thereto.

個体識別システム1は、図1に示すように、撮影機器10、入力装置11、表示装置12、個体識別装置20、及び調整装置30を備えている。本実施形態の場合、個体識別システム1は、登録側の撮影機器10と識別側の撮影機器10とを備えている。以下の説明において、これらを区別する場合は、登録側の撮影機器10を登録側撮影機器10aと称し、識別側の撮影機器10を識別側撮影機器10bと称することがある。本実施形態において、登録側撮影機器10aは、個体識別装置20に登録するための画像を撮影する。また、識別側撮影機器10bは、識別しようとしている被写体を撮影するためのものである。そして、本実施形態において、登録画像とは、主として登録側の撮影機器10aで撮影されて個体識別装置20に登録される又は登録されている画像を意味する。また、識別画像とは、主として識別側の撮影機器10bで撮影された画像を意味する。 As shown in FIG. 1, the individual identification system 1 includes a photographing device 10, an input device 11, a display device 12, an individual identification device 20, and an adjustment device 30. In the case of the present embodiment, the individual identification system 1 includes a registration-side photographing device 10 and an identification-side photographing device 10. In the following description, when distinguishing between them, the registration-side photographing device 10 may be referred to as a registration-side photographing device 10a, and the identification-side photographing device 10 may be referred to as an identification-side photographing device 10b. In the present embodiment, the registration side photographing device 10a acquires an image for registration in the individual identification device 20. Further, the identification side photographing device 10b is for photographing a subject to be identified. Then, in the present embodiment, the registered image mainly means an image taken by the photographing device 10a on the registration side and registered or registered in the individual identification device 20. Further, the identification image mainly means an image taken by the photographing device 10b on the identification side.

撮影機器10は、カメラ101、照明102、及びステージ103を有して構成されている。カメラ101は、ワーク等の撮影対象となる被写体を撮影する機能を有する。カメラ101は、外部からの指示により、シャッタースピードや、イメージセンサの感度、解像度、撮影範囲、焦点等を変更可能に構成されている。照明102は、被写体を照明するためのものであり、外部からの指示により、輝度や光度、色彩等を変更可能に構成されている。そして、ステージ103は、カメラ101や照明102を支持するとともに、被写体が載置されるものであり、カメラ101や照明102と被写体との距離や角度つまり姿勢を変更可能に構成されている。 The photographing device 10 includes a camera 101, an illumination 102, and a stage 103. The camera 101 has a function of photographing a subject such as a work to be photographed. The camera 101 is configured so that the shutter speed, the sensitivity of the image sensor, the resolution, the shooting range, the focus, and the like can be changed by an instruction from the outside. The illumination 102 is for illuminating a subject, and is configured so that the brightness, luminosity, color, and the like can be changed by an instruction from the outside. The stage 103 supports the camera 101 and the illumination 102, and the subject is placed on the stage 103. The stage 103 is configured so that the distance, angle, that is, the posture of the camera 101 or the illumination 102 and the subject can be changed.

入力装置11は、ユーザの操作を受け付けるインタフェースであり、例えばキーボードやマウス等である。ユーザは、入力装置11を操作して調整装置30や個体識別装置20に対して各種の設定等を行うことができる。表示装置12は、文字や画像等の表示が可能なディスプレイであり、個体識別装置20や調整装置30から受信した情報を表示することができる。ユーザは、表示装置12に表示された情報を見ることで、個体識別装置20や調整装置30による処理の結果や設定内容等を確認することができる The input device 11 is an interface that accepts user operations, such as a keyboard and a mouse. The user can operate the input device 11 to make various settings for the adjusting device 30 and the individual identification device 20. The display device 12 is a display capable of displaying characters, images, and the like, and can display information received from the individual identification device 20 and the adjustment device 30. By looking at the information displayed on the display device 12, the user can confirm the result of processing by the individual identification device 20 and the adjustment device 30, the setting contents, and the like.

個体識別装置20は、撮影装置21、特徴抽出装置22、登録処理装置23、記録装置24、辞書装置25、画像照合識別装置26、撮影条件付与装置27、及び特徴抽出条件付与装置28を有している。本実施形態の場合、撮影装置21、特徴抽出装置22、登録処理装置23、記録装置24、撮影条件付与装置27、及び特徴抽出条件付与装置28は、登録側と識別側とにそれぞれ設けられている。この場合、破線aで囲われた装置が登録側の装置となり、破線bで囲われた装置が識別側の装置となる。なお、登録側の装置aと識別側の装置bとは、異なるハードウェアで構成しても良いし、同一のハードウェアで構成しても良い。また、個体識別装置20及び調整装置30は、インターネット等の電気通信回線に接続されたクラウドサーバー上に設置されていても良い。 The individual identification device 20 includes a photographing device 21, a feature extraction device 22, a registration processing device 23, a recording device 24, a dictionary device 25, an image matching identification device 26, a photographing condition imparting device 27, and a feature extraction condition imparting device 28. ing. In the case of the present embodiment, the photographing device 21, the feature extraction device 22, the registration processing device 23, the recording device 24, the photographing condition imparting device 27, and the feature extraction condition imparting device 28 are provided on the registration side and the identification side, respectively. There is. In this case, the device surrounded by the broken line a is the device on the registration side, and the device surrounded by the broken line b is the device on the identification side. The device a on the registration side and the device b on the identification side may be configured with different hardware or may be configured with the same hardware. Further, the individual identification device 20 and the adjustment device 30 may be installed on a cloud server connected to a telecommunication line such as the Internet.

撮影装置21は、撮影機器10の駆動を制御し、被写体の画像を撮影して取得する機能を有する。撮影装置21は、図2に示すように、撮影処理部211及び画像取得処理部212を有している。撮影処理部211は、撮影機器10を所定の条件で駆動させて被写体を撮影する。この場合、撮影機器10を撮影する際の所定の条件を、撮影条件と称する。撮影条件は、例えば撮影機器10に関する条件である撮影機器条件と、撮影対象となる被写体に関する条件である撮影対象条件とを含む。 The photographing device 21 has a function of controlling the drive of the photographing device 10 and photographing and acquiring an image of the subject. As shown in FIG. 2, the photographing device 21 has a photographing processing unit 211 and an image acquisition processing unit 212. The shooting processing unit 211 drives the shooting device 10 under predetermined conditions to shoot a subject. In this case, the predetermined conditions for photographing the photographing device 10 are referred to as photographing conditions. The shooting conditions include, for example, a shooting device condition which is a condition related to the shooting device 10 and a shooting target condition which is a condition related to a subject to be shot.

撮影機器条件は、主に光学機器に関する条件であり、例えば撮影機器10が有するカメラ101のシャッタースピードや、イメージセンサの感度、解像度、撮影範囲、焦点、倍率、絞り、照明102の種類や輝度、光度、色彩等がある。撮影対象条件は、撮影対象つまり被写体に関する条件であり、例えば被写体の姿勢つまりカメラ101や照明102に対する被写体の角度や、カメラ101や照明102と被写体との距離等がある。 The shooting device conditions are mainly related to optical devices, for example, the shutter speed of the camera 101 of the shooting device 10, the sensitivity of the image sensor, the resolution, the shooting range, the focus, the magnification, the aperture, the type and brightness of the illumination 102, and the like. There are brightness, color, etc. The shooting target condition is a condition relating to a shooting target, that is, a subject, and includes, for example, the posture of the subject, that is, the angle of the subject with respect to the camera 101 and the illumination 102, the distance between the camera 101 and the illumination 102, and the subject.

撮影処理部211は、撮影条件付与装置27から受けた指示内容に基づいて撮影機器条件や撮影対象条件を変えて撮影機器10を駆動させて、被写体を撮影することができる。 The shooting processing unit 211 can drive the shooting device 10 by changing the shooting device conditions and the shooting target conditions based on the instruction content received from the shooting condition imparting device 27, and can shoot the subject.

画像取得処理部212は、画像取得処理を実行可能である。画像取得処理は、撮影機器10で撮影した被写体の画像を取得して特徴抽出装置22に渡す処理を含む。本実施形態の場合、登録側aの画像取得処理部212は、撮影機器10aで撮影した画像を登録画像として登録側aの特徴抽出装置22に渡す。また、識別側bの画像取得処理部212は、撮影機器10bで撮影した画像を識別画像として識別側bの特徴抽出装置22に渡す。本実施形態において、画像取得処理のうち、登録側aで行われる登録画像を取得する処理を登録画像取得処理と称し、識別側bで行われる識別画像を取得する処理を識別画像取得処理と称することがある。なお、画像取得処理は、例えばインターネット経由や記憶媒体を介して画像を取得する等、撮影機器10以外の手段から画像を取得する処理を含んでいても良い。 The image acquisition processing unit 212 can execute the image acquisition process. The image acquisition process includes a process of acquiring an image of a subject photographed by the photographing device 10 and passing it to the feature extraction device 22. In the case of the present embodiment, the image acquisition processing unit 212 on the registration side a passes the image taken by the photographing device 10a as a registration image to the feature extraction device 22 on the registration side a. Further, the image acquisition processing unit 212 on the identification side b passes the image captured by the photographing device 10b as an identification image to the feature extraction device 22 on the identification side b. In the present embodiment, among the image acquisition processes, the process of acquiring the registered image performed by the registration side a is referred to as the registration image acquisition process, and the process of acquiring the identification image performed by the identification side b is referred to as the identification image acquisition process. Sometimes. The image acquisition process may include a process of acquiring an image from a means other than the photographing device 10, such as acquiring an image via the Internet or a storage medium.

特徴抽出装置22は、撮影装置21から取得した画像に含まれる特徴を抽出する機能を有する。特徴抽出装置22は、画像の特徴として、特徴点、局所特徴量、及び大域特徴量を計算する機能を有する。特徴抽出装置22は、図3に示すように、特徴点抽出処理部221、局所特徴量計算処理部222、局所特徴量群分類処理部223、及び大域特徴量計算処理部224を有している。特徴抽出装置22は、特徴抽出条件付与装置28から特徴抽出条件を受けて、各処理部221〜224における処理を実行する。特徴抽出条件には、例えば特徴点を抽出し局所特徴量を計算する際のピラミッド画像の段数、及びコーナーやカーブらしさを決定するための閾値等が含まれる。 The feature extraction device 22 has a function of extracting features included in the image acquired from the photographing device 21. The feature extraction device 22 has a function of calculating feature points, local feature amounts, and global feature amounts as image features. As shown in FIG. 3, the feature extraction device 22 includes a feature point extraction processing unit 221, a local feature amount calculation processing unit 222, a local feature amount group classification processing unit 223, and a global feature amount calculation processing unit 224. .. The feature extraction device 22 receives the feature extraction conditions from the feature extraction condition imparting device 28 and executes the processes in the respective processing units 221 to 224. The feature extraction conditions include, for example, the number of stages of the pyramid image when extracting feature points and calculating the local feature amount, and a threshold value for determining corners and curves.

特徴点抽出処理部221は、特徴点抽出処理を実行可能である。特徴点抽出処理は、図11に示すように、画像取得処理部212で取得した画像から、被写体Sの表面に表れている1つ以上の特徴点Pを抽出する処理を含む。本実施形態の場合、特徴点抽出処理は、1枚の画像から例えば数千点の特徴点を抽出する。この場合、登録側aの特徴点抽出処理部221は、登録側の撮影機器10aで撮影された登録画像の特徴点を抽出することができる。また、識別側bの特徴点抽出処理部221は、識別側の撮影機器10bで撮影した識別画像の特徴点を抽出することができる。 The feature point extraction processing unit 221 can execute the feature point extraction process. As shown in FIG. 11, the feature point extraction process includes a process of extracting one or more feature points P appearing on the surface of the subject S from the image acquired by the image acquisition processing unit 212. In the case of the present embodiment, the feature point extraction process extracts, for example, thousands of feature points from one image. In this case, the feature point extraction processing unit 221 on the registration side a can extract the feature points of the registered image taken by the photographing device 10a on the registration side. Further, the feature point extraction processing unit 221 on the identification side b can extract the feature points of the identification image taken by the photographing device 10b on the identification side.

ここで、例えば図12に示すように、ワークSの表面に表れる模様のうちコーナーやカーブ等のような幾何学的でない模様を特徴点Pとして抽出することで、同じ製造工程を経て製造された同一種類の部品間でもその個体を識別できると考えられる。これは、例えば部品等の表面に表れる直線や直角等の幾何学的な模様は、その種類の部品全体に共通して表れる模様であることが多く、部品間で個体の識別を行うための特徴にはなり難い。一方、コーナーやカーブ等の幾何学的でない模様は、製造過程における極僅かな条件の違いによって出来るものであることが多く、その個体固有のものが多いからであると考えられる。そのため、本実施形態の特徴点抽出処理部221は、特徴点Pとして被写体の表面に局所的に表れるコーナーやカーブの模様を抽出する。 Here, for example, as shown in FIG. 12, a non-geometric pattern such as a corner or a curve is extracted as a feature point P from the patterns appearing on the surface of the work S, and the pattern is manufactured through the same manufacturing process. It is considered that the individual can be identified even among the same type of parts. This is because, for example, geometric patterns such as straight lines and right angles that appear on the surface of parts are often patterns that appear in common to all parts of that type, and are a feature for identifying individuals among parts. It is hard to become. On the other hand, non-geometric patterns such as corners and curves are often formed by slight differences in conditions during the manufacturing process, and it is considered that many of them are unique to the individual. Therefore, the feature point extraction processing unit 221 of the present embodiment extracts a pattern of a corner or a curve that locally appears on the surface of the subject as the feature point P.

本実施形態の特徴点抽出処理部221は、被写体の画像から得られた輝度勾配強度分布を用いて、被写体の表面に局所的に表れるコーナーやカーブを特徴点として抽出する。画像はピクセル間で輝度の勾配とその強度を有している。均一な模様である場合、輝度勾配強度の広がりが小さく、また、直線的な模様の場合、輝度勾配強度は特定の方向へ広がる。一方、コーナーやカーブを伴う模様の場合、輝度勾配強度は複数方向へ広がる。このため、特徴点抽出処理部221は、輝度勾配強度が複数方向へ広がる模様を探すことで、特徴点となるコーナーやカーブを抽出することができる。 The feature point extraction processing unit 221 of the present embodiment uses the luminance gradient intensity distribution obtained from the image of the subject to extract corners and curves locally appearing on the surface of the subject as feature points. The image has a brightness gradient and its intensity between pixels. In the case of a uniform pattern, the spread of the luminance gradient intensity is small, and in the case of a linear pattern, the luminance gradient intensity spreads in a specific direction. On the other hand, in the case of a pattern with corners and curves, the luminance gradient intensity spreads in multiple directions. Therefore, the feature point extraction processing unit 221 can extract corners and curves that serve as feature points by searching for a pattern in which the luminance gradient intensity spreads in a plurality of directions.

局所特徴量計算処理部222は、局所特徴量計算処を実行可能である。局所特徴量計算処理は、特徴点抽出処理で抽出された特徴点を含む周辺の領域の輝度勾配に基づいて特徴点の特徴量を局所特徴量として計算する処理を含む。局所特徴量は、特徴点の座標と256ビットのバイナリ特徴量を有している。特徴量の計算には、既存技術のSIFTを用いることができる。また、可能であれば、他のSURFなどの画像特徴量計算アルゴリズムを用いてもよい。特徴点抽出処理は、画像を多段階に縮小したピラミッド画像を求め、各縮尺の画像に対して同一の条件で、それぞれ独立に特徴点を抽出しても良い。そして、局所特徴量計算処理部は、各ピラミッド画像で得られた特徴点の局所特徴量を計算しても良い。こうすることで、スケール不変性を有し、スケールの相違に影響を受け難い局所特徴量を求めることができる。 The local feature amount calculation processing unit 222 can execute the local feature amount calculation process. The local feature amount calculation process includes a process of calculating the feature amount of the feature point as a local feature amount based on the brightness gradient of the peripheral region including the feature point extracted by the feature point extraction process. The local feature has the coordinates of the feature point and a 256-bit binary feature. SIFT of the existing technology can be used for the calculation of the feature amount. Further, if possible, another image feature calculation algorithm such as SURF may be used. In the feature point extraction process, a pyramid image obtained by reducing the image in multiple steps may be obtained, and feature points may be independently extracted for each scale image under the same conditions. Then, the local feature amount calculation processing unit may calculate the local feature amount of the feature points obtained in each pyramid image. By doing so, it is possible to obtain a local feature amount that has scale invariance and is not easily affected by the difference in scale.

局所特徴量群分類処理部223は、局所特徴量群分類処理を実行可能である。局所特徴量群分類処理は、登録画像及び識別画像の大域特徴量を計算するための事前準備となる処理である。局所特徴量群分類処理は、例えば図13の(A)、(B)で示すように、各画像について局所特徴量計算処理を実行して得られた複数の局所特徴量Aをその局所特徴量Aの値に応じて所定数例えば64〜4096個の局所特徴量群Bに分類する処理を含む。換言すれば、局所特徴量群分類処理は、各画像から得られた多数の局所特徴量Aを、その値が似ている者同士を集めてクラスタリングする処理を含む。局所特徴量群Bを構成するそれぞれの要素Bnは、画像から得られる特徴点及びその局所特徴量のペアを少なくとも1つ以上有している。なお、Bnのnは、要素の数を示す整数である。 The local feature group classification processing unit 223 can execute the local feature group classification process. The local feature group classification process is a process that is a preliminary preparation for calculating the global feature amount of the registered image and the identification image. In the local feature group classification process, for example, as shown in FIGS. 13A and 13B, a plurality of local feature amounts A obtained by executing a local feature amount calculation process for each image are used as the local feature amount. It includes a process of classifying into a predetermined number, for example, 64 to 4096 local feature amount groups B according to the value of A. In other words, the local feature group classification process includes a process of clustering a large number of local feature A obtained from each image by collecting those having similar values. Each element Bn constituting the local feature amount group B has at least one pair of a feature point obtained from an image and the local feature amount thereof. Note that n in Bn is an integer indicating the number of elements.

局所特徴量群分類処理は、各画像から得られた局所特徴量Aを辞書情報dに基づいて分類する処理を含む。辞書情報dは、予め取得した学習用画像から求めた特徴点の特徴量のうち代表的なものであり、局所特徴量分類処理の実行前に準備される。局所特徴量群分類処理部223は、分類しようとする局所特徴量Aを、その局所特徴量Aと近い特徴量を有する辞書情報dに当てはめて分類する。 The local feature group classification process includes a process of classifying the local feature A obtained from each image based on the dictionary information d. The dictionary information d is a typical feature amount of the feature points obtained from the learning image acquired in advance, and is prepared before the execution of the local feature amount classification process. The local feature amount group classification processing unit 223 classifies the local feature amount A to be classified by applying it to the dictionary information d having a feature amount close to the local feature amount A.

大域特徴量計算処理部224は、大域特徴量計算処理を実行可能である。大域特徴量計算処理は、局所特徴量分離処理で得た各局所特徴量群Bに基づいて大域特徴量を計算する処理を含む。大域特徴量計算処理は、図13(C)に示すように、画像から得た各局所特徴量Aと相関が高い辞書情報dに投票して得た頻度分布つまりヒストグラムを大域特徴量として計算する処理を含む。すなわち、大域特徴量は、横軸に局所特徴量群Bをとり、縦軸に各局所特徴量群Bに投票された投票数をとる。このようにして計算された大域特徴量を用いることで、1枚の画像を1つの特徴量で表すことができる。大域特徴量計算処理は、例えば計算方法としてVLADやBAG−OF−WORDSを採用することができる。 The global feature amount calculation processing unit 224 can execute the global feature amount calculation processing. The global feature calculation process includes a process of calculating a global feature based on each local feature group B obtained by the local feature separation process. As shown in FIG. 13C, the global feature calculation process calculates the frequency distribution, that is, the histogram obtained by voting for the dictionary information d having a high correlation with each local feature A obtained from the image as the global feature. Including processing. That is, the global feature amount has the local feature amount group B on the horizontal axis and the number of votes voted for each local feature amount group B on the vertical axis. By using the global feature amount calculated in this way, one image can be represented by one feature amount. For the global feature amount calculation process, for example, VLAD or BAG-OF-WORDS can be adopted as the calculation method.

大域特徴量の計算方法としてVLADを採用する場合、大域特徴量計算処理は、例えば局所特徴量と相関が高い辞書情報である代表値との差分ベクトルを総和したベクトルVを、代表値の数だけ計算し、それらをつなげたベクトルを大域特徴量のベクトルVとして計算する。具体的には、大域特徴量計算処理部224は、画像から得た局所特徴量を次の(1)式の計算に適用して大域特徴量のベクトルVを算出する。この場合、大域特徴量のベクトルVは、64個の128次元のベクトルで構成される。この場合、各局所特徴量群Bに含まれる局所特徴量をvとし、辞書情報をdとする。また、各局所特徴量群Bに含まれる特徴量の数をNとすると、1≦i≦Nとなる。

Figure 2021174442
なお、(1)式のNN(v)=dkは、画像中に含まれる特徴量の中で、この場合64個ある各辞書情報dと最も相関が高い局所特徴量vを意味する。 When VLAD is adopted as the calculation method of the global feature amount, the global feature amount calculation process is performed by, for example, calculating the vector V, which is the sum of the difference vectors from the representative value, which is the dictionary information having a high correlation with the local feature amount, as many as the number of representative values. The calculation is performed, and the vector connecting them is calculated as the vector V of the global features. Specifically, the global feature calculation processing unit 224 applies the local feature obtained from the image to the calculation of the following equation (1) to calculate the vector V of the global feature. In this case, the global feature vector V is composed of 64 128-dimensional vectors. In this case, the local feature amount included in each local feature amount group B is v, and the dictionary information is d. Further, assuming that the number of features included in each local feature group B is N, 1 ≦ i ≦ N.
Figure 2021174442
Note that NN (v) = dk in the equation (1) means a local feature amount v having the highest correlation with each of the 64 dictionary information ds in this case among the feature amounts included in the image.

また、大域特徴量としてBAG−OF−WORDSを採用する場合、大域特徴量辞書生成処理は、次のようにして大域特徴量を計算する。この場合、大域特徴量は、辞書情報の数の次元を持つベクトル、例えば64次元のベクトルVとなる。大域特徴量辞書生成処理部251は、64個の代表値となる辞書情報を用いて、各特徴量について、最も近い辞書情報dを探し、近かったベクトルVの要素に1を加える。これにより、ベクトルVは、特徴量のヒストグラムとなり、ベクトルVの要素の総和は、特徴量の個数を等しくなる。このベクトルVは、この総数で全体を除算し、正規化して利用する。 Further, when BAG-OF-WORDS is adopted as the global feature amount, the global feature amount dictionary generation process calculates the global feature amount as follows. In this case, the global feature quantity is a vector having the number of dimensions of the dictionary information, for example, a vector V having 64 dimensions. The global feature amount dictionary generation processing unit 251 searches for the closest dictionary information d for each feature amount using 64 representative dictionary information, and adds 1 to the elements of the vector V that are close to each other. As a result, the vector V becomes a histogram of the features, and the sum of the elements of the vector V has the same number of features. This vector V is used by dividing the whole by this total number and normalizing it.

登録処理装置23は、各処理で得たデータを記録装置24に記録する機能を有する。登録処理装置23は、図4に示すように、検索対象画像登録処理部231、評価用画像登録処理部232、局所特徴量登録処理部233、及び大域特徴量登録処理部234を有している。検索対象画像登録処理部231は、検索対象画像登録処理を実行可能である。検索対象画像登録処理は、予め複数の検索対象とする画像を登録画像として、記録装置24の検索対象画像登録部241に登録する処理を含む。 The registration processing device 23 has a function of recording the data obtained in each processing in the recording device 24. As shown in FIG. 4, the registration processing device 23 includes a search target image registration processing unit 231, an evaluation image registration processing unit 232, a local feature amount registration processing unit 233, and a global feature amount registration processing unit 234. .. The search target image registration processing unit 231 can execute the search target image registration process. The search target image registration process includes a process of registering a plurality of search target images as registered images in advance in the search target image registration unit 241 of the recording device 24.

評価用画像登録処理部232は、評価用画像登録処理を実行可能である。評価用画像登録処理は、画像照合識別装置26で実行される照合処理の評価を行う際に用いる画像を評価用の画像として記録装置24の評価用画像登録部242に登録する処理を含む。評価用画像は、それぞれ異なる被写体を撮影した複数の登録画像を含む登録画像群と、登録画像群の中のうちの1つと同一の被写体でかつ異なる条件で撮影した識別画像と、を含んで構成されている。この場合、識別画像は、被写体や条件の数によって複数あっても良い。また、同一の被写体を撮影した登録画像と識別画像とは、例えば同一又は部分的に共通する識別番号等が付与されること等によって相互に紐付けされた状態で記録装置24の評価用画像登録部242に登録される。 The evaluation image registration processing unit 232 can execute the evaluation image registration process. The evaluation image registration process includes a process of registering an image used for evaluating the collation process executed by the image collation identification device 26 as an evaluation image in the evaluation image registration unit 242 of the recording device 24. The evaluation image is composed of a registered image group including a plurality of registered images of different subjects, and an identification image of the same subject as one of the registered images and taken under different conditions. Has been done. In this case, there may be a plurality of identification images depending on the number of subjects and conditions. Further, the registered image obtained by photographing the same subject and the identification image are registered as an evaluation image of the recording device 24 in a state of being linked to each other by, for example, assigning the same or partially common identification number or the like. It is registered in the section 242.

局所特徴量登録処理部233は、局所特徴量登録処理を実行可能である。局所特徴量登録処理は、特徴抽出装置22での処理によって登録画像から抽出した特徴点の局所特徴量を、記録装置24の局所特徴量登録部243に登録する処理を含む。また、局所特徴量登録処理は、特徴抽出装置22での処理によって評価用画像から抽出した特徴点の局所特徴量を、記録装置24の局所特徴量登録部243に登録する処理を含む。局所特徴量登録処理部233は、各画像から得た局所特徴量を、抽出元となる画像と紐付けして登録する。 The local feature amount registration processing unit 233 can execute the local feature amount registration process. The local feature amount registration process includes a process of registering the local feature amount of the feature point extracted from the registered image by the process of the feature extraction device 22 in the local feature amount registration unit 243 of the recording device 24. Further, the local feature amount registration process includes a process of registering the local feature amount of the feature point extracted from the evaluation image by the process in the feature extraction device 22 in the local feature amount registration unit 243 of the recording device 24. The local feature amount registration processing unit 233 registers the local feature amount obtained from each image in association with the image as the extraction source.

大域特徴量登録処理部234は、大域特徴量登録処理を実行可能である。大域特徴量登録処理は、登録画像に係る大域特徴量を、記録装置24の大域特徴量登録部244に登録する処理を含む。また、大域特徴量登録処理は、評価用画像に係る大域特徴量を、記録装置24の大域特徴量登録部244に登録する処理を含む。局所特徴量登録処理部233は、各画像から得た大域特徴量を、抽出元となる画像と紐付けして登録する。 The global feature amount registration processing unit 234 can execute the global feature amount registration process. The global feature amount registration process includes a process of registering the global feature amount related to the registered image in the global feature amount registration unit 244 of the recording device 24. Further, the global feature amount registration process includes a process of registering the global feature amount related to the evaluation image in the global feature amount registration unit 244 of the recording device 24. The local feature amount registration processing unit 233 registers the global feature amount obtained from each image in association with the image as the extraction source.

記録装置24は、登録処理装置23の各登録処理によって送られた各種のデータを記録する機能を有しており、データベースを構成する。記録装置24は、例えば個体識別装置20を構成するコンピュータの記録装置や、ネットワーク回線を介して接続された外部のサーバ等で構成することもできる。記録装置24は、図5に示すように、検索対象画像登録部241、評価用画像登録部242、局所特徴量登録部243、大域特徴量登録部244、及び大域特徴量辞書登録部245を有している。 The recording device 24 has a function of recording various data sent by each registration process of the registration processing device 23, and constitutes a database. The recording device 24 can also be configured by, for example, a computer recording device constituting the individual identification device 20, an external server connected via a network line, or the like. As shown in FIG. 5, the recording device 24 includes a search target image registration unit 241, an evaluation image registration unit 242, a local feature amount registration unit 243, a global feature amount registration unit 244, and a global feature amount dictionary registration unit 245. doing.

検索対象画像登録部241は、登録処理装置23の検索対象画像登録処理部231から送られた検索対象画像を記録する記録領域である。評価用画像登録部242は、登録処理装置23の評価用画像登録処理部232から送られた評価用画像を記録する記録領域である。局所特徴量登録部243は、登録処理装置23の局所特徴量登録処理部233から送られた局所特徴量を記録する記録領域である。大域特徴量登録部244は、登録処理装置23の大域特徴量登録処理部234から送られた大域特徴量を記録する記録領域である。 The search target image registration unit 241 is a recording area for recording the search target image sent from the search target image registration processing unit 231 of the registration processing device 23. The evaluation image registration unit 242 is a recording area for recording the evaluation image sent from the evaluation image registration processing unit 232 of the registration processing device 23. The local feature amount registration unit 243 is a recording area for recording the local feature amount sent from the local feature amount registration processing unit 233 of the registration processing device 23. The global feature amount registration unit 244 is a recording area for recording the global feature amount sent from the global feature amount registration processing unit 234 of the registration processing device 23.

また、大域特徴量辞書登録部245は、辞書装置25の大域特徴量辞書登録処理部252から送られた大域特徴量辞書を記録する記録領域である。画像照合識別装置26で検索処理を実行する以前に、予め取得した学習用画像から得られた局所特徴量に基づいて計算された複数の辞書情報を要素に持つ複数の大域特徴量辞書が登録されている。 Further, the global feature dictionary registration unit 245 is a recording area for recording the global feature dictionary sent from the global feature dictionary registration processing unit 252 of the dictionary device 25. Before executing the search process in the image matching identification device 26, a plurality of global feature amount dictionaries having a plurality of dictionary information calculated based on the local feature amount obtained from the learning image acquired in advance are registered. ing.

辞書装置25は、複数枚の画像から抽出した特徴点及びその局所特徴量をもとに複数の辞書情報を生成し、その辞書情報に基づく大域特徴量辞書を生成し、登録、及び設定する機能を有する。辞書装置25は、図6に示すように、大域特徴量辞書生成処理部251及び大域特徴量辞書登録処理部252を有している。 The dictionary device 25 has a function of generating a plurality of dictionary information based on feature points extracted from a plurality of images and their local feature amounts, and generating, registering, and setting a global feature amount dictionary based on the dictionary information. Has. As shown in FIG. 6, the dictionary device 25 has a global feature amount dictionary generation processing unit 251 and a global feature amount dictionary registration processing unit 252.

大域特徴量辞書生成処理部251は、大域特徴量辞書生成処理を実行可能である。大域特徴量辞書生成処理は、例えば複数の学習用画像から得た局所特徴量群のそれぞれの代表値を辞書情報に持つ大域特徴量辞書を生成する処理を含む。この場合、大域特徴量辞書生成処理は、局所特徴量群のセントロイドを代表値として辞書情報に設定する処理を含む。辞書情報は、大域特徴量辞書を構成する要素であり、複数個の辞書情報が集まって1つの大域特徴量辞書を構成する。 The global feature dictionary generation processing unit 251 can execute the global feature dictionary generation processing. The global feature dictionary generation process includes, for example, a process of generating a global feature dictionary having representative values of each of the local feature groups obtained from a plurality of learning images as dictionary information. In this case, the global feature dictionary generation process includes a process of setting the centroid of the local feature group as a representative value in the dictionary information. The dictionary information is an element that constitutes a global feature dictionary, and a plurality of dictionary information is collected to form one global feature dictionary.

この場合、例えば、大域特徴量辞書生成処理において大域特徴量辞書生成処理部251は、次のようにして大域特徴量辞書を生成することができる。すなわち、大域特徴量辞書生成処理において大域特徴量辞書生成処理部251は、まず図14(A)、(B)に示すように、例えば特徴抽出装置22で計算されたm枚分の学習用画像T1〜Tmの局所特徴量Aを受け取る。次に、大域特徴量辞書生成処理部251は、図14(C)に示すように、受け取った局所特徴量Aを例えばk-means法を用いてk個この場合64個のクラスタつまり局所特徴量群B1〜Bkに分類し、各局所特徴量群B1〜BkのそれぞれについてセントロイドC1〜Ckを求める。そして、大域特徴量辞書生成処理部251は、このようにして求めた各局所特徴量群B1〜BkのセントロイドC1〜Ckを、それぞれの局所特徴量群B1〜Bkの代表値として辞書情報d1〜dkに設定し、辞書情報d1〜dkをまとめた大域特徴量辞書Eを生成する。そして、大域特徴量辞書生成処理部251は、更に異なる学習用画像Tを用いて複数の大域特徴量辞書Eを生成する。なお、辞書情報d1〜dkは、各局所特徴量群B1〜Bkを代表する値であれば、セントロイドに限られない。 In this case, for example, in the global feature dictionary generation process, the global feature dictionary generation processing unit 251 can generate the global feature dictionary as follows. That is, in the global feature dictionary generation process, the global feature dictionary generation processing unit 251 first, as shown in FIGS. 14A and 14B, for example, m images for learning calculated by the feature extraction device 22. Receives local features A of T1 to Tm. Next, as shown in FIG. 14C, the global feature dictionary generation processing unit 251 receives k local features A using, for example, the k-means method, and in this case, 64 clusters, that is, local features. It is classified into groups B1 to Bk, and centroids C1 to Ck are obtained for each of the local feature group B1 to Bk. Then, the global feature dictionary generation processing unit 251 uses the centroids C1 to Ck of the local feature groups B1 to Bk thus obtained as the representative values of the local feature groups B1 to Bk, and the dictionary information d1. Set to ~ dk to generate a global feature dictionary E that summarizes dictionary information d1 to dk. Then, the global feature dictionary generation processing unit 251 generates a plurality of global feature dictionaries E using different learning images T. The dictionary information d1 to dk is not limited to the centroid as long as it is a value representing each local feature group B1 to Bk.

大域特徴量辞書登録処理部252は、大域特徴量辞書登録処理を実行可能である。大域特徴量辞書登録処理は、大域特徴量辞書生成処理で生成された複数の大域特徴量辞書Eicを、記録装置24の大域特徴量辞書登録部245に記録する処理を含む。この場合、大域特徴量辞書Eには、大域特徴量辞書Eを構成する複数の辞書情報d1〜dkが含まれている。 The global feature dictionary registration processing unit 252 can execute the global feature dictionary registration process. The global feature dictionary registration process includes a process of recording a plurality of global feature dictionary Eic generated by the global feature dictionary generation process in the global feature dictionary registration unit 245 of the recording device 24. In this case, the global feature dictionary E includes a plurality of dictionary information d1 to dk constituting the global feature dictionary E.

画像照合識別装置26は、記録装置24に記録されている登録画像と、識別側の特徴抽出装置22から出力された識別画像とを照合しその画像の一致不一致を識別する機能を有数する。画像照合識別装置26は、図7に示すように、検索処理部261、照合処理部262、及び結果通知処理部263を有している。 The image collation identification device 26 has a function of collating the registered image recorded in the recording device 24 with the identification image output from the feature extraction device 22 on the identification side and discriminating the match / mismatch of the images. As shown in FIG. 7, the image collation identification device 26 includes a search processing unit 261, a collation processing unit 262, and a result notification processing unit 263.

検索処理部261は、検索処理を実行可能である。検索処理は、記録装置24の検索対象画像登録部241に記録されている複数の登録画像に係る大域特徴量のうち、識別側の特徴抽出装置22から送られた識別画像に係る大域特徴量に相関が高いものを検索する処理を含む。本実施形態の場合、検索処理部261は、絞り込み処理を実行可能な絞り込み処理部2611と、特定処理を実行可能な特定処理部2612とを有する。すなわち、本実施形態の場合、検索処理は、絞り込み処理と特定処理とを含む。 The search processing unit 261 can execute the search processing. The search process is performed on the global feature amount related to the identification image sent from the feature extraction device 22 on the identification side among the global feature amounts related to the plurality of registered images recorded in the search target image registration unit 241 of the recording device 24. Includes processing to search for highly correlated items. In the case of the present embodiment, the search processing unit 261 has a narrowing down processing unit 2611 capable of executing the narrowing down process and a specific processing unit 2612 capable of executing the specific processing. That is, in the case of the present embodiment, the search process includes a narrowing process and a specific process.

絞り込み処理部2611で実行される絞り込み処理は、図15に示すように、記録装置24の検索対象画像登録部241に登録されている複数の登録画像の中から、識別画像が有する大域特徴量との相関が高い大域特徴量を有する所定数の登録画像を候補として絞り込む処理を含む。検索対象画像登録部241に登録されている登録画像が例えば数千〜数十万枚である場合、登録画像の候補は、絞り込み処理で例えば数〜数十枚程度に絞り込まれる。 As shown in FIG. 15, the narrowing down processing executed by the narrowing down processing unit 2611 includes a global feature amount of the identification image from a plurality of registered images registered in the search target image registration unit 241 of the recording device 24. It includes a process of narrowing down a predetermined number of registered images having a global feature amount having a high correlation with the candidates. When the number of registered images registered in the search target image registration unit 241 is, for example, several thousand to several hundred thousand, the candidates for the registered image are narrowed down to, for example, several to several tens by the narrowing process.

特定処理部2612で実行される特定処理は、局所特徴量を用いた画像照合手法と、特徴点の幾何的な配置の整合性を検証するアルゴリズムを用いて行うことができる。特定処理部2612は、まず、絞り込み処理によって抽出された候補の登録画像の局所特徴量と識別画像の局所特徴量とを比較し、双方の画像から特徴量の差が最小となる特徴点をペアとして求める。そして、特定処理部2612は、他の特徴点との相対的な位置関係が矛盾しない特徴点を対応点として抽出し、その対応点数が最も多い登録画像を特定する。 The specific processing executed by the specific processing unit 2612 can be performed by using an image matching method using a local feature amount and an algorithm for verifying the consistency of the geometric arrangement of the feature points. First, the specific processing unit 2612 compares the local feature amount of the candidate registered image extracted by the narrowing process with the local feature amount of the identification image, and pairs the feature points that minimize the difference in the feature amount from both images. Ask as. Then, the specific processing unit 2612 extracts the feature points whose relative positional relationships with the other feature points do not contradict each other as the corresponding points, and identifies the registered image having the largest number of corresponding points.

この場合、絞り込み処理は、図15に示すように、登録画像と識別画像とのそれぞれの大域特徴量を比較する処理であるため、画像に含まれる全ての局所特徴量を比較する特定処理よりも精度は低いが処理量が少なく高速に処理することができる。これに対し、特定処理は、図16に示すように、登録画像と識別画像とのそれぞれの局所特徴量Aの全てについて対応点を探索する処理であるため、大域特徴量同士を比較する絞り込み処理よりも処理量は多く時間はかかるが精度が良い。このように、検索処理は、絞り込み処理と特定処理との2段階の処理を実行することにより、複数の登録画像の中から識別画像と同一の登録画像を高速で精度良く特定することができる。 In this case, as shown in FIG. 15, since the narrowing-down process is a process of comparing the global feature amounts of the registered image and the identification image, it is more than a specific process of comparing all the local feature amounts included in the image. Although the accuracy is low, the amount of processing is small and high-speed processing is possible. On the other hand, as shown in FIG. 16, the specific process is a process of searching for corresponding points for all of the local feature quantities A of the registered image and the identification image, and thus is a narrowing-down process of comparing the global feature quantities. The amount of processing is larger and it takes more time, but the accuracy is better. As described above, the search process can identify the same registered image as the identification image from a plurality of registered images at high speed and with high accuracy by executing a two-step process of a narrowing process and a specific process.

照合処理部262は、照合処理を実行可能である。照合処理は、画像の検索を伴わない処理であり、調整装置30によって各種の条件やアルゴリズム、パラメータ等を調整するために特定の画像同士を照合する際に実行される。照合処理は、検索処理のうち画像同士を照合するためのアルゴリズムと同一のアルゴルズムを用いて実行される。そのため、照合処理部262は、検索処理部261の一部とすることができる。調整装置30によって調整された各種の条件やアルゴリズム、パラメータ等は、検索処理部261の検索処理に反映される。 The collation processing unit 262 can execute the collation process. The collation process is a process that does not involve searching for images, and is executed when the adjusting device 30 collates specific images in order to adjust various conditions, algorithms, parameters, and the like. The collation process is executed using the same algorithm as the algorithm for collating images with each other in the search process. Therefore, the collation processing unit 262 can be a part of the search processing unit 261. Various conditions, algorithms, parameters and the like adjusted by the adjusting device 30 are reflected in the search processing of the search processing unit 261.

照合処理は、例えば評価用画像として評価用画像登録部242に登録されている特定の登録画像と識別画像とにおける局所特徴量を比較し、その特徴点の対応点数を取得して登録画像と識別画像とを照合する処理を含む。この場合、照合処理部262は、調整装置30からの指示により、同一の被写体を撮影した登録画像と識別画像とについて照合することができる。また、照合処理部262は、調整装置30からの指示により、異なる被写体を撮影した登録画像と識別画像とについて照合することもできる。照合処理部262は、登録画像と識別画像との局所特徴量の対応点数を出力する。 In the collation process, for example, the local feature amounts in the specific registered image registered in the evaluation image registration unit 242 as the evaluation image and the identification image are compared, and the corresponding points of the feature points are acquired to identify the registered image. Includes processing to match images. In this case, the collation processing unit 262 can collate the registered image and the identification image of the same subject according to the instruction from the adjusting device 30. Further, the collation processing unit 262 can collate the registered image and the identification image in which different subjects are photographed according to the instruction from the adjusting device 30. The collation processing unit 262 outputs the corresponding points of the local feature amount between the registered image and the identification image.

また、照合処理部262は、照合識別条件調整装置32から受け取ったパラメータセットを用いて照合処理を実行することができる。パラメータセットは、例えば図17に示すように、検索処理及び照合処理の条件を設定するための複数のパラメータについて、それぞれのパラメータに設定可能な値を組み合わせたものである。図17における条件1、条件2、条件3・・・がそれぞれ1つのパラメータセットとなる。図17の例の場合、パラメータセットは全部で5400通りとなる。 Further, the collation processing unit 262 can execute the collation process using the parameter set received from the collation identification condition adjusting device 32. As shown in FIG. 17, for example, the parameter set is a combination of values that can be set for each of a plurality of parameters for setting conditions for search processing and collation processing. Condition 1, condition 2, condition 3 ... In FIG. 17 are each one parameter set. In the case of the example of FIG. 17, there are a total of 5400 parameter sets.

結果通知処理部263は、結果通知処理を実行可能である。結果通知処理は、検索処理の結果、及び照合処理の結果を、調整装置30や外部の装置に出力する処理を含む。この場合、検索処理の結果は、特定した登録画像に関する情報が含まれる。また、照合処理の結果は、対応点数が含まれる。 The result notification processing unit 263 can execute the result notification processing. The result notification process includes a process of outputting the result of the search process and the result of the collation process to the adjusting device 30 or an external device. In this case, the result of the search process includes information about the identified registered image. In addition, the result of the collation process includes the corresponding points.

撮影条件付与装置27は、調整装置30の撮影条件調整装置31からの指示を受けて、撮影装置21に上述した撮影条件を付与する機能を有する。特徴抽出条件付与装置28は、調整装置30の照合識別条件調整装置32からの指示を受けて、特徴抽出装置22に特徴抽出条件を付与する機能を有する。 The photographing condition imparting device 27 has a function of imparting the above-mentioned imaging conditions to the imaging device 21 in response to an instruction from the imaging condition adjusting device 31 of the adjusting device 30. The feature extraction condition imparting device 28 has a function of imparting a feature extraction condition to the feature extraction device 22 in response to an instruction from the collation identification condition adjusting device 32 of the adjusting device 30.

調整装置30は、画像照合識別装置26から得た結果を可視化して表示装置12に表示する機能や、画像照合識別装置26からのフィードバックを受けて、撮影機器10の撮影条件や特徴抽出装置22で用いる条件やアルゴリズムなど、個体識別装置20で用いられる各種の条件、アルゴリズム、若しくはパラメータ等を調整する機能等を有する。調整装置30は、図1に示すように、撮影条件調整装置31、照合識別条件調整装置32、及び可視化装置33を有している。 The adjusting device 30 has a function of visualizing the result obtained from the image matching and identifying device 26 and displaying it on the display device 12, and receives feedback from the image matching and identifying device 26 to receive the imaging conditions and feature extraction device 22 of the photographing device 10. It has a function of adjusting various conditions, algorithms, parameters and the like used in the individual identification device 20 such as the conditions and algorithms used in the above. As shown in FIG. 1, the adjusting device 30 includes a photographing condition adjusting device 31, a collation identification condition adjusting device 32, and a visualization device 33.

撮影条件調整装置31は、画像照合識別装置26からのフィードバックを受けて自動で、又はユーザからの操作を受けて手動で撮影機器10を用いて撮影対象を撮影する際の各種条件を調整し、その条件を撮影条件付与装置27に対して指示する機能を有する。ユーザは、例えば入力装置11を操作することで、撮影条件調整装置31の処理により各種条件を調整することができる。また、撮影条件調整装置31は、特徴抽出装置22の処理により得られた特徴点の数に応じて自動で各種条件を調整する機能を有する。撮影条件調整装置31は、図7に示すように、撮影機器条件調整処理部311、撮影対象条件調整処理部312、総当たり条件生成処理部313、及び最適条件提示処理部314を有している。 The shooting condition adjusting device 31 adjusts various conditions when shooting a shooting target using the shooting device 10 automatically by receiving feedback from the image matching identification device 26 or manually by receiving an operation from the user. It has a function of instructing the shooting condition imparting device 27 on the conditions. The user can adjust various conditions by processing the shooting condition adjusting device 31, for example, by operating the input device 11. Further, the photographing condition adjusting device 31 has a function of automatically adjusting various conditions according to the number of feature points obtained by the processing of the feature extracting device 22. As shown in FIG. 7, the shooting condition adjusting device 31 includes a shooting device condition adjusting processing unit 311, a shooting target condition adjusting processing unit 312, a brute force condition generation processing unit 313, and an optimum condition presentation processing unit 314. ..

撮影機器条件調整処理部311は、撮影機器条件を調整する撮影機器条件調整処理を実行可能である。撮影機器条件調整処理の実行により、主に光学機器に関する条件、例えば撮影機器10が有するカメラ101のシャッタースピードや、イメージセンサの感度、解像度、撮影範囲、焦点、照明102の輝度や光度、色彩等が調整される。撮影機器条件調整処理部311は、調整された撮影機器条件を撮影条件付与装置27に送信する。これにより、撮影装置21は、撮影機器条件調整処理部311で調整された撮影機器条件に従って撮影機器10の主にカメラ101や照明102を動作させて撮影対象を撮影する。 The shooting device condition adjustment processing unit 311 can execute the shooting device condition adjustment process for adjusting the shooting device conditions. By executing the shooting device condition adjustment process, the conditions mainly related to the optical device, for example, the shutter speed of the camera 101 of the shooting device 10, the sensitivity, the resolution, the shooting range, the focus, the brightness and the luminous intensity of the illumination 102, the color, etc. of the image sensor, etc. Is adjusted. The photographing device condition adjustment processing unit 311 transmits the adjusted photographing device condition to the photographing condition imparting device 27. As a result, the photographing device 21 mainly operates the camera 101 and the illumination 102 of the photographing device 10 in accordance with the photographing device conditions adjusted by the photographing device condition adjusting processing unit 311 to photograph the photographing target.

撮影対象条件調整処理部312は、撮影対象となる被写体に関する条件である撮影対象条件を調整する撮影対象条件調整処理を実行可能である。撮影対象条件調整処理の実行により、例えば被写体の姿勢つまりカメラ101や照明102に対する被写体の角度や、カメラ101や照明102と被写体との距離等が調整される。撮影対象条件調整処理部312は、調整された撮影対象条件を撮影条件付与装置27に送信する。これにより、撮影装置21は、撮影対象条件調整処理部312で調整された撮影対象条件に従って撮影機器10の主にステージ103を動作させて撮影対象を撮影する。 The shooting target condition adjustment processing unit 312 can execute the shooting target condition adjustment process for adjusting the shooting target condition, which is a condition relating to the subject to be shot. By executing the shooting target condition adjustment process, for example, the posture of the subject, that is, the angle of the subject with respect to the camera 101 or the illumination 102, the distance between the camera 101 or the illumination 102 and the subject, and the like are adjusted. The shooting target condition adjustment processing unit 312 transmits the adjusted shooting target condition to the shooting condition imparting device 27. As a result, the photographing device 21 mainly operates the stage 103 of the photographing device 10 according to the photographing target conditions adjusted by the photographing target condition adjustment processing unit 312 to photograph the photographing target.

総当たり条件生成処理部313は、総当たり条件生成処理を実行可能である。総当たり条件生成処理は、予め設定された範囲内の撮影対象条件と、予め設定された範囲内の撮影機器条件と、の組み合わせを総当たりで生成する処理を含む。この場合、撮影装置21の画像取得処理部212で実行される画像取得処理は、総当たり条件生成処理で生成された全ての条件で撮影した画像を取得する処理を含む。これにより、画像取得処理部212は、異なる条件で撮影された多数の画像、つまり撮影対象条件と撮影機器条件とのそれぞれを振って撮影した多数の画像を取得することができる。 The brute force condition generation processing unit 313 can execute the brute force condition generation processing. The brute force condition generation process includes a process of generating a combination of a shooting target condition within a preset range and a shooting device condition within a preset range by brute force. In this case, the image acquisition process executed by the image acquisition processing unit 212 of the photographing apparatus 21 includes a process of acquiring an image captured under all the conditions generated by the brute force condition generation process. As a result, the image acquisition processing unit 212 can acquire a large number of images taken under different conditions, that is, a large number of images taken by waving each of the shooting target condition and the shooting device condition.

例えば図19の例では、撮影対象条件として被写体と照明102との距離である照明距離が設定され、撮影機器条件として照明102の光量である光量設定値が設定されている。この場合、総当たり条件生成処理部313は、照明距離と光量設定値との取り得る値の全ての組み合わせを総当たりで生成する。そして、画像取得処理部212は、この総当たりの組み合わせの条件で自動で撮影して、登録画像及び識別画像を取得する。 For example, in the example of FIG. 19, the illumination distance, which is the distance between the subject and the illumination 102, is set as the imaging target condition, and the light intensity setting value, which is the light intensity of the illumination 102, is set as the imaging equipment condition. In this case, the brute force condition generation processing unit 313 generates all possible combinations of the illumination distance and the light amount set value by brute force. Then, the image acquisition processing unit 212 automatically shoots under the condition of this brute force combination to acquire the registered image and the identification image.

最適条件提示処理部314は、最適条件提示処理を実行可能である。最適条件提示処理は、総当たり条件生成処理で生成された全ての条件で撮影した登録画像と識別画像とのうち、同一の被写体を撮影した登録画像と識別画像とについて照合処理部262に照合処理を実行させ、その照合処理によって得た対応点数が多い撮影対象条件と撮影機器条件との組み合わせを最適条件としてユーザに提示する又は自動で設定する処理を含む。この場合、最適条件提示処理部314は、表示装置12に最適条件を表示しても良い。これより、ユーザは、撮影機器条件と撮影対象条件との最適な組み合わせを簡単に見つけて設定することができる。 The optimum condition presentation processing unit 314 can execute the optimum condition presentation processing. In the optimum condition presentation process, among the registered image and the identification image captured under all the conditions generated by the brute force condition generation process, the registered image and the identification image captured by the same subject are collated by the collation processing unit 262. Is executed, and the process of presenting the combination of the shooting target condition and the shooting device condition with a large number of corresponding points obtained by the collation process to the user as the optimum condition or automatically setting the image is included. In this case, the optimum condition presentation processing unit 314 may display the optimum condition on the display device 12. As a result, the user can easily find and set the optimum combination of the shooting device condition and the shooting target condition.

例えば登録画像と識別画像とが、同一の被写体を図19に示す条件で撮影されたものである場合、最適条件提示処理部314は、それぞれの画像の対応点数から例えば図20に示すグラフ、この場合、横軸に光量設定値つまりLuxをとり、縦軸に対応点数をとったグラフを生成する。そして、最適条件提示処理部314は、このグラフから、登録画像と識別画像との対応点数が多く、かつ、ロバスト性が高い条件の組み合わせを見つける。この場合、照明距離1のA1のグラフの頂点の光量設定値が、対応点数が多くかつ最もロバスト性が高いことがわかる。そのため、この場合、最適条件提示処理部314は、照明距離1と照明距離1におけるA1のグラフの頂点の光量設定値を撮影対象条件と撮影機器条件との組み合わせの最適条件として提示する。このようにして、最適条件提示処理部314は、撮影対象条件と撮影機器条件との最適な組み合わせをユーザに提示する。なお、最適条件提示処理部314は、対応点数が多くかつロバスト性が高い条件の候補をいくつか選択し、これらの条件をおすすめ条件としてユーザに提示することもできる。また、最適条件提示処理部314は、図20に示すグラフを表示装置12に表示させる処理を行っても良い。 For example, when the registered image and the identification image are taken of the same subject under the conditions shown in FIG. 19, the optimum condition presentation processing unit 314 determines the graph shown in FIG. 20, for example, from the corresponding points of the respective images. In this case, the horizontal axis represents the light intensity set value, that is, Lux, and the vertical axis represents the corresponding points to generate a graph. Then, the optimum condition presentation processing unit 314 finds a combination of conditions having a large number of corresponding points between the registered image and the identification image and having high robustness from this graph. In this case, it can be seen that the light amount setting value at the apex of the graph of A1 having the illumination distance 1 has a large number of corresponding points and is the most robust. Therefore, in this case, the optimum condition presentation processing unit 314 presents the light amount setting values of the vertices of the graph of A1 at the illumination distance 1 and the illumination distance 1 as the optimum conditions for the combination of the imaging target condition and the imaging device condition. In this way, the optimum condition presentation processing unit 314 presents to the user the optimum combination of the shooting target condition and the shooting device condition. The optimal condition presentation processing unit 314 can also select some candidates for conditions having a large number of corresponding points and high robustness, and present these conditions to the user as recommended conditions. Further, the optimum condition presentation processing unit 314 may perform a process of displaying the graph shown in FIG. 20 on the display device 12.

最適条件提示処理は、特徴点抽出処理に関する条件である特徴抽出条件を予め複数準備し、総当たり条件生成処理で生成された全ての条件で同一の撮影した登録画像及び識別画像について、予め準備した複数の特徴抽出条件で特徴点抽出処理を実行して得られた特徴点を用いて照合処理を実行して得られる対応点数が最も多くなる条件の組み合わせ提示する処理を含む。これにより、ユーザは、特徴抽出条件を含めて撮影機器条件と撮影対象条件との最適な組み合わせを簡単に見つけて設定することができる。 In the optimum condition presentation process, a plurality of feature extraction conditions, which are conditions related to the feature point extraction process, are prepared in advance, and the same registered image and identification image taken under all the conditions generated by the brute force condition generation process are prepared in advance. It includes a process of presenting a combination of conditions that maximizes the number of corresponding points obtained by executing a collation process using the feature points obtained by executing the feature point extraction process under a plurality of feature extraction conditions. As a result, the user can easily find and set the optimum combination of the shooting device condition and the shooting target condition including the feature extraction condition.

照合識別条件調整装置32は、画像照合識別装置26の検索処理部261及び照合処理部262で用いられる照合識別アルゴリズムのパラメータのチューニングを行う機能を有する。照合識別条件調整装置32は、画像照合識別装置26からのフィードバックを受けて自動で、又はユーザからの操作を受けて手動で、特徴抽出装置22や画像照合識別装置26の処理で用いる条件やパラメータ等を調整し、その条件やパラメータを特徴抽出装置22や画像照合識別装置26に指示する機能を有する。本実施形態の場合、照合識別条件調整装置32は、記録装置24の評価用画像登録部242に登録されている評価用画像を用いて画像照合識別装置26の照合処理部262で照合を行い、その照合結果この場合対応点数に応じて条件やパラメータを調整する。 The collation identification condition adjusting device 32 has a function of tuning the parameters of the collation identification algorithm used in the search processing unit 261 and the collation processing unit 262 of the image collation identification device 26. The collation identification condition adjusting device 32 receives feedback from the image collation identification device 26 and automatically or manually receives an operation from the user to manually use the conditions and parameters used in the processing of the feature extraction device 22 and the image collation identification device 26. Etc., and have a function of instructing the feature extraction device 22 and the image matching identification device 26 on the conditions and parameters thereof. In the case of the present embodiment, the collation identification condition adjusting device 32 performs collation by the collation processing unit 262 of the image collation identification device 26 using the evaluation image registered in the evaluation image registration unit 242 of the recording device 24. The collation result In this case, the conditions and parameters are adjusted according to the corresponding points.

ユーザは、例えば入力装置11を操作して照合識別条件調整装置32における処理を実行することで、特徴抽出装置22や画像照合識別装置26で用いる条件やパラメータを調整することができる。照合識別条件調整装置32は、図9に示すように、特徴抽出条件調整処理部321、大域特徴量辞書設定処理部322、大域特徴量相関係数計算処理部323、パラメータセット生成処理部324、及びパラメータセット設定処理部325を有している。 The user can adjust the conditions and parameters used in the feature extraction device 22 and the image matching identification device 26 by, for example, operating the input device 11 to execute the processing in the matching identification condition adjusting device 32. As shown in FIG. 9, the collation identification condition adjusting device 32 includes a feature extraction condition adjusting processing unit 321, a global feature amount dictionary setting processing unit 322, a global feature amount correlation coefficient calculation processing unit 323, and a parameter set generation processing unit 324. It also has a parameter set setting processing unit 325.

特徴抽出条件調整処理部321は、特徴抽出条件調整処理を実行可能である。特徴抽出条件調整処理は、特徴点抽出処理部221における特徴点抽出処理又は局所特徴量計算処理部222における局所特徴量計算処理で用いる特徴抽出条件を調整する処理を含む。ユーザは、入力装置11を操作して、特徴点を抽出し局所特徴量を計算する際のピラミッド画像の段数、及びコーナーやカーブらしさを決定するための閾値等の特徴抽出条件を調整し設定することができる。 The feature extraction condition adjustment processing unit 321 can execute the feature extraction condition adjustment processing. The feature extraction condition adjustment process includes a process of adjusting the feature extraction conditions used in the feature point extraction process in the feature point extraction processing unit 221 or the local feature amount calculation process in the local feature amount calculation processing unit 222. The user operates the input device 11 to adjust and set the feature extraction conditions such as the number of stages of the pyramid image when extracting the feature points and calculating the local feature amount, and the threshold value for determining the corner and the curve-likeness. be able to.

特徴抽出条件調整処理は、画像照合識別装置26の照合処理部262における照合処理の結果に基づき、局所特徴量計算処理による特徴抽出条件について正対応点数と負対応点数との比が最も大きくなるように調整する処理を含んでいる。本実施形態において、正対応点とは、図18(A)に示すように、記録装置24の評価用画像登録部242に登録されている登録画像群のうち識別画像の被写体と同一の被写体を撮影した登録画像と、識別画像と、の対応点を意味する。そして、正対応点数とは、正対応点の数を意味する。図18(A)の例では、登録画像に写っている被写体S1と識別画像に写っている被写体S1は同一である。 In the feature extraction condition adjustment processing, the ratio of the positive correspondence score to the negative correspondence score is the largest for the feature extraction condition by the local feature amount calculation processing based on the result of the matching processing in the matching processing unit 262 of the image matching identification device 26. Includes processing to adjust to. In the present embodiment, as shown in FIG. 18A, the positive correspondence point refers to the same subject as the subject of the identification image among the registered image group registered in the evaluation image registration unit 242 of the recording device 24. It means the corresponding point between the captured registered image and the identification image. And, the positive correspondence point means the number of positive correspondence points. In the example of FIG. 18A, the subject S1 shown in the registered image and the subject S1 shown in the identification image are the same.

また、負対応点とは、図18(B)に示すように、記録装置24の評価用画像登録部242に登録されている登録画像群のうち識別画像の被写体と異なる被写体を撮影した登録画像と、識別画像との対応点を意味する。そして、負対応点数とは、負対応点の数を意味する。図18(B)の例では、登録画像に写っている被写体S2と識別画像に写っている被写体S1とは異なるものである。 Further, as shown in FIG. 18B, the negative correspondence point is a registered image obtained by photographing a subject different from the subject of the identification image among the registered image group registered in the evaluation image registration unit 242 of the recording device 24. Means the corresponding point with the identification image. The number of negative correspondence points means the number of negative correspondence points. In the example of FIG. 18B, the subject S2 shown in the registered image and the subject S1 shown in the identification image are different.

大域特徴量辞書設定処理部322は、大域特徴量辞書設定処理を実行可能である。大域特徴量辞書設定処理は、大域特徴量計算統計情報ごとにスコアを計算して、そのスコアが高いものを、局所特徴量群分類処理部223の局所特徴量群分類処理で用いる大域特徴量辞書として自動で設定する処理を含む。大域特徴量計算統計情報とは、大域特徴量計算処理により大域特徴量を計算する過程、すなわち局所特徴量群分類処理部223における局所特徴量群分類処理の過程で得られる統計情報であり、局所特徴量と相関が高い辞書情報に投票して得たヒストグラム又は相関値の統計量のスコアで表すことができる。特定の辞書情報が選ばれる回数等の統計情報によるスコアが高い辞書情報は性能が高いと考えられる。大域特徴量辞書設定処理によれば、そのような性能が高い辞書情報を有する大域特徴量辞書を自動で選択することができる。 The global feature dictionary setting processing unit 322 can execute the global feature dictionary setting process. The global feature dictionary setting process calculates a score for each global feature calculation statistical information, and the one with a high score is used in the local feature group classification process of the local feature group classification processing unit 223. Includes processing that is automatically set as. The global feature calculation statistical information is statistical information obtained in the process of calculating the global feature by the global feature calculation process, that is, in the process of the local feature group classification process in the local feature group classification processing unit 223, and is local. It can be represented by a histogram obtained by voting for dictionary information having a high correlation with the feature amount or a score of a statistic of the correlation value. Dictionary information with a high score based on statistical information such as the number of times specific dictionary information is selected is considered to have high performance. According to the global feature dictionary setting process, it is possible to automatically select a global feature dictionary having such high-performance dictionary information.

大域特徴量辞書設定処理は、大域特徴量辞書登録部245に登録されている複数の大域特徴量辞書のうち、大域特徴量相関係数に基づき、同一の被写体を撮影した登録画像と識別画像とを同一であると判断し、異なる被写体を撮影した登録画像と識別画像とを同一でないと判断できる大域特徴量辞書を選択して、局所特徴量群分類処理に用いる大域特徴量辞書に設定する処理を含む。 The global feature dictionary setting process includes a registered image and an identification image of the same subject taken based on the global feature correlation coefficient among a plurality of global feature dictionaries registered in the global feature dictionary registration unit 245. Select a global feature amount dictionary that can judge that the registered images and the identification images of different subjects are not the same, and set it in the global feature amount dictionary used for the local feature amount group classification process. including.

大域特徴量相関係数は、登録画像と識別画像とにおける大域特徴量の一致度つまり性能を示す一つの指標となる。2つの画像間における大域特徴量の相関が大きいほど、両者の画像に同一の被写体が含まれている可能性が高いことを意味する。そのため、同一の被写体を撮影した画像間における大域特徴量の相関が大きいということは、その同一の被写体を撮影した画像についてその大域特徴量辞書を使って計算した大域特徴量の一致度が高いことを意味する。すなわちこれは、同一の被写体を撮影した画像間においてその大域特徴量辞書の性能が高いことを意味する。 The global feature correlation coefficient is an index showing the degree of coincidence of the global features between the registered image and the identification image, that is, the performance. The greater the correlation between the global features between the two images, the higher the possibility that the same subject is included in both images. Therefore, the fact that the correlation of the global features between the images of the same subject is large means that the degree of coincidence of the global features calculated using the global feature dictionary for the images of the same subject is high. Means. That is, this means that the performance of the global feature dictionary is high between images of the same subject.

一方、2つの画像間における大域特徴量の相関が小さいほど、両者の画像に含まれる被写体が異なる可能性が高いことを意味する。そのため、異なる被写体を撮影した画像間における大域特徴量の相関が小さいということは、その異なる被写体を撮影した画像についてその大域特徴量辞書を使って計算した大域特徴量の一致度が低いことを意味する。すなわちこれは、異なる被写体を撮影した画像間においてその大域特徴量辞書の性能が高いことを意味する。 On the other hand, the smaller the correlation between the global features between the two images, the higher the possibility that the subjects included in the two images will be different. Therefore, the fact that the correlation of the global features between the images of different subjects is small means that the degree of coincidence of the global features calculated using the global feature dictionary for the images of the different subjects is low. do. That is, this means that the performance of the global feature dictionary is high between images of different subjects.

大域特徴量辞書設定処理は、例えば次のようにして大域特徴量相関係数を計算し、その大域特徴量相関係数に基づいて大域特徴量辞書の性能を判断することができる。すなわち、大域特徴量辞書設定処理は、2つの大域特徴量がベクトルVであるとき、それぞれの絶対値を1に正規化し内積をとった値であって当該内積の値が1に近いものについて同一性が高いと判断し、当該内積の値が−1に近いものについて同一性が低いと判断する。 In the global feature dictionary setting process, for example, the global feature correlation coefficient can be calculated as follows, and the performance of the global feature dictionary can be determined based on the global feature correlation coefficient. That is, the global feature dictionary setting process is the same for the values obtained by normalizing the absolute values of the two global features to 1 and taking the inner product when the two global features are vectors V, and the value of the inner product is close to 1. It is judged that the property is high, and the identity is low when the value of the inner product is close to -1.

この場合、例えば2つの大域特徴量のうち1つの大域特徴量ベクトルVaを次の(2)式とし、正規化された大域特徴量ベクトルVbを次の(3)式とし、dを自然数として定義する。この場合、正規化された大域特徴量ベクトルVbは、大域特徴量ベクトルVaを用いて次の(4)式で表される。そして、大域特徴量ベクトルVaを次の(5)式とすると、大域特徴量ベクトルVaの絶対値は、次の(6)式となる。

Figure 2021174442
In this case, for example, one of the two global features vector Va is defined as the following equation (2), the normalized global feature vector Vb is defined as the following equation (3), and d is defined as a natural number. do. In this case, the normalized global feature vector Vb is expressed by the following equation (4) using the global feature vector Va. Then, assuming that the global feature vector Va is the following equation (5), the absolute value of the global feature vector Va is the following equation (6).
Figure 2021174442

そして、2つの大域特徴量のうちもう1つの大域特徴量ベクトルWaを次の(7)式とすると、その内積の値は、次の(8)式となる。そして、大域特徴量辞書登録部245は、(8)式で得られた内積の値つまり大域特徴量相関係数が1に近いものについては同一性が高いつまり同一の被写体である可能性が高いと判断し、当該内積の値が−1に近いものについては同一性が低いつまり同一の被写体である可能性が低いと判断する。

Figure 2021174442
Then, if the other global feature vector Wa of the two global features is the following equation (7), the value of the inner product is the following equation (8). Then, the global feature dictionary registration unit 245 has a high possibility that the value of the inner product obtained by Eq. (8), that is, the one whose global feature correlation coefficient is close to 1, has high identity, that is, the same subject. If the value of the inner product is close to -1, it is judged that the identity is low, that is, the possibility that the subject is the same is low.
Figure 2021174442

また、大域特徴量辞書設定処理は、例えば次のようにして大域特徴量相関係数を計算し、その大域特徴量相関係数に基づいて大域特徴量辞書の性能を判断することができる。すなわち、大域特徴量相関係数は、2つの大域特徴量のベクトル間の距離の値とする。そして、大域特徴量辞書設定処理は、2つの大域特徴量のベクトル間の距離の値である大域特徴量相関係数が0に近ければ同一性が高いと判断し、大きい場合は同一性が低いと判断する。 Further, in the global feature dictionary setting process, for example, the global feature correlation coefficient can be calculated as follows, and the performance of the global feature dictionary can be determined based on the global feature correlation coefficient. That is, the global feature correlation coefficient is the value of the distance between the vectors of the two global features. Then, in the global feature dictionary setting process, if the global feature correlation coefficient, which is the value of the distance between the vectors of the two global features, is close to 0, it is determined that the identity is high, and if it is large, the identity is low. Judge.

この場合、例えば2つのうち一方の大域特徴量ベクトルVaを上記(2)、(5)式とし、もう一方の大域特徴量ベクトルWaを上記(7)、及び下記(9)式とするとき、大域特徴量ベクトルVa、Wa間の距離は、次の(10)式で表される。

Figure 2021174442
In this case, for example, when one of the two global feature vector Va is given the above equations (2) and (5) and the other global feature vector Wa is given the above equation (7) and the following equation (9), The distance between the global feature vectors Va and Wa is expressed by the following equation (10).
Figure 2021174442

そして、大域特徴量辞書登録部245は、(12)式で得られたベクトルVa、Wa間の距離が近いつまり0に近いものについては同一性が高いつまり同一の被写体である可能性が高いと判断し、ベクトルVa、Wa間の距離が大きいものについては同一性が低いつまり同一の被写体である可能性が低いと判断する。なお、このときそれぞれのベクトルVa、Waは必ずしも正規化されている必要はない。 Then, the global feature dictionary registration unit 245 states that if the distance between the vectors Va and Wa obtained by Eq. (12) is short, that is, close to 0, the same subject is high, that is, there is a high possibility that they are the same subject. Judgment is made, and it is judged that the ones having a large distance between the vectors Va and Wa have low identity, that is, the possibility that they are the same subject is low. At this time, the respective vectors Va and Wa do not necessarily have to be normalized.

大域特徴量相関係数計算処理部323は、大域特徴量相関係数計算処理を実行可能である。大域特徴量相関係数計算処理は、各登録画像の大域特徴量と識別画像の大域特徴量とを比較し、その相関関係を示す大域特徴量相関係数を計算する処理を含む。例えば、大域特徴量相関係数計算処理は、各登録画像の大域特徴量と識別画像の大域特徴量とのヒストグラムを比較して大域特徴量相関係数を計算することができる。 The global feature amount correlation coefficient calculation processing unit 323 can execute the global feature amount correlation coefficient calculation processing. The global feature amount correlation coefficient calculation process includes a process of comparing the global feature amount of each registered image with the global feature amount of the identification image and calculating the global feature amount correlation coefficient showing the correlation. For example, in the global feature amount correlation coefficient calculation process, the global feature amount correlation coefficient can be calculated by comparing the histograms of the global feature amount of each registered image and the global feature amount of the identification image.

パラメータセット生成処理部324は、パラメータセット生成処理を実行可能である。パラメータセット生成処理は、例えば図17に示すように、画像照合識別装置26の照合処理部262で実行される照合処理の条件を設定するためのパラメータについて、各パラメータに定められた設定範囲内の設定値に設定された各パラメータを組み合わせて複数のパラメータセットを生成する処理を含む。本実施形態の場合、パラメータセット生成処理は、各パラメータの設定値の全ての組み合わせについてのパラメータセットを生成する。 The parameter set generation processing unit 324 can execute the parameter set generation processing. As shown in FIG. 17, for example, the parameter set generation process is within the setting range defined for each parameter with respect to the parameter for setting the condition of the collation process executed by the collation processing unit 262 of the image collation identification device 26. Includes a process to generate a plurality of parameter sets by combining each parameter set in the set value. In the case of the present embodiment, the parameter set generation process generates a parameter set for all combinations of set values of each parameter.

パラメータセット設定処理部325は、パラメータセット設定処理を実行可能である。パラメータセット設定処理は、ユーザの操作に基づいて、検索処理部261の検索処理で使用するパラメータセットを設定する処理を含む。ユーザは、例えば入力装置11を操作して、検索処理部261の検索処理で使用するパラメータセットを設定することができる。 The parameter set setting processing unit 325 can execute the parameter set setting process. The parameter set setting process includes a process of setting a parameter set to be used in the search process of the search processing unit 261 based on the user's operation. The user can, for example, operate the input device 11 to set a parameter set to be used in the search process of the search process unit 261.

可視化装置33は、画像照合識別装置26から受けた情報や、撮影条件調整装置31及び照合識別条件調整装置32の調整結果に関する情報等の各種の情報を可視化して表示装置12に表示する機能を有する。本実施形態において可視化とは、データを文字や数値だけでなく図形やグラフ等にして表示装置12に表示することを含む。可視化装置33は、図10に示すように、特徴点表示処理部331、大域特徴量計算統計情報表示処理部332、照合結果表示処理部333、及び条件表示処理部334を有している。 The visualization device 33 has a function of visualizing various information such as information received from the image matching identification device 26 and information related to the adjustment results of the photographing condition adjusting device 31 and the matching identification condition adjusting device 32 and displaying the information on the display device 12. Have. In the present embodiment, the visualization includes not only characters and numerical values but also figures and graphs to be displayed on the display device 12. As shown in FIG. 10, the visualization device 33 includes a feature point display processing unit 331, a global feature amount calculation statistical information display processing unit 332, a collation result display processing unit 333, and a condition display processing unit 334.

特徴点表示処理部331は、特徴点表示処理を実行可能である。特徴点表示処理は、撮影条件調整装置31や照合識別条件調整装置32により各種の条件やパラメータを調整する際に実行することができる。特徴点表示処理は、例えば図21(A)に示すように、特徴抽出装置22の特徴点抽出処理部221における特徴点抽出処理の実行により抽出した各特徴点Pを、画像に重ねて表示装置12に表示する処理を含む。すなわち、画像中の被写体S上に特徴点Pが重ねて表示される。これにより、ユーザは、画像中の被写体Sのどこを特徴点として抽出されているかを視認することができる。また、特徴点表示処理は、図21(A)に示すように、局所特徴量が属する局所特徴量群ごとに、この場合、各特徴点Pがクラスタリングされて当てはめられた辞書情報dごとに異なる態様、例えば異なる色や大きさ、形状で各特徴点Pを表示装置12に表示する処理を含む。図21では、各特徴点Pの色彩の違いを濃淡の違いで表している。 The feature point display processing unit 331 can execute the feature point display process. The feature point display process can be executed when various conditions and parameters are adjusted by the photographing condition adjusting device 31 and the collation identification condition adjusting device 32. In the feature point display process, for example, as shown in FIG. 21 (A), each feature point P extracted by executing the feature point extraction process in the feature point extraction processing unit 221 of the feature extraction device 22 is superimposed on an image and displayed on the display device. Includes the process to be displayed in 12. That is, the feature points P are superimposed and displayed on the subject S in the image. As a result, the user can visually recognize which part of the subject S in the image is extracted as a feature point. Further, as shown in FIG. 21A, the feature point display process is different for each local feature amount group to which the local feature amount belongs, and in this case, for each dictionary information d to which each feature point P is clustered and applied. A mode, for example, a process of displaying each feature point P on the display device 12 in a different color, size, and shape is included. In FIG. 21, the difference in color of each feature point P is represented by the difference in shade.

大域特徴量計算統計情報表示処理部332は、大域特徴量計算統計情報表示処理を実行可能である。大域特徴量計算統計情報表示処理は、撮影条件調整装置31や照合識別条件調整装置32により各種の条件やパラメータを調整する際に実行することができる。大域特徴量計算統計情報表示処理は、大域特徴量計算統計情報を表示装置12に表示する処理を含む。大域特徴量計算統計情報は、特徴抽出装置22の大域特徴量計算処理部224で実行される大域特徴量計算処理により大域特徴量を計算する過程で得られる統計情報である。大域特徴量計算統計情報表示処理は、図21(B)に示すように、各局所特徴量Aと相関が高い辞書情報dに投票して得たヒストグラム又は相関値の統計量のスコアを、大域特徴量計算統計情報Gとして表示装置12に表示する処理を含む。すなわち、大域特徴量計算統計情報Gは、大域特徴量計算処理の実行過程で得られる大域特徴量のヒストグラム又は相関値の統計量のスコアとすることができる。 The global feature amount calculation statistical information display processing unit 332 can execute the global feature amount calculation statistical information display processing. The global feature amount calculation statistical information display process can be executed when various conditions and parameters are adjusted by the photographing condition adjusting device 31 and the collation identification condition adjusting device 32. The global feature amount calculation statistical information display process includes a process of displaying the global feature amount calculation statistical information on the display device 12. The global feature calculation statistical information is statistical information obtained in the process of calculating the global feature by the global feature calculation process executed by the global feature calculation processing unit 224 of the feature extraction device 22. As shown in FIG. 21 (B), the global feature calculation statistical information display process obtains the score of the histogram or the correlation value statistic obtained by voting for the dictionary information d having a high correlation with each local feature A. The process of displaying the feature amount calculation statistical information G on the display device 12 is included. That is, the global feature calculation statistical information G can be a histogram of the global feature obtained in the execution process of the global feature calculation process or a statistic score of the correlation value.

照合結果表示処理部333は、照合結果表示処理を実行可能である。照合結果表示処理は、撮影条件調整装置31や照合識別条件調整装置32により各種の条件やパラメータを調整する際に実行することができる。照合結果表示処理は、画像照合識別装置26の照合処理部262で実行された複数の照合処理の結果をまとめて可視化して表示装置12に表示する処理を含む。 The collation result display processing unit 333 can execute the collation result display process. The collation result display process can be executed when various conditions and parameters are adjusted by the photographing condition adjusting device 31 and the collation identification condition adjusting device 32. The collation result display process includes a process of collectively visualizing the results of a plurality of collation processes executed by the collation processing unit 262 of the image collation identification device 26 and displaying them on the display device 12.

照合結果表示処理は、例えば図17に示す各パラメータセットを用いて照合処理を実行した照合結果を、図22に示すようにグラフ化して表示する処理を含む。この場合、照合結果表示処理部333は、同一の被写体の画像同士だけでなく、異なる被写体の画像同士についても照合処理を行う。そして、照合結果表示処理部333は、同一の被写体を撮影した画像間の対応点数である正対応点数と、異なる被写体を撮影した画像間の対応点数である負対応点数をそれぞれ計算してグラフ化して、表示装置12に表示する。図22のグラフは、横軸に条件Noをとり、縦軸に対応点数をとったものである。また、図22のうち、F1は正対応点数のグラフを示し、F2は負対応点数のグラフを示す。図22の例では、条件No.Nが最も正対応点数が多くかつ負対応点数が少ないことがわかる。これにより、ユーザは、正対応点数の多くかつ負対応点数が少ない条件Noつまり性能が良い条件Noを一見して把握することができる。 The collation result display process includes, for example, a process of graphing and displaying the collation result obtained by executing the collation process using each parameter set shown in FIG. 17 as shown in FIG. In this case, the collation result display processing unit 333 performs collation processing not only on the images of the same subject but also on the images of different subjects. Then, the collation result display processing unit 333 calculates and graphs the positive correspondence points, which are the correspondence points between the images of the same subject, and the negative correspondence points, which are the correspondence points between the images of different subjects. Then, it is displayed on the display device 12. In the graph of FIG. 22, the horizontal axis represents the condition No. and the vertical axis represents the corresponding points. Further, in FIG. 22, F1 shows a graph of positive correspondence points, and F2 shows a graph of negative correspondence points. In the example of FIG. 22, the condition No. It can be seen that N has the highest number of positive correspondence points and the smallest number of negative correspondence points. As a result, the user can grasp at a glance the condition No. which has a large number of positive correspondence points and a small number of negative correspondence points, that is, the condition No. which has good performance.

また、照合結果表示処理は、画像照合識別装置26の照合処理部262において照合処理を実行した際に、照合に用いた識別画像の対応点数評価情報を表示装置12に表示する処理を含む。対応点数評価情報は、照合処理で計算した対応点数に基づく情報であり、例えば対応点数そのままの数値でも良いし、例えば複数段階のレベルやスコアとすることもできる。 Further, the collation result display process includes a process of displaying the corresponding score evaluation information of the identification image used for collation on the display device 12 when the collation processing unit 262 of the image collation identification device 26 executes the collation process. The corresponding score evaluation information is information based on the corresponding score calculated by the collation process. For example, the corresponding score may be a numerical value as it is, or may be, for example, a level or a score of a plurality of stages.

この場合、照合結果表示処理部333は、例えば図23に示すように、表示装置12の画面上に、登録画像表示部51、真値画像表示領域52、偽値画像表示領域53、真値画像評価情報表示領域541、真値画像相関情報表示領域542、偽値画像評価情報表示領域551、及び偽値画像相関情報表示領域552を表示させる。登録画像表示部51には、照合処理を行う画像のうち、記録装置24の評価用画像登録部242に登録されている登録画像群の中の1つが表示される。 In this case, as shown in FIG. 23, for example, the collation result display processing unit 333 displays the registered image display unit 51, the true value image display area 52, the false value image display area 53, and the true value image on the screen of the display device 12. The evaluation information display area 541, the true value image correlation information display area 542, the false value image evaluation information display area 551, and the false value image correlation information display area 552 are displayed. The registered image display unit 51 displays one of the registered image groups registered in the evaluation image registration unit 242 of the recording device 24 among the images to be collated.

真値画像表示領域52には、照合処理を行う画像のうち、記録装置24の評価用画像登録部242に登録されている識別画像であって、登録画像表示部51に表示されている画像の被写体と同一の被写体を異なる条件で撮影した画像が表示される。図23の例では、登録画像表示部51に表示されている画像の被写体S1と、真値画像表示領域52に表示されている画像の被写体S1とは、同一の個体である。本実施形態においては、登録画像表示部51に表示されている画像の被写体と同一の被写体を異なる条件で撮影した画像を、真値画像と称する。この場合、同一の被写体を撮影した登録画像と識別画像とは相互に紐付けされた状態つまりペアを組んだ状態で評価用画像登録部242に登録されている。つまり、照合結果表示処理部333は、登録画像と識別画像との紐付けを識別することで、同一の被写体を撮影したものか異なる被写体を撮影したものかを認識することができる。 In the true value image display area 52, among the images to be collated, the identification image registered in the evaluation image registration unit 242 of the recording device 24 and the image displayed in the registered image display unit 51. Images of the same subject as the subject taken under different conditions are displayed. In the example of FIG. 23, the subject S1 of the image displayed on the registered image display unit 51 and the subject S1 of the image displayed on the true value image display area 52 are the same individual. In the present embodiment, an image obtained by shooting the same subject as the subject of the image displayed on the registered image display unit 51 under different conditions is referred to as a true value image. In this case, the registered image in which the same subject is photographed and the identification image are registered in the evaluation image registration unit 242 in a state of being linked to each other, that is, in a state of forming a pair. That is, the collation result display processing unit 333 can recognize whether the same subject is photographed or a different subject is photographed by identifying the association between the registered image and the identification image.

そして、偽値画像表示領域53には、照合処理を行う画像のうち、記録装置24の評価用画像登録部242に登録されている識別画像であって、登録画像表示部51に表示されている画像の被写体と異なる被写体を異なる条件で撮影した画像が表示される。図23の例では、登録画像表示部51に表示されている画像の被写体S1と、真値画像表示領域52に表示されている画像の被写体S2とは、異なる個体である。本実施形態においては、登録画像表示部51に表示されている画像の被写体と異なる被写体を撮影した画像を、偽値画像と称する。 Then, in the false value image display area 53, among the images to be collated, the identification image registered in the evaluation image registration unit 242 of the recording device 24 is displayed on the registered image display unit 51. An image of a subject different from the subject of the image taken under different conditions is displayed. In the example of FIG. 23, the subject S1 of the image displayed on the registered image display unit 51 and the subject S2 of the image displayed on the true value image display area 52 are different individuals. In the present embodiment, an image obtained by capturing a subject different from the subject of the image displayed on the registered image display unit 51 is referred to as a false value image.

また、真値画像評価情報表示領域541には、登録画像表示部51に表示されている画像と、真値画像表示領域52に表示されている画像とで照合処理を行った結果、つまり真値画像の対応点数評価情報が表示される。また、偽値画像評価情報表示領域551には、登録画像表示部51に表示されている画像と、偽値画像表示領域53に表示されている画像とで照合処理を行った結果、つまり偽値画像の対応点数評価情報が表示される。 Further, in the true value image evaluation information display area 541, the result of performing collation processing between the image displayed in the registered image display unit 51 and the image displayed in the true value image display area 52, that is, the true value. The corresponding score evaluation information of the image is displayed. Further, in the false value image evaluation information display area 551, the result of performing collation processing between the image displayed on the registered image display unit 51 and the image displayed on the false value image display area 53, that is, a false value. The corresponding score evaluation information of the image is displayed.

照合結果表示処理は、大域特徴量相関係数に基づく情報を表示装置12に表示する処理を含む。この場合、真値画像相関情報表示領域542には、登録画像表示部51に表示されている登録画像から計算した大域特徴量と、真値画像表示領域52に表示されている真値画像のから計算した大域特徴量との相関係数が表示される。そして、偽値画像相関情報表示領域552には、登録画像表示部51に表示されている登録画像から計算した大域特徴量と、偽値画像表示領域53に表示されている偽値画像から計算した大域特徴量とを比較して得た相関係数が表示される。 The collation result display process includes a process of displaying information based on the global feature amount correlation coefficient on the display device 12. In this case, the true value image correlation information display area 542 is composed of the global feature amount calculated from the registered image displayed on the registered image display unit 51 and the true value image displayed on the true value image display area 52. The correlation coefficient with the calculated global features is displayed. Then, in the false value image correlation information display area 552, the global feature amount calculated from the registered image displayed on the registered image display unit 51 and the false value image displayed on the false value image display area 53 are calculated. The correlation coefficient obtained by comparing with the global feature quantity is displayed.

ユーザは、例えば入力装置11を操作して、登録画像表示部51、真値画像表示領域52、偽値画像表示領域53、真値画像評価情報表示領域541に表示する画像、つまり照合処理を行う画像を選択し、その画像について照合処理を実行する。そして、照合処理が行われると、照合結果表示処理部333は、その照合結果として、真値画像評価情報表示領域541及び偽値画像評価情報表示領域551にそれぞれ対応点数評価情報を表示するとともに、真値画像相関情報表示領域542及び偽値画像相関情報表示領域552にそれぞれ大域特徴量相関係数を表示する。これにより、ユーザは、真値画像評価情報表示領域541及び偽値画像評価情報表示領域551に表示される対応点数評価情報や、真値画像相関情報表示領域542及び偽値画像相関情報表示領域552に表示される大域特徴量相関係数に基づく情報を見ることにより、照合処理に用いた各種条件やパラメータの性能を確認することができる。この場合、大域特徴量相関係数に基づく情報とは、大域特徴量相関係数そのものの値でも良いし、大域特徴量相関係数を加工して性能を数段階で表すようなレベルやランク等としても良い。 The user operates, for example, the input device 11 to perform collation processing, that is, an image to be displayed in the registered image display unit 51, the true value image display area 52, the false value image display area 53, and the true value image evaluation information display area 541. Select an image and perform matching processing on that image. Then, when the collation processing is performed, the collation result display processing unit 333 displays the corresponding score evaluation information in the true value image evaluation information display area 541 and the false value image evaluation information display area 551 as the collation result, and also displays the corresponding score evaluation information. The global feature amount correlation coefficient is displayed in the true value image correlation information display area 542 and the false value image correlation information display area 552, respectively. As a result, the user can use the corresponding score evaluation information displayed in the true value image evaluation information display area 541 and the false value image evaluation information display area 551, and the true value image correlation information display area 542 and the false value image correlation information display area 552. By looking at the information based on the global feature amount correlation coefficient displayed in, the performance of various conditions and parameters used in the collation process can be confirmed. In this case, the information based on the global feature correlation coefficient may be the value of the global feature correlation coefficient itself, or the level or rank that the performance is expressed in several stages by processing the global feature correlation coefficient. May be.

照合結果表示処理部333は、例えば図18に示すように、登録画像と識別画像の正対応点数又は負対応点数を表示装置12に表示させても良い。また、照合結果表示処理部333は、例えば登録画像と識別画像とで、個々の画像がそれぞれ固有に有している特徴点と、共通に有している特徴点とを切り分けて表示しても良い。この場合、照合結果表示処理部333は、個々の画像が固有に有している特徴点と、共通に有している特徴点のその数や割合を表示するようにしても良い。そして、照合結果表示処理部333は、登録画像及び識別画像のみ表示するモードと、例えば登録画像及び識別画像に特徴点を加えて表示するモードと、登録画像及び識別画像に特徴点と対応点を加えて表示するモードと、を任意に切り替えるようにしても良い。 As shown in FIG. 18, for example, the collation result display processing unit 333 may display the positive correspondence score or the negative correspondence score of the registered image and the identification image on the display device 12. Further, the collation result display processing unit 333 may separately display, for example, a registered image and an identification image, that is, the feature points that each image has uniquely and the feature points that each image has in common. good. In this case, the collation result display processing unit 333 may display the feature points uniquely possessed by each image and the number or ratio of the feature points commonly possessed. Then, the collation result display processing unit 333 sets a mode for displaying only the registered image and the identification image, a mode for displaying the registered image and the identification image by adding feature points, and a feature point and a corresponding point for the registered image and the identification image. In addition, the display mode may be arbitrarily switched.

ここで、工業製品等のように同一の工程で製造された部品は、人の顔や指紋等の生態認証に比べて個体間の特徴の差が極めて小さい。そのため、個体表面に表れる多数の特徴を照合する必要があるため、計算量が多く識別に時間がかかり、そして識別対象の母数が増えるほど計算量は爆発的に増える。 Here, parts manufactured in the same process, such as industrial products, have extremely small differences in characteristics between individuals as compared with ecological authentication such as human faces and fingerprints. Therefore, since it is necessary to collate a large number of features appearing on the surface of an individual, the amount of calculation is large and it takes time to identify, and the amount of calculation increases explosively as the number of parameters to be identified increases.

これに対し、個体識別システム1は、画像取得処理部212、特徴点抽出処理部221、局所特徴量計算処理部222、局所特徴量群分類処理部223、検索対象画像登録処理部231、大域特徴量登録処理部234、絞り込み処理部2611、及び特定処理部2612を備える。画像取得処理部212は、撮影機器10によって撮影した被写体の画像を取得する画像取得処理を実行可能である。特徴点抽出処理部221は、画像取得処理で取得した画像から特徴点を抽出する特徴点抽出処理を実行可能である。局所特徴量計算処理部222は、特徴点抽出処理で抽出された特徴点の局所特徴量を計算する局所特徴量計算処を実行可能である。 On the other hand, the individual identification system 1 includes an image acquisition processing unit 212, a feature point extraction processing unit 221, a local feature amount calculation processing unit 222, a local feature amount group classification processing unit 223, a search target image registration processing unit 231 and a global feature. It includes a quantity registration processing unit 234, a narrowing down processing unit 2611, and a specific processing unit 2612. The image acquisition processing unit 212 can execute an image acquisition process for acquiring an image of a subject photographed by the photographing device 10. The feature point extraction processing unit 221 can execute the feature point extraction process for extracting the feature points from the image acquired by the image acquisition process. The local feature amount calculation processing unit 222 can execute a local feature amount calculation process for calculating the local feature amount of the feature points extracted by the feature point extraction process.

局所特徴量群分類処理部223は、局所特徴量計算処理によって得られた複数の局所特徴量を当該局所特徴量の値に応じて所定数例えば64個の局所特徴量群に分類する局所特徴量群分類処理を実行可能である。大域特徴量計算処理部224は、各局所特徴量群に基づいて大域特徴量を計算する大域特徴量計算処理を実行可能である。検索対象画像登録処理部231は、予め複数の検索対象の画像を登録画像として検索対象画像登録部241に登録する検索対象画像登録処理を実行可能である。大域特徴量登録処理部234は、登録画像に係る大域特徴量を大域特徴量登録部244に登録する大域特徴量登録処理を実行可能である。絞り込み処理部2611は、例えば図15に示すように、複数の登録画像の中から識別画像が有する大域特徴量との相関が高い大域特徴量を有する所定数の登録画像を候補して絞り込む絞り込み処理を実行可能である。そして、特定処理部2612は、例えば図16に示すように、絞り込み処理によって抽出された候補の登録画像の局所特徴量と、識別画像の局所特徴量とを比較し、局所特徴量の対応点数が最も多い登録画像を特定する特定処理を実行可能である。 The local feature group classification processing unit 223 classifies a plurality of local features obtained by the local feature calculation process into a predetermined number, for example, 64 local feature groups according to the value of the local feature. Group classification processing can be executed. The global feature calculation processing unit 224 can execute the global feature calculation process for calculating the global feature based on each local feature group. The search target image registration processing unit 231 can execute the search target image registration process of registering a plurality of search target images as registered images in the search target image registration unit 241 in advance. The global feature amount registration processing unit 234 can execute the global feature amount registration process for registering the global feature amount related to the registered image in the global feature amount registration unit 244. As shown in FIG. 15, for example, the narrowing-down processing unit 2611 selects and narrows down a predetermined number of registered images having a global feature amount having a high correlation with the global feature amount of the identification image from a plurality of registered images. Is feasible. Then, as shown in FIG. 16, for example, the specific processing unit 2612 compares the local feature amount of the candidate registered image extracted by the narrowing process with the local feature amount of the identification image, and the corresponding points of the local feature amount are obtained. It is possible to execute a specific process for identifying the most registered images.

この構成によれば、絞り込み処理部2611は、絞り込み処理の実行により、登録画像と識別画像の大域特徴量を比較して候補となる登録画像を大まかに絞り込む。この絞り込み処理は、それぞれの画像の局所特徴量を全て対比する特定処理に比べて計算量が少なく格段に高速で処理することができるものの、精度が出にくい。そこで次に、特定処理部2612は、特定処理の実行により、絞り込まれた候補の登録画像と、識別画像の局所特徴量を対比して対象を特定する。この特定処理は、大域特徴量で比較する絞り込み処理に比べて計算量が多く時間がかかるものの、精度が良い。このように、個体識別システム1は、大域特徴量で絞り込む絞り込み処理と、局所特徴量で特定する特定処理と、の2段階の処理を実行することにより、高速でかつ高精度の検索を実現することができる。これは、登録画像の母数が増えた場合に特に効果を発揮する。 According to this configuration, the narrowing-down processing unit 2611 roughly narrows down the candidate registered images by comparing the global feature amounts of the registered image and the identification image by executing the narrowing-down processing. This narrowing down process requires less calculation than the specific process of comparing all the local features of each image and can be processed at a much higher speed, but the accuracy is difficult to obtain. Therefore, next, the specific processing unit 2612 identifies the target by comparing the registered image of the narrowed-down candidate with the local feature amount of the identification image by executing the specific processing. This specific process requires a large amount of calculation and takes a long time as compared with the narrowing process in which the global feature amount is compared, but the accuracy is good. In this way, the individual identification system 1 realizes a high-speed and highly accurate search by executing a two-step process of narrowing down by the global feature amount and specifying by the local feature amount. be able to. This is particularly effective when the population parameter of the registered image is increased.

そして、個体識別システム1は、撮影機器条件調整処理部311、撮影対象条件調整処理部312、及び特徴抽出条件調整処理部321のうち少なくともいずれか1つを更に備える。撮影機器条件調整処理部311は、ユーザの操作に基づき撮影機器10に関する条件である撮影機器条件を調整する撮影機器条件調整処理を実行可能である。撮影対象条件調整処理部312は、ユーザの操作に基づき撮影対象に関する条件である撮影対象条件を調整する撮影対象条件調整処理を実行可能である。そして、特徴抽出条件調整処理部321は、ユーザの操作に基づき特徴点抽出処理に関する条件である特徴抽出条件を調整する特徴抽出条件調整処理を実行可能である。 The individual identification system 1 further includes at least one of a photographing device condition adjusting processing unit 311, a photographing target condition adjusting processing unit 312, and a feature extraction condition adjusting processing unit 321. The shooting device condition adjustment processing unit 311 can execute the shooting device condition adjustment process for adjusting the shooting device condition, which is a condition related to the shooting device 10, based on the user's operation. The shooting target condition adjustment processing unit 312 can execute the shooting target condition adjustment process for adjusting the shooting target condition, which is a condition related to the shooting target, based on the user's operation. Then, the feature extraction condition adjustment processing unit 321 can execute the feature extraction condition adjustment process for adjusting the feature extraction condition, which is a condition related to the feature point extraction process, based on the user's operation.

これによれば、ユーザは、撮影機器条件調整処理部311、撮影対象条件調整処理部312、及び特徴抽出条件調整処理部321の少なくとも1つを操作し、各種条件やパラメータを設定するつまりチューニングを行うことができる。その結果、例えば製造工程途中で表面模様が変化する加工が施されるようなもの、つまり画像の登録時と識別時とで表面模様が変化する場合であっても柔軟に対応でき、高速で精度良く識別することができる。 According to this, the user operates at least one of the shooting device condition adjustment processing unit 311, the shooting target condition adjustment processing unit 312, and the feature extraction condition adjustment processing unit 321 to set various conditions and parameters, that is, to perform tuning. It can be carried out. As a result, for example, even if the surface pattern is changed in the middle of the manufacturing process, that is, even if the surface pattern changes between the time of registering the image and the time of identification, it can be flexibly dealt with, and the accuracy is high. Can be identified well.

個体識別システム1は、大域特徴量辞書生成処理部251を備える。大域特徴量辞書生成処理部251は、予め取得した複数の学習用画像から得た各局所特徴量群のそれぞれの代表値を辞書情報に持つ大域特徴量辞書を生成する大域特徴量辞書生成処理を実行可能である。そして、大域特徴量計算処理は、各局所特徴量と相関が高い辞書情報に投票して得たヒストグラムを大域特徴量として計算する処理を含む。また、大域特徴量計算処理は、各局所特徴量と相関が高い辞書情報である代表値との差分ベクトルを総和したベクトルを代表値の数だけ計算しそれらをつなげたベクトルを大域特徴量として計算する処理を含んでいても良い。 The individual identification system 1 includes a global feature dictionary generation processing unit 251. The global feature dictionary generation processing unit 251 performs a global feature dictionary generation process for generating a global feature dictionary having each representative value of each local feature group obtained from a plurality of learning images acquired in advance as dictionary information. It is feasible. Then, the global feature calculation process includes a process of calculating a histogram obtained by voting for dictionary information having a high correlation with each local feature as a global feature. In the global feature calculation process, the vector obtained by summing the difference vectors between each local feature and the representative value, which is dictionary information with high correlation, is calculated for the number of representative values, and the vector connecting them is calculated as the global feature. It may include the processing to be performed.

すなわち、被写体の種類や状態によっては、どのような箇所を特徴点として抽出されるかが変わってくるため、画像から得られた局所特徴量を単純に分類して大域特徴量を計算しただけでは、大域特徴量の性能が低い、つまり識別能力が低い可能性がある。これに対し、本構成によれば、被写体に適した辞書情報を有する大域特徴量辞書を用いることで、被写体の種類や状態が変わっても、性能の良い大域特徴量を得ることができ、その結果、絞り込み処理の精度を上げることができる。 In other words, depending on the type and state of the subject, what kind of features are extracted as feature points will change. Therefore, simply classifying the local features obtained from the image and calculating the global features is sufficient. , The performance of global features may be low, that is, the discrimination ability may be low. On the other hand, according to this configuration, by using a global feature dictionary having dictionary information suitable for the subject, it is possible to obtain a global feature with good performance even if the type or state of the subject changes. As a result, the accuracy of the narrowing process can be improved.

また、本構成において、大域特徴量辞書生成処理は、局所特徴量群のセントロイドを代表値として辞書情報に設定する処理を含む。局所特徴量群のセントロイドは、その局所特徴量群を代表するものである。このため、局所特徴量群のセントロイドを代表値として辞書情報に設定することで、性能の良い大域特徴量辞書を得ることができる。 Further, in this configuration, the global feature dictionary generation process includes a process of setting the centroid of the local feature group as a representative value in the dictionary information. The centroid of the local feature group is representative of the local feature group. Therefore, by setting the centroid of the local feature group as a representative value in the dictionary information, it is possible to obtain a global feature dictionary with good performance.

個体識別システム1は、画像取得処理部212と、特徴点抽出処理部221と、を備え、特徴点表示処理部331と、を更に備える。特徴点表示処理部331は、例えば図21に示すように、特徴点抽出処理により抽出した特徴点を画像に重ねて表示装置12に表示する特徴点表示処理を実行可能である。 The individual identification system 1 includes an image acquisition processing unit 212, a feature point extraction processing unit 221 and a feature point display processing unit 331. As shown in FIG. 21, for example, the feature point display processing unit 331 can execute the feature point display process of superimposing the feature points extracted by the feature point extraction process on the image and displaying them on the display device 12.

個体識別システム1は、撮影機器条件調整処理部311、撮影対象条件調整処理部312、及び特徴抽出条件調整処理部321のうち少なくともいずれか1つを備えている。撮影機器条件調整処理部311は、ユーザの操作に基づき撮影機器10に関する条件である撮影機器条件を調整する撮影機器条件調整処理を実行可能である。撮影対象条件調整処理部312は、ユーザの操作に基づき撮影対象に関する条件である撮影対象条件を調整する撮影対象条件調整処理を実行可能である。そして、特徴抽出条件調整処理部321は、ユーザの操作に基づき特徴点抽出処理に関する条件である特徴抽出条件を調整する特徴抽出条件調整処理を実行可能である。 The individual identification system 1 includes at least one of a photographing device condition adjusting processing unit 311, a photographing target condition adjusting processing unit 312, and a feature extraction condition adjusting processing unit 321. The shooting device condition adjustment processing unit 311 can execute the shooting device condition adjustment process for adjusting the shooting device condition, which is a condition related to the shooting device 10, based on the user's operation. The shooting target condition adjustment processing unit 312 can execute the shooting target condition adjustment process for adjusting the shooting target condition, which is a condition related to the shooting target, based on the user's operation. Then, the feature extraction condition adjustment processing unit 321 can execute the feature extraction condition adjustment process for adjusting the feature extraction condition, which is a condition related to the feature point extraction process, based on the user's operation.

例えば個体識別システム1を生産現場で使用する場合、識別の対象となる部品は、製造工程中の経時変化や熱加工等されてその表面模様の色味等が変化するものがある。このような製造工程途中で表面模様の色味等が変化する加工が施される部品においては、その加工の前後、つまり画像の登録時と識別時とで抽出される特徴点の位置や数、及び局所特徴量が大きく変わる可能性があり、その結果、識別精度が低下してしまう。 For example, when the individual identification system 1 is used at a production site, some parts to be identified change with time during the manufacturing process, heat processing, or the like, and the color of the surface pattern thereof changes. For parts that are processed to change the color of the surface pattern during the manufacturing process, the position and number of feature points extracted before and after the processing, that is, at the time of image registration and at the time of identification, And the local feature amount may change significantly, and as a result, the identification accuracy is lowered.

これに対し、本構成によれば、特徴点抽出処理で抽出した特徴点が画像に重ねられて表示装置12に表示されるため、ユーザは、画像の中のどの箇所が特徴点として抽出されているか見て確認することができる。そして、ユーザは、製造工程を経ても表面模様の色味等が変化難くい箇所について重点的に特徴点を抽出できるように、特徴抽出条件調整処理部321、撮影対象条件調整処理部312、及び特徴抽出条件調整処理部321の少なくとも1つを操作し、抽出される特徴点の位置を確認しながら各種条件やパラメータを設定するつまりチューニングを行うことができる。その結果、製造工程途中で表面模様が変化する加工が施されるようなもの、つまり画像の登録時と識別時とで表面模様が変化する場合であっても、精度良く識別することができる。 On the other hand, according to this configuration, since the feature points extracted by the feature point extraction process are superimposed on the image and displayed on the display device 12, the user can extract which part of the image as the feature point. You can check if it is. Then, the user can focus on extracting feature points from places where the color of the surface pattern is unlikely to change even after the manufacturing process, so that the feature extraction condition adjustment processing unit 321 and the imaging target condition adjustment processing unit 312, and the shooting target condition adjustment processing unit 312, and At least one of the feature extraction condition adjustment processing unit 321 can be operated to set various conditions and parameters while checking the positions of the feature points to be extracted, that is, tuning can be performed. As a result, even if the surface pattern is changed in the middle of the manufacturing process, that is, the surface pattern changes between the time of registering the image and the time of identification, it is possible to accurately identify the image.

個体識別システム1は、局所特徴量計算処理部222と、局所特徴量群分類処理部223と、を備えている。そして、特徴点表示処理は、図21(A)に示すように、局所特徴量が属する局所特徴量群ごとに異なる態様、例えば色や大きさ、形状を異ならせた態様で特徴点を表示装置12に表示する処理を更に含む。 The individual identification system 1 includes a local feature amount calculation processing unit 222 and a local feature amount group classification processing unit 223. Then, as shown in FIG. 21A, the feature point display process displays the feature points in a mode different for each local feature amount group to which the local feature amount belongs, for example, a mode in which the color, size, and shape are different. The process of displaying in 12 is further included.

これによれば、ユーザは、画像中のどこにどのような特徴点が存在しているか、一見して把握することができる。これにより、抽出された特徴点の位置を確認しながら各種条件やパラメータを設定する作業が更にやり易くなる。その結果、製造工程途中で表面模様が変化する加工が施されるようなものについて更に精度良く識別することができる。 According to this, the user can grasp at a glance what kind of feature point exists in the image. This makes it easier to set various conditions and parameters while checking the positions of the extracted feature points. As a result, it is possible to more accurately identify those that are subjected to processing that changes the surface pattern in the middle of the manufacturing process.

個体識別システム1は、大域特徴量計算処理部224を備え、大域特徴量計算統計情報表示処理部332を更に備えている。大域特徴量計算統計情報表示処理部332は、図21(B)に示すように、大域特徴量辞書生成処理の実行による大域特徴量の計算過程において局所特徴量群分類処理の過程で得られる大域特徴量計算統計情報Gを表示装置12に表示する大域特徴量計算統計情報表示処理を実行可能である。 The individual identification system 1 includes a global feature amount calculation processing unit 224, and further includes a global feature amount calculation statistical information display processing unit 332. As shown in FIG. 21 (B), the global feature calculation statistical information display processing unit 332 is obtained in the local feature group classification process in the global feature calculation process by executing the global feature dictionary generation process. It is possible to execute the global feature calculation statistical information display process for displaying the feature calculation statistical information G on the display device 12.

これによれば、ユーザは、どのような大域特徴量が得られたかが把握し易くなる。すなわち、域特徴量辞書のどの辞書情報にどのくらい投票がされたかという情報を表示することで、ユーザは、その域特徴量辞書が有する辞書情報の選ばれ方の偏り把握することができる。これにより、表示された大域特徴量計算統計情報Gを見ながら大域特徴量に関する各種条件やパラメータを設定する作業が更にやり易くなる。その結果、製造工程途中で表面模様が変化する加工が施されるようなものについて更に精度良く識別することができる。 According to this, the user can easily grasp what kind of global feature amount is obtained. That is, by displaying information on which dictionary information of the area feature amount dictionary and how many votes have been voted, the user can grasp the bias of how the dictionary information of the area feature amount dictionary is selected. This makes it easier to set various conditions and parameters related to the global feature amount while looking at the displayed global feature amount calculation statistical information G. As a result, it is possible to more accurately identify those that are subjected to processing that changes the surface pattern in the middle of the manufacturing process.

個体識別システム1は、大域特徴量辞書生成処理部251を更に備える。大域特徴量辞書生成処理部251は、予め取得した複数の学習用画像から得た各局所特徴量群のそれぞれの代表値を辞書情報に持つ大域特徴量辞書を生成する大域特徴量辞書生成処理を実行可能である。そして、大域特徴量計算統計情報表示処理は、図13に示すように大域特徴量の計算過程において各局所特徴量と相関が高い辞書情報dに投票して得たヒストグラム又は相関値の統計量のスコアを、図21に示すように大域特徴量計算統計情報Gとして表示装置12に表示する処理を含む。 The individual identification system 1 further includes a global feature dictionary generation processing unit 251. The global feature dictionary generation processing unit 251 performs a global feature dictionary generation process for generating a global feature dictionary having each representative value of each local feature group obtained from a plurality of learning images acquired in advance as dictionary information. It is feasible. Then, in the global feature calculation statistical information display processing, as shown in FIG. 13, in the calculation process of the global feature, the histogram or the statistic of the correlation value obtained by voting for the dictionary information d having a high correlation with each local feature. As shown in FIG. 21, the score is displayed on the display device 12 as the global feature amount calculation statistical information G.

これによれば、ユーザは、大域特徴量を視覚的でかつ直感的に把握し易くなる。これにより、表示された大域特徴量計算統計情報Gを見ながら大域特徴量に関する各種条件やパラメータを設定する作業が更にやり易くなる。その結果、製造工程途中で表面模様が変化する加工が施されるようなものについて更に精度良く識別することができる。 According to this, the user can easily grasp the global feature amount visually and intuitively. This makes it easier to set various conditions and parameters related to the global feature amount while looking at the displayed global feature amount calculation statistical information G. As a result, it is possible to more accurately identify those that are subjected to processing that changes the surface pattern in the middle of the manufacturing process.

個体識別システム1は、大域特徴量辞書設定処理部322を更に備える。大域特徴量辞書設定処理部322は、大域特徴量計算統計情報ごとにスコアを計算して、そのスコアが高いものを局所特徴量群分類処理で用いる大域特徴量辞書として自動で設定する大域特徴量辞書設定処理を実行可能である。 The individual identification system 1 further includes a global feature dictionary setting processing unit 322. The global feature dictionary setting processing unit 322 calculates a score for each global feature calculation statistical information, and automatically sets a score with a high score as a global feature dictionary to be used in the local feature group classification process. Dictionary setting processing can be executed.

これによれば、適切な大域特徴量辞書として自動で設定されるため、ユーザは、いちいち条件やパラメータを手動で調整する必要がなくなり、その結果、ユーザ利便性が向上する。 According to this, since it is automatically set as an appropriate global feature dictionary, the user does not have to manually adjust the conditions and parameters one by one, and as a result, the user convenience is improved.

本構成の個体識別システム1を例えば工場等で使用する場合、登録画像の撮影と識別画像の撮影とは異なる場所で行われることが想定される。この場合、工場内で発生する粉塵や工場内の照明、外光等の自然光、周囲のノイズ源等が外乱の要因となって、登録画像の撮影と識別画像の撮影との撮影環境が大きく変わる可能性がある。すると、抽出される特徴点や局所特徴量等が変わり、識別性能が低下するおそれがある。 When the individual identification system 1 having this configuration is used, for example, in a factory or the like, it is assumed that the acquisition of the registered image and the acquisition of the identification image are performed at different places. In this case, dust generated in the factory, lighting in the factory, natural light such as outside light, ambient noise sources, etc. become factors of disturbance, and the shooting environment between the shooting of the registered image and the shooting of the identification image changes significantly. there is a possibility. Then, the extracted feature points, local feature amounts, and the like may change, and the discrimination performance may deteriorate.

そこで、本構成の個体識別システム1は、画像取得処理部212と、特徴点抽出処理部221と、局所特徴量計算処理部222と、撮影対象条件調整処理部312と、撮影機器条件調整処理部311と、を備える。これによれば、ユーザは、撮影対象条件調整処理部312と撮影機器条件調整処理部311とを操作して、特徴点の抽出及び局所特徴量の計算に適した撮影対象条件及び撮影機器条件を調整することができる。そのため、環境の変化に応じて適切な条件を設定することにより、外乱の影響を低減させることができ、特徴としたい模様を適切に浮かび上がらせることができる。その結果、識別精度を向上させることができる。 Therefore, the individual identification system 1 having this configuration includes an image acquisition processing unit 212, a feature point extraction processing unit 221, a local feature amount calculation processing unit 222, a shooting target condition adjustment processing unit 312, and a shooting device condition adjustment processing unit. 311 and. According to this, the user operates the shooting target condition adjustment processing unit 312 and the shooting device condition adjustment processing unit 311 to determine the shooting target condition and the shooting device condition suitable for extracting the feature points and calculating the local feature amount. Can be adjusted. Therefore, by setting appropriate conditions according to changes in the environment, the influence of disturbance can be reduced, and the pattern to be characterized can be appropriately highlighted. As a result, the identification accuracy can be improved.

個体識別装置20は、総当たり条件生成処理部313を更に備える。総当たり条件生成処理部313は、予め設定された範囲内の撮影対象条件と予め設定された範囲内の撮影機器条件との組み合わせを総当たりで生成する総当たり条件生成処理を実行可能である。そして、画像取得処理は、総当たり条件生成処理で生成された全ての条件を撮影した画像を自動で取得する処理を含む。 The individual identification device 20 further includes a brute force condition generation processing unit 313. The brute force condition generation processing unit 313 can execute a brute force condition generation process that generates a combination of a shooting target condition within a preset range and a shooting device condition within a preset range by brute force. Then, the image acquisition process includes a process of automatically acquiring an image obtained by capturing all the conditions generated by the brute force condition generation process.

これによれば、撮影対象条件と撮影機器条件とのそれぞれを変えた多数の画像を自動で撮影し取得することができる。そのため、撮影対象条件と撮影機器条件とのそれぞれを変えて最適な条件の組み合わせを探す場合に、ユーザの手作業で条件の組み合わせを生成し、撮影する必要がなくなる。その結果、撮影対象条件及び撮影機器条件の条件を調整する手間を低減することができる。そして、性能の良い条件を簡単に設定することができるため、識別性能の向上も図ることができる。 According to this, it is possible to automatically shoot and acquire a large number of images in which the shooting target conditions and the shooting device conditions are changed. Therefore, when searching for the optimum combination of conditions by changing each of the shooting target condition and the shooting device condition, it is not necessary for the user to manually generate the combination of conditions and shoot. As a result, it is possible to reduce the time and effort required to adjust the shooting target conditions and the shooting device conditions. Further, since the conditions with good performance can be easily set, the identification performance can be improved.

個体識別装置20は、最適条件提示処理部314を更に備えている。最適条件提示処理部314は、総当たり条件生成処理で生成された全ての条件で撮影した登録画像及び識別画像のうち、同一の被写体を撮影した前記登録画像と前記識別画像との対応点数が多い撮影対象条件と撮影機器条件との組み合わせを最適条件として提示する最適条件提示処理を実行可能である。これによれば、ユーザは、特徴点の数が多い最適な条件を簡単に取得し設定することができるため、撮影対象条件及び撮影機器条件の条件を調整する手間を更に低減することができる。そして、撮影対象条件と撮影機器条件との最適な組み合わせを簡単に設定することができるため、識別性能の向上も図ることができる。 The individual identification device 20 further includes an optimum condition presentation processing unit 314. The optimal condition presentation processing unit 314 has a large number of corresponding points between the registered image obtained by capturing the same subject and the identification image among the registered images and identification images captured under all the conditions generated by the brute force condition generation process. It is possible to execute an optimum condition presentation process that presents a combination of a shooting target condition and a shooting device condition as an optimum condition. According to this, since the user can easily acquire and set the optimum conditions having a large number of feature points, it is possible to further reduce the time and effort for adjusting the conditions of the shooting target condition and the shooting device condition. Further, since the optimum combination of the shooting target condition and the shooting device condition can be easily set, the identification performance can be improved.

最適条件提示処理は、特徴点抽出処理に関する条件である特徴抽出条件を予め複数準備し、総当たり条件生成処理で生成された全ての条件で同一の被写体を撮影した登録画像及び識別画像について予め準備した複数の特徴抽出条件で特徴点抽出処理を実行して得られた特徴点を用いて照合した際の対応点数が最も多くなる条件の組み合わせ提示する処理を含む。これによれば、ユーザは、撮影対象条件及び撮影機器条件の条件に加え、特徴点抽出処理に関する特徴抽出条件との組み合わせのうち最適な条件を簡単に取得することができる。これにより、撮影対象条件と撮影機器条件と特徴抽出条件とを調整する手間を更に低減することができる。そして、撮影対象条件と撮影機器条件と特徴抽出条件との最適な組み合わせを簡単に設定することができるため、識別性能の更なる向上を図ることができる。 In the optimum condition presentation process, a plurality of feature extraction conditions, which are conditions related to the feature point extraction process, are prepared in advance, and a registered image and an identification image in which the same subject is photographed under all the conditions generated by the brute force condition generation process are prepared in advance. It includes a process of presenting a combination of conditions that maximizes the number of corresponding points when collating using the feature points obtained by executing the feature point extraction process under a plurality of feature extraction conditions. According to this, the user can easily acquire the optimum condition among the combination with the feature extraction condition related to the feature point extraction process in addition to the conditions of the shooting target condition and the shooting device condition. As a result, it is possible to further reduce the time and effort required to adjust the shooting target condition, the shooting device condition, and the feature extraction condition. Then, since the optimum combination of the shooting target condition, the shooting device condition, and the feature extraction condition can be easily set, the identification performance can be further improved.

例えば工業製品の部品においては、人の顔や指紋と異なり、照合識別しようとする対象の種類や材質、加工方法によってその表面に表れる模様の特徴も様々である。このため、識別しようとする対象の種類によって、照合識別に用いるアルゴリズムのパラメータを適切なものに調整する必要がある。しかし、パラメータの項目は多数あり、その全ての組み合わせの中からユーザが手動で最適な組み合わせを探すことは大変な手間と時間がかかる。 For example, in parts of industrial products, unlike human faces and fingerprints, the characteristics of patterns appearing on the surface of the parts vary depending on the type and material of the object to be collated and identified and the processing method. Therefore, it is necessary to adjust the parameters of the algorithm used for collation identification to appropriate ones depending on the type of the object to be identified. However, there are many parameter items, and it takes a lot of time and effort for the user to manually search for the optimum combination from all the combinations.

そこで、個体識別システム1は、特徴点抽出処理部221、及び局所特徴量計算処理部222を備える。また、個体識別システム1は、照合処理部262、パラメータセット生成処理部324、及びパラメータセット設定処理部325を更に備える。照合処理部262は、登録画像と識別画像とにおける局所特徴量を比較し特徴点の対応点数を取得して登録画像と識別画像とを照合する照合処理を実行可能である。パラメータセット生成処理部324は、照合処理の条件を設定するためのパラメータについて、各パラメータに定められた設定範囲内の設定値に設定された各パラメータを組み合わせて複数のパラメータセットを生成するパラメータセット生成処理を実行可能である。パラメータセット設定処理部325は、ユーザの操作に基づいてパラメータセットを設定するパラメータセット設定処理を実行可能である。 Therefore, the individual identification system 1 includes a feature point extraction processing unit 221 and a local feature amount calculation processing unit 222. Further, the individual identification system 1 further includes a collation processing unit 262, a parameter set generation processing unit 324, and a parameter set setting processing unit 325. The collation processing unit 262 can execute a collation process of comparing the local feature amounts of the registered image and the identification image, acquiring the corresponding points of the feature points, and collating the registered image with the identification image. The parameter set generation processing unit 324 generates a plurality of parameter sets by combining each parameter set in the set value within the setting range defined for each parameter with respect to the parameter for setting the condition of the collation process. The generation process can be executed. The parameter set setting processing unit 325 can execute the parameter set setting process for setting the parameter set based on the user's operation.

照合処理は、パラメータセット生成処理で生成された各パラメータセットを用いて照合処理を実行する処理を含む。そして、個体識別システム1は、照合結果表示処理部333を更に備える。照合結果表示処理部333は、各パラメータセットを用いて照合処理を実行した場合の照合結果をまとめて表示装置12に表示する照合結果表示処理を実行可能である。 The collation process includes a process of executing a collation process using each parameter set generated in the parameter set generation process. The individual identification system 1 further includes a collation result display processing unit 333. The collation result display processing unit 333 can execute the collation result display process of collectively displaying the collation results when the collation process is executed using each parameter set on the display device 12.

これによれば、パラメータの組み合わせであるパラメータセットが自動で生成され、その各パラメータセットを用いて照合処理が行われる。そのため、ユーザは、パラメータの組み合わせをいちいち手作業で作成し照合を行う必要がなくなる。そして、その照合結果は、表示装置12にまとめて表示される。そのため、ユーザは、表示装置12に表示される結果を見ることで、各パラメータセットの性能を確認することができる。そして、ユーザは、表示装置12に表示された結果を見て適切なパラメータセットを選択すれば良い。これにより、照合識別しようとする対象の種類にかかわらず、照合識別に用いるアルゴリズムのパラメータを簡単に手間なく精度良く調整することができる。 According to this, a parameter set which is a combination of parameters is automatically generated, and a collation process is performed using each parameter set. Therefore, the user does not have to manually create a combination of parameters and perform collation. Then, the collation results are collectively displayed on the display device 12. Therefore, the user can confirm the performance of each parameter set by looking at the result displayed on the display device 12. Then, the user may select an appropriate parameter set by looking at the result displayed on the display device 12. Thereby, regardless of the type of the target to be collated and identified, the parameters of the algorithm used for collation and identification can be easily and accurately adjusted without hassle.

照合結果表示処理は、図22に示すように、各パラメータセットを用いて照合処理を実行した照合結果をグラフ化して表示する処理を含む。複数のパラメータセットのうち性能が良いものを視覚的でかつ直感的に把握し易くなる。これにより、精度の良いパラメータの調整作業を簡単に行うことができる。 As shown in FIG. 22, the collation result display process includes a process of graphing and displaying the collation result obtained by executing the collation process using each parameter set. It is easy to visually and intuitively grasp the one with good performance among multiple parameter sets. As a result, it is possible to easily perform the parameter adjustment work with high accuracy.

個体識別システム1は、評価用画像登録処理部232を更に備える。評価用画像登録処理部232は、それぞれ異なる被写体を撮影した複数の登録画像を含む登録画像群と、登録画像群の中のうちの1つと同一の被写体でかつ異なる条件で撮影した識別画像と、を照合処理の評価用の画像として相互に紐付けした状態で評価用画像登録部242に登録する評価用画像登録処理を実行可能である。 The individual identification system 1 further includes an evaluation image registration processing unit 232. The evaluation image registration processing unit 232 includes a registered image group including a plurality of registered images in which different subjects are photographed, and an identification image captured in the same subject as one of the registered image groups under different conditions. It is possible to execute the evaluation image registration process of registering the images in the evaluation image registration unit 242 in a state of being linked to each other as the evaluation images of the collation process.

これによれば、ユーザは、パラメータセットの評価を行う際に、いちいち画像を撮影する必要がなくなる。その結果、パラメータセットの評価を簡単に行うことができるようになる。また、これによれば、同一の被写体を撮影した登録画像及び識別画像は相互に紐付けした状態で登録されている。このため、登録画像及び識別画像を用いて照合処理を実行する際には、登録画像と識別画像の対応関係つまり同一の被写体を撮影したものか異なる被写体を撮影したものかが事前に明らかとなっている。これにより、対応関係が明らかな画像を用いることで、その照合処理において得たい結果を明らかにすることができ、ユーザは、照合処理に用いたパラメータセットを評価し易くなる。 This eliminates the need for the user to take an image each time the parameter set is evaluated. As a result, the parameter set can be easily evaluated. Further, according to this, the registered image and the identification image obtained by photographing the same subject are registered in a state of being linked to each other. Therefore, when the collation process is executed using the registered image and the identification image, it becomes clear in advance whether the registered image and the identification image correspond to each other, that is, whether the same subject is photographed or a different subject is photographed. ing. As a result, by using an image having a clear correspondence, it is possible to clarify the result desired in the collation process, and the user can easily evaluate the parameter set used in the collation process.

つまり、同一の被写体が撮影された登録画像及び識別画像を用いて照合処理を実行した場合に対応点数が多く、かつ、異なる被写体が撮影された登録画像及び識別画像を用いて照合処理を実行した場合に対応点数が少なければ、ユーザは、その照合処理に用いたパラメータセットの性能が高いと評価することができる。逆に、同一の被写体が撮影された登録画像及び識別画像を用いて照合処理を実行した場合に対応点数が少なく、又は、異なる被写体が撮影された登録画像及び識別画像を用いて照合処理を実行した場合に対応点数が少なければ、ユーザは、その照合処理に用いたパラメータセットの性能が低いと評価することができる。 That is, when the collation process is executed using the registered image and the identification image in which the same subject is photographed, the collation process is executed using the registered image and the identification image in which the corresponding points are large and different subjects are photographed. In some cases, if the number of corresponding points is small, the user can evaluate that the performance of the parameter set used for the collation process is high. On the contrary, when the collation process is executed using the registered image and the identification image in which the same subject is photographed, the number of corresponding points is small, or the collation process is executed using the registered image and the identification image in which different subjects are photographed. If the number of corresponding points is small, the user can evaluate that the performance of the parameter set used for the collation process is low.

照合処理は、登録画像群に含まれる1つ以上の登録画像と識別画像とを照合する処理を含む。そして、照合結果表示処理は、図23に示すように、照合処理で計算した対応点数に基づく対応点数評価情報を表示装置12に表示する処理を含む。これによれば、ユーザは表示装置12に表示される対応点数評価情報を見ることで、そのパラメータセットの性能を簡単に評価でき、これにより照合識別しようとする対象の種類に応じて適切なパラメータセットを選択することができる。その結果、どのような種類の対象であっても高い照合識別性能を発揮することができる。 The collation process includes a process of collating one or more registered images included in the registered image group with the identification image. Then, as shown in FIG. 23, the collation result display process includes a process of displaying the corresponding score evaluation information based on the corresponding score calculated in the collation process on the display device 12. According to this, the user can easily evaluate the performance of the parameter set by looking at the corresponding score evaluation information displayed on the display device 12, and thereby the appropriate parameters according to the type of the target to be collated and identified. You can select a set. As a result, high collation and identification performance can be exhibited regardless of the type of object.

個体識別装置20は、特徴抽出条件調整処理部321を更に備える。特徴抽出条件調整処理部321は、特徴抽出条件調整処理を実行可能である。特徴抽出条件調整処理は、登録画像群のうち識別画像の被写体と同一の被写体を撮影した登録画像と識別画像との対応点数である正対応点数と、登録画像群のうち識別画像の被写体と異なる被写体を撮影した登録画像と識別画像との対応点数である負対応点数と、を計算する処理を含む。そして、特徴抽出条件調整処理は、局所特徴量計算処理による特徴抽出条件について正対応点数と負対応点数との比が最も大きくなるように調整する処理を含む。 The individual identification device 20 further includes a feature extraction condition adjustment processing unit 321. The feature extraction condition adjustment processing unit 321 can execute the feature extraction condition adjustment processing. The feature extraction condition adjustment process is different from the positive correspondence score, which is the corresponding score between the registered image and the identification image obtained by shooting the same subject as the subject of the identification image in the registered image group, and the subject of the identification image in the registered image group. It includes a process of calculating a negative correspondence score, which is a correspondence score between a registered image in which a subject is photographed and an identification image. Then, the feature extraction condition adjustment process includes a process of adjusting the feature extraction condition by the local feature amount calculation process so that the ratio of the positive correspondence score and the negative correspondence score becomes the largest.

この場合、特徴抽出条件調整処理部321は、正対応点数と負対応点数との比が最も大きくなるように、正対応点数が多くかつ負対応点数が少ない特徴抽出条件を探す。正対応点数が多いということは、同一の被写体を撮影した画像間の対応点数が多いことを意味する。これは、同一の被写体を写した画像間の照合処理において、画像に含まれる被写体が同一のものである可能性が高いと識別していること、すなわち、同一の被写体を写した画像間における識別性能が高いことを意味する。また、負対応点数が少ないということは、異なる被写体を撮影した画像間の対応点数が少ないことを意味する。これは、異なる被写体を写した画像間の照合処理において、画像に含まれる被写体が異なるものである可能性高いと識別していること、すなわち、異なる被写体を写した画像間における識別性能が高いことを意味する。 In this case, the feature extraction condition adjustment processing unit 321 searches for a feature extraction condition having a large number of positive correspondence points and a small number of negative correspondence points so that the ratio of the positive correspondence points to the negative correspondence points is the largest. A large number of positive correspondence points means a large number of correspondence points between images of the same subject. This means that in the collation process between images of the same subject, it is determined that the subjects included in the images are likely to be the same, that is, identification between images of the same subject. It means that the performance is high. Further, the fact that the number of negative correspondence points is small means that the number of correspondence points between images of different subjects is small. This means that in the collation process between images of different subjects, it is highly likely that the subjects included in the images are different, that is, the discrimination performance between the images of different subjects is high. Means.

このように、特徴抽出条件調整処理部321は、同一の被写体を写した画像間及び異なる被写体を写した画像間の照合識別性能が高くなるように特徴抽出条件を自動で調整し、これにより、高い照合識別性能を得つつ調整にかかるユーザの手間を省くことができる。 In this way, the feature extraction condition adjustment processing unit 321 automatically adjusts the feature extraction conditions so that the collation and identification performance between the images of the same subject and the images of different subjects is improved. It is possible to save the user's trouble of adjustment while obtaining high collation identification performance.

個体識別システム1は、局所特徴量群分類処理部223と、大域特徴量計算処理部224と、を備える。そして、個体識別システム1は、大域特徴量相関係数計算処理部323を更に備える。大域特徴量相関係数計算処理部323は、各登録画像の大域特徴量と識別画像の大域特徴量とを比較しその相関関係を示す大域特徴量相関係数を計算する大域特徴量相関係数計算処理を実行可能である。そして、照合結果表示処理は、大域特徴量相関係数に基づく情報を表示装置12に表示する処理を含む。 The individual identification system 1 includes a local feature amount group classification processing unit 223 and a global feature amount calculation processing unit 224. The individual identification system 1 further includes a global feature amount correlation coefficient calculation processing unit 323. The global feature amount correlation coefficient calculation processing unit 323 compares the global feature amount of each registered image with the global feature amount of the identification image, and calculates the global feature amount correlation coefficient showing the correlation. Calculation processing can be executed. Then, the collation result display process includes a process of displaying information based on the global feature amount correlation coefficient on the display device 12.

大域特徴量相関係数は、登録画像と識別画像とにおける大域特徴量の一致度つまり性能を示す1つの指標となる。表示装置12に大域特徴量相関係数に基づく情報を表示することで、ユーザは、大域特徴量の性能を容易に把握することができる。そのため、ユーザは、表示装置12に大域特徴量相関係数に基づく情報を1つの目安として各種条件やパラメータの調整作業を行うことができるため、より作業がし易くなる。 The global feature amount correlation coefficient is one index showing the degree of matching of the global feature amount between the registered image and the identification image, that is, the performance. By displaying the information based on the global feature amount correlation coefficient on the display device 12, the user can easily grasp the performance of the global feature amount. Therefore, the user can perform the adjustment work of various conditions and parameters on the display device 12 using the information based on the global feature amount correlation coefficient as one guideline, which makes the work easier.

個体識別システム1は、大域特徴量辞書登録部245と、大域特徴量辞書設定処理部322と、を更に備えている。大域特徴量辞書設定処理部322は、大域特徴量辞書設定処理を実行可能である。大域特徴量辞書設定処理は、大域特徴量辞書登録部245に登録されている複数の大域特徴量辞書のうち、大域特徴量相関係数に基づき同一の被写体を撮影した登録画像と識別画像とを同一と判断し、異なる被写体を撮影した登録画像と識別画像とを同一でないと判断できる大域特徴量辞書を選択して、局所特徴量群分類処理に用いる大域特徴量辞書に設定する処理を含む。 The individual identification system 1 further includes a global feature dictionary registration unit 245 and a global feature dictionary setting processing unit 322. The global feature dictionary setting processing unit 322 can execute the global feature dictionary setting process. The global feature dictionary setting process selects a registered image and an identification image of the same subject based on the global feature correlation coefficient among a plurality of global feature dictionaries registered in the global feature dictionary registration unit 245. This includes a process of selecting a global feature amount dictionary that can be judged to be the same and that can determine that the registered image and the identification image obtained by capturing different subjects are not the same, and setting the global feature amount dictionary to be used for the local feature amount group classification process.

大域特徴量相関係数は、上述したように、登録画像と識別画像とにおける大域特徴量の相関の一致度を示す1つの指標となる。2つの画像間における大域特徴量の相関が大きいほど、両者の画像に同一の被写体が含まれている可能性が高いことを意味する。そのため、同一の被写体を撮影した画像間における大域特徴量の相関が大きいということは、その同一の被写体を撮影した2つの画像について計算された大域特徴量の一致度が高いことを意味する。すなわちこれは、同一の被写体を撮影した画像間においてその大域特徴量辞書の性能が高いことを意味する。 As described above, the global feature amount correlation coefficient is one index showing the degree of coincidence of the correlation of the global feature amount between the registered image and the identification image. The greater the correlation between the global features between the two images, the higher the possibility that the same subject is included in both images. Therefore, the fact that the correlation of the global features between the images of the same subject is large means that the degree of coincidence of the global features calculated for the two images of the same subject is high. That is, this means that the performance of the global feature dictionary is high between images of the same subject.

一方、2つの画像間における大域特徴量の相関が小さいほど、両者の画像に含まれる被写体が異なる可能性が高いことを意味する。そのため、異なる被写体を撮影した画像間における大域特徴量の相関が小さいということは、その異なる被写体を撮影した画像についてその大域特徴量辞書を使って計算した大域特徴量の一致度が低いことを意味する。すなわちこれは、異なる被写体を撮影した画像間においてその大域特徴量辞書の性能が高いことを意味する。 On the other hand, the smaller the correlation between the global features between the two images, the higher the possibility that the subjects included in the two images will be different. Therefore, the fact that the correlation of the global features between the images of different subjects is small means that the degree of coincidence of the global features calculated using the global feature dictionary for the images of the different subjects is low. do. That is, this means that the performance of the global feature dictionary is high between images of different subjects.

本構成によれば、大域特徴量辞書設定処理によって、同一の被写体を写した画像間での性能が高く、かつ異なる被写体を写した画像間での性能も高い大域特徴量辞書を自動で設定することができる。したがって、ユーザの調整の手間が省かれるとともに、高い照合識別性能を得ることができる。 According to this configuration, the global feature dictionary setting process automatically sets a global feature dictionary with high performance between images of the same subject and high performance between images of different subjects. be able to. Therefore, the time and effort of the user's adjustment can be saved, and high collation identification performance can be obtained.

大域特徴量辞書設定処理は、2つの大域特徴量がベクトルであるとき、それぞれ絶対値を1に正規化し内積をとった値であって当該内積の値が1に近いものについて同一性が高いと判断し、当該内積の値が−1に近いものについて同一性が低いと判断する処理を含んでいても良い。また、大域特徴量相関係数は、2つの大域特徴量のベクトル間の距離の値とすることができる。この場合、大域特徴量辞書設定処理は、2つの大域特徴量のベクトル間の距離の値が0に近ければ同一性が高いと判断し、大きい場合は同一性が低いと判断する処理を含む。これらの構成によれば、大域特徴量辞書の性能を定量的に評価することができる。 In the global feature dictionary setting process, when two global features are vectors, the absolute value is normalized to 1 and the inner product is taken, and the value of the inner product is close to 1 and the identity is high. It may include a process of determining that the value of the inner product is close to -1 and that the identity is low. Further, the global feature correlation coefficient can be a value of the distance between the vectors of the two global features. In this case, the global feature dictionary setting process includes a process of determining that the identity is high when the value of the distance between the vectors of the two global features is close to 0, and determining that the identity is low when the value is large. According to these configurations, the performance of the global feature dictionary can be quantitatively evaluated.

個体識別システム1は、画像取得処理部212と特徴点抽出処理部221と特定処理部2612とを有する個体識別装置20を備える。そして、個体識別システム1は、個体識別装置20の他に、可視化装置33、撮影条件調整装置31、及び照合識別条件調整装置32、のうち少なくとも2つの装置を備える。 The individual identification system 1 includes an individual identification device 20 having an image acquisition processing unit 212, a feature point extraction processing unit 221 and a specific processing unit 2612. In addition to the individual identification device 20, the individual identification system 1 includes at least two of the visualization device 33, the photographing condition adjusting device 31, and the collation identification condition adjusting device 32.

可視化装置33は、特徴点表示処理部331を有する。特徴点表示処理部331は、特徴点抽出処理により抽出した特徴点を前記画像に重ねて表示装置12に表示する特徴点表示処理を実行可能である。 The visualization device 33 has a feature point display processing unit 331. The feature point display processing unit 331 can execute the feature point display process of superimposing the feature points extracted by the feature point extraction process on the image and displaying them on the display device 12.

撮影条件調整装置31は、予め登録された複数の登録画像のうち同一の被写体を撮影した登録画像と識別画像とにおける局所特徴量を比較し特徴点の対応点数を取得して登録画像と識別画像とを照合する照合処理を個体識別装置20に実行させるとともに、撮影対象条件調整処理部312と撮影条件調整装置31とを有する。撮影対象条件調整処理部312は、撮影対象に関する条件である撮影対象条件を調整する撮影対象条件調整処理を実行可能である。撮影機器条件調整処理部311は、撮影機器10に関する条件である撮影機器条件を調整する撮影機器条件調整処理を実行可能である。 The shooting condition adjusting device 31 compares the local feature amounts in the registered image and the identification image obtained by shooting the same subject among the plurality of registered images registered in advance, acquires the corresponding points of the feature points, and acquires the corresponding points of the feature points, and the registered image and the identification image. The individual identification device 20 is made to execute the collation process for collating with the image, and the image capture target condition adjustment processing unit 312 and the image capture condition adjustment device 31 are provided. The shooting target condition adjustment processing unit 312 can execute the shooting target condition adjustment process for adjusting the shooting target condition, which is a condition related to the shooting target. The shooting device condition adjustment processing unit 311 can execute the shooting device condition adjustment process for adjusting the shooting device condition, which is a condition related to the shooting device 10.

照合識別条件調整装置32は、パラメータセット生成処理部324と、パラメータセット設定処理部325と、を有する。パラメータセット生成処理部324は、照合処理の条件を設定するためのパラメータについて、各パラメータに定められた範囲内の設定値に設定された各パラメータを組み合わせて複数のパラメータセットを生成するパラメータセット生成処理を実行可能である。パラメータセット設定処理部325は、ユーザの操作に基づいてパラメータセットを設定するパラメータセット設定処理を実行可能である。そして、照合識別条件調整装置32は、照合処理部262に、パラメータセット生成処理で生成された各パラメータセットを用いて照合処理を実行する処理を実行させる。そして、照合識別条件調整装置32は、パラメータセットを用いて照合処理の照合結果をまとめて表示装置12に表示する照合結果表示処理を実行可能な照合結果表示処理部333を更に有している。 The collation identification condition adjusting device 32 includes a parameter set generation processing unit 324 and a parameter set setting processing unit 325. The parameter set generation processing unit 324 generates a parameter set for generating a plurality of parameter sets by combining the parameters set in the set values within the range defined for each parameter with respect to the parameters for setting the conditions of the collation processing. Processing can be executed. The parameter set setting processing unit 325 can execute the parameter set setting process for setting the parameter set based on the user's operation. Then, the collation identification condition adjusting device 32 causes the collation processing unit 262 to execute a process of executing the collation process using each parameter set generated in the parameter set generation process. Then, the collation identification condition adjusting device 32 further has a collation result display processing unit 333 capable of executing the collation result display process of collectively displaying the collation results of the collation process on the display device 12 using the parameter set.

個体識別システム1が可視化装置33を備えることで、特徴点抽出処理で抽出した特徴点が画像に重ねられて表示装置12に表示されるため、ユーザは、画像の中のどの箇所が特徴点として抽出されているか見て確認することができる。そして、ユーザは、製造工程でも表面模様が変化難くい箇所について重点的に特徴点を抽出できるように、抽出される特徴点の位置を確認しながら各種条件やパラメータを設定するつまりチューニングを行うことができる。その結果、製造工程途中で表面模様が変化する加工が施されるようなもの、つまり画像の登録時と識別時とで表面模様が変化する場合であっても、精度良く識別することができるといった優れた効果が得られる。 Since the individual identification system 1 includes the visualization device 33, the feature points extracted by the feature point extraction process are superimposed on the image and displayed on the display device 12, so that the user can use which part of the image as the feature point. You can check if it is extracted. Then, the user sets various conditions and parameters while checking the positions of the extracted feature points so that the feature points can be extracted mainly in the places where the surface pattern is hard to change even in the manufacturing process, that is, tuning is performed. Can be done. As a result, even if the surface pattern is changed in the middle of the manufacturing process, that is, even if the surface pattern changes between the time of registering the image and the time of identification, it is possible to accurately identify the image. Excellent effect can be obtained.

個体識別システム1が撮影条件調整装置31を備えることで、ユーザは、撮影対象条件調整処理部312と撮影機器条件調整処理部311とを操作して、特徴点の抽出及び局所特徴量の計算に適した撮影対象条件及び撮影機器条件を調整することができる。そのため、環境の変化に応じた適切な条件を設定することにより、外乱の影響を低減させることができ、特徴とした模様を適切に浮かび上がらせることができる。その結果、識別精度を向上させることができるといった優れた効果が得られる。 When the individual identification system 1 includes the shooting condition adjusting device 31, the user operates the shooting target condition adjusting processing unit 312 and the shooting device condition adjusting processing unit 311 to extract feature points and calculate local feature quantities. Suitable shooting target conditions and shooting device conditions can be adjusted. Therefore, by setting appropriate conditions according to changes in the environment, the influence of disturbance can be reduced, and the characteristic pattern can be appropriately highlighted. As a result, an excellent effect such as being able to improve the identification accuracy can be obtained.

個体識別システム1が照合識別条件調整装置32を備えることで、ユーザは、パラメータの組み合わせをいちいち手作業で作成し照合を行う必要がなくなる。そして、その照合結果は、表示装置12にまとめて表示される。そのため、ユーザは、表示装置12に表示される結果を見ることで、各パラメータセットの性能を確認することができる。そして、ユーザは、表示装置12に表示された結果を見て適切なパラメータセットを選択すれば良い。これにより、照合識別しようとする対象の種類にかかわらず、照合識別に用いるアルゴリズムのパラメータを簡単に手間なく精度良く調整することができるといった優れた効果が得られる。 By providing the collation identification condition adjusting device 32 in the individual identification system 1, the user does not have to manually create a combination of parameters and perform collation. Then, the collation results are collectively displayed on the display device 12. Therefore, the user can confirm the performance of each parameter set by looking at the result displayed on the display device 12. Then, the user may select an appropriate parameter set by looking at the result displayed on the display device 12. As a result, regardless of the type of the target to be collated and identified, it is possible to obtain an excellent effect that the parameters of the algorithm used for collation and identification can be easily and effortlessly adjusted with high accuracy.

そして、個体識別システム1は、可視化装置33と撮影条件調整装置31と照合識別条件調整装置32とのうち少なくとも2つの装置を同時に備えることにより、上述した各装置の優れた効果を同時に2つ以上得ることができる。これにより、識別対象の表面模様の変化に対応できたり、外乱の影響を受け難くできたり、条件やパラメータの調整にかかるユーザ手間を低減して精度の条件やパラメータの精度を高めることができ、その結果、照合識別の性能を高めることができる。 Then, the individual identification system 1 is provided with at least two of the visualization device 33, the photographing condition adjusting device 31, and the collation identification condition adjusting device 32 at the same time, so that two or more of the above-mentioned excellent effects of each device can be simultaneously obtained. Obtainable. As a result, it is possible to respond to changes in the surface pattern of the identification target, make it less susceptible to disturbances, reduce the user's time and effort required to adjust the conditions and parameters, and improve the accuracy of the conditions and parameters. As a result, the performance of collation identification can be improved.

個体識別システム1は、可視化装置33と撮影条件調整装置31と照合識別条件調整装置32とを備えている。これによれば、可視化装置33と撮影条件調整装置31と照合識別条件調整装置32とを全て同時に備えることにより、上述した各装置の優れた効果を全て同時に得ることができる。すなわち、この個体識別システム1によれば、識別対象の表面形状の変化に対応でき、外乱の影響を受けにくい調整を行うことができ、更には条件やパラメータの調整にかかるユーザ手間を低減することができる。 The individual identification system 1 includes a visualization device 33, a photographing condition adjusting device 31, and a collation identification condition adjusting device 32. According to this, by simultaneously providing the visualization device 33, the photographing condition adjusting device 31, and the collation identification condition adjusting device 32, all the excellent effects of the above-mentioned devices can be obtained at the same time. That is, according to this individual identification system 1, it is possible to respond to changes in the surface shape of the identification target, make adjustments that are not easily affected by disturbances, and further reduce the user's labor required for adjusting conditions and parameters. Can be done.

検索処理部261は、絞り込み処理を実行可能な絞り込み処理部2611を更に有している。絞り込み処理は、検索対象画像登録部241に登録されている複数の登録画像の中から識別画像が有する大域特徴量との相関が高い大域特徴量を有する所定数の登録画像を特定処理における候補として絞り込む処理を含む。 The search processing unit 261 further has a narrowing down processing unit 2611 capable of executing the narrowing down processing. In the narrowing down process, a predetermined number of registered images having a global feature amount having a high correlation with the global feature amount of the identification image are selected as candidates in the specific process from among a plurality of registered images registered in the search target image registration unit 241. Includes narrowing down processing.

これによれば、検索処理は、大域特徴量で絞り込む絞り込み処理と、局所特徴量で特定する特定処理と、の2段階の処理を実行することにより、高速での検索を実現することができる。その結果、本構成の個体識別システム1によれば、その結果、照合識別性能が高くかつ高速での検索を実現することができる。 According to this, the search process can realize a high-speed search by executing a two-step process of narrowing down by the global feature amount and the specific process of specifying by the local feature amount. As a result, according to the individual identification system 1 of the present configuration, as a result, it is possible to realize a search with high collation identification performance and high speed.

本開示は、実施例に準拠して記述されたが、本開示は当該実施例や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらに一要素のみ、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範疇や思想範囲に入るものである。 Although the present disclosure has been described in accordance with the examples, it is understood that the present disclosure is not limited to the examples and structures. The present disclosure also includes various modifications and modifications within a uniform range. In addition, various combinations and forms, as well as other combinations and forms that include only one element, more, or less, are also within the scope of the present disclosure.

本開示に記載の制御部及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリーを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の制御部及びその手法は、一つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の制御部及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリーと一つ以上のハードウェア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。 The controls and methods thereof described in the present disclosure are realized by a dedicated computer provided by configuring a processor and memory programmed to perform one or more functions embodied by a computer program. May be done. Alternatively, the controls and methods thereof described in the present disclosure may be implemented by a dedicated computer provided by configuring the processor with one or more dedicated hardware logic circuits. Alternatively, the control unit and method thereof described in the present disclosure may be a combination of a processor and memory programmed to perform one or more functions and a processor composed of one or more hardware logic circuits. It may be realized by one or more dedicated computers configured. Further, the computer program may be stored in a computer-readable non-transitional tangible recording medium as an instruction executed by the computer.

1…個体識別システム、10、10a、10b…撮影機器、12…表示装置、20…個体識別装置、30…調整装置、31…撮影条件調整装置、32…照合識別条件調整装置、33…可視化装置、212…画像取得処理部、221…特徴点抽出処理部、222…局所特徴量計算処理部、241…検索対象画像登録部、261…検索処理部、262…照合処理部、311…撮影機器条件調整処理部、312…撮影対象条件調整処理部、324…パラメータセット生成処理部、325…パラメータセット設定処理部、331…特徴点表示処理部、333…照合結果表示処理部、2611…絞り込み処理部、2612…特定処理部
1 ... Individual identification system, 10, 10a, 10b ... Imaging device, 12 ... Display device, 20 ... Individual identification device, 30 ... Adjustment device, 31 ... Imaging condition adjustment device, 32 ... Verification identification condition adjustment device, 33 ... Visualization device , 212 ... Image acquisition processing unit, 221 ... Feature point extraction processing unit, 222 ... Local feature amount calculation processing unit, 241 ... Search target image registration unit, 261 ... Search processing unit, 262 ... Collation processing unit, 311 ... Imaging device conditions Adjustment processing unit, 312 ... Shooting target condition adjustment processing unit, 324 ... Parameter set generation processing unit, 325 ... Parameter set setting processing unit, 331 ... Feature point display processing unit, 333 ... Collation result display processing unit, 2611 ... Narrowing down processing unit , 2612 ... Specific processing unit

Claims (3)

撮影機器によって撮影した被写体の画像を識別画像として取得する画像取得処理を実行可能な画像取得処理部(212)と、
前記画像取得処理で取得した前記識別画像に含まれる特徴点を抽出する特徴点抽出処理を実行可能な特徴点抽出処理部(221)と、
前記特徴点抽出処理で抽出された前記特徴点の局所特徴量を計算する局所特徴量計算処を実行可能な局所特徴量計算処理部(222)と、
予め登録された複数の登録画像に係る前記局所特徴量と前記識別画像の前記局所特徴量とを比較し、複数の前記登録画像の中から前記識別画像の前記局所特徴量に最も相関が高い前記局所特徴量を有している登録画像を特定する特定処理を実行可能な特定処理部(2612)と、を有する個体識別装置を備える個体識別システム(1)であって、
前記個体識別装置の他に、
前記特徴点抽出処理により抽出した前記特徴点を前記画像に重ねて表示装置に表示する特徴点表示処理を実行可能な特徴点表示処理部(331)を有する、
可視化装置(33)、
又は、
予め登録された複数の登録画像のうち同一の被写体を撮影した前記登録画像と前記識別画像とにおける前記局所特徴量を比較し前記特徴点の対応点数を取得して前記登録画像と前記識別画像とを照合する照合処理を前記個体識別装置に実行させるとともに、
撮影対象に関する条件である撮影対象条件を調整する撮影対象条件調整処理を実行可能な撮影対象条件調整処理部(312)と、
前記撮影機器に関する条件である撮影機器条件を調整する撮影機器条件調整処理を実行可能な撮影機器条件調整処理部(311)と、
を有する撮影条件調整装置(31)、
又は
前記照合処理の条件を設定するためのパラメータについて、各前記パラメータに定められた設定範囲内の設定値に設定された各前記パラメータを組み合わせて複数のパラメータセットを生成するパラメータセット生成処理を実行可能なパラメータセット生成処理部(324)と、
ユーザの操作に基づいて前記パラメータセットを設定するパラメータセット設定処理を実行可能なパラメータセット設定処理部(325)と、を有し、
前記照合処理部に、前記パラメータセット生成処理で生成された各前記パラメータセットを用いて前記照合処理を実行する処理を実行させるとともに、
各前記パラメータセットを用いて前記照合処理の照合結果をまとめて表示装置(12)に表示する照合結果表示処理を実行可能な照合結果表示処理部(333)を更に有している、
照合識別条件調整装置(32)、
のうち少なくとも2つの装置を備えている、
個体識別システム(1)。
An image acquisition processing unit (212) capable of executing an image acquisition process for acquiring an image of a subject captured by a photographing device as an identification image, and an image acquisition processing unit (212).
A feature point extraction processing unit (221) capable of executing a feature point extraction process for extracting feature points included in the identification image acquired in the image acquisition process, and a feature point extraction processing unit (221).
A local feature amount calculation processing unit (222) capable of executing a local feature amount calculation process for calculating the local feature amount of the feature point extracted by the feature point extraction process, and a local feature amount calculation processing unit (222).
The local feature amount of the plurality of registered images registered in advance is compared with the local feature amount of the identification image, and the local feature amount of the identification image has the highest correlation among the plurality of registered images. An individual identification system (1) including an individual identification device having a specific processing unit (2612) capable of executing a specific process for specifying a registered image having a local feature amount.
In addition to the individual identification device,
It has a feature point display processing unit (331) capable of executing a feature point display process of superimposing the feature points extracted by the feature point extraction process on the image and displaying them on a display device.
Visualization device (33),
Or
Among the plurality of registered images registered in advance, the registered image obtained by photographing the same subject and the identification image are compared with each other, and the corresponding points of the feature points are obtained to obtain the registered image and the identification image. In addition to causing the individual identification device to execute a collation process for collating
A shooting target condition adjustment processing unit (312) capable of executing a shooting target condition adjustment process for adjusting a shooting target condition, which is a condition related to a shooting target, and a shooting target condition adjustment processing unit (312).
A shooting device condition adjustment processing unit (311) capable of executing a shooting device condition adjustment process for adjusting the shooting device conditions, which is a condition related to the shooting device, and a shooting device condition adjustment processing unit (311).
Shooting condition adjusting device (31),
Alternatively, for the parameters for setting the conditions of the collation process, a parameter set generation process for generating a plurality of parameter sets by combining the parameters set in the set values within the setting range defined for each parameter is executed. Possible parameter set generation processing unit (324) and
It has a parameter set setting processing unit (325) capable of executing a parameter set setting process for setting the parameter set based on a user operation.
In addition to having the collation processing unit execute a process of executing the collation process using each of the parameter sets generated in the parameter set generation process,
Further, it has a collation result display processing unit (333) capable of executing a collation result display process of collectively displaying the collation results of the collation process on the display device (12) using each of the parameter sets.
Collation identification condition adjustment device (32),
Equipped with at least two of the devices,
Individual identification system (1).
前記可視化装置と前記撮影条件調整装置と前記照合識別条件調整装置とを備えている、
請求項1に記載の個体識別システム。
The visualization device, the photographing condition adjusting device, and the collation identification condition adjusting device are provided.
The individual identification system according to claim 1.
前記検索処理部は、
前記検索対象画像登録部に登録されている複数の前記登録画像の中から前記識別画像が有する前記大域特徴量との相関が高い大域特徴量を有する所定数の前記登録画像を前記特定処理における候補として絞り込む絞り込み処理を実行可能な絞り込み処理部(2611)を更に有している、
請求項1又は2に記載の個体識別システム。
The search processing unit
Among the plurality of registered images registered in the search target image registration unit, a predetermined number of registered images having a global feature amount having a high correlation with the global feature amount of the identification image are candidates in the specific process. Further has a narrowing down processing unit (2611) capable of executing the narrowing down processing.
The individual identification system according to claim 1 or 2.
JP2020080323A 2020-04-30 2020-04-30 Individual identification system Active JP7377163B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020080323A JP7377163B2 (en) 2020-04-30 2020-04-30 Individual identification system
PCT/JP2021/015595 WO2021220828A1 (en) 2020-04-30 2021-04-15 Individual object identification system
TW110115492A TW202211158A (en) 2020-04-30 2021-04-29 Individual object identification system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020080323A JP7377163B2 (en) 2020-04-30 2020-04-30 Individual identification system

Publications (2)

Publication Number Publication Date
JP2021174442A true JP2021174442A (en) 2021-11-01
JP7377163B2 JP7377163B2 (en) 2023-11-09

Family

ID=78279741

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020080323A Active JP7377163B2 (en) 2020-04-30 2020-04-30 Individual identification system

Country Status (3)

Country Link
JP (1) JP7377163B2 (en)
TW (1) TW202211158A (en)
WO (1) WO2021220828A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004341992A (en) * 2003-05-19 2004-12-02 Matsushita Electric Ind Co Ltd Image photographing device and image collation device
WO2018179092A1 (en) * 2017-03-28 2018-10-04 日本電気株式会社 Individual object identification device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004341992A (en) * 2003-05-19 2004-12-02 Matsushita Electric Ind Co Ltd Image photographing device and image collation device
WO2018179092A1 (en) * 2017-03-28 2018-10-04 日本電気株式会社 Individual object identification device

Also Published As

Publication number Publication date
JP7377163B2 (en) 2023-11-09
TW202211158A (en) 2022-03-16
WO2021220828A1 (en) 2021-11-04

Similar Documents

Publication Publication Date Title
Patruno et al. People re-identification using skeleton standard posture and color descriptors from RGB-D data
US20130322742A1 (en) Tactical Object Finder
US20110158535A1 (en) Image processing apparatus and image processing method
Berretti et al. Selecting stable keypoints and local descriptors for person identification using 3D face scans
US20230049798A1 (en) Individual object identification system, individual object identification program, and recording medium
US9633284B2 (en) Image processing apparatus and image processing method of identifying object in image
JP2015187759A (en) Image searching device and image searching method
US11501517B2 (en) Individual identifying device
JP2015143951A (en) Object discrimination device, image sensor and object discrimination method
US20190379795A1 (en) Image processing device, image processing method, image processing program, and recording medium storing program
Raghavendra et al. Automatic face quality assessment from video using gray level co-occurrence matrix: An empirical study on automatic border control system
Raghukumar et al. Comparison of machine learning algorithms for detection of medicinal plants
KR20210020065A (en) Systems and methods for finding and classifying patterns in images with vision systems
Ma et al. Discriminative image descriptors for person re-identification
JP6547626B2 (en) PROCESSING SYSTEM, PROCESSING METHOD AND PROGRAM FOR IMAGE FEATURE
WO2021220826A1 (en) Individual object identification system
WO2021220827A1 (en) Individual object identification system
WO2021220825A1 (en) Item identification system
WO2021220828A1 (en) Individual object identification system
WO2015136716A1 (en) Image processing device, image sensor, and image processing method
JP2019021100A (en) Image search device, merchandise recognition device, and image search program
Sehgal Palm recognition using LBP and SVM
Lakshmi et al. Sketch-Based Face Recognition Using Deep Neural Network for Criminal Investigation
CN116310952A (en) Sample data set generation method, device, equipment and storage medium
CN118037091A (en) Intelligent report working quality detection method and system based on computer vision technology

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220304

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230523

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231027

R150 Certificate of patent or registration of utility model

Ref document number: 7377163

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150