JP7377161B2 - Individual identification system - Google Patents

Individual identification system Download PDF

Info

Publication number
JP7377161B2
JP7377161B2 JP2020080321A JP2020080321A JP7377161B2 JP 7377161 B2 JP7377161 B2 JP 7377161B2 JP 2020080321 A JP2020080321 A JP 2020080321A JP 2020080321 A JP2020080321 A JP 2020080321A JP 7377161 B2 JP7377161 B2 JP 7377161B2
Authority
JP
Japan
Prior art keywords
image
feature
conditions
identification
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020080321A
Other languages
Japanese (ja)
Other versions
JP2021174440A (en
Inventor
達也 水井
太 須納瀬
文人 寺井
悠一 吉田
満 安倍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Denso IT Laboratory Inc
Original Assignee
Denso Corp
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Denso IT Laboratory Inc filed Critical Denso Corp
Priority to JP2020080321A priority Critical patent/JP7377161B2/en
Priority to PCT/JP2021/015593 priority patent/WO2021220826A1/en
Priority to TW110115473A priority patent/TW202205146A/en
Publication of JP2021174440A publication Critical patent/JP2021174440A/en
Application granted granted Critical
Publication of JP7377161B2 publication Critical patent/JP7377161B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Description

本発明の実施形態は、個体表面に表れる個体固有の模様いわゆる個体指紋に基づいて個体を識別することができる個体識別システムに関する。 Embodiments of the present invention relate to an individual identification system that can identify an individual based on an individual's unique pattern, so-called individual fingerprint, appearing on the surface of the individual.

近年、例えば工業製品等は生産後の流通過程だけでなく生産過程においても高いトレーサビリティが要求されるようになっている。例えば同一工程でかつ同一ロットで生産された同一種類の部品であっても、その性能に通常の使用には何ら問題ない程度の僅かな違いを有していることがある。製品の生産過程において、このような部品1個1個の僅かな特性の違いも考慮に入れて最適な組み合わせで製品を製造することができれば、その製品の性能を向上させることができるからである。 In recent years, for example, industrial products are required to have high traceability not only in the distribution process after production but also in the production process. For example, even parts of the same type produced in the same process and in the same lot may have slight differences in performance that pose no problem in normal use. This is because in the production process of a product, if we can take into account these slight differences in the characteristics of individual parts and manufacture the product with the optimal combination, we can improve the performance of that product. .

また、従来の生産工程では、部品の加工条件等と検査結果とが紐付けされていないため、検査結果を加工条件等に反映させることが難しかった。これに対し、生産過程において部品1個単位で追跡することができれば、検査結果を加工条件等に適切に反映させることができ、その結果、不良の低減や品質・性能を更に向上させることができる。 Furthermore, in conventional production processes, processing conditions for parts, etc. and inspection results are not linked, making it difficult to reflect inspection results in processing conditions, etc. On the other hand, if it is possible to track each part during the production process, inspection results can be appropriately reflected in processing conditions, etc., and as a result, defects can be reduced and quality and performance can be further improved. .

従来、製品等の追跡管理する手法としては、例えば二次元コードやRFIDを用いるものがある。しかしながら、二次元コードやRFIDは、印字や貼り付けのコストが高い。そのため、製品を構成する多数の部品1個1個に対して、二次元コードやRFIDを付与することは経済的に考えても実現困難である。 2. Description of the Related Art Conventionally, methods for tracking and managing products and the like include methods that use, for example, two-dimensional codes and RFID. However, two-dimensional codes and RFIDs are expensive to print and paste. Therefore, it is economically difficult to attach a two-dimensional code or RFID to each of the many parts that make up a product.

そこで、個々の個体が固有に有する表面形状を用いて個体を識別する技術が注目されている。このような物体の表面形状や模様であれば、二次元コードやRFID等を付与する必要がないため、部品1個1個の追跡管理も低コストで実現できる。 Therefore, a technique for identifying individuals using the surface shape unique to each individual is attracting attention. If the surface shape or pattern of an object is like this, there is no need to attach a two-dimensional code, RFID, etc., so tracking and management of each part can be realized at low cost.

特開2012-103758号公報Japanese Patent Application Publication No. 2012-103758 特開2012-181566号公報Japanese Patent Application Publication No. 2012-181566

しかしながら、工場内においては粉塵や工場内の照明、外光等の自然光、周囲のノイズ源等が外乱の要因となって、登録画像の撮影と識別画像の撮影との撮影環境が大きく変わる可能性がある。すると、抽出される特徴点や局所特徴量等が変わり、識別性能が低下するおそれがある。 However, inside a factory, dust, lighting inside the factory, natural light such as outside light, noise sources in the surroundings, etc. become disturbance factors, and there is a possibility that the shooting environment between capturing the registered image and capturing the identification image will change significantly. There is. Then, the extracted feature points, local features, etc. may change, and the identification performance may deteriorate.

本発明は上記課題を鑑みてなされたものであり、その目的は、環境の変化に応じて適切な条件を設定して外乱の影響を低減させ、特徴としたい模様を適切に浮かび上がらせることで、識別精度の向上を図ることができる個体識別システムを提供することにある。 The present invention has been made in view of the above-mentioned problems, and its purpose is to set appropriate conditions according to changes in the environment, reduce the influence of external disturbances, and appropriately highlight the desired characteristic pattern. An object of the present invention is to provide an individual identification system that can improve identification accuracy.

実施形態の個体識別システム(1)は、登録側及び識別側の撮影機器(10a、10b)によって撮影した識別対象の画像をそれぞれ登録画像及び識別画像として取得する画像取得処理を実行可能な画像取得処理部(212)と、前記画像取得処理で取得した前記登録画像及び前記識別画像に含まれる特徴点を抽出する特徴点抽出処理を実行可能な特徴点抽出処理部(221)と、前記特徴点抽出処理で抽出された前記特徴点の局所特徴量を計算する局所特徴量計算処理を実行可能な局所特徴量計算処理部(222)と、撮影対象に関する条件である撮影対象条件を調整する撮影対象条件調整処理を実行可能な撮影対象条件調整処理部(312)と、前記撮影機器に関する条件である撮影機器条件を調整する撮影機器条件調整処理を実行可能な撮影機器条件調整処理部(311)と、を備える。 The individual identification system (1) of the embodiment is an image acquisition system capable of executing an image acquisition process of acquiring images of an identification target photographed by photographing devices (10a, 10b) on the registration side and identification side as registered images and identification images, respectively. a processing unit (212), a feature point extraction processing unit (221) capable of executing a feature point extraction process for extracting feature points included in the registered image and the identification image acquired in the image acquisition process, and the feature point a local feature calculation processing unit (222) capable of executing a local feature calculation process that calculates a local feature of the feature point extracted in the extraction process; and a photography target that adjusts photography target conditions that are conditions related to the photography target. a photographing target condition adjustment processing unit (312) capable of executing a condition adjustment process; and a photographing equipment condition adjustment processing unit (311) capable of executing a photographing equipment condition adjustment process for adjusting photographing equipment conditions that are conditions related to the photographing equipment. , is provided.

これによれば、ユーザは、撮影対象条件調整処理部(312)と撮影機器条件調整処理部(311)とを操作して、特徴点の抽出及び局所特徴量の計算に適した撮影対象条件及び撮影機器条件を調整することができる。そのため、環境の変化に応じて適切な条件を設定することにより、外乱の影響を低減させることができ、特徴としたい模様を適切に浮かび上がらせることができる。その結果、識別精度を向上させることができる。 According to this, the user operates the imaging target condition adjustment processing unit (312) and the imaging equipment condition adjustment processing unit (311) to set the imaging target conditions suitable for extraction of feature points and calculation of local feature quantities. Shooting equipment conditions can be adjusted. Therefore, by setting appropriate conditions according to changes in the environment, it is possible to reduce the influence of external disturbances, and it is possible to appropriately highlight the desired characteristic pattern. As a result, identification accuracy can be improved.

一実施形態による個体識別システムの概略構成の一例を示すブロック図A block diagram showing an example of a schematic configuration of an individual identification system according to an embodiment 一実施形態による個体識別システムが備える撮影装置の概略構成の一例を示すブロック図A block diagram showing an example of a schematic configuration of a photographing device included in an individual identification system according to an embodiment 一実施形態による個体識別システムが備える特徴抽出装置の概略構成の一例を示すブロック図A block diagram showing an example of a schematic configuration of a feature extraction device included in an individual identification system according to an embodiment 一実施形態による個体識別システムが備える登録処理装置の概略構成の一例を示すブロック図A block diagram showing an example of a schematic configuration of a registration processing device included in an individual identification system according to an embodiment 一実施形態による個体識別システムが備える記録装置の概略構成の一例を示すブロック図A block diagram showing an example of a schematic configuration of a recording device included in an individual identification system according to an embodiment 一実施形態による個体識別システムが備える辞書装置の概略構成の一例を示すブロック図A block diagram showing an example of a schematic configuration of a dictionary device included in an individual identification system according to an embodiment 一実施形態による個体識別システムが備える画像照合識別装置の概略構成の一例を示すブロック図A block diagram showing an example of a schematic configuration of an image matching identification device included in an individual identification system according to an embodiment 一実施形態による個体識別システムが備える撮影条件調整装置の概略構成の一例を示すブロック図A block diagram showing an example of a schematic configuration of a photographing condition adjustment device included in an individual identification system according to an embodiment 一実施形態による個体識別システムが備える照合識別条件調整装置の概略構成の一例を示すブロック図A block diagram showing an example of a schematic configuration of a verification identification condition adjustment device included in an individual identification system according to an embodiment 一実施形態による個体識別システムが備える可視化装置の概略構成の一例を示すブロック図A block diagram showing an example of a schematic configuration of a visualization device included in an individual identification system according to an embodiment 一実施形態による個体識別システムにおいて特徴点抽出処理の実行結果の一例を示す図(その1)Diagram showing an example of execution results of feature point extraction processing in an individual identification system according to an embodiment (Part 1) 一実施形態による個体識別システムにおいて特徴点抽出処理の実行結果の一例を示す図(その2)Diagram showing an example of the execution result of feature point extraction processing in the individual identification system according to one embodiment (Part 2) 一実施形態による個体識別システムにおいて局所特徴量から大域特徴量を計算する手法の一例を概念的に示す図A diagram conceptually illustrating an example of a method for calculating global features from local features in an individual identification system according to an embodiment 一実施形態による個体識別システムにおいて大域特徴量辞書の生成方法の一例を概念的に示す図A diagram conceptually illustrating an example of a method for generating a global feature dictionary in an individual identification system according to an embodiment 一実施形態による個体識別システムにおいて大域特徴量を用いた絞り込み処理の一例を概念的に示す図A diagram conceptually illustrating an example of narrowing down processing using global features in an individual identification system according to an embodiment 一実施形態による個体識別システムにおいて局所特徴量を用いた特定処理の一例を概念的に示す図A diagram conceptually illustrating an example of identification processing using local features in an individual identification system according to an embodiment 一実施形態による個体識別システムにおいてパラメータセットの一例を示す図A diagram showing an example of a parameter set in an individual identification system according to an embodiment 一実施形態による個体識別システムにおいて正対応点数と負対応点数の一例を概念的に示す図A diagram conceptually showing an example of the number of positive correspondence points and the number of negative correspondence points in an individual identification system according to an embodiment 一実施形態による個体識別システムにおいて総当たり条件生成処理で生成される条件の組み合わせの一例を示す図A diagram showing an example of a combination of conditions generated by round-robin condition generation processing in an individual identification system according to an embodiment 一実施形態による個体識別システムにおいて最適条件提示処理で生成されるグラフの一例を示す図A diagram showing an example of a graph generated in optimal condition presentation processing in an individual identification system according to an embodiment 一実施形態による個体識別システムにおいて特徴点表示処理で表示装置に表示される表示内容の一例を示す図A diagram showing an example of display content displayed on a display device in feature point display processing in an individual identification system according to an embodiment 一実施形態による個体識別システムにおいて照合結果表示処理で表示装置に表示される表示内容の一例を示す図(その1)Diagram (Part 1) showing an example of display content displayed on a display device in matching result display processing in an individual identification system according to an embodiment 一実施形態による個体識別システムにおいて照合結果表示処理で表示装置に表示される表示内容の一例を示す図(その2)Diagram (Part 2) showing an example of display content displayed on a display device in matching result display processing in an individual identification system according to an embodiment

以下では、一実施形態について図面を参照しながら説明する。なお、各ブロック図における矢印はデータの流れを示す。本実施形態で説明する各処理部つまり機能ブロックは、それぞれ異なるハードウェアで構成することもできるし、1つのハードウェアで複数の装置又は処理部を共用する構成としても良い。また、詳細は図示しないが、各装置及び各処理部を構成するハードウェアは、それぞれ例えばCPUや、ROM、RAM、及び書き換え可能なフラッシュメモリなどの記憶領域を有するマイクロコンピュータを主体に構成さすることができる。記憶領域は、各装置及び各処理部を実現するための個体識別プログラムを記憶している。そして、CPUにおいて個体識別プログラムを実行することにより、各装置及び各処理部における各処理を実現することができる。 An embodiment will be described below with reference to the drawings. Note that the arrows in each block diagram indicate the flow of data. Each of the processing units or functional blocks described in this embodiment may be configured with different hardware, or a single piece of hardware may share a plurality of devices or processing units. Further, although details are not shown, the hardware constituting each device and each processing unit is mainly composed of a microcomputer having a CPU, ROM, RAM, and a storage area such as a rewritable flash memory. be able to. The storage area stores individual identification programs for realizing each device and each processing section. By executing the individual identification program in the CPU, each process in each device and each processing unit can be realized.

すなわち、本実施形態で説明する各処理部は、CPUが上述した記憶領域等の非遷移的実体的記憶媒体に格納されているコンピュータプログラムを実行してコンピュータプログラムに対応する処理を実行することにより実現されている、つまりソフトウェアにより実現されている。なお、各処理部のうち少なくとも一部をハードウェアにより実現する構成としてもよい。 That is, each processing unit described in this embodiment is executed by the CPU executing a computer program stored in a non-transitional physical storage medium such as the above-mentioned storage area and executing processing corresponding to the computer program. It is realized, that is, it is realized by software. Note that a configuration may be adopted in which at least a part of each processing unit is realized by hardware.

本実施形態の個体識別システム1は、予め登録された複数の登録画像と撮影機器で撮影した識別画像とを比較し、複数の登録画像の中から識別画像の被写体が写っている登録画像を識別するこができるシステムである。この個体識別システム1は、例えば工場等における部品のトレースに用いることができるが、これに限られない。 The individual identification system 1 of this embodiment compares a plurality of pre-registered images with an identification image taken with a photographing device, and identifies a registered image in which the subject of the identification image is captured from among the plurality of registered images. It is a system that allows you to This individual identification system 1 can be used, for example, to trace parts in a factory or the like, but is not limited thereto.

個体識別システム1は、図1に示すように、撮影機器10、入力装置11、表示装置12、個体識別装置20、及び調整装置30を備えている。本実施形態の場合、個体識別システム1は、登録側の撮影機器10と識別側の撮影機器10とを備えている。以下の説明において、これらを区別する場合は、登録側の撮影機器10を登録側撮影機器10aと称し、識別側の撮影機器10を識別側撮影機器10bと称することがある。本実施形態において、登録側撮影機器10aは、個体識別装置20に登録するための画像を撮影する。また、識別側撮影機器10bは、識別しようとしている被写体を撮影するためのものである。そして、本実施形態において、登録画像とは、主として登録側の撮影機器10aで撮影されて個体識別装置20に登録される又は登録されている画像を意味する。また、識別画像とは、主として識別側の撮影機器10bで撮影された画像を意味する。 As shown in FIG. 1, the individual identification system 1 includes a photographing device 10, an input device 11, a display device 12, an individual identification device 20, and an adjustment device 30. In the case of this embodiment, the individual identification system 1 includes a registration-side imaging device 10 and an identification-side imaging device 10. In the following description, when these are to be distinguished, the registration-side imaging device 10 may be referred to as the registration-side imaging device 10a, and the identification-side imaging device 10 may be referred to as the identification-side imaging device 10b. In this embodiment, the registration-side photographing device 10a photographs an image for registration in the individual identification device 20. Further, the identification-side photographing device 10b is for photographing the subject to be identified. In the present embodiment, the registered image mainly means an image that is photographed by the registration-side photographing device 10a and is registered or has been registered in the individual identification device 20. Moreover, the identification image mainly means an image photographed by the photographing device 10b on the identification side.

撮影機器10は、カメラ101、照明102、及びステージ103を有して構成されている。カメラ101は、ワーク等の撮影対象となる被写体を撮影する機能を有する。カメラ101は、外部からの指示により、シャッタースピードや、イメージセンサの感度、解像度、撮影範囲、焦点等を変更可能に構成されている。照明102は、被写体を照明するためのものであり、外部からの指示により、輝度や光度、色彩等を変更可能に構成されている。そして、ステージ103は、カメラ101や照明102を支持するとともに、被写体が載置されるものであり、カメラ101や照明102と被写体との距離や角度つまり姿勢を変更可能に構成されている。 The photographing device 10 includes a camera 101, a light 102, and a stage 103. The camera 101 has a function of photographing a subject such as a workpiece. The camera 101 is configured to be able to change shutter speed, image sensor sensitivity, resolution, photographic range, focus, etc. in accordance with instructions from the outside. The illumination 102 is for illuminating the subject, and is configured to be able to change brightness, luminous intensity, color, etc. according to instructions from the outside. The stage 103 supports the camera 101 and the lighting 102, and also has a subject placed thereon, and is configured to be able to change the distance and angle, that is, the posture, between the camera 101, the lighting 102, and the subject.

入力装置11は、ユーザの操作を受け付けるインタフェースであり、例えばキーボードやマウス等である。ユーザは、入力装置11を操作して調整装置30や個体識別装置20に対して各種の設定等を行うことができる。表示装置12は、文字や画像等の表示が可能なディスプレイであり、個体識別装置20や調整装置30から受信した情報を表示することができる。ユーザは、表示装置12に表示された情報を見ることで、個体識別装置20や調整装置30による処理の結果や設定内容等を確認することができる The input device 11 is an interface that accepts user operations, and is, for example, a keyboard, a mouse, or the like. The user can perform various settings for the adjustment device 30 and the individual identification device 20 by operating the input device 11. The display device 12 is a display capable of displaying characters, images, etc., and can display information received from the individual identification device 20 and the adjustment device 30. By viewing the information displayed on the display device 12, the user can confirm the results of processing by the individual identification device 20 and the adjustment device 30, the settings, etc.

個体識別装置20は、撮影装置21、特徴抽出装置22、登録処理装置23、記録装置24、辞書装置25、画像照合識別装置26、撮影条件付与装置27、及び特徴抽出条件付与装置28を有している。本実施形態の場合、撮影装置21、特徴抽出装置22、登録処理装置23、記録装置24、撮影条件付与装置27、及び特徴抽出条件付与装置28は、登録側と識別側とにそれぞれ設けられている。この場合、破線aで囲われた装置が登録側の装置となり、破線bで囲われた装置が識別側の装置となる。なお、登録側の装置aと識別側の装置bとは、異なるハードウェアで構成しても良いし、同一のハードウェアで構成しても良い。また、個体識別装置20及び調整装置30は、インターネット等の電気通信回線に接続されたクラウドサーバー上に設置されていても良い。 The individual identification device 20 includes a photographing device 21, a feature extraction device 22, a registration processing device 23, a recording device 24, a dictionary device 25, an image matching and identification device 26, a photographing condition providing device 27, and a feature extraction condition providing device 28. ing. In the case of this embodiment, the imaging device 21, feature extraction device 22, registration processing device 23, recording device 24, imaging condition provision device 27, and feature extraction condition provision device 28 are provided on the registration side and the identification side, respectively. There is. In this case, the device surrounded by the broken line a becomes the device on the registration side, and the device surrounded by the broken line b becomes the device on the identification side. Note that the registration side device a and the identification side device b may be configured with different hardware, or may be configured with the same hardware. Further, the individual identification device 20 and the adjustment device 30 may be installed on a cloud server connected to a telecommunications line such as the Internet.

撮影装置21は、撮影機器10の駆動を制御し、被写体の画像を撮影して取得する機能を有する。撮影装置21は、図2に示すように、撮影処理部211及び画像取得処理部212を有している。撮影処理部211は、撮影機器10を所定の条件で駆動させて被写体を撮影する。この場合、撮影機器10を撮影する際の所定の条件を、撮影条件と称する。撮影条件は、例えば撮影機器10に関する条件である撮影機器条件と、撮影対象となる被写体に関する条件である撮影対象条件とを含む。 The photographing device 21 has a function of controlling the driving of the photographing device 10 and photographing and acquiring an image of a subject. As shown in FIG. 2, the photographing device 21 includes a photographing processing section 211 and an image acquisition processing section 212. The photographing processing unit 211 drives the photographing device 10 under predetermined conditions to photograph a subject. In this case, the predetermined conditions when photographing with the photographing device 10 are referred to as photographing conditions. The photographing conditions include, for example, photographing device conditions that are conditions regarding the photographing device 10, and photographing target conditions that are conditions regarding the subject to be photographed.

撮影機器条件は、主に光学機器に関する条件であり、例えば撮影機器10が有するカメラ101のシャッタースピードや、イメージセンサの感度、解像度、撮影範囲、焦点、倍率、絞り、照明102の種類や輝度、光度、色彩等がある。撮影対象条件は、撮影対象つまり被写体に関する条件であり、例えば被写体の姿勢つまりカメラ101や照明102に対する被写体の角度や、カメラ101や照明102と被写体との距離等がある。 The photographing equipment conditions are mainly conditions related to optical equipment, such as the shutter speed of the camera 101 included in the photographing equipment 10, the sensitivity, resolution, photographing range, focus, magnification, aperture of the image sensor, the type and brightness of the illumination 102, etc. There are luminosity, color, etc. The photographing target conditions are conditions related to the photographing target, that is, the subject, and include, for example, the posture of the subject, that is, the angle of the subject with respect to the camera 101 or the illumination 102, the distance between the camera 101 or the illumination 102, and the subject, and the like.

撮影処理部211は、撮影条件付与装置27から受けた指示内容に基づいて撮影機器条件や撮影対象条件を変えて撮影機器10を駆動させて、被写体を撮影することができる。 The photographing processing unit 211 can change the photographing device conditions and photographing target conditions based on the instruction content received from the photographing condition providing device 27 and drive the photographing device 10 to photograph the subject.

画像取得処理部212は、画像取得処理を実行可能である。画像取得処理は、撮影機器10で撮影した被写体の画像を取得して特徴抽出装置22に渡す処理を含む。本実施形態の場合、登録側aの画像取得処理部212は、撮影機器10aで撮影した画像を登録画像として登録側aの特徴抽出装置22に渡す。また、識別側bの画像取得処理部212は、撮影機器10bで撮影した画像を識別画像として識別側bの特徴抽出装置22に渡す。本実施形態において、画像取得処理のうち、登録側aで行われる登録画像を取得する処理を登録画像取得処理と称し、識別側bで行われる識別画像を取得する処理を識別画像取得処理と称することがある。なお、画像取得処理は、例えばインターネット経由や記憶媒体を介して画像を取得する等、撮影機器10以外の手段から画像を取得する処理を含んでいても良い。 The image acquisition processing unit 212 can execute image acquisition processing. The image acquisition process includes a process of acquiring an image of a subject photographed by the photographing device 10 and passing it to the feature extraction device 22. In the case of this embodiment, the image acquisition processing unit 212 on the registration side a passes an image photographed by the imaging device 10a to the feature extraction device 22 on the registration side a as a registered image. Further, the image acquisition processing unit 212 on the identification side b passes the image photographed by the imaging device 10b to the feature extraction device 22 on the identification side b as an identification image. In this embodiment, among the image acquisition processes, the process of acquiring a registered image performed on the registration side a is referred to as a registered image acquisition process, and the process of acquiring an identification image performed on an identification side b is referred to as an identification image acquisition process. Sometimes. Note that the image acquisition process may include a process of acquiring an image from a means other than the imaging device 10, such as acquiring an image via the Internet or a storage medium.

特徴抽出装置22は、撮影装置21から取得した画像に含まれる特徴を抽出する機能を有する。特徴抽出装置22は、画像の特徴として、特徴点、局所特徴量、及び大域特徴量を計算する機能を有する。特徴抽出装置22は、図3に示すように、特徴点抽出処理部221、局所特徴量計算処理部222、局所特徴量群分類処理部223、及び大域特徴量計算処理部224を有している。特徴抽出装置22は、特徴抽出条件付与装置28から特徴抽出条件を受けて、各処理部221~224における処理を実行する。特徴抽出条件には、例えば特徴点を抽出し局所特徴量を計算する際のピラミッド画像の段数、及びコーナーやカーブらしさを決定するための閾値等が含まれる。 The feature extraction device 22 has a function of extracting features included in the image acquired from the imaging device 21. The feature extraction device 22 has a function of calculating feature points, local features, and global features as image features. As shown in FIG. 3, the feature extraction device 22 includes a feature point extraction processing section 221, a local feature calculation processing section 222, a local feature group classification processing section 223, and a global feature calculation processing section 224. . The feature extraction device 22 receives feature extraction conditions from the feature extraction condition applying device 28 and executes processing in each of the processing units 221 to 224. The feature extraction conditions include, for example, the number of steps of the pyramid image when extracting feature points and calculating local feature amounts, and thresholds for determining the likelihood of corners or curves.

特徴点抽出処理部221は、特徴点抽出処理を実行可能である。特徴点抽出処理は、図11に示すように、画像取得処理部212で取得した画像から、被写体Sの表面に表れている1つ以上の特徴点Pを抽出する処理を含む。本実施形態の場合、特徴点抽出処理は、1枚の画像から例えば数千点の特徴点を抽出する。この場合、登録側aの特徴点抽出処理部221は、登録側の撮影機器10aで撮影された登録画像の特徴点を抽出することができる。また、識別側bの特徴点抽出処理部221は、識別側の撮影機器10bで撮影した識別画像の特徴点を抽出することができる。 The feature point extraction processing unit 221 can execute feature point extraction processing. The feature point extraction process includes a process of extracting one or more feature points P appearing on the surface of the subject S from the image acquired by the image acquisition processing unit 212, as shown in FIG. In the case of this embodiment, the feature point extraction process extracts, for example, several thousand feature points from one image. In this case, the feature point extraction processing unit 221 on the registration side a can extract the feature points of the registered image photographed by the imaging device 10a on the registration side. Further, the feature point extraction processing unit 221 on the identification side b can extract feature points of the identification image captured by the imaging device 10b on the identification side.

ここで、例えば図12に示すように、ワークSの表面に表れる模様のうちコーナーやカーブ等のような幾何学的でない模様を特徴点Pとして抽出することで、同じ製造工程を経て製造された同一種類の部品間でもその個体を識別できると考えられる。これは、例えば部品等の表面に表れる直線や直角等の幾何学的な模様は、その種類の部品全体に共通して表れる模様であることが多く、部品間で個体の識別を行うための特徴にはなり難い。一方、コーナーやカーブ等の幾何学的でない模様は、製造過程における極僅かな条件の違いによって出来るものであることが多く、その個体固有のものが多いからであると考えられる。そのため、本実施形態の特徴点抽出処理部221は、特徴点Pとして被写体の表面に局所的に表れるコーナーやカーブの模様を抽出する。 Here, as shown in FIG. 12, for example, by extracting non-geometric patterns such as corners and curves among the patterns appearing on the surface of the workpiece S as feature points P, It is thought that it is possible to identify individual parts even among parts of the same type. This is because, for example, geometric patterns such as straight lines and right angles that appear on the surface of parts are often patterns that appear in common across all parts of that type, and are characteristics that can be used to identify individuals among parts. It is difficult to become. On the other hand, non-geometric patterns such as corners and curves are often the result of very slight differences in conditions during the manufacturing process, and are thought to be unique to each individual product. Therefore, the feature point extraction processing unit 221 of this embodiment extracts, as feature points P, patterns of corners and curves that appear locally on the surface of the subject.

本実施形態の特徴点抽出処理部221は、被写体の画像から得られた輝度勾配強度分布を用いて、被写体の表面に局所的に表れるコーナーやカーブを特徴点として抽出する。画像はピクセル間で輝度の勾配とその強度を有している。均一な模様である場合、輝度勾配強度の広がりが小さく、また、直線的な模様の場合、輝度勾配強度は特定の方向へ広がる。一方、コーナーやカーブを伴う模様の場合、輝度勾配強度は複数方向へ広がる。このため、特徴点抽出処理部221は、輝度勾配強度が複数方向へ広がる模様を探すことで、特徴点となるコーナーやカーブを抽出することができる。 The feature point extraction processing unit 221 of this embodiment uses the brightness gradient intensity distribution obtained from the image of the subject to extract corners and curves that appear locally on the surface of the subject as feature points. An image has a brightness gradient and its intensity between pixels. In the case of a uniform pattern, the spread of the brightness gradient strength is small, and in the case of a linear pattern, the brightness gradient strength spreads in a specific direction. On the other hand, in the case of a pattern with corners or curves, the brightness gradient strength spreads in multiple directions. Therefore, the feature point extraction processing unit 221 can extract corners and curves that serve as feature points by searching for a pattern in which the intensity of the brightness gradient spreads in multiple directions.

局所特徴量計算処理部222は、局所特徴量計算処を実行可能である。局所特徴量計算処理は、特徴点抽出処理で抽出された特徴点を含む周辺の領域の輝度勾配に基づいて特徴点の特徴量を局所特徴量として計算する処理を含む。局所特徴量は、特徴点の座標と256ビットのバイナリ特徴量を有している。特徴量の計算には、既存技術のSIFTを用いることができる。また、可能であれば、他のSURFなどの画像特徴量計算アルゴリズムを用いてもよい。特徴点抽出処理は、画像を多段階に縮小したピラミッド画像を求め、各縮尺の画像に対して同一の条件で、それぞれ独立に特徴点を抽出しても良い。そして、局所特徴量計算処理部は、各ピラミッド画像で得られた特徴点の局所特徴量を計算しても良い。こうすることで、スケール不変性を有し、スケールの相違に影響を受け難い局所特徴量を求めることができる。 The local feature amount calculation processing unit 222 is capable of executing local feature amount calculation processing . The local feature amount calculation process includes a process of calculating the feature amount of the feature point as a local feature amount based on the brightness gradient of the surrounding area including the feature point extracted in the feature point extraction process. The local feature has the coordinates of a feature point and a 256-bit binary feature. The existing technology SIFT can be used to calculate the feature amount. Furthermore, if possible, other image feature calculation algorithms such as SURF may be used. In the feature point extraction process, a pyramid image is obtained by reducing the image in multiple stages, and feature points may be extracted independently from each scaled image under the same conditions. Then, the local feature amount calculation processing unit may calculate the local feature amount of the feature points obtained in each pyramid image. By doing so, it is possible to obtain local features that have scale invariance and are not easily affected by differences in scale.

局所特徴量群分類処理部223は、局所特徴量群分類処理を実行可能である。局所特徴量群分類処理は、登録画像及び識別画像の大域特徴量を計算するための事前準備となる処理である。局所特徴量群分類処理は、例えば図13の(A)、(B)で示すように、各画像について局所特徴量計算処理を実行して得られた複数の局所特徴量Aをその局所特徴量Aの値に応じて所定数例えば64~4096個の局所特徴量群Bに分類する処理を含む。換言すれば、局所特徴量群分類処理は、各画像から得られた多数の局所特徴量Aを、その値が似ている者同士を集めてクラスタリングする処理を含む。局所特徴量群Bを構成するそれぞれの要素Bnは、画像から得られる特徴点及びその局所特徴量のペアを少なくとも1つ以上有している。なお、Bnのnは、要素の数を示す整数である。 The local feature group classification processing unit 223 can perform local feature group classification processing. The local feature group classification process is a preparatory process for calculating global features of registered images and identification images. In the local feature group classification process, for example, as shown in FIGS. 13A and 13B, a plurality of local features A obtained by performing local feature calculation processing on each image are classified into local feature values. It includes a process of classifying into a predetermined number of local feature groups B, for example, 64 to 4096, according to the value of A. In other words, the local feature amount group classification process includes a process of clustering a large number of local feature amounts A obtained from each image by gathering those whose values are similar. Each element Bn constituting the local feature group B has at least one pair of a feature point obtained from an image and its local feature. Note that n in Bn is an integer indicating the number of elements.

局所特徴量群分類処理は、各画像から得られた局所特徴量Aを辞書情報dに基づいて分類する処理を含む。辞書情報dは、予め取得した学習用画像から求めた特徴点の特徴量のうち代表的なものであり、局所特徴量分類処理の実行前に準備される。局所特徴量群分類処理部223は、分類しようとする局所特徴量Aを、その局所特徴量Aと近い特徴量を有する辞書情報dに当てはめて分類する。 The local feature amount group classification process includes a process of classifying the local feature amount A obtained from each image based on the dictionary information d. The dictionary information d is representative of the feature amounts of the feature points obtained from the learning images acquired in advance, and is prepared before execution of the local feature classification process. The local feature group classification processing unit 223 classifies the local feature A to be classified by applying it to dictionary information d having a feature similar to the local feature A.

大域特徴量計算処理部224は、大域特徴量計算処理を実行可能である。大域特徴量計算処理は、局所特徴量分離処理で得た各局所特徴量群Bに基づいて大域特徴量を計算する処理を含む。大域特徴量計算処理は、図13(C)に示すように、画像から得た各局所特徴量Aと相関が高い辞書情報dに投票して得た頻度分布つまりヒストグラムを大域特徴量として計算する処理を含む。すなわち、大域特徴量は、横軸に局所特徴量群Bをとり、縦軸に各局所特徴量群Bに投票された投票数をとる。このようにして計算された大域特徴量を用いることで、1枚の画像を1つの特徴量で表すことができる。大域特徴量計算処理は、例えば計算方法としてVLADやBAG-OF-WORDSを採用することができる。 The global feature amount calculation processing unit 224 is capable of executing global feature amount calculation processing. The global feature calculation process includes a process of calculating global features based on each local feature group B obtained in the local feature separation process. In the global feature calculation process, as shown in FIG. 13(C), the frequency distribution, that is, the histogram, obtained by voting on the dictionary information d that has a high correlation with each local feature A obtained from the image is calculated as the global feature. Including processing. That is, for the global feature amount, the horizontal axis represents the local feature group B, and the vertical axis represents the number of votes cast for each local feature group B. By using the global feature amount calculated in this way, one image can be represented by one feature amount. For the global feature amount calculation process, for example, VLAD or BAG-OF-WORDS can be adopted as a calculation method.

大域特徴量の計算方法としてVLADを採用する場合、大域特徴量計算処理は、例えば局所特徴量と相関が高い辞書情報である代表値との差分ベクトルを総和したベクトルVを、代表値の数だけ計算し、それらをつなげたベクトルを大域特徴量のベクトルVとして計算する。具体的には、大域特徴量計算処理部224は、画像から得た局所特徴量を次の(1)式の計算に適用して大域特徴量のベクトルVを算出する。この場合、大域特徴量のベクトルVは、64個の128次元のベクトルで構成される。この場合、各局所特徴量群Bに含まれる局所特徴量をvとし、辞書情報をdとする。また、各局所特徴量群Bに含まれる特徴量の数をNとすると、1≦i≦Nとなる。

Figure 0007377161000001
なお、(1)式のNN(v)=dkは、画像中に含まれる特徴量の中で、この場合64個ある各辞書情報dと最も相関が高い局所特徴量vを意味する。 When VLAD is adopted as the global feature calculation method, the global feature calculation process is performed by, for example, adding a vector V, which is the sum of the difference vectors between the local feature and a representative value, which is dictionary information that has a high correlation, for the number of representative values. A vector that connects them is calculated as a global feature vector V. Specifically, the global feature amount calculation processing unit 224 calculates the vector V of the global feature amount by applying the local feature amount obtained from the image to the calculation of the following equation (1). In this case, the global feature vector V is composed of 64 128-dimensional vectors. In this case, let v be the local feature included in each local feature group B, and let d be the dictionary information. Furthermore, if the number of features included in each local feature group B is N, then 1≦i≦N.
Figure 0007377161000001
Note that NN(v)=dk in equation (1) means the local feature amount v that has the highest correlation with each of the 64 pieces of dictionary information d among the feature amounts included in the image.

また、大域特徴量としてBAG-OF-WORDSを採用する場合、大域特徴量辞書生成処理は、次のようにして大域特徴量を計算する。この場合、大域特徴量は、辞書情報の数の次元を持つベクトル、例えば64次元のベクトルVとなる。大域特徴量辞書生成処理部251は、64個の代表値となる辞書情報を用いて、各特徴量について、最も近い辞書情報dを探し、近かったベクトルVの要素に1を加える。これにより、ベクトルVは、特徴量のヒストグラムとなり、ベクトルVの要素の総和は、特徴量の個数を等しくなる。このベクトルVは、この総数で全体を除算し、正規化して利用する。 Furthermore, when BAG-OF-WORDS is adopted as the global feature, the global feature dictionary generation process calculates the global feature as follows. In this case, the global feature amount is a vector with dimensions equal to the number of dictionary information, for example, a 64-dimensional vector V. The global feature dictionary generation processing unit 251 searches for the nearest dictionary information d for each feature using dictionary information serving as 64 representative values, and adds 1 to the element of the vector V that is the closest. As a result, the vector V becomes a histogram of feature quantities, and the sum of the elements of the vector V has the same number of feature quantities. This vector V is used by dividing the whole by this total number and normalizing it.

登録処理装置23は、各処理で得たデータを記録装置24に記録する機能を有する。登録処理装置23は、図4に示すように、検索対象画像登録処理部231、評価用画像登録処理部232、局所特徴量登録処理部233、及び大域特徴量登録処理部234を有している。検索対象画像登録処理部231は、検索対象画像登録処理を実行可能である。検索対象画像登録処理は、予め複数の検索対象とする画像を登録画像として、記録装置24の検索対象画像登録部241に登録する処理を含む。 The registration processing device 23 has a function of recording data obtained in each process in the recording device 24. As shown in FIG. 4, the registration processing device 23 includes a search target image registration processing section 231, an evaluation image registration processing section 232, a local feature registration processing section 233, and a global feature registration processing section 234. . The search target image registration processing unit 231 is capable of executing search target image registration processing. The search target image registration process includes a process of registering in advance a plurality of search target images as registered images in the search target image registration unit 241 of the recording device 24.

評価用画像登録処理部232は、評価用画像登録処理を実行可能である。評価用画像登録処理は、画像照合識別装置26で実行される照合処理の評価を行う際に用いる画像を評価用の画像として記録装置24の評価用画像登録部242に登録する処理を含む。評価用画像は、それぞれ異なる被写体を撮影した複数の登録画像を含む登録画像群と、登録画像群の中のうちの1つと同一の被写体でかつ異なる条件で撮影した識別画像と、を含んで構成されている。この場合、識別画像は、被写体や条件の数によって複数あっても良い。また、同一の被写体を撮影した登録画像と識別画像とは、例えば同一又は部分的に共通する識別番号等が付与されること等によって相互に紐付けされた状態で記録装置24の評価用画像登録部242に登録される。 The evaluation image registration processing unit 232 is capable of executing evaluation image registration processing. The evaluation image registration process includes a process of registering an image used when evaluating the matching process executed by the image matching and identification device 26 as an evaluation image in the evaluation image registration section 242 of the recording device 24. The evaluation image includes a registered image group including a plurality of registered images, each of which is taken of a different subject, and an identification image of the same subject as one of the registered image groups, but taken under different conditions. has been done. In this case, there may be a plurality of identification images depending on the number of subjects and conditions. In addition, the registered image and the identification image taken of the same subject are registered as images for evaluation in the recording device 24 in a state in which they are linked to each other by, for example, being assigned the same or partially common identification number. It is registered in the section 242.

局所特徴量登録処理部233は、局所特徴量登録処理を実行可能である。局所特徴量登録処理は、特徴抽出装置22での処理によって登録画像から抽出した特徴点の局所特徴量を、記録装置24の局所特徴量登録部243に登録する処理を含む。また、局所特徴量登録処理は、特徴抽出装置22での処理によって評価用画像から抽出した特徴点の局所特徴量を、記録装置24の局所特徴量登録部243に登録する処理を含む。局所特徴量登録処理部233は、各画像から得た局所特徴量を、抽出元となる画像と紐付けして登録する。 The local feature registration processing unit 233 can execute local feature registration processing. The local feature amount registration process includes a process of registering the local feature amount of the feature point extracted from the registered image by the process performed by the feature extraction device 22 in the local feature amount registration unit 243 of the recording device 24. Further, the local feature amount registration process includes a process of registering the local feature amount of the feature point extracted from the evaluation image by the process performed by the feature extraction device 22 in the local feature amount registration unit 243 of the recording device 24. The local feature registration processing unit 233 registers the local feature obtained from each image in association with the extraction source image.

大域特徴量登録処理部234は、大域特徴量登録処理を実行可能である。大域特徴量登録処理は、登録画像に係る大域特徴量を、記録装置24の大域特徴量登録部244に登録する処理を含む。また、大域特徴量登録処理は、評価用画像に係る大域特徴量を、記録装置24の大域特徴量登録部244に登録する処理を含む。局所特徴量登録処理部233は、各画像から得た大域特徴量を、抽出元となる画像と紐付けして登録する。 The global feature registration processing unit 234 is capable of executing global feature registration processing. The global feature amount registration process includes processing to register the global feature amount related to the registered image in the global feature amount registration unit 244 of the recording device 24. Further, the global feature amount registration process includes processing for registering the global feature amount related to the evaluation image in the global feature amount registration unit 244 of the recording device 24. The local feature registration processing unit 233 registers the global feature obtained from each image in association with the image from which it is extracted.

記録装置24は、登録処理装置23の各登録処理によって送られた各種のデータを記録する機能を有しており、データベースを構成する。記録装置24は、例えば個体識別装置20を構成するコンピュータの記録装置や、ネットワーク回線を介して接続された外部のサーバ等で構成することもできる。記録装置24は、図5に示すように、検索対象画像登録部241、評価用画像登録部242、局所特徴量登録部243、大域特徴量登録部244、及び大域特徴量辞書登録部245を有している。 The recording device 24 has a function of recording various data sent through each registration process of the registration processing device 23, and constitutes a database. The recording device 24 can also be configured, for example, by a recording device of a computer that constitutes the individual identification device 20, an external server connected via a network line, or the like. As shown in FIG. 5, the recording device 24 includes a search target image registration section 241, an evaluation image registration section 242, a local feature registration section 243, a global feature registration section 244, and a global feature dictionary registration section 245. are doing.

検索対象画像登録部241は、登録処理装置23の検索対象画像登録処理部231から送られた検索対象画像を記録する記録領域である。評価用画像登録部242は、登録処理装置23の評価用画像登録処理部232から送られた評価用画像を記録する記録領域である。局所特徴量登録部243は、登録処理装置23の局所特徴量登録処理部233から送られた局所特徴量を記録する記録領域である。大域特徴量登録部244は、登録処理装置23の大域特徴量登録処理部234から送られた大域特徴量を記録する記録領域である。 The search target image registration unit 241 is a recording area in which the search target image sent from the search target image registration processing unit 231 of the registration processing device 23 is recorded. The evaluation image registration section 242 is a recording area in which the evaluation image sent from the evaluation image registration processing section 232 of the registration processing device 23 is recorded. The local feature amount registration unit 243 is a recording area that records the local feature amount sent from the local feature amount registration processing unit 233 of the registration processing device 23. The global feature amount registration unit 244 is a recording area that records the global feature amount sent from the global feature amount registration processing unit 234 of the registration processing device 23.

また、大域特徴量辞書登録部245は、辞書装置25の大域特徴量辞書登録処理部252から送られた大域特徴量辞書を記録する記録領域である。画像照合識別装置26で検索処理を実行する以前に、予め取得した学習用画像から得られた局所特徴量に基づいて計算された複数の辞書情報を要素に持つ複数の大域特徴量辞書が登録されている。 Further, the global feature dictionary registration unit 245 is a recording area that records the global feature dictionary sent from the global feature dictionary registration processing unit 252 of the dictionary device 25. Before the image matching and identification device 26 executes the search process, a plurality of global feature dictionaries having elements of a plurality of dictionary information calculated based on local features obtained from pre-obtained learning images are registered. ing.

辞書装置25は、複数枚の画像から抽出した特徴点及びその局所特徴量をもとに複数の辞書情報を生成し、その辞書情報に基づく大域特徴量辞書を生成し、登録、及び設定する機能を有する。辞書装置25は、図6に示すように、大域特徴量辞書生成処理部251及び大域特徴量辞書登録処理部252を有している。 The dictionary device 25 has a function of generating a plurality of pieces of dictionary information based on feature points extracted from a plurality of images and their local features, and generating, registering, and setting a global feature dictionary based on the dictionary information. has. As shown in FIG. 6, the dictionary device 25 includes a global feature dictionary generation processing section 251 and a global feature dictionary registration processing section 252.

大域特徴量辞書生成処理部251は、大域特徴量辞書生成処理を実行可能である。大域特徴量辞書生成処理は、例えば複数の学習用画像から得た局所特徴量群のそれぞれの代表値を辞書情報に持つ大域特徴量辞書を生成する処理を含む。この場合、大域特徴量辞書生成処理は、局所特徴量群のセントロイドを代表値として辞書情報に設定する処理を含む。辞書情報は、大域特徴量辞書を構成する要素であり、複数個の辞書情報が集まって1つの大域特徴量辞書を構成する。 The global feature dictionary generation processing unit 251 is capable of executing global feature dictionary generation processing. The global feature dictionary generation process includes, for example, a process of generating a global feature dictionary whose dictionary information includes representative values of each of the local feature groups obtained from a plurality of learning images. In this case, the global feature dictionary generation process includes a process of setting the centroid of the local feature group as a representative value in the dictionary information. Dictionary information is an element constituting a global feature dictionary, and a plurality of pieces of dictionary information are collected to form one global feature dictionary.

この場合、例えば、大域特徴量辞書生成処理において大域特徴量辞書生成処理部251は、次のようにして大域特徴量辞書を生成することができる。すなわち、大域特徴量辞書生成処理において大域特徴量辞書生成処理部251は、まず図14(A)、(B)に示すように、例えば特徴抽出装置22で計算されたm枚分の学習用画像T1~Tmの局所特徴量Aを受け取る。次に、大域特徴量辞書生成処理部251は、図14(C)に示すように、受け取った局所特徴量Aを例えばk-means法を用いてk個この場合64個のクラスタつまり局所特徴量群B1~Bkに分類し、各局所特徴量群B1~BkのそれぞれについてセントロイドC1~Ckを求める。そして、大域特徴量辞書生成処理部251は、このようにして求めた各局所特徴量群B1~BkのセントロイドC1~Ckを、それぞれの局所特徴量群B1~Bkの代表値として辞書情報d1~dkに設定し、辞書情報d1~dkをまとめた大域特徴量辞書Eを生成する。そして、大域特徴量辞書生成処理部251は、更に異なる学習用画像Tを用いて複数の大域特徴量辞書Eを生成する。なお、辞書情報d1~dkは、各局所特徴量群B1~Bkを代表する値であれば、セントロイドに限られない。 In this case, for example, in the global feature dictionary generation process, the global feature dictionary generation processing unit 251 can generate the global feature dictionary as follows. That is, in the global feature dictionary generation process, the global feature dictionary generation processing unit 251 first generates m learning images calculated by the feature extraction device 22, as shown in FIGS. 14(A) and 14(B). Receive local feature amounts A from T1 to Tm. Next, as shown in FIG. 14C, the global feature dictionary generation processing unit 251 uses, for example, the k-means method to convert the received local feature A into k clusters, in this case 64 clusters, that is, local feature amounts. It is classified into groups B1 to Bk, and centroids C1 to Ck are determined for each of the local feature groups B1 to Bk. Then, the global feature dictionary generation processing unit 251 uses the centroids C1 to Ck of each of the local feature groups B1 to Bk obtained in this way to the dictionary information d1 as representative values of each of the local feature groups B1 to Bk. ~dk, and generates a global feature dictionary E that compiles the dictionary information d1~dk. Then, the global feature dictionary generation processing unit 251 further generates a plurality of global feature dictionaries E using different learning images T. Note that the dictionary information d1 to dk are not limited to centroids as long as they are values representative of each of the local feature groups B1 to Bk.

大域特徴量辞書登録処理部252は、大域特徴量辞書登録処理を実行可能である。大域特徴量辞書登録処理は、大域特徴量辞書生成処理で生成された複数の大域特徴量辞書Eicを、記録装置24の大域特徴量辞書登録部245に記録する処理を含む。この場合、大域特徴量辞書Eには、大域特徴量辞書Eを構成する複数の辞書情報d1~dkが含まれている。 The global feature dictionary registration processing unit 252 is capable of executing global feature dictionary registration processing. The global feature dictionary registration process includes a process of recording a plurality of global feature dictionaries Eic generated in the global feature dictionary generation process in the global feature dictionary registration unit 245 of the recording device 24. In this case, the global feature dictionary E includes a plurality of pieces of dictionary information d1 to dk that constitute the global feature dictionary E.

画像照合識別装置26は、記録装置24に記録されている登録画像と、識別側の特徴抽出装置22から出力された識別画像とを照合しその画像の一致不一致を識別する機能を有数する。画像照合識別装置26は、図7に示すように、検索処理部261、照合処理部262、及び結果通知処理部263を有している。 The image comparison and identification device 26 has a prominent function of comparing the registered image recorded in the recording device 24 with the identification image output from the feature extraction device 22 on the identification side and identifying whether the images match or do not match. The image matching and identification device 26 includes a search processing section 261, a matching processing section 262, and a result notification processing section 263, as shown in FIG.

検索処理部261は、検索処理を実行可能である。検索処理は、記録装置24の検索対象画像登録部241に記録されている複数の登録画像に係る大域特徴量のうち、識別側の特徴抽出装置22から送られた識別画像に係る大域特徴量に相関が高いものを検索する処理を含む。本実施形態の場合、検索処理部261は、絞り込み処理を実行可能な絞り込み処理部2611と、特定処理を実行可能な特定処理部2612とを有する。すなわち、本実施形態の場合、検索処理は、絞り込み処理と特定処理とを含む。 The search processing unit 261 is capable of executing search processing. The search process is performed using the global feature amount related to the identification image sent from the feature extraction device 22 on the identification side, among the global feature amounts related to the plurality of registered images recorded in the search target image registration unit 241 of the recording device 24. Includes processing to search for items with high correlation. In the case of this embodiment, the search processing section 261 includes a narrowing down processing section 2611 that can perform narrowing down processing, and a specific processing section 2612 that can perform specific processing. That is, in the case of this embodiment, the search process includes a narrowing process and a specifying process.

絞り込み処理部2611で実行される絞り込み処理は、図15に示すように、記録装置24の検索対象画像登録部241に登録されている複数の登録画像の中から、識別画像が有する大域特徴量との相関が高い大域特徴量を有する所定数の登録画像を候補として絞り込む処理を含む。検索対象画像登録部241に登録されている登録画像が例えば数千~数十万枚である場合、登録画像の候補は、絞り込み処理で例えば数~数十枚程度に絞り込まれる。 As shown in FIG. 15, the narrowing down process executed by the narrowing down processing unit 2611 selects the global feature amount and the amount of features that the identified image has from among the plurality of registered images registered in the search target image registration unit 241 of the recording device 24. The process includes a process of narrowing down candidates to a predetermined number of registered images having global feature quantities with high correlation. If the number of registered images registered in the search target image registration unit 241 is, for example, several thousand to several hundred thousand, the registered image candidates are narrowed down to, for example, several to several tens of images by the narrowing down process.

特定処理部2612で実行される特定処理は、局所特徴量を用いた画像照合手法と、特徴点の幾何的な配置の整合性を検証するアルゴリズムを用いて行うことができる。特定処理部2612は、まず、絞り込み処理によって抽出された候補の登録画像の局所特徴量と識別画像の局所特徴量とを比較し、双方の画像から特徴量の差が最小となる特徴点をペアとして求める。そして、特定処理部2612は、他の特徴点との相対的な位置関係が矛盾しない特徴点を対応点として抽出し、その対応点数が最も多い登録画像を特定する。 The identification processing performed by the identification processing unit 2612 can be performed using an image matching method using local feature amounts and an algorithm that verifies the consistency of the geometric arrangement of feature points. The identification processing unit 2612 first compares the local feature amount of the candidate registered image extracted by the narrowing down process with the local feature amount of the identification image, and pairs feature points with the minimum difference in feature amount from both images. Find it as. Then, the identification processing unit 2612 extracts feature points whose relative positional relationships with other feature points do not contradict each other as corresponding points, and identifies the registered image with the largest number of corresponding points.

この場合、絞り込み処理は、図15に示すように、登録画像と識別画像とのそれぞれの大域特徴量を比較する処理であるため、画像に含まれる全ての局所特徴量を比較する特定処理よりも精度は低いが処理量が少なく高速に処理することができる。これに対し、特定処理は、図16に示すように、登録画像と識別画像とのそれぞれの局所特徴量Aの全てについて対応点を探索する処理であるため、大域特徴量同士を比較する絞り込み処理よりも処理量は多く時間はかかるが精度が良い。このように、検索処理は、絞り込み処理と特定処理との2段階の処理を実行することにより、複数の登録画像の中から識別画像と同一の登録画像を高速で精度良く特定することができる。 In this case, as shown in FIG. 15, the narrowing down process is a process that compares the respective global features of the registered image and the identified image, so it is better than a specific process that compares all the local features included in the image. Although the accuracy is low, the amount of processing is small and processing can be performed at high speed. On the other hand, as shown in FIG. 16, the identification process is a process of searching for corresponding points for all of the local feature amounts A of each of the registered image and the identification image, so it is a narrowing down process that compares the global feature amounts with each other. Although it requires more processing and takes more time, it has better accuracy. In this manner, the search process performs two steps of narrowing down and specifying, thereby making it possible to quickly and accurately specify a registered image that is the same as the identification image from among a plurality of registered images.

照合処理部262は、照合処理を実行可能である。照合処理は、画像の検索を伴わない処理であり、調整装置30によって各種の条件やアルゴリズム、パラメータ等を調整するために特定の画像同士を照合する際に実行される。照合処理は、検索処理のうち画像同士を照合するためのアルゴリズムと同一のアルゴルズムを用いて実行される。そのため、照合処理部262は、検索処理部261の一部とすることができる。調整装置30によって調整された各種の条件やアルゴリズム、パラメータ等は、検索処理部261の検索処理に反映される。 The verification processing unit 262 is capable of performing verification processing. The matching process is a process that does not involve searching for images, and is executed when the adjustment device 30 matches specific images to adjust various conditions, algorithms, parameters, and the like. The matching process is performed using the same algorithm as the algorithm for matching images in the search process. Therefore, the matching processing section 262 can be a part of the search processing section 261. Various conditions, algorithms, parameters, etc. adjusted by the adjustment device 30 are reflected in the search processing by the search processing unit 261.

照合処理は、例えば評価用画像として評価用画像登録部242に登録されている特定の登録画像と識別画像とにおける局所特徴量を比較し、その特徴点の対応点数を取得して登録画像と識別画像とを照合する処理を含む。この場合、照合処理部262は、調整装置30からの指示により、同一の被写体を撮影した登録画像と識別画像とについて照合することができる。また、照合処理部262は、調整装置30からの指示により、異なる被写体を撮影した登録画像と識別画像とについて照合することもできる。照合処理部262は、登録画像と識別画像との局所特徴量の対応点数を出力する。 The matching process includes, for example, comparing the local feature amounts of a specific registered image registered in the evaluation image registration unit 242 as an evaluation image with the identification image, obtaining the number of corresponding feature points, and identifying the registered image and the identified image. Includes processing to match the image. In this case, the matching processing unit 262 can match the identification image with a registered image taken of the same subject based on an instruction from the adjustment device 30. Further, the matching processing unit 262 can also match registered images taken of different subjects and identification images based on instructions from the adjustment device 30. The matching processing unit 262 outputs the number of corresponding points of local feature amounts between the registered image and the identification image.

また、照合処理部262は、照合識別条件調整装置32から受け取ったパラメータセットを用いて照合処理を実行することができる。パラメータセットは、例えば図17に示すように、検索処理及び照合処理の条件を設定するための複数のパラメータについて、それぞれのパラメータに設定可能な値を組み合わせたものである。図17における条件1、条件2、条件3・・・がそれぞれ1つのパラメータセットとなる。図17の例の場合、パラメータセットは全部で5400通りとなる。 Further, the matching processing unit 262 can execute matching processing using the parameter set received from the matching identification condition adjustment device 32. For example, as shown in FIG. 17, the parameter set is a combination of values that can be set for a plurality of parameters for setting conditions for search processing and matching processing. Condition 1, Condition 2, Condition 3, etc. in FIG. 17 each constitute one parameter set. In the example of FIG. 17, there are a total of 5400 parameter sets.

結果通知処理部263は、結果通知処理を実行可能である。結果通知処理は、検索処理の結果、及び照合処理の結果を、調整装置30や外部の装置に出力する処理を含む。この場合、検索処理の結果は、特定した登録画像に関する情報が含まれる。また、照合処理の結果は、対応点数が含まれる。 The result notification processing unit 263 can execute result notification processing. The result notification process includes a process of outputting the results of the search process and the results of the matching process to the adjustment device 30 or an external device. In this case, the search processing result includes information regarding the specified registered image. Furthermore, the result of the matching process includes the number of corresponding points.

撮影条件付与装置27は、調整装置30の撮影条件調整装置31からの指示を受けて、撮影装置21に上述した撮影条件を付与する機能を有する。特徴抽出条件付与装置28は、調整装置30の照合識別条件調整装置32からの指示を受けて、特徴抽出装置22に特徴抽出条件を付与する機能を有する。 The photographing condition providing device 27 has a function of receiving instructions from the photographing condition adjusting device 31 of the adjusting device 30 and applying the above-described photographing conditions to the photographing device 21 . The feature extraction condition provision device 28 has a function of receiving an instruction from the matching identification condition adjustment device 32 of the adjustment device 30 and provides a feature extraction condition to the feature extraction device 22 .

調整装置30は、画像照合識別装置26から得た結果を可視化して表示装置12に表示する機能や、画像照合識別装置26からのフィードバックを受けて、撮影機器10の撮影条件や特徴抽出装置22で用いる条件やアルゴリズムなど、個体識別装置20で用いられる各種の条件、アルゴリズム、若しくはパラメータ等を調整する機能等を有する。調整装置30は、図1に示すように、撮影条件調整装置31、照合識別条件調整装置32、及び可視化装置33を有している。 The adjustment device 30 has a function of visualizing the results obtained from the image matching and identification device 26 and displaying it on the display device 12, and receiving feedback from the image matching and identification device 26, and adjusts the imaging conditions of the imaging device 10 and the feature extraction device 22. It has a function to adjust various conditions, algorithms, parameters, etc. used in the individual identification device 20, such as conditions and algorithms used in the individual identification device 20. As shown in FIG. 1, the adjustment device 30 includes a photographing condition adjustment device 31, a verification and identification condition adjustment device 32, and a visualization device 33.

撮影条件調整装置31は、画像照合識別装置26からのフィードバックを受けて自動で、又はユーザからの操作を受けて手動で撮影機器10を用いて撮影対象を撮影する際の各種条件を調整し、その条件を撮影条件付与装置27に対して指示する機能を有する。ユーザは、例えば入力装置11を操作することで、撮影条件調整装置31の処理により各種条件を調整することができる。また、撮影条件調整装置31は、特徴抽出装置22の処理により得られた特徴点の数に応じて自動で各種条件を調整する機能を有する。撮影条件調整装置31は、図7に示すように、撮影機器条件調整処理部311、撮影対象条件調整処理部312、総当たり条件生成処理部313、及び最適条件提示処理部314を有している。 The photographing condition adjustment device 31 automatically adjusts various conditions for photographing the photographing target using the photographing device 10 automatically in response to feedback from the image matching and identification device 26 or manually in response to operation from the user. It has a function of instructing the imaging condition providing device 27 about the conditions. For example, by operating the input device 11, the user can adjust various conditions through the processing of the imaging condition adjustment device 31. Further, the imaging condition adjustment device 31 has a function of automatically adjusting various conditions according to the number of feature points obtained by the processing of the feature extraction device 22. As shown in FIG. 7, the photographing condition adjustment device 31 includes a photographing equipment condition adjustment processing section 311, a photographing target condition adjustment processing section 312, a brute force condition generation processing section 313, and an optimal condition presentation processing section 314. .

撮影機器条件調整処理部311は、撮影機器条件を調整する撮影機器条件調整処理を実行可能である。撮影機器条件調整処理の実行により、主に光学機器に関する条件、例えば撮影機器10が有するカメラ101のシャッタースピードや、イメージセンサの感度、解像度、撮影範囲、焦点、照明102の輝度や光度、色彩等が調整される。撮影機器条件調整処理部311は、調整された撮影機器条件を撮影条件付与装置27に送信する。これにより、撮影装置21は、撮影機器条件調整処理部311で調整された撮影機器条件に従って撮影機器10の主にカメラ101や照明102を動作させて撮影対象を撮影する。 The imaging equipment condition adjustment processing unit 311 is capable of executing imaging equipment condition adjustment processing for adjusting imaging equipment conditions. By executing the photographing equipment condition adjustment process, the conditions mainly related to the optical equipment, such as the shutter speed of the camera 101 included in the photographing equipment 10, the sensitivity, resolution, photographing range, focus of the image sensor, the brightness and luminous intensity of the illumination 102, color, etc. is adjusted. The photographing equipment condition adjustment processing unit 311 transmits the adjusted photographing equipment conditions to the photographing condition imparting device 27. Thereby, the photographing device 21 operates mainly the camera 101 and the lighting 102 of the photographing device 10 in accordance with the photographing device conditions adjusted by the photographing device condition adjustment processing section 311 to photograph the object.

撮影対象条件調整処理部312は、撮影対象となる被写体に関する条件である撮影対象条件を調整する撮影対象条件調整処理を実行可能である。撮影対象条件調整処理の実行により、例えば被写体の姿勢つまりカメラ101や照明102に対する被写体の角度や、カメラ101や照明102と被写体との距離等が調整される。撮影対象条件調整処理部312は、調整された撮影対象条件を撮影条件付与装置27に送信する。これにより、撮影装置21は、撮影対象条件調整処理部312で調整された撮影対象条件に従って撮影機器10の主にステージ103を動作させて撮影対象を撮影する。 The photographing target condition adjustment processing unit 312 is capable of executing photographing target condition adjustment processing that adjusts photographing target conditions, which are conditions related to a subject to be photographed. By executing the photographing target condition adjustment process, for example, the posture of the subject, that is, the angle of the subject with respect to the camera 101 or the illumination 102, the distance between the camera 101 or the illumination 102, and the subject, etc. are adjusted. The photographing target condition adjustment processing section 312 transmits the adjusted photographing target conditions to the photographing condition imparting device 27. Thereby, the photographing device 21 operates mainly the stage 103 of the photographing device 10 in accordance with the photographing target conditions adjusted by the photographing target condition adjustment processing unit 312 to photograph the photographing target.

総当たり条件生成処理部313は、総当たり条件生成処理を実行可能である。総当たり条件生成処理は、予め設定された範囲内の撮影対象条件と、予め設定された範囲内の撮影機器条件と、の組み合わせを総当たりで生成する処理を含む。この場合、撮影装置21の画像取得処理部212で実行される画像取得処理は、総当たり条件生成処理で生成された全ての条件で撮影した画像を取得する処理を含む。これにより、画像取得処理部212は、異なる条件で撮影された多数の画像、つまり撮影対象条件と撮影機器条件とのそれぞれを振って撮影した多数の画像を取得することができる。 The brute force condition generation processing unit 313 is capable of executing brute force condition generation processing. The brute force condition generation process includes a process of brute force generating a combination of photographing target conditions within a preset range and photographing equipment conditions within a preset range. In this case, the image acquisition process executed by the image acquisition processing unit 212 of the photographing device 21 includes the process of acquiring images photographed under all the conditions generated in the round-robin condition generation process. Thereby, the image acquisition processing unit 212 can acquire a large number of images shot under different conditions, that is, a large number of images shot under different shooting target conditions and shooting equipment conditions.

例えば図19の例では、撮影対象条件として被写体と照明102との距離である照明距離が設定され、撮影機器条件として照明102の光量である光量設定値が設定されている。この場合、総当たり条件生成処理部313は、照明距離と光量設定値との取り得る値の全ての組み合わせを総当たりで生成する。そして、画像取得処理部212は、この総当たりの組み合わせの条件で自動で撮影して、登録画像及び識別画像を取得する。 For example, in the example of FIG. 19, the illumination distance, which is the distance between the subject and the illumination 102, is set as the photographing target condition, and the light amount setting value, which is the light amount of the illumination 102, is set as the photographing equipment condition. In this case, the brute force condition generation processing unit 313 generates all possible combinations of the illumination distance and light amount setting value by brute force. Then, the image acquisition processing unit 212 automatically captures images under the conditions of this round-robin combination, and acquires a registered image and an identification image.

最適条件提示処理部314は、最適条件提示処理を実行可能である。最適条件提示処理は、総当たり条件生成処理で生成された全ての条件で撮影した登録画像と識別画像とのうち、同一の被写体を撮影した登録画像と識別画像とについて照合処理部262に照合処理を実行させ、その照合処理によって得た対応点数が多い撮影対象条件と撮影機器条件との組み合わせを最適条件としてユーザに提示する又は自動で設定する処理を含む。この場合、最適条件提示処理部314は、表示装置12に最適条件を表示しても良い。これより、ユーザは、撮影機器条件と撮影対象条件との最適な組み合わせを簡単に見つけて設定することができる。 The optimal condition presentation processing unit 314 can execute optimal condition presentation processing. In the optimal condition presentation process, the matching processing unit 262 performs a matching process on the registered images and identification images taken of the same subject among the registered images and identification images taken under all the conditions generated in the round-robin condition generation process. The combination of the photographing target condition and the photographing equipment condition that has a large number of corresponding points obtained through the matching process is presented to the user as the optimum condition, or is automatically set. In this case, the optimal condition presentation processing section 314 may display the optimal conditions on the display device 12. This allows the user to easily find and set the optimal combination of the imaging equipment conditions and the imaging target conditions.

例えば登録画像と識別画像とが、同一の被写体を図19に示す条件で撮影されたものである場合、最適条件提示処理部314は、それぞれの画像の対応点数から例えば図20に示すグラフ、この場合、横軸に光量設定値つまりLuxをとり、縦軸に対応点数をとったグラフを生成する。そして、最適条件提示処理部314は、このグラフから、登録画像と識別画像との対応点数が多く、かつ、ロバスト性が高い条件の組み合わせを見つける。この場合、照明距離1のA1のグラフの頂点の光量設定値が、対応点数が多くかつ最もロバスト性が高いことがわかる。そのため、この場合、最適条件提示処理部314は、照明距離1と照明距離1におけるA1のグラフの頂点の光量設定値を撮影対象条件と撮影機器条件との組み合わせの最適条件として提示する。このようにして、最適条件提示処理部314は、撮影対象条件と撮影機器条件との最適な組み合わせをユーザに提示する。なお、最適条件提示処理部314は、対応点数が多くかつロバスト性が高い条件の候補をいくつか選択し、これらの条件をおすすめ条件としてユーザに提示することもできる。また、最適条件提示処理部314は、図20に示すグラフを表示装置12に表示させる処理を行っても良い。 For example, when the registered image and the identification image are images of the same subject taken under the conditions shown in FIG. 19, the optimal condition presentation processing unit 314 calculates the graph shown in FIG. In this case, a graph is generated in which the horizontal axis represents the light intensity setting value, ie, Lux, and the vertical axis represents the number of corresponding points. Then, the optimal condition presentation processing unit 314 finds a combination of conditions that has a large number of correspondence points between the registered image and the identified image and has high robustness from this graph. In this case, it can be seen that the light intensity setting value at the apex of the graph of A1 with illumination distance of 1 has a large number of corresponding points and has the highest robustness. Therefore, in this case, the optimal condition presentation processing unit 314 presents the light amount setting value at the apex of the graph of A1 at illumination distance 1 and illumination distance 1 as the optimal condition for the combination of the photographing target condition and the photographing equipment condition. In this way, the optimal condition presentation processing unit 314 presents the user with the optimal combination of the imaging target conditions and the imaging equipment conditions. Note that the optimal condition presentation processing unit 314 can also select some candidate conditions with a large number of corresponding points and high robustness, and present these conditions to the user as recommended conditions. Further, the optimal condition presentation processing unit 314 may perform a process of displaying the graph shown in FIG. 20 on the display device 12.

最適条件提示処理は、特徴点抽出処理に関する条件である特徴抽出条件を予め複数準備し、総当たり条件生成処理で生成された全ての条件で同一の撮影した登録画像及び識別画像について、予め準備した複数の特徴抽出条件で特徴点抽出処理を実行して得られた特徴点を用いて照合処理を実行して得られる対応点数が最も多くなる条件の組み合わせ提示する処理を含む。これにより、ユーザは、特徴抽出条件を含めて撮影機器条件と撮影対象条件との最適な組み合わせを簡単に見つけて設定することができる。 In the optimal condition presentation process, multiple feature extraction conditions, which are conditions related to the feature point extraction process, are prepared in advance, and registered images and identification images taken that are the same under all conditions generated in the round-robin condition generation process are prepared in advance. It includes a process of presenting a combination of conditions that will result in the largest number of corresponding points obtained by executing a matching process using feature points obtained by executing a feature point extraction process under a plurality of feature extraction conditions. Thereby, the user can easily find and set the optimal combination of the imaging equipment conditions and the imaging target conditions, including the feature extraction conditions.

照合識別条件調整装置32は、画像照合識別装置26の検索処理部261及び照合処理部262で用いられる照合識別アルゴリズムのパラメータのチューニングを行う機能を有する。照合識別条件調整装置32は、画像照合識別装置26からのフィードバックを受けて自動で、又はユーザからの操作を受けて手動で、特徴抽出装置22や画像照合識別装置26の処理で用いる条件やパラメータ等を調整し、その条件やパラメータを特徴抽出装置22や画像照合識別装置26に指示する機能を有する。本実施形態の場合、照合識別条件調整装置32は、記録装置24の評価用画像登録部242に登録されている評価用画像を用いて画像照合識別装置26の照合処理部262で照合を行い、その照合結果この場合対応点数に応じて条件やパラメータを調整する。 The matching identification condition adjustment device 32 has a function of tuning the parameters of the matching identification algorithm used in the search processing section 261 and the matching processing section 262 of the image matching and identification device 26. The matching and identification condition adjustment device 32 adjusts the conditions and parameters used in the processing of the feature extraction device 22 and the image matching and identification device 26 automatically in response to feedback from the image matching and identification device 26 or manually in response to operation from the user. etc., and instructs the feature extraction device 22 and the image matching and identification device 26 about the conditions and parameters. In the case of this embodiment, the matching identification condition adjustment device 32 performs matching in the matching processing section 262 of the image matching and identification device 26 using the evaluation image registered in the evaluation image registration section 242 of the recording device 24, In this case, the conditions and parameters are adjusted according to the matching result.

ユーザは、例えば入力装置11を操作して照合識別条件調整装置32における処理を実行することで、特徴抽出装置22や画像照合識別装置26で用いる条件やパラメータを調整することができる。照合識別条件調整装置32は、図9に示すように、特徴抽出条件調整処理部321、大域特徴量辞書設定処理部322、大域特徴量相関係数計算処理部323、パラメータセット生成処理部324、及びパラメータセット設定処理部325を有している。 The user can adjust the conditions and parameters used by the feature extraction device 22 and the image matching and identification device 26 by operating the input device 11 and executing processing in the matching and identification condition adjustment device 32, for example. As shown in FIG. 9, the matching identification condition adjustment device 32 includes a feature extraction condition adjustment processing section 321, a global feature dictionary setting processing section 322, a global feature correlation coefficient calculation processing section 323, a parameter set generation processing section 324, and a parameter set setting processing section 325.

特徴抽出条件調整処理部321は、特徴抽出条件調整処理を実行可能である。特徴抽出条件調整処理は、特徴点抽出処理部221における特徴点抽出処理又は局所特徴量計算処理部222における局所特徴量計算処理で用いる特徴抽出条件を調整する処理を含む。ユーザは、入力装置11を操作して、特徴点を抽出し局所特徴量を計算する際のピラミッド画像の段数、及びコーナーやカーブらしさを決定するための閾値等の特徴抽出条件を調整し設定することができる。 The feature extraction condition adjustment processing unit 321 can execute feature extraction condition adjustment processing. The feature extraction condition adjustment processing includes processing for adjusting feature extraction conditions used in the feature point extraction processing in the feature point extraction processing section 221 or the local feature amount calculation processing in the local feature amount calculation processing section 222. The user operates the input device 11 to adjust and set feature extraction conditions such as the number of stages of the pyramid image when extracting feature points and calculating local feature amounts, and thresholds for determining the likeness of corners and curves. be able to.

特徴抽出条件調整処理は、画像照合識別装置26の照合処理部262における照合処理の結果に基づき、局所特徴量計算処理による特徴抽出条件について正対応点数と負対応点数との比が最も大きくなるように調整する処理を含んでいる。本実施形態において、正対応点とは、図18(A)に示すように、記録装置24の評価用画像登録部242に登録されている登録画像群のうち識別画像の被写体と同一の被写体を撮影した登録画像と、識別画像と、の対応点を意味する。そして、正対応点数とは、正対応点の数を意味する。図18(A)の例では、登録画像に写っている被写体S1と識別画像に写っている被写体S1は同一である。 The feature extraction condition adjustment process is based on the result of the matching process in the matching processing unit 262 of the image matching and identification device 26, so that the ratio between the number of positive correspondence points and the number of negative correspondence points is maximized for the feature extraction condition by the local feature amount calculation process. It includes processing to adjust to. In this embodiment, as shown in FIG. 18(A), the correct corresponding point refers to the same subject as the subject of the identification image among the registered images registered in the evaluation image registration unit 242 of the recording device 24. It means the corresponding point between the photographed registered image and the identification image. The number of correct corresponding points means the number of correct corresponding points. In the example of FIG. 18A, the subject S1 shown in the registration image and the subject S1 shown in the identification image are the same.

また、負対応点とは、図18(B)に示すように、記録装置24の評価用画像登録部242に登録されている登録画像群のうち識別画像の被写体と異なる被写体を撮影した登録画像と、識別画像との対応点を意味する。そして、負対応点数とは、負対応点の数を意味する。図18(B)の例では、登録画像に写っている被写体S2と識別画像に写っている被写体S1とは異なるものである。 Further, as shown in FIG. 18(B), a negative corresponding point is a registered image obtained by photographing a subject different from the subject of the identification image among the registered image group registered in the evaluation image registration unit 242 of the recording device 24. means the corresponding point with the identification image. The number of negative corresponding points means the number of negative corresponding points. In the example of FIG. 18(B), the subject S2 shown in the registration image and the subject S1 shown in the identification image are different.

大域特徴量辞書設定処理部322は、大域特徴量辞書設定処理を実行可能である。大域特徴量辞書設定処理は、大域特徴量計算統計情報ごとにスコアを計算して、そのスコアが高いものを、局所特徴量群分類処理部223の局所特徴量群分類処理で用いる大域特徴量辞書として自動で設定する処理を含む。大域特徴量計算統計情報とは、大域特徴量計算処理により大域特徴量を計算する過程、すなわち局所特徴量群分類処理部223における局所特徴量群分類処理の過程で得られる統計情報であり、局所特徴量と相関が高い辞書情報に投票して得たヒストグラム又は相関値の統計量のスコアで表すことができる。特定の辞書情報が選ばれる回数等の統計情報によるスコアが高い辞書情報は性能が高いと考えられる。大域特徴量辞書設定処理によれば、そのような性能が高い辞書情報を有する大域特徴量辞書を自動で選択することができる。 The global feature dictionary setting processing unit 322 can execute global feature dictionary setting processing. In the global feature dictionary setting process, a score is calculated for each piece of global feature calculation statistical information, and the global feature dictionary that has the highest score is used in the local feature group classification process of the local feature group classification processing unit 223. This includes the process of automatically setting the . Global feature calculation statistical information is statistical information obtained in the process of calculating global features by global feature calculation processing, that is, in the process of local feature group classification processing in the local feature group classification processing unit 223. It can be expressed by a histogram obtained by voting on dictionary information that has a high correlation with the feature amount or by a score of statistics of correlation values. Dictionary information with a high score based on statistical information such as the number of times specific dictionary information is selected is considered to have high performance. According to the global feature dictionary setting process, a global feature dictionary having such dictionary information with high performance can be automatically selected.

大域特徴量辞書設定処理は、大域特徴量辞書登録部245に登録されている複数の大域特徴量辞書のうち、大域特徴量相関係数に基づき、同一の被写体を撮影した登録画像と識別画像とを同一であると判断し、異なる被写体を撮影した登録画像と識別画像とを同一でないと判断できる大域特徴量辞書を選択して、局所特徴量群分類処理に用いる大域特徴量辞書に設定する処理を含む。 The global feature dictionary setting process selects registered images and identification images of the same subject based on global feature correlation coefficients among a plurality of global feature dictionaries registered in the global feature dictionary registration unit 245. is the same, and selects a global feature dictionary that can determine that the registered image taken of a different subject and the identified image are not the same, and sets it as the global feature dictionary used for local feature group classification processing. including.

大域特徴量相関係数は、登録画像と識別画像とにおける大域特徴量の一致度つまり性能を示す一つの指標となる。2つの画像間における大域特徴量の相関が大きいほど、両者の画像に同一の被写体が含まれている可能性が高いことを意味する。そのため、同一の被写体を撮影した画像間における大域特徴量の相関が大きいということは、その同一の被写体を撮影した画像についてその大域特徴量辞書を使って計算した大域特徴量の一致度が高いことを意味する。すなわちこれは、同一の被写体を撮影した画像間においてその大域特徴量辞書の性能が高いことを意味する。 The global feature correlation coefficient serves as one index that indicates the degree of matching between the global feature amounts between the registered image and the identified image, that is, the performance. The greater the correlation between the global feature amounts between two images, the higher the possibility that the same subject is included in both images. Therefore, a high correlation of global features between images taken of the same subject means that the degree of agreement between the global features calculated using the global feature dictionary for images taken of the same subject is high. means. In other words, this means that the performance of the global feature dictionary is high among images taken of the same subject.

一方、2つの画像間における大域特徴量の相関が小さいほど、両者の画像に含まれる被写体が異なる可能性が高いことを意味する。そのため、異なる被写体を撮影した画像間における大域特徴量の相関が小さいということは、その異なる被写体を撮影した画像についてその大域特徴量辞書を使って計算した大域特徴量の一致度が低いことを意味する。すなわちこれは、異なる被写体を撮影した画像間においてその大域特徴量辞書の性能が高いことを意味する。 On the other hand, the smaller the correlation between the global feature amounts between two images, the higher the possibility that the subjects included in the two images are different. Therefore, a low correlation of global features between images of different subjects means that the degree of agreement between the global features calculated using the global feature dictionary for images of different subjects is low. do. In other words, this means that the performance of the global feature dictionary is high between images taken of different subjects.

大域特徴量辞書設定処理は、例えば次のようにして大域特徴量相関係数を計算し、その大域特徴量相関係数に基づいて大域特徴量辞書の性能を判断することができる。すなわち、大域特徴量辞書設定処理は、2つの大域特徴量がベクトルVであるとき、それぞれの絶対値を1に正規化し内積をとった値であって当該内積の値が1に近いものについて同一性が高いと判断し、当該内積の値が-1に近いものについて同一性が低いと判断する。 In the global feature dictionary setting process, for example, a global feature correlation coefficient is calculated as follows, and the performance of the global feature dictionary can be determined based on the global feature correlation coefficient. In other words, in the global feature dictionary setting process, when two global features are vectors V, the absolute value of each is normalized to 1 and the inner product is taken, and the value of the inner product is close to 1. If the value of the inner product is close to -1, it is determined that the identity is low.

この場合、例えば2つの大域特徴量のうち1つの大域特徴量ベクトルVaを次の(2)式とし、正規化された大域特徴量ベクトルVbを次の(3)式とし、dを自然数として定義する。この場合、正規化された大域特徴量ベクトルVbは、大域特徴量ベクトルVaを用いて次の(4)式で表される。そして、大域特徴量ベクトルVaを次の(5)式とすると、大域特徴量ベクトルVaの絶対値は、次の(6)式となる。

Figure 0007377161000002
In this case, for example, the global feature vector Va of one of the two global features is defined as the following equation (2), the normalized global feature vector Vb is defined as the following equation (3), and d is defined as a natural number. do. In this case, the normalized global feature vector Vb is expressed by the following equation (4) using the global feature vector Va. If the global feature vector Va is expressed by the following equation (5), then the absolute value of the global feature vector Va is expressed by the following equation (6).
Figure 0007377161000002

そして、2つの大域特徴量のうちもう1つの大域特徴量ベクトルWaを次の(7)式とすると、その内積の値は、次の(8)式となる。そして、大域特徴量辞書登録部245は、(8)式で得られた内積の値つまり大域特徴量相関係数が1に近いものについては同一性が高いつまり同一の被写体である可能性が高いと判断し、当該内積の値が-1に近いものについては同一性が低いつまり同一の被写体である可能性が低いと判断する。

Figure 0007377161000003
If the other global feature vector Wa of the two global features is given by the following equation (7), then the value of the inner product is given by the following equation (8). Then, the global feature dictionary registration unit 245 determines that if the inner product value obtained by equation (8), that is, the global feature correlation coefficient is close to 1, there is a high degree of identity, that is, there is a high possibility that the images are the same subject. If the value of the inner product is close to -1, it is determined that the identity is low, that is, the possibility that they are the same subject is low.
Figure 0007377161000003

また、大域特徴量辞書設定処理は、例えば次のようにして大域特徴量相関係数を計算し、その大域特徴量相関係数に基づいて大域特徴量辞書の性能を判断することができる。すなわち、大域特徴量相関係数は、2つの大域特徴量のベクトル間の距離の値とする。そして、大域特徴量辞書設定処理は、2つの大域特徴量のベクトル間の距離の値である大域特徴量相関係数が0に近ければ同一性が高いと判断し、大きい場合は同一性が低いと判断する。 Further, in the global feature dictionary setting process, for example, a global feature correlation coefficient can be calculated as follows, and the performance of the global feature dictionary can be determined based on the global feature correlation coefficient. That is, the global feature correlation coefficient is a value of the distance between vectors of two global features. Then, in the global feature dictionary setting process, if the global feature correlation coefficient, which is the value of the distance between two global feature vectors, is close to 0, it is determined that the identity is high, and if it is large, the identity is low. I judge that.

この場合、例えば2つのうち一方の大域特徴量ベクトルVaを上記(2)、(5)式とし、もう一方の大域特徴量ベクトルWaを上記(7)、及び下記(9)式とするとき、大域特徴量ベクトルVa、Wa間の距離は、次の(10)式で表される。

Figure 0007377161000004
In this case, for example, when one of the two global feature vectors Va is set to the above equations (2) and (5), and the other global feature vector Wa is set to the above (7) and the following equation (9), The distance between the global feature vectors Va and Wa is expressed by the following equation (10).
Figure 0007377161000004

そして、大域特徴量辞書登録部245は、(12)式で得られたベクトルVa、Wa間の距離が近いつまり0に近いものについては同一性が高いつまり同一の被写体である可能性が高いと判断し、ベクトルVa、Wa間の距離が大きいものについては同一性が低いつまり同一の被写体である可能性が低いと判断する。なお、このときそれぞれのベクトルVa、Waは必ずしも正規化されている必要はない。 Then, the global feature dictionary registration unit 245 determines that if the distance between the vectors Va and Wa obtained by equation (12) is close, that is, close to 0, the identity is high, that is, there is a high possibility that they are the same subject. If the distance between the vectors Va and Wa is large, it is determined that the identity is low, that is, the possibility that they are the same subject is low. Note that at this time, the respective vectors Va and Wa do not necessarily need to be normalized.

大域特徴量相関係数計算処理部323は、大域特徴量相関係数計算処理を実行可能である。大域特徴量相関係数計算処理は、各登録画像の大域特徴量と識別画像の大域特徴量とを比較し、その相関関係を示す大域特徴量相関係数を計算する処理を含む。例えば、大域特徴量相関係数計算処理は、各登録画像の大域特徴量と識別画像の大域特徴量とのヒストグラムを比較して大域特徴量相関係数を計算することができる。 The global feature correlation coefficient calculation processing unit 323 is capable of executing global feature correlation coefficient calculation processing. The global feature correlation coefficient calculation process includes processing that compares the global feature of each registered image with the global feature of the identified image, and calculates a global feature correlation coefficient that indicates the correlation between them. For example, in the global feature correlation coefficient calculation process, the global feature correlation coefficient can be calculated by comparing the histograms of the global feature of each registered image and the global feature of the identified image.

パラメータセット生成処理部324は、パラメータセット生成処理を実行可能である。パラメータセット生成処理は、例えば図17に示すように、画像照合識別装置26の照合処理部262で実行される照合処理の条件を設定するためのパラメータについて、各パラメータに定められた設定範囲内の設定値に設定された各パラメータを組み合わせて複数のパラメータセットを生成する処理を含む。本実施形態の場合、パラメータセット生成処理は、各パラメータの設定値の全ての組み合わせについてのパラメータセットを生成する。 The parameter set generation processing unit 324 can execute parameter set generation processing. For example, as shown in FIG. 17, the parameter set generation process includes setting parameters for setting the conditions for the matching process executed by the matching processing unit 262 of the image matching and identification device 26 within the setting range defined for each parameter. It includes a process of generating a plurality of parameter sets by combining each parameter set as a setting value. In the case of this embodiment, the parameter set generation process generates parameter sets for all combinations of setting values of each parameter.

パラメータセット設定処理部325は、パラメータセット設定処理を実行可能である。パラメータセット設定処理は、ユーザの操作に基づいて、検索処理部261の検索処理で使用するパラメータセットを設定する処理を含む。ユーザは、例えば入力装置11を操作して、検索処理部261の検索処理で使用するパラメータセットを設定することができる。 The parameter set setting processing unit 325 can execute parameter set setting processing. The parameter set setting process includes a process of setting a parameter set to be used in the search process by the search processing unit 261 based on the user's operation. The user can, for example, operate the input device 11 to set a parameter set to be used in the search processing by the search processing unit 261.

可視化装置33は、画像照合識別装置26から受けた情報や、撮影条件調整装置31及び照合識別条件調整装置32の調整結果に関する情報等の各種の情報を可視化して表示装置12に表示する機能を有する。本実施形態において可視化とは、データを文字や数値だけでなく図形やグラフ等にして表示装置12に表示することを含む。可視化装置33は、図10に示すように、特徴点表示処理部331、大域特徴量計算統計情報表示処理部332、照合結果表示処理部333、及び条件表示処理部334を有している。 The visualization device 33 has a function of visualizing and displaying various information on the display device 12, such as information received from the image matching and identification device 26 and information regarding the adjustment results of the imaging condition adjustment device 31 and the matching and identification condition adjustment device 32. have In this embodiment, visualization includes displaying data on the display device 12 not only as characters and numbers but also as figures, graphs, and the like. As shown in FIG. 10, the visualization device 33 includes a feature point display processing section 331, a global feature calculation statistical information display processing section 332, a matching result display processing section 333, and a condition display processing section 334.

特徴点表示処理部331は、特徴点表示処理を実行可能である。特徴点表示処理は、撮影条件調整装置31や照合識別条件調整装置32により各種の条件やパラメータを調整する際に実行することができる。特徴点表示処理は、例えば図21(A)に示すように、特徴抽出装置22の特徴点抽出処理部221における特徴点抽出処理の実行により抽出した各特徴点Pを、画像に重ねて表示装置12に表示する処理を含む。すなわち、画像中の被写体S上に特徴点Pが重ねて表示される。これにより、ユーザは、画像中の被写体Sのどこを特徴点として抽出されているかを視認することができる。また、特徴点表示処理は、図21(A)に示すように、局所特徴量が属する局所特徴量群ごとに、この場合、各特徴点Pがクラスタリングされて当てはめられた辞書情報dごとに異なる態様、例えば異なる色や大きさ、形状で各特徴点Pを表示装置12に表示する処理を含む。図21では、各特徴点Pの色彩の違いを濃淡の違いで表している。 The feature point display processing unit 331 can execute feature point display processing. The feature point display process can be executed when various conditions and parameters are adjusted by the photographing condition adjustment device 31 and the verification and identification condition adjustment device 32. In the feature point display process, for example, as shown in FIG. 12. That is, the feature point P is displayed superimposed on the subject S in the image. This allows the user to visually recognize where on the subject S in the image has been extracted as a feature point. In addition, as shown in FIG. 21A, the feature point display processing differs for each local feature group to which the local feature belongs, in this case, for each dictionary information d to which each feature point P is clustered and applied. It includes a process of displaying each feature point P on the display device 12 in a different manner, for example, in a different color, size, or shape. In FIG. 21, the difference in color of each feature point P is expressed by the difference in shading.

大域特徴量計算統計情報表示処理部332は、大域特徴量計算統計情報表示処理を実行可能である。大域特徴量計算統計情報表示処理は、撮影条件調整装置31や照合識別条件調整装置32により各種の条件やパラメータを調整する際に実行することができる。大域特徴量計算統計情報表示処理は、大域特徴量計算統計情報を表示装置12に表示する処理を含む。大域特徴量計算統計情報は、特徴抽出装置22の大域特徴量計算処理部224で実行される大域特徴量計算処理により大域特徴量を計算する過程で得られる統計情報である。大域特徴量計算統計情報表示処理は、図21(B)に示すように、各局所特徴量Aと相関が高い辞書情報dに投票して得たヒストグラム又は相関値の統計量のスコアを、大域特徴量計算統計情報Gとして表示装置12に表示する処理を含む。すなわち、大域特徴量計算統計情報Gは、大域特徴量計算処理の実行過程で得られる大域特徴量のヒストグラム又は相関値の統計量のスコアとすることができる。 The global feature calculation statistical information display processing unit 332 can execute global feature calculation statistical information display processing. The global feature value calculation statistical information display process can be executed when adjusting various conditions and parameters by the imaging condition adjustment device 31 and the matching identification condition adjustment device 32. The global feature calculation statistical information display process includes processing to display global feature calculation statistical information on the display device 12. The global feature amount calculation statistical information is statistical information obtained in the process of calculating a global feature amount by the global feature amount calculation process executed by the global feature amount calculation processing unit 224 of the feature extraction device 22. As shown in FIG. 21(B), the global feature calculation statistical information display process uses the histogram or correlation value statistics scores obtained by voting on the dictionary information d that has a high correlation with each local feature A. This includes a process of displaying the feature amount calculation statistical information G on the display device 12. That is, the global feature amount calculation statistical information G can be a histogram of global feature amounts or a score of statistics of correlation values obtained in the execution process of global feature amount calculation processing.

照合結果表示処理部333は、照合結果表示処理を実行可能である。照合結果表示処理は、撮影条件調整装置31や照合識別条件調整装置32により各種の条件やパラメータを調整する際に実行することができる。照合結果表示処理は、画像照合識別装置26の照合処理部262で実行された複数の照合処理の結果をまとめて可視化して表示装置12に表示する処理を含む。 The matching result display processing unit 333 can execute matching result display processing. The matching result display process can be executed when various conditions and parameters are adjusted by the imaging condition adjusting device 31 and the matching identification condition adjusting device 32. The matching result display process includes processing for collectively visualizing the results of a plurality of matching processes executed by the matching processing section 262 of the image matching and identification device 26 and displaying the results on the display device 12.

照合結果表示処理は、例えば図17に示す各パラメータセットを用いて照合処理を実行した照合結果を、図22に示すようにグラフ化して表示する処理を含む。この場合、照合結果表示処理部333は、同一の被写体の画像同士だけでなく、異なる被写体の画像同士についても照合処理を行う。そして、照合結果表示処理部333は、同一の被写体を撮影した画像間の対応点数である正対応点数と、異なる被写体を撮影した画像間の対応点数である負対応点数をそれぞれ計算してグラフ化して、表示装置12に表示する。図22のグラフは、横軸に条件Noをとり、縦軸に対応点数をとったものである。また、図22のうち、F1は正対応点数のグラフを示し、F2は負対応点数のグラフを示す。図22の例では、条件No.Nが最も正対応点数が多くかつ負対応点数が少ないことがわかる。これにより、ユーザは、正対応点数の多くかつ負対応点数が少ない条件Noつまり性能が良い条件Noを一見して把握することができる。 The matching result display process includes a process of displaying the matching results obtained by executing the matching process using each parameter set shown in FIG. 17 in a graph as shown in FIG. 22, for example. In this case, the matching result display processing unit 333 performs matching processing not only between images of the same subject but also between images of different subjects. Then, the matching result display processing unit 333 calculates the number of positive correspondence points, which is the number of correspondences between images taken of the same subject, and the number of negative correspondences, which is the number of correspondences between images taken of different subjects, and graphs them. and display it on the display device 12. In the graph of FIG. 22, the horizontal axis represents the condition number, and the vertical axis represents the number of corresponding points. Further, in FIG. 22, F1 shows a graph of the number of positive corresponding points, and F2 shows a graph of the number of negative corresponding points. In the example of FIG. 22, condition No. It can be seen that N has the largest number of positive corresponding points and the smallest number of negative corresponding points. Thereby, the user can grasp at a glance the condition number with a large number of positive corresponding points and a small number of negative corresponding points, that is, the condition number with good performance.

また、照合結果表示処理は、画像照合識別装置26の照合処理部262において照合処理を実行した際に、照合に用いた識別画像の対応点数評価情報を表示装置12に表示する処理を含む。対応点数評価情報は、照合処理で計算した対応点数に基づく情報であり、例えば対応点数そのままの数値でも良いし、例えば複数段階のレベルやスコアとすることもできる。 Further, the matching result display process includes a process of displaying, on the display device 12, the corresponding score evaluation information of the identification image used for matching when the matching processing unit 262 of the image matching and identification device 26 executes the matching process. The corresponding score evaluation information is information based on the corresponding score calculated in the matching process, and may be, for example, a numerical value of the corresponding score as it is, or may be, for example, a plurality of levels or scores.

この場合、照合結果表示処理部333は、例えば図23に示すように、表示装置12の画面上に、登録画像表示部51、真値画像表示領域52、偽値画像表示領域53、真値画像評価情報表示領域541、真値画像相関情報表示領域542、偽値画像評価情報表示領域551、及び偽値画像相関情報表示領域552を表示させる。登録画像表示部51には、照合処理を行う画像のうち、記録装置24の評価用画像登録部242に登録されている登録画像群の中の1つが表示される。 In this case, the matching result display processing section 333 displays the registered image display section 51, true value image display area 52, false value image display area 53, true value image on the screen of the display device 12, as shown in FIG. 23, for example. An evaluation information display area 541, a true value image correlation information display area 542, a false value image evaluation information display area 551, and a false value image correlation information display area 552 are displayed. The registered image display section 51 displays one of the registered images registered in the evaluation image registration section 242 of the recording device 24 among the images to be subjected to the matching process.

真値画像表示領域52には、照合処理を行う画像のうち、記録装置24の評価用画像登録部242に登録されている識別画像であって、登録画像表示部51に表示されている画像の被写体と同一の被写体を異なる条件で撮影した画像が表示される。図23の例では、登録画像表示部51に表示されている画像の被写体S1と、真値画像表示領域52に表示されている画像の被写体S1とは、同一の個体である。本実施形態においては、登録画像表示部51に表示されている画像の被写体と同一の被写体を異なる条件で撮影した画像を、真値画像と称する。この場合、同一の被写体を撮影した登録画像と識別画像とは相互に紐付けされた状態つまりペアを組んだ状態で評価用画像登録部242に登録されている。つまり、照合結果表示処理部333は、登録画像と識別画像との紐付けを識別することで、同一の被写体を撮影したものか異なる被写体を撮影したものかを認識することができる。 The true value image display area 52 displays identification images that are registered in the evaluation image registration section 242 of the recording device 24 and that are displayed on the registered image display section 51 among the images to be subjected to the matching process. Images of the same subject taken under different conditions are displayed. In the example of FIG. 23, the subject S1 of the image displayed in the registered image display section 51 and the subject S1 of the image displayed in the true value image display area 52 are the same individual. In this embodiment, an image obtained by photographing the same subject as the subject of the image displayed on the registered image display section 51 under different conditions is referred to as a true value image. In this case, the registered image and the identification image taken of the same subject are registered in the evaluation image registration unit 242 in a mutually linked state, that is, in a paired state. In other words, the matching result display processing unit 333 can recognize whether the images are of the same subject or different subjects by identifying the association between the registered image and the identification image.

そして、偽値画像表示領域53には、照合処理を行う画像のうち、記録装置24の評価用画像登録部242に登録されている識別画像であって、登録画像表示部51に表示されている画像の被写体と異なる被写体を異なる条件で撮影した画像が表示される。図23の例では、登録画像表示部51に表示されている画像の被写体S1と、真値画像表示領域52に表示されている画像の被写体S2とは、異なる個体である。本実施形態においては、登録画像表示部51に表示されている画像の被写体と異なる被写体を撮影した画像を、偽値画像と称する。 The false value image display area 53 displays identification images that are registered in the evaluation image registration section 242 of the recording device 24 and are displayed on the registered image display section 51 among the images to be subjected to the matching process. Images taken of subjects different from the subject of the image under different conditions are displayed. In the example of FIG. 23, the subject S1 of the image displayed on the registered image display section 51 and the subject S2 of the image displayed on the true value image display area 52 are different individuals. In this embodiment, an image obtained by photographing a subject different from the subject of the image displayed on the registered image display section 51 is referred to as a false value image.

また、真値画像評価情報表示領域541には、登録画像表示部51に表示されている画像と、真値画像表示領域52に表示されている画像とで照合処理を行った結果、つまり真値画像の対応点数評価情報が表示される。また、偽値画像評価情報表示領域551には、登録画像表示部51に表示されている画像と、偽値画像表示領域53に表示されている画像とで照合処理を行った結果、つまり偽値画像の対応点数評価情報が表示される。 The true value image evaluation information display area 541 also displays the result of the comparison process between the image displayed in the registered image display section 51 and the image displayed in the true value image display area 52, that is, the true value. Corresponding score evaluation information for the image is displayed. In addition, the false value image evaluation information display area 551 displays the result of the comparison process between the image displayed in the registered image display section 51 and the image displayed in the false value image display area 53, that is, the false value. Corresponding score evaluation information for the image is displayed.

照合結果表示処理は、大域特徴量相関係数に基づく情報を表示装置12に表示する処理を含む。この場合、真値画像相関情報表示領域542には、登録画像表示部51に表示されている登録画像から計算した大域特徴量と、真値画像表示領域52に表示されている真値画像のから計算した大域特徴量との相関係数が表示される。そして、偽値画像相関情報表示領域552には、登録画像表示部51に表示されている登録画像から計算した大域特徴量と、偽値画像表示領域53に表示されている偽値画像から計算した大域特徴量とを比較して得た相関係数が表示される。 The matching result display process includes a process of displaying information based on the global feature correlation coefficient on the display device 12. In this case, the true value image correlation information display area 542 displays the global feature amount calculated from the registered image displayed on the registered image display section 51 and the value of the true value image displayed on the true value image display area 52. The correlation coefficient with the calculated global feature amount is displayed. The false value image correlation information display area 552 displays the global feature amount calculated from the registered image displayed on the registered image display section 51 and the global feature amount calculated from the false value image displayed on the false value image display area 53. The correlation coefficient obtained by comparing with the global feature amount is displayed.

ユーザは、例えば入力装置11を操作して、登録画像表示部51、真値画像表示領域52、偽値画像表示領域53、真値画像評価情報表示領域541に表示する画像、つまり照合処理を行う画像を選択し、その画像について照合処理を実行する。そして、照合処理が行われると、照合結果表示処理部333は、その照合結果として、真値画像評価情報表示領域541及び偽値画像評価情報表示領域551にそれぞれ対応点数評価情報を表示するとともに、真値画像相関情報表示領域542及び偽値画像相関情報表示領域552にそれぞれ大域特徴量相関係数を表示する。これにより、ユーザは、真値画像評価情報表示領域541及び偽値画像評価情報表示領域551に表示される対応点数評価情報や、真値画像相関情報表示領域542及び偽値画像相関情報表示領域552に表示される大域特徴量相関係数に基づく情報を見ることにより、照合処理に用いた各種条件やパラメータの性能を確認することができる。この場合、大域特徴量相関係数に基づく情報とは、大域特徴量相関係数そのものの値でも良いし、大域特徴量相関係数を加工して性能を数段階で表すようなレベルやランク等としても良い。 For example, the user operates the input device 11 to perform the matching process on the images to be displayed in the registered image display section 51, true value image display area 52, false value image display area 53, and true value image evaluation information display area 541. Select an image and perform matching processing on that image. When the matching process is performed, the matching result display processing unit 333 displays the corresponding score evaluation information in the true value image evaluation information display area 541 and the false value image evaluation information display area 551 as the matching result, and The global feature correlation coefficients are displayed in the true value image correlation information display area 542 and the false value image correlation information display area 552, respectively. Thereby, the user can view the corresponding score evaluation information displayed in the true value image evaluation information display area 541 and the false value image evaluation information display area 551, as well as the corresponding score evaluation information displayed in the true value image correlation information display area 542 and the false value image correlation information display area 552. By looking at the information based on the global feature correlation coefficients displayed in , it is possible to check the performance of various conditions and parameters used in the matching process. In this case, the information based on the global feature correlation coefficient may be the value of the global feature correlation coefficient itself, or it may be the level or rank that processes the global feature correlation coefficient to express performance in several stages. It's good as well.

照合結果表示処理部333は、例えば図18に示すように、登録画像と識別画像の正対応点数又は負対応点数を表示装置12に表示させても良い。また、照合結果表示処理部333は、例えば登録画像と識別画像とで、個々の画像がそれぞれ固有に有している特徴点と、共通に有している特徴点とを切り分けて表示しても良い。この場合、照合結果表示処理部333は、個々の画像が固有に有している特徴点と、共通に有している特徴点のその数や割合を表示するようにしても良い。そして、照合結果表示処理部333は、登録画像及び識別画像のみ表示するモードと、例えば登録画像及び識別画像に特徴点を加えて表示するモードと、登録画像及び識別画像に特徴点と対応点を加えて表示するモードと、を任意に切り替えるようにしても良い。 The matching result display processing unit 333 may cause the display device 12 to display the number of positive correspondence points or the number of negative correspondence points between the registered image and the identification image, as shown in FIG. 18, for example. Further, the matching result display processing unit 333 may separate and display the feature points that each individual image has uniquely and the feature points that they have in common, for example, between the registered image and the identification image. good. In this case, the matching result display processing unit 333 may display the number and proportion of feature points unique to each image and feature points common to each image. The matching result display processing unit 333 then selects a mode in which only the registered image and the identified image are displayed, a mode in which feature points are added to the registered image and the identified image, and a mode in which feature points and corresponding points are displayed in the registered image and the identified image. In addition, the display mode may be arbitrarily switched.

ここで、工業製品等のように同一の工程で製造された部品は、人の顔や指紋等の生態認証に比べて個体間の特徴の差が極めて小さい。そのため、個体表面に表れる多数の特徴を照合する必要があるため、計算量が多く識別に時間がかかり、そして識別対象の母数が増えるほど計算量は爆発的に増える。 Here, for parts manufactured in the same process, such as industrial products, differences in characteristics between individuals are extremely small compared to biometric authentication such as a human face or fingerprint. Therefore, it is necessary to match a large number of features that appear on the surface of an individual, which requires a large amount of calculation and takes time to perform identification.The amount of calculation increases explosively as the population of objects to be identified increases.

これに対し、個体識別システム1は、画像取得処理部212、特徴点抽出処理部221、局所特徴量計算処理部222、局所特徴量群分類処理部223、検索対象画像登録処理部231、大域特徴量登録処理部234、絞り込み処理部2611、及び特定処理部2612を備える。画像取得処理部212は、撮影機器10によって撮影した被写体の画像を取得する画像取得処理を実行可能である。特徴点抽出処理部221は、画像取得処理で取得した画像から特徴点を抽出する特徴点抽出処理を実行可能である。局所特徴量計算処理部222は、特徴点抽出処理で抽出された特徴点の局所特徴量を計算する局所特徴量計算処を実行可能である。 On the other hand, the individual identification system 1 includes an image acquisition processing section 212, a feature point extraction processing section 221, a local feature calculation processing section 222, a local feature group classification processing section 223, a search target image registration processing section 231, a global feature It includes an amount registration processing section 234, a narrowing down processing section 2611, and a specific processing section 2612. The image acquisition processing unit 212 is capable of executing an image acquisition process of acquiring an image of a subject photographed by the photographing device 10. The feature point extraction processing unit 221 can execute a feature point extraction process of extracting feature points from the image acquired in the image acquisition process. The local feature amount calculation processing unit 222 is capable of executing a local feature amount calculation process that calculates the local feature amount of the feature point extracted in the feature point extraction process.

局所特徴量群分類処理部223は、局所特徴量計算処理によって得られた複数の局所特徴量を当該局所特徴量の値に応じて所定数例えば64個の局所特徴量群に分類する局所特徴量群分類処理を実行可能である。大域特徴量計算処理部224は、各局所特徴量群に基づいて大域特徴量を計算する大域特徴量計算処理を実行可能である。検索対象画像登録処理部231は、予め複数の検索対象の画像を登録画像として検索対象画像登録部241に登録する検索対象画像登録処理を実行可能である。大域特徴量登録処理部234は、登録画像に係る大域特徴量を大域特徴量登録部244に登録する大域特徴量登録処理を実行可能である。絞り込み処理部2611は、例えば図15に示すように、複数の登録画像の中から識別画像が有する大域特徴量との相関が高い大域特徴量を有する所定数の登録画像を候補して絞り込む絞り込み処理を実行可能である。そして、特定処理部2612は、例えば図16に示すように、絞り込み処理によって抽出された候補の登録画像の局所特徴量と、識別画像の局所特徴量とを比較し、局所特徴量の対応点数が最も多い登録画像を特定する特定処理を実行可能である。 The local feature group classification processing unit 223 classifies the plurality of local features obtained by the local feature calculation process into a predetermined number, for example, 64 local feature groups, according to the value of the local feature. It is possible to perform group classification processing. The global feature amount calculation processing unit 224 is capable of executing global feature amount calculation processing that calculates global feature amounts based on each local feature amount group. The search target image registration processing unit 231 is capable of executing a search target image registration process of registering a plurality of search target images as registered images in the search target image registration unit 241 in advance. The global feature registration processing unit 234 is capable of executing a global feature registration process of registering the global feature related to the registered image in the global feature registration unit 244. For example, as shown in FIG. 15, the narrowing-down processing unit 2611 performs narrowing-down processing of selecting and narrowing down a predetermined number of registered images having global features highly correlated with the global features of the identified image from among a plurality of registered images. is possible. Then, as shown in FIG. 16, for example, the identification processing unit 2612 compares the local features of the candidate registered image extracted by the narrowing down process with the local features of the identified image, and determines the number of corresponding points of the local features. It is possible to perform identification processing to identify the most frequently registered images.

この構成によれば、絞り込み処理部2611は、絞り込み処理の実行により、登録画像と識別画像の大域特徴量を比較して候補となる登録画像を大まかに絞り込む。この絞り込み処理は、それぞれの画像の局所特徴量を全て対比する特定処理に比べて計算量が少なく格段に高速で処理することができるものの、精度が出にくい。そこで次に、特定処理部2612は、特定処理の実行により、絞り込まれた候補の登録画像と、識別画像の局所特徴量を対比して対象を特定する。この特定処理は、大域特徴量で比較する絞り込み処理に比べて計算量が多く時間がかかるものの、精度が良い。このように、個体識別システム1は、大域特徴量で絞り込む絞り込み処理と、局所特徴量で特定する特定処理と、の2段階の処理を実行することにより、高速でかつ高精度の検索を実現することができる。これは、登録画像の母数が増えた場合に特に効果を発揮する。 According to this configuration, the narrowing down processing unit 2611 roughly narrows down candidate registered images by comparing the global feature amounts of the registered image and the identification image by executing the narrowing down process. Although this narrowing down process requires less calculation and can be processed much faster than a specific process that compares all the local feature amounts of each image, it is difficult to achieve accuracy. Next, the identification processing unit 2612 performs identification processing to identify the target by comparing the registered images of the narrowed down candidates with the local feature amount of the identification image. Although this identification processing requires more calculations and takes more time than narrowing down processing that compares global features, it has good accuracy. In this way, the individual identification system 1 achieves high-speed and highly accurate retrieval by executing the two-step process of narrowing down using global features and specifying using local features. be able to. This is particularly effective when the number of registered images increases.

そして、個体識別システム1は、撮影機器条件調整処理部311、撮影対象条件調整処理部312、及び特徴抽出条件調整処理部321のうち少なくともいずれか1つを更に備える。撮影機器条件調整処理部311は、ユーザの操作に基づき撮影機器10に関する条件である撮影機器条件を調整する撮影機器条件調整処理を実行可能である。撮影対象条件調整処理部312は、ユーザの操作に基づき撮影対象に関する条件である撮影対象条件を調整する撮影対象条件調整処理を実行可能である。そして、特徴抽出条件調整処理部321は、ユーザの操作に基づき特徴点抽出処理に関する条件である特徴抽出条件を調整する特徴抽出条件調整処理を実行可能である。 The individual identification system 1 further includes at least one of a photographing equipment condition adjustment processing section 311, a photographing target condition adjustment processing section 312, and a feature extraction condition adjustment processing section 321. The imaging equipment condition adjustment processing unit 311 is capable of executing imaging equipment condition adjustment processing for adjusting imaging equipment conditions, which are conditions related to the imaging equipment 10, based on user operations. The photographing target condition adjustment processing unit 312 is capable of executing photographing target condition adjustment processing for adjusting photographing target conditions, which are conditions related to the photographing target, based on a user's operation. Then, the feature extraction condition adjustment processing unit 321 can execute a feature extraction condition adjustment process that adjusts the feature extraction conditions that are conditions related to the feature point extraction process based on the user's operation.

これによれば、ユーザは、撮影機器条件調整処理部311、撮影対象条件調整処理部312、及び特徴抽出条件調整処理部321の少なくとも1つを操作し、各種条件やパラメータを設定するつまりチューニングを行うことができる。その結果、例えば製造工程途中で表面模様が変化する加工が施されるようなもの、つまり画像の登録時と識別時とで表面模様が変化する場合であっても柔軟に対応でき、高速で精度良く識別することができる。 According to this, the user operates at least one of the imaging equipment condition adjustment processing section 311, the imaging target condition adjustment processing section 312, and the feature extraction condition adjustment processing section 321 to set various conditions and parameters, that is, perform tuning. It can be carried out. As a result, even if the surface pattern changes during the manufacturing process, for example, when the surface pattern changes between the time of image registration and the time of identification, it can be handled flexibly, at high speed, and with precision. Can be well identified.

個体識別システム1は、大域特徴量辞書生成処理部251を備える。大域特徴量辞書生成処理部251は、予め取得した複数の学習用画像から得た各局所特徴量群のそれぞれの代表値を辞書情報に持つ大域特徴量辞書を生成する大域特徴量辞書生成処理を実行可能である。そして、大域特徴量計算処理は、各局所特徴量と相関が高い辞書情報に投票して得たヒストグラムを大域特徴量として計算する処理を含む。また、大域特徴量計算処理は、各局所特徴量と相関が高い辞書情報である代表値との差分ベクトルを総和したベクトルを代表値の数だけ計算しそれらをつなげたベクトルを大域特徴量として計算する処理を含んでいても良い。 The individual identification system 1 includes a global feature dictionary generation processing section 251. The global feature dictionary generation processing unit 251 performs global feature dictionary generation processing that generates a global feature dictionary whose dictionary information includes representative values of each local feature group obtained from a plurality of training images acquired in advance. It is doable. The global feature amount calculation process includes processing to calculate a histogram obtained by voting on dictionary information having a high correlation with each local feature amount as a global feature amount. In addition, the global feature calculation process calculates the sum of the difference vectors between each local feature and the representative value, which is dictionary information with a high correlation, for the number of representative values, and then calculates the vector that connects them as the global feature. It may also include processing to do so.

すなわち、被写体の種類や状態によっては、どのような箇所を特徴点として抽出されるかが変わってくるため、画像から得られた局所特徴量を単純に分類して大域特徴量を計算しただけでは、大域特徴量の性能が低い、つまり識別能力が低い可能性がある。これに対し、本構成によれば、被写体に適した辞書情報を有する大域特徴量辞書を用いることで、被写体の種類や状態が変わっても、性能の良い大域特徴量を得ることができ、その結果、絞り込み処理の精度を上げることができる。 In other words, the locations extracted as feature points vary depending on the type and condition of the subject, so it is not enough to simply classify the local features obtained from the image and calculate the global features. , the performance of global features may be low, that is, the discrimination ability may be low. In contrast, according to this configuration, by using a global feature dictionary that has dictionary information suitable for the subject, it is possible to obtain global features with good performance even if the type or state of the subject changes. As a result, the precision of the narrowing down process can be improved.

また、本構成において、大域特徴量辞書生成処理は、局所特徴量群のセントロイドを代表値として辞書情報に設定する処理を含む。局所特徴量群のセントロイドは、その局所特徴量群を代表するものである。このため、局所特徴量群のセントロイドを代表値として辞書情報に設定することで、性能の良い大域特徴量辞書を得ることができる。 Furthermore, in this configuration, the global feature dictionary generation process includes a process of setting the centroid of the local feature group as a representative value in the dictionary information. The centroid of a local feature group is representative of the local feature group. Therefore, by setting the centroid of the local feature group as a representative value in the dictionary information, a high-performance global feature dictionary can be obtained.

個体識別システム1は、画像取得処理部212と、特徴点抽出処理部221と、を備え、特徴点表示処理部331と、を更に備える。特徴点表示処理部331は、例えば図21に示すように、特徴点抽出処理により抽出した特徴点を画像に重ねて表示装置12に表示する特徴点表示処理を実行可能である。 The individual identification system 1 includes an image acquisition processing section 212 and a feature point extraction processing section 221, and further includes a feature point display processing section 331. The feature point display processing unit 331 is capable of executing a feature point display process in which feature points extracted by the feature point extraction process are displayed on the display device 12 by superimposing them on an image, as shown in FIG. 21, for example.

個体識別システム1は、撮影機器条件調整処理部311、撮影対象条件調整処理部312、及び特徴抽出条件調整処理部321のうち少なくともいずれか1つを備えている。撮影機器条件調整処理部311は、ユーザの操作に基づき撮影機器10に関する条件である撮影機器条件を調整する撮影機器条件調整処理を実行可能である。撮影対象条件調整処理部312は、ユーザの操作に基づき撮影対象に関する条件である撮影対象条件を調整する撮影対象条件調整処理を実行可能である。そして、特徴抽出条件調整処理部321は、ユーザの操作に基づき特徴点抽出処理に関する条件である特徴抽出条件を調整する特徴抽出条件調整処理を実行可能である。 The individual identification system 1 includes at least one of a photographing equipment condition adjustment processing section 311, a photographing target condition adjustment processing section 312, and a feature extraction condition adjustment processing section 321. The imaging equipment condition adjustment processing unit 311 is capable of executing imaging equipment condition adjustment processing for adjusting imaging equipment conditions, which are conditions related to the imaging equipment 10, based on user operations. The photographing target condition adjustment processing unit 312 is capable of executing photographing target condition adjustment processing for adjusting photographing target conditions, which are conditions related to the photographing target, based on a user's operation. Then, the feature extraction condition adjustment processing unit 321 can execute a feature extraction condition adjustment process that adjusts the feature extraction conditions that are conditions related to the feature point extraction process based on the user's operation.

例えば個体識別システム1を生産現場で使用する場合、識別の対象となる部品は、製造工程中の経時変化や熱加工等されてその表面模様の色味等が変化するものがある。このような製造工程途中で表面模様の色味等が変化する加工が施される部品においては、その加工の前後、つまり画像の登録時と識別時とで抽出される特徴点の位置や数、及び局所特徴量が大きく変わる可能性があり、その結果、識別精度が低下してしまう。 For example, when the individual identification system 1 is used at a production site, the parts to be identified may change in color, etc. of the surface pattern due to aging or heat processing during the manufacturing process. For parts that undergo processing that changes the color of the surface pattern during the manufacturing process, the positions and numbers of feature points extracted before and after the processing, that is, at the time of image registration and identification, and local feature amounts may change significantly, resulting in a decrease in identification accuracy.

これに対し、本構成によれば、特徴点抽出処理で抽出した特徴点が画像に重ねられて表示装置12に表示されるため、ユーザは、画像の中のどの箇所が特徴点として抽出されているか見て確認することができる。そして、ユーザは、製造工程を経ても表面模様の色味等が変化難くい箇所について重点的に特徴点を抽出できるように、特徴抽出条件調整処理部321、撮影対象条件調整処理部312、及び特徴抽出条件調整処理部321の少なくとも1つを操作し、抽出される特徴点の位置を確認しながら各種条件やパラメータを設定するつまりチューニングを行うことができる。その結果、製造工程途中で表面模様が変化する加工が施されるようなもの、つまり画像の登録時と識別時とで表面模様が変化する場合であっても、精度良く識別することができる。 On the other hand, according to the present configuration, the feature points extracted in the feature point extraction process are displayed on the display device 12 while being superimposed on the image. You can check to see if it is there. Then, the user selects the feature extraction condition adjustment processing unit 321, the imaging target condition adjustment processing unit 312, and At least one of the feature extraction condition adjustment processing units 321 can be operated to set various conditions and parameters, that is, to perform tuning, while checking the positions of feature points to be extracted. As a result, even if the surface pattern is processed to change during the manufacturing process, that is, the surface pattern changes between the time of image registration and the time of identification, it can be identified with high accuracy.

個体識別システム1は、局所特徴量計算処理部222と、局所特徴量群分類処理部223と、を備えている。そして、特徴点表示処理は、図21(A)に示すように、局所特徴量が属する局所特徴量群ごとに異なる態様、例えば色や大きさ、形状を異ならせた態様で特徴点を表示装置12に表示する処理を更に含む。 The individual identification system 1 includes a local feature amount calculation processing section 222 and a local feature amount group classification processing section 223. Then, as shown in FIG. 21(A), the feature point display process displays the feature points in different ways for each local feature group to which the local features belong, for example, in different colors, sizes, and shapes. 12 is further included.

これによれば、ユーザは、画像中のどこにどのような特徴点が存在しているか、一見して把握することができる。これにより、抽出された特徴点の位置を確認しながら各種条件やパラメータを設定する作業が更にやり易くなる。その結果、製造工程途中で表面模様が変化する加工が施されるようなものについて更に精度良く識別することができる。 According to this, the user can understand at a glance where and what kind of feature points are present in the image. This makes it easier to set various conditions and parameters while checking the positions of extracted feature points. As a result, it is possible to more accurately identify products that have been subjected to processing that changes the surface pattern during the manufacturing process.

個体識別システム1は、大域特徴量計算処理部224を備え、大域特徴量計算統計情報表示処理部332を更に備えている。大域特徴量計算統計情報表示処理部332は、図21(B)に示すように、大域特徴量辞書生成処理の実行による大域特徴量の計算過程において局所特徴量群分類処理の過程で得られる大域特徴量計算統計情報Gを表示装置12に表示する大域特徴量計算統計情報表示処理を実行可能である。 The individual identification system 1 includes a global feature calculation processing section 224 and further includes a global feature calculation statistical information display processing section 332. As shown in FIG. 21(B), the global feature calculation statistical information display processing unit 332 displays the global It is possible to execute a global feature calculation statistical information display process that displays the feature calculation statistical information G on the display device 12.

これによれば、ユーザは、どのような大域特徴量が得られたかが把握し易くなる。すなわち、域特徴量辞書のどの辞書情報にどのくらい投票がされたかという情報を表示することで、ユーザは、その域特徴量辞書が有する辞書情報の選ばれ方の偏り把握することができる。これにより、表示された大域特徴量計算統計情報Gを見ながら大域特徴量に関する各種条件やパラメータを設定する作業が更にやり易くなる。その結果、製造工程途中で表面模様が変化する加工が施されるようなものについて更に精度良く識別することができる。 According to this, the user can easily understand what kind of global feature amount has been obtained. That is, by displaying information on how many votes have been given to which dictionary information in the area feature dictionary, the user can grasp the bias in how the dictionary information included in the area feature dictionary is selected. This makes it easier to set various conditions and parameters regarding the global feature while looking at the displayed global feature calculation statistical information G. As a result, it is possible to more accurately identify products that have been subjected to processing that changes the surface pattern during the manufacturing process.

個体識別システム1は、大域特徴量辞書生成処理部251を更に備える。大域特徴量辞書生成処理部251は、予め取得した複数の学習用画像から得た各局所特徴量群のそれぞれの代表値を辞書情報に持つ大域特徴量辞書を生成する大域特徴量辞書生成処理を実行可能である。そして、大域特徴量計算統計情報表示処理は、図13に示すように大域特徴量の計算過程において各局所特徴量と相関が高い辞書情報dに投票して得たヒストグラム又は相関値の統計量のスコアを、図21に示すように大域特徴量計算統計情報Gとして表示装置12に表示する処理を含む。 The individual identification system 1 further includes a global feature dictionary generation processing section 251. The global feature dictionary generation processing unit 251 performs global feature dictionary generation processing that generates a global feature dictionary whose dictionary information includes representative values of each local feature group obtained from a plurality of training images acquired in advance. It is doable. Then, as shown in FIG. 13, in the global feature calculation statistical information display process, the histogram or correlation value statistics obtained by voting for the dictionary information d that has a high correlation with each local feature in the global feature calculation process. It includes a process of displaying the score on the display device 12 as global feature value calculation statistical information G as shown in FIG.

これによれば、ユーザは、大域特徴量を視覚的でかつ直感的に把握し易くなる。これにより、表示された大域特徴量計算統計情報Gを見ながら大域特徴量に関する各種条件やパラメータを設定する作業が更にやり易くなる。その結果、製造工程途中で表面模様が変化する加工が施されるようなものについて更に精度良く識別することができる。 According to this, the user can easily grasp the global feature amount visually and intuitively. This makes it easier to set various conditions and parameters regarding the global feature while looking at the displayed global feature calculation statistical information G. As a result, it is possible to more accurately identify products that have been subjected to processing that changes the surface pattern during the manufacturing process.

個体識別システム1は、大域特徴量辞書設定処理部322を更に備える。大域特徴量辞書設定処理部322は、大域特徴量計算統計情報ごとにスコアを計算して、そのスコアが高いものを局所特徴量群分類処理で用いる大域特徴量辞書として自動で設定する大域特徴量辞書設定処理を実行可能である。 The individual identification system 1 further includes a global feature dictionary setting processing section 322. The global feature dictionary setting processing unit 322 calculates a score for each piece of global feature calculation statistical information, and automatically sets the one with the highest score as the global feature dictionary to be used in the local feature group classification process. Dictionary setting processing can be executed.

これによれば、適切な大域特徴量辞書として自動で設定されるため、ユーザは、いちいち条件やパラメータを手動で調整する必要がなくなり、その結果、ユーザ利便性が向上する。 According to this, since an appropriate global feature dictionary is automatically set, the user does not need to manually adjust the conditions and parameters one by one, and as a result, user convenience is improved.

本構成の個体識別システム1を例えば工場等で使用する場合、登録画像の撮影と識別画像の撮影とは異なる場所で行われることが想定される。この場合、工場内で発生する粉塵や工場内の照明、外光等の自然光、周囲のノイズ源等が外乱の要因となって、登録画像の撮影と識別画像の撮影との撮影環境が大きく変わる可能性がある。すると、抽出される特徴点や局所特徴量等が変わり、識別性能が低下するおそれがある。 When the individual identification system 1 having this configuration is used, for example, in a factory or the like, it is assumed that the registration image and the identification image are taken at different locations. In this case, dust generated in the factory, lighting inside the factory, natural light such as outside light, and surrounding noise sources become disturbance factors, and the shooting environment between the registration image and the identification image differs greatly. there is a possibility. Then, the extracted feature points, local features, etc. may change, and the identification performance may deteriorate.

そこで、本構成の個体識別システム1は、画像取得処理部212と、特徴点抽出処理部221と、局所特徴量計算処理部222と、撮影対象条件調整処理部312と、撮影機器条件調整処理部311と、を備える。これによれば、ユーザは、撮影対象条件調整処理部312と撮影機器条件調整処理部311とを操作して、特徴点の抽出及び局所特徴量の計算に適した撮影対象条件及び撮影機器条件を調整することができる。そのため、環境の変化に応じて適切な条件を設定することにより、外乱の影響を低減させることができ、特徴としたい模様を適切に浮かび上がらせることができる。その結果、識別精度を向上させることができる。 Therefore, the individual identification system 1 with this configuration includes an image acquisition processing section 212, a feature point extraction processing section 221, a local feature calculation processing section 222, a photographing target condition adjustment processing section 312, and a photographing equipment condition adjustment processing section. 311. According to this, the user operates the imaging target condition adjustment processing unit 312 and the imaging equipment condition adjustment processing unit 311 to set the imaging target conditions and imaging equipment conditions suitable for extracting feature points and calculating local feature amounts. Can be adjusted. Therefore, by setting appropriate conditions according to changes in the environment, it is possible to reduce the influence of external disturbances, and it is possible to appropriately highlight the desired characteristic pattern. As a result, identification accuracy can be improved.

個体識別装置20は、総当たり条件生成処理部313を更に備える。総当たり条件生成処理部313は、予め設定された範囲内の撮影対象条件と予め設定された範囲内の撮影機器条件との組み合わせを総当たりで生成する総当たり条件生成処理を実行可能である。そして、画像取得処理は、総当たり条件生成処理で生成された全ての条件を撮影した画像を自動で取得する処理を含む。 The individual identification device 20 further includes a brute force condition generation processing section 313. The brute force condition generation processing unit 313 is capable of executing brute force condition generation processing in which a combination of photographing target conditions within a preset range and photographing equipment conditions within a preset range is generated by brute force. The image acquisition process includes a process of automatically acquiring images of all the conditions generated in the round-robin condition generation process.

これによれば、撮影対象条件と撮影機器条件とのそれぞれを変えた多数の画像を自動で撮影し取得することができる。そのため、撮影対象条件と撮影機器条件とのそれぞれを変えて最適な条件の組み合わせを探す場合に、ユーザの手作業で条件の組み合わせを生成し、撮影する必要がなくなる。その結果、撮影対象条件及び撮影機器条件の条件を調整する手間を低減することができる。そして、性能の良い条件を簡単に設定することができるため、識別性能の向上も図ることができる。 According to this, it is possible to automatically photograph and acquire a large number of images with different photographing target conditions and photographing equipment conditions. Therefore, when searching for an optimal combination of conditions by changing the photographing target conditions and photographing equipment conditions, the user does not have to manually generate the combination of conditions and perform photographing. As a result, it is possible to reduce the effort required to adjust the photographing target conditions and the photographing equipment conditions. Furthermore, since conditions with good performance can be easily set, identification performance can also be improved.

個体識別装置20は、最適条件提示処理部314を更に備えている。最適条件提示処理部314は、総当たり条件生成処理で生成された全ての条件で撮影した登録画像及び識別画像のうち、同一の被写体を撮影した前記登録画像と前記識別画像との対応点数が多い撮影対象条件と撮影機器条件との組み合わせを最適条件として提示する最適条件提示処理を実行可能である。これによれば、ユーザは、特徴点の数が多い最適な条件を簡単に取得し設定することができるため、撮影対象条件及び撮影機器条件の条件を調整する手間を更に低減することができる。そして、撮影対象条件と撮影機器条件との最適な組み合わせを簡単に設定することができるため、識別性能の向上も図ることができる。 The individual identification device 20 further includes an optimal condition presentation processing section 314. The optimal condition presentation processing unit 314 determines whether, among the registered images and identification images taken under all the conditions generated in the round-robin condition generation process, the number of correspondences between the registered image and the identification image taken of the same subject is large. It is possible to execute optimal condition presentation processing that presents a combination of photographing target conditions and photographing equipment conditions as optimal conditions. According to this, the user can easily obtain and set the optimal conditions with a large number of feature points, so that it is possible to further reduce the effort of adjusting the conditions of the photographing object and the conditions of the photographing equipment. Furthermore, since the optimum combination of the photographing object conditions and the photographing equipment conditions can be easily set, the identification performance can also be improved.

最適条件提示処理は、特徴点抽出処理に関する条件である特徴抽出条件を予め複数準備し、総当たり条件生成処理で生成された全ての条件で同一の被写体を撮影した登録画像及び識別画像について予め準備した複数の特徴抽出条件で特徴点抽出処理を実行して得られた特徴点を用いて照合した際の対応点数が最も多くなる条件の組み合わせ提示する処理を含む。これによれば、ユーザは、撮影対象条件及び撮影機器条件の条件に加え、特徴点抽出処理に関する特徴抽出条件との組み合わせのうち最適な条件を簡単に取得することができる。これにより、撮影対象条件と撮影機器条件と特徴抽出条件とを調整する手間を更に低減することができる。そして、撮影対象条件と撮影機器条件と特徴抽出条件との最適な組み合わせを簡単に設定することができるため、識別性能の更なる向上を図ることができる。 In the optimal condition presentation process, multiple feature extraction conditions, which are conditions related to the feature point extraction process, are prepared in advance, and registered images and identification images taken of the same subject under all conditions generated in the round-robin condition generation process are prepared in advance. This includes a process of presenting a combination of conditions that will result in the largest number of corresponding points when compared using the feature points obtained by executing the feature point extraction process under a plurality of feature extraction conditions. According to this, the user can easily obtain the optimal conditions among the combinations of the imaging target conditions and the imaging equipment conditions, as well as the feature extraction conditions related to the feature point extraction process. Thereby, it is possible to further reduce the effort required to adjust the imaging target conditions, imaging equipment conditions, and feature extraction conditions. Since the optimal combination of the imaging target conditions, imaging equipment conditions, and feature extraction conditions can be easily set, the identification performance can be further improved.

例えば工業製品の部品においては、人の顔や指紋と異なり、照合識別しようとする対象の種類や材質、加工方法によってその表面に表れる模様の特徴も様々である。このため、識別しようとする対象の種類によって、照合識別に用いるアルゴリズムのパラメータを適切なものに調整する必要がある。しかし、パラメータの項目は多数あり、その全ての組み合わせの中からユーザが手動で最適な組み合わせを探すことは大変な手間と時間がかかる。 For example, unlike human faces or fingerprints, the characteristics of the patterns that appear on the parts of industrial products vary depending on the type, material, and processing method of the object to be compared and identified. Therefore, it is necessary to adjust the parameters of the algorithm used for verification and identification to appropriate values depending on the type of object to be identified. However, there are many parameter items, and it takes a lot of effort and time for the user to manually search for the optimal combination among all the combinations.

そこで、個体識別システム1は、特徴点抽出処理部221、及び局所特徴量計算処理部222を備える。また、個体識別システム1は、照合処理部262、パラメータセット生成処理部324、及びパラメータセット設定処理部325を更に備える。照合処理部262は、登録画像と識別画像とにおける局所特徴量を比較し特徴点の対応点数を取得して登録画像と識別画像とを照合する照合処理を実行可能である。パラメータセット生成処理部324は、照合処理の条件を設定するためのパラメータについて、各パラメータに定められた設定範囲内の設定値に設定された各パラメータを組み合わせて複数のパラメータセットを生成するパラメータセット生成処理を実行可能である。パラメータセット設定処理部325は、ユーザの操作に基づいてパラメータセットを設定するパラメータセット設定処理を実行可能である。 Therefore, the individual identification system 1 includes a feature point extraction processing section 221 and a local feature calculation processing section 222. The individual identification system 1 further includes a matching processing section 262, a parameter set generation processing section 324, and a parameter set setting processing section 325. The matching processing unit 262 can perform a matching process of comparing the local feature amounts of the registered image and the identified image, obtaining the number of corresponding feature points, and comparing the registered image and the identified image. The parameter set generation processing unit 324 generates a plurality of parameter sets by combining each parameter set to a setting value within a setting range defined for each parameter for parameters for setting conditions for matching processing. Generation processing can be executed. The parameter set setting processing unit 325 can execute a parameter set setting process of setting a parameter set based on a user's operation.

照合処理は、パラメータセット生成処理で生成された各パラメータセットを用いて照合処理を実行する処理を含む。そして、個体識別システム1は、照合結果表示処理部333を更に備える。照合結果表示処理部333は、各パラメータセットを用いて照合処理を実行した場合の照合結果をまとめて表示装置12に表示する照合結果表示処理を実行可能である。 The matching process includes a process of executing the matching process using each parameter set generated in the parameter set generation process. The individual identification system 1 further includes a matching result display processing section 333. The matching result display processing unit 333 is capable of executing matching result display processing in which matching results obtained when matching processing is executed using each parameter set are collectively displayed on the display device 12.

これによれば、パラメータの組み合わせであるパラメータセットが自動で生成され、その各パラメータセットを用いて照合処理が行われる。そのため、ユーザは、パラメータの組み合わせをいちいち手作業で作成し照合を行う必要がなくなる。そして、その照合結果は、表示装置12にまとめて表示される。そのため、ユーザは、表示装置12に表示される結果を見ることで、各パラメータセットの性能を確認することができる。そして、ユーザは、表示装置12に表示された結果を見て適切なパラメータセットを選択すれば良い。これにより、照合識別しようとする対象の種類にかかわらず、照合識別に用いるアルゴリズムのパラメータを簡単に手間なく精度良く調整することができる。 According to this, a parameter set that is a combination of parameters is automatically generated, and a matching process is performed using each of the parameter sets. Therefore, the user does not need to manually create and check each combination of parameters. The comparison results are displayed all together on the display device 12. Therefore, the user can check the performance of each parameter set by viewing the results displayed on the display device 12. Then, the user can view the results displayed on the display device 12 and select an appropriate parameter set. Thereby, regardless of the type of target to be verified and identified, the parameters of the algorithm used for verification and identification can be easily and easily and accurately adjusted.

照合結果表示処理は、図22に示すように、各パラメータセットを用いて照合処理を実行した照合結果をグラフ化して表示する処理を含む。複数のパラメータセットのうち性能が良いものを視覚的でかつ直感的に把握し易くなる。これにより、精度の良いパラメータの調整作業を簡単に行うことができる。 As shown in FIG. 22, the matching result display process includes a process of displaying a graph of the matching results obtained by performing the matching process using each parameter set. It becomes easier to visually and intuitively understand which parameter set has the best performance among multiple parameter sets. This makes it possible to easily adjust parameters with high accuracy.

個体識別システム1は、評価用画像登録処理部232を更に備える。評価用画像登録処理部232は、それぞれ異なる被写体を撮影した複数の登録画像を含む登録画像群と、登録画像群の中のうちの1つと同一の被写体でかつ異なる条件で撮影した識別画像と、を照合処理の評価用の画像として相互に紐付けした状態で評価用画像登録部242に登録する評価用画像登録処理を実行可能である。 The individual identification system 1 further includes an evaluation image registration processing section 232. The evaluation image registration processing unit 232 generates a registered image group including a plurality of registered images each photographed of a different subject, an identification image of the same subject as one of the registered image groups but photographed under different conditions, It is possible to execute an evaluation image registration process in which the images are registered in the evaluation image registration unit 242 in a state where they are mutually linked as images for evaluation in the matching process.

これによれば、ユーザは、パラメータセットの評価を行う際に、いちいち画像を撮影する必要がなくなる。その結果、パラメータセットの評価を簡単に行うことができるようになる。また、これによれば、同一の被写体を撮影した登録画像及び識別画像は相互に紐付けした状態で登録されている。このため、登録画像及び識別画像を用いて照合処理を実行する際には、登録画像と識別画像の対応関係つまり同一の被写体を撮影したものか異なる被写体を撮影したものかが事前に明らかとなっている。これにより、対応関係が明らかな画像を用いることで、その照合処理において得たい結果を明らかにすることができ、ユーザは、照合処理に用いたパラメータセットを評価し易くなる。 According to this, the user does not need to take images each time when evaluating a parameter set. As a result, parameter sets can be easily evaluated. Further, according to this, registered images and identification images taken of the same subject are registered in a mutually linked state. Therefore, when performing matching processing using registered images and identification images, it is not clear in advance the correspondence between the registered images and identification images, that is, whether they were taken of the same subject or different subjects. ing. As a result, by using images with clear correspondence relationships, it is possible to clarify the desired result in the matching process, and it becomes easier for the user to evaluate the parameter set used in the matching process.

つまり、同一の被写体が撮影された登録画像及び識別画像を用いて照合処理を実行した場合に対応点数が多く、かつ、異なる被写体が撮影された登録画像及び識別画像を用いて照合処理を実行した場合に対応点数が少なければ、ユーザは、その照合処理に用いたパラメータセットの性能が高いと評価することができる。逆に、同一の被写体が撮影された登録画像及び識別画像を用いて照合処理を実行した場合に対応点数が少なく、又は、異なる被写体が撮影された登録画像及び識別画像を用いて照合処理を実行した場合に対応点数が少なければ、ユーザは、その照合処理に用いたパラメータセットの性能が低いと評価することができる。 In other words, when the matching process is performed using registered images and identification images taken of the same subject, the number of corresponding points is large, and the matching process is performed using registered images and identification images taken of different subjects. If the number of corresponding points is small in a case, the user can evaluate that the performance of the parameter set used for the matching process is high. Conversely, if the matching process is performed using registered images and identification images taken of the same subject, the number of corresponding points is small, or the matching process is performed using registered images and identification images taken of different subjects. In this case, if the number of corresponding points is small, the user can evaluate that the performance of the parameter set used for the matching process is low.

照合処理は、登録画像群に含まれる1つ以上の登録画像と識別画像とを照合する処理を含む。そして、照合結果表示処理は、図23に示すように、照合処理で計算した対応点数に基づく対応点数評価情報を表示装置12に表示する処理を含む。これによれば、ユーザは表示装置12に表示される対応点数評価情報を見ることで、そのパラメータセットの性能を簡単に評価でき、これにより照合識別しようとする対象の種類に応じて適切なパラメータセットを選択することができる。その結果、どのような種類の対象であっても高い照合識別性能を発揮することができる。 The matching process includes a process of matching one or more registered images included in the registered image group with the identification image. As shown in FIG. 23, the matching result display process includes a process of displaying corresponding score evaluation information on the display device 12 based on the corresponding scores calculated in the matching process. According to this, by viewing the corresponding score evaluation information displayed on the display device 12, the user can easily evaluate the performance of the parameter set, and thereby select appropriate parameters according to the type of target to be collated and identified. You can choose a set. As a result, high verification and identification performance can be achieved for any type of target.

個体識別装置20は、特徴抽出条件調整処理部321を更に備える。特徴抽出条件調整処理部321は、特徴抽出条件調整処理を実行可能である。特徴抽出条件調整処理は、登録画像群のうち識別画像の被写体と同一の被写体を撮影した登録画像と識別画像との対応点数である正対応点数と、登録画像群のうち識別画像の被写体と異なる被写体を撮影した登録画像と識別画像との対応点数である負対応点数と、を計算する処理を含む。そして、特徴抽出条件調整処理は、局所特徴量計算処理による特徴抽出条件について正対応点数と負対応点数との比が最も大きくなるように調整する処理を含む。 The individual identification device 20 further includes a feature extraction condition adjustment processing section 321. The feature extraction condition adjustment processing unit 321 can execute feature extraction condition adjustment processing. The feature extraction condition adjustment process calculates the correct correspondence score, which is the number of correspondence points between the registered image and the identified image, which are images of the same subject as the identified image in the registered image group, and the difference between the registered image group and the identified image. It includes a process of calculating a negative correspondence score, which is the correspondence score between the registered image of the subject and the identification image. The feature extraction condition adjustment process includes a process of adjusting the feature extraction conditions based on the local feature amount calculation process so that the ratio between the number of positive corresponding points and the number of negative corresponding points becomes the largest.

この場合、特徴抽出条件調整処理部321は、正対応点数と負対応点数との比が最も大きくなるように、正対応点数が多くかつ負対応点数が少ない特徴抽出条件を探す。正対応点数が多いということは、同一の被写体を撮影した画像間の対応点数が多いことを意味する。これは、同一の被写体を写した画像間の照合処理において、画像に含まれる被写体が同一のものである可能性が高いと識別していること、すなわち、同一の被写体を写した画像間における識別性能が高いことを意味する。また、負対応点数が少ないということは、異なる被写体を撮影した画像間の対応点数が少ないことを意味する。これは、異なる被写体を写した画像間の照合処理において、画像に含まれる被写体が異なるものである可能性高いと識別していること、すなわち、異なる被写体を写した画像間における識別性能が高いことを意味する。 In this case, the feature extraction condition adjustment processing unit 321 searches for a feature extraction condition with a large number of positive corresponding points and a small number of negative corresponding points so that the ratio between the number of positive corresponding points and the number of negative corresponding points is the largest. A large number of corresponding points means that there are many corresponding points between images taken of the same subject. This means that in the matching process between images that depict the same subject, it is determined that the subjects included in the images are likely to be the same. It means high performance. Furthermore, a small number of negative corresponding points means that there are few corresponding points between images taken of different subjects. This means that in the matching process between images depicting different subjects, it is identified that the subjects included in the images are likely to be different; in other words, the discrimination performance between images depicting different subjects is high. means.

このように、特徴抽出条件調整処理部321は、同一の被写体を写した画像間及び異なる被写体を写した画像間の照合識別性能が高くなるように特徴抽出条件を自動で調整し、これにより、高い照合識別性能を得つつ調整にかかるユーザの手間を省くことができる。 In this way, the feature extraction condition adjustment processing unit 321 automatically adjusts the feature extraction conditions so that the matching and discrimination performance between images depicting the same subject and between images depicting different subjects is improved. It is possible to save the user's effort in making adjustments while obtaining high matching and identification performance.

個体識別システム1は、局所特徴量群分類処理部223と、大域特徴量計算処理部224と、を備える。そして、個体識別システム1は、大域特徴量相関係数計算処理部323を更に備える。大域特徴量相関係数計算処理部323は、各登録画像の大域特徴量と識別画像の大域特徴量とを比較しその相関関係を示す大域特徴量相関係数を計算する大域特徴量相関係数計算処理を実行可能である。そして、照合結果表示処理は、大域特徴量相関係数に基づく情報を表示装置12に表示する処理を含む。 The individual identification system 1 includes a local feature group classification processing section 223 and a global feature calculation processing section 224. The individual identification system 1 further includes a global feature correlation coefficient calculation processing section 323. The global feature correlation coefficient calculation processing unit 323 is a global feature correlation coefficient that compares the global feature of each registered image with the global feature of the identified image and calculates a global feature correlation coefficient that indicates the correlation. It is possible to perform calculation processing. The matching result display process includes a process of displaying information based on the global feature correlation coefficient on the display device 12.

大域特徴量相関係数は、登録画像と識別画像とにおける大域特徴量の一致度つまり性能を示す1つの指標となる。表示装置12に大域特徴量相関係数に基づく情報を表示することで、ユーザは、大域特徴量の性能を容易に把握することができる。そのため、ユーザは、表示装置12に大域特徴量相関係数に基づく情報を1つの目安として各種条件やパラメータの調整作業を行うことができるため、より作業がし易くなる。 The global feature correlation coefficient is one index that indicates the degree of matching between the global feature amounts between the registered image and the identified image, that is, the performance. By displaying information based on the global feature correlation coefficient on the display device 12, the user can easily understand the performance of the global feature. Therefore, the user can adjust various conditions and parameters using the information based on the global feature correlation coefficient on the display device 12 as a guide, which makes the user's work easier.

個体識別システム1は、大域特徴量辞書登録部245と、大域特徴量辞書設定処理部322と、を更に備えている。大域特徴量辞書設定処理部322は、大域特徴量辞書設定処理を実行可能である。大域特徴量辞書設定処理は、大域特徴量辞書登録部245に登録されている複数の大域特徴量辞書のうち、大域特徴量相関係数に基づき同一の被写体を撮影した登録画像と識別画像とを同一と判断し、異なる被写体を撮影した登録画像と識別画像とを同一でないと判断できる大域特徴量辞書を選択して、局所特徴量群分類処理に用いる大域特徴量辞書に設定する処理を含む。 The individual identification system 1 further includes a global feature dictionary registration section 245 and a global feature dictionary setting processing section 322. The global feature dictionary setting processing unit 322 can execute global feature dictionary setting processing. The global feature dictionary setting process selects a registered image captured of the same subject and an identification image based on a global feature correlation coefficient from among a plurality of global feature dictionaries registered in the global feature dictionary registration unit 245. It includes a process of selecting a global feature dictionary that can be determined to be the same, and determining that a registered image and an identification image obtained by photographing different subjects are not the same, and setting it as the global feature dictionary used in the local feature group classification process.

大域特徴量相関係数は、上述したように、登録画像と識別画像とにおける大域特徴量の相関の一致度を示す1つの指標となる。2つの画像間における大域特徴量の相関が大きいほど、両者の画像に同一の被写体が含まれている可能性が高いことを意味する。そのため、同一の被写体を撮影した画像間における大域特徴量の相関が大きいということは、その同一の被写体を撮影した2つの画像について計算された大域特徴量の一致度が高いことを意味する。すなわちこれは、同一の被写体を撮影した画像間においてその大域特徴量辞書の性能が高いことを意味する。 As described above, the global feature correlation coefficient serves as an index indicating the degree of matching of the correlation between the global feature amounts in the registered image and the identification image. The greater the correlation between the global feature amounts between two images, the higher the possibility that the same subject is included in both images. Therefore, the fact that the correlation between the global feature amounts between images taken of the same subject is high means that the degree of coincidence between the global feature amounts calculated for the two images taken of the same subject is high. In other words, this means that the performance of the global feature dictionary is high among images taken of the same subject.

一方、2つの画像間における大域特徴量の相関が小さいほど、両者の画像に含まれる被写体が異なる可能性が高いことを意味する。そのため、異なる被写体を撮影した画像間における大域特徴量の相関が小さいということは、その異なる被写体を撮影した画像についてその大域特徴量辞書を使って計算した大域特徴量の一致度が低いことを意味する。すなわちこれは、異なる被写体を撮影した画像間においてその大域特徴量辞書の性能が高いことを意味する。 On the other hand, the smaller the correlation between the global feature amounts between two images, the higher the possibility that the subjects included in the two images are different. Therefore, a low correlation of global features between images of different subjects means that the degree of agreement between the global features calculated using the global feature dictionary for images of different subjects is low. do. In other words, this means that the performance of the global feature dictionary is high between images taken of different subjects.

本構成によれば、大域特徴量辞書設定処理によって、同一の被写体を写した画像間での性能が高く、かつ異なる被写体を写した画像間での性能も高い大域特徴量辞書を自動で設定することができる。したがって、ユーザの調整の手間が省かれるとともに、高い照合識別性能を得ることができる。 According to this configuration, the global feature dictionary setting process automatically sets a global feature dictionary that has high performance between images depicting the same subject and also has high performance between images depicting different subjects. be able to. Therefore, the user's effort for adjustment can be saved, and high verification and identification performance can be obtained.

大域特徴量辞書設定処理は、2つの大域特徴量がベクトルであるとき、それぞれ絶対値を1に正規化し内積をとった値であって当該内積の値が1に近いものについて同一性が高いと判断し、当該内積の値が-1に近いものについて同一性が低いと判断する処理を含んでいても良い。また、大域特徴量相関係数は、2つの大域特徴量のベクトル間の距離の値とすることができる。この場合、大域特徴量辞書設定処理は、2つの大域特徴量のベクトル間の距離の値が0に近ければ同一性が高いと判断し、大きい場合は同一性が低いと判断する処理を含む。これらの構成によれば、大域特徴量辞書の性能を定量的に評価することができる。 In the global feature dictionary setting process, when two global features are vectors, the absolute value of each is normalized to 1 and the inner product is taken, and if the value of the inner product is close to 1, the identity is high. It may also include a process of determining that the identity is low if the value of the inner product is close to -1. Furthermore, the global feature correlation coefficient can be a value of the distance between vectors of two global features. In this case, the global feature dictionary setting process includes a process in which it is determined that the identity is high if the distance between the vectors of the two global features is close to 0, and that the identity is low if it is large. According to these configurations, the performance of the global feature dictionary can be quantitatively evaluated.

個体識別システム1は、画像取得処理部212と特徴点抽出処理部221と特定処理部2612とを有する個体識別装置20を備える。そして、個体識別システム1は、個体識別装置20の他に、可視化装置33、撮影条件調整装置31、及び照合識別条件調整装置32、のうち少なくとも2つの装置を備える。 The individual identification system 1 includes an individual identification device 20 having an image acquisition processing section 212, a feature point extraction processing section 221, and a specific processing section 2612. In addition to the individual identification device 20, the individual identification system 1 includes at least two of a visualization device 33, a photographing condition adjustment device 31, and a verification identification condition adjustment device 32.

可視化装置33は、特徴点表示処理部331を有する。特徴点表示処理部331は、特徴点抽出処理により抽出した特徴点を前記画像に重ねて表示装置12に表示する特徴点表示処理を実行可能である。 The visualization device 33 includes a feature point display processing section 331. The feature point display processing unit 331 can execute a feature point display process in which the feature points extracted by the feature point extraction process are displayed on the display device 12 in a superimposed manner on the image.

撮影条件調整装置31は、予め登録された複数の登録画像のうち同一の被写体を撮影した登録画像と識別画像とにおける局所特徴量を比較し特徴点の対応点数を取得して登録画像と識別画像とを照合する照合処理を個体識別装置20に実行させるとともに、撮影対象条件調整処理部312と撮影条件調整装置31とを有する。撮影対象条件調整処理部312は、撮影対象に関する条件である撮影対象条件を調整する撮影対象条件調整処理を実行可能である。撮影機器条件調整処理部311は、撮影機器10に関する条件である撮影機器条件を調整する撮影機器条件調整処理を実行可能である。 The photographing condition adjustment device 31 compares the local feature amounts of a registered image photographing the same subject and an identified image among a plurality of registered images registered in advance, obtains the number of corresponding feature points, and then adjusts the registered image and the identified image. It causes the individual identification device 20 to execute a matching process for comparing the images, and includes a photographing target condition adjustment processing section 312 and a photographing condition adjustment device 31. The photographing target condition adjustment processing unit 312 is capable of executing photographing target condition adjustment processing for adjusting photographing target conditions, which are conditions related to the photographing target. The photographing equipment condition adjustment processing unit 311 is capable of executing photographing equipment condition adjustment processing for adjusting photographing equipment conditions that are conditions related to the photographing equipment 10 .

照合識別条件調整装置32は、パラメータセット生成処理部324と、パラメータセット設定処理部325と、を有する。パラメータセット生成処理部324は、照合処理の条件を設定するためのパラメータについて、各パラメータに定められた範囲内の設定値に設定された各パラメータを組み合わせて複数のパラメータセットを生成するパラメータセット生成処理を実行可能である。パラメータセット設定処理部325は、ユーザの操作に基づいてパラメータセットを設定するパラメータセット設定処理を実行可能である。そして、照合識別条件調整装置32は、照合処理部262に、パラメータセット生成処理で生成された各パラメータセットを用いて照合処理を実行する処理を実行させる。そして、照合識別条件調整装置32は、パラメータセットを用いて照合処理の照合結果をまとめて表示装置12に表示する照合結果表示処理を実行可能な照合結果表示処理部333を更に有している。 The matching identification condition adjustment device 32 includes a parameter set generation processing section 324 and a parameter set setting processing section 325. The parameter set generation processing unit 324 generates a plurality of parameter sets by combining each parameter set to a set value within a predetermined range for each parameter for parameters for setting conditions for matching processing. Processing is possible. The parameter set setting processing unit 325 can execute a parameter set setting process of setting a parameter set based on a user's operation. Then, the matching identification condition adjustment device 32 causes the matching processing unit 262 to execute a process of executing a matching process using each parameter set generated in the parameter set generation process. The matching identification condition adjustment device 32 further includes a matching result display processing section 333 capable of executing a matching result display process of collectively displaying the matching results of the matching process on the display device 12 using the parameter set.

個体識別システム1が可視化装置33を備えることで、特徴点抽出処理で抽出した特徴点が画像に重ねられて表示装置12に表示されるため、ユーザは、画像の中のどの箇所が特徴点として抽出されているか見て確認することができる。そして、ユーザは、製造工程でも表面模様が変化難くい箇所について重点的に特徴点を抽出できるように、抽出される特徴点の位置を確認しながら各種条件やパラメータを設定するつまりチューニングを行うことができる。その結果、製造工程途中で表面模様が変化する加工が施されるようなもの、つまり画像の登録時と識別時とで表面模様が変化する場合であっても、精度良く識別することができるといった優れた効果が得られる。 Since the individual identification system 1 includes the visualization device 33, the feature points extracted in the feature point extraction process are superimposed on the image and displayed on the display device 12, so the user can determine which location in the image is the feature point. You can check to see if it has been extracted. Then, the user sets various conditions and parameters while checking the positions of the extracted feature points, that is, performs tuning, so that feature points can be extracted focused on areas where the surface pattern is difficult to change during the manufacturing process. I can do it. As a result, it is possible to identify items with high accuracy even if the surface pattern changes during the manufacturing process, that is, even if the surface pattern changes between the time of image registration and the time of identification. Excellent effects can be obtained.

個体識別システム1が撮影条件調整装置31を備えることで、ユーザは、撮影対象条件調整処理部312と撮影機器条件調整処理部311とを操作して、特徴点の抽出及び局所特徴量の計算に適した撮影対象条件及び撮影機器条件を調整することができる。そのため、環境の変化に応じた適切な条件を設定することにより、外乱の影響を低減させることができ、特徴とした模様を適切に浮かび上がらせることができる。その結果、識別精度を向上させることができるといった優れた効果が得られる。 Since the individual identification system 1 includes the imaging condition adjustment device 31, the user can operate the imaging target condition adjustment processing unit 312 and the imaging equipment condition adjustment processing unit 311 to extract feature points and calculate local feature amounts. It is possible to adjust suitable photographing target conditions and photographing equipment conditions. Therefore, by setting appropriate conditions according to changes in the environment, the influence of disturbances can be reduced, and the characteristic pattern can be appropriately highlighted. As a result, excellent effects such as improved identification accuracy can be obtained.

個体識別システム1が照合識別条件調整装置32を備えることで、ユーザは、パラメータの組み合わせをいちいち手作業で作成し照合を行う必要がなくなる。そして、その照合結果は、表示装置12にまとめて表示される。そのため、ユーザは、表示装置12に表示される結果を見ることで、各パラメータセットの性能を確認することができる。そして、ユーザは、表示装置12に表示された結果を見て適切なパラメータセットを選択すれば良い。これにより、照合識別しようとする対象の種類にかかわらず、照合識別に用いるアルゴリズムのパラメータを簡単に手間なく精度良く調整することができるといった優れた効果が得られる。 Since the individual identification system 1 includes the comparison identification condition adjustment device 32, the user does not need to manually create each combination of parameters and perform the comparison. The comparison results are displayed all together on the display device 12. Therefore, the user can check the performance of each parameter set by viewing the results displayed on the display device 12. Then, the user can view the results displayed on the display device 12 and select an appropriate parameter set. This provides an excellent effect in that the parameters of the algorithm used for verification and identification can be easily and easily and accurately adjusted regardless of the type of object to be verified and identified.

そして、個体識別システム1は、可視化装置33と撮影条件調整装置31と照合識別条件調整装置32とのうち少なくとも2つの装置を同時に備えることにより、上述した各装置の優れた効果を同時に2つ以上得ることができる。これにより、識別対象の表面模様の変化に対応できたり、外乱の影響を受け難くできたり、条件やパラメータの調整にかかるユーザ手間を低減して精度の条件やパラメータの精度を高めることができ、その結果、照合識別の性能を高めることができる。 The individual identification system 1 simultaneously provides at least two of the visualization device 33, the photographing condition adjustment device 31, and the collation identification condition adjustment device 32, thereby simultaneously achieving two or more of the excellent effects of the above-mentioned devices. Obtainable. As a result, it is possible to respond to changes in the surface pattern of the identification target, to make it less susceptible to external disturbances, to reduce the user effort required to adjust conditions and parameters, and to improve the precision of accuracy conditions and parameters. As a result, the performance of verification and identification can be improved.

個体識別システム1は、可視化装置33と撮影条件調整装置31と照合識別条件調整装置32とを備えている。これによれば、可視化装置33と撮影条件調整装置31と照合識別条件調整装置32とを全て同時に備えることにより、上述した各装置の優れた効果を全て同時に得ることができる。すなわち、この個体識別システム1によれば、識別対象の表面形状の変化に対応でき、外乱の影響を受けにくい調整を行うことができ、更には条件やパラメータの調整にかかるユーザ手間を低減することができる。 The individual identification system 1 includes a visualization device 33, a photographing condition adjustment device 31, and a comparison identification condition adjustment device 32. According to this, by providing the visualization device 33, the photographing condition adjustment device 31, and the comparison identification condition adjustment device 32 all at the same time, all the excellent effects of the above-mentioned devices can be obtained at the same time. That is, according to this individual identification system 1, it is possible to respond to changes in the surface shape of the identification target, to perform adjustments that are less susceptible to external disturbances, and to further reduce the user's effort in adjusting conditions and parameters. I can do it.

検索処理部261は、絞り込み処理を実行可能な絞り込み処理部2611を更に有している。絞り込み処理は、検索対象画像登録部241に登録されている複数の登録画像の中から識別画像が有する大域特徴量との相関が高い大域特徴量を有する所定数の登録画像を特定処理における候補として絞り込む処理を含む。 The search processing unit 261 further includes a narrowing down processing unit 2611 that can execute narrowing down processing. The narrowing process selects a predetermined number of registered images having global features that are highly correlated with the global features of the identified image from among the plurality of registered images registered in the search target image registration unit 241 as candidates for the identification process. Includes narrowing down processing.

これによれば、検索処理は、大域特徴量で絞り込む絞り込み処理と、局所特徴量で特定する特定処理と、の2段階の処理を実行することにより、高速での検索を実現することができる。その結果、本構成の個体識別システム1によれば、その結果、照合識別性能が高くかつ高速での検索を実現することができる。 According to this, the search process can be performed at high speed by performing two stages of narrowing down processing using global feature amounts and specifying processing using local feature amounts. As a result, according to the individual identification system 1 with this configuration, it is possible to achieve high matching identification performance and high-speed retrieval.

本開示は、実施例に準拠して記述されたが、本開示は当該実施例や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらに一要素のみ、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範疇や思想範囲に入るものである。 Although the present disclosure has been described based on examples, it is understood that the present disclosure is not limited to the examples or structures. The present disclosure also includes various modifications and equivalent modifications. In addition, various combinations and configurations, as well as other combinations and configurations that include only one, more, or fewer elements, are within the scope and scope of the present disclosure.

本開示に記載の制御部及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリーを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の制御部及びその手法は、一つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の制御部及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリーと一つ以上のハードウェア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。 The control unit and the method described in the present disclosure are implemented by a dedicated computer provided by configuring a processor and memory programmed to perform one or more functions embodied by a computer program. may be done. Alternatively, the controller and techniques described in this disclosure may be implemented by a dedicated computer provided by a processor configured with one or more dedicated hardware logic circuits. Alternatively, the control unit and the method described in the present disclosure may be implemented by a combination of a processor and memory programmed to perform one or more functions and a processor configured by one or more hardware logic circuits. It may be implemented by one or more dedicated computers configured. The computer program may also be stored as instructions executed by a computer on a computer-readable non-transitory tangible storage medium.

1…個体識別システム、10、10a、10b…撮影機器、212…画像取得処理部、221…特徴点抽出処理部、222…局所特徴量計算処理部、311…撮影機器条件調整処理部、312…撮影対象条件調整処理部、313…総当たり条件生成処理部、314…最適条件提示処理部
1... Individual identification system, 10, 10a, 10b... Imaging equipment, 212... Image acquisition processing section, 221... Feature point extraction processing section, 222... Local feature calculation processing section, 311... Imaging equipment condition adjustment processing section, 312... Shooting target condition adjustment processing section, 313... Round-robin condition generation processing section, 314... Optimum condition presentation processing section

Claims (2)

登録側及び識別側の撮影機器(10a、10b)によって撮影した識別対象の画像をそれぞれ登録画像及び識別画像として取得する画像取得処理を実行可能な画像取得処理部(212)と、
前記画像取得処理で取得した前記登録画像及び前記識別画像に含まれる特徴点を抽出する特徴点抽出処理を実行可能な特徴点抽出処理部(221)と、
前記特徴点抽出処理で抽出された前記特徴点の局所特徴量を計算する局所特徴量計算処理を実行可能な局所特徴量計算処理部(222)と、
撮影対象に関する条件である撮影対象条件を調整する撮影対象条件調整処理を実行可能な撮影対象条件調整処理部(312)と、
前記撮影機器に関する条件である撮影機器条件を調整する撮影機器条件調整処理を実行可能な撮影機器条件調整処理部(311)と
予め設定された範囲内の前記撮影対象条件と予め設定された範囲内の前記撮影機器条件との組み合わせを総当たりで生成する総当たり条件生成処理を実行可能な総当たり条件生成処理部(313)と、を備え、
前記画像取得処理は、前記総当たり条件生成処理で生成された全ての条件で撮影した前記登録画像及び前記識別画像を取得する処理を含み、
前記総当たり条件生成処理で生成された全ての条件で撮影した前記登録画像及び前記識
別画像のうち、同一の被写体を撮影した前記登録画像と前記識別画像とを照合して得た対
応点数が多い前記撮影対象条件と前記撮影機器条件との組み合わせを最適条件として提示
する最適条件提示処理を実行可能な最適条件提示処理部(314)を更に備えている、
個体識別システム(1)。
an image acquisition processing unit (212) capable of executing an image acquisition process of acquiring images of the identification target taken by the registration-side and identification-side imaging devices (10a, 10b) as registration images and identification images, respectively;
a feature point extraction processing unit (221) capable of executing a feature point extraction process for extracting feature points included in the registered image and the identification image acquired in the image acquisition process;
a local feature calculation processing unit (222) capable of executing a local feature calculation process that calculates a local feature of the feature point extracted in the feature point extraction process;
a photographic subject condition adjustment processing unit (312) capable of executing a photographic subject condition adjustment process that adjusts photographic subject conditions that are conditions related to the photographic subject;
a photographic equipment condition adjustment processing unit (311) capable of executing a photographic equipment condition adjustment process that adjusts photographic equipment conditions that are conditions related to the photographic equipment ;
a brute force condition generation processing unit (313) capable of executing a brute force condition generation process of generating a combination of the photographing target condition within a preset range and the photographing equipment condition within a preset range by brute force; and ,
The image acquisition process includes a process of acquiring the registered image and the identification image taken under all conditions generated in the round-robin condition generation process,
The registered images and the identification images taken under all the conditions generated in the round-robin condition generation process.
A pair obtained by comparing the registered image taken of the same subject and the identified image among different images.
A combination of the imaging target condition and the imaging equipment condition with a large number of response points is presented as the optimal condition.
further comprising an optimum condition presentation processing unit (314) capable of executing an optimum condition presentation process to
Individual identification system (1).
前記最適条件提示処理は、前記特徴点抽出処理に関する条件である特徴抽出条件を予め複数準備し、前記総当たり条件生成処理で生成された全ての条件で同一の被写体を撮影した前記登録画像及び前記識別画像について予め準備した複数の前記特徴抽出条件で前記特徴点抽出処理を実行して得られた特徴点を用いて照合した際の対応点数が最も多くなる条件の組み合わせ提示する処理を含む、
請求項に記載の個体識別システム。
In the optimal condition presentation process, a plurality of feature extraction conditions, which are conditions related to the feature point extraction process, are prepared in advance, and the registered image and the including a process of presenting a combination of conditions that will result in the largest number of corresponding points when matched using feature points obtained by executing the feature point extraction process under a plurality of feature extraction conditions prepared in advance for the identification image;
The individual identification system according to claim 1 .
JP2020080321A 2020-04-30 2020-04-30 Individual identification system Active JP7377161B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020080321A JP7377161B2 (en) 2020-04-30 2020-04-30 Individual identification system
PCT/JP2021/015593 WO2021220826A1 (en) 2020-04-30 2021-04-15 Individual object identification system
TW110115473A TW202205146A (en) 2020-04-30 2021-04-29 Individual object identification system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020080321A JP7377161B2 (en) 2020-04-30 2020-04-30 Individual identification system

Publications (2)

Publication Number Publication Date
JP2021174440A JP2021174440A (en) 2021-11-01
JP7377161B2 true JP7377161B2 (en) 2023-11-09

Family

ID=78279744

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020080321A Active JP7377161B2 (en) 2020-04-30 2020-04-30 Individual identification system

Country Status (3)

Country Link
JP (1) JP7377161B2 (en)
TW (1) TW202205146A (en)
WO (1) WO2021220826A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018179092A1 (en) 2017-03-28 2018-10-04 日本電気株式会社 Individual object identification device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018179092A1 (en) 2017-03-28 2018-10-04 日本電気株式会社 Individual object identification device

Also Published As

Publication number Publication date
TW202205146A (en) 2022-02-01
JP2021174440A (en) 2021-11-01
WO2021220826A1 (en) 2021-11-04

Similar Documents

Publication Publication Date Title
US8675974B2 (en) Image processing apparatus and image processing method
US10891508B2 (en) Image processing apparatus, method, and non-transitory computer-readable storage medium
US8498454B2 (en) Optimal subspaces for face recognition
US11501517B2 (en) Individual identifying device
US20230049798A1 (en) Individual object identification system, individual object identification program, and recording medium
US20150012226A1 (en) Material classification using brdf slices
US9633284B2 (en) Image processing apparatus and image processing method of identifying object in image
US20200410270A1 (en) Method, device, system and computer-program product for setting lighting condition and storage medium
JP2015187759A (en) Image searching device and image searching method
JP2015143951A (en) Object discrimination device, image sensor and object discrimination method
KR20210020065A (en) Systems and methods for finding and classifying patterns in images with vision systems
JP7377161B2 (en) Individual identification system
JP7377163B2 (en) Individual identification system
JP7377162B2 (en) Individual identification system
JP7377160B2 (en) Individual identification system
JP5791361B2 (en) PATTERN IDENTIFICATION DEVICE, PATTERN IDENTIFICATION METHOD, AND PROGRAM
JP2019021100A (en) Image search device, merchandise recognition device, and image search program
WO2015136716A1 (en) Image processing device, image sensor, and image processing method
KR101094433B1 (en) Method for identifying image face and system thereof
US20230064329A1 (en) Identification model generation apparatus, identification apparatus, identification model generation method, identification method, and storage medium
JP2019046184A (en) Image processing apparatus, training image processing apparatus, image identification apparatus, training image processing method, image identification method, and program
Lakshmi et al. Sketch-Based Face Recognition Using Deep Neural Network for Criminal Investigation
JP2014142213A (en) Photographing parameter determination device and control method of the same
JP5398519B2 (en) Object identification device, object identification method, and program
Sánchez et al. On the Influence of Illumination Quality in 2D Facial Recognition

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220304

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230523

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231027

R150 Certificate of patent or registration of utility model

Ref document number: 7377161

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150