JP2015035070A - Image collation device, image collation method, and program - Google Patents

Image collation device, image collation method, and program Download PDF

Info

Publication number
JP2015035070A
JP2015035070A JP2013165168A JP2013165168A JP2015035070A JP 2015035070 A JP2015035070 A JP 2015035070A JP 2013165168 A JP2013165168 A JP 2013165168A JP 2013165168 A JP2013165168 A JP 2013165168A JP 2015035070 A JP2015035070 A JP 2015035070A
Authority
JP
Japan
Prior art keywords
image
unit
registered
area
registration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013165168A
Other languages
Japanese (ja)
Other versions
JP6217225B2 (en
Inventor
義裕 手島
Yoshihiro Tejima
義裕 手島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2013165168A priority Critical patent/JP6217225B2/en
Publication of JP2015035070A publication Critical patent/JP2015035070A/en
Application granted granted Critical
Publication of JP6217225B2 publication Critical patent/JP6217225B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To accurately and properly collate images.SOLUTION: A portable terminal 100 includes: a corresponding area determination part 7d which determines a corresponding area corresponding to a registered image in a pickup image based on pixel information on the registered image registered in an image registration part 6 and acquired pixel information on the pickup image; a collation object area setting part 7f which sets a collation object area in the determined corresponding area; and an image collation part 7g which performs collation based on the result of correspondence between feature information on the set collation object area and feature information on the area corresponding to the collation object area in a registered image.

Description

本発明は、画像照合装置、画像照合方法及びプログラムに関する。   The present invention relates to an image collation apparatus, an image collation method, and a program.

従来、画像どうしを照合する際に、特徴点の特徴量どうしを比較する手法が提案されている(例えば、特許文献1参照)。具体的には、例えば、カメラで撮像した画像とデータベースに登録済みの画像とを照合する場合、局所特徴量を使って特徴点どうしのマッチングを行い、類似度合を算出する。   Conventionally, a method for comparing feature amounts of feature points when matching images has been proposed (see, for example, Patent Document 1). Specifically, for example, when an image captured by a camera and an image registered in a database are collated, feature points are matched using local feature amounts to calculate a similarity degree.

特開2010−250529号公報JP 2010-250529 A

ところで、照合対象となる画像が相対的に単純なテクスチャで構成されていると、当該画像内に類似するテクスチャが複数存するため、特徴点どうしの誤対応が生じて画像どうしの照合を適正に行うことができないといった問題がある。   By the way, if the image to be collated is composed of relatively simple textures, there are a plurality of similar textures in the image, so that miscorrespondence between feature points occurs and images are properly collated. There is a problem that can not be.

本発明は、このような問題に鑑みてなされたものであり、本発明の課題は、画像どうしの照合を精度良く適正に行うことができる画像照合装置、画像照合方法及びプログラムを提供することである。   The present invention has been made in view of such a problem, and an object of the present invention is to provide an image collation apparatus, an image collation method, and a program capable of accurately collating images with high accuracy. is there.

上記課題を解決するため、本発明に係る画像照合装置は、
予め少なくとも一の画像を登録する登録手段と、特定の被写体が撮像された撮像画像を取得する取得手段と、前記登録手段に登録されている登録画像の画素情報及び前記取得手段により取得された撮像画像の画素情報に基づいて、当該撮像画像内で前記登録画像と対応する対応領域を特定する特定手段と、前記特定手段により特定された前記対応領域内で照合対象領域を設定する設定手段と、前記設定手段により設定された前記照合対象領域の特徴情報と、前記登録画像における当該照合対象領域に対応する領域の特徴情報とを対応付け、当該対応付けの結果に基づいて前記照合対象領域と前記登録画像とを照合する照合手段と、を備えたことを特徴としている。
In order to solve the above-described problem, an image collation apparatus according to the present invention includes:
Registration means for registering at least one image in advance, acquisition means for acquiring a captured image obtained by capturing a specific subject, pixel information of a registered image registered in the registration means, and imaging acquired by the acquisition means Based on pixel information of the image, specifying means for specifying a corresponding area corresponding to the registered image in the captured image, setting means for setting a matching target area in the corresponding area specified by the specifying means, The feature information of the comparison target region set by the setting unit is associated with the feature information of the region corresponding to the comparison target region in the registered image, and based on the result of the association, It is characterized by comprising collation means for collating with a registered image.

また、本発明に係る画像照合方法は、
画像照合装置を用いた画像照合方法であって、予め少なくとも一の画像を登録する処理と、特定の被写体が撮像された撮像画像を取得する処理と、登録されている登録画像の画素情報及び取得された撮像画像の画素情報に基づいて、当該撮像画像内で前記登録画像と対応する対応領域を特定する処理と、特定された前記対応領域内で照合対象領域を設定する処理と、設定された前記照合対象領域の特徴情報と、前記登録画像における当該照合対象領域に対応する領域の特徴情報とを対応付け、当該対応付けの結果に基づいて前記照合対象領域と前記登録画像とを照合する処理と、を含むことを特徴としている。
In addition, an image matching method according to the present invention includes:
An image matching method using an image matching device, a process of registering at least one image in advance, a process of acquiring a captured image obtained by capturing a specific subject, and pixel information and acquisition of a registered image registered Based on the pixel information of the captured image, a process for specifying a corresponding area corresponding to the registered image in the captured image, a process for setting a matching target area in the specified corresponding area, and A process of associating the feature information of the collation target area with the feature information of the area corresponding to the collation target area in the registered image, and collating the collation target area with the registered image based on the result of the correlation It is characterized by including.

また、本発明に係るプログラムは、
画像照合装置のコンピュータを、予め少なくとも一の画像を登録する登録手段、特定の被写体が撮像された撮像画像を取得する取得手段、前記登録手段に登録されている登録画像の画素情報及び前記取得手段により取得された撮像画像の画素情報に基づいて、当該撮像画像内で前記登録画像と対応する対応領域を特定する特定手段、前記特定手段により特定された前記対応領域内で照合対象領域を設定する設定手段、前記設定手段により設定された前記照合対象領域の特徴情報と、前記登録画像における当該照合対象領域に対応する領域の特徴情報とを対応付け、当該対応付けの結果に基づいて前記照合対象領域と前記登録画像とを照合する照合手段、として機能させることを特徴としている。
The program according to the present invention is
Registering means for registering at least one image in advance, computer for acquiring a captured image in which a specific subject is imaged, pixel information of registered image registered in said registration means, and said acquisition means Based on the pixel information of the captured image acquired by the above, a specifying unit that specifies a corresponding region corresponding to the registered image in the captured image, and a matching target region is set in the corresponding region specified by the specifying unit A setting unit that associates the feature information of the region to be collated set by the setting unit with the feature information of the region corresponding to the region to be collated in the registered image, and based on the result of the association, It is characterized by functioning as a collating means for collating the region with the registered image.

本発明によれば、画像どうしの照合を精度良く適正に行うことができる。   According to the present invention, it is possible to accurately collate images with high accuracy.

本発明を適用した実施形態1の携帯端末の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the portable terminal of Embodiment 1 to which this invention is applied. 図1の携帯端末による画像登録処理に係る動作の一例を示すフローチャートである。3 is a flowchart illustrating an example of an operation related to an image registration process by the mobile terminal of FIG. 1. 図2の画像登録処理に係る画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image which concerns on the image registration process of FIG. 図1の携帯端末による画像照合処理に係る動作の一例を示すフローチャートである。3 is a flowchart illustrating an example of an operation related to an image matching process performed by the mobile terminal in FIG. 1. 図4の画像照合処理に係る画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image which concerns on the image collation process of FIG. 図4の画像照合処理に係る画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image which concerns on the image collation process of FIG. 本発明を適用した実施形態2の携帯端末の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the portable terminal of Embodiment 2 to which this invention is applied. 図7の携帯端末による画像登録処理に係る動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation | movement which concerns on the image registration process by the portable terminal of FIG. 図8の画像登録処理に係る画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image which concerns on the image registration process of FIG. 図7の携帯端末による画像照合処理に係る動作の一例を示すフローチャートである。It is a flowchart which shows an example of the operation | movement which concerns on the image collation process by the portable terminal of FIG. 図10の画像照合処理に係る画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image which concerns on the image collation process of FIG. 図10の画像照合処理に係る画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image which concerns on the image collation process of FIG.

以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。   Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.

[実施形態1]
図1は、本発明を適用した実施形態1の携帯端末100の概略構成を示すブロック図である。
図1に示すように、本実施形態の携帯端末100は、中央制御部1と、メモリ2と、撮像部3と、撮像制御部4と、画像データ生成部5と、画像登録部6と、画像処理部7と、表示部8と、表示制御部9と、送受話部10と、通信制御部11と、操作入力部12等を備えている。
また、中央制御部1、メモリ2、撮像部3、撮像制御部4、画像データ生成部5、画像登録部6、画像処理部7、表示制御部9、送受話部10及び通信制御部11は、バスライン13を介して接続されている。
[Embodiment 1]
FIG. 1 is a block diagram showing a schematic configuration of a mobile terminal 100 according to the first embodiment to which the present invention is applied.
As illustrated in FIG. 1, the mobile terminal 100 according to the present embodiment includes a central control unit 1, a memory 2, an imaging unit 3, an imaging control unit 4, an image data generation unit 5, an image registration unit 6, An image processing unit 7, a display unit 8, a display control unit 9, a transmission / reception unit 10, a communication control unit 11, an operation input unit 12, and the like are provided.
The central control unit 1, the memory 2, the imaging unit 3, the imaging control unit 4, the image data generation unit 5, the image registration unit 6, the image processing unit 7, the display control unit 9, the transmission / reception unit 10, and the communication control unit 11 Are connected via a bus line 13.

なお、携帯端末100は、例えば、撮像装置、携帯電話やPHS(Personal Handy-phone System)などの移動体通信網で用いられる移動局、PDA(Personal Data Assistants)等から構成されている。   Note that the mobile terminal 100 includes, for example, an imaging device, a mobile station used in a mobile communication network such as a mobile phone or a PHS (Personal Handy-phone System), a PDA (Personal Data Assistants), and the like.

中央制御部1は、携帯端末100の各部を制御するものである。具体的には、中央制御部1は、携帯端末100の各部を制御するCPU(Central Processing Unit;図示略)を具備し、携帯端末100用の各種処理プログラム(図示略)に従って各種の制御動作を行う。   The central control unit 1 controls each unit of the mobile terminal 100. Specifically, the central control unit 1 includes a CPU (Central Processing Unit; not shown) that controls each part of the mobile terminal 100, and performs various control operations according to various processing programs (not shown) for the mobile terminal 100. Do.

メモリ2は、例えば、DRAM(Dynamic Random Access Memory)等により構成されている。また、メモリ2は、中央制御部1や画像処理部7等によって処理されるデータ等を一時的に記憶するバッファメモリや、中央制御部1などのワーキングメモリ、当該携帯端末100の機能に係る各種プログラムやデータが格納されたプログラムメモリ等(何れも図示略)を備えている。   The memory 2 is composed of, for example, a DRAM (Dynamic Random Access Memory) or the like. The memory 2 includes a buffer memory that temporarily stores data processed by the central control unit 1 and the image processing unit 7, a working memory such as the central control unit 1, and various types of functions related to the function of the mobile terminal 100. A program memory (not shown) in which programs and data are stored is provided.

撮像部3は、レンズ部3aと、電子撮像部3bとを備えている。
レンズ部3aは、ズームレンズやフォーカスレンズ等の複数のレンズから構成されている。
電子撮像部3bは、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサから構成され、レンズ部3aの各種レンズを通過した光学像を二次元の画像信号に変換する。
なお、図示は省略するが、撮像部3は、レンズ部3aを通過する光の量を調整する絞りを備えていても良い。
The imaging unit 3 includes a lens unit 3a and an electronic imaging unit 3b.
The lens unit 3a includes a plurality of lenses such as a zoom lens and a focus lens.
The electronic imaging unit 3b is composed of, for example, an image sensor such as a charge coupled device (CCD) or a complementary metal-oxide semiconductor (CMOS), and converts an optical image that has passed through various lenses of the lens unit 3a into a two-dimensional image signal. To do.
In addition, although illustration is abbreviate | omitted, the imaging part 3 may be provided with the aperture_diaphragm | restriction which adjusts the quantity of the light which passes the lens part 3a.

また、撮像部3は、記録媒体に押印された印章の印影S(図5(a)参照)を特定の被写体として撮像する。
ここで、印影Sは、当該印影Sを形成するための印画像(例えば、電車を模式的に表す画像等)に、所定の情報を画素集合の規則的な配列に符号化したコード情報が含まれていても良い。
なお、コード情報は、元の所定の情報(例えば、URL等)を所定の符号化形式(例えば、リードソロモン符号、ゴレイ符号等)に従って符号化したものである。例えば、コード情報は、画素値「1」の白画素の集合と画素値「0」の黒画素の集合が所定の次元数で規則的に配列されている。
The imaging unit 3 captures an image of a seal S (see FIG. 5A) of a seal stamped on the recording medium as a specific subject.
Here, the imprint S includes code information obtained by encoding predetermined information into a regular array of pixel sets in the imprint image (for example, an image schematically representing a train) for forming the imprint S. It may be.
The code information is obtained by encoding original predetermined information (for example, URL) according to a predetermined encoding format (for example, Reed-Solomon code, Golay code, etc.). For example, in the code information, a set of white pixels having a pixel value “1” and a set of black pixels having a pixel value “0” are regularly arranged with a predetermined number of dimensions.

撮像制御部4は、撮像部3による被写体の撮像を制御する。即ち、撮像制御部4は、図示は省略するが、タイミング発生器、ドライバなどを備えている。そして、撮像制御部4は、タイミング発生器、ドライバにより電子撮像部3bを走査駆動して、所定周期毎に光学像を電子撮像部3bにより二次元の画像信号に変換させ、当該電子撮像部3bの撮像領域から1画面分ずつフレーム画像を読み出して画像データ生成部5に出力させる。
また、撮像制御部4は、AF(自動合焦処理)、AE(自動露出処理)、AWB(自動ホワイトバランス)等の被写体の撮像条件の調整制御を行う。
The imaging control unit 4 controls the imaging of the subject by the imaging unit 3. That is, the imaging control unit 4 includes a timing generator, a driver, and the like, although not illustrated. Then, the imaging control unit 4 scans and drives the electronic imaging unit 3b with a timing generator and a driver, converts the optical image into a two-dimensional image signal with the electronic imaging unit 3b at a predetermined period, and the electronic imaging unit 3b. The frame image is read out from the imaging area for each screen and is output to the image data generation unit 5.
In addition, the imaging control unit 4 performs adjustment control of imaging conditions of the subject such as AF (automatic focusing process), AE (automatic exposure process), AWB (automatic white balance), and the like.

画像データ生成部5は、電子撮像部3bから転送されたフレーム画像のアナログ値の信号に対してRGBの各色成分毎に適宜ゲイン調整した後に、サンプルホールド回路(図示略)でサンプルホールドしてA/D変換器(図示略)でデジタルデータに変換し、カラープロセス回路(図示略)で画素補間処理及びγ補正処理を含むカラープロセス処理を行った後、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成する。   The image data generation unit 5 appropriately adjusts the gain for each color component of RGB with respect to the analog value signal of the frame image transferred from the electronic image pickup unit 3b, and then samples and holds it by a sample hold circuit (not shown). The digital signal is converted into digital data by a / D converter (not shown), color processing including pixel interpolation processing and γ correction processing is performed by a color process circuit (not shown), and then a digital luminance signal Y and color difference signal Cb , Cr (YUV data).

そして、画像データ生成部5は、生成された各フレーム画像のYUVデータをメモリ2に順次出力し、当該メモリ2に格納させる。   Then, the image data generation unit 5 sequentially outputs the generated YUV data of each frame image to the memory 2 and stores it in the memory 2.

画像登録部6は、少なくとも一の登録画像Ia(図3参照)を登録するデータベース6aを具備している。
データベース(登録手段)6aは、特徴情報を対応付けて各登録画像Iaを記録する。即ち、データベース6aは、特徴抽出処理(後述)により抽出された各登録画像Iaの特徴情報としての特徴点の座標位置及び特徴量(例えば、SIFT(Scale-Invariant Features Transform)特徴量等)を各登録画像Ia毎に記録する。ここで、各登録画像Iaの特徴点の座標位置及び特徴量(特徴情報)は、画像分割部7eにより分割された複数の小領域A1、…毎にテーブル化して記録されていても良い。
また、データベース6aは、登録画像Iaの各々について、登録画像Ia内に存する所定の被写体の位置及び当該登録画像Iaの大きさを表す被写体情報を対応付けて記録しても良い。ここで、被写体情報は、例えば、被写体情報算出処理(後述)により算出された登録画像Iaを構成する各画素の座標位置の平均値(重心)及び当該登録画像Iaの共分散行列の固有値がそれぞれ被写体の位置及び登録画像Iaの大きさとして表されている。
The image registration unit 6 includes a database 6a for registering at least one registered image Ia (see FIG. 3).
The database (registration means) 6a records each registered image Ia in association with the feature information. That is, the database 6a stores the coordinate positions and feature amounts of feature points (eg, SIFT (Scale-Invariant Features Transform) feature amounts, etc.) as feature information of each registered image Ia extracted by feature extraction processing (described later). Recorded for each registered image Ia. Here, the coordinate positions and feature amounts (feature information) of the feature points of each registered image Ia may be recorded as a table for each of the plurality of small areas A1,... Divided by the image dividing unit 7e.
Further, the database 6a may record each registered image Ia in association with subject information indicating the position of a predetermined subject existing in the registered image Ia and the size of the registered image Ia. Here, the subject information includes, for example, the average value (center of gravity) of the coordinate position of each pixel constituting the registered image Ia calculated by subject information calculation processing (described later) and the eigenvalue of the covariance matrix of the registered image Ia. It is expressed as the position of the subject and the size of the registered image Ia.

なお、登録画像Iaとしては、例えば、印章の印面に所定の印を形成するための印影モデル画像や、記録媒体に押印された印影Sを撮像した印影撮像画像等が挙げられるが、一例であってこれに限られるものではなく、適宜任意に変更可能である。
また、登録画像Iaには、所定の情報を画素集合の規則的な配列に符号化したコード情報が含まれていても良い。
Examples of the registered image Ia include an imprint model image for forming a predetermined mark on the seal surface of a seal, an imprint image obtained by capturing an imprint S imprinted on a recording medium, and the like. However, the present invention is not limited to this, and can be arbitrarily changed as appropriate.
The registered image Ia may include code information obtained by encoding predetermined information into a regular array of pixel sets.

画像処理部7は、画像取得部7aと、被写体情報算出部7bと、特徴抽出部7cと、対応領域特定部7dと、画像分割部7eと、照合対象領域設定部7fと、画像照合部7gとを具備している。
なお、画像処理部7の各部は、例えば、所定のロジック回路から構成されているが、当該構成は一例であってこれに限られるものではない。
The image processing unit 7 includes an image acquisition unit 7a, a subject information calculation unit 7b, a feature extraction unit 7c, a corresponding region specification unit 7d, an image division unit 7e, a verification target region setting unit 7f, and an image verification unit 7g. It is equipped with.
Note that each unit of the image processing unit 7 is configured by, for example, a predetermined logic circuit, but the configuration is an example and is not limited thereto.

画像取得部7aは、撮像画像Ib(図5(a)参照)を取得する。
即ち、画像取得部(取得手段)7aは、特定の被写体(例えば、記録媒体に押印された印影S等)が撮像された撮像画像Ibを取得する。具体的には、画像取得部7aは、撮像部3により印影Sが撮像されて画像データ生成部5により生成された撮像画像Ibの所定の解像度の画像データ(例えば、輝度データ)の複製をメモリ2から取得する。
The image acquisition unit 7a acquires the captured image Ib (see FIG. 5A).
That is, the image acquisition unit (acquisition unit) 7a acquires a captured image Ib in which a specific subject (for example, an imprint S imprinted on a recording medium) is captured. Specifically, the image acquisition unit 7a stores a copy of image data (for example, luminance data) of a predetermined resolution of the captured image Ib generated by the image data generation unit 5 after the impression S is captured by the imaging unit 3. Get from 2.

被写体情報算出部7bは、撮像画像Ibや登録画像Iaに対して被写体情報算出処理を行う。
即ち、被写体情報算出部(算出手段)7bは、画像取得部7aにより取得された撮像画像Ibにおける特定の被写体の位置及び大きさを表す被写体情報を算出する。具体的には、例えば、被写体情報算出部7bは、撮像画像Ibの画像データに対して被写体情報算出処理を施して、当該撮像画像Ibを構成する各画素の座標位置の平均値(重心)及び当該撮像画像Ibの共分散行列の固有値をそれぞれ特定の被写体(例えば、印影S等)の位置及び撮像画像Ibの大きさを表す被写体情報として算出する。
また、被写体情報算出部7bは、画像登録部6のデータベース6aに登録される登録画像Iaの画像データに対して被写体情報算出処理を施して、当該登録画像Ia内の所定の被写体の位置及び登録画像Iaの大きさを表す被写体情報(例えば、登録画像Iaの重心及び共分散行列の固有値等)を算出する。ここで、被写体情報算出処理は、既にデータベース6aに登録されている画像(登録済み画像)に対して行われても良いし、登録の対象となる画像(登録対象画像)に対して行われても良い。
そして、被写体情報算出部7bは、算出された被写体情報をメモリ2に出力し、当該メモリ2に一時的に格納させる。
The subject information calculation unit 7b performs subject information calculation processing on the captured image Ib and the registered image Ia.
In other words, the subject information calculation unit (calculation unit) 7b calculates subject information representing the position and size of a specific subject in the captured image Ib acquired by the image acquisition unit 7a. Specifically, for example, the subject information calculation unit 7b performs subject information calculation processing on the image data of the captured image Ib, and calculates the average value (center of gravity) of the coordinate position of each pixel constituting the captured image Ib. The eigenvalues of the covariance matrix of the captured image Ib are calculated as subject information representing the position of a specific subject (for example, the seal impression S) and the size of the captured image Ib.
In addition, the subject information calculation unit 7b performs subject information calculation processing on the image data of the registered image Ia registered in the database 6a of the image registration unit 6, and the position and registration of a predetermined subject in the registered image Ia. Subject information representing the size of the image Ia (for example, the center of gravity of the registered image Ia and the eigenvalue of the covariance matrix) is calculated. Here, the subject information calculation process may be performed on an image already registered in the database 6a (registered image), or may be performed on an image to be registered (registered image). Also good.
Then, the subject information calculation unit 7 b outputs the calculated subject information to the memory 2 and temporarily stores it in the memory 2.

特徴抽出部7cは、撮像画像Ibや登録画像Iaに対して特徴抽出処理を行う。
具体的には、特徴抽出部7cは、例えば、画像取得部7aにより取得された撮像画像Ibの画像データに対して所定の特徴抽出処理を施して特徴点を複数抽出し、有効な特徴点における特徴量(例えば、SIFT特徴量等)を算出する。
また、特徴抽出部7cは、例えば、画像登録部6のデータベース6aに登録される登録画像Iaの画像データに対して所定の特徴抽出処理を施して特徴点を複数抽出し、有効な特徴点における特徴量を算出する。ここで、特徴抽出処理は、既にデータベース6aに登録されている画像(登録済み画像)に対して行われても良いし、登録の対象となる画像(登録対象画像)に対して行われても良い。
そして、特徴抽出部7cは、算出された特徴点の座標位置及び特徴量(特徴情報)をメモリ2に出力し、当該メモリ2に一時的に格納させる。
なお、特徴情報としては、例えば、SURF(Speeded Up Robust Features)特徴量を用いて表しても良いし、特徴点の輝度レベルを8bit(256段階)で表現した輝度値(0〜255)を用いて良いし、RGBの各色成分を8bit(256段階)で表現したRGB値(0〜255)を用いても良い。
The feature extraction unit 7c performs feature extraction processing on the captured image Ib and the registered image Ia.
Specifically, for example, the feature extraction unit 7c performs a predetermined feature extraction process on the image data of the captured image Ib acquired by the image acquisition unit 7a to extract a plurality of feature points. A feature amount (for example, a SIFT feature amount) is calculated.
In addition, the feature extraction unit 7c performs a predetermined feature extraction process on the image data of the registered image Ia registered in the database 6a of the image registration unit 6, for example, to extract a plurality of feature points. The feature amount is calculated. Here, the feature extraction processing may be performed on an image (registered image) already registered in the database 6a, or may be performed on an image to be registered (registered image). good.
Then, the feature extraction unit 7 c outputs the calculated coordinate position and feature amount (feature information) of the feature point to the memory 2 and temporarily stores them in the memory 2.
The feature information may be represented by using, for example, a SURF (Speeded Up Robust Features) feature amount, or a brightness value (0 to 255) expressing the brightness level of the feature point in 8 bits (256 levels). Alternatively, RGB values (0 to 255) expressing each color component of RGB in 8 bits (256 levels) may be used.

対応領域特定部7dは、撮像画像Ib内で対応領域B(図5(a)参照)を特定する。
即ち、対応領域特定部(特定手段)7dは、画像登録部6に登録されている登録画像Iaの画素情報及び画像取得部7aにより取得された撮像画像Ibの画素情報に基づいて、当該撮像画像Ib内で登録画像Iaと対応する対応領域Bを特定する。具体的には、対応領域特定部7dは、被写体情報算出部7bにより算出された撮像画像Ib及び登録画像Iaの各々の被写体情報に基づいて、撮像画像Ib内で対応領域Bを特定する。
例えば、対応領域特定部(被写体情報取得手段)7dは、被写体情報算出部7bにより算出された撮像画像Ibの重心及び共分散行列の固有値を取得する。また、対応領域特定部7dは、画像登録部6に登録されている登録画像Iaの中で照合対象となる登録画像Iaの重心及び共分散行列の固有値を取得する。そして、対応領域特定部7dは、撮像画像Ibの重心及び共分散行列の固有値と照合対象の登録画像Iaの重心及び共分散行列の固有値とをそれぞれ比較し、撮像画像Ib内で照合対象の登録画像Iaと対応する対応領域Bを特定する。
これにより、撮像画像Ib内で、登録画像Iaとの照合対象となる領域(対応領域B)の大まかな位置及び大きさが特定される。つまり、登録画像Iaの外形(例えば、正方形等)と略相似の外形の対応領域Bが特定され、当該対応領域B内の特定の被写体(例えば、印影S等)の相対的な位置及び大きさは、登録画像Ia内の所定の被写体の相対的な位置及び大きさと略等しくなる。
The corresponding area specifying unit 7d specifies the corresponding area B (see FIG. 5A) in the captured image Ib.
That is, the corresponding region specifying unit (specifying unit) 7d is configured to detect the captured image based on the pixel information of the registered image Ia registered in the image registering unit 6 and the pixel information of the captured image Ib acquired by the image acquiring unit 7a. A corresponding area B corresponding to the registered image Ia is specified in Ib. Specifically, the corresponding area specifying unit 7d specifies the corresponding area B in the captured image Ib based on the subject information of each of the captured image Ib and the registered image Ia calculated by the subject information calculating unit 7b.
For example, the corresponding region specifying unit (subject information acquisition unit) 7d acquires the center of gravity of the captured image Ib calculated by the subject information calculation unit 7b and the eigenvalue of the covariance matrix. Further, the corresponding area specifying unit 7d acquires the center of gravity of the registered image Ia to be collated and the eigenvalue of the covariance matrix among the registered images Ia registered in the image registering unit 6. Then, the corresponding region specifying unit 7d compares the eigenvalues of the center of gravity and the covariance matrix of the captured image Ib with the eigenvalues of the registered image Ia to be verified and the eigenvalues of the covariance matrix, respectively, A corresponding area B corresponding to the image Ia is specified.
As a result, the approximate position and size of the region (corresponding region B) to be collated with the registered image Ia are specified in the captured image Ib. That is, a corresponding area B having an outline substantially similar to the outer shape (for example, a square) of the registered image Ia is specified, and the relative position and size of a specific subject (for example, an imprint S) in the corresponding area B is specified. Is substantially equal to the relative position and size of a predetermined subject in the registered image Ia.

なお、例えば、対応領域特定部7dは、撮像画像Ibの被写体情報の内容から特定の被写体が構図全体に存すると判断した場合、当該撮像画像Ib全体を対応領域Bとして特定しても良い。即ち、対応領域特定部7dは、被写体情報算出部7bにより算出された撮像画像Ibの被写体情報に基づいて、撮像画像Ib内で対応領域Bを特定しても良い。   For example, the corresponding area specifying unit 7d may specify the entire captured image Ib as the corresponding area B when it is determined from the content of the subject information of the captured image Ib that the specific subject exists in the entire composition. That is, the corresponding area specifying unit 7d may specify the corresponding area B in the captured image Ib based on the subject information of the captured image Ib calculated by the subject information calculating unit 7b.

画像分割部7eは、撮像画像Ibの対応領域Bを複数の小領域B1、…に分割する。
即ち、画像分割部(分割手段)7eは、対応領域特定部7dにより特定された対応領域Bを複数の小領域B1、…に分割する。
具体的には、画像分割部7eは、画像登録部6のデータベース6aに登録される登録画像Iaの分割態様(例えば、二等分や四等分等)に応じて対応領域Bを複数の小領域B1、…に分割する。つまり、画像分割部7eは、予め、画像登録部6のデータベース6aに登録される登録画像Iaを所定の分割態様(例えば、四等分)で複数の矩形状の小領域(二点鎖線で囲まれた領域;図3参照)A1、…に分割する。ここで、登録画像Iaの分割は、既にデータベース6aに登録されている画像(登録済み画像)に対して行われても良いし、登録の対象となる画像(登録対象画像)に対して行われても良い。
そして、画像分割部7eは、登録画像Iaを小領域A1に分割した数(例えば、四つ等)と同じ分割数となるように対応領域Bを略等しい形状及び寸法の小領域(一点鎖線で囲まれた領域;図5(b)参照)B1に分割する。
このとき、画像分割部7eは、互いに隣合う小領域B1の端部どうしを重複させるように対応領域Bを複数の小領域B1、…に分割しても良い。例えば、図5(b)に示す対応領域Bの左上小領域B1の場合、画像分割部7eは、当該左上小領域B1の右側端部を右上小領域A1の左側端部と重複させ、且つ、左上小領域B1の下側端部を左下小領域B1の上側端部と重複させ、且つ、左上小領域B1の右下側端部を右下小領域B1の左上側端部と重複させるように分割する。その他の小領域B1についても、略同様であり、その詳細な説明は省略する。
なお、上記した小領域A1、B1の分割数や分割態様は、一例であってこれに限られるものではなく、適宜任意に変更可能である。例えば、小領域A1、B1の外形を互いに異ならせても良いし、隣合う小領域B1と端部どうしを重複させる領域の大きさを互いに異ならせても良い。
The image dividing unit 7e divides the corresponding area B of the captured image Ib into a plurality of small areas B1,.
That is, the image dividing unit (dividing unit) 7e divides the corresponding area B specified by the corresponding area specifying unit 7d into a plurality of small areas B1,.
Specifically, the image dividing unit 7e reduces the corresponding region B to a plurality of small areas according to the division mode (for example, bisection or quadrant) of the registered image Ia registered in the database 6a of the image registration unit 6. The area is divided into areas B1,. That is, the image dividing unit 7e encloses the registered image Ia registered in the database 6a of the image registration unit 6 in advance with a plurality of rectangular small regions (two-dot chain lines) in a predetermined division mode (for example, quadrant). The area is divided into A1,... Here, the division of the registered image Ia may be performed on an image already registered in the database 6a (registered image), or may be performed on an image to be registered (registered image). May be.
Then, the image dividing unit 7e sets the corresponding region B to a small region (indicated by a one-dot chain line) having substantially the same shape and size so as to have the same number of divisions as the number (for example, four) of the registered image Ia divided into the small regions A1. The enclosed area; see FIG. 5B) is divided into B1.
At this time, the image dividing unit 7e may divide the corresponding region B into a plurality of small regions B1,... So as to overlap end portions of the adjacent small regions B1. For example, in the case of the upper left small region B1 of the corresponding region B shown in FIG. 5B, the image dividing unit 7e overlaps the right end of the upper left small region B1 with the left end of the upper right small region A1, and The lower end of the upper left small area B1 is overlapped with the upper end of the lower left small area B1, and the lower right end of the upper left small area B1 is overlapped with the upper left end of the lower right small area B1 To divide. The other small regions B1 are substantially the same, and detailed description thereof is omitted.
Note that the number of divisions and the division mode of the small areas A1 and B1 described above are examples and are not limited thereto, and can be arbitrarily changed as appropriate. For example, the outer shapes of the small regions A1 and B1 may be different from each other, and the sizes of the regions where the adjacent small regions B1 overlap with the end portions may be different from each other.

照合対象領域設定部7fは、撮像画像Ib内で照合対象領域C(図6(a)参照)を設定する。
即ち、照合対象領域設定部(設定手段)7fは、対応領域特定部7dにより特定された対応領域B内で照合対象領域Cを設定する。具体的には、照合対象領域設定部7fは、画像分割部7eにより対応領域Bが分割された複数の小領域B1、…のうち、所定数の小領域B1を照合対象領域Cとして設定する。つまり、照合対象領域設定部7fは、対応領域B内で、当該対応領域Bよりも小さい照合対象領域Cを設定する。
ここで、照合対象領域設定部7fは、照合対象領域Cとして設定される小領域B1の位置や数を、例えば、特徴抽出処理により抽出された特徴点の位置を考慮して変更しても良い。即ち、対応領域Bの略全域から特徴点が抽出されている場合、照合対象領域設定部7fは、対応領域Bが分割された複数の小領域B1、…の全てを照合対象領域Cとして個別に設定しても良い。また、対応領域Bの一部の領域から特徴点が抽出されている場合、照合対象領域設定部7fは、複数の小領域B1、…の中で、特徴点が抽出された領域が含まれる所定数の小領域B1を照合対象領域Cとして設定しても良い。
なお、図6(a)にあっては、対応領域Bのうち、照合対象領域C(左上小領域B1)以外の領域にはドットを付して模式的に表している。
The verification target area setting unit 7f sets a verification target area C (see FIG. 6A) in the captured image Ib.
That is, the collation target area setting unit (setting unit) 7f sets the collation target area C in the corresponding area B specified by the corresponding area specifying unit 7d. Specifically, the collation target area setting unit 7f sets a predetermined number of small areas B1 among the plurality of small areas B1,... Obtained by dividing the corresponding area B by the image dividing unit 7e as collation target areas C. That is, the matching target area setting unit 7 f sets a matching target area C smaller than the corresponding area B in the corresponding area B.
Here, the collation target area setting unit 7f may change the position and number of the small areas B1 set as the collation target area C in consideration of the positions of the feature points extracted by the feature extraction process, for example. . That is, when feature points are extracted from substantially the entire corresponding area B, the collation target area setting unit 7f individually sets all of the plurality of small areas B1,. May be set. When feature points are extracted from a part of the corresponding region B, the collation target region setting unit 7f includes a predetermined region including a region from which the feature points are extracted among the plurality of small regions B1,. A number of small regions B1 may be set as the verification target region C.
In FIG. 6A, the corresponding region B other than the verification target region C (upper left small region B1) is schematically shown with dots.

画像照合部7gは、撮像画像Ibの照合対象領域Cと登録画像Iaとを照合する。
即ち、画像照合部(照合手段)7gは、照合対象領域設定部7fにより設定された照合対象領域Cの特徴情報と、登録画像Iaにおける当該照合対象領域Cに対応する領域(照合用の小領域D)の特徴情報とを対応付け、当該対応付けの結果に基づいて照合対象領域Cと登録画像Iaとを照合する。
The image collating unit 7g collates the collation target area C of the captured image Ib with the registered image Ia.
That is, the image collation unit (collation unit) 7g includes the feature information of the collation target region C set by the collation target region setting unit 7f and the region corresponding to the collation target region C in the registered image Ia (small region for collation). D) feature information is associated with each other, and the collation target area C and the registered image Ia are collated based on the result of the association.

具体的には、画像照合部7gは、特徴抽出処理にて抽出された照合対象領域C(例えば、左上小領域A1等)内の特徴点の座標位置及び特徴量(特徴情報)をメモリ2から取得する。また、画像照合部7gは、登録画像Iaにおける当該照合対象領域Cに対応する照合用の小領域D(図6(a)参照)を特定し、特定された照合用の小領域D内の特徴点の座標位置及び特徴量(特徴情報)を画像登録部6のデータベース6aから取得する。なお、図6(a)にあっては、登録画像Iaのうち、照合用の小領域D以外の領域にはドットを付して模式的に表している。
そして、画像照合部7gは、取得された照合対象領域C内の特徴点と照合用の小領域D内の特徴点との対応付け(マッチング)を行う。このとき、照合対象領域Cが複数設定されている場合には、画像照合部7gは、各照合対象領域C毎に、対応する照合用の小領域Dを特定して特徴点どうしの対応付けを行う。
また、画像照合部7gは、照合対象領域C内の特徴点と照合用の小領域D内の特徴点との対応付けの結果に基づいて、照合対象領域C内の特定の被写体の形状を登録画像Ia内の被写体の形状と略等しい形状に変形するための座標変換行列(ホモグラフィ行例)を算出する。そして、画像照合部7gは、算出された座標変換式に従って、照合対象領域Cに対して座標変換処理を施して、座標変換済み画像Ic(図6(b)参照)を生成する。
また、画像照合部7gは、生成された座標変換済み画像Icの画素値と登録画像Iaの画素値とに基づいて所定の演算を行って、照合対象領域Cと登録画像Iaとの類似度を算出する(類似度算出処理)。なお、類似度算出処理としては、例えば、adaboost(アダブースト)出力計算、SSD(Sum of Squared Differences)等を利用することができるが、一例であってこれに限られるものではなく、適宜任意に変更可能である。
なお、上記した射影変換処理や類似度算出処理は、公知の技術であるので、ここでは詳細な説明を省略する。
Specifically, the image matching unit 7g stores the coordinate positions and feature amounts (feature information) of feature points in the matching target area C (for example, the upper left small area A1) extracted from the feature extraction process from the memory 2. get. Further, the image collating unit 7g identifies a collation small area D (see FIG. 6A) corresponding to the collation target area C in the registered image Ia, and features in the identified collation small area D are identified. The coordinate position and the feature amount (feature information) of the point are acquired from the database 6 a of the image registration unit 6. In FIG. 6A, regions other than the collation small region D in the registered image Ia are schematically shown with dots.
The image matching unit 7g then associates (matches) the acquired feature points in the matching target area C with the feature points in the matching small area D. At this time, when a plurality of collation target areas C are set, the image collation unit 7g specifies a corresponding collation small area D for each collation target area C and associates the feature points with each other. Do.
In addition, the image matching unit 7g registers the shape of a specific subject in the matching target area C based on the result of the association between the feature points in the matching target area C and the feature points in the matching small area D. A coordinate transformation matrix (example of homography line) for transforming into a shape substantially equal to the shape of the subject in the image Ia is calculated. Then, the image matching unit 7g performs a coordinate conversion process on the matching target region C according to the calculated coordinate conversion formula, and generates a coordinate-converted image Ic (see FIG. 6B).
Further, the image matching unit 7g performs a predetermined calculation based on the pixel value of the generated coordinate-converted image Ic and the pixel value of the registered image Ia, and determines the similarity between the matching target region C and the registered image Ia. Calculate (similarity calculation processing). As the similarity calculation processing, for example, adaboost (adaboost) output calculation, SSD (Sum of Squared Differences), etc. can be used. However, this is an example and is not limited to this, and can be arbitrarily changed as appropriate. Is possible.
Note that the projective transformation process and the similarity calculation process described above are known techniques, and thus detailed description thereof is omitted here.

表示部8は、例えば、液晶表示パネルから構成され、表示制御部9からのビデオ信号に基づいて撮像部3により撮像された画像(例えば、ライブビュー画像等)を表示画面に表示する。   The display unit 8 is composed of, for example, a liquid crystal display panel, and displays an image (for example, a live view image) captured by the imaging unit 3 based on a video signal from the display control unit 9 on a display screen.

表示制御部9は、メモリ2に一時的に記憶されている表示用の画像データを読み出して表示部8に表示させる制御を行う。
具体的には、表示制御部9は、VRAM(Video Random Access Memory)、VRAMコントローラ、デジタルビデオエンコーダなどを備えている。そして、デジタルビデオエンコーダは、中央制御部1の制御下にてメモリ2から読み出されてVRAM(図示略)に記憶されている輝度信号Y及び色差信号Cb,Crを、VRAMコントローラを介してVRAMから所定の再生フレームレート(例えば、30fps)で読み出して、これらのデータを元にビデオ信号を発生して表示部8に出力する。
例えば、表示制御部9は、撮像部3及び撮像制御部4により撮像され画像データ生成部5により生成された複数のフレーム画像、…を所定の表示フレームレートで逐次更新しながら表示部8にライブビュー表示させる。
The display control unit 9 performs control to read out display image data temporarily stored in the memory 2 and display it on the display unit 8.
Specifically, the display control unit 9 includes a VRAM (Video Random Access Memory), a VRAM controller, a digital video encoder, and the like. The digital video encoder reads the luminance signal Y and the color difference signals Cb and Cr read from the memory 2 and stored in the VRAM (not shown) under the control of the central control unit 1 through the VRAM controller. Are read out at a predetermined playback frame rate (for example, 30 fps), and a video signal is generated based on these data and output to the display unit 8.
For example, the display control unit 9 performs live updating on the display unit 8 while sequentially updating a plurality of frame images captured by the imaging unit 3 and the imaging control unit 4 and generated by the image data generation unit 5 at a predetermined display frame rate. Display the view.

送受話部10は、通信ネットワークNを介して接続された外部機器の外部ユーザとの通話を行う。
具体的には、送受話部10は、マイク10a、スピーカ10b、データ変換部10c等を備えている。そして、送受話部10は、マイク10aから入力されるユーザの送話音声をデータ変換部10cによりA/D変換処理して送話音声データを中央制御部1に出力するとともに、中央制御部1の制御下にて、通信制御部11から出力されて入力される受話音声データ等の音声データをデータ変換部10cによりD/A変換処理してスピーカ10bから出力する。
The transmitter / receiver unit 10 performs a call with an external user of an external device connected via the communication network N.
Specifically, the transmission / reception unit 10 includes a microphone 10a, a speaker 10b, a data conversion unit 10c, and the like. The transmission / reception unit 10 performs A / D conversion processing on the user's transmission voice input from the microphone 10a by the data conversion unit 10c and outputs the transmission voice data to the central control unit 1. Under the control, voice data such as received voice data outputted and inputted from the communication control unit 11 is D / A converted by the data conversion unit 10c and outputted from the speaker 10b.

通信制御部11は、通信ネットワークN及び通信アンテナ11aを介してデータの送受信を行う。
即ち、通信アンテナ11aは、当該携帯端末100が無線基地局(図示略)との通信で採用している所定の通信方式(例えば、W−CDMA(Wideband Code Division Multiple Access)方式、GSM(Global System for Mobile Communications;登録商標)方式等)に対応したデータの送受信が可能なアンテナである。そして、通信制御部11は、所定の通信方式に対応する通信プロトコルに従って、この通信方式で設定される通信チャネルにより無線基地局との間で通信アンテナ11aを介してデータの送受信を行う。つまり、通信制御部11は、中央制御部1から出力されて入力される指示信号に基づいて、通信相手の外部機器に対して、当該外部機器の外部ユーザとの通話中の音声の送受信や、電子メールのデータの送受信を行う。
なお、通信制御部11の構成は一例であってこれに限られるものではなく、適宜任意に変更可能であり、例えば、図示は省略するが、無線LANモジュールを搭載し、アクセスポイント(Access Point)を介して通信ネットワークNにアクセス可能な構成としても良い。
The communication control unit 11 transmits and receives data via the communication network N and the communication antenna 11a.
That is, the communication antenna 11a is a predetermined communication method (for example, W-CDMA (Wideband Code Division Multiple Access) method, GSM (Global System)) used by the mobile terminal 100 for communication with a radio base station (not shown). for Mobile Communications (registered trademark) system, etc.). The communication control unit 11 transmits / receives data to / from the radio base station via the communication antenna 11a through a communication channel set in the communication method according to a communication protocol corresponding to a predetermined communication method. That is, the communication control unit 11 transmits / receives voice during a call with an external user of the external device to the external device of the communication partner based on the instruction signal output from the central control unit 1 and input, Send and receive e-mail data.
Note that the configuration of the communication control unit 11 is an example and is not limited thereto, and can be arbitrarily changed as appropriate. For example, although not shown, a wireless LAN module is mounted and an access point (Access Point) is provided. It is good also as a structure which can access the communication network N via this.

通信ネットワークNは、例えば、携帯端末100を無線基地局やゲートウェイサーバ(図示略)等を介して外部機器と接続する通信ネットワークである。
また、通信ネットワークNは、例えば、専用線や既存の一般公衆回線を利用して構築された通信ネットワークであり、LAN(Local Area Network)やWAN(Wide Area Network)等の様々な回線形態を適用することが可能である。また、通信ネットワークNには、例えば、電話回線網、ISDN回線網、専用線、移動体通信網、通信衛星回線、CATV回線網等の各種通信ネットワーク網と、IPネットワーク、VoIP(Voice over Internet Protocol)ゲートウェイ、インターネットサービスプロバイダ等が含まれる。
The communication network N is a communication network that connects the mobile terminal 100 to an external device via a wireless base station, a gateway server (not shown), or the like, for example.
The communication network N is a communication network constructed using, for example, a dedicated line or an existing general public line, and various line forms such as a LAN (Local Area Network) and a WAN (Wide Area Network) are applied. Is possible. The communication network N includes, for example, various communication network networks such as a telephone line network, ISDN line network, dedicated line, mobile communication network, communication satellite line, CATV line network, IP network, VoIP (Voice over Internet Protocol). ) Gateways, Internet service providers, etc. are included.

操作入力部12は、端末本体に対して各種指示を入力するためのものである。
具体的には、操作入力部12は、被写体の撮影指示に係るシャッタボタン、モードや機能等の選択指示に係る上下左右のカーソルボタンや決定ボタン、電話の発着信や電子メールの送受信等の実行指示に係る通信関連ボタン、テキストの入力指示に係る数字ボタンや記号ボタン等の各種ボタン(何れも図示略)を備えている。
そして、ユーザにより各種ボタンが操作されると、操作入力部12は、操作されたボタンに応じた操作指示を中央制御部1に出力する。中央制御部1は、操作入力部12から出力され入力された操作指示に従って所定の動作(例えば、被写体の撮像、電話の発着信、電子メールの送受信等)を各部に実行させる。
The operation input unit 12 is for inputting various instructions to the terminal body.
Specifically, the operation input unit 12 executes a shutter button related to a subject photographing instruction, up / down / left / right cursor buttons and a determination button related to a selection instruction of a mode, a function, etc., making / receiving a call, sending / receiving an e-mail, etc. Various buttons (not shown) such as communication-related buttons related to instructions and numeric buttons and symbol buttons related to text input instructions are provided.
When various buttons are operated by the user, the operation input unit 12 outputs an operation instruction corresponding to the operated button to the central control unit 1. The central control unit 1 causes each unit to execute a predetermined operation (for example, imaging of a subject, incoming / outgoing calls, transmission / reception of an e-mail, etc.) according to an operation instruction output from the operation input unit 12 and input.

なお、操作入力部12は、表示部8と一体となって設けられたタッチパネルを有していても良く、ユーザによるタッチパネルの所定操作に基づいて、当該所定操作に応じた操作指示を中央制御部1に出力しても良い。   The operation input unit 12 may include a touch panel provided integrally with the display unit 8, and an operation instruction corresponding to the predetermined operation is given to the central control unit based on a predetermined operation of the touch panel by the user. 1 may be output.

<画像登録処理>
次に、携帯端末100による画像登録処理について、図2及び図3を参照して説明する。
図2は、画像登録処理に係る動作の一例を示すフローチャートである。
<Image registration process>
Next, image registration processing by the mobile terminal 100 will be described with reference to FIGS.
FIG. 2 is a flowchart illustrating an example of an operation related to the image registration process.

図2に示すように、画像処理部7の画像取得部7aは、画像登録部6のデータベース6aに登録される登録対象となる画像(登録対象画像)の画像データ(YUVデータ)を取得する(ステップS1;図3参照)。例えば、画像取得部7aは、印章の印面に所定の印を形成するための印影モデル画像を登録対象画像として、図示しない外部機器や記録媒体等から取得する。   As shown in FIG. 2, the image acquisition unit 7a of the image processing unit 7 acquires image data (YUV data) of an image to be registered (registration target image) registered in the database 6a of the image registration unit 6 ( Step S1; see FIG. For example, the image acquisition unit 7a acquires, as a registration target image, an imprint model image for forming a predetermined mark on a seal face from a not-shown external device or recording medium.

次に、被写体情報算出部7bは、登録対象画像の画像データに対して被写体情報算出処理を施して、当該登録対象画像を構成する各画素の座標位置の平均値(重心)及び当該登録対象画像の共分散行列の固有値を被写体情報として算出する(ステップS2)。続けて、特徴抽出部7cは、登録対象画像の画像データに対して所定の特徴抽出処理を施して特徴点を複数抽出し、有効な特徴点における特徴量(例えば、SIFT特徴量等)を算出する(ステップS3)。   Next, the subject information calculation unit 7b performs subject information calculation processing on the image data of the registration target image, and calculates the average value (center of gravity) of the coordinate positions of each pixel constituting the registration target image and the registration target image. The eigenvalues of the covariance matrix are calculated as subject information (step S2). Subsequently, the feature extraction unit 7c performs a predetermined feature extraction process on the image data of the registration target image to extract a plurality of feature points, and calculates a feature amount (for example, a SIFT feature amount) at an effective feature point. (Step S3).

そして、画像分割部7eは、登録対象画像を所定の分割態様(例えば、四等分)で複数の小領域A1、…に分割する(ステップS4)。
その後、画像登録部6は、登録対象画像の複数の小領域A1、…毎に、各特徴点の座標位置及び特徴量を対応付けるとともに、当該登録対象画像の重心及び共分散行列の固有値(被写体情報)を対応付けてデータベース6aに記録する(ステップS5)。
Then, the image dividing unit 7e divides the registration target image into a plurality of small regions A1,... In a predetermined division mode (for example, equally divided into four) (step S4).
Thereafter, the image registration unit 6 associates the coordinate positions and feature amounts of the feature points for each of the plurality of small regions A1,... Of the registration target image, and also includes the center of gravity of the registration target image and the eigenvalues of the covariance matrix (subject information). Are associated and recorded in the database 6a (step S5).

そして、中央制御部1のCPUは、登録対象となる画像が他にあるか否かを判定する(ステップS6)。ここで、登録対象となる画像が他にあると判定されると(ステップS6;YES)、中央制御部1のCPUは、処理をステップS1に戻し、他の登録対象画像を処理対象として、画像処理部7や画像登録部6にそれ以降の各処理を実行させる。   Then, the CPU of the central control unit 1 determines whether there are other images to be registered (step S6). Here, if it is determined that there is another image to be registered (step S6; YES), the CPU of the central control unit 1 returns the process to step S1, and uses the other registration target image as a processing target. The processing unit 7 and the image registration unit 6 are caused to execute each subsequent process.

一方、ステップS6にて、登録対象となる画像が他にないと判定されると(ステップS6;NO)、中央制御部1のCPUは、当該画像登録処理を終了させる。   On the other hand, when it is determined in step S6 that there is no other image to be registered (step S6; NO), the CPU of the central control unit 1 ends the image registration process.

<画像照合処理>
次に、携帯端末100による画像照合処理について、図4〜図6を参照して説明する。
図4は、画像照合処理に係る動作の一例を示すフローチャートである。
なお、以下の画像照合処理にて撮像される印影Sは、例えば、葉書等の記録媒体の所定位置に押印されているものとする。
<Image matching process>
Next, image collation processing by the mobile terminal 100 will be described with reference to FIGS.
FIG. 4 is a flowchart illustrating an example of an operation related to the image matching process.
It is assumed that the seal S imaged in the following image collation process is stamped at a predetermined position on a recording medium such as a postcard.

図4に示すように、先ず、ユーザによる操作入力部12の所定操作に基づいて撮像指示が入力されると、撮像制御部4は、撮像部3に印影Sを撮像させ、画像データ生成部5は、電子撮像部3bから転送された撮像画像Ibの画像データを生成する(ステップS11)。このとき、印影Sは、例えば、当該印影Sに対して撮像部3のレンズ部3aが所定の角度を有するように斜めに配置された状態で撮像されるものとする。
そして、画像データ生成部5は、生成された撮像画像IbのYUVデータをメモリ2に出力し、当該メモリ2に格納させる。
As shown in FIG. 4, first, when an imaging instruction is input based on a predetermined operation of the operation input unit 12 by the user, the imaging control unit 4 causes the imaging unit 3 to image the seal S, and the image data generation unit 5. Generates image data of the captured image Ib transferred from the electronic imaging unit 3b (step S11). At this time, for example, the imprint S is imaged in a state in which the lens unit 3a of the image capturing unit 3 is arranged obliquely with respect to the imprint S so as to have a predetermined angle.
Then, the image data generation unit 5 outputs the generated YUV data of the captured image Ib to the memory 2 and stores it in the memory 2.

なお、印影Sを撮像し易くするために、表示制御部9は、印影Sの外形に対応するガイド表示を表示部8に表示させても良い。   In addition, in order to make it easy to image the seal impression S, the display control unit 9 may cause the display unit 8 to display a guide display corresponding to the outer shape of the seal impression S.

そして、画像処理部7の画像取得部7aは、メモリ2から画像データ生成部5により生成された撮像画像Ibの所定の解像度の画像データ(例えば、輝度データ)を取得する(ステップS12)。
次に、被写体情報算出部7bは、撮像画像Ibの画像データに対して被写体情報算出処理を施して、当該撮像画像Ibを構成する各画素の座標位置の平均値(重心)及び当該撮像画像Ibの共分散行列の固有値を被写体情報として算出する(ステップS13)。続けて、特徴抽出部7cは、撮像画像Ibの画像データに対して所定の特徴抽出処理を施して特徴点を複数抽出し、有効な特徴点における特徴量(例えば、SIFT特徴量等)を算出する(ステップS14)。
Then, the image acquisition unit 7a of the image processing unit 7 acquires image data (for example, luminance data) of a predetermined resolution of the captured image Ib generated by the image data generation unit 5 from the memory 2 (step S12).
Next, the subject information calculation unit 7b performs subject information calculation processing on the image data of the captured image Ib, and calculates the average value (center of gravity) of the coordinate position of each pixel constituting the captured image Ib and the captured image Ib. The eigenvalue of the covariance matrix is calculated as subject information (step S13). Subsequently, the feature extraction unit 7c performs a predetermined feature extraction process on the image data of the captured image Ib to extract a plurality of feature points, and calculates a feature amount (for example, a SIFT feature amount) at an effective feature point. (Step S14).

その後、対応領域特定部7dは、画像登録部6のデータベース6aから照合対象となる何れか一の登録画像Iaの画像データ及び当該登録画像Iaの重心及び共分散行列の固有値を読み出して取得する(ステップS15)。続けて、対応領域特定部7dは、被写体情報算出部7bにより算出された撮像画像Ibの重心及び共分散行列の固有値を取得して、撮像画像Ibの重心及び共分散行列の固有値と照合対象の登録画像Iaの重心及び共分散行列の固有値とをそれぞれ比較し、撮像画像Ib内で照合対象の登録画像Iaと対応する対応領域Bを特定する(ステップS16;図5(a)参照)。   Thereafter, the corresponding area specifying unit 7d reads out and acquires the image data of any one registered image Ia to be collated, the centroid of the registered image Ia, and the eigenvalue of the covariance matrix from the database 6a of the image registration unit 6 ( Step S15). Subsequently, the corresponding area specifying unit 7d acquires the centroid and eigenvalue of the covariance matrix of the captured image Ib calculated by the subject information calculation unit 7b, and the centroid of the captured image Ib and the eigenvalue of the covariance matrix and the matching target The center of gravity of the registered image Ia and the eigenvalue of the covariance matrix are respectively compared, and the corresponding region B corresponding to the registered image Ia to be collated is specified in the captured image Ib (step S16; see FIG. 5A).

次に、画像分割部7eは、対応領域Bを登録画像Iaの分割態様(例えば、四等分等)に応じて複数(例えば、四つ)の小領域B1に分割する(ステップS17;図5(b)参照)。具体的には、画像分割部7eは、複数の小領域B1、…の中で互いに隣合う小領域B1の端部どうしを重複させるように対応領域Bを分割する。
そして、照合対象領域設定部7fは、対応領域Bの複数の小領域B1、…の中で、所定数の小領域B1(例えば、左上小領域B1等)を照合対象領域Cとして設定する(ステップS18)。
Next, the image dividing unit 7e divides the corresponding area B into a plurality of (for example, four) small areas B1 according to the division mode (for example, quadrant) of the registered image Ia (step S17; FIG. 5). (See (b)). Specifically, the image dividing unit 7e divides the corresponding region B so that end portions of the adjacent small regions B1 overlap each other among the plurality of small regions B1,.
Then, the collation target area setting unit 7f sets a predetermined number of small areas B1 (for example, the upper left small area B1) among the plurality of small areas B1,. S18).

次に、画像照合部7gは、照合対象領域C内の特徴点の座標位置及び特徴量(特徴情報)をメモリ2から取得するとともに、登録画像Iaにおける当該照合対象領域Cに対応する照合用の小領域D内の特徴点の座標位置及び特徴量(特徴情報)をデータベース6aから取得して、照合対象領域C内の特徴点と照合用の小領域D内の特徴点との対応付け(マッチング)を行う(ステップS19;図6(a)参照)。続けて、画像照合部7gは、照合対象領域C内の特徴点と照合用の小領域D内の特徴点との対応付けの結果に基づいて座標変換行列(ホモグラフィ行例)を算出して、算出された座標変換式に従って照合対象領域Cに対して座標変換処理を施して、座標変換済み画像Icを生成する(ステップS20;図6(b)参照)。
そして、画像照合部7gは、生成された座標変換済み画像Icの画素値と登録画像Iaの画素値とに基づいて所定の演算を行って、照合対象領域Cと登録画像Iaとの類似度を算出する(ステップS21)。画像照合部7gは、算出された類似度をメモリ2に出力し、当該類似度は登録画像Iaの識別情報と対応付けて一時的に格納される。
なお、照合対象領域Cに対する座標変換処理は、必ずしも行う必要はなく、当該処理をスキップしても良い。
Next, the image matching unit 7g acquires the coordinate position and feature amount (feature information) of the feature point in the matching target area C from the memory 2 and uses the matching point corresponding to the matching target area C in the registered image Ia. The coordinate position and feature amount (feature information) of the feature points in the small area D are acquired from the database 6a, and the feature points in the collation target area C and the feature points in the collation small area D are associated (matching). (Step S19; see FIG. 6A). Subsequently, the image matching unit 7g calculates a coordinate transformation matrix (homography row example) based on the result of the correspondence between the feature points in the matching target region C and the feature points in the matching small region D. Then, a coordinate conversion process is performed on the verification target area C according to the calculated coordinate conversion formula to generate a coordinate-converted image Ic (step S20; see FIG. 6B).
Then, the image matching unit 7g performs a predetermined calculation based on the pixel value of the generated coordinate-converted image Ic and the pixel value of the registered image Ia, and determines the similarity between the matching target region C and the registered image Ia. Calculate (step S21). The image matching unit 7g outputs the calculated similarity to the memory 2, and the similarity is temporarily stored in association with the identification information of the registered image Ia.
Note that the coordinate conversion process for the verification target area C is not necessarily performed, and the process may be skipped.

その後、中央制御部1のCPUは、照合対象となる登録画像Iaが他にあるか否かを判定する(ステップS22)。ここで、照合対象となる画像が他にあると判定されると(ステップS22;YES)、中央制御部1のCPUは、処理をステップS15に戻し、データベース6aの他の登録画像Iaを照合対象として、画像処理部7にそれ以降の各処理を実行させる。
一方、ステップS22にて、照合対象となる登録画像Iaが他にないと判定されると(ステップS22;NO)、画像処理部7は、メモリ2から各登録画像Iaに対応する類似度を取得して、最も類似度が高い登録画像Iaを選択して(ステップS23)、当該画像登録処理を終了する。
Thereafter, the CPU of the central control unit 1 determines whether there is another registered image Ia to be collated (step S22). Here, if it is determined that there is another image to be collated (step S22; YES), the CPU of the central control unit 1 returns the process to step S15 and selects another registered image Ia from the database 6a as a collation target. Then, the image processing unit 7 is caused to execute each subsequent process.
On the other hand, when it is determined in step S22 that there is no other registered image Ia to be collated (step S22; NO), the image processing unit 7 acquires the similarity corresponding to each registered image Ia from the memory 2. Then, the registered image Ia having the highest similarity is selected (step S23), and the image registration process is terminated.

その後、画像処理部7の情報読取部(図示略)は、例えば、選択された登録画像Iaの二値化画像を生成し、画素値「1」の白画素の集合及び画素値「0」の黒画素の集合の配列に対して、コード情報の符号化方式に応じた復号処理を施して、コード情報によって表される元の所定の情報(例えば、URL等)を読み取る。
中央制御部1のCPUは、情報読取部により読み取られた所定の情報(例えば、URL等)に従って当該携帯端末100の各部を制御して、所定の動作(例えば、インターネットにアクセスして、特定の音声や画像の再生等)を実行させる。
なお、上記した所定の情報の読取処理や対応する所定の動作の実行処理は、必ずしも行う必要はない。
Thereafter, the information reading unit (not shown) of the image processing unit 7 generates a binarized image of the selected registered image Ia, for example, and collects a set of white pixels having a pixel value “1” and a pixel value “0”. The array of black pixels is subjected to a decoding process according to the encoding method of code information, and original predetermined information (for example, URL) represented by the code information is read.
The CPU of the central control unit 1 controls each unit of the portable terminal 100 according to predetermined information (for example, URL) read by the information reading unit, and performs predetermined operations (for example, accessing the Internet to specify specific information). Sound, image playback, etc.).
The predetermined information reading process and the corresponding predetermined operation execution process are not necessarily performed.

以上のように、実施形態1の携帯端末100によれば、画像登録部6に登録されている登録画像Iaの画素情報及び撮像画像(例えば、記録媒体に押印された印影Sを撮像した画像等)Ibの画素情報に基づいて、当該撮像画像Ib内で登録画像Iaと対応する対応領域Bを特定し、対応領域B内で照合対象領域Cを設定して、設定された照合対象領域Cの特徴情報(例えば、特徴点の位置及び特徴量等)と、登録画像Iaにおける当該照合対象領域Cに対応する領域(例えば、照合用の小領域D)の特徴情報とを対応付け、当該対応付けの結果に基づいて照合対象領域Cと登録画像Iaとを照合することができる。このとき、予め大まかな位置合わせとして撮像画像Ib内で登録画像Iaと対応する対応領域Bを特定し、対応領域B内で当該対応領域Bよりも小さい照合対象領域Cを設定して利用することで、相対的に単純なテクスチャで構成され、類似するテクスチャ(例えば、電車の画像では、パンタグラフや窓や車輪等)が複数存する画像であっても、当該照合対象領域C内に類似するテクスチャが複数存し難くなり、照合対象領域C内の特徴情報と登録画像Iaの特徴情報との対応付けにおいて誤対応を生じさせ難くすることができる。
即ち、例えば、図6(a)に示す対応領域Bでは、照合対象領域C内に電車の左側のパンタグラフに相当する部分が存在し、照合対象領域C以外の領域(ドットを付した領域)に右側のパンタグラフに相当する部分が存在している。一方、登録画像Iaの照合用の小領域Dには、左側のパンタグラフに相当する部分のみが存在している。従って、例えば、撮像画像Ibの左側のパンタグラフに相当する部分の特徴情報と登録画像Iaの右側のパンタグラフに相当する部分の特徴情報とが誤って対応付けられることを抑制することができる。
これにより、撮像画像Ibの照合対象領域Cと登録画像Iaとの比較照合を適正に行うことができることとなって、画像どうしの照合を精度良く適正に行うことができる。
As described above, according to the mobile terminal 100 of the first embodiment, the pixel information and the captured image of the registered image Ia registered in the image registration unit 6 (for example, an image obtained by capturing the imprint S imprinted on the recording medium) ) Based on the pixel information of Ib, the corresponding region B corresponding to the registered image Ia is specified in the captured image Ib, the matching target region C is set in the corresponding region B, and the set matching target region C The feature information (for example, the position and feature amount of the feature point) is associated with the feature information of the region (for example, the small region D for matching) corresponding to the matching target region C in the registered image Ia, and the association Based on the result, the verification target area C and the registered image Ia can be verified. At this time, as a rough alignment, a corresponding area B corresponding to the registered image Ia is specified in the captured image Ib in advance, and a collation target area C smaller than the corresponding area B is set and used in the corresponding area B. Thus, even if the image is composed of relatively simple textures and has a plurality of similar textures (for example, a pantograph, a window, a wheel, etc. in a train image), similar textures are present in the comparison target region C. It is difficult for a plurality to exist, and it is difficult to cause an incorrect correspondence in the correspondence between the feature information in the verification target region C and the feature information of the registered image Ia.
That is, for example, in the corresponding region B shown in FIG. 6A, there is a portion corresponding to the pantograph on the left side of the train in the verification target region C, and the region other than the verification target region C (region with dots). There is a part corresponding to the pantograph on the right side. On the other hand, only a portion corresponding to the left pantograph exists in the small area D for verification of the registered image Ia. Therefore, for example, it is possible to prevent the feature information of the portion corresponding to the pantograph on the left side of the captured image Ib from being erroneously associated with the feature information of the portion corresponding to the pantograph on the right side of the registered image Ia.
As a result, the comparison target region C of the captured image Ib and the registered image Ia can be properly compared, and the images can be accurately verified with high accuracy.

また、対応領域Bを分割した複数の小領域B1、…のうち、所定数の小領域B1を照合対象領域Cとして設定するので、撮像画像Ib内で対応領域Bよりも小さい照合対象領域Cの設定を簡便なものとすることができる。特に、互いに隣合う小領域B1の端部どうしを重複させるように対応領域Bを複数の小領域B1、…に分割することで、隣合う小領域B1どうしの境界の特徴情報についても適正に対応付けを行うことができ、照合対象領域C内の特徴情報と登録画像Iaの特徴情報との対応付けにおいて誤対応をより生じさせ難くすることができる。
また、登録画像Iaを複数の小領域A1、…に分割して、当該登録画像Iaの分割態様に応じて対応領域Bを複数の小領域B1、…に分割するので、登録画像Iaにおける照合対象領域Cに対応する領域の特定を適正に行うことができ、照合対象領域C内の特徴情報と登録画像Iaにおける照合対象領域Cに対応する領域の特徴情報との対応付けをより適正に行うことができる。
In addition, since a predetermined number of small regions B1 among the plurality of small regions B1,... Obtained by dividing the corresponding region B are set as the verification target region C, the verification target region C smaller than the corresponding region B in the captured image Ib. Setting can be simplified. In particular, by dividing the corresponding area B into a plurality of small areas B1,... So that the ends of the adjacent small areas B1 overlap each other, it is possible to appropriately deal with the feature information on the boundary between the adjacent small areas B1. Thus, it is possible to make it more difficult to cause erroneous correspondence in the association between the feature information in the verification target region C and the feature information of the registered image Ia.
Further, the registered image Ia is divided into a plurality of small areas A1,... And the corresponding area B is divided into a plurality of small areas B1,... According to the division mode of the registered image Ia. The region corresponding to the region C can be specified appropriately, and the feature information in the collation target region C and the feature information of the region corresponding to the collation target region C in the registered image Ia are more appropriately associated. Can do.

また、撮像画像Ibにおける特定の被写体の位置及び当該撮像画像Ibの大きさを表す被写体情報に基づいて、撮像画像Ib内で対応領域Bを特定するので、撮像画像Ibにおける特定の被写体の位置や当該撮像画像Ibの大きさ等を考慮して当該撮像画像Ib内で対応領域Bを適正に特定することができる。特に、撮像画像Ibの被写体情報に加えて登録画像Iaの被写体情報に基づいて、撮像画像Ib内で対応領域Bを特定することで、撮像画像Ibにおける特定の被写体の位置や当該撮像画像Ibの大きさだけでなく登録画像Iaにおける所定の被写体の位置や当該登録画像Iaの大きさ等も考慮して撮像画像Ib内で対応領域Bをより適正に特定することができる。   Further, since the corresponding region B is specified in the captured image Ib based on the position of the specific subject in the captured image Ib and the subject information indicating the size of the captured image Ib, the position of the specific subject in the captured image Ib The corresponding region B can be appropriately specified in the captured image Ib in consideration of the size of the captured image Ib and the like. In particular, by specifying the corresponding region B in the captured image Ib based on the subject information of the registered image Ia in addition to the subject information of the captured image Ib, the position of the specific subject in the captured image Ib and the captured image Ib Considering not only the size but also the position of a predetermined subject in the registered image Ia, the size of the registered image Ia, and the like, the corresponding region B can be more appropriately specified in the captured image Ib.

[実施形態2]
以下に、実施形態2の携帯端末200について、図7〜図12を参照して説明する。
実施形態2の携帯端末200は、以下に詳細に説明する以外の点で上記実施形態1の携帯端末100と略同様の構成をなし、詳細な説明は省略する。
[Embodiment 2]
Below, the portable terminal 200 of Embodiment 2 is demonstrated with reference to FIGS.
The portable terminal 200 according to the second embodiment has substantially the same configuration as the portable terminal 100 according to the first embodiment except for the details described below, and detailed description thereof is omitted.

図7は、本発明を適用した実施形態2の携帯端末200の概略構成を示すブロック図である。
図7に示すように、実施形態2の携帯端末200の画像処理部207は、画像取得部7aと、顔検出部7hと、特徴抽出部7cと、対応領域特定部7dと、画像分割部7eと、照合対象領域設定部7fと、画像照合部7gとを具備している。
なお、画像処理部207を構成する各部は、以下に説明する以外の点で上記実施形態1の携帯端末100に備わるものと略同様の構成及び機能をなし、その詳細な説明は省略する。
FIG. 7 is a block diagram showing a schematic configuration of the mobile terminal 200 according to the second embodiment to which the present invention is applied.
As shown in FIG. 7, the image processing unit 207 of the mobile terminal 200 according to the second embodiment includes an image acquisition unit 7a, a face detection unit 7h, a feature extraction unit 7c, a corresponding area specifying unit 7d, and an image dividing unit 7e. A collation target area setting unit 7f and an image collation unit 7g.
Note that the components constituting the image processing unit 207 have substantially the same configurations and functions as those provided in the portable terminal 100 of the first embodiment except for those described below, and detailed descriptions thereof are omitted.

顔検出部7hは、撮像画像Ibや登録画像Iaに対して顔検出処理を行う。
即ち、顔検出部7hは、画像取得部7aにより取得された撮像画像Ibの画像データに対して所定の顔検出処理を行って、当該撮像画像Ib内の特定の被写体である人物(ヒト)の顔Fが含まれる顔領域Ebを検出する。このとき、顔検出部7hは、例えば、顔Fを構成する目、鼻、口等の各構成要素を検出しても良い。
また、顔検出部7hは、画像登録部6のデータベース6aに登録される登録画像Ia(図9(a)等参照)の画像データに対して所定の顔検出処理を行って、当該登録画像Ia内の顔領域Eaを検出する。ここで、顔検出処理は、既にデータベース6aに登録されている画像(登録済み画像)に対して行われても良いし、登録の対象となる画像(登録対象画像)に対して行われても良い。
また、上記した顔検出処理は、公知の技術であるので、ここでは詳細な説明を省略する。
The face detection unit 7h performs face detection processing on the captured image Ib and the registered image Ia.
That is, the face detection unit 7h performs a predetermined face detection process on the image data of the captured image Ib acquired by the image acquisition unit 7a, and the person (human) that is a specific subject in the captured image Ib. A face area Eb including the face F is detected. At this time, the face detection unit 7h may detect each component such as eyes, nose, and mouth constituting the face F, for example.
Further, the face detection unit 7h performs a predetermined face detection process on the image data of the registered image Ia (see FIG. 9A, etc.) registered in the database 6a of the image registration unit 6, and the registered image Ia An inner face area Ea is detected. Here, the face detection process may be performed on an image (registered image) already registered in the database 6a, or may be performed on an image to be registered (registered image). good.
Further, since the face detection process described above is a known technique, detailed description thereof is omitted here.

対応領域特定部7dは、撮像画像Ib内で顔検出部7hにより検出された顔領域Ebを対応領域B(図11(a)参照)として特定する。
即ち、対応領域特定部7dは、撮像画像Ib内で顔検出部7hにより検出された顔領域Ebを、画像登録部6に登録されている登録画像Iaの顔領域Eaと対応する対応領域Bとして特定する。
The corresponding area specifying unit 7d specifies the face area Eb detected by the face detecting unit 7h in the captured image Ib as the corresponding area B (see FIG. 11A).
That is, the corresponding area specifying unit 7d uses the face area Eb detected by the face detecting unit 7h in the captured image Ib as a corresponding area B corresponding to the face area Ea of the registered image Ia registered in the image registration unit 6. Identify.

画像分割部7eは、撮像画像Ibの対応領域Bとして特定された顔領域Ebを複数の小領域B1、…に分割する。
具体的には、画像分割部7eは、画像登録部6のデータベース6aに登録される登録画像Iaの分割態様に応じて撮像画像Ibの顔領域Ebを複数の小領域B1、…に分割する。つまり、画像分割部7eは、予め、画像登録部6のデータベース6aに登録される登録画像Iaを、顔検出部7hにより検出された顔領域Ea(特に、顔領域Ea内の目、鼻、口等の位置)を基準とする所定の分割態様で複数の矩形状の小領域(二点鎖線で囲まれた領域)A1、…に分割する。例えば、画像分割部7eは、顔領域Eaを左右に二等分する態様(図9(a)参照)、顔領域Eaの上側のみを二等分する態様(図9(b)参照)、顔領域Eaを上下左右に等分する態様(図9(c)参照)等で複数の小領域A1、…に分割する。ここで、登録画像Iaの分割は、既にデータベース6aに登録されている画像(登録済み画像)に対して行われても良いし、登録の対象となる画像(登録対象画像)に対して行われても良い。
そして、画像分割部7eは、登録画像Iaを小領域A1に分割した数(例えば、二つ等)と同じ分割数となるように顔領域Eb(対応領域B)を略等しい形状及び寸法の小領域(一点鎖線で囲まれた領域;図11(b)参照)B1に分割する。
このとき、画像分割部7eは、互いに隣合う小領域B1の端部どうしを重複させるように顔領域Ebを複数の小領域B1、…に分割しても良い。例えば、画像分割部7eは、顔領域Ebの左小領域B1の右側端部を右小領域B1の左側端部と重複させ、且つ、右小領域B1の左側端部を左小領域B1の右側端部と重複させるように分割する。
なお、上記した小領域A1、B1の分割数や分割態様は、一例であってこれに限られるものではなく、適宜任意に変更可能である。例えば、隣合う小領域B1と端部どうしを重複させる領域の大きさを互いに異ならせても良い。
The image dividing unit 7e divides the face area Eb specified as the corresponding area B of the captured image Ib into a plurality of small areas B1,.
Specifically, the image division unit 7e divides the face area Eb of the captured image Ib into a plurality of small areas B1,... According to the division mode of the registered image Ia registered in the database 6a of the image registration unit 6. In other words, the image dividing unit 7e uses the registered image Ia registered in advance in the database 6a of the image registration unit 6 as the face area Ea detected by the face detecting unit 7h (in particular, the eyes, nose, mouth in the face area Ea). Are divided into a plurality of small rectangular regions (regions surrounded by a two-dot chain line) A1,. For example, the image dividing unit 7e divides the face area Ea into left and right halves (see FIG. 9A), divides only the upper side of the face area Ea into halves (see FIG. 9B), face The area Ea is divided into a plurality of small areas A1,... In a manner of equally dividing the area Ea vertically and horizontally (see FIG. 9C). Here, the division of the registered image Ia may be performed on an image already registered in the database 6a (registered image), or may be performed on an image to be registered (registered image). May be.
Then, the image dividing unit 7e reduces the face region Eb (corresponding region B) to a small size having a shape and size substantially equal to the number of divisions of the registered image Ia into the small regions A1 (for example, two). The area is divided into areas (areas surrounded by alternate long and short dash lines; see FIG. 11B) B1.
At this time, the image dividing unit 7e may divide the face region Eb into a plurality of small regions B1,... So that the ends of the adjacent small regions B1 overlap each other. For example, the image dividing unit 7e overlaps the right end of the left small region B1 of the face region Eb with the left end of the right small region B1, and the left end of the right small region B1 to the right of the left small region B1. Split to overlap the edges.
Note that the number of divisions and the division mode of the small areas A1 and B1 described above are examples and are not limited thereto, and can be arbitrarily changed as appropriate. For example, the size of the region where the adjacent small region B1 overlaps the end portions may be different from each other.

<画像登録処理>
次に、携帯端末200による画像登録処理について、図8及び図9を参照して説明する。
図8は、画像登録処理に係る動作の一例を示すフローチャートである。
<Image registration process>
Next, image registration processing by the mobile terminal 200 will be described with reference to FIGS.
FIG. 8 is a flowchart illustrating an example of an operation related to the image registration process.

図2に示すように、画像処理部207の画像取得部7aは、画像登録部6のデータベース6aに登録される登録対象となる画像(登録対象画像)の画像データ(YUVデータ)を取得する(ステップS31;図9(a)等参照)。例えば、画像取得部7aは、予め特定の被写体を撮像した画像を登録対象画像として、図示しない外部機器や記録媒体等から取得する。   As shown in FIG. 2, the image acquisition unit 7 a of the image processing unit 207 acquires image data (YUV data) of an image to be registered (image to be registered) registered in the database 6 a of the image registration unit 6 ( Step S31; see FIG. For example, the image acquisition unit 7a acquires an image obtained by capturing a specific subject in advance as a registration target image from an external device or a recording medium (not shown).

次に、顔検出部7hは、登録対象画像の画像データに対して所定の顔検出処理を行って、当該登録画像Ia内の顔領域Eaを検出する(ステップS32)。略全域が顔領域の画像を登録画像Iaとする場合、なお、顔検出部7hは、当該登録画像Iaに対して必ずしも顔検出処理を行う必要はない。
続けて、上記実施形態1の画像登録処理と略同様に、特徴抽出部7cは、登録対象画像の画像データに対して所定の特徴抽出処理を施して特徴点を複数抽出し、有効な特徴点における特徴量(例えば、SIFT特徴量等)を算出する(ステップS3)。
Next, the face detection unit 7h performs a predetermined face detection process on the image data of the registration target image to detect a face area Ea in the registration image Ia (step S32). When the image of the face area of the substantially entire area is set as the registered image Ia, the face detection unit 7h does not necessarily perform the face detection process on the registered image Ia.
Subsequently, in substantially the same manner as the image registration process of the first embodiment, the feature extraction unit 7c performs a predetermined feature extraction process on the image data of the registration target image to extract a plurality of feature points, and an effective feature point. The feature amount (for example, SIFT feature amount) is calculated (step S3).

そして、画像分割部7eは、登録対象画像を、顔検出部7hにより検出された顔領域Eaを基準とする所定の分割態様(例えば、顔領域Eaを左右に二等分する態様)で複数の小領域A1、…に分割する(ステップS34)。
その後、画像登録部6は、登録対象画像の複数の小領域A1、…毎に、各特徴点の座標位置及び特徴量を対応付けてデータベース6aに記録する(ステップS35)。
Then, the image dividing unit 7e includes a plurality of registration target images in a predetermined division mode (for example, a mode in which the face region Ea is equally divided into left and right) based on the face region Ea detected by the face detection unit 7h. It divides | segments into small area | region A1, ... (step S34).
Thereafter, the image registration unit 6 records the coordinate position and the feature amount of each feature point in the database 6a for each of the plurality of small regions A1,... Of the registration target image (step S35).

そして、上記実施形態1の画像登録処理と略同様に、中央制御部1のCPUは、登録対象となる画像が他にあるか否かを判定する(ステップS6)。ここで、登録対象となる画像が他にあると判定されると(ステップS6;YES)、中央制御部1のCPUは、処理をステップS1に戻し、他の登録対象画像を処理対象として、画像処理部207や画像登録部6にそれ以降の各処理を実行させる。   Then, in substantially the same manner as the image registration process of the first embodiment, the CPU of the central control unit 1 determines whether there is another image to be registered (step S6). Here, if it is determined that there is another image to be registered (step S6; YES), the CPU of the central control unit 1 returns the process to step S1, and uses the other registration target image as a processing target. The processing unit 207 and the image registration unit 6 are caused to execute each subsequent process.

一方、ステップS6にて、登録対象となる画像が他にないと判定されると(ステップS6;NO)、中央制御部1のCPUは、当該画像登録処理を終了させる。   On the other hand, when it is determined in step S6 that there is no other image to be registered (step S6; NO), the CPU of the central control unit 1 ends the image registration process.

<画像照合処理>
次に、携帯端末200による画像照合処理について、図10〜図12を参照して説明する。
図10は、画像照合処理に係る動作の一例を示すフローチャートである。
<Image verification processing>
Next, image collation processing by the mobile terminal 200 will be described with reference to FIGS.
FIG. 10 is a flowchart illustrating an example of an operation related to the image matching process.

図10に示すように、先ず、ユーザによる操作入力部12の所定操作に基づいて撮像指示が入力されると、撮像制御部4は、撮像部3に人物の顔Fを被写体として撮像させ、画像データ生成部5は、電子撮像部3bから転送された撮像画像Ibの画像データを生成する(ステップS41)。このとき、人物の顔Fは、例えば、撮像部3のレンズ部3aに対して斜めに配置されたり、光軸を中心として所定の角度回転した状態で撮像されるものとする。
そして、画像データ生成部5は、生成された撮像画像IbのYUVデータをメモリ2に出力し、当該メモリ2に格納させる。
As illustrated in FIG. 10, first, when an imaging instruction is input based on a predetermined operation of the operation input unit 12 by the user, the imaging control unit 4 causes the imaging unit 3 to capture an image of a person's face F as a subject. The data generation unit 5 generates image data of the captured image Ib transferred from the electronic imaging unit 3b (step S41). At this time, for example, the human face F is assumed to be captured obliquely with respect to the lens unit 3a of the imaging unit 3 or rotated at a predetermined angle about the optical axis.
Then, the image data generation unit 5 outputs the generated YUV data of the captured image Ib to the memory 2 and stores it in the memory 2.

そして、上記実施形態1の画像照合処理と略同様に、画像処理部207の画像取得部7aは、メモリ2から画像データ生成部5により生成された撮像画像Ibの所定の解像度の画像データ(例えば、輝度データ)を取得する(ステップS12)。
次に、顔検出部7hは、撮像画像Ibの画像データに対して所定の顔検出処理を行って、当該撮像画像Ib内の顔領域Ebを検出する(ステップS43)。続けて、上記実施形態1の画像照合処理と略同様に、特徴抽出部7cは、撮像画像Ibの画像データに対して所定の特徴抽出処理を施して特徴点を複数抽出し、有効な特徴点における特徴量(例えば、SIFT特徴量等)を算出する(ステップS14)。
The image acquisition unit 7a of the image processing unit 207 has image data with a predetermined resolution (for example, the captured image Ib generated by the image data generation unit 5 from the memory 2), as in the image collation process of the first embodiment. , Luminance data) is acquired (step S12).
Next, the face detection unit 7h performs a predetermined face detection process on the image data of the captured image Ib to detect a face region Eb in the captured image Ib (step S43). Subsequently, in substantially the same manner as in the image matching process in the first embodiment, the feature extraction unit 7c performs a predetermined feature extraction process on the image data of the captured image Ib to extract a plurality of feature points, and an effective feature point. The feature amount (for example, SIFT feature amount) is calculated (step S14).

その後、対応領域特定部7dは、画像登録部6のデータベース6aから照合対象となる何れか一の登録画像Iaの画像データを読み出して取得する(ステップS45)。続けて、対応領域特定部7dは、撮像画像Ib内で顔検出部7hにより検出された顔領域Ebを、照合対象の登録画像Iaの顔領域Eaと対応する対応領域Bとして特定する(ステップS46;図11(a)参照)。   Thereafter, the corresponding area specifying unit 7d reads out and acquires the image data of any one registered image Ia to be collated from the database 6a of the image registration unit 6 (step S45). Subsequently, the corresponding area specifying unit 7d specifies the face area Eb detected by the face detecting unit 7h in the captured image Ib as the corresponding area B corresponding to the face area Ea of the registered image Ia to be collated (step S46). ; See FIG. 11 (a)).

次に、画像分割部7eは、撮像画像Ibの顔領域Ebを登録画像Iaの分割態様(例えば、顔領域Eaを左右に二等分する態様等)に応じて複数(例えば、二つ)の小領域B1、…に分割する(ステップS47;図11(b)参照)。
そして、照合対象領域設定部7fは、顔領域Ebの複数の小領域B1、…の中で、所定数の小領域B1を照合対象領域C(例えば、左小領域B1等)として設定する(ステップS48)。
Next, the image dividing unit 7e has a plurality of (for example, two) face areas Eb of the captured image Ib in accordance with a division mode of the registered image Ia (for example, a mode in which the face area Ea is divided into two equal parts). It divides | segments into small area | region B1, ... (step S47; refer FIG.11 (b)).
Then, the collation target area setting unit 7f sets a predetermined number of small areas B1 as a collation target area C (for example, the left small area B1) among the plurality of small areas B1,. S48).

次に、上記実施形態1の画像照合処理と略同様に、画像照合部7gは、照合対象領域C内の特徴点の座標位置及び特徴量(特徴情報)をメモリ2から取得するとともに、登録画像Iaにおける当該照合対象領域Cに対応する照合用の小領域D内の特徴点の座標位置及び特徴量(特徴情報)をデータベース6aから取得して、照合対象領域C内の特徴点と照合用の小領域D内の特徴点との対応付け(マッチング)を行う(ステップS19;図12(a)参照)。続けて、画像照合部7gは、照合対象領域C内の特徴点と照合用の小領域D内の特徴点との対応付けの結果に基づいて座標変換行列(ホモグラフィ行例)を算出して、算出された座標変換式に従って照合対象領域Cに対して座標変換処理を施して、座標変換済み画像Icを生成する(ステップS20;図12(b)参照)。
そして、画像照合部7gは、生成された座標変換済み画像Icの画素値と登録画像Iaの画素値とに基づいて所定の演算を行って、照合対象領域Cと登録画像Iaとの類似度を算出する(ステップS21)。画像照合部7gは、算出された類似度をメモリ2に出力し、当該類似度は登録画像Iaの識別情報と対応付けて一時的に格納される。
Next, in substantially the same manner as the image matching process of the first embodiment, the image matching unit 7g acquires the coordinate position and feature amount (feature information) of the feature point in the matching target area C from the memory 2 and also registers the registered image. The coordinate position and feature amount (feature information) of the feature point in the small region D for matching corresponding to the matching target region C in Ia are acquired from the database 6a, and the feature point in the matching target region C and the feature point for matching are acquired. Matching (matching) with feature points in the small region D is performed (step S19; see FIG. 12A). Subsequently, the image matching unit 7g calculates a coordinate transformation matrix (homography row example) based on the result of the correspondence between the feature points in the matching target region C and the feature points in the matching small region D. Then, a coordinate conversion process is performed on the verification target region C according to the calculated coordinate conversion formula to generate a coordinate-converted image Ic (step S20; see FIG. 12B).
Then, the image matching unit 7g performs a predetermined calculation based on the pixel value of the generated coordinate-converted image Ic and the pixel value of the registered image Ia, and determines the similarity between the matching target region C and the registered image Ia. Calculate (step S21). The image matching unit 7g outputs the calculated similarity to the memory 2, and the similarity is temporarily stored in association with the identification information of the registered image Ia.

その後、上記実施形態1の画像照合処理と略同様に、中央制御部1のCPUは、照合対象となる登録画像Iaが他にあるか否かを判定する(ステップS22)。ここで、照合対象となる画像が他にあると判定されると(ステップS22;YES)、中央制御部1のCPUは、処理をステップS45に戻し、他の登録画像Iaを照合対象として、画像処理部207にそれ以降の各処理を実行させる。
一方、ステップS22にて、照合対象となる登録画像Iaが他にないと判定されると(ステップS22;NO)、画像処理部207は、メモリ2から各登録画像Iaに対応する類似度を取得して、最も類似度が高い登録画像Iaを選択して(ステップS23)、当該画像登録処理を終了する。
Thereafter, in substantially the same manner as the image collating process of the first embodiment, the CPU of the central control unit 1 determines whether there is another registered image Ia to be collated (step S22). Here, if it is determined that there is another image to be collated (step S22; YES), the CPU of the central control unit 1 returns the process to step S45, and sets the other registered image Ia as a collation target. The processing unit 207 is caused to execute each subsequent process.
On the other hand, when it is determined in step S22 that there is no other registered image Ia to be collated (step S22; NO), the image processing unit 207 obtains the similarity corresponding to each registered image Ia from the memory 2. Then, the registered image Ia having the highest similarity is selected (step S23), and the image registration process is terminated.

以上のように、実施形態2の携帯端末200によれば、上記実施形態1と同様に、撮像画像Ibの照合対象領域Cと登録画像Iaとの比較照合を適正に行うことができることとなって、画像どうしの照合を精度良く適正に行うことができる。さらに、撮像画像Ib内で、特定の被写体である人物の顔Fが含まれる顔領域Ebを対応領域Bとして特定することで、撮像画像Ib内での対応領域Bの特定をより簡便なものとすることができる。即ち、上記実施形態1のように、撮像画像Ibや登録画像Iaの被写体情報を算出する必要がなくなり、人物の撮像処理にて一般的に行われる顔検出処理の結果を利用して対応領域Bの特定をより適正に、且つ、より簡便に行うことができる。   As described above, according to the mobile terminal 200 of the second embodiment, as in the first embodiment, the comparison target region C of the captured image Ib and the registered image Ia can be appropriately compared. Thus, the images can be properly verified with high accuracy. Furthermore, by specifying the face area Eb including the face F of the person who is a specific subject as the corresponding area B in the captured image Ib, it is possible to more easily specify the corresponding area B in the captured image Ib. can do. That is, unlike the first embodiment, it is not necessary to calculate the subject information of the captured image Ib or the registered image Ia, and the corresponding region B is obtained by using the result of the face detection process generally performed in the human image capturing process. Can be specified more appropriately and more easily.

なお、本発明は、上記実施形態1、2に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
例えば、上記実施形態1、2では、撮像部3により撮像された撮像画像Ibを取得するようにしたが、必ずしも画像を撮像する必要はなく、撮像部3を具備するか否かは適宜任意に変更可能である。例えば、外部機器にて撮像された撮像画像を取得するようにしても良い。
The present invention is not limited to the first and second embodiments, and various improvements and design changes may be made without departing from the spirit of the present invention.
For example, in the first and second embodiments, the captured image Ib captured by the imaging unit 3 is acquired. However, it is not always necessary to capture an image, and whether or not the imaging unit 3 is provided is arbitrarily determined as appropriate. It can be changed. For example, a captured image captured by an external device may be acquired.

また、上記実施形態1、2では、照合対象領域Cを対応領域Bが分割された複数の小領域B1、…の中から選択するようにしたが、一例であってこれに限られるものではなく、必ずしも対応領域Bを分割する必要はなく、画像分割部7eを具備するか否かは適宜任意に変更可能である。例えば、照合対象領域設定部7fは、特徴抽出処理により抽出された特徴点の位置を考慮し、対応領域B内で特徴点が抽出された領域が含まれるように照合対象領域Cを設定しても良い。   In the first and second embodiments, the verification target area C is selected from the plurality of small areas B1,... Obtained by dividing the corresponding area B. However, this is an example, and the present invention is not limited to this. It is not always necessary to divide the corresponding region B, and whether or not the image dividing unit 7e is provided can be arbitrarily changed as appropriate. For example, the collation target area setting unit 7f sets the collation target area C so that the area from which the feature points are extracted is included in the corresponding area B in consideration of the position of the feature point extracted by the feature extraction process. Also good.

さらに、上記実施形態1、2では、画像照合装置として、携帯端末100、200を例示したが、一例であってこれに限られるものではなく、画像照合処理の実行を制御可能なものであれば適宜任意に変更可能である。   Further, in the first and second embodiments, the mobile terminals 100 and 200 are illustrated as the image matching devices. However, the portable terminals 100 and 200 are only examples, and are not limited thereto. It can be arbitrarily changed as appropriate.

加えて、上記実施形態1、2にあっては、登録手段、取得手段、特定手段、設定手段、照合手段としての機能を、携帯端末100の中央制御部1の制御下にて、画像登録部6、画像取得部7a、対応領域特定部7d、照合対象領域設定部7f、画像照合部7gが駆動することにより実現される構成としたが、これに限られるものではなく、中央制御部1のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。
即ち、プログラムを記憶するプログラムメモリに、登録処理ルーチン、取得処理ルーチン、特定処理ルーチン、設定処理ルーチン、照合処理ルーチンを含むプログラムを記憶しておく。そして、登録処理ルーチンにより中央制御部1のCPUを、予め少なくとも一の画像を登録する手段として機能させるようにしても良い。また、取得処理ルーチンにより中央制御部1のCPUを、特定の被写体が撮像された撮像画像Ibを取得する手段として機能させるようにしても良い。また、特定処理ルーチンにより中央制御部1のCPUを、予め登録されている登録画像Iaの画素情報及び取得された撮像画像Ibの画素情報に基づいて、当該撮像画像Ib内で登録画像Iaと対応する対応領域Bを特定する手段として機能させるようにしても良い。また、設定処理ルーチンにより中央制御部1のCPUを、特定された対応領域B内で照合対象領域Cを設定する手段として機能させるようにしても良い。また、照合処理ルーチンにより中央制御部1のCPUを、設定された照合対象領域Cの特徴情報と、登録画像Iaにおける当該照合対象領域Cに対応する領域の特徴情報とを対応付け、当該対応付けの結果に基づいて照合対象領域Cと登録画像Iaとを照合する手段として機能させるようにしても良い。
In addition, in the first and second embodiments, functions as a registration unit, an acquisition unit, a specifying unit, a setting unit, and a collation unit are controlled by the image registration unit under the control of the central control unit 1 of the mobile terminal 100. 6, the image acquisition unit 7a, the corresponding region specifying unit 7d, the collation target region setting unit 7f, and the image collation unit 7g are configured to be driven. However, the present invention is not limited to this. A configuration may be realized in which a predetermined program or the like is executed by the CPU.
That is, a program including a registration processing routine, an acquisition processing routine, a specific processing routine, a setting processing routine, and a collation processing routine is stored in a program memory that stores the program. Then, the CPU of the central control unit 1 may function as means for registering at least one image in advance by a registration processing routine. Further, the CPU of the central control unit 1 may function as a means for acquiring a captured image Ib in which a specific subject is captured by an acquisition processing routine. Further, the CPU of the central control unit 1 corresponds to the registered image Ia in the captured image Ib based on the pixel information of the registered image Ia registered in advance and the acquired pixel information of the captured image Ib by the specific processing routine. It may be made to function as a means for specifying the corresponding area B to be performed. Further, the CPU of the central control unit 1 may function as a means for setting the collation target area C in the specified corresponding area B by the setting process routine. Further, the CPU of the central control unit 1 associates the set feature information of the verification target region C with the feature information of the region corresponding to the verification target region C in the registered image Ia by the verification processing routine. On the basis of the result of the above, it may be made to function as a means for comparing the verification target area C and the registered image Ia.

同様に、被写体情報取得手段、分割手段、算出手段についても、中央制御部1のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。   Similarly, the subject information acquisition unit, the division unit, and the calculation unit may be realized by executing a predetermined program or the like by the CPU of the central control unit 1.

さらに、上記の各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体として、ROMやハードディスク等の他、フラッシュメモリ等の不揮発性メモリ、CD−ROM等の可搬型記録媒体を適用することも可能である。また、プログラムのデータを所定の通信回線を介して提供する媒体としては、キャリアウェーブ(搬送波)も適用される。   Furthermore, as a computer-readable medium storing a program for executing each of the above processes, a non-volatile memory such as a flash memory or a portable recording medium such as a CD-ROM is applied in addition to a ROM or a hard disk. Is also possible. A carrier wave is also used as a medium for providing program data via a predetermined communication line.

〔付記〕
本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
<請求項1>
予め少なくとも一の画像を登録する登録手段と、
特定の被写体が撮像された撮像画像を取得する取得手段と、
前記登録手段に登録されている登録画像の画素情報及び前記取得手段により取得された撮像画像の画素情報に基づいて、当該撮像画像内で前記登録画像と対応する対応領域を特定する特定手段と、
前記特定手段により特定された前記対応領域内で照合対象領域を設定する設定手段と、
前記設定手段により設定された前記照合対象領域の特徴情報と、前記登録画像における当該照合対象領域に対応する領域の特徴情報とを対応付け、当該対応付けの結果に基づいて前記照合対象領域と前記登録画像とを照合する照合手段と、
を備えたことを特徴とする画像照合装置。
<請求項2>
前記登録手段は、前記登録画像の重心及び共分散行列の固有値を各登録画像と対応付けて登録し、
前記撮像画像の重心及び共分散行列の固有値を取得する被写体情報取得手段を更に備え、
前記特定手段は、前記被写体情報取得手段により取得された前記撮像画像の重心及び共分散行列の固有値と、前記登録手段に登録されている登録画像の重心及び共分散行列の固有値とをそれぞれ比較することで、前記対応領域を特定することを特徴とする請求項1に記載の画像照合装置。
<請求項3>
前記特定手段により特定された前記対応領域を複数の領域に分割する分割手段を更に備え、
前記設定手段は、前記分割手段により分割された複数の領域のうち、所定数の領域を前記照合対象領域として設定することを特徴とする請求項1又は2に記載の画像照合装置。
<請求項4>
前記分割手段は、更に、前記登録手段に登録される画像を複数の領域に分割し、
前記登録手段は、
前記分割手段により分割された複数の領域毎に、前記特徴情報を対応付けて画像を登録することを特徴とする請求項3に記載の画像照合装置。
<請求項5>
前記分割手段は、更に、前記登録手段に登録される画像の分割態様に応じて前記対応領域を前記複数の領域に分割することを特徴とする請求項4に記載の画像照合装置。
<請求項6>
前記分割手段は、更に、互いに隣合う領域の端部どうしを重複させるように前記対応領域を前記複数の小領域に分割することを特徴とする請求項3〜5の何れか一項に記載の画像照合装置。
<請求項7>
前記取得手段により取得された撮像画像における前記特定の被写体の位置及び当該撮像画像の大きさを表す被写体情報を算出する算出手段を更に備え、
前記特定手段は、
前記算出手段により算出された被写体情報に基づいて、前記撮像画像内で前記対応領域を特定することを特徴とする請求項1〜6の何れか一項に記載の画像照合装置。
<請求項8>
前記算出手段は、更に、前記登録手段に登録される登録画像内の所定の被写体の位置及び当該登録画像の大きさを表す被写体情報を算出し、
前記特定手段は、
前記算出手段により算出された前記撮像画像及び前記登録画像の各々の被写体情報に基づいて、前記撮像画像内で前記対応領域を特定することを特徴とする請求項7に記載の画像照合装置。
<請求項9>
前記特定手段は、前記特定の被写体である印影が含まれる画像領域を前記対応領域として特定することを特徴とする請求項1〜8の何れか一項に記載の画像照合装置。
<請求項11>
前記特定手段は、前記特定の被写体である人物の顔が含まれる顔領域を前記対応領域として特定することを特徴とする請求項1〜8の何れか一項に記載の画像照合装置。
<請求項12>
画像照合装置を用いた画像照合方法であって、
予め少なくとも一の画像を登録する処理と、
特定の被写体が撮像された撮像画像を取得する処理と、
登録されている登録画像の画素情報及び取得された撮像画像の画素情報に基づいて、当該撮像画像内で前記登録画像と対応する対応領域を特定する処理と、
特定された前記対応領域内で照合対象領域を設定する処理と、
設定された前記照合対象領域の特徴情報と、前記登録画像における当該照合対象領域に対応する領域の特徴情報とを対応付け、当該対応付けの結果に基づいて前記照合対象領域と前記登録画像とを照合する処理と、
を含むことを特徴とする画像照合方法。
<請求項13>
画像照合装置のコンピュータを、
予め少なくとも一の画像を登録する登録手段、
特定の被写体が撮像された撮像画像を取得する取得手段、
前記登録手段に登録されている登録画像の画素情報及び前記取得手段により取得された撮像画像の画素情報に基づいて、当該撮像画像内で前記登録画像と対応する対応領域を特定する特定手段、
前記特定手段により特定された前記対応領域内で照合対象領域を設定する設定手段、
前記設定手段により設定された前記照合対象領域の特徴情報と、前記登録画像における当該照合対象領域に対応する領域の特徴情報とを対応付け、当該対応付けの結果に基づいて前記照合対象領域と前記登録画像とを照合する照合手段、
として機能させることを特徴とするプログラム。
[Appendix]
Although several embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and equivalents thereof.
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
<Claim 1>
Registration means for registering at least one image in advance;
Acquisition means for acquiring a captured image in which a specific subject is captured;
A specifying unit for specifying a corresponding area corresponding to the registered image in the captured image based on the pixel information of the registered image registered in the registration unit and the pixel information of the captured image acquired by the acquiring unit;
Setting means for setting a collation target area within the corresponding area specified by the specifying means;
The feature information of the comparison target region set by the setting unit is associated with the feature information of the region corresponding to the comparison target region in the registered image, and based on the result of the association, Collation means for collating registered images;
An image collating apparatus comprising:
<Claim 2>
The registration means registers the center of gravity of the registered image and the eigenvalue of the covariance matrix in association with each registered image,
Subject information acquisition means for acquiring the center of gravity of the captured image and eigenvalues of the covariance matrix,
The specifying unit compares the center of gravity of the captured image acquired by the subject information acquisition unit and the eigenvalue of the covariance matrix with the center of gravity of the registered image registered in the registration unit and the eigenvalue of the covariance matrix, respectively. The image matching apparatus according to claim 1, wherein the corresponding area is specified.
<Claim 3>
Further comprising a dividing means for dividing the corresponding area specified by the specifying means into a plurality of areas;
The image collating apparatus according to claim 1, wherein the setting unit sets a predetermined number of regions as the collation target region among the plurality of regions divided by the dividing unit.
<Claim 4>
The dividing unit further divides the image registered in the registration unit into a plurality of regions,
The registration means includes
The image collating apparatus according to claim 3, wherein an image is registered in association with the feature information for each of a plurality of areas divided by the dividing unit.
<Claim 5>
The image collating apparatus according to claim 4, wherein the dividing unit further divides the corresponding area into the plurality of areas in accordance with a division mode of an image registered in the registration unit.
<Claim 6>
The said division means further divides | segments the said corresponding | compatible area | region into these several small area | regions so that the edge parts of the mutually adjacent area | region may overlap. Image matching device.
<Claim 7>
A calculation unit that calculates subject information indicating the position of the specific subject and the size of the captured image in the captured image acquired by the acquisition unit;
The specifying means is:
The image matching apparatus according to claim 1, wherein the corresponding area is specified in the captured image based on the subject information calculated by the calculation unit.
<Claim 8>
The calculation means further calculates subject information representing a position of a predetermined subject in the registration image registered in the registration means and a size of the registration image,
The specifying means is:
The image collating apparatus according to claim 7, wherein the corresponding region is specified in the captured image based on subject information of each of the captured image and the registered image calculated by the calculating unit.
<Claim 9>
The image collating apparatus according to claim 1, wherein the specifying unit specifies an image area including an imprint that is the specific subject as the corresponding area.
<Claim 11>
The image collating apparatus according to claim 1, wherein the specifying unit specifies a face area including a face of a person who is the specific subject as the corresponding area.
<Claim 12>
An image matching method using an image matching device,
Processing to register at least one image in advance;
A process of acquiring a captured image in which a specific subject is captured;
Based on the pixel information of the registered image registered and the pixel information of the acquired captured image, a process of identifying a corresponding area corresponding to the registered image in the captured image;
A process of setting a matching target area within the identified corresponding area;
The set feature information of the matching target area is associated with the feature information of the area corresponding to the matching target area in the registered image, and the matching target area and the registered image are matched based on the result of the matching. Processing to match,
The image collation method characterized by including this.
<Claim 13>
The computer of the image verification device
Registration means for registering at least one image in advance;
Acquisition means for acquiring a captured image in which a specific subject is captured;
A specifying unit for specifying a corresponding region corresponding to the registered image in the captured image based on the pixel information of the registered image registered in the registration unit and the pixel information of the captured image acquired by the acquiring unit;
Setting means for setting a collation target area within the corresponding area specified by the specifying means;
The feature information of the comparison target region set by the setting unit is associated with the feature information of the region corresponding to the comparison target region in the registered image, and based on the result of the association, Verification means for verifying registered images,
A program characterized by functioning as

100、200 携帯端末
1 中央制御部
6 画像登録部
6a データベース
7、207 画像処理部
7a 画像取得部
7b 被写体情報算出部
7d 対応領域特定部
7e 画像分割部
7f 照合対象領域設定部
7g 画像照合部
7h 顔検出部
100, 200 Mobile terminal 1 Central control unit 6 Image registration unit 6a Database 7, 207 Image processing unit 7a Image acquisition unit 7b Subject information calculation unit 7d Corresponding region specifying unit 7e Image dividing unit 7f Collation target region setting unit 7g Image collating unit 7h Face detector

Claims (12)

予め少なくとも一の画像を登録する登録手段と、
特定の被写体が撮像された撮像画像を取得する取得手段と、
前記登録手段に登録されている登録画像の画素情報及び前記取得手段により取得された撮像画像の画素情報に基づいて、当該撮像画像内で前記登録画像と対応する対応領域を特定する特定手段と、
前記特定手段により特定された前記対応領域内で照合対象領域を設定する設定手段と、
前記設定手段により設定された前記照合対象領域の特徴情報と、前記登録画像における当該照合対象領域に対応する領域の特徴情報とを対応付け、当該対応付けの結果に基づいて前記照合対象領域と前記登録画像とを照合する照合手段と、
を備えたことを特徴とする画像照合装置。
Registration means for registering at least one image in advance;
Acquisition means for acquiring a captured image in which a specific subject is captured;
A specifying unit for specifying a corresponding area corresponding to the registered image in the captured image based on the pixel information of the registered image registered in the registration unit and the pixel information of the captured image acquired by the acquiring unit;
Setting means for setting a collation target area within the corresponding area specified by the specifying means;
The feature information of the comparison target region set by the setting unit is associated with the feature information of the region corresponding to the comparison target region in the registered image, and based on the result of the association, Collation means for collating registered images;
An image collating apparatus comprising:
前記登録手段は、前記登録画像の重心及び共分散行列の固有値を各登録画像と対応付けて登録し、
前記撮像画像の重心及び共分散行列の固有値を取得する被写体情報取得手段を更に備え、
前記特定手段は、前記被写体情報取得手段により取得された前記撮像画像の重心及び共分散行列の固有値と、前記登録手段に登録されている登録画像の重心及び共分散行列の固有値とをそれぞれ比較することで、前記対応領域を特定することを特徴とする請求項1に記載の画像照合装置。
The registration means registers the center of gravity of the registered image and the eigenvalue of the covariance matrix in association with each registered image,
Subject information acquisition means for acquiring the center of gravity of the captured image and eigenvalues of the covariance matrix,
The specifying unit compares the center of gravity of the captured image acquired by the subject information acquisition unit and the eigenvalue of the covariance matrix with the center of gravity of the registered image registered in the registration unit and the eigenvalue of the covariance matrix, respectively. The image matching apparatus according to claim 1, wherein the corresponding area is specified.
前記特定手段により特定された前記対応領域を複数の領域に分割する分割手段を更に備え、
前記設定手段は、前記分割手段により分割された複数の領域のうち、所定数の領域を前記照合対象領域として設定することを特徴とする請求項1又は2に記載の画像照合装置。
Further comprising a dividing means for dividing the corresponding area specified by the specifying means into a plurality of areas;
The image collating apparatus according to claim 1, wherein the setting unit sets a predetermined number of regions as the collation target region among the plurality of regions divided by the dividing unit.
前記分割手段は、更に、前記登録手段に登録される画像を複数の領域に分割し、
前記登録手段は、
前記分割手段により分割された複数の領域毎に、前記特徴情報を対応付けて画像を登録することを特徴とする請求項3に記載の画像照合装置。
The dividing unit further divides the image registered in the registration unit into a plurality of regions,
The registration means includes
The image collating apparatus according to claim 3, wherein an image is registered in association with the feature information for each of a plurality of areas divided by the dividing unit.
前記分割手段は、更に、前記登録手段に登録される画像の分割態様に応じて前記対応領域を前記複数の領域に分割することを特徴とする請求項4に記載の画像照合装置。   The image collating apparatus according to claim 4, wherein the dividing unit further divides the corresponding area into the plurality of areas in accordance with a division mode of an image registered in the registration unit. 前記分割手段は、更に、互いに隣合う領域の端部どうしを重複させるように前記対応領域を前記複数の小領域に分割することを特徴とする請求項3〜5の何れか一項に記載の画像照合装置。   The said division means further divides | segments the said corresponding | compatible area | region into these several small area | regions so that the edge parts of the mutually adjacent area | region may overlap. Image matching device. 前記取得手段により取得された撮像画像における前記特定の被写体の位置及び当該撮像画像の大きさを表す被写体情報を算出する算出手段を更に備え、
前記特定手段は、
前記算出手段により算出された被写体情報に基づいて、前記撮像画像内で前記対応領域を特定することを特徴とする請求項1〜6の何れか一項に記載の画像照合装置。
A calculation unit that calculates subject information indicating the position of the specific subject and the size of the captured image in the captured image acquired by the acquisition unit;
The specifying means is:
The image matching apparatus according to claim 1, wherein the corresponding area is specified in the captured image based on the subject information calculated by the calculation unit.
前記算出手段は、更に、前記登録手段に登録される登録画像内の所定の被写体の位置及び当該登録画像の大きさを表す被写体情報を算出し、
前記特定手段は、
前記算出手段により算出された前記撮像画像及び前記登録画像の各々の被写体情報に基づいて、前記撮像画像内で前記対応領域を特定することを特徴とする請求項7に記載の画像照合装置。
The calculation means further calculates subject information representing a position of a predetermined subject in the registration image registered in the registration means and a size of the registration image,
The specifying means is:
The image collating apparatus according to claim 7, wherein the corresponding region is specified in the captured image based on subject information of each of the captured image and the registered image calculated by the calculating unit.
前記特定手段は、前記特定の被写体である印影が含まれる画像領域を前記対応領域として特定することを特徴とする請求項1〜8の何れか一項に記載の画像照合装置。   The image collating apparatus according to claim 1, wherein the specifying unit specifies an image area including an imprint that is the specific subject as the corresponding area. 前記特定手段は、前記特定の被写体である人物の顔が含まれる顔領域を前記対応領域として特定することを特徴とする請求項1〜8の何れか一項に記載の画像照合装置。   The image collating apparatus according to claim 1, wherein the specifying unit specifies a face area including a face of a person who is the specific subject as the corresponding area. 画像照合装置を用いた画像照合方法であって、
予め少なくとも一の画像を登録する処理と、
特定の被写体が撮像された撮像画像を取得する処理と、
登録されている登録画像の画素情報及び取得された撮像画像の画素情報に基づいて、当該撮像画像内で前記登録画像と対応する対応領域を特定する処理と、
特定された前記対応領域内で照合対象領域を設定する処理と、
設定された前記照合対象領域の特徴情報と、前記登録画像における当該照合対象領域に対応する領域の特徴情報とを対応付け、当該対応付けの結果に基づいて前記照合対象領域と前記登録画像とを照合する処理と、
を含むことを特徴とする画像照合方法。
An image matching method using an image matching device,
Processing to register at least one image in advance;
A process of acquiring a captured image in which a specific subject is captured;
Based on the pixel information of the registered image registered and the pixel information of the acquired captured image, a process of identifying a corresponding area corresponding to the registered image in the captured image;
A process of setting a matching target area within the identified corresponding area;
The set feature information of the matching target area is associated with the feature information of the area corresponding to the matching target area in the registered image, and the matching target area and the registered image are matched based on the result of the matching. Processing to match,
The image collation method characterized by including this.
画像照合装置のコンピュータを、
予め少なくとも一の画像を登録する登録手段、
特定の被写体が撮像された撮像画像を取得する取得手段、
前記登録手段に登録されている登録画像の画素情報及び前記取得手段により取得された撮像画像の画素情報に基づいて、当該撮像画像内で前記登録画像と対応する対応領域を特定する特定手段、
前記特定手段により特定された前記対応領域内で照合対象領域を設定する設定手段、
前記設定手段により設定された前記照合対象領域の特徴情報と、前記登録画像における当該照合対象領域に対応する領域の特徴情報とを対応付け、当該対応付けの結果に基づいて前記照合対象領域と前記登録画像とを照合する照合手段、
として機能させることを特徴とするプログラム。
The computer of the image verification device
Registration means for registering at least one image in advance;
Acquisition means for acquiring a captured image in which a specific subject is captured;
A specifying unit for specifying a corresponding region corresponding to the registered image in the captured image based on the pixel information of the registered image registered in the registration unit and the pixel information of the captured image acquired by the acquiring unit;
Setting means for setting a collation target area within the corresponding area specified by the specifying means;
The feature information of the comparison target region set by the setting unit is associated with the feature information of the region corresponding to the comparison target region in the registered image, and based on the result of the association, Verification means for verifying registered images,
A program characterized by functioning as
JP2013165168A 2013-08-08 2013-08-08 Image collation device, image collation method and program Active JP6217225B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013165168A JP6217225B2 (en) 2013-08-08 2013-08-08 Image collation device, image collation method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013165168A JP6217225B2 (en) 2013-08-08 2013-08-08 Image collation device, image collation method and program

Publications (2)

Publication Number Publication Date
JP2015035070A true JP2015035070A (en) 2015-02-19
JP6217225B2 JP6217225B2 (en) 2017-10-25

Family

ID=52543563

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013165168A Active JP6217225B2 (en) 2013-08-08 2013-08-08 Image collation device, image collation method and program

Country Status (1)

Country Link
JP (1) JP6217225B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020507836A (en) * 2017-01-02 2020-03-12 ガウス サージカル, インコーポレイテッドGauss Surgical, Inc. Tracking surgical items that predicted duplicate imaging
JP2022048963A (en) * 2020-09-15 2022-03-28 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Acquisition method for obstacle three-dimensional position to be used for roadside calculation device, apparatus, electronic device, computer readable storage medium, and computer program
JP7336346B2 (en) 2019-10-04 2023-08-31 日本放送協会 Framing information generator and its program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04155595A (en) * 1990-10-19 1992-05-28 Fujitsu Ltd Character normalization processor
JPH08101915A (en) * 1994-09-30 1996-04-16 Omron Corp Defect inspection method and device therefor
JP2001092963A (en) * 1999-09-27 2001-04-06 Fujitsu Ltd Method and device for collating image
JP2005234810A (en) * 2004-02-18 2005-09-02 Fuji Xerox Co Ltd Image processor

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04155595A (en) * 1990-10-19 1992-05-28 Fujitsu Ltd Character normalization processor
JPH08101915A (en) * 1994-09-30 1996-04-16 Omron Corp Defect inspection method and device therefor
JP2001092963A (en) * 1999-09-27 2001-04-06 Fujitsu Ltd Method and device for collating image
JP2005234810A (en) * 2004-02-18 2005-09-02 Fuji Xerox Co Ltd Image processor

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020507836A (en) * 2017-01-02 2020-03-12 ガウス サージカル, インコーポレイテッドGauss Surgical, Inc. Tracking surgical items that predicted duplicate imaging
JP7268879B2 (en) 2017-01-02 2023-05-08 ガウス サージカル,インコーポレイテッド Tracking Surgical Items Predicting Duplicate Imaging
US11922646B2 (en) 2017-01-02 2024-03-05 Gauss Surgical Inc. Tracking surgical items with prediction of duplicate imaging of items
JP7336346B2 (en) 2019-10-04 2023-08-31 日本放送協会 Framing information generator and its program
JP2022048963A (en) * 2020-09-15 2022-03-28 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Acquisition method for obstacle three-dimensional position to be used for roadside calculation device, apparatus, electronic device, computer readable storage medium, and computer program
US11694445B2 (en) 2020-09-15 2023-07-04 Apollo Intelligent Connectivity (Beijing) Technology Co., Ltd. Obstacle three-dimensional position acquisition method and apparatus for roadside computing device
JP7422105B2 (en) 2020-09-15 2024-01-25 阿波▲羅▼智▲聯▼(北京)科技有限公司 Obtaining method, device, electronic device, computer-readable storage medium, and computer program for obtaining three-dimensional position of an obstacle for use in roadside computing device

Also Published As

Publication number Publication date
JP6217225B2 (en) 2017-10-25

Similar Documents

Publication Publication Date Title
US8509482B2 (en) Subject tracking apparatus, subject region extraction apparatus, and control methods therefor
JP6467787B2 (en) Image processing system, imaging apparatus, image processing method, and program
US9407884B2 (en) Image pickup apparatus, control method therefore and storage medium employing phase difference pixels
CN108668093B (en) HDR image generation method and device
JP5779724B2 (en) Image processing apparatus, imaging apparatus, computer, and program
JP2008152622A (en) Pointing device
US9196029B2 (en) Threshold setting device for setting threshold used in binarization process, object detection device, threshold setting method, and computer readable storage medium
JP2013197785A (en) Image generation device, image generation method, and program
CN106454079B (en) Image processing method and device and camera
US8687888B2 (en) Region specification method, region specification apparatus, recording medium, server, and system
US10013632B2 (en) Object tracking apparatus, control method therefor and storage medium
JP2015148532A (en) Distance measuring device, imaging apparatus, distance measuring method, and program
CN104346613B (en) Image processing apparatus and image processing method
WO2019202511A1 (en) Object segmentation in a sequence of color image frames based on adaptive foreground mask upsampling
JP6374849B2 (en) User terminal, color correction system, and color correction method
JP6217225B2 (en) Image collation device, image collation method and program
JP5862623B2 (en) Image processing apparatus, image processing method, and program
WO2019144262A1 (en) Smudge detection method and apparatus and mobile electronic device
JP6171660B2 (en) Information processing apparatus, information processing system, and program
JP5167236B2 (en) Subject tracking device and control method thereof
JP5906745B2 (en) Image display device, image display method, and program
JP5222429B2 (en) Subject tracking device and control method thereof
JP5131399B2 (en) Image processing apparatus, image processing method, and program
JP5928228B2 (en) Subject detection apparatus, subject detection method, and program
JP6286919B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160728

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170526

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170606

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170804

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170829

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170911

R150 Certificate of patent or registration of utility model

Ref document number: 6217225

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150