JP2015035070A - Image collation device, image collation method, and program - Google Patents
Image collation device, image collation method, and program Download PDFInfo
- Publication number
- JP2015035070A JP2015035070A JP2013165168A JP2013165168A JP2015035070A JP 2015035070 A JP2015035070 A JP 2015035070A JP 2013165168 A JP2013165168 A JP 2013165168A JP 2013165168 A JP2013165168 A JP 2013165168A JP 2015035070 A JP2015035070 A JP 2015035070A
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- registered
- area
- registration
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、画像照合装置、画像照合方法及びプログラムに関する。 The present invention relates to an image collation apparatus, an image collation method, and a program.
従来、画像どうしを照合する際に、特徴点の特徴量どうしを比較する手法が提案されている(例えば、特許文献1参照)。具体的には、例えば、カメラで撮像した画像とデータベースに登録済みの画像とを照合する場合、局所特徴量を使って特徴点どうしのマッチングを行い、類似度合を算出する。 Conventionally, a method for comparing feature amounts of feature points when matching images has been proposed (see, for example, Patent Document 1). Specifically, for example, when an image captured by a camera and an image registered in a database are collated, feature points are matched using local feature amounts to calculate a similarity degree.
ところで、照合対象となる画像が相対的に単純なテクスチャで構成されていると、当該画像内に類似するテクスチャが複数存するため、特徴点どうしの誤対応が生じて画像どうしの照合を適正に行うことができないといった問題がある。 By the way, if the image to be collated is composed of relatively simple textures, there are a plurality of similar textures in the image, so that miscorrespondence between feature points occurs and images are properly collated. There is a problem that can not be.
本発明は、このような問題に鑑みてなされたものであり、本発明の課題は、画像どうしの照合を精度良く適正に行うことができる画像照合装置、画像照合方法及びプログラムを提供することである。 The present invention has been made in view of such a problem, and an object of the present invention is to provide an image collation apparatus, an image collation method, and a program capable of accurately collating images with high accuracy. is there.
上記課題を解決するため、本発明に係る画像照合装置は、
予め少なくとも一の画像を登録する登録手段と、特定の被写体が撮像された撮像画像を取得する取得手段と、前記登録手段に登録されている登録画像の画素情報及び前記取得手段により取得された撮像画像の画素情報に基づいて、当該撮像画像内で前記登録画像と対応する対応領域を特定する特定手段と、前記特定手段により特定された前記対応領域内で照合対象領域を設定する設定手段と、前記設定手段により設定された前記照合対象領域の特徴情報と、前記登録画像における当該照合対象領域に対応する領域の特徴情報とを対応付け、当該対応付けの結果に基づいて前記照合対象領域と前記登録画像とを照合する照合手段と、を備えたことを特徴としている。
In order to solve the above-described problem, an image collation apparatus according to the present invention includes:
Registration means for registering at least one image in advance, acquisition means for acquiring a captured image obtained by capturing a specific subject, pixel information of a registered image registered in the registration means, and imaging acquired by the acquisition means Based on pixel information of the image, specifying means for specifying a corresponding area corresponding to the registered image in the captured image, setting means for setting a matching target area in the corresponding area specified by the specifying means, The feature information of the comparison target region set by the setting unit is associated with the feature information of the region corresponding to the comparison target region in the registered image, and based on the result of the association, It is characterized by comprising collation means for collating with a registered image.
また、本発明に係る画像照合方法は、
画像照合装置を用いた画像照合方法であって、予め少なくとも一の画像を登録する処理と、特定の被写体が撮像された撮像画像を取得する処理と、登録されている登録画像の画素情報及び取得された撮像画像の画素情報に基づいて、当該撮像画像内で前記登録画像と対応する対応領域を特定する処理と、特定された前記対応領域内で照合対象領域を設定する処理と、設定された前記照合対象領域の特徴情報と、前記登録画像における当該照合対象領域に対応する領域の特徴情報とを対応付け、当該対応付けの結果に基づいて前記照合対象領域と前記登録画像とを照合する処理と、を含むことを特徴としている。
In addition, an image matching method according to the present invention includes:
An image matching method using an image matching device, a process of registering at least one image in advance, a process of acquiring a captured image obtained by capturing a specific subject, and pixel information and acquisition of a registered image registered Based on the pixel information of the captured image, a process for specifying a corresponding area corresponding to the registered image in the captured image, a process for setting a matching target area in the specified corresponding area, and A process of associating the feature information of the collation target area with the feature information of the area corresponding to the collation target area in the registered image, and collating the collation target area with the registered image based on the result of the correlation It is characterized by including.
また、本発明に係るプログラムは、
画像照合装置のコンピュータを、予め少なくとも一の画像を登録する登録手段、特定の被写体が撮像された撮像画像を取得する取得手段、前記登録手段に登録されている登録画像の画素情報及び前記取得手段により取得された撮像画像の画素情報に基づいて、当該撮像画像内で前記登録画像と対応する対応領域を特定する特定手段、前記特定手段により特定された前記対応領域内で照合対象領域を設定する設定手段、前記設定手段により設定された前記照合対象領域の特徴情報と、前記登録画像における当該照合対象領域に対応する領域の特徴情報とを対応付け、当該対応付けの結果に基づいて前記照合対象領域と前記登録画像とを照合する照合手段、として機能させることを特徴としている。
The program according to the present invention is
Registering means for registering at least one image in advance, computer for acquiring a captured image in which a specific subject is imaged, pixel information of registered image registered in said registration means, and said acquisition means Based on the pixel information of the captured image acquired by the above, a specifying unit that specifies a corresponding region corresponding to the registered image in the captured image, and a matching target region is set in the corresponding region specified by the specifying unit A setting unit that associates the feature information of the region to be collated set by the setting unit with the feature information of the region corresponding to the region to be collated in the registered image, and based on the result of the association, It is characterized by functioning as a collating means for collating the region with the registered image.
本発明によれば、画像どうしの照合を精度良く適正に行うことができる。 According to the present invention, it is possible to accurately collate images with high accuracy.
以下に、本発明について、図面を用いて具体的な態様を説明する。ただし、発明の範囲は、図示例に限定されない。 Hereinafter, specific embodiments of the present invention will be described with reference to the drawings. However, the scope of the invention is not limited to the illustrated examples.
[実施形態1]
図1は、本発明を適用した実施形態1の携帯端末100の概略構成を示すブロック図である。
図1に示すように、本実施形態の携帯端末100は、中央制御部1と、メモリ2と、撮像部3と、撮像制御部4と、画像データ生成部5と、画像登録部6と、画像処理部7と、表示部8と、表示制御部9と、送受話部10と、通信制御部11と、操作入力部12等を備えている。
また、中央制御部1、メモリ2、撮像部3、撮像制御部4、画像データ生成部5、画像登録部6、画像処理部7、表示制御部9、送受話部10及び通信制御部11は、バスライン13を介して接続されている。
[Embodiment 1]
FIG. 1 is a block diagram showing a schematic configuration of a
As illustrated in FIG. 1, the
The
なお、携帯端末100は、例えば、撮像装置、携帯電話やPHS(Personal Handy-phone System)などの移動体通信網で用いられる移動局、PDA(Personal Data Assistants)等から構成されている。
Note that the
中央制御部1は、携帯端末100の各部を制御するものである。具体的には、中央制御部1は、携帯端末100の各部を制御するCPU(Central Processing Unit;図示略)を具備し、携帯端末100用の各種処理プログラム(図示略)に従って各種の制御動作を行う。
The
メモリ2は、例えば、DRAM(Dynamic Random Access Memory)等により構成されている。また、メモリ2は、中央制御部1や画像処理部7等によって処理されるデータ等を一時的に記憶するバッファメモリや、中央制御部1などのワーキングメモリ、当該携帯端末100の機能に係る各種プログラムやデータが格納されたプログラムメモリ等(何れも図示略)を備えている。
The
撮像部3は、レンズ部3aと、電子撮像部3bとを備えている。
レンズ部3aは、ズームレンズやフォーカスレンズ等の複数のレンズから構成されている。
電子撮像部3bは、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal-oxide Semiconductor)等のイメージセンサから構成され、レンズ部3aの各種レンズを通過した光学像を二次元の画像信号に変換する。
なお、図示は省略するが、撮像部3は、レンズ部3aを通過する光の量を調整する絞りを備えていても良い。
The
The
The
In addition, although illustration is abbreviate | omitted, the
また、撮像部3は、記録媒体に押印された印章の印影S(図5(a)参照)を特定の被写体として撮像する。
ここで、印影Sは、当該印影Sを形成するための印画像(例えば、電車を模式的に表す画像等)に、所定の情報を画素集合の規則的な配列に符号化したコード情報が含まれていても良い。
なお、コード情報は、元の所定の情報(例えば、URL等)を所定の符号化形式(例えば、リードソロモン符号、ゴレイ符号等)に従って符号化したものである。例えば、コード情報は、画素値「1」の白画素の集合と画素値「0」の黒画素の集合が所定の次元数で規則的に配列されている。
The
Here, the imprint S includes code information obtained by encoding predetermined information into a regular array of pixel sets in the imprint image (for example, an image schematically representing a train) for forming the imprint S. It may be.
The code information is obtained by encoding original predetermined information (for example, URL) according to a predetermined encoding format (for example, Reed-Solomon code, Golay code, etc.). For example, in the code information, a set of white pixels having a pixel value “1” and a set of black pixels having a pixel value “0” are regularly arranged with a predetermined number of dimensions.
撮像制御部4は、撮像部3による被写体の撮像を制御する。即ち、撮像制御部4は、図示は省略するが、タイミング発生器、ドライバなどを備えている。そして、撮像制御部4は、タイミング発生器、ドライバにより電子撮像部3bを走査駆動して、所定周期毎に光学像を電子撮像部3bにより二次元の画像信号に変換させ、当該電子撮像部3bの撮像領域から1画面分ずつフレーム画像を読み出して画像データ生成部5に出力させる。
また、撮像制御部4は、AF(自動合焦処理)、AE(自動露出処理)、AWB(自動ホワイトバランス)等の被写体の撮像条件の調整制御を行う。
The imaging control unit 4 controls the imaging of the subject by the
In addition, the imaging control unit 4 performs adjustment control of imaging conditions of the subject such as AF (automatic focusing process), AE (automatic exposure process), AWB (automatic white balance), and the like.
画像データ生成部5は、電子撮像部3bから転送されたフレーム画像のアナログ値の信号に対してRGBの各色成分毎に適宜ゲイン調整した後に、サンプルホールド回路(図示略)でサンプルホールドしてA/D変換器(図示略)でデジタルデータに変換し、カラープロセス回路(図示略)で画素補間処理及びγ補正処理を含むカラープロセス処理を行った後、デジタル値の輝度信号Y及び色差信号Cb,Cr(YUVデータ)を生成する。
The image data generation unit 5 appropriately adjusts the gain for each color component of RGB with respect to the analog value signal of the frame image transferred from the electronic
そして、画像データ生成部5は、生成された各フレーム画像のYUVデータをメモリ2に順次出力し、当該メモリ2に格納させる。
Then, the image data generation unit 5 sequentially outputs the generated YUV data of each frame image to the
画像登録部6は、少なくとも一の登録画像Ia(図3参照)を登録するデータベース6aを具備している。
データベース(登録手段)6aは、特徴情報を対応付けて各登録画像Iaを記録する。即ち、データベース6aは、特徴抽出処理(後述)により抽出された各登録画像Iaの特徴情報としての特徴点の座標位置及び特徴量(例えば、SIFT(Scale-Invariant Features Transform)特徴量等)を各登録画像Ia毎に記録する。ここで、各登録画像Iaの特徴点の座標位置及び特徴量(特徴情報)は、画像分割部7eにより分割された複数の小領域A1、…毎にテーブル化して記録されていても良い。
また、データベース6aは、登録画像Iaの各々について、登録画像Ia内に存する所定の被写体の位置及び当該登録画像Iaの大きさを表す被写体情報を対応付けて記録しても良い。ここで、被写体情報は、例えば、被写体情報算出処理(後述)により算出された登録画像Iaを構成する各画素の座標位置の平均値(重心)及び当該登録画像Iaの共分散行列の固有値がそれぞれ被写体の位置及び登録画像Iaの大きさとして表されている。
The
The database (registration means) 6a records each registered image Ia in association with the feature information. That is, the
Further, the
なお、登録画像Iaとしては、例えば、印章の印面に所定の印を形成するための印影モデル画像や、記録媒体に押印された印影Sを撮像した印影撮像画像等が挙げられるが、一例であってこれに限られるものではなく、適宜任意に変更可能である。
また、登録画像Iaには、所定の情報を画素集合の規則的な配列に符号化したコード情報が含まれていても良い。
Examples of the registered image Ia include an imprint model image for forming a predetermined mark on the seal surface of a seal, an imprint image obtained by capturing an imprint S imprinted on a recording medium, and the like. However, the present invention is not limited to this, and can be arbitrarily changed as appropriate.
The registered image Ia may include code information obtained by encoding predetermined information into a regular array of pixel sets.
画像処理部7は、画像取得部7aと、被写体情報算出部7bと、特徴抽出部7cと、対応領域特定部7dと、画像分割部7eと、照合対象領域設定部7fと、画像照合部7gとを具備している。
なお、画像処理部7の各部は、例えば、所定のロジック回路から構成されているが、当該構成は一例であってこれに限られるものではない。
The image processing unit 7 includes an
Note that each unit of the image processing unit 7 is configured by, for example, a predetermined logic circuit, but the configuration is an example and is not limited thereto.
画像取得部7aは、撮像画像Ib(図5(a)参照)を取得する。
即ち、画像取得部(取得手段)7aは、特定の被写体(例えば、記録媒体に押印された印影S等)が撮像された撮像画像Ibを取得する。具体的には、画像取得部7aは、撮像部3により印影Sが撮像されて画像データ生成部5により生成された撮像画像Ibの所定の解像度の画像データ(例えば、輝度データ)の複製をメモリ2から取得する。
The
That is, the image acquisition unit (acquisition unit) 7a acquires a captured image Ib in which a specific subject (for example, an imprint S imprinted on a recording medium) is captured. Specifically, the
被写体情報算出部7bは、撮像画像Ibや登録画像Iaに対して被写体情報算出処理を行う。
即ち、被写体情報算出部(算出手段)7bは、画像取得部7aにより取得された撮像画像Ibにおける特定の被写体の位置及び大きさを表す被写体情報を算出する。具体的には、例えば、被写体情報算出部7bは、撮像画像Ibの画像データに対して被写体情報算出処理を施して、当該撮像画像Ibを構成する各画素の座標位置の平均値(重心)及び当該撮像画像Ibの共分散行列の固有値をそれぞれ特定の被写体(例えば、印影S等)の位置及び撮像画像Ibの大きさを表す被写体情報として算出する。
また、被写体情報算出部7bは、画像登録部6のデータベース6aに登録される登録画像Iaの画像データに対して被写体情報算出処理を施して、当該登録画像Ia内の所定の被写体の位置及び登録画像Iaの大きさを表す被写体情報(例えば、登録画像Iaの重心及び共分散行列の固有値等)を算出する。ここで、被写体情報算出処理は、既にデータベース6aに登録されている画像(登録済み画像)に対して行われても良いし、登録の対象となる画像(登録対象画像)に対して行われても良い。
そして、被写体情報算出部7bは、算出された被写体情報をメモリ2に出力し、当該メモリ2に一時的に格納させる。
The subject
In other words, the subject information calculation unit (calculation unit) 7b calculates subject information representing the position and size of a specific subject in the captured image Ib acquired by the
In addition, the subject
Then, the subject
特徴抽出部7cは、撮像画像Ibや登録画像Iaに対して特徴抽出処理を行う。
具体的には、特徴抽出部7cは、例えば、画像取得部7aにより取得された撮像画像Ibの画像データに対して所定の特徴抽出処理を施して特徴点を複数抽出し、有効な特徴点における特徴量(例えば、SIFT特徴量等)を算出する。
また、特徴抽出部7cは、例えば、画像登録部6のデータベース6aに登録される登録画像Iaの画像データに対して所定の特徴抽出処理を施して特徴点を複数抽出し、有効な特徴点における特徴量を算出する。ここで、特徴抽出処理は、既にデータベース6aに登録されている画像(登録済み画像)に対して行われても良いし、登録の対象となる画像(登録対象画像)に対して行われても良い。
そして、特徴抽出部7cは、算出された特徴点の座標位置及び特徴量(特徴情報)をメモリ2に出力し、当該メモリ2に一時的に格納させる。
なお、特徴情報としては、例えば、SURF(Speeded Up Robust Features)特徴量を用いて表しても良いし、特徴点の輝度レベルを8bit(256段階)で表現した輝度値(0〜255)を用いて良いし、RGBの各色成分を8bit(256段階)で表現したRGB値(0〜255)を用いても良い。
The
Specifically, for example, the
In addition, the
Then, the
The feature information may be represented by using, for example, a SURF (Speeded Up Robust Features) feature amount, or a brightness value (0 to 255) expressing the brightness level of the feature point in 8 bits (256 levels). Alternatively, RGB values (0 to 255) expressing each color component of RGB in 8 bits (256 levels) may be used.
対応領域特定部7dは、撮像画像Ib内で対応領域B(図5(a)参照)を特定する。
即ち、対応領域特定部(特定手段)7dは、画像登録部6に登録されている登録画像Iaの画素情報及び画像取得部7aにより取得された撮像画像Ibの画素情報に基づいて、当該撮像画像Ib内で登録画像Iaと対応する対応領域Bを特定する。具体的には、対応領域特定部7dは、被写体情報算出部7bにより算出された撮像画像Ib及び登録画像Iaの各々の被写体情報に基づいて、撮像画像Ib内で対応領域Bを特定する。
例えば、対応領域特定部(被写体情報取得手段)7dは、被写体情報算出部7bにより算出された撮像画像Ibの重心及び共分散行列の固有値を取得する。また、対応領域特定部7dは、画像登録部6に登録されている登録画像Iaの中で照合対象となる登録画像Iaの重心及び共分散行列の固有値を取得する。そして、対応領域特定部7dは、撮像画像Ibの重心及び共分散行列の固有値と照合対象の登録画像Iaの重心及び共分散行列の固有値とをそれぞれ比較し、撮像画像Ib内で照合対象の登録画像Iaと対応する対応領域Bを特定する。
これにより、撮像画像Ib内で、登録画像Iaとの照合対象となる領域(対応領域B)の大まかな位置及び大きさが特定される。つまり、登録画像Iaの外形(例えば、正方形等)と略相似の外形の対応領域Bが特定され、当該対応領域B内の特定の被写体(例えば、印影S等)の相対的な位置及び大きさは、登録画像Ia内の所定の被写体の相対的な位置及び大きさと略等しくなる。
The corresponding
That is, the corresponding region specifying unit (specifying unit) 7d is configured to detect the captured image based on the pixel information of the registered image Ia registered in the
For example, the corresponding region specifying unit (subject information acquisition unit) 7d acquires the center of gravity of the captured image Ib calculated by the subject
As a result, the approximate position and size of the region (corresponding region B) to be collated with the registered image Ia are specified in the captured image Ib. That is, a corresponding area B having an outline substantially similar to the outer shape (for example, a square) of the registered image Ia is specified, and the relative position and size of a specific subject (for example, an imprint S) in the corresponding area B is specified. Is substantially equal to the relative position and size of a predetermined subject in the registered image Ia.
なお、例えば、対応領域特定部7dは、撮像画像Ibの被写体情報の内容から特定の被写体が構図全体に存すると判断した場合、当該撮像画像Ib全体を対応領域Bとして特定しても良い。即ち、対応領域特定部7dは、被写体情報算出部7bにより算出された撮像画像Ibの被写体情報に基づいて、撮像画像Ib内で対応領域Bを特定しても良い。
For example, the corresponding
画像分割部7eは、撮像画像Ibの対応領域Bを複数の小領域B1、…に分割する。
即ち、画像分割部(分割手段)7eは、対応領域特定部7dにより特定された対応領域Bを複数の小領域B1、…に分割する。
具体的には、画像分割部7eは、画像登録部6のデータベース6aに登録される登録画像Iaの分割態様(例えば、二等分や四等分等)に応じて対応領域Bを複数の小領域B1、…に分割する。つまり、画像分割部7eは、予め、画像登録部6のデータベース6aに登録される登録画像Iaを所定の分割態様(例えば、四等分)で複数の矩形状の小領域(二点鎖線で囲まれた領域;図3参照)A1、…に分割する。ここで、登録画像Iaの分割は、既にデータベース6aに登録されている画像(登録済み画像)に対して行われても良いし、登録の対象となる画像(登録対象画像)に対して行われても良い。
そして、画像分割部7eは、登録画像Iaを小領域A1に分割した数(例えば、四つ等)と同じ分割数となるように対応領域Bを略等しい形状及び寸法の小領域(一点鎖線で囲まれた領域;図5(b)参照)B1に分割する。
このとき、画像分割部7eは、互いに隣合う小領域B1の端部どうしを重複させるように対応領域Bを複数の小領域B1、…に分割しても良い。例えば、図5(b)に示す対応領域Bの左上小領域B1の場合、画像分割部7eは、当該左上小領域B1の右側端部を右上小領域A1の左側端部と重複させ、且つ、左上小領域B1の下側端部を左下小領域B1の上側端部と重複させ、且つ、左上小領域B1の右下側端部を右下小領域B1の左上側端部と重複させるように分割する。その他の小領域B1についても、略同様であり、その詳細な説明は省略する。
なお、上記した小領域A1、B1の分割数や分割態様は、一例であってこれに限られるものではなく、適宜任意に変更可能である。例えば、小領域A1、B1の外形を互いに異ならせても良いし、隣合う小領域B1と端部どうしを重複させる領域の大きさを互いに異ならせても良い。
The
That is, the image dividing unit (dividing unit) 7e divides the corresponding area B specified by the corresponding
Specifically, the
Then, the
At this time, the
Note that the number of divisions and the division mode of the small areas A1 and B1 described above are examples and are not limited thereto, and can be arbitrarily changed as appropriate. For example, the outer shapes of the small regions A1 and B1 may be different from each other, and the sizes of the regions where the adjacent small regions B1 overlap with the end portions may be different from each other.
照合対象領域設定部7fは、撮像画像Ib内で照合対象領域C(図6(a)参照)を設定する。
即ち、照合対象領域設定部(設定手段)7fは、対応領域特定部7dにより特定された対応領域B内で照合対象領域Cを設定する。具体的には、照合対象領域設定部7fは、画像分割部7eにより対応領域Bが分割された複数の小領域B1、…のうち、所定数の小領域B1を照合対象領域Cとして設定する。つまり、照合対象領域設定部7fは、対応領域B内で、当該対応領域Bよりも小さい照合対象領域Cを設定する。
ここで、照合対象領域設定部7fは、照合対象領域Cとして設定される小領域B1の位置や数を、例えば、特徴抽出処理により抽出された特徴点の位置を考慮して変更しても良い。即ち、対応領域Bの略全域から特徴点が抽出されている場合、照合対象領域設定部7fは、対応領域Bが分割された複数の小領域B1、…の全てを照合対象領域Cとして個別に設定しても良い。また、対応領域Bの一部の領域から特徴点が抽出されている場合、照合対象領域設定部7fは、複数の小領域B1、…の中で、特徴点が抽出された領域が含まれる所定数の小領域B1を照合対象領域Cとして設定しても良い。
なお、図6(a)にあっては、対応領域Bのうち、照合対象領域C(左上小領域B1)以外の領域にはドットを付して模式的に表している。
The verification target
That is, the collation target area setting unit (setting unit) 7f sets the collation target area C in the corresponding area B specified by the corresponding
Here, the collation target
In FIG. 6A, the corresponding region B other than the verification target region C (upper left small region B1) is schematically shown with dots.
画像照合部7gは、撮像画像Ibの照合対象領域Cと登録画像Iaとを照合する。
即ち、画像照合部(照合手段)7gは、照合対象領域設定部7fにより設定された照合対象領域Cの特徴情報と、登録画像Iaにおける当該照合対象領域Cに対応する領域(照合用の小領域D)の特徴情報とを対応付け、当該対応付けの結果に基づいて照合対象領域Cと登録画像Iaとを照合する。
The
That is, the image collation unit (collation unit) 7g includes the feature information of the collation target region C set by the collation target
具体的には、画像照合部7gは、特徴抽出処理にて抽出された照合対象領域C(例えば、左上小領域A1等)内の特徴点の座標位置及び特徴量(特徴情報)をメモリ2から取得する。また、画像照合部7gは、登録画像Iaにおける当該照合対象領域Cに対応する照合用の小領域D(図6(a)参照)を特定し、特定された照合用の小領域D内の特徴点の座標位置及び特徴量(特徴情報)を画像登録部6のデータベース6aから取得する。なお、図6(a)にあっては、登録画像Iaのうち、照合用の小領域D以外の領域にはドットを付して模式的に表している。
そして、画像照合部7gは、取得された照合対象領域C内の特徴点と照合用の小領域D内の特徴点との対応付け(マッチング)を行う。このとき、照合対象領域Cが複数設定されている場合には、画像照合部7gは、各照合対象領域C毎に、対応する照合用の小領域Dを特定して特徴点どうしの対応付けを行う。
また、画像照合部7gは、照合対象領域C内の特徴点と照合用の小領域D内の特徴点との対応付けの結果に基づいて、照合対象領域C内の特定の被写体の形状を登録画像Ia内の被写体の形状と略等しい形状に変形するための座標変換行列(ホモグラフィ行例)を算出する。そして、画像照合部7gは、算出された座標変換式に従って、照合対象領域Cに対して座標変換処理を施して、座標変換済み画像Ic(図6(b)参照)を生成する。
また、画像照合部7gは、生成された座標変換済み画像Icの画素値と登録画像Iaの画素値とに基づいて所定の演算を行って、照合対象領域Cと登録画像Iaとの類似度を算出する(類似度算出処理)。なお、類似度算出処理としては、例えば、adaboost(アダブースト)出力計算、SSD(Sum of Squared Differences)等を利用することができるが、一例であってこれに限られるものではなく、適宜任意に変更可能である。
なお、上記した射影変換処理や類似度算出処理は、公知の技術であるので、ここでは詳細な説明を省略する。
Specifically, the
The
In addition, the
Further, the
Note that the projective transformation process and the similarity calculation process described above are known techniques, and thus detailed description thereof is omitted here.
表示部8は、例えば、液晶表示パネルから構成され、表示制御部9からのビデオ信号に基づいて撮像部3により撮像された画像(例えば、ライブビュー画像等)を表示画面に表示する。
The
表示制御部9は、メモリ2に一時的に記憶されている表示用の画像データを読み出して表示部8に表示させる制御を行う。
具体的には、表示制御部9は、VRAM(Video Random Access Memory)、VRAMコントローラ、デジタルビデオエンコーダなどを備えている。そして、デジタルビデオエンコーダは、中央制御部1の制御下にてメモリ2から読み出されてVRAM(図示略)に記憶されている輝度信号Y及び色差信号Cb,Crを、VRAMコントローラを介してVRAMから所定の再生フレームレート(例えば、30fps)で読み出して、これらのデータを元にビデオ信号を発生して表示部8に出力する。
例えば、表示制御部9は、撮像部3及び撮像制御部4により撮像され画像データ生成部5により生成された複数のフレーム画像、…を所定の表示フレームレートで逐次更新しながら表示部8にライブビュー表示させる。
The
Specifically, the
For example, the
送受話部10は、通信ネットワークNを介して接続された外部機器の外部ユーザとの通話を行う。
具体的には、送受話部10は、マイク10a、スピーカ10b、データ変換部10c等を備えている。そして、送受話部10は、マイク10aから入力されるユーザの送話音声をデータ変換部10cによりA/D変換処理して送話音声データを中央制御部1に出力するとともに、中央制御部1の制御下にて、通信制御部11から出力されて入力される受話音声データ等の音声データをデータ変換部10cによりD/A変換処理してスピーカ10bから出力する。
The transmitter /
Specifically, the transmission /
通信制御部11は、通信ネットワークN及び通信アンテナ11aを介してデータの送受信を行う。
即ち、通信アンテナ11aは、当該携帯端末100が無線基地局(図示略)との通信で採用している所定の通信方式(例えば、W−CDMA(Wideband Code Division Multiple Access)方式、GSM(Global System for Mobile Communications;登録商標)方式等)に対応したデータの送受信が可能なアンテナである。そして、通信制御部11は、所定の通信方式に対応する通信プロトコルに従って、この通信方式で設定される通信チャネルにより無線基地局との間で通信アンテナ11aを介してデータの送受信を行う。つまり、通信制御部11は、中央制御部1から出力されて入力される指示信号に基づいて、通信相手の外部機器に対して、当該外部機器の外部ユーザとの通話中の音声の送受信や、電子メールのデータの送受信を行う。
なお、通信制御部11の構成は一例であってこれに限られるものではなく、適宜任意に変更可能であり、例えば、図示は省略するが、無線LANモジュールを搭載し、アクセスポイント(Access Point)を介して通信ネットワークNにアクセス可能な構成としても良い。
The
That is, the
Note that the configuration of the
通信ネットワークNは、例えば、携帯端末100を無線基地局やゲートウェイサーバ(図示略)等を介して外部機器と接続する通信ネットワークである。
また、通信ネットワークNは、例えば、専用線や既存の一般公衆回線を利用して構築された通信ネットワークであり、LAN(Local Area Network)やWAN(Wide Area Network)等の様々な回線形態を適用することが可能である。また、通信ネットワークNには、例えば、電話回線網、ISDN回線網、専用線、移動体通信網、通信衛星回線、CATV回線網等の各種通信ネットワーク網と、IPネットワーク、VoIP(Voice over Internet Protocol)ゲートウェイ、インターネットサービスプロバイダ等が含まれる。
The communication network N is a communication network that connects the
The communication network N is a communication network constructed using, for example, a dedicated line or an existing general public line, and various line forms such as a LAN (Local Area Network) and a WAN (Wide Area Network) are applied. Is possible. The communication network N includes, for example, various communication network networks such as a telephone line network, ISDN line network, dedicated line, mobile communication network, communication satellite line, CATV line network, IP network, VoIP (Voice over Internet Protocol). ) Gateways, Internet service providers, etc. are included.
操作入力部12は、端末本体に対して各種指示を入力するためのものである。
具体的には、操作入力部12は、被写体の撮影指示に係るシャッタボタン、モードや機能等の選択指示に係る上下左右のカーソルボタンや決定ボタン、電話の発着信や電子メールの送受信等の実行指示に係る通信関連ボタン、テキストの入力指示に係る数字ボタンや記号ボタン等の各種ボタン(何れも図示略)を備えている。
そして、ユーザにより各種ボタンが操作されると、操作入力部12は、操作されたボタンに応じた操作指示を中央制御部1に出力する。中央制御部1は、操作入力部12から出力され入力された操作指示に従って所定の動作(例えば、被写体の撮像、電話の発着信、電子メールの送受信等)を各部に実行させる。
The
Specifically, the
When various buttons are operated by the user, the
なお、操作入力部12は、表示部8と一体となって設けられたタッチパネルを有していても良く、ユーザによるタッチパネルの所定操作に基づいて、当該所定操作に応じた操作指示を中央制御部1に出力しても良い。
The
<画像登録処理>
次に、携帯端末100による画像登録処理について、図2及び図3を参照して説明する。
図2は、画像登録処理に係る動作の一例を示すフローチャートである。
<Image registration process>
Next, image registration processing by the
FIG. 2 is a flowchart illustrating an example of an operation related to the image registration process.
図2に示すように、画像処理部7の画像取得部7aは、画像登録部6のデータベース6aに登録される登録対象となる画像(登録対象画像)の画像データ(YUVデータ)を取得する(ステップS1;図3参照)。例えば、画像取得部7aは、印章の印面に所定の印を形成するための印影モデル画像を登録対象画像として、図示しない外部機器や記録媒体等から取得する。
As shown in FIG. 2, the
次に、被写体情報算出部7bは、登録対象画像の画像データに対して被写体情報算出処理を施して、当該登録対象画像を構成する各画素の座標位置の平均値(重心)及び当該登録対象画像の共分散行列の固有値を被写体情報として算出する(ステップS2)。続けて、特徴抽出部7cは、登録対象画像の画像データに対して所定の特徴抽出処理を施して特徴点を複数抽出し、有効な特徴点における特徴量(例えば、SIFT特徴量等)を算出する(ステップS3)。
Next, the subject
そして、画像分割部7eは、登録対象画像を所定の分割態様(例えば、四等分)で複数の小領域A1、…に分割する(ステップS4)。
その後、画像登録部6は、登録対象画像の複数の小領域A1、…毎に、各特徴点の座標位置及び特徴量を対応付けるとともに、当該登録対象画像の重心及び共分散行列の固有値(被写体情報)を対応付けてデータベース6aに記録する(ステップS5)。
Then, the
Thereafter, the
そして、中央制御部1のCPUは、登録対象となる画像が他にあるか否かを判定する(ステップS6)。ここで、登録対象となる画像が他にあると判定されると(ステップS6;YES)、中央制御部1のCPUは、処理をステップS1に戻し、他の登録対象画像を処理対象として、画像処理部7や画像登録部6にそれ以降の各処理を実行させる。
Then, the CPU of the
一方、ステップS6にて、登録対象となる画像が他にないと判定されると(ステップS6;NO)、中央制御部1のCPUは、当該画像登録処理を終了させる。
On the other hand, when it is determined in step S6 that there is no other image to be registered (step S6; NO), the CPU of the
<画像照合処理>
次に、携帯端末100による画像照合処理について、図4〜図6を参照して説明する。
図4は、画像照合処理に係る動作の一例を示すフローチャートである。
なお、以下の画像照合処理にて撮像される印影Sは、例えば、葉書等の記録媒体の所定位置に押印されているものとする。
<Image matching process>
Next, image collation processing by the
FIG. 4 is a flowchart illustrating an example of an operation related to the image matching process.
It is assumed that the seal S imaged in the following image collation process is stamped at a predetermined position on a recording medium such as a postcard.
図4に示すように、先ず、ユーザによる操作入力部12の所定操作に基づいて撮像指示が入力されると、撮像制御部4は、撮像部3に印影Sを撮像させ、画像データ生成部5は、電子撮像部3bから転送された撮像画像Ibの画像データを生成する(ステップS11)。このとき、印影Sは、例えば、当該印影Sに対して撮像部3のレンズ部3aが所定の角度を有するように斜めに配置された状態で撮像されるものとする。
そして、画像データ生成部5は、生成された撮像画像IbのYUVデータをメモリ2に出力し、当該メモリ2に格納させる。
As shown in FIG. 4, first, when an imaging instruction is input based on a predetermined operation of the
Then, the image data generation unit 5 outputs the generated YUV data of the captured image Ib to the
なお、印影Sを撮像し易くするために、表示制御部9は、印影Sの外形に対応するガイド表示を表示部8に表示させても良い。
In addition, in order to make it easy to image the seal impression S, the
そして、画像処理部7の画像取得部7aは、メモリ2から画像データ生成部5により生成された撮像画像Ibの所定の解像度の画像データ(例えば、輝度データ)を取得する(ステップS12)。
次に、被写体情報算出部7bは、撮像画像Ibの画像データに対して被写体情報算出処理を施して、当該撮像画像Ibを構成する各画素の座標位置の平均値(重心)及び当該撮像画像Ibの共分散行列の固有値を被写体情報として算出する(ステップS13)。続けて、特徴抽出部7cは、撮像画像Ibの画像データに対して所定の特徴抽出処理を施して特徴点を複数抽出し、有効な特徴点における特徴量(例えば、SIFT特徴量等)を算出する(ステップS14)。
Then, the
Next, the subject
その後、対応領域特定部7dは、画像登録部6のデータベース6aから照合対象となる何れか一の登録画像Iaの画像データ及び当該登録画像Iaの重心及び共分散行列の固有値を読み出して取得する(ステップS15)。続けて、対応領域特定部7dは、被写体情報算出部7bにより算出された撮像画像Ibの重心及び共分散行列の固有値を取得して、撮像画像Ibの重心及び共分散行列の固有値と照合対象の登録画像Iaの重心及び共分散行列の固有値とをそれぞれ比較し、撮像画像Ib内で照合対象の登録画像Iaと対応する対応領域Bを特定する(ステップS16;図5(a)参照)。
Thereafter, the corresponding
次に、画像分割部7eは、対応領域Bを登録画像Iaの分割態様(例えば、四等分等)に応じて複数(例えば、四つ)の小領域B1に分割する(ステップS17;図5(b)参照)。具体的には、画像分割部7eは、複数の小領域B1、…の中で互いに隣合う小領域B1の端部どうしを重複させるように対応領域Bを分割する。
そして、照合対象領域設定部7fは、対応領域Bの複数の小領域B1、…の中で、所定数の小領域B1(例えば、左上小領域B1等)を照合対象領域Cとして設定する(ステップS18)。
Next, the
Then, the collation target
次に、画像照合部7gは、照合対象領域C内の特徴点の座標位置及び特徴量(特徴情報)をメモリ2から取得するとともに、登録画像Iaにおける当該照合対象領域Cに対応する照合用の小領域D内の特徴点の座標位置及び特徴量(特徴情報)をデータベース6aから取得して、照合対象領域C内の特徴点と照合用の小領域D内の特徴点との対応付け(マッチング)を行う(ステップS19;図6(a)参照)。続けて、画像照合部7gは、照合対象領域C内の特徴点と照合用の小領域D内の特徴点との対応付けの結果に基づいて座標変換行列(ホモグラフィ行例)を算出して、算出された座標変換式に従って照合対象領域Cに対して座標変換処理を施して、座標変換済み画像Icを生成する(ステップS20;図6(b)参照)。
そして、画像照合部7gは、生成された座標変換済み画像Icの画素値と登録画像Iaの画素値とに基づいて所定の演算を行って、照合対象領域Cと登録画像Iaとの類似度を算出する(ステップS21)。画像照合部7gは、算出された類似度をメモリ2に出力し、当該類似度は登録画像Iaの識別情報と対応付けて一時的に格納される。
なお、照合対象領域Cに対する座標変換処理は、必ずしも行う必要はなく、当該処理をスキップしても良い。
Next, the
Then, the
Note that the coordinate conversion process for the verification target area C is not necessarily performed, and the process may be skipped.
その後、中央制御部1のCPUは、照合対象となる登録画像Iaが他にあるか否かを判定する(ステップS22)。ここで、照合対象となる画像が他にあると判定されると(ステップS22;YES)、中央制御部1のCPUは、処理をステップS15に戻し、データベース6aの他の登録画像Iaを照合対象として、画像処理部7にそれ以降の各処理を実行させる。
一方、ステップS22にて、照合対象となる登録画像Iaが他にないと判定されると(ステップS22;NO)、画像処理部7は、メモリ2から各登録画像Iaに対応する類似度を取得して、最も類似度が高い登録画像Iaを選択して(ステップS23)、当該画像登録処理を終了する。
Thereafter, the CPU of the
On the other hand, when it is determined in step S22 that there is no other registered image Ia to be collated (step S22; NO), the image processing unit 7 acquires the similarity corresponding to each registered image Ia from the
その後、画像処理部7の情報読取部(図示略)は、例えば、選択された登録画像Iaの二値化画像を生成し、画素値「1」の白画素の集合及び画素値「0」の黒画素の集合の配列に対して、コード情報の符号化方式に応じた復号処理を施して、コード情報によって表される元の所定の情報(例えば、URL等)を読み取る。
中央制御部1のCPUは、情報読取部により読み取られた所定の情報(例えば、URL等)に従って当該携帯端末100の各部を制御して、所定の動作(例えば、インターネットにアクセスして、特定の音声や画像の再生等)を実行させる。
なお、上記した所定の情報の読取処理や対応する所定の動作の実行処理は、必ずしも行う必要はない。
Thereafter, the information reading unit (not shown) of the image processing unit 7 generates a binarized image of the selected registered image Ia, for example, and collects a set of white pixels having a pixel value “1” and a pixel value “0”. The array of black pixels is subjected to a decoding process according to the encoding method of code information, and original predetermined information (for example, URL) represented by the code information is read.
The CPU of the
The predetermined information reading process and the corresponding predetermined operation execution process are not necessarily performed.
以上のように、実施形態1の携帯端末100によれば、画像登録部6に登録されている登録画像Iaの画素情報及び撮像画像(例えば、記録媒体に押印された印影Sを撮像した画像等)Ibの画素情報に基づいて、当該撮像画像Ib内で登録画像Iaと対応する対応領域Bを特定し、対応領域B内で照合対象領域Cを設定して、設定された照合対象領域Cの特徴情報(例えば、特徴点の位置及び特徴量等)と、登録画像Iaにおける当該照合対象領域Cに対応する領域(例えば、照合用の小領域D)の特徴情報とを対応付け、当該対応付けの結果に基づいて照合対象領域Cと登録画像Iaとを照合することができる。このとき、予め大まかな位置合わせとして撮像画像Ib内で登録画像Iaと対応する対応領域Bを特定し、対応領域B内で当該対応領域Bよりも小さい照合対象領域Cを設定して利用することで、相対的に単純なテクスチャで構成され、類似するテクスチャ(例えば、電車の画像では、パンタグラフや窓や車輪等)が複数存する画像であっても、当該照合対象領域C内に類似するテクスチャが複数存し難くなり、照合対象領域C内の特徴情報と登録画像Iaの特徴情報との対応付けにおいて誤対応を生じさせ難くすることができる。
即ち、例えば、図6(a)に示す対応領域Bでは、照合対象領域C内に電車の左側のパンタグラフに相当する部分が存在し、照合対象領域C以外の領域(ドットを付した領域)に右側のパンタグラフに相当する部分が存在している。一方、登録画像Iaの照合用の小領域Dには、左側のパンタグラフに相当する部分のみが存在している。従って、例えば、撮像画像Ibの左側のパンタグラフに相当する部分の特徴情報と登録画像Iaの右側のパンタグラフに相当する部分の特徴情報とが誤って対応付けられることを抑制することができる。
これにより、撮像画像Ibの照合対象領域Cと登録画像Iaとの比較照合を適正に行うことができることとなって、画像どうしの照合を精度良く適正に行うことができる。
As described above, according to the
That is, for example, in the corresponding region B shown in FIG. 6A, there is a portion corresponding to the pantograph on the left side of the train in the verification target region C, and the region other than the verification target region C (region with dots). There is a part corresponding to the pantograph on the right side. On the other hand, only a portion corresponding to the left pantograph exists in the small area D for verification of the registered image Ia. Therefore, for example, it is possible to prevent the feature information of the portion corresponding to the pantograph on the left side of the captured image Ib from being erroneously associated with the feature information of the portion corresponding to the pantograph on the right side of the registered image Ia.
As a result, the comparison target region C of the captured image Ib and the registered image Ia can be properly compared, and the images can be accurately verified with high accuracy.
また、対応領域Bを分割した複数の小領域B1、…のうち、所定数の小領域B1を照合対象領域Cとして設定するので、撮像画像Ib内で対応領域Bよりも小さい照合対象領域Cの設定を簡便なものとすることができる。特に、互いに隣合う小領域B1の端部どうしを重複させるように対応領域Bを複数の小領域B1、…に分割することで、隣合う小領域B1どうしの境界の特徴情報についても適正に対応付けを行うことができ、照合対象領域C内の特徴情報と登録画像Iaの特徴情報との対応付けにおいて誤対応をより生じさせ難くすることができる。
また、登録画像Iaを複数の小領域A1、…に分割して、当該登録画像Iaの分割態様に応じて対応領域Bを複数の小領域B1、…に分割するので、登録画像Iaにおける照合対象領域Cに対応する領域の特定を適正に行うことができ、照合対象領域C内の特徴情報と登録画像Iaにおける照合対象領域Cに対応する領域の特徴情報との対応付けをより適正に行うことができる。
In addition, since a predetermined number of small regions B1 among the plurality of small regions B1,... Obtained by dividing the corresponding region B are set as the verification target region C, the verification target region C smaller than the corresponding region B in the captured image Ib. Setting can be simplified. In particular, by dividing the corresponding area B into a plurality of small areas B1,... So that the ends of the adjacent small areas B1 overlap each other, it is possible to appropriately deal with the feature information on the boundary between the adjacent small areas B1. Thus, it is possible to make it more difficult to cause erroneous correspondence in the association between the feature information in the verification target region C and the feature information of the registered image Ia.
Further, the registered image Ia is divided into a plurality of small areas A1,... And the corresponding area B is divided into a plurality of small areas B1,... According to the division mode of the registered image Ia. The region corresponding to the region C can be specified appropriately, and the feature information in the collation target region C and the feature information of the region corresponding to the collation target region C in the registered image Ia are more appropriately associated. Can do.
また、撮像画像Ibにおける特定の被写体の位置及び当該撮像画像Ibの大きさを表す被写体情報に基づいて、撮像画像Ib内で対応領域Bを特定するので、撮像画像Ibにおける特定の被写体の位置や当該撮像画像Ibの大きさ等を考慮して当該撮像画像Ib内で対応領域Bを適正に特定することができる。特に、撮像画像Ibの被写体情報に加えて登録画像Iaの被写体情報に基づいて、撮像画像Ib内で対応領域Bを特定することで、撮像画像Ibにおける特定の被写体の位置や当該撮像画像Ibの大きさだけでなく登録画像Iaにおける所定の被写体の位置や当該登録画像Iaの大きさ等も考慮して撮像画像Ib内で対応領域Bをより適正に特定することができる。 Further, since the corresponding region B is specified in the captured image Ib based on the position of the specific subject in the captured image Ib and the subject information indicating the size of the captured image Ib, the position of the specific subject in the captured image Ib The corresponding region B can be appropriately specified in the captured image Ib in consideration of the size of the captured image Ib and the like. In particular, by specifying the corresponding region B in the captured image Ib based on the subject information of the registered image Ia in addition to the subject information of the captured image Ib, the position of the specific subject in the captured image Ib and the captured image Ib Considering not only the size but also the position of a predetermined subject in the registered image Ia, the size of the registered image Ia, and the like, the corresponding region B can be more appropriately specified in the captured image Ib.
[実施形態2]
以下に、実施形態2の携帯端末200について、図7〜図12を参照して説明する。
実施形態2の携帯端末200は、以下に詳細に説明する以外の点で上記実施形態1の携帯端末100と略同様の構成をなし、詳細な説明は省略する。
[Embodiment 2]
Below, the
The
図7は、本発明を適用した実施形態2の携帯端末200の概略構成を示すブロック図である。
図7に示すように、実施形態2の携帯端末200の画像処理部207は、画像取得部7aと、顔検出部7hと、特徴抽出部7cと、対応領域特定部7dと、画像分割部7eと、照合対象領域設定部7fと、画像照合部7gとを具備している。
なお、画像処理部207を構成する各部は、以下に説明する以外の点で上記実施形態1の携帯端末100に備わるものと略同様の構成及び機能をなし、その詳細な説明は省略する。
FIG. 7 is a block diagram showing a schematic configuration of the
As shown in FIG. 7, the
Note that the components constituting the
顔検出部7hは、撮像画像Ibや登録画像Iaに対して顔検出処理を行う。
即ち、顔検出部7hは、画像取得部7aにより取得された撮像画像Ibの画像データに対して所定の顔検出処理を行って、当該撮像画像Ib内の特定の被写体である人物(ヒト)の顔Fが含まれる顔領域Ebを検出する。このとき、顔検出部7hは、例えば、顔Fを構成する目、鼻、口等の各構成要素を検出しても良い。
また、顔検出部7hは、画像登録部6のデータベース6aに登録される登録画像Ia(図9(a)等参照)の画像データに対して所定の顔検出処理を行って、当該登録画像Ia内の顔領域Eaを検出する。ここで、顔検出処理は、既にデータベース6aに登録されている画像(登録済み画像)に対して行われても良いし、登録の対象となる画像(登録対象画像)に対して行われても良い。
また、上記した顔検出処理は、公知の技術であるので、ここでは詳細な説明を省略する。
The
That is, the
Further, the
Further, since the face detection process described above is a known technique, detailed description thereof is omitted here.
対応領域特定部7dは、撮像画像Ib内で顔検出部7hにより検出された顔領域Ebを対応領域B(図11(a)参照)として特定する。
即ち、対応領域特定部7dは、撮像画像Ib内で顔検出部7hにより検出された顔領域Ebを、画像登録部6に登録されている登録画像Iaの顔領域Eaと対応する対応領域Bとして特定する。
The corresponding
That is, the corresponding
画像分割部7eは、撮像画像Ibの対応領域Bとして特定された顔領域Ebを複数の小領域B1、…に分割する。
具体的には、画像分割部7eは、画像登録部6のデータベース6aに登録される登録画像Iaの分割態様に応じて撮像画像Ibの顔領域Ebを複数の小領域B1、…に分割する。つまり、画像分割部7eは、予め、画像登録部6のデータベース6aに登録される登録画像Iaを、顔検出部7hにより検出された顔領域Ea(特に、顔領域Ea内の目、鼻、口等の位置)を基準とする所定の分割態様で複数の矩形状の小領域(二点鎖線で囲まれた領域)A1、…に分割する。例えば、画像分割部7eは、顔領域Eaを左右に二等分する態様(図9(a)参照)、顔領域Eaの上側のみを二等分する態様(図9(b)参照)、顔領域Eaを上下左右に等分する態様(図9(c)参照)等で複数の小領域A1、…に分割する。ここで、登録画像Iaの分割は、既にデータベース6aに登録されている画像(登録済み画像)に対して行われても良いし、登録の対象となる画像(登録対象画像)に対して行われても良い。
そして、画像分割部7eは、登録画像Iaを小領域A1に分割した数(例えば、二つ等)と同じ分割数となるように顔領域Eb(対応領域B)を略等しい形状及び寸法の小領域(一点鎖線で囲まれた領域;図11(b)参照)B1に分割する。
このとき、画像分割部7eは、互いに隣合う小領域B1の端部どうしを重複させるように顔領域Ebを複数の小領域B1、…に分割しても良い。例えば、画像分割部7eは、顔領域Ebの左小領域B1の右側端部を右小領域B1の左側端部と重複させ、且つ、右小領域B1の左側端部を左小領域B1の右側端部と重複させるように分割する。
なお、上記した小領域A1、B1の分割数や分割態様は、一例であってこれに限られるものではなく、適宜任意に変更可能である。例えば、隣合う小領域B1と端部どうしを重複させる領域の大きさを互いに異ならせても良い。
The
Specifically, the
Then, the
At this time, the
Note that the number of divisions and the division mode of the small areas A1 and B1 described above are examples and are not limited thereto, and can be arbitrarily changed as appropriate. For example, the size of the region where the adjacent small region B1 overlaps the end portions may be different from each other.
<画像登録処理>
次に、携帯端末200による画像登録処理について、図8及び図9を参照して説明する。
図8は、画像登録処理に係る動作の一例を示すフローチャートである。
<Image registration process>
Next, image registration processing by the
FIG. 8 is a flowchart illustrating an example of an operation related to the image registration process.
図2に示すように、画像処理部207の画像取得部7aは、画像登録部6のデータベース6aに登録される登録対象となる画像(登録対象画像)の画像データ(YUVデータ)を取得する(ステップS31;図9(a)等参照)。例えば、画像取得部7aは、予め特定の被写体を撮像した画像を登録対象画像として、図示しない外部機器や記録媒体等から取得する。
As shown in FIG. 2, the
次に、顔検出部7hは、登録対象画像の画像データに対して所定の顔検出処理を行って、当該登録画像Ia内の顔領域Eaを検出する(ステップS32)。略全域が顔領域の画像を登録画像Iaとする場合、なお、顔検出部7hは、当該登録画像Iaに対して必ずしも顔検出処理を行う必要はない。
続けて、上記実施形態1の画像登録処理と略同様に、特徴抽出部7cは、登録対象画像の画像データに対して所定の特徴抽出処理を施して特徴点を複数抽出し、有効な特徴点における特徴量(例えば、SIFT特徴量等)を算出する(ステップS3)。
Next, the
Subsequently, in substantially the same manner as the image registration process of the first embodiment, the
そして、画像分割部7eは、登録対象画像を、顔検出部7hにより検出された顔領域Eaを基準とする所定の分割態様(例えば、顔領域Eaを左右に二等分する態様)で複数の小領域A1、…に分割する(ステップS34)。
その後、画像登録部6は、登録対象画像の複数の小領域A1、…毎に、各特徴点の座標位置及び特徴量を対応付けてデータベース6aに記録する(ステップS35)。
Then, the
Thereafter, the
そして、上記実施形態1の画像登録処理と略同様に、中央制御部1のCPUは、登録対象となる画像が他にあるか否かを判定する(ステップS6)。ここで、登録対象となる画像が他にあると判定されると(ステップS6;YES)、中央制御部1のCPUは、処理をステップS1に戻し、他の登録対象画像を処理対象として、画像処理部207や画像登録部6にそれ以降の各処理を実行させる。
Then, in substantially the same manner as the image registration process of the first embodiment, the CPU of the
一方、ステップS6にて、登録対象となる画像が他にないと判定されると(ステップS6;NO)、中央制御部1のCPUは、当該画像登録処理を終了させる。
On the other hand, when it is determined in step S6 that there is no other image to be registered (step S6; NO), the CPU of the
<画像照合処理>
次に、携帯端末200による画像照合処理について、図10〜図12を参照して説明する。
図10は、画像照合処理に係る動作の一例を示すフローチャートである。
<Image verification processing>
Next, image collation processing by the
FIG. 10 is a flowchart illustrating an example of an operation related to the image matching process.
図10に示すように、先ず、ユーザによる操作入力部12の所定操作に基づいて撮像指示が入力されると、撮像制御部4は、撮像部3に人物の顔Fを被写体として撮像させ、画像データ生成部5は、電子撮像部3bから転送された撮像画像Ibの画像データを生成する(ステップS41)。このとき、人物の顔Fは、例えば、撮像部3のレンズ部3aに対して斜めに配置されたり、光軸を中心として所定の角度回転した状態で撮像されるものとする。
そして、画像データ生成部5は、生成された撮像画像IbのYUVデータをメモリ2に出力し、当該メモリ2に格納させる。
As illustrated in FIG. 10, first, when an imaging instruction is input based on a predetermined operation of the
Then, the image data generation unit 5 outputs the generated YUV data of the captured image Ib to the
そして、上記実施形態1の画像照合処理と略同様に、画像処理部207の画像取得部7aは、メモリ2から画像データ生成部5により生成された撮像画像Ibの所定の解像度の画像データ(例えば、輝度データ)を取得する(ステップS12)。
次に、顔検出部7hは、撮像画像Ibの画像データに対して所定の顔検出処理を行って、当該撮像画像Ib内の顔領域Ebを検出する(ステップS43)。続けて、上記実施形態1の画像照合処理と略同様に、特徴抽出部7cは、撮像画像Ibの画像データに対して所定の特徴抽出処理を施して特徴点を複数抽出し、有効な特徴点における特徴量(例えば、SIFT特徴量等)を算出する(ステップS14)。
The
Next, the
その後、対応領域特定部7dは、画像登録部6のデータベース6aから照合対象となる何れか一の登録画像Iaの画像データを読み出して取得する(ステップS45)。続けて、対応領域特定部7dは、撮像画像Ib内で顔検出部7hにより検出された顔領域Ebを、照合対象の登録画像Iaの顔領域Eaと対応する対応領域Bとして特定する(ステップS46;図11(a)参照)。
Thereafter, the corresponding
次に、画像分割部7eは、撮像画像Ibの顔領域Ebを登録画像Iaの分割態様(例えば、顔領域Eaを左右に二等分する態様等)に応じて複数(例えば、二つ)の小領域B1、…に分割する(ステップS47;図11(b)参照)。
そして、照合対象領域設定部7fは、顔領域Ebの複数の小領域B1、…の中で、所定数の小領域B1を照合対象領域C(例えば、左小領域B1等)として設定する(ステップS48)。
Next, the
Then, the collation target
次に、上記実施形態1の画像照合処理と略同様に、画像照合部7gは、照合対象領域C内の特徴点の座標位置及び特徴量(特徴情報)をメモリ2から取得するとともに、登録画像Iaにおける当該照合対象領域Cに対応する照合用の小領域D内の特徴点の座標位置及び特徴量(特徴情報)をデータベース6aから取得して、照合対象領域C内の特徴点と照合用の小領域D内の特徴点との対応付け(マッチング)を行う(ステップS19;図12(a)参照)。続けて、画像照合部7gは、照合対象領域C内の特徴点と照合用の小領域D内の特徴点との対応付けの結果に基づいて座標変換行列(ホモグラフィ行例)を算出して、算出された座標変換式に従って照合対象領域Cに対して座標変換処理を施して、座標変換済み画像Icを生成する(ステップS20;図12(b)参照)。
そして、画像照合部7gは、生成された座標変換済み画像Icの画素値と登録画像Iaの画素値とに基づいて所定の演算を行って、照合対象領域Cと登録画像Iaとの類似度を算出する(ステップS21)。画像照合部7gは、算出された類似度をメモリ2に出力し、当該類似度は登録画像Iaの識別情報と対応付けて一時的に格納される。
Next, in substantially the same manner as the image matching process of the first embodiment, the
Then, the
その後、上記実施形態1の画像照合処理と略同様に、中央制御部1のCPUは、照合対象となる登録画像Iaが他にあるか否かを判定する(ステップS22)。ここで、照合対象となる画像が他にあると判定されると(ステップS22;YES)、中央制御部1のCPUは、処理をステップS45に戻し、他の登録画像Iaを照合対象として、画像処理部207にそれ以降の各処理を実行させる。
一方、ステップS22にて、照合対象となる登録画像Iaが他にないと判定されると(ステップS22;NO)、画像処理部207は、メモリ2から各登録画像Iaに対応する類似度を取得して、最も類似度が高い登録画像Iaを選択して(ステップS23)、当該画像登録処理を終了する。
Thereafter, in substantially the same manner as the image collating process of the first embodiment, the CPU of the
On the other hand, when it is determined in step S22 that there is no other registered image Ia to be collated (step S22; NO), the
以上のように、実施形態2の携帯端末200によれば、上記実施形態1と同様に、撮像画像Ibの照合対象領域Cと登録画像Iaとの比較照合を適正に行うことができることとなって、画像どうしの照合を精度良く適正に行うことができる。さらに、撮像画像Ib内で、特定の被写体である人物の顔Fが含まれる顔領域Ebを対応領域Bとして特定することで、撮像画像Ib内での対応領域Bの特定をより簡便なものとすることができる。即ち、上記実施形態1のように、撮像画像Ibや登録画像Iaの被写体情報を算出する必要がなくなり、人物の撮像処理にて一般的に行われる顔検出処理の結果を利用して対応領域Bの特定をより適正に、且つ、より簡便に行うことができる。
As described above, according to the
なお、本発明は、上記実施形態1、2に限定されることなく、本発明の趣旨を逸脱しない範囲において、種々の改良並びに設計の変更を行っても良い。
例えば、上記実施形態1、2では、撮像部3により撮像された撮像画像Ibを取得するようにしたが、必ずしも画像を撮像する必要はなく、撮像部3を具備するか否かは適宜任意に変更可能である。例えば、外部機器にて撮像された撮像画像を取得するようにしても良い。
The present invention is not limited to the first and second embodiments, and various improvements and design changes may be made without departing from the spirit of the present invention.
For example, in the first and second embodiments, the captured image Ib captured by the
また、上記実施形態1、2では、照合対象領域Cを対応領域Bが分割された複数の小領域B1、…の中から選択するようにしたが、一例であってこれに限られるものではなく、必ずしも対応領域Bを分割する必要はなく、画像分割部7eを具備するか否かは適宜任意に変更可能である。例えば、照合対象領域設定部7fは、特徴抽出処理により抽出された特徴点の位置を考慮し、対応領域B内で特徴点が抽出された領域が含まれるように照合対象領域Cを設定しても良い。
In the first and second embodiments, the verification target area C is selected from the plurality of small areas B1,... Obtained by dividing the corresponding area B. However, this is an example, and the present invention is not limited to this. It is not always necessary to divide the corresponding region B, and whether or not the
さらに、上記実施形態1、2では、画像照合装置として、携帯端末100、200を例示したが、一例であってこれに限られるものではなく、画像照合処理の実行を制御可能なものであれば適宜任意に変更可能である。
Further, in the first and second embodiments, the
加えて、上記実施形態1、2にあっては、登録手段、取得手段、特定手段、設定手段、照合手段としての機能を、携帯端末100の中央制御部1の制御下にて、画像登録部6、画像取得部7a、対応領域特定部7d、照合対象領域設定部7f、画像照合部7gが駆動することにより実現される構成としたが、これに限られるものではなく、中央制御部1のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。
即ち、プログラムを記憶するプログラムメモリに、登録処理ルーチン、取得処理ルーチン、特定処理ルーチン、設定処理ルーチン、照合処理ルーチンを含むプログラムを記憶しておく。そして、登録処理ルーチンにより中央制御部1のCPUを、予め少なくとも一の画像を登録する手段として機能させるようにしても良い。また、取得処理ルーチンにより中央制御部1のCPUを、特定の被写体が撮像された撮像画像Ibを取得する手段として機能させるようにしても良い。また、特定処理ルーチンにより中央制御部1のCPUを、予め登録されている登録画像Iaの画素情報及び取得された撮像画像Ibの画素情報に基づいて、当該撮像画像Ib内で登録画像Iaと対応する対応領域Bを特定する手段として機能させるようにしても良い。また、設定処理ルーチンにより中央制御部1のCPUを、特定された対応領域B内で照合対象領域Cを設定する手段として機能させるようにしても良い。また、照合処理ルーチンにより中央制御部1のCPUを、設定された照合対象領域Cの特徴情報と、登録画像Iaにおける当該照合対象領域Cに対応する領域の特徴情報とを対応付け、当該対応付けの結果に基づいて照合対象領域Cと登録画像Iaとを照合する手段として機能させるようにしても良い。
In addition, in the first and second embodiments, functions as a registration unit, an acquisition unit, a specifying unit, a setting unit, and a collation unit are controlled by the image registration unit under the control of the
That is, a program including a registration processing routine, an acquisition processing routine, a specific processing routine, a setting processing routine, and a collation processing routine is stored in a program memory that stores the program. Then, the CPU of the
同様に、被写体情報取得手段、分割手段、算出手段についても、中央制御部1のCPUによって所定のプログラム等が実行されることにより実現される構成としても良い。
Similarly, the subject information acquisition unit, the division unit, and the calculation unit may be realized by executing a predetermined program or the like by the CPU of the
さらに、上記の各処理を実行するためのプログラムを格納したコンピュータ読み取り可能な媒体として、ROMやハードディスク等の他、フラッシュメモリ等の不揮発性メモリ、CD−ROM等の可搬型記録媒体を適用することも可能である。また、プログラムのデータを所定の通信回線を介して提供する媒体としては、キャリアウェーブ(搬送波)も適用される。 Furthermore, as a computer-readable medium storing a program for executing each of the above processes, a non-volatile memory such as a flash memory or a portable recording medium such as a CD-ROM is applied in addition to a ROM or a hard disk. Is also possible. A carrier wave is also used as a medium for providing program data via a predetermined communication line.
〔付記〕
本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
<請求項1>
予め少なくとも一の画像を登録する登録手段と、
特定の被写体が撮像された撮像画像を取得する取得手段と、
前記登録手段に登録されている登録画像の画素情報及び前記取得手段により取得された撮像画像の画素情報に基づいて、当該撮像画像内で前記登録画像と対応する対応領域を特定する特定手段と、
前記特定手段により特定された前記対応領域内で照合対象領域を設定する設定手段と、
前記設定手段により設定された前記照合対象領域の特徴情報と、前記登録画像における当該照合対象領域に対応する領域の特徴情報とを対応付け、当該対応付けの結果に基づいて前記照合対象領域と前記登録画像とを照合する照合手段と、
を備えたことを特徴とする画像照合装置。
<請求項2>
前記登録手段は、前記登録画像の重心及び共分散行列の固有値を各登録画像と対応付けて登録し、
前記撮像画像の重心及び共分散行列の固有値を取得する被写体情報取得手段を更に備え、
前記特定手段は、前記被写体情報取得手段により取得された前記撮像画像の重心及び共分散行列の固有値と、前記登録手段に登録されている登録画像の重心及び共分散行列の固有値とをそれぞれ比較することで、前記対応領域を特定することを特徴とする請求項1に記載の画像照合装置。
<請求項3>
前記特定手段により特定された前記対応領域を複数の領域に分割する分割手段を更に備え、
前記設定手段は、前記分割手段により分割された複数の領域のうち、所定数の領域を前記照合対象領域として設定することを特徴とする請求項1又は2に記載の画像照合装置。
<請求項4>
前記分割手段は、更に、前記登録手段に登録される画像を複数の領域に分割し、
前記登録手段は、
前記分割手段により分割された複数の領域毎に、前記特徴情報を対応付けて画像を登録することを特徴とする請求項3に記載の画像照合装置。
<請求項5>
前記分割手段は、更に、前記登録手段に登録される画像の分割態様に応じて前記対応領域を前記複数の領域に分割することを特徴とする請求項4に記載の画像照合装置。
<請求項6>
前記分割手段は、更に、互いに隣合う領域の端部どうしを重複させるように前記対応領域を前記複数の小領域に分割することを特徴とする請求項3〜5の何れか一項に記載の画像照合装置。
<請求項7>
前記取得手段により取得された撮像画像における前記特定の被写体の位置及び当該撮像画像の大きさを表す被写体情報を算出する算出手段を更に備え、
前記特定手段は、
前記算出手段により算出された被写体情報に基づいて、前記撮像画像内で前記対応領域を特定することを特徴とする請求項1〜6の何れか一項に記載の画像照合装置。
<請求項8>
前記算出手段は、更に、前記登録手段に登録される登録画像内の所定の被写体の位置及び当該登録画像の大きさを表す被写体情報を算出し、
前記特定手段は、
前記算出手段により算出された前記撮像画像及び前記登録画像の各々の被写体情報に基づいて、前記撮像画像内で前記対応領域を特定することを特徴とする請求項7に記載の画像照合装置。
<請求項9>
前記特定手段は、前記特定の被写体である印影が含まれる画像領域を前記対応領域として特定することを特徴とする請求項1〜8の何れか一項に記載の画像照合装置。
<請求項11>
前記特定手段は、前記特定の被写体である人物の顔が含まれる顔領域を前記対応領域として特定することを特徴とする請求項1〜8の何れか一項に記載の画像照合装置。
<請求項12>
画像照合装置を用いた画像照合方法であって、
予め少なくとも一の画像を登録する処理と、
特定の被写体が撮像された撮像画像を取得する処理と、
登録されている登録画像の画素情報及び取得された撮像画像の画素情報に基づいて、当該撮像画像内で前記登録画像と対応する対応領域を特定する処理と、
特定された前記対応領域内で照合対象領域を設定する処理と、
設定された前記照合対象領域の特徴情報と、前記登録画像における当該照合対象領域に対応する領域の特徴情報とを対応付け、当該対応付けの結果に基づいて前記照合対象領域と前記登録画像とを照合する処理と、
を含むことを特徴とする画像照合方法。
<請求項13>
画像照合装置のコンピュータを、
予め少なくとも一の画像を登録する登録手段、
特定の被写体が撮像された撮像画像を取得する取得手段、
前記登録手段に登録されている登録画像の画素情報及び前記取得手段により取得された撮像画像の画素情報に基づいて、当該撮像画像内で前記登録画像と対応する対応領域を特定する特定手段、
前記特定手段により特定された前記対応領域内で照合対象領域を設定する設定手段、
前記設定手段により設定された前記照合対象領域の特徴情報と、前記登録画像における当該照合対象領域に対応する領域の特徴情報とを対応付け、当該対応付けの結果に基づいて前記照合対象領域と前記登録画像とを照合する照合手段、
として機能させることを特徴とするプログラム。
[Appendix]
Although several embodiments of the present invention have been described, the scope of the present invention is not limited to the above-described embodiments, but includes the scope of the invention described in the claims and equivalents thereof.
The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
<Claim 1>
Registration means for registering at least one image in advance;
Acquisition means for acquiring a captured image in which a specific subject is captured;
A specifying unit for specifying a corresponding area corresponding to the registered image in the captured image based on the pixel information of the registered image registered in the registration unit and the pixel information of the captured image acquired by the acquiring unit;
Setting means for setting a collation target area within the corresponding area specified by the specifying means;
The feature information of the comparison target region set by the setting unit is associated with the feature information of the region corresponding to the comparison target region in the registered image, and based on the result of the association, Collation means for collating registered images;
An image collating apparatus comprising:
<Claim 2>
The registration means registers the center of gravity of the registered image and the eigenvalue of the covariance matrix in association with each registered image,
Subject information acquisition means for acquiring the center of gravity of the captured image and eigenvalues of the covariance matrix,
The specifying unit compares the center of gravity of the captured image acquired by the subject information acquisition unit and the eigenvalue of the covariance matrix with the center of gravity of the registered image registered in the registration unit and the eigenvalue of the covariance matrix, respectively. The image matching apparatus according to
<Claim 3>
Further comprising a dividing means for dividing the corresponding area specified by the specifying means into a plurality of areas;
The image collating apparatus according to
<Claim 4>
The dividing unit further divides the image registered in the registration unit into a plurality of regions,
The registration means includes
The image collating apparatus according to
<Claim 5>
The image collating apparatus according to claim 4, wherein the dividing unit further divides the corresponding area into the plurality of areas in accordance with a division mode of an image registered in the registration unit.
<Claim 6>
The said division means further divides | segments the said corresponding | compatible area | region into these several small area | regions so that the edge parts of the mutually adjacent area | region may overlap. Image matching device.
<Claim 7>
A calculation unit that calculates subject information indicating the position of the specific subject and the size of the captured image in the captured image acquired by the acquisition unit;
The specifying means is:
The image matching apparatus according to
<Claim 8>
The calculation means further calculates subject information representing a position of a predetermined subject in the registration image registered in the registration means and a size of the registration image,
The specifying means is:
The image collating apparatus according to claim 7, wherein the corresponding region is specified in the captured image based on subject information of each of the captured image and the registered image calculated by the calculating unit.
<Claim 9>
The image collating apparatus according to
<Claim 11>
The image collating apparatus according to
<Claim 12>
An image matching method using an image matching device,
Processing to register at least one image in advance;
A process of acquiring a captured image in which a specific subject is captured;
Based on the pixel information of the registered image registered and the pixel information of the acquired captured image, a process of identifying a corresponding area corresponding to the registered image in the captured image;
A process of setting a matching target area within the identified corresponding area;
The set feature information of the matching target area is associated with the feature information of the area corresponding to the matching target area in the registered image, and the matching target area and the registered image are matched based on the result of the matching. Processing to match,
The image collation method characterized by including this.
<Claim 13>
The computer of the image verification device
Registration means for registering at least one image in advance;
Acquisition means for acquiring a captured image in which a specific subject is captured;
A specifying unit for specifying a corresponding region corresponding to the registered image in the captured image based on the pixel information of the registered image registered in the registration unit and the pixel information of the captured image acquired by the acquiring unit;
Setting means for setting a collation target area within the corresponding area specified by the specifying means;
The feature information of the comparison target region set by the setting unit is associated with the feature information of the region corresponding to the comparison target region in the registered image, and based on the result of the association, Verification means for verifying registered images,
A program characterized by functioning as
100、200 携帯端末
1 中央制御部
6 画像登録部
6a データベース
7、207 画像処理部
7a 画像取得部
7b 被写体情報算出部
7d 対応領域特定部
7e 画像分割部
7f 照合対象領域設定部
7g 画像照合部
7h 顔検出部
100, 200
Claims (12)
特定の被写体が撮像された撮像画像を取得する取得手段と、
前記登録手段に登録されている登録画像の画素情報及び前記取得手段により取得された撮像画像の画素情報に基づいて、当該撮像画像内で前記登録画像と対応する対応領域を特定する特定手段と、
前記特定手段により特定された前記対応領域内で照合対象領域を設定する設定手段と、
前記設定手段により設定された前記照合対象領域の特徴情報と、前記登録画像における当該照合対象領域に対応する領域の特徴情報とを対応付け、当該対応付けの結果に基づいて前記照合対象領域と前記登録画像とを照合する照合手段と、
を備えたことを特徴とする画像照合装置。 Registration means for registering at least one image in advance;
Acquisition means for acquiring a captured image in which a specific subject is captured;
A specifying unit for specifying a corresponding area corresponding to the registered image in the captured image based on the pixel information of the registered image registered in the registration unit and the pixel information of the captured image acquired by the acquiring unit;
Setting means for setting a collation target area within the corresponding area specified by the specifying means;
The feature information of the comparison target region set by the setting unit is associated with the feature information of the region corresponding to the comparison target region in the registered image, and based on the result of the association, Collation means for collating registered images;
An image collating apparatus comprising:
前記撮像画像の重心及び共分散行列の固有値を取得する被写体情報取得手段を更に備え、
前記特定手段は、前記被写体情報取得手段により取得された前記撮像画像の重心及び共分散行列の固有値と、前記登録手段に登録されている登録画像の重心及び共分散行列の固有値とをそれぞれ比較することで、前記対応領域を特定することを特徴とする請求項1に記載の画像照合装置。 The registration means registers the center of gravity of the registered image and the eigenvalue of the covariance matrix in association with each registered image,
Subject information acquisition means for acquiring the center of gravity of the captured image and eigenvalues of the covariance matrix,
The specifying unit compares the center of gravity of the captured image acquired by the subject information acquisition unit and the eigenvalue of the covariance matrix with the center of gravity of the registered image registered in the registration unit and the eigenvalue of the covariance matrix, respectively. The image matching apparatus according to claim 1, wherein the corresponding area is specified.
前記設定手段は、前記分割手段により分割された複数の領域のうち、所定数の領域を前記照合対象領域として設定することを特徴とする請求項1又は2に記載の画像照合装置。 Further comprising a dividing means for dividing the corresponding area specified by the specifying means into a plurality of areas;
The image collating apparatus according to claim 1, wherein the setting unit sets a predetermined number of regions as the collation target region among the plurality of regions divided by the dividing unit.
前記登録手段は、
前記分割手段により分割された複数の領域毎に、前記特徴情報を対応付けて画像を登録することを特徴とする請求項3に記載の画像照合装置。 The dividing unit further divides the image registered in the registration unit into a plurality of regions,
The registration means includes
The image collating apparatus according to claim 3, wherein an image is registered in association with the feature information for each of a plurality of areas divided by the dividing unit.
前記特定手段は、
前記算出手段により算出された被写体情報に基づいて、前記撮像画像内で前記対応領域を特定することを特徴とする請求項1〜6の何れか一項に記載の画像照合装置。 A calculation unit that calculates subject information indicating the position of the specific subject and the size of the captured image in the captured image acquired by the acquisition unit;
The specifying means is:
The image matching apparatus according to claim 1, wherein the corresponding area is specified in the captured image based on the subject information calculated by the calculation unit.
前記特定手段は、
前記算出手段により算出された前記撮像画像及び前記登録画像の各々の被写体情報に基づいて、前記撮像画像内で前記対応領域を特定することを特徴とする請求項7に記載の画像照合装置。 The calculation means further calculates subject information representing a position of a predetermined subject in the registration image registered in the registration means and a size of the registration image,
The specifying means is:
The image collating apparatus according to claim 7, wherein the corresponding region is specified in the captured image based on subject information of each of the captured image and the registered image calculated by the calculating unit.
予め少なくとも一の画像を登録する処理と、
特定の被写体が撮像された撮像画像を取得する処理と、
登録されている登録画像の画素情報及び取得された撮像画像の画素情報に基づいて、当該撮像画像内で前記登録画像と対応する対応領域を特定する処理と、
特定された前記対応領域内で照合対象領域を設定する処理と、
設定された前記照合対象領域の特徴情報と、前記登録画像における当該照合対象領域に対応する領域の特徴情報とを対応付け、当該対応付けの結果に基づいて前記照合対象領域と前記登録画像とを照合する処理と、
を含むことを特徴とする画像照合方法。 An image matching method using an image matching device,
Processing to register at least one image in advance;
A process of acquiring a captured image in which a specific subject is captured;
Based on the pixel information of the registered image registered and the pixel information of the acquired captured image, a process of identifying a corresponding area corresponding to the registered image in the captured image;
A process of setting a matching target area within the identified corresponding area;
The set feature information of the matching target area is associated with the feature information of the area corresponding to the matching target area in the registered image, and the matching target area and the registered image are matched based on the result of the matching. Processing to match,
The image collation method characterized by including this.
予め少なくとも一の画像を登録する登録手段、
特定の被写体が撮像された撮像画像を取得する取得手段、
前記登録手段に登録されている登録画像の画素情報及び前記取得手段により取得された撮像画像の画素情報に基づいて、当該撮像画像内で前記登録画像と対応する対応領域を特定する特定手段、
前記特定手段により特定された前記対応領域内で照合対象領域を設定する設定手段、
前記設定手段により設定された前記照合対象領域の特徴情報と、前記登録画像における当該照合対象領域に対応する領域の特徴情報とを対応付け、当該対応付けの結果に基づいて前記照合対象領域と前記登録画像とを照合する照合手段、
として機能させることを特徴とするプログラム。 The computer of the image verification device
Registration means for registering at least one image in advance;
Acquisition means for acquiring a captured image in which a specific subject is captured;
A specifying unit for specifying a corresponding region corresponding to the registered image in the captured image based on the pixel information of the registered image registered in the registration unit and the pixel information of the captured image acquired by the acquiring unit;
Setting means for setting a collation target area within the corresponding area specified by the specifying means;
The feature information of the comparison target region set by the setting unit is associated with the feature information of the region corresponding to the comparison target region in the registered image, and based on the result of the association, Verification means for verifying registered images,
A program characterized by functioning as
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013165168A JP6217225B2 (en) | 2013-08-08 | 2013-08-08 | Image collation device, image collation method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013165168A JP6217225B2 (en) | 2013-08-08 | 2013-08-08 | Image collation device, image collation method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015035070A true JP2015035070A (en) | 2015-02-19 |
JP6217225B2 JP6217225B2 (en) | 2017-10-25 |
Family
ID=52543563
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013165168A Active JP6217225B2 (en) | 2013-08-08 | 2013-08-08 | Image collation device, image collation method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6217225B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020507836A (en) * | 2017-01-02 | 2020-03-12 | ガウス サージカル, インコーポレイテッドGauss Surgical, Inc. | Tracking surgical items that predicted duplicate imaging |
JP2022048963A (en) * | 2020-09-15 | 2022-03-28 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | Acquisition method for obstacle three-dimensional position to be used for roadside calculation device, apparatus, electronic device, computer readable storage medium, and computer program |
JP7336346B2 (en) | 2019-10-04 | 2023-08-31 | 日本放送協会 | Framing information generator and its program |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04155595A (en) * | 1990-10-19 | 1992-05-28 | Fujitsu Ltd | Character normalization processor |
JPH08101915A (en) * | 1994-09-30 | 1996-04-16 | Omron Corp | Defect inspection method and device therefor |
JP2001092963A (en) * | 1999-09-27 | 2001-04-06 | Fujitsu Ltd | Method and device for collating image |
JP2005234810A (en) * | 2004-02-18 | 2005-09-02 | Fuji Xerox Co Ltd | Image processor |
-
2013
- 2013-08-08 JP JP2013165168A patent/JP6217225B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04155595A (en) * | 1990-10-19 | 1992-05-28 | Fujitsu Ltd | Character normalization processor |
JPH08101915A (en) * | 1994-09-30 | 1996-04-16 | Omron Corp | Defect inspection method and device therefor |
JP2001092963A (en) * | 1999-09-27 | 2001-04-06 | Fujitsu Ltd | Method and device for collating image |
JP2005234810A (en) * | 2004-02-18 | 2005-09-02 | Fuji Xerox Co Ltd | Image processor |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020507836A (en) * | 2017-01-02 | 2020-03-12 | ガウス サージカル, インコーポレイテッドGauss Surgical, Inc. | Tracking surgical items that predicted duplicate imaging |
JP7268879B2 (en) | 2017-01-02 | 2023-05-08 | ガウス サージカル,インコーポレイテッド | Tracking Surgical Items Predicting Duplicate Imaging |
US11922646B2 (en) | 2017-01-02 | 2024-03-05 | Gauss Surgical Inc. | Tracking surgical items with prediction of duplicate imaging of items |
JP7336346B2 (en) | 2019-10-04 | 2023-08-31 | 日本放送協会 | Framing information generator and its program |
JP2022048963A (en) * | 2020-09-15 | 2022-03-28 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | Acquisition method for obstacle three-dimensional position to be used for roadside calculation device, apparatus, electronic device, computer readable storage medium, and computer program |
US11694445B2 (en) | 2020-09-15 | 2023-07-04 | Apollo Intelligent Connectivity (Beijing) Technology Co., Ltd. | Obstacle three-dimensional position acquisition method and apparatus for roadside computing device |
JP7422105B2 (en) | 2020-09-15 | 2024-01-25 | 阿波▲羅▼智▲聯▼(北京)科技有限公司 | Obtaining method, device, electronic device, computer-readable storage medium, and computer program for obtaining three-dimensional position of an obstacle for use in roadside computing device |
Also Published As
Publication number | Publication date |
---|---|
JP6217225B2 (en) | 2017-10-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8509482B2 (en) | Subject tracking apparatus, subject region extraction apparatus, and control methods therefor | |
JP6467787B2 (en) | Image processing system, imaging apparatus, image processing method, and program | |
US9407884B2 (en) | Image pickup apparatus, control method therefore and storage medium employing phase difference pixels | |
CN108668093B (en) | HDR image generation method and device | |
JP5779724B2 (en) | Image processing apparatus, imaging apparatus, computer, and program | |
JP2008152622A (en) | Pointing device | |
US9196029B2 (en) | Threshold setting device for setting threshold used in binarization process, object detection device, threshold setting method, and computer readable storage medium | |
JP2013197785A (en) | Image generation device, image generation method, and program | |
CN106454079B (en) | Image processing method and device and camera | |
US8687888B2 (en) | Region specification method, region specification apparatus, recording medium, server, and system | |
US10013632B2 (en) | Object tracking apparatus, control method therefor and storage medium | |
JP2015148532A (en) | Distance measuring device, imaging apparatus, distance measuring method, and program | |
CN104346613B (en) | Image processing apparatus and image processing method | |
WO2019202511A1 (en) | Object segmentation in a sequence of color image frames based on adaptive foreground mask upsampling | |
JP6374849B2 (en) | User terminal, color correction system, and color correction method | |
JP6217225B2 (en) | Image collation device, image collation method and program | |
JP5862623B2 (en) | Image processing apparatus, image processing method, and program | |
WO2019144262A1 (en) | Smudge detection method and apparatus and mobile electronic device | |
JP6171660B2 (en) | Information processing apparatus, information processing system, and program | |
JP5167236B2 (en) | Subject tracking device and control method thereof | |
JP5906745B2 (en) | Image display device, image display method, and program | |
JP5222429B2 (en) | Subject tracking device and control method thereof | |
JP5131399B2 (en) | Image processing apparatus, image processing method, and program | |
JP5928228B2 (en) | Subject detection apparatus, subject detection method, and program | |
JP6286919B2 (en) | Image processing apparatus, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160728 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170526 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170606 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170804 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170829 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170911 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6217225 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |