JP2004341992A - Image photographing device and image collation device - Google Patents

Image photographing device and image collation device Download PDF

Info

Publication number
JP2004341992A
JP2004341992A JP2003140174A JP2003140174A JP2004341992A JP 2004341992 A JP2004341992 A JP 2004341992A JP 2003140174 A JP2003140174 A JP 2003140174A JP 2003140174 A JP2003140174 A JP 2003140174A JP 2004341992 A JP2004341992 A JP 2004341992A
Authority
JP
Japan
Prior art keywords
image
unit
collation
identification information
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003140174A
Other languages
Japanese (ja)
Inventor
Megumi Yamaoka
めぐみ 山岡
Keisuke Hayata
啓介 早田
Kenji Nagao
健司 長尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2003140174A priority Critical patent/JP2004341992A/en
Publication of JP2004341992A publication Critical patent/JP2004341992A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To shorten processing time for collation and to improve the accuracy of collation in an image photographing device and an image collation device provided with an interface for easily collating a photographed image for collation with a registered image. <P>SOLUTION: Images photographed by the image photographing device provided with a photographing part 101 for photographing an object, a feature point detection part 102 for extracting feature points of the photographed image, an image synthesis part 103 for synthesizing the image with the feature points, and an image display part 104 for displaying the synthesized image and suited to collation are previously registered in an image database 304, a registered image of an object to be collated which is stored in the image database 304 is synthesized with the current image of the object and the synthesized image is displayed. Since an image of a position, size and posture which are almost the same as the registered image and suited to collation can be obtained in collation, the processing time of collation in a collation part 701 can be shortened and the accuracy of collation can be improved. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、照合用の画像を撮影する際に、登録画像との照合を容易にするためのインターフェースを備えた画像撮影装置及び画像照合装置に関する。
【0002】
【従来の技術】
従来より、この画像照合装置としては、例えば、特許文献1に記載されているようなものがあった。図15は、特許文献1に記載された従来の画像照合装置のブロック構成を示すものである。
【0003】
図15において、入力手段1501は生体情報を入力するものであり、表示手段1502は入力した生体情報を表示するものであり、枠表示手段1503は生体情報の大きさや位置を指定するための枠を表示するものであり、認証手段1504は入力した生体情報をもとに予め登録されたユーザを認証するものである。
【0004】
また、他の画像照合装置としては、特許文献2に記載されているようなものがあった。図16は、特許文献2に記載された従来の画像照合装置のブロック構成を示すものである。
【0005】
図16において、画像入力部1610は画像を入力するものであり、顔領域検出部1620は入力画像から顔画像の領域を検出するものであり、特徴点検出部1630は検出された顔画像に基づいて顔の特徴点を検出するものであり、正規化部1640は検出された特徴点の位置を移動させて、あらかじめ設定された位置に来るように画像を変形させるものであり、認識部1650は正規化画像とあらかじめ登録された各登録者のデータベース画像とを用いて人物を識別認識するものである。
【0006】
【特許文献1】
特開2002−229955号公報(第3−5頁、第1図)
【特許文献2】
特開2000−67237号公報(第2、3頁、第1図)
【0007】
【発明が解決しようとする課題】
しかしながら、上記特許文献1の構成では、照合する生体の個体差にかかわらず一様に同じ枠を表示するため、枠の規格と一致しない生体を撮影する場合には、位置や姿勢を合わせることが難しい、という課題を有していた。例えば、顔の位置を一定サイズの楕円の枠で指定した場合、楕円のサイズと一致しない顔の場合には、顔の向きや位置・大きさが、登録時と照合時で異なる可能性が高く、照合精度の低下を招くおそれがあった。
【0008】
また、特許文献2の構成では、検出された特徴点の位置を移動させたり、画像を変形させるための処理に多くの負荷がかかり、照合処理をする時間が長くかかるという課題を有していた。
【0009】
本発明は、上記従来の課題を解決するもので、登録画像との照合を容易にするインターフェースを提供し、照合のための処理時間と照合の精度を向上させることを目的とする。
【0010】
【課題を解決するための手段】
上記従来の課題を解決する本発明に係る画像撮影装置は、物体を撮影した画像データを出力する撮影部と、撮影された物体の画像データの特徴である特徴点を抽出する特徴点検出部と、画像データと特徴点とを合成した合成画像データを出力する画像合成部と、合成画像データを表示する画像表示部とを備えている。
【0011】
これにより、ユーザは現在撮影している物体が、特徴点をはっきりと検出できる画像データになっているか否かを認識できるので、それに合わせて顔等の向きを変更したり、光の加減を調整することが可能になる。
【0012】
また、本発明に係る画像照合装置は、本発明に係る画像撮影装置と、予め撮影された照合対象物体の画像データを識別情報と対応づけて格納している画像データベースと、現在撮影された物体の画像データと、登録データ管理部により識別情報に基づいて抽出された画像データとを照合する照合部と、この照合部の照合結果を出力する出力部とを備えている。
【0013】
これにより、本発明は、予め登録している画像データと撮影中の物体の画像データを合成して表示し、物体が登録画像データと類似した大きさ・位置・姿勢で撮影できるインターフェースを提供することにより、ユーザは、照合に適した状態で物体を撮影することができる。また、照合時の物体の位置調整が容易になり、処理速度と照合精度が向上する。
【0014】
【発明の実施の形態】
本発明に係る画像撮影装置は、物体を撮影した画像データを出力する撮影部と、この画像データから撮影された物体の特徴である特徴点を抽出する特徴点検出部と、この画像データと特徴点とを合成した合成画像データを出力する画像合成部と、この合成画像データを表示する画像表示部とを備えている。これにより、撮影するときに、物体の特徴点がはっきり検出できているか否かを確認しながら撮影できるので、照合に適した状態の物体を撮影することが容易になる。
【0015】
また、本発明に係る画像撮影装置は、物体を撮影した画像データを出力する撮影部と、この画像データから撮影された物体の特徴である特徴点を抽出する特徴点検出部と、この画像データと特徴点と予め撮影された照合対象物体の画像データとを合成した合成画像データを出力する画像合成部と、この合成画像データを表示する画像表示部とを備えている。
【0016】
また、本発明に係る画像撮影装置は、予め撮影された照合対象物体の画像データを識別情報と対応づけて格納している画像データベースと、その識別情報を入力する情報入力部と、画像データベースから識別情報に基づいて画像データを抽出する登録データ管理部とをさらに備え、画像合成部が、現在撮影された物体の画像データと、当該画像データの特徴点と、情報入力部からの識別情報に基づいて抽出された画像データとを合成した合成画像データを出力する。
【0017】
これにより、ユーザは撮影するときに、被写体の特徴点がはっきり検出できているか否かを確認しながら撮影できるとともに、登録時と同じ大きさ・位置・姿勢で被写体を撮影できる情報を提供されるので、照合の精度を向上させる画像を撮影することが可能になる。
【0018】
また、本発明に係る画像撮影装置は、予め撮影された照合対象物体の画像データの特徴である特徴データを、識別情報と対応づけて格納している特徴量データベースと、その識別情報を入力する情報入力部と、特徴量データベースから識別情報に基づいて特徴データを抽出する登録データ管理部とをさらに備え、画像合成部が、現在撮影された画像と、当該画像の特徴点と、情報入力部からの識別情報に基づいて抽出された前記特徴データとを合成する。
【0019】
これにより、ユーザは撮影するときに、被写体の特徴点がはっきり検出できているか否かを確認しながら撮影できるとともに、登録時と同じ大きさ・位置・姿勢で被写体を撮影できるように、特徴データのみ提供される。そのため、照合の精度を向上させる画像を撮影することが可能になるとともに、画像データを蓄積しておく場合に比べ、少ないデータ量を蓄積しておくことで、同様の効果を得ることが可能になる。
【0020】
また、本発明に係る画像撮影装置の特徴データは、顔の輪郭の形状や位置、目の位置、鼻の位置、および口の位置の少なくともいずれか一つである。これにより、より少ないデータ量を蓄積しておくだけで、同様の効果を得ることが可能になる。
【0021】
また、本発明に係る画像撮影装置の画像合成部は、画像に対する透過処理を行う透過処理部と合成処理を行う合成部とからなる。これにより、登録画像を透過処理すれば、現在の撮影画像との比較がよりしやすくなる。
【0022】
本発明に係る画像照合装置は、本発明に係る画像撮影装置と、現在撮影された画像と、登録データ管理部により識別情報に基づいて抽出された画像とを照合する照合部と、この照合部の照合結果を出力する出力部とを備えている。
【0023】
また、本発明に係る画像照合装置は、本発明に係る画像撮影装置と、予め撮影された照合対象の画像を識別情報と対応づけて格納している画像データベースと、現在撮影された画像と、登録データ管理部により識別情報に基づいて抽出された画像とを照合する照合部と、この照合部の照合結果を出力する出力部とを備えている。
【0024】
これにより、照合に適した画像を用いて照合できるので、照合時に物体の位置調整に要する処理時間が短くて済むとともに、照合の精度を向上することが可能になる。
【0025】
また、本発明に係る画像照合装置の画像合成部は、画像に対する透過処理を行う透過処理部と合成処理を行う合成部とからなる。
【0026】
また、本発明に係る画像照合装置の登録データ管理部は、現在撮影された画像を、情報入力部からの識別情報と対応づけて画像データベースに格納する。これにより、照合を行いながら、新たに照合対象の画像をデータベースに追加していくことができるので、照合の対象が増えて、精度の向上が図られる。
【0027】
以下、本発明の実施の形態について、図面を用いて説明する。なお、同一構成要素には同一の符号を付けて表示する。
【0028】
(実施の形態1)
図1は、本発明の実施の形態1における画像撮影装置のブロック構成図を示している。
【0029】
図1において、撮影部101は照合対象である人の顔などの物体を撮影するカメラであり、特徴点検出部102は撮影部101で取り込んだ画像データの特徴である特徴点を検出するものであり、画像合成部103は画像上に、特徴点であることを示す指標を合成するものであり、画像表示部104は画像を表示するディスプレイである。
【0030】
この特徴点検出部102は目や鼻や口の部分のテンプレートを予め蓄積しており、入力画像が与えられるとその全体をスキャンして、所定の類似度をもとに、最もテンプレートに類似した局所エリア位置を見いだすことにより、特徴点を検出している。
【0031】
画像合成部103は、入力画像と検出した特徴点の位置を示す指標とを内部のメモリ上でAND処理することにより合成している。
【0032】
以上のように構成された画像撮影装置について、以下にその動作と作用を説明する。図2は画像撮影装置の動作を示すフローチャートである。
【0033】
まず、撮影部101が被写体を撮影する(ステップS201)。図11(a)はこの撮影した画像である。
【0034】
次に、特徴点検出部102が撮影部101の取り込んだ画像から特徴点を検出する(ステップS202)。
【0035】
次に、画像合成部103が撮影部101の取り込んだ画像と、特徴点検出部102が検出した特徴点を示す指標とを合成し、画像表示部104に出力する(ステップS203)。図11(b)は特徴点を示す指標を×印で表示して撮影画像に重ねた合成画像である。
【0036】
次に、画像表示部104がこれを受けてディスプレイに合成画像を表示する(ステップS204)。
【0037】
以上のように、本実施の形態においては、取り込んだ画像に、検出できた、その画像の特徴点を合成して表示する。これにより、ユーザが現在の撮影している画像の状況を認識できるので、それに合わせて顔等の向きを変更したり、あるいは光の加減を調整することで、特徴点をはっきりと検出できる画像を撮影することが可能になる。すなわち、本来、図11(b)には、口の部分に特徴点が現れなければならないが、この撮影状態ではそれを検出できていない。被写体はこれを改善すべく、顔の向きを変えたり、光の当たり具合を調整し、口の特徴点も現れるようにすることができ、全ての特徴点が表示された画像を撮影することが容易になる。
【0038】
なお、この合成画像の表示は、撮影とリアルタイムで行うことが好ましいが、ユーザが撮影指示をした時にのみ特徴点を検出して、合成表示を行うことも可能である。この場合は、画像撮影装置の負荷を軽減することができる。
【0039】
(実施の形態2)
図3は、本発明の実施の形態2における画像撮影装置のブロック構成図を示している。
【0040】
図3において、画像合成部301は合成部302と透過処理部303とからなり、透過処理部303は入力画像に透過処理を行うものであり、合成部302は複数の画像を内部メモリ上でAND処理して合成するものである。
【0041】
画像データベース304は、予め撮影した照合対象となる物体の画像と、それを識別するための識別情報とが対応づけて蓄積されているハードディスクであり、情報入力部305はその識別情報をユーザが指定するためのものである。
【0042】
そして、登録データ管理部306は入力された識別情報に基づいて、対応する画像を画像データベース304から抽出するものである。
【0043】
その他の撮影部101、特徴点検出部102、および画像表示部104は、実施の形態1と同一である。
【0044】
以上のように構成された画像撮影装置について、以下にその動作と作用を説明する。図4は画像撮影装置の動作を示すフローチャートである。また、図12(a)乃至(d)は本実施の形態における現在の撮影画像と登録画像とそれらの合成画像とを示す。
【0045】
まず、ユーザにより識別情報が、情報入力部305から入力される(ステップS401)。
【0046】
次に、登録データ管理部306がその識別情報に基づいて、画像データベース304から画像を抽出する(ステップS402)。図12(a)はこの抽出された登録画像である。
【0047】
次に、透過処理部303が抽出された画像に透過処理を行い、内部メモリに書き込む(ステップS403)。図12(b)はこの透過処理された登録画像である。
【0048】
次に、撮影部101から被写体を取り込み、内部メモリに蓄積する(ステップS404)。図12(c)はこの撮影画像である。
【0049】
次に、特徴点検出部102がこの取り込んだ画像から特徴点を検出する(ステップS405)。
【0050】
次に、画像合成部301が、内部メモリに蓄積してある透過画像と、撮影部101から取り込んだ画像と、その特徴点とを合成し、画像表示部104に出力する(ステップS406)。図12(d)はこの合成画像である。
【0051】
次に、画像表示部104がこれを受けてディスプレイに合成画像を表示する(ステップS407)。
【0052】
以上のように、本実施の形態においては、ユーザが指定した、予め登録してある照合対象の画像に、被写体の画像と、検出されたその画像の特徴点とを合成して表示する。これにより、現在の撮影している画像の状況を認識することができるとともに、ユーザが指定の位置に被写体である顔をあわせやすくなるので、それに合わせるように顔等の位置を移動させたり、向きを変更したり、あるいは光の加減を調整することで、指定の位置に、特徴点がはっきりと検出できる画像を撮影することが可能になる。
【0053】
この位置あわせは、過去に取得しておいた被写体そのものの画像を表示しているため、顔の輪郭と目、鼻、口などの各部との位置とを、従来の均一の枠や指標を表示されてそれに合わせるよりも、はるかに容易にできるようになる。
【0054】
また、登録してある画像と被写体の画像との区別をしやすくするため、登録画像はモノクロの透過画像にすることがより好ましい。
【0055】
なお、この合成画像の表示は、撮影とリアルタイムで行うことが好ましいが、ユーザが撮影指示をした時にのみ特徴点を検出して、合成表示を行うことも可能である。この場合は、画像撮影装置の負荷を軽減することができる。
【0056】
また、本実施の形態では、透過処理部303が登録画像を透過して合成したが、これに限らず、登録画像と現在撮影された画像を交互に切り換えて表示することも可能である。この場合は、透過処理部303が不要になる。
【0057】
(実施の形態3)
図5は、本発明の実施の形態3における画像撮影装置のブロック構成図を示している。
【0058】
図5において、特徴量データベース501は、予め撮影した照合対象となる物体の画像から検出した特徴データと、その画像を識別するための識別情報とが対応づけて蓄積されているハードディスクである。この特徴データは、顔の輪郭の形状や位置、目、鼻、口などの各部の位置の情報である。
【0059】
その他の撮影部101、特徴点検出部102、画像合成部103、画像表示部104、情報入力部305、および登録データ管理部306ものは、実施の形態1及び、実施の形態2と同一である。
【0060】
以上のように構成された画像撮影装置について、以下にその動作と作用を説明する。図6は画像撮影装置の動作を示すフローチャートである。また、図13(a)乃至(d)は本実施の形態における登録画像と撮影画像とそれらの合成画像を示す。
【0061】
まず、ユーザにより識別情報が、情報入力部305から入力される(ステップS601)。
【0062】
次に、登録データ管理部306がその識別情報に基づいて、特徴量データベース501から特徴データを抽出する(ステップS602)。本実施の形態においては、この特徴データとして、顔の輪郭の形状と位置と特徴点とを用いている。図13(a)は登録画像であり、図13(b)はその画像の登録されている輪郭と特徴点(×印)を示したものである。
【0063】
次に、撮影部101から被写体を取り込み、内部メモリに蓄積する(ステップS603)。図13(c)は現在の撮影画像である。
【0064】
次に、特徴点検出部102がこの取り込んだ画像から特徴点を検出する(ステップS604)。
【0065】
次に、画像合成部103が、内部メモリに蓄積してある画像上に、その特徴点の位置を示す指標と、特徴量データベース501から抽出した特徴データとを合成し、画像表示部104に出力する(ステップS605)。このとき、特徴データを示す指標と、現在撮影した画像の特徴点を示す指標とを区別するために、それぞれの色、形状、大きさなどを変えることがより好ましい。図13(d)は合成画像であり、現在の撮影画像から検出された特徴点は○印で示している。
【0066】
次に、画像表示部104がこれを受けてディスプレイに合成画像を表示する(ステップS606)。
【0067】
以上のように、本実施の形態においては、ユーザが指定した、照合対象の特徴データである顔の輪郭や特徴点と、被写体の画像と、検出された被写体の画像の特徴点とを合成して表示することにより、ユーザが登録画像の輪郭の位置と被写体とのズレや、撮影されている画像の特徴点の検出度合いを知ることができる。このため、ユーザがその輪郭の枠に合わせるように顔等の位置を移動させたり、向きを変更したり、あるいは光の加減を調整することが容易になり、指定の位置に、特徴点がはっきりと検出できる画像を撮影することが可能になる。
【0068】
この位置あわせは、過去に取得しておいた被写体そのものの画像を表示しているため、顔の輪郭と目、鼻、口などの各部との位置とを、従来の均一の枠や指標を表示されてそれに合わせるよりも、はるかに容易にできるという特徴がある。
【0069】
なお、この合成画像の表示は、撮影とリアルタイムで行うことが好ましいが、ユーザが撮影指示をした時にのみ特徴点を検出して、合成表示を行うことも可能である。この場合は、画像撮影装置の負荷を軽減することができる。
【0070】
また、本実施の形態では、特徴データとして、輪郭と特徴点との両方を用いたがこれに限らずいずれか一方のみとすることも可能である。
【0071】
(実施の形態4)
図7は、本発明の実施の形態4における画像照合装置のブロック構成図を示している。
【0072】
図7において、照合部701は撮影部101から入力した画像と登録データ管理部704から入力した登録画像を照合するものであり、出力部702は照合部701の照合結果をディスプレイやスピーカなどに出力するものであり、照合指示部703はユーザが現在表示されている画像での照合を指示するものであり、登録データ管理部704は入力画像を画像データベース304に識別情報に対応づけて登録したり、識別情報に基づいて登録画像を抽出したりするものである。その他の撮影部101、特徴点検出部102、画像表示部104、画像合成部301、画像データベース304、情報入力部305は実施の形態1および2のものと同一である。
【0073】
以上のように構成された画像照合装置について、以下その動作を説明する。図8(a)は本実施の形態における画像の登録の動作を説明するフローチャートである。図12は、照合画像の撮影時に、表示される画像の例である。
【0074】
照合の前に、対象の画像を登録画像として保存しておく。具体的には、まず、実施の形態1で説明した処理により、撮影部101で撮影した画像を登録データ管理部306が取得する(ステップS801)。
【0075】
次に、登録データ管理部306は、ユーザが入力した被写体の名称などの識別情報を情報入力部305から取得する(ステップS802)。
【0076】
次に、登録データ管理部306は、ステップS801で入力した画像を登録画像として、ステップS802で入力した識別情報と共に、画像データベース304に格納する(ステップS803)。
【0077】
以上の処理を、照合対象の物体すべてに対して行う。また、一つの照合対象の物体に対して、複数の登録画像を登録することが好ましい。次に述べる照合の動作において、照合する登録画像が多いほど、照合を正確に行うことができるからである。
【0078】
次に、照合対象の照合方法について以下に具体的に説明する。
【0079】
図8(b)は本実施の形態における照合の動作を説明するフローチャートである。
【0080】
まず、ユーザが情報入力部305から照合対象人物の名前を入力する(ステップS804)。
【0081】
次に、登録データ管理部704は、この名前に該当する登録画像を画像データベース304から抽出して画像合成部301に出力する。同時に、撮影部101は、撮影を開始し現在の被写体の画像を画像合成部301に送出する(ステップS805)。図12(a)は抽出した登録画像であり、図12(c)は現在の撮影画像である。
【0082】
次に、画像合成部301が実施の形態2で示した処理により、登録画像に透過処理をした後、撮影画像と合成する。そして、その合成した画像を画像表示部104に出力し、表示する(ステップS806)。図12(b)は登録画像に透過処理した後の画像であり、図12(d)は透過処理した画像と、撮影画像との合成画像である。
【0083】
次に、ユーザは、画像表示部104の画面に表示された撮影画像と登録画像を見比べながら、所定の特徴点の全てが検出できている画像であって、登録画像と同じ位置、大きさで撮影された画像が表示しているとき、照合指示部703に照合の指示をする(ステップS807)。照合部701は、ユーザに指定された照合用の顔画像と、登録画像を照合して(ステップS808)、照合の顔画像が登録画像の顔と同一人物かを出力部702に出力する(ステップS809)。
【0084】
ここで、照合部701が行う照合処理について説明する。
【0085】
図14(a)は現在の撮影画像であり、図14(b)は登録画像である。
【0086】
撮影画像の各画素の濃淡の値をa11、a12、a13、・・・a21、a22、・・・とし、登録画像の各画素の濃淡の値をb11、b12、b13、・・・b21、b22、・・・とすると、撮影画像と登録画像の距離dは、(式1)で表される。
【0087】
d=(a11−b11)×(a11−b11)+ (a12−b12)×(a12−b12)+・・・ (1)
この距離dの値が小さいほど両画像が類似していることを示す。
【0088】
照合部701はこの距離の計算を、画像データベース304に登録してある、この識別情報に対応する全ての登録画像に対して実施する。その中で、最も距離の小さい値が、所定の値以下であったとき、ステップS807において照合の成功を出力する。
【0089】
また、別の照合処理方法としては、正規化相関を用いたテンプレートマッチングの方法がある。
【0090】
撮影画像における各画素の濃淡値の平均をm1、登録画像における各画素の濃淡値の平均をm2とし、ベクトル量Aとベクトル量Bとを(式2)と(式3)とから求める。
【0091】
ベクトルA=( a11−m1, a12−m1, a13−m1,・・・) (2)
ベクトルB=( b11−m2, b12−m2, b13−m2,・・・) (3)
このとき、撮影画像と登録画像の正規化相関Cは(式4)で表される。
【0092】
C=A・B÷(|A||B|) (4)
但し、A・BはAとBの内積、|A|, |B|はベクトルの大きさを表す。
【0093】
この正規化相関Cの値が大きいほど撮影画像と登録画像とは類似していることを示す。
【0094】
照合部701はこの正規化相関Cの計算を、画像データベース304に登録してある、この識別情報に対応する全ての登録画像に対して実施する。その中で、最も正規化相関Cの大きい値が、所定の値以上であったとき、ステップS809において照合の成功を出力する。
【0095】
以上のように、本実施の形態においては、透過処理された登録画像と、撮影部101から入力した画像と、その画像について検出した特徴点を示す指標とを、画像合成部301で合成し、それを表示することにより、ユーザが登録時とほぼ同じ大きさ・位置・姿勢で撮影することが容易になる。これにより、照合に適する画像を取得することが可能になる。
【0096】
また、この撮影された画像は、照合のための位置合わせが僅かで済むので、位置や、大きさを合わせる処理時間が短縮でき、照合の精度が向上するとともに、照合に要する時間も短くすることが可能になる。
【0097】
(実施の形態5)
図9は、本発明の実施の形態5における画像照合装置のブロック構成図を示している。
【0098】
図9において、登録データ管理部901は撮影された画像を登録画像として、情報入力部305から入力した識別情報と共に画像データベース304に格納したり、この登録画像から抽出された特徴点の座標を識別情報と共に特徴量データベース501に格納したり、逆に、画像データベース304や特徴量データベース501から識別情報に基づいて登録画像や特徴点の座標を抽出したりするものである。その他に、この画像照合装置は、画像合成部103が透過処理部303を有していない点と、特徴量データベース501を有している点とが実施の形態4と異なる。
【0099】
以上のように構成された画像照合装置について、以下にその動作を説明する。図10(a)は本実施の形態における画像の登録の動作を示すフローチャートである。図13(a)乃至(d)は、登録画像と、登録画像から抽出した特徴点を示す指標と、照合画像撮影時に撮影した画像と、撮影画像と登録画像の特徴点を重ねた合成画像である。
【0100】
実施の形態4と同様に、照合の前に、照合対象の画像を登録画像として保存しておく。具体的には、まず、実施の形態1で説明した処理により撮影部101が撮影した画像を登録データ管理部901と特徴点検出部102とへ送出する(ステップS1001)。
【0101】
次に、特徴点検出部102が、その画像の特徴点や輪郭を検出し、登録データ管理部901へ送出する(ステップS1002)。
【0102】
次に、登録データ管理部901は、ユーザが入力した被写体の名称などの識別情報を情報入力部305から受け取る(ステップS1003)。
【0103】
次に、登録データ管理部306は、撮影部101から受け取った画像を登録画像として、情報入力部305からの識別情報と共に、画像データベース304に格納する(ステップS1004)。
【0104】
次に、登録データ管理部901は、特徴点検出部102から受け取った特徴点や輪郭を、その識別情報と共に、特徴量データベース501に格納する(ステップS1005)。
【0105】
以上の処理を、照合対象の物体すべてに対して行う。また、一つの照合対象の物体に対して、複数の登録画像を登録することが好ましい。次に述べる照合の動作において、照合する登録画像が多いほど、照合を正確に行うことができるからである。
【0106】
次に、照合対象の照合方法について以下に具体的に説明する。
【0107】
図10(b)は、本実施の形態における照合処理を説明するフローチャートである。
【0108】
まず、ユーザが情報入力部305から照合対象人物の名前を入力する(ステップS1006)。
【0109】
次に、登録データ管理部901は、この名前に該当する登録画像の特徴点の座標を特徴量データベース501から抽出して画像合成部103に出力する。同時に、撮影部101は、撮影を開始し現在の被写体の画像を画像合成部103に送出する(ステップS1007)。
【0110】
次に、画像合成部103は、実施の形態3と同じく、登録データ管理部901から入力した登録画像の特徴点の座標を撮影部101から入力した画像上に重ねて画像表示部104に出力する(ステップS1008)。
【0111】
次に、ユーザは、画像表示部104の画面に表示された撮影画像と特徴点の位置を見比べながら、登録画像中の特徴点の位置と撮影画像中の目・鼻・口が重なった時点で、撮影された画像を照合用の画像として指定する(ステップS1009)。
【0112】
次に行う照合部701の処理(ステップS1010)と照合結果の処理(ステップS1011)とは、実施の形態4に示したステップS806とステップS807と同一である。
【0113】
なお、本実施の形態では、顔の特徴点と輪郭の両方を用いたが、特徴点および輪郭のいずれか一方のみを用いても良い。また、特徴点を示す指標の表示は、登録画像のものと、現在の撮影したものとの区別をつけるために、色や形や大きさを変えることが好ましい。
【0114】
これにより、本実施の形態では、撮影部101から入力した画像と、その画像から検出された特徴点と、登録画像から抽出した特徴点とを、画像表示部104で重ねて表示することにより、ユーザが登録時とほぼ同じ大きさ・位置・姿勢で撮影することが容易になる。これにより、照合に適する画像を取得することが可能になる。
【0115】
また、この撮影された画像は、照合のための位置合わせが僅かで済むので、位置や、大きさを合わせる処理時間が短縮でき、照合の精度が向上するとともに、照合に要する時間も短くすることが可能になる。
【0116】
【発明の効果】
本発明により、特徴点がはっきり写った照合に適する画像を撮影することが可能になる。また、照合時には、登録時とほぼ同じ位置・大きさ・姿勢の、照合に適する画像を取得することが可能になる。これにより、照合のための処理時間の短縮と、照合の精度の向上を図れる。
【図面の簡単な説明】
【図1】本発明の実施の形態1による画像撮影装置のブロック構成図
【図2】本発明の実施の形態1による画像撮影装置の処理を示すフローチャート
【図3】本発明の実施の形態2による画像撮影装置のブロック構成図
【図4】本発明の実施の形態2による画像撮影装置の処理を示すフローチャート
【図5】本発明の実施の形態3による画像撮影装置のブロック構成図
【図6】本発明の実施の形態3による画像撮影装置の処理を示すフローチャート
【図7】本発明の実施の形態4による画像照合装置のブロック構成図
【図8】(a)本発明の実施の形態4における画像の登録動作を示すフローチャート
(b)本発明の実施の形態4における画像の照合の動作を示すフローチャート
【図9】本発明の実施の形態5による画像照合装置のブロック構成図
【図10】(a)本発明の実施の形態5における画像の登録の動作を示すフローチャート(b)本発明の実施の形態5における画像の照合の動作を示すフローチャート
【図11】(a)本発明の実施の形態1における撮影画像を示す図
(b)本発明の実施の形態1における合成画像を示す図
【図12】(a)本発明の実施の形態2における登録画像を示す図
(b)本発明の実施の形態2における透過処理後の画像を示す図
(c)本発明の実施の形態2における撮影画像を示す図
(d)本発明の実施の形態2における合成画像を示す図
【図13】(a)本発明の実施の形態3における登録画像を示す図
(b)本発明の実施の形態2における特徴点を示す図
(c)本発明の実施の形態2における撮影画像を示す図
(d)本発明の実施の形態2における合成画像を示す図
【図14】(a)本発明の実施の形態4における撮影画像を示す図
(b)本発明の実施の形態4における登録画像を示す図
【図15】従来の画像照合装置を示すブロック構成図
【図16】従来の画像照合装置を示すブロック構成図
【符号の説明】
101 撮影部
102 特徴点検出部
103、301 画像合成部
104 画像表示部
302 合成部
303 透過処理部
304 画像データベース
305 情報入力部
306、704、901 登録データ管理部
501 特徴量データベース
701 照合部
702 出力部
703 照合指示部
1501 入力手段
1502 表示手段
1503 枠表示手段
1504 認証手段
1505 生体情報確認手段
1610 画像入力部
1620 顔領域検出部
1630 特徴点検出部
1640 正規化部
1650 認証部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an image capturing apparatus and an image collating apparatus including an interface for facilitating collation with a registered image when capturing an image for collation.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, as an image collating apparatus, for example, there has been an apparatus described in Patent Document 1. FIG. 15 shows a block configuration of a conventional image matching device described in Patent Document 1.
[0003]
In FIG. 15, an input unit 1501 is for inputting biological information, a display unit 1502 is for displaying the input biological information, and a frame display unit 1503 is for inputting a frame for specifying the size and position of the biological information. The authentication means 1504 authenticates a pre-registered user based on the input biometric information.
[0004]
As another image matching device, there is one described in Patent Document 2. FIG. 16 shows a block configuration of a conventional image matching device described in Patent Literature 2. As shown in FIG.
[0005]
In FIG. 16, an image input unit 1610 inputs an image, a face area detection unit 1620 detects an area of a face image from an input image, and a feature point detection unit 1630 detects an image based on the detected face image. The normalization unit 1640 moves the position of the detected feature point and deforms the image so that the image comes to a preset position. A person is identified and recognized using a normalized image and a database image of each registrant registered in advance.
[0006]
[Patent Document 1]
JP-A-2002-229955 (page 3-5, FIG. 1)
[Patent Document 2]
JP-A-2000-67237 (pages 2, 3; FIG. 1)
[0007]
[Problems to be solved by the invention]
However, in the configuration of Patent Document 1, since the same frame is displayed uniformly regardless of the individual difference of the living body to be compared, when photographing a living body that does not conform to the frame standard, the position and the posture may be adjusted. It was difficult. For example, if the position of the face is specified by an elliptical frame of a certain size, and if the face does not match the size of the ellipse, the face direction, position, and size are likely to differ between registration and verification. However, there is a possibility that the collation accuracy is reduced.
[0008]
Further, the configuration of Patent Literature 2 has a problem that a lot of load is applied to a process for moving the position of a detected feature point or deforming an image, and it takes a long time to perform a matching process. .
[0009]
An object of the present invention is to solve the above-mentioned conventional problems, to provide an interface for facilitating collation with a registered image, and to improve processing time for collation and precision of collation.
[0010]
[Means for Solving the Problems]
An image capturing apparatus according to the present invention that solves the above-described conventional problems includes a capturing unit that outputs image data of an image of an object, a feature point detecting unit that extracts a feature point that is a feature of image data of the captured object, , An image synthesizing unit that outputs synthesized image data obtained by synthesizing image data and feature points, and an image display unit that displays the synthesized image data.
[0011]
This allows the user to recognize whether or not the object currently being photographed is image data that can clearly detect feature points, so that the direction of the face or the like can be changed or the level of light can be adjusted accordingly. It becomes possible to do.
[0012]
Further, an image collating apparatus according to the present invention includes an image photographing apparatus according to the present invention, an image database storing image data of a collation target object photographed in advance in association with identification information, And a collating unit for collating the image data extracted by the registered data management unit with the image data extracted based on the identification information, and an output unit for outputting the collation result of the collating unit.
[0013]
Accordingly, the present invention provides an interface that combines and displays image data of a registered object and image data of an object being photographed, and allows the object to be photographed in a similar size, position, and orientation as the registered image data. Thereby, the user can photograph the object in a state suitable for the collation. In addition, the position of the object at the time of collation is easily adjusted, and the processing speed and collation accuracy are improved.
[0014]
BEST MODE FOR CARRYING OUT THE INVENTION
An image capturing apparatus according to the present invention includes a capturing unit that outputs image data of a captured object, a feature point detecting unit that extracts a feature point that is a feature of the captured object from the image data, An image combining unit that outputs combined image data obtained by combining points and an image display unit that displays the combined image data. Thus, when photographing, the photographing can be performed while confirming whether or not the feature points of the object have been clearly detected, so that it is easy to photograph the object in a state suitable for collation.
[0015]
Further, an image photographing apparatus according to the present invention includes a photographing unit that outputs image data of a photographed object, a feature point detecting unit that extracts a characteristic point that is a characteristic of the photographed object from the image data, An image synthesizing unit that outputs synthesized image data obtained by synthesizing the image data of the object to be checked and the characteristic points and the image of the object to be checked, and an image display unit that displays the synthesized image data.
[0016]
Further, the image photographing apparatus according to the present invention includes: an image database storing image data of a target object to be collated photographed in advance in association with identification information; an information input unit for inputting the identification information; A registration data management unit that extracts image data based on the identification information, wherein the image synthesis unit stores the image data of the currently captured object, the feature points of the image data, and the identification information from the information input unit. And outputting composite image data obtained by combining the extracted image data with the extracted image data.
[0017]
Thus, when shooting, the user can shoot while confirming whether or not the feature points of the subject have been clearly detected, and also provide information that can shoot the subject with the same size, position, and orientation as at the time of registration. Therefore, it is possible to capture an image that improves the accuracy of the matching.
[0018]
Further, the image photographing apparatus according to the present invention inputs a feature amount database that stores feature data, which is a feature of image data of an object to be checked photographed in advance, in association with identification information, and the identification information. An information input unit; and a registered data management unit that extracts feature data from the feature amount database based on the identification information, wherein the image combining unit includes a currently captured image, a feature point of the image, and an information input unit. And the feature data extracted on the basis of the identification information.
[0019]
This allows the user to perform shooting while checking whether or not feature points of the subject have been clearly detected when shooting, and to shoot the subject in the same size, position, and orientation as at the time of registration. Only provided. Therefore, it is possible to capture an image that improves the accuracy of the matching, and it is possible to obtain a similar effect by storing a small amount of data as compared with storing image data. Become.
[0020]
The characteristic data of the image photographing apparatus according to the present invention is at least one of the shape and position of the contour of the face, the position of the eyes, the position of the nose, and the position of the mouth. Thus, the same effect can be obtained only by storing a smaller amount of data.
[0021]
The image synthesizing unit of the image photographing apparatus according to the present invention includes a transmission processing unit that performs a transmission process on an image and a synthesis unit that performs a synthesis process. Thus, if the registered image is subjected to the transparency processing, comparison with the current captured image becomes easier.
[0022]
An image collating device according to the present invention includes an image photographing device according to the present invention, a collating unit for collating a currently photographed image with an image extracted based on identification information by a registration data managing unit, and a collating unit. And an output unit for outputting the collation result.
[0023]
Further, the image matching device according to the present invention is an image capturing device according to the present invention, an image database that stores a previously captured image to be matched in association with identification information, and a currently captured image, A collation unit for collating the image extracted based on the identification information by the registration data management unit is provided, and an output unit for outputting a collation result of the collation unit.
[0024]
As a result, since the matching can be performed using the image suitable for the matching, the processing time required for the position adjustment of the object at the time of the matching can be shortened, and the accuracy of the matching can be improved.
[0025]
The image synthesizing unit of the image matching device according to the present invention includes a transmission processing unit that performs a transmission process on an image and a synthesis unit that performs a synthesis process.
[0026]
In addition, the registration data management unit of the image matching device according to the present invention stores the currently captured image in the image database in association with the identification information from the information input unit. Thereby, a new image to be collated can be added to the database while collation is being performed, so that the number of collation targets is increased and the accuracy is improved.
[0027]
Hereinafter, embodiments of the present invention will be described with reference to the drawings. The same components are denoted by the same reference numerals.
[0028]
(Embodiment 1)
FIG. 1 is a block diagram showing the configuration of an image photographing apparatus according to Embodiment 1 of the present invention.
[0029]
In FIG. 1, a photographing unit 101 is a camera for photographing an object such as a human face to be collated, and a feature point detecting unit 102 detects a feature point which is a feature of the image data captured by the photographing unit 101. The image synthesizing unit 103 synthesizes an index indicating a feature point on an image, and the image display unit 104 is a display for displaying an image.
[0030]
The feature point detection unit 102 previously stores templates of the eyes, nose, and mouth. When an input image is provided, the entire image is scanned, and based on a predetermined similarity, the most similar template is obtained. The feature points are detected by finding the local area position.
[0031]
The image synthesizing unit 103 synthesizes the input image and an index indicating the position of the detected feature point by performing an AND process on an internal memory.
[0032]
The operation and operation of the image capturing apparatus configured as described above will be described below. FIG. 2 is a flowchart showing the operation of the image photographing apparatus.
[0033]
First, the photographing unit 101 photographs a subject (step S201). FIG. 11A is the photographed image.
[0034]
Next, the feature point detection unit 102 detects feature points from the image captured by the imaging unit 101 (step S202).
[0035]
Next, the image synthesizing unit 103 synthesizes the image captured by the photographing unit 101 and the index indicating the feature point detected by the feature point detection unit 102, and outputs the synthesized image to the image display unit 104 (step S203). FIG. 11B is a composite image in which indices indicating characteristic points are displayed with crosses and superimposed on the captured image.
[0036]
Next, the image display unit 104 receives this and displays the composite image on the display (step S204).
[0037]
As described above, in the present embodiment, the captured image is combined with the detected feature points of the image and displayed. This allows the user to recognize the current state of the image being captured, and by changing the direction of the face or the like or adjusting the amount of light in accordance with that, an image that can clearly detect feature points can be obtained. It becomes possible to shoot. That is, originally, in FIG. 11B, a feature point must appear at the mouth, but it cannot be detected in this shooting state. In order to improve this, the subject can change the direction of the face, adjust the lighting condition, make the feature points of the mouth appear, and take an image with all the feature points displayed It will be easier.
[0038]
The display of the composite image is preferably performed in real time with the shooting, but it is also possible to detect the feature points and perform the composite display only when the user gives a shooting instruction. In this case, the load on the image capturing device can be reduced.
[0039]
(Embodiment 2)
FIG. 3 shows a block diagram of an image photographing apparatus according to Embodiment 2 of the present invention.
[0040]
In FIG. 3, an image synthesis unit 301 includes a synthesis unit 302 and a transmission processing unit 303. The transmission processing unit 303 performs a transmission process on an input image. The synthesis unit 302 ANDs a plurality of images on an internal memory. Processing and synthesis.
[0041]
The image database 304 is a hard disk in which an image of an object to be collated taken in advance and identification information for identifying the image are stored in association with each other, and the information input unit 305 specifies the identification information by the user. It is for doing.
[0042]
Then, the registered data management unit 306 extracts a corresponding image from the image database 304 based on the input identification information.
[0043]
The other imaging unit 101, feature point detection unit 102, and image display unit 104 are the same as those in the first embodiment.
[0044]
The operation and operation of the image capturing apparatus configured as described above will be described below. FIG. 4 is a flowchart showing the operation of the image photographing apparatus. FIGS. 12A to 12D show a current captured image, a registered image, and a composite image thereof in the present embodiment.
[0045]
First, the user inputs identification information from the information input unit 305 (step S401).
[0046]
Next, the registered data management unit 306 extracts an image from the image database 304 based on the identification information (Step S402). FIG. 12A shows the extracted registered image.
[0047]
Next, the transmission processing unit 303 performs transmission processing on the extracted image, and writes the image in the internal memory (step S403). FIG. 12B shows the registered image subjected to the transmission processing.
[0048]
Next, a subject is fetched from the photographing unit 101 and stored in the internal memory (step S404). FIG. 12C shows this photographed image.
[0049]
Next, the feature point detection unit 102 detects feature points from the captured image (step S405).
[0050]
Next, the image synthesizing unit 301 synthesizes the transmission image stored in the internal memory, the image fetched from the imaging unit 101, and the characteristic points, and outputs the synthesized image to the image display unit 104 (step S406). FIG. 12D shows this composite image.
[0051]
Next, the image display unit 104 receives this and displays the composite image on the display (step S407).
[0052]
As described above, in the present embodiment, the image of the subject and the detected feature points of the detected image are combined with the image of the collation target registered in advance by the user and displayed. This makes it possible to recognize the current situation of the image being photographed and to make it easier for the user to adjust the face, which is the subject, to a specified position. Or by adjusting the amount of light, it becomes possible to capture an image at a specified position where a feature point can be clearly detected.
[0053]
Since this alignment displays the image of the subject itself acquired in the past, the contour of the face and the position of each part such as eyes, nose, mouth, etc. are displayed with the conventional uniform frame and index. It will be much easier than to adapt to it.
[0054]
Further, it is more preferable that the registered image is a monochrome transparent image so that the registered image and the image of the subject can be easily distinguished.
[0055]
The display of the composite image is preferably performed in real time with the shooting, but it is also possible to detect the feature points and perform the composite display only when the user gives a shooting instruction. In this case, the load on the image capturing device can be reduced.
[0056]
Further, in the present embodiment, the transmission processing unit 303 transmits and synthesizes the registered image. However, the present invention is not limited to this, and the registered image and the currently captured image can be alternately displayed. In this case, the transmission processing unit 303 becomes unnecessary.
[0057]
(Embodiment 3)
FIG. 5 shows a block diagram of an image photographing apparatus according to Embodiment 3 of the present invention.
[0058]
In FIG. 5, a feature amount database 501 is a hard disk in which feature data detected in advance from an image of an object to be collated and identification information for identifying the image are stored in association with each other. This feature data is information on the shape and position of the contour of the face, and the position of each part such as eyes, nose, and mouth.
[0059]
The other components of the photographing unit 101, the feature point detecting unit 102, the image synthesizing unit 103, the image display unit 104, the information input unit 305, and the registered data management unit 306 are the same as those in the first and second embodiments. .
[0060]
The operation and operation of the image capturing apparatus configured as described above will be described below. FIG. 6 is a flowchart showing the operation of the image photographing apparatus. FIGS. 13A to 13D show a registered image, a captured image, and a composite image thereof in the present embodiment.
[0061]
First, the user inputs identification information from the information input unit 305 (step S601).
[0062]
Next, the registration data management unit 306 extracts feature data from the feature amount database 501 based on the identification information (step S602). In the present embodiment, the shape and position of the contour of the face and the feature points are used as the feature data. FIG. 13A shows a registered image, and FIG. 13B shows registered outlines and feature points (x marks) of the image.
[0063]
Next, a subject is fetched from the photographing unit 101 and stored in the internal memory (step S603). FIG. 13C shows a current captured image.
[0064]
Next, the feature point detection unit 102 detects feature points from the captured image (step S604).
[0065]
Next, the image synthesizing unit 103 synthesizes the index indicating the position of the feature point and the feature data extracted from the feature amount database 501 on the image stored in the internal memory, and outputs the synthesized image to the image display unit 104. (Step S605). At this time, it is more preferable to change each color, shape, size, and the like in order to distinguish the index indicating the feature data from the index indicating the feature point of the currently captured image. FIG. 13D shows a composite image, in which characteristic points detected from the current photographed image are indicated by circles.
[0066]
Next, the image display unit 104 receives this and displays the composite image on the display (step S606).
[0067]
As described above, in the present embodiment, the contours and feature points of the face, which are the feature data to be collated, which are specified by the user, the subject image, and the feature points of the detected subject image are synthesized. Display, the user can know the deviation between the position of the contour of the registered image and the subject, and the degree of detection of the characteristic points of the captured image. Therefore, it is easy for the user to move the position of the face or the like so as to match the frame of the outline, change the direction, or adjust the degree of light. Can be taken.
[0068]
Since this alignment displays the image of the subject itself acquired in the past, the contour of the face and the position of each part such as eyes, nose, mouth, etc. are displayed with the conventional uniform frame and index. There is a feature that it can be done much easier than it has been.
[0069]
The display of the composite image is preferably performed in real time with the shooting, but it is also possible to detect the feature points and perform the composite display only when the user gives a shooting instruction. In this case, the load on the image capturing device can be reduced.
[0070]
Further, in the present embodiment, both the contour and the feature point are used as the feature data, but the present invention is not limited to this, and it is possible to use only one of them.
[0071]
(Embodiment 4)
FIG. 7 shows a block configuration diagram of an image matching device according to Embodiment 4 of the present invention.
[0072]
7, a matching unit 701 matches an image input from the photographing unit 101 with a registered image input from the registered data management unit 704, and an output unit 702 outputs the matching result of the matching unit 701 to a display or a speaker. The collation instructing unit 703 instructs collation with the image currently displayed by the user, and the registration data management unit 704 registers the input image in the image database 304 in association with the identification information. And extracting a registered image based on the identification information. The other imaging unit 101, feature point detection unit 102, image display unit 104, image synthesis unit 301, image database 304, and information input unit 305 are the same as those in the first and second embodiments.
[0073]
The operation of the image collating device configured as described above will be described below. FIG. 8A is a flowchart illustrating an image registration operation according to the present embodiment. FIG. 12 is an example of an image displayed when a collation image is captured.
[0074]
Before the collation, the target image is stored as a registered image. Specifically, first, the registration data management unit 306 acquires an image captured by the imaging unit 101 by the processing described in the first embodiment (step S801).
[0075]
Next, the registration data management unit 306 acquires identification information such as the name of the subject input by the user from the information input unit 305 (step S802).
[0076]
Next, the registered data management unit 306 stores the image input in step S801 as a registered image in the image database 304 together with the identification information input in step S802 (step S803).
[0077]
The above processing is performed for all objects to be collated. It is preferable that a plurality of registered images be registered for one collation target object. This is because, in the collation operation described below, the more registered images to be collated, the more accurate the collation can be performed.
[0078]
Next, a collation method of a collation target will be specifically described below.
[0079]
FIG. 8B is a flowchart illustrating the collation operation according to the present embodiment.
[0080]
First, the user inputs the name of the person to be verified from the information input unit 305 (step S804).
[0081]
Next, the registered data management unit 704 extracts a registered image corresponding to the name from the image database 304 and outputs the registered image to the image combining unit 301. At the same time, the photographing unit 101 starts photographing and sends the current image of the subject to the image synthesizing unit 301 (step S805). FIG. 12A shows an extracted registered image, and FIG. 12C shows a current captured image.
[0082]
Next, the image synthesizing unit 301 performs the transmission processing on the registered image by the processing described in Embodiment 2, and then synthesizes the registered image with the captured image. Then, the synthesized image is output to the image display unit 104 and displayed (step S806). FIG. 12B is an image obtained by performing a transmission process on the registered image, and FIG. 12D is a composite image of the image subjected to the transmission process and the captured image.
[0083]
Next, the user compares the captured image displayed on the screen of the image display unit 104 with the registered image, and detects all of the predetermined feature points. The image has the same position and the same size as the registered image. When the photographed image is displayed, a collation instruction is issued to the collation instruction unit 703 (step S807). The matching unit 701 matches the matching face image designated by the user with the registered image (step S808), and outputs to the output unit 702 whether the matching face image is the same person as the registered image face (step S808). S809).
[0084]
Here, the matching process performed by the matching unit 701 will be described.
[0085]
FIG. 14A shows a current captured image, and FIG. 14B shows a registered image.
[0086]
.., A21,..., A21, a22,..., And the shade values of each pixel of the registered image are b11, b12, b13,. , ..., the distance d between the captured image and the registered image is represented by (Equation 1).
[0087]
d = (a11−b11) × (a11−b11) + (a12−b12) × (a12−b12) + (1)
The smaller the value of the distance d, the more similar the two images are.
[0088]
The collation unit 701 performs the calculation of the distance for all the registered images registered in the image database 304 and corresponding to the identification information. If the value of the smallest distance is less than or equal to the predetermined value, a success is output in step S807.
[0089]
Another matching processing method is a template matching method using normalized correlation.
[0090]
The average of the gray value of each pixel in the captured image is m1, the average of the gray value of each pixel in the registered image is m2, and the vector amount A and the vector amount B are obtained from (Expression 2) and (Expression 3).
[0091]
Vector A = (a11-m1, a12-m1, a13-m1,...) (2)
Vector B = (b11-m2, b12-m2, b13-m2,...) (3)
At this time, the normalized correlation C between the captured image and the registered image is represented by (Equation 4).
[0092]
C = A · B ÷ (| A || B |) (4)
Here, AB represents the inner product of A and B, and | A | and | B | represent the magnitude of the vector.
[0093]
The larger the value of the normalized correlation C, the more similar the captured image and the registered image are.
[0094]
The collation unit 701 performs the calculation of the normalized correlation C for all the registered images registered in the image database 304 and corresponding to the identification information. When the largest value of the normalized correlation C is equal to or larger than a predetermined value, a success is output in step S809.
[0095]
As described above, in the present embodiment, the registered image subjected to the transmission processing, the image input from the imaging unit 101, and the index indicating the feature point detected for the image are synthesized by the image synthesis unit 301, By displaying it, it becomes easy for the user to take a picture with almost the same size, position, and orientation as at the time of registration. This makes it possible to obtain an image suitable for collation.
[0096]
In addition, since the captured image requires only a small amount of alignment for collation, the processing time for adjusting the position and size can be reduced, and the accuracy of collation can be improved, and the time required for collation can be shortened. Becomes possible.
[0097]
(Embodiment 5)
FIG. 9 shows a block diagram of an image matching apparatus according to Embodiment 5 of the present invention.
[0098]
9, a registered data management unit 901 stores a captured image as a registered image in an image database 304 together with identification information input from an information input unit 305, and identifies coordinates of feature points extracted from the registered image. The information is stored in the feature database 501 together with the information, or conversely, the coordinates of the registered image and the feature points are extracted from the image database 304 and the feature database 501 based on the identification information. In addition, this image matching apparatus differs from the fourth embodiment in that the image synthesizing unit 103 does not include the transmission processing unit 303 and that the image synthesizing unit 103 includes the feature amount database 501.
[0099]
The operation of the image collating apparatus configured as described above will be described below. FIG. 10A is a flowchart illustrating an image registration operation according to the present embodiment. FIGS. 13A to 13D show a registered image, an index indicating a feature point extracted from the registered image, an image captured at the time of capturing the collation image, and a composite image obtained by superimposing the captured image and the feature point of the registered image. is there.
[0100]
As in the fourth embodiment, before matching, the image to be matched is stored as a registered image. Specifically, first, the image captured by the capturing unit 101 by the processing described in the first embodiment is transmitted to the registration data management unit 901 and the feature point detection unit 102 (step S1001).
[0101]
Next, the feature point detection unit 102 detects feature points and contours of the image and sends them to the registered data management unit 901 (step S1002).
[0102]
Next, the registration data management unit 901 receives identification information such as the name of the subject input by the user from the information input unit 305 (step S1003).
[0103]
Next, the registration data management unit 306 stores the image received from the imaging unit 101 as a registration image in the image database 304 together with the identification information from the information input unit 305 (step S1004).
[0104]
Next, the registration data management unit 901 stores the feature points and contours received from the feature point detection unit 102 in the feature amount database 501 together with the identification information (step S1005).
[0105]
The above processing is performed for all objects to be collated. It is preferable that a plurality of registered images be registered for one collation target object. This is because, in the collation operation described below, the more registered images to be collated, the more accurate the collation can be performed.
[0106]
Next, a collation method of a collation target will be specifically described below.
[0107]
FIG. 10B is a flowchart illustrating the matching process according to the present embodiment.
[0108]
First, the user inputs the name of the person to be verified from the information input unit 305 (step S1006).
[0109]
Next, the registration data management unit 901 extracts the coordinates of the feature point of the registered image corresponding to the name from the feature amount database 501 and outputs the coordinates to the image synthesis unit 103. At the same time, the photographing unit 101 starts photographing and sends the current image of the subject to the image synthesizing unit 103 (step S1007).
[0110]
Next, as in the third embodiment, the image combining unit 103 outputs the coordinates of the feature points of the registered image input from the registered data management unit 901 to the image display unit 104 by superimposing the coordinates on the image input from the image capturing unit 101. (Step S1008).
[0111]
Next, the user compares the position of the feature point in the registered image with the eye, nose, and mouth in the captured image while comparing the position of the feature point with the captured image displayed on the screen of the image display unit 104. Then, the photographed image is designated as a collation image (step S1009).
[0112]
The next process (step S1010) of the collation unit 701 and the process of the collation result (step S1011) are the same as steps S806 and S807 described in the fourth embodiment.
[0113]
In the present embodiment, both the feature points and the outline of the face are used, but only one of the feature points and the outline may be used. In addition, it is preferable to change the color, shape, and size of the indicator indicating the feature point in order to distinguish between the registered image and the current image.
[0114]
Thus, in the present embodiment, the image input from the imaging unit 101, the feature points detected from the image, and the feature points extracted from the registered image are displayed by being superimposed on the image display unit 104. It becomes easy for the user to take a picture with substantially the same size, position, and orientation as at the time of registration. This makes it possible to obtain an image suitable for collation.
[0115]
In addition, since the captured image requires only a small amount of alignment for collation, the processing time for adjusting the position and size can be reduced, and the accuracy of collation can be improved, and the time required for collation can be shortened. Becomes possible.
[0116]
【The invention's effect】
Advantageous Effects of Invention According to the present invention, it is possible to capture an image suitable for comparison in which feature points are clearly shown. Also, at the time of collation, it is possible to acquire an image suitable for collation with substantially the same position, size, and orientation as at the time of registration. As a result, the processing time for collation can be reduced, and the accuracy of collation can be improved.
[Brief description of the drawings]
FIG. 1 is a block diagram of an image photographing apparatus according to a first embodiment of the present invention;
FIG. 2 is a flowchart showing processing of the image photographing apparatus according to the first embodiment of the present invention;
FIG. 3 is a block diagram of an image photographing apparatus according to a second embodiment of the present invention;
FIG. 4 is a flowchart showing processing of the image photographing apparatus according to the second embodiment of the present invention;
FIG. 5 is a block diagram of an image photographing apparatus according to a third embodiment of the present invention.
FIG. 6 is a flowchart showing processing of the image photographing apparatus according to the third embodiment of the present invention;
FIG. 7 is a block diagram of an image matching device according to a fourth embodiment of the present invention.
FIG. 8A is a flowchart showing an image registration operation according to the fourth embodiment of the present invention;
(B) Flowchart showing operation of image collation in Embodiment 4 of the present invention
FIG. 9 is a block diagram of an image matching device according to a fifth embodiment of the present invention.
10A is a flowchart illustrating an image registration operation according to the fifth embodiment of the present invention. FIG. 10B is a flowchart illustrating an image collating operation according to the fifth embodiment of the present invention.
FIG. 11A is a diagram showing a captured image according to the first embodiment of the present invention;
(B) The figure which shows the synthetic | combination image in Embodiment 1 of this invention.
FIG. 12A shows a registered image according to the second embodiment of the present invention.
(B) A diagram showing an image after the transmission processing according to the second embodiment of the present invention.
(C) The figure which shows the captured image in Embodiment 2 of this invention.
(D) The figure which shows the synthetic | combination image in Embodiment 2 of this invention.
FIG. 13A shows a registered image according to the third embodiment of the present invention.
(B) A diagram showing characteristic points according to the second embodiment of the present invention.
(C) The figure which shows the captured image in Embodiment 2 of this invention.
(D) The figure which shows the synthetic | combination image in Embodiment 2 of this invention.
FIG. 14 (a) is a diagram showing a captured image according to Embodiment 4 of the present invention.
(B) The figure which shows the registration image in Embodiment 4 of this invention.
FIG. 15 is a block diagram showing a conventional image matching apparatus.
FIG. 16 is a block diagram showing a conventional image matching apparatus.
[Explanation of symbols]
101 shooting unit
102 Feature point detection unit
103, 301 Image synthesis unit
104 Image display unit
302 synthesis unit
303 Transmission unit
304 Image Database
305 Information input section
306, 704, 901 Registration data management unit
501 Feature database
701 Collation unit
702 output unit
703 Collation instruction section
1501 Input means
1502 Display means
1503 Frame display means
1504 Authentication means
1505 Biological information confirmation means
1610 Image input unit
1620 face area detection unit
1630 feature point detection unit
1640 Normalization unit
1650 Authentication Department

Claims (10)

物体を撮影した画像データを出力する撮影部と、
前記画像データから前記撮影された物体の特徴である特徴点を抽出する特徴点検出部と、
前記画像データと前記特徴点とを合成した合成画像データを出力する画像合成部と、
前記合成画像データを表示する画像表示部と
を備える画像撮影装置。
A photographing unit for outputting image data of an object,
A feature point detection unit that extracts feature points that are features of the captured object from the image data,
An image synthesis unit that outputs synthesized image data obtained by synthesizing the image data and the feature points,
An image capturing apparatus, comprising: an image display unit that displays the composite image data.
物体を撮影した画像データを出力する撮影部と、
前記画像データから前記撮影された物体の特徴である特徴点を抽出する特徴点検出部と、
前記画像データと前記特徴点と予め撮影された照合対象物体の画像データとを合成した合成画像データを出力する画像合成部と、
前記合成画像データを表示する画像表示部と
を備える画像撮影装置。
A photographing unit for outputting image data of an object,
A feature point detection unit that extracts feature points that are features of the captured object from the image data,
An image synthesizing unit that outputs synthesized image data obtained by synthesizing the image data, the feature points, and image data of the object to be collated that has been shot in advance;
An image capturing apparatus, comprising: an image display unit that displays the composite image data.
予め撮影された照合対象物体の画像データを識別情報と対応づけて格納している画像データベースと、
前記識別情報を入力する情報入力部と、
前記画像データベースから前記識別情報に基づいて画像データを抽出する登録データ管理部とをさらに備え、
前記画像合成部が、現在撮影された物体の画像データと、当該画像データの特徴点と、前記情報入力部からの前記識別情報に基づいて抽出された画像データとを合成した合成画像データを出力する請求項1に記載の画像撮影装置。
An image database that stores image data of a target object to be collated taken in advance in association with identification information,
An information input unit for inputting the identification information;
A registration data management unit for extracting image data from the image database based on the identification information,
The image synthesizing unit outputs synthesized image data obtained by synthesizing image data of a currently captured object, feature points of the image data, and image data extracted based on the identification information from the information input unit. The image photographing device according to claim 1.
予め撮影された照合対象物体の画像データの特徴である特徴データを、識別情報と対応づけて格納している特徴量データベースと、
前記識別情報を入力する情報入力部と、
前記特徴量データベースから前記識別情報に基づいて前記特徴データを抽出する登録データ管理部とをさらに備え、
前記画像合成部が、現在撮影された画像と、当該画像の特徴点と、前記情報入力部からの前記識別情報に基づいて抽出された前記特徴データとを合成する請求項1に記載の画像撮影装置。
A feature amount database that stores feature data, which is a feature of the image data of the object to be matched photographed in advance, in association with the identification information,
An information input unit for inputting the identification information;
A registration data management unit that extracts the feature data from the feature amount database based on the identification information,
2. The image capturing apparatus according to claim 1, wherein the image combining unit combines the currently captured image, a feature point of the image, and the feature data extracted based on the identification information from the information input unit. apparatus.
前記特徴データは、顔の輪郭の形状や位置、目の位置、鼻の位置、および口の位置の少なくともいずれか一つである請求項4に記載の画像撮影装置。The image photographing apparatus according to claim 4, wherein the feature data is at least one of a shape and position of a face contour, an eye position, a nose position, and a mouth position. 前記画像合成部は、画像に対する透過処理を行う透過処理部と合成処理を行う合成部とからなる請求項2あるいは3に記載の画像撮影装置。The image capturing apparatus according to claim 2, wherein the image combining unit includes a transmission processing unit that performs a transmission process on an image and a combination unit that performs a combination process. 前記請求項3に記載の画像撮影装置と、
前記現在撮影された画像と、前記登録データ管理部により前記識別情報に基づいて抽出された画像とを照合する照合部と、前記照合部の照合結果を出力する出力部と
を備える画像照合装置。
An image photographing apparatus according to claim 3,
An image matching apparatus, comprising: a matching unit that matches the currently captured image with an image extracted based on the identification information by the registration data management unit; and an output unit that outputs a matching result of the matching unit.
前記請求項4あるいは5に記載の画像撮影装置と、
予め撮影された前記照合対象の画像を前記識別情報と対応づけて格納している画像データベースと、
前記現在撮影された画像と、前記登録データ管理部により前記識別情報に基づいて抽出された画像とを照合する照合部と、
前記照合部の照合結果を出力する出力部と
を備える画像照合装置。
An image photographing apparatus according to claim 4 or 5,
An image database that stores the image of the object to be collated taken in advance in association with the identification information,
A collation unit that collates the currently captured image with an image extracted based on the identification information by the registration data management unit,
An image collating apparatus comprising: an output unit that outputs a collation result of the collation unit.
前記画像合成部は、画像に対する透過処理を行う透過処理部と合成処理を行う合成部とからなる請求項7あるいは8に記載の画像照合装置。The image matching device according to claim 7, wherein the image combining unit includes a transmission processing unit that performs a transmission process on the image and a combining unit that performs the combining process. 前記登録データ管理部は、現在撮影された前記画像を、前記情報入力部からの識別情報と対応づけて前記画像データベースに格納する請求項7あるいは8に記載の画像照合装置。9. The image matching device according to claim 7, wherein the registration data management unit stores the currently captured image in the image database in association with identification information from the information input unit.
JP2003140174A 2003-05-19 2003-05-19 Image photographing device and image collation device Pending JP2004341992A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003140174A JP2004341992A (en) 2003-05-19 2003-05-19 Image photographing device and image collation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003140174A JP2004341992A (en) 2003-05-19 2003-05-19 Image photographing device and image collation device

Publications (1)

Publication Number Publication Date
JP2004341992A true JP2004341992A (en) 2004-12-02

Family

ID=33528965

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003140174A Pending JP2004341992A (en) 2003-05-19 2003-05-19 Image photographing device and image collation device

Country Status (1)

Country Link
JP (1) JP2004341992A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006166012A (en) * 2004-12-07 2006-06-22 Casio Comput Co Ltd Imaging apparatus, and control method and program for imaging apparatus
JP2017123677A (en) * 2012-01-12 2017-07-13 杭州美盛紅外光電技術有限公司 Thermal image apparatus and thermal image capturing method
JPWO2021131072A1 (en) * 2019-12-27 2021-07-01
JP2021174442A (en) * 2020-04-30 2021-11-01 株式会社デンソー Individual identification system
JP2021174439A (en) * 2020-04-30 2021-11-01 株式会社デンソー Individual identification system

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006166012A (en) * 2004-12-07 2006-06-22 Casio Comput Co Ltd Imaging apparatus, and control method and program for imaging apparatus
JP2017123677A (en) * 2012-01-12 2017-07-13 杭州美盛紅外光電技術有限公司 Thermal image apparatus and thermal image capturing method
JPWO2021131072A1 (en) * 2019-12-27 2021-07-01
JP2021174442A (en) * 2020-04-30 2021-11-01 株式会社デンソー Individual identification system
JP2021174439A (en) * 2020-04-30 2021-11-01 株式会社デンソー Individual identification system
WO2021220825A1 (en) * 2020-04-30 2021-11-04 株式会社デンソー Item identification system
WO2021220828A1 (en) * 2020-04-30 2021-11-04 株式会社デンソー Individual object identification system
JP7377160B2 (en) 2020-04-30 2023-11-09 株式会社デンソー Individual identification system
JP7377163B2 (en) 2020-04-30 2023-11-09 株式会社デンソー Individual identification system

Similar Documents

Publication Publication Date Title
JP3271750B2 (en) Iris identification code extraction method and device, iris recognition method and device, data encryption device
JP4241763B2 (en) Person recognition apparatus and method
US10558851B2 (en) Image processing apparatus and method of generating face image
CN108921100A (en) A kind of face identification method merged based on visible images with infrared image and system
JP2000306095A (en) Image collation/retrieval system
JP5170094B2 (en) Spoofing detection system, spoofing detection method, and spoofing detection program
JP2004192378A (en) Face image processor and method therefor
JP7192872B2 (en) Iris authentication device, iris authentication method, iris authentication program and recording medium
JP2006146323A (en) Face feature collating device, face feature collating method, and program
WO2016203698A1 (en) Face detection device, face detection system, and face detection method
JP2004038305A (en) Individual identification device
JP4640416B2 (en) Face authentication apparatus, system, method and program
WO2020065954A1 (en) Authentication device, authentication method, and storage medium
JP2006309562A (en) Biological information registering device
JPH08287216A (en) In-face position recognizing method
JP2009015518A (en) Eye image photographing device and authentication device
JP3970573B2 (en) Facial image recognition apparatus and method
CN106991376A (en) With reference to the side face verification method and device and electronic installation of depth information
JP2004341992A (en) Image photographing device and image collation device
CN112308035A (en) Image detection method, image detection device, computer equipment and storage medium
JP2007213199A (en) Living body identification device
JP2000293689A (en) Device and method for authenticating individual
JP2829551B2 (en) Fingerprint input device
JP2022058833A (en) Information processing system, information processing apparatus, information processing method, and program
JP2003204427A (en) Processor and method for processing information, method of processing image data, recording medium, and program