JP6873639B2 - Image processing equipment, image processing methods and programs - Google Patents
Image processing equipment, image processing methods and programs Download PDFInfo
- Publication number
- JP6873639B2 JP6873639B2 JP2016186200A JP2016186200A JP6873639B2 JP 6873639 B2 JP6873639 B2 JP 6873639B2 JP 2016186200 A JP2016186200 A JP 2016186200A JP 2016186200 A JP2016186200 A JP 2016186200A JP 6873639 B2 JP6873639 B2 JP 6873639B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- similarity
- authentication
- calculated
- similarity calculation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、画像中のオブジェクトを認証する画像処理装置、画像処理方法およびプログラムに関する。 The present invention relates to an image processing device, an image processing method and a program for authenticating an object in an image.
設置したカメラで撮像された画像に写る人物が誰かを判定する人物認証技術が知られている。この人物認証技術の応用先として、顔写真を使った犯罪捜査や、迷子探し等がある。これらの応用先では、設置されたカメラ毎にその設置場所や画角が異なるために、カメラ毎に人物を撮像する際の撮像条件(例えば、人物の向きや照明条件)も異なってくる。そのため、撮像条件に頑健な人物認証技術が求められている。
一般に、人物認証技術では、撮像された人物の画像と事前に登録された人物の画像(以下、「登録画像」という。)との間で算出した類似度の大小により、人物が登録画像のうちの誰なのか、または誰でもないのかを判定している。この類似度をどのように算出するかは、人物認証の精度を決める重要な要素の一つであり、様々な方式が提案されている。
There is known a person authentication technology for determining who is in the image captured by the installed camera. Applications of this person authentication technology include criminal investigations using facial photographs and searching for lost children. In these application destinations, since the installation location and the angle of view are different for each installed camera, the imaging conditions (for example, the direction of the person and the lighting conditions) for photographing a person are also different for each camera. Therefore, robust person authentication technology is required for imaging conditions.
Generally, in the person authentication technology, a person is among the registered images based on the degree of similarity calculated between the captured image of the person and the image of the person registered in advance (hereinafter referred to as "registered image"). It determines who it is or who it is not. How to calculate this similarity is one of the important factors that determine the accuracy of person authentication, and various methods have been proposed.
例えば、非特許文献1に開示された技術では、類似度を算出するパラメタを、事前に大量のデータで学習しておき、学習したパラメタをもとに類似度を算出している。様々な撮像条件を含む大量のデータを使って、パラメタを事前に学習することで撮像条件にある程度頑健な人物認証を実現している。
また、特許文献1に開示された技術では、入力パターンから入力部分空間を算出し、予め規定されたカテゴリに対応する辞書パターンから複数の辞書部分空間を算出し、入力部分空間と複数の辞書部分空間の各々とを、直交化行列を用いて線形変換している。そして、線形変換された入力部分空間と線形変換された複数の辞書部分空間との類似度を算出している。線形変換のための直交化行列は、複数の辞書部分空間同士を直交化して、登録画像に含まれる人物同士を区別しやすくする変換行列として生成されている。
For example, in the technique disclosed in Non-Patent
Further, in the technique disclosed in
しかしながら、上述の各文献に記載された技術では、カメラの設置場所や画角に適した類似度算出パラメタを得ることができないため、人物認証の精度が低下する場合があった。すなわち、非特許文献1の技術では、類似度算出パラメタは事前に大量のデータで学習されるものであるため、カメラの設置場所や画角に適した類似度算出パラメタを事前に算出することはできない。また、特許文献1の技術では、登録画像に含まれる人物毎の部分空間を直交化する変換行列を算出するものであって、認証すべき人物を撮像するカメラの設置場所や画角に適した類似度算出パラメタを算出することはできない。
本発明は上記課題を解決するためになされたものであり、カメラの設置場所や画角に適した類似度算出パラメタを用いてオブジェクトをより高精度に認証することを課題とする。
However, with the techniques described in the above-mentioned documents, it is not possible to obtain similarity calculation parameters suitable for the camera installation location and angle of view, so that the accuracy of person authentication may decrease. That is, in the technique of Non-Patent
The present invention has been made to solve the above problems, and an object of the present invention is to authenticate an object with higher accuracy by using a similarity calculation parameter suitable for a camera installation location and an angle of view.
上記課題を解決するために、本発明のある態様によれば、少なくとも1つの撮像装置により撮像された画像を取得する取得手段と、前記取得手段により取得された画像から特徴量を抽出する抽出手段と、認証対象となる人物の画像の特徴量を記憶する記憶手段と、前記撮像装置のそれぞれについて、前記撮像装置により撮像された画像から抽出された特徴量に基づいて、当該撮像装置により撮像された画像に前記認証対象となる人物が含まれているかを特定するための類似度算出パラメタを算出する第1の算出手段と、前記撮像装置に応じて算出された前記類似度算出パラメタに基づいて変換された前記抽出された特徴量と、前記記憶された特徴量と、の類似度を算出する第2の算出手段と、を備える画像処理装置が提供される。 In order to solve the above problems , according to an aspect of the present invention, an acquisition means for acquiring an image captured by at least one image pickup device and an extraction means for extracting a feature amount from the image acquired by the acquisition means. When a storage unit for storing a feature quantity of a person in the image to be authenticated, for each of the imaging device, on the basis of the feature quantity extracted from the image captured by the image capturing apparatus, captured by the imaging device Based on the first calculation means for calculating the similarity calculation parameter for identifying whether the image to be authenticated includes the person to be authenticated and the similarity calculation parameter calculated according to the image pickup apparatus. An image processing apparatus is provided that includes a second calculation means for calculating the degree of similarity between the converted extracted feature amount and the stored feature amount.
本発明によれば、カメラの設置場所や画角に適した類似度算出パラメタを用いてオブジェクトをより高精度に認証することができる。 According to the present invention, it is possible to authenticate an object with higher accuracy by using a similarity calculation parameter suitable for a camera installation location and an angle of view.
以下、添付図面を参照して、本発明を実施するための実施形態について詳細に説明する。なお、以下に説明する実施形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施形態に限定されるものではない。また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。 Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the accompanying drawings. The embodiment described below is an example as a means for realizing the present invention, and should be appropriately modified or changed depending on the configuration of the device to which the present invention is applied and various conditions. It is not limited to the embodiment. Moreover, not all combinations of features described in the present embodiment are essential for the means of solving the present invention.
実施形態1
本発明の実施形態1に係る画像認証システムでは、設置したカメラ毎に類似度算出パラメタを算出しておき、撮り貯めた撮像画像の中から特定人物を認証する例について説明する。
<ハードウェア構成>
図1は、本実施形態に係る画像認証システムのハードウェア構成の一例を示すブロック図である。この画像認証システムは、画像認証装置1と、カメラ2〜4と、ネットワーク5とを備えている。
画像認証装置1は、画像から特定人物を認証する画像認証装置であり、具体的な構成は後述する。
カメラ2〜4は、所謂ネットワークカメラであり、撮像装置として機能する。各カメラ2〜4は、レンズとCCD、CMOSセンサ等の撮像素子を備え可視光を撮像する可視光カメラユニットと、ネットワークに接続するための通信装置とを備えている。なお、カメラ2〜4として、通信機能を有する他のカメラを用いてもよい。また、カメラユニットは、可視光を撮像するものに限らず、赤外線を撮像する赤外カメラユニット等を用いてもよい。
画像認証装置1と各カメラ2〜4とは、ネットワーク5を介して接続されており、相互にデータ通信が可能になっている。
また、図1には3台のカメラ(カメラ2〜4)を用いた構成が示されているが、カメラの数はこれに限られるものではない。
In the image authentication system according to the first embodiment of the present invention, an example in which a similarity calculation parameter is calculated for each installed camera and a specific person is authenticated from the captured images captured will be described.
<Hardware configuration>
FIG. 1 is a block diagram showing an example of the hardware configuration of the image authentication system according to the present embodiment. This image authentication system includes an
The
The
The
Further, although FIG. 1 shows a configuration using three cameras (
画像認証装置1は、CPU(Central Processing Unit)11と、ROM12と、RAM13と、二次記憶装置14と、通信装置15と、映像出力装置16と、操作入力装置17と、接続バス18とを備えている。
CPU11は、ROM12やRAM13に格納された制御プログラムを実行することにより、画像認識装置1全体の制御を行う。ROM12は、不揮発性メモリであり、制御プログラムや各種パラメタデータを記憶する。制御プログラムは、CPU11で実行され、後述する各処理を実現する。RAM13は、揮発性メモリであり、画像や制御プログラムおよびその実行結果を一時的に記憶する。
The
The
二次記憶装置14は、ハードディスクやフラッシュメモリなどの書き換え可能な二次記憶装置であり、カメラ2〜4から、通信装置15を介して、受信した画像を記憶する。また、二次記憶装置14は、制御プログラム、各種設定内容、処理結果等の情報を必要に応じて記憶する。二次記憶装置14に記憶されている情報は、必要に応じてRAM13に出力され、CPU11が制御プログラムの実行等に利用する。
通信装置15は、例えば有線通信ユニットであり、ネットワーク5を介してカメラ2〜4とデータ通信を行う。なお、通信装置15は、無線通信ユニットであってもよい。
映像出力装置16は、CRTやTFT液晶などのモニタ装置であり、RAM13から取得した画像や制御プログラムの実行結果等を表示する。
操作入力装置17は、キーボードやマウス等のユーザからの操作を入力する装置である。後述するユーザ入力(ユーザからの指示入力)は、この操作入力装置17を介して取得する。
接続バス18は、画像認証装置1を構成する各装置を接続して相互にデータ通信を行う。
The
The
The
The
The
なお、本実施形態では、後述する処理を、画像認証装置1のCPU11を用いてソフトウェアで実現することとして説明するが、画像認証装置1の処理の一部または全部をハードウェアで実現するようにしても構わない。この場合のハードウェアとして、例えば専用回路(ASIC)や、プロセッサ(リコンフィギュラブルプロセッサ、DSP)等を用いることができる。
また、後述する処理を記述したソフトウェアをネットワークまたは各種記憶媒体を介して取得し、パーソナルコンピュータ等の処理装置(CPU、プロセッサ)にて実行してもよい。
また、カメラ2〜4が画像認証装置1の認証処理の一部または全部を実行するようにしても構わない。その場合は、画像認証装置1で行うものとした処理に必要なハードウェアを、カメラ2〜4がそれぞれ備えるようにすればよい。
In the present embodiment, the processing described later will be described as being realized by software using the
Further, software describing the processing described later may be acquired via a network or various storage media and executed by a processing device (CPU, processor) such as a personal computer.
Further, the
<画像認証装置の機能構成>
図2は、本実施形態における画像認証装置1において制御プログラムを実行することによって実現される機能構成の一例を示したブロック図である。本実施形態の画像認証装置1は、認証画像取得部21、局所領域設定部22、特徴抽出部23、特徴記憶部24、辞書登録部25、類似度算出パラメタ算出部26、類似度算出パラメタ記憶部27、類似度算出部28、認証結果判定部29、表示部30を備えている。
認証画像取得部21は、カメラ2〜4から取得した撮像画像をもとに、認証対象である認証画像(認証対象画像)を取得し、局所領域設定部22へ出力する。ここで、「認証画像」とは、認証対象のオブジェクトが写った画像であり、本実施形態では人物の顔が写った画像である。
<Functional configuration of image authentication device>
FIG. 2 is a block diagram showing an example of a functional configuration realized by executing a control program in the
The authentication
局所領域設定部22は、認証画像取得部21から取得した認証画像から、人物の顔の目や鼻といった特徴点の座標情報を抽出し、抽出した特徴点をもとに局所領域を設定する。そして、局所領域設定部22は、局所領域を認証画像とともに特徴抽出部23へ出力する。
特徴抽出部23は、局所領域設定部22から取得した認証画像の局所領域から抽出した特徴量を、特徴記憶部24に出力する。さらに、特徴抽出部23は、抽出した特徴量を、辞書登録部25、類似度算出パラメタ算出部26にも出力する。なお、本実施形態では、特徴量は認証画像の局所領域毎に抽出されるものとする。
特徴記憶部24は、特徴抽出部23から取得した特徴量を二次記憶装置14に記憶する。RAM13に記憶するようにしてもよい。記憶した特徴量は要求に応じて、類似度算出部28へ出力する。
The local
The
The
辞書登録部25は、特徴抽出部23から取得した特徴量を、登録辞書のデータとして二次記憶装置14に記憶する。あるいは登録辞書をRAM13に記憶するようにしてもよい。ここで、「登録辞書」とは、特徴量と、その特徴量に対応する人物ID(一般的には、人物名等)とを紐付けたデータのセットである。人物IDの取得方法については後述する。登録辞書には複数の人物の特徴量が含まれてもよいし、一人の人物について複数の特徴量を含んでもよい。また、登録辞書は、要求に応じて、類似度算出パラメタ算出部26、類似度算出部28に出力される。
類似度算出パラメタ算出部26は、特徴抽出部23から取得した特徴量、または、辞書登録部25から取得した登録辞書の特徴量をもとに類似度算出パラメタを算出し、類似度算出パラメタ記憶部27に出力する。類似度算出パラメタの算出処理詳細は後述する。
The
The similarity calculation
類似度算出パラメタ記憶部27は、類似度算出パラメタ算出部26から取得した類似度算出パラメタを二次記憶装置14に記憶する。記憶した類似度算出パラメタは、要求に応じて、類似度算出部28へ出力される。
類似度算出部28は、特徴記憶部24から取得した特徴量と辞書登録部25から取得した登録辞書との間の類似度を、類似度算出パラメタ記憶部27から取得した類似度算出パラメタをもとに算出する。算出した類似度は認証結果判定部29へ出力される。
認証結果判定部29は、類似度算出部28から取得した類似度をもとに、認証結果、すなわち、認証画像中の人物が登録辞書の中の誰なのか、または、誰でもないのかを判定する。認証結果は、表示部30へ出力される。
表示部30は、認証結果判定部29から取得した認証結果を映像出力装置16に表示する。
The similarity calculation
The
The authentication
The
<全体処理概要>
本実施形態における処理は、類似度算出パラメタ算出処理と、監視・認証処理と、辞書登録処理の3つの処理とを有している。類似度算出パラメタ算出処理では、設置されたカメラ2〜4に対応する類似度算出パラメタを算出する。監視・認証処理では、カメラ2〜4を使って撮像画像を撮り貯めつつ、特定人物が写っているかを判定する。辞書登録処理では、認証すべき人物の特徴量を登録辞書に追加する。
なお、各処理の開始時には、既に、カメラ2〜4が異なる場所に設置され、画像認証装置1は直ちにカメラ2〜4から画像を取得して後述する処理を開始できる状態であるものとする。
<Overview of overall processing>
The process in this embodiment includes three processes: a similarity calculation parameter calculation process, a monitoring / authentication process, and a dictionary registration process. In the similarity calculation parameter calculation process, the similarity calculation parameters corresponding to the installed
At the start of each process, the
図3は、本実施形態における画像認証システムが、映像出力装置16に表示するコンソール画面の一例を示した図である。このコンソール画面40には、動作モードを指示するボタン41〜43と、各種設定を指示するボタン44と、終了を指示するボタン45と、ポインタ46とが表示されている。これにより、どの処理を実行するかのメニューが表示されている。ユーザは、操作入力装置17を操作し、ポインタ46によりメニュー中の処理を選択する。「監視・認証モード」、「辞書登録モード」、「調整モード」のいずれかのボタン41〜43を選択することで、画像認証装置1は、後述する処理を実行する。
例えば、ユーザがポインタ46により「設定」のボタン44を選択すると、画像認証装置1は、本実施形態の画像認証システムの各種設定を変更する処理を実行する。また、ユーザがポインタ46により「終了」のボタン45を選択すると、画像認証装置1は、本実施形態の画像認証システムを終了する。
FIG. 3 is a diagram showing an example of a console screen displayed on the
For example, when the user selects the "setting"
<監視・認証処理>
まず、本実施形態の画像認証装置1が、カメラ2〜4を使って人物の画像データを撮像しつつ、ユーザ入力に従って認証することで、特定人物が写っているか判定する監視・認証処理を説明する。この処理は、ユーザが操作入力装置17を操作し、ポインタ46で図3のコンソール画面40の「監視・認証モード」のボタン41を指示することで実行される。
なお、この監視・認証処理の間、カメラ2〜4は常に撮像を続け、二次記憶装置14に撮像画像を記憶し続けているものとする。このとき、画像認証装置1は、撮像画像がどのカメラで撮像されたのかを示すラベルと対応付けて記憶しておく。
また、この監視・認証処理は、操作入力装置17を介して取得するユーザ入力に応じて処理が進む。ユーザ入力として、監視・認証処理を終了する「終了指示」と、画像認証を実行させる「認証指示」の2つがある。この2つのユーザ入力は、図4に示す監視・認証処理の処理中ならば、いつでも受け取ることができるものとする。
<Monitoring / Authentication processing>
First, the monitoring / authentication process of determining whether or not a specific person is captured by the
During this monitoring / authentication process, it is assumed that the
Further, this monitoring / authentication process proceeds according to the user input acquired via the
図4は、画像認証装置1が実行する監視・認証処理の処理フローの一例を示したものである。この図を参照しながら、実際の処理について詳細を説明する。
まず、認証画像取得部21は、ユーザ入力の「終了指示」がある(S1でYes)場合、この処理フローを終了する。「終了指示」がない場合(S1でNo)、さらにユーザ入力の「認証指示」がある場合(S2でYes)、認証画像を取得する(S3)。認証画像は、前述の通り、人物の顔が写る画像である。認証画像を取得するには、二次記憶装置14に記憶された撮像画像から人物の顔を検出し、検出した人物の顔を切り出せばよい。撮像画像から人物の顔を検出する方法については、公知の技術を用いればよい。
例えば、以下の文献に開示された技術を用いることができる。
P.Viola and M.Jones,“Robust Real−Time Face Detection”, In page II: 747, 2001.
検出した顔の画像上の座標に基づいて、撮像画像から顔の画像を切り出す。このとき、画像面に対する顔の面内回転を一定にするため画像正規化を施してもよい。例えば、顔の両目をつなぐ直線が、画像に対して水平になるように画像を回転させる、等の処理を施してもよい。
FIG. 4 shows an example of the processing flow of the monitoring / authentication process executed by the
First, the authentication
For example, the techniques disclosed in the following documents can be used.
P. Viola and M. Jones, "Robust Real-Time Face Detection", Inpage II: 747, 2001.
A face image is cut out from the captured image based on the detected coordinates on the face image. At this time, image normalization may be performed in order to make the in-plane rotation of the face with respect to the image surface constant. For example, the image may be rotated so that the straight line connecting both eyes of the face is horizontal to the image.
本実施形態では、二次記憶装置14に記憶された複数の撮像画像から人物の顔を検出し、検出した人物の顔、すなわち認証画像を切り出す。どの撮像画像を検出、切り出しの処理対象とするかはユーザに選択させればよい。例えば、ユーザに時間の範囲を指定させ、その時間の範囲内で撮像された撮像画像を処理対象とするようにしてもよい。
続いて、局所領域設定部22が、すべての認証画像に対して局所領域を設定する(S4)。ここでは、まず、顔の目や鼻といった器官の位置(器官位置)を検出し、検出した器官位置を基に局所領域を設定する。すなわち、局所領域設定部22は、1つの認証対象画像に対して複数の局所領域を設定する。
In the present embodiment, the face of a person is detected from a plurality of captured images stored in the
Subsequently, the local
図5は、認証画像に設定された局所領域を模式的に示した図である。この図に示すように、認証画像すなわち人物の顔画像50に対して右目の局所領域51、左目の局所領域52、口の局所領域53が設定されている。
なお、本実施形態では、検出した器官位置を中心とする矩形領域を局所領域として設定しているが、局所領域の設定方法は他の方法を用いてもよい。器官位置を中心とする矩形領域でなくてもよい。例えば、器官位置から所定の画素数離れた位置を基準とした領域でもよいし、矩形領域ではなく円形領域でもよい。また、検出した器官位置を基準としないで、顔画像の所定の領域を事前に定めておいてもよい。また、一つの器官位置に対して複数の局所領域を設定してもよいし、局所領域の数は図5で示した3つに限るものではない。
器官位置を検出する方法については公知の技術を用いればよい。例えば、特開2009−211177号公報に開示された技術を用いることができる。
FIG. 5 is a diagram schematically showing a local region set in the authentication image. As shown in this figure, a
In the present embodiment, the rectangular region centered on the detected organ position is set as the local region, but another method may be used as the method for setting the local region. It does not have to be a rectangular area centered on the organ position. For example, it may be a region based on a position separated by a predetermined number of pixels from the organ position, or may be a circular region instead of a rectangular region. In addition, a predetermined region of the facial image may be defined in advance without using the detected organ position as a reference. Further, a plurality of local regions may be set for one organ position, and the number of local regions is not limited to the three shown in FIG.
A known technique may be used for the method of detecting the organ position. For example, the technique disclosed in Japanese Patent Application Laid-Open No. 2009-21177 can be used.
続いて、特徴抽出部23が、認証画像の各局所領域から特徴量を抽出する(S5)。特徴量を抽出する方法に関しては公知の技術を用いればよい。例えば、LBP(Local Binary Pattern)特徴量を用いることができる。あるいは、HOG(Histogram of Oriented Gradient)特徴量やSIFT(Scale−Invariant Feature Transform)特徴量を用いてもよい。また、これらを混合した特徴量を用いてもよい。事前に学習したCNN(Convolutional Neural Network)で抽出した特徴量を用いてもよい。また、抽出した特徴量を、PCA(Principal Component Analysis)等を使って次元圧縮してもよい。
続いて、特徴記憶部24が、抽出した特徴量を二次記憶装置14に記憶する(S6)。あるいは、特徴量をRAM13に記憶するようにしてもよい。
Subsequently, the
Subsequently, the
続いて、画像認証処理を行う(S7)。画像認証処理について以下、詳細に説明する。図6は、画像認証処理の処理フローの一例を示した図である。
はじめに、類似度算出部28が、辞書登録部25から登録辞書を取得する(S11)。登録辞書は、ユーザが認証したい人物の画像の特徴量を事前に登録しておいたものであり、事前にユーザによって登録されているものとする。辞書登録処理については後述する。
続いて、類似度算出部28が、類似度算出パラメタを類似度算出パラメタ記憶部27から取得する(S12)。なお、この類似度算出パラメタは、事前に算出しておき、類似度算出パラメタ記憶部27に記憶してあるものとする。類似度算出パラメタの算出処理については後述する。
続いて、類似度算出部28が、特徴記憶部24から認証対象となる特徴量を取得する(S13)。前述の通り、このとき取得する特徴量は、認証画像から取得された少なくとも一つ以上の特徴量である。一つの特徴量は、人物の顔一つに対応している。また、本実施形態では、顔一つに対して局所領域毎に特徴量を抽出しているので、一つの特徴量は複数の局所領域毎の特徴量を含む。
Subsequently, the image authentication process is performed (S7). The image authentication process will be described in detail below. FIG. 6 is a diagram showing an example of a processing flow of the image authentication process.
First, the
Subsequently, the
Subsequently, the
続いて、類似度算出部28が、認証対象の特徴量と登録辞書のすべての特徴量との組み合わせについて、局所類似度を算出する(S14)。ここで、「局所類似度」とは、局所領域毎に算出された類似度のことである。前述の通り、認証対象の特徴量および登録辞書は局所領域毎に抽出された特徴量であるため、局所領域毎に類似度を算出する。ある局所領域一つについての局所類似度の算出方法を以下に説明する。
類似度算出方法としては、公知の技術を用いることができる。例えば、以下の式(1)に示すコサイン類似度を用いることができる。
Subsequently, the
A known technique can be used as the similarity calculation method. For example, the cosine similarity shown in the following equation (1) can be used.
x’=xc−μc (2)
y’=y−μc (3)
と表す。
x'= x c − μ c (2)
y'= y−μ c (3)
It is expressed as.
xcはカメラcで撮像された認証画像から抽出した特徴量ベクトルを表す。yは、登録辞書に登録された特徴量ベクトルを表す。μcは角度算出の原点ベクトルである。すなわち、式(1)は、特徴量ベクトルxc、y間のコサイン類似度を、μcを原点として、測っている。このμcが本実施形態における類似度算出パラメタである。μcの算出方法については後述する。
ここまで、ある局所領域一つについての類似度の算出方法を述べた。他の局所領域についても同様に類似度を算出する。
続いて、類似度算出部28が、認証対象のすべての特徴量と登録辞書の組み合わせについて、算出した局所類似度をもとに統合類似度を算出する(S15)。ここで、「統合類似度」とは、局所領域毎に算出された複数の局所類似度を統合した類似度である。
統合の方法については公知の技術を用いればよい。例えば、局所類似度の平均、局所類似度の最大値を選択する、等の方法を用いることができる。このほか、局所領域毎の重みを事前に算出しておき、局所類似度をその重みつき平均で統合するようにしてもよい。なお、本実施形態において、局所類似度算出(S14)と統合類似度算出(S15)の2つを合わせて類似度算出と呼ぶ。また、算出した統合類似度は、値のレンジが例えば1〜1000になるよう正規化処理を施してもよい。
x c represents a feature amount vector extracted from the authentication image captured by the camera c. y represents a feature amount vector registered in the registration dictionary. μ c is the origin vector for angle calculation. That is, the equation (1) measures the cosine similarity between the feature vectors x c and y with μ c as the origin. This μ c is a similarity calculation parameter in this embodiment. The calculation method of μ c will be described later.
So far, the method of calculating the similarity for one local region has been described. The similarity is calculated for other local regions in the same manner.
Subsequently, the
A known technique may be used for the method of integration. For example, a method such as selecting the average of local similarity and the maximum value of local similarity can be used. In addition, the weight for each local region may be calculated in advance, and the local similarity may be integrated by the weighted average. In the present embodiment, the local similarity calculation (S14) and the integrated similarity calculation (S15) are collectively referred to as the similarity calculation. Further, the calculated integrated similarity may be normalized so that the value range is, for example, 1 to 1000.
続いて、認証結果判定部29が、認証対象の画像中のすべての人物に対して、登録辞書のうち誰なのか、または誰でもないかを、統合類似度を基に判定をする(S16)。具体的には、最も高い統合類似度が、事前に定めた閾値よりも大きければ、認証結果判定部29は、その統合類似度に対応する登録辞書の人物であると判定する。逆に、最も高い類似度が、事前に定めた閾値以下の場合は、認証結果判定部29は、登録辞書のうちの誰でもない、と判定する。
以上で、図6の画像認証処理を終了する。
この後、図4のS7に戻り、続く処理を実行する。すなわち、表示部30は、認証結果判定部29から取得した認証結果を表示する(S8)。
Subsequently, the authentication
This completes the image authentication process of FIG.
After that, the process returns to S7 in FIG. 4 and the subsequent processing is executed. That is, the
図7は、認証結果の表示画面の一例を模式的に示した図である。この図7に示すように、この表示画面60には、登録辞書に登録された人物の画像(この例では人物A)61a、61bが左列に表示され、認証結果が右列に表示されている。本実施形態では、認証画像のうち、本人と判定された人物の画像62a〜62cと、それに対応する類似度63a〜63c、撮像したカメラ名、撮像時刻が表示されている。このように表示することで、登録辞書に登録された人物がいつ、どのカメラに写ったのかを確認することができる。
以上が、監視・認証処理である。
FIG. 7 is a diagram schematically showing an example of an authentication result display screen. As shown in FIG. 7, on the
The above is the monitoring / authentication process.
本実施形態では、認証画像の特徴量を予め記憶しておき、ユーザの認証指示があった時点で画像認証処理を実行するようにしたが、これに限定されず、特徴量を抽出した時点で画像認証処理を実行するようにしてもよい。
また、本実施形態では、監視・認証処理フロー(図4)のS3で取得したすべての認証画像に対して画像認証処理を実行したが、一部の認証画像を選択して画像認証処理を実行するようにしてもよい。例えば、所定の間隔で認証画像を間引いておいてもよいし、認証画像から抽出した特徴量をクラスタリングして、一つのクラスタから代表の特徴量を選んで画像認証処理をするようにしてもよい。
In the present embodiment, the feature amount of the authenticated image is stored in advance, and the image authentication process is executed when the user is instructed to authenticate, but the present invention is not limited to this, and the feature amount is extracted. The image authentication process may be executed.
Further, in the present embodiment, the image authentication process is executed for all the authentication images acquired in S3 of the monitoring / authentication processing flow (FIG. 4), but some authentication images are selected and the image authentication process is executed. You may try to do it. For example, the authentication images may be thinned out at predetermined intervals, or the feature amounts extracted from the authentication images may be clustered, and a representative feature amount may be selected from one cluster to perform the image authentication process. ..
<類似度算出パラメタ算出処理>
次に、本実施形態の画像認証装置1が、設置したカメラ2〜4それぞれに対応する類似度算出パラメタを算出する処理について説明する。この処理は、図3のコンソール画面から「調整モード」を選択することで実行される。この処理は、前述した監視・認証処理よりも時間的に前に実施しておくのが好ましい。これにより、カメラの設置場所や画角毎に適した類似度算出パラメタで監視・認証処理を行うことがでる。
図8は、類似度算出パラメタ算出処理の処理フローの一例を示したものである。この図を参照しながら、実際の処理について詳細を説明する。
なお、このフローの開始時から終了時までカメラ2〜4は所定のフレームレートで画像を撮像し続け、撮像画像を二次記憶装置14へ記憶し続けているものとする。
<Similarity calculation parameter calculation process>
Next, a process in which the
FIG. 8 shows an example of the processing flow of the similarity calculation parameter calculation process. The actual processing will be described in detail with reference to this figure.
It is assumed that the
始めに、認証画像取得部21が、類似度算出パラメタの算出が完了していないカメラを一つ選択する(S21)。
続いて、同じく認証画像取得部21が、二次記憶装置14に記憶された画像の中から、S21で選択したカメラで撮像された撮像画像を選択し、その撮像画像から人物の顔画像を取得する(S22)。撮像画像がどのカメラで撮像されたかを知るには、撮像画像に紐づけて記憶したラベルを参照すればよい。また、撮像画像から人物の顔画像を取得する方法については、前述の監視・認証処理で説明した方法と同様であるため、説明を省略する。なお、本実施形態では二次記憶装置14に記憶した撮像画像を取得するようにしたが、各カメラから直接、撮像画像を取得するようにしてもよい。
First, the authentication
Subsequently, the authentication
局所領域設定(S23)と特徴量抽出(S24)については、前述の方法と同様であるため、説明を省略する。
続いて、特徴記憶部24が、特徴量を記憶する(S25)。このとき、本実施形態では、類似度算出パラメタ算出用に抽出した特徴量であることを示すラベルを特徴量に紐付けて記憶する。
続いて、類似度算出パラメタ算出用に抽出された特徴量の数が事前に定めた所定数より少なければ(S26でNo)、S22に戻り、続く処理を繰り返す。すなわち、類似度算出パラメタを算出するのに十分な数の特徴量が集まるまで、特徴量の収集(抽出と記憶)を繰り返す。収集した特徴量が所定数より多ければ(S26でYes)、S27に進む。
続いて、類似度算出パラメタ算出部26が、収集した特徴量を使って類似度算出パラメタを算出する(S27)。前述の通り、本実施形態における類似度算出パラメタはコサイン類似度の原点である。以下、ある局所領域一つに対応する類似度算出パラメタの算出方法について説明する。
カメラcに対応する原点μcは下記式(4)の通り、設置したカメラ毎に集めた特徴量ベクトルxciを平均することで算出する。
Since the local area setting (S23) and the feature amount extraction (S24) are the same as the above-mentioned methods, the description thereof will be omitted.
Subsequently, the
Subsequently, if the number of feature quantities extracted for calculating the similarity calculation parameter is less than a predetermined number determined in advance (No in S26), the process returns to S22 and the subsequent processing is repeated. That is, the collection (extraction and storage) of the features is repeated until a sufficient number of features for calculating the similarity calculation parameter are collected. If the collected feature amount is more than the predetermined number (Yes in S26), the process proceeds to S27.
Subsequently, the similarity calculation
The origin μ c corresponding to the camera c is calculated by averaging the feature vector x ci collected for each installed camera as shown in the following equation (4).
図9は、原点を算出したことによる効果を模式的に表した図であり、あるカメラで撮像された、ある局所領域の特徴ベクトル空間を表している。図中の白丸の点はそれぞれ特徴量ベクトルを表しており、特徴量ベクトルの集合すなわちクラスタを点線で表している。図9は、事前に定めた原点71、設置したカメラで集めた認証画像の特徴量ベクトルクラスタ72、人物Aの特徴量ベクトルクラスタ73、人物Bの特徴量ベクトルクラスタ74、設置したカメラで集めた認証画像を基に算出した原点75を示している。コサイン類似度のように、角度をベースにした類似度を算出する場合、認証対象となる特徴量ベクトルが作るクラスタの内側に原点があるほうが、特徴量ベクトルを区別する分解能が高い。
FIG. 9 is a diagram schematically showing the effect of calculating the origin, and represents a feature vector space of a certain local region imaged by a certain camera. The white circle points in the figure represent the feature vector, and the set of feature vectors, that is, the cluster is represented by the dotted line. FIG. 9 shows a
事前に定めた原点71は、認証対象の特徴ベクトルが作るクラスタの外側にあるため、例えば人物Aの特徴量ベクトル(73内の特徴量ベクトルのいずれか)と人物Bの特徴量ベクトルは、事前に定めた原点71を基準に角度を測ると角度はほとんど0に近い。そのため、コサイン類似度を算出すると、本来は別人であるはずが、誤って本人と判定されるような高い類似度が算出されてしまう。事前に定めた原点71は、一般的には、事前に用意した大量の認証画像をもとに算出しておく。
Since the
しかし、設置したカメラで集めた認証画像の特徴量ベクトル分布は、事前に用意した認証画像の特徴量ベクトル分布とは異なっている場合がある。特に、設置したカメラは、画角や場所が制限されるため、特定の照明条件や顔向きの画像が、事前に用意した認証画像に比べ、多くなる。そのような場合に、誤った高い類似度が算出されてしまい、誤認証につながる。そこで、設置したカメラで集めた認証画像を基に算出した原点75を使うことで、設置したカメラで集めた認証画像の特徴量ベクトルクラスタ72の内側に入ることになる。これにより、カメラの設置場所や画角毎に認証に適した原点を使ってコサイン類似度を算出することができ、誤認証が低減されることが期待される。
しかしながら、設置したカメラで集めた認証画像を基に算出した原点の特徴量空間上の位置が、必ずしも認証に適した位置に来るとは限らない。
However, the feature amount vector distribution of the authenticated image collected by the installed camera may be different from the feature amount vector distribution of the authenticated image prepared in advance. In particular, since the angle of view and the location of the installed camera are limited, the number of images with specific lighting conditions and face orientation is larger than that of the authenticated image prepared in advance. In such a case, an erroneous high degree of similarity is calculated, leading to erroneous authentication. Therefore, by using the
However, the position on the feature space of the origin calculated based on the authentication image collected by the installed camera does not always come to the position suitable for authentication.
図10は、図9と同様に特徴量ベクトル空間を示しており、事前に定めた原点76、設置したカメラで集めた認証画像の特徴量ベクトルクラスタ77、人物Cの特徴量ベクトルクラスタ78、設置したカメラで集めた認証画像を基に算出した原点79を示している。この場合、事前に定めた原点71がコサイン類似度の算出に適さないのは図9と同様であるが、設置したカメラで集めた認証画像を基に算出した原点79が人物Cの特徴量ベクトルクラスタ78の内部に入っている。この場合、コサイン類似度を算出すると、特徴量ベクトルクラスタ78の人物Cと他の人物を誤って本人と判定してしまう誤認証が発生する場合がある。このように、算出した原点が誰かの特徴量ベクトルクラスタの内側に入ってしまう場合、認証に適した原点とは言えない。
FIG. 10 shows a feature amount vector space as in FIG. 9, a
そこで、本実施形態では、認証画像一つに対して一つの特徴量ではなく、複数の局所領域を設定することで複数の特徴量を抽出し、最終的に複数の特徴量毎の類似度を統合して統合類似度を算出している。これにより、算出した類似度算出パラメタが認証に適していない局所領域があった場合の誤認証を低減している。すなわち、ある局所領域で認証に適していない類似度算出パラメタを算出し、別人を本人と判定するような高い類似度を算出したとしても、認証に適した類似度算出パラメタを算出できた他の局所領域の類似度と最終的に統合するため、誤認証の低減が期待できる。 Therefore, in the present embodiment, a plurality of feature quantities are extracted by setting a plurality of local regions instead of one feature quantity for one authentication image, and finally the similarity of each of the plurality of feature quantities is obtained. The integration similarity is calculated by integrating. This reduces erroneous authentication when there is a local area where the calculated similarity calculation parameter is not suitable for authentication. That is, even if a similarity calculation parameter that is not suitable for authentication is calculated in a certain local area and a high similarity that determines another person as the person is calculated, another similarity calculation parameter that is suitable for authentication can be calculated. Since it is finally integrated with the similarity of the local area, reduction of false authentication can be expected.
なお、本実施形態では、複数の局所領域を設定することで複数の特徴量を抽出したが、これ以外の方法で複数の特徴量を抽出してもよい。例えば、異なる種類の特徴量を抽出することで複数の特徴量を抽出してもよい。
また、本実施形態では、特徴量ベクトルの平均を原点として用いたがこれに限定されない。この他、別の方法を用いて原点を算出してもよい。例えば、特徴量ベクトルの単純な平均ではなく、重みつき平均を用いてもよい。このとき、認証対象の特徴量ベクトルが作るクラスタの内側に原点がくるように重みの値を正規化するとよい。
以上が、一つの局所領域に対応する類似度算出パラメタの算出方法である。これを、他のすべての局所領域について算出する。
In the present embodiment, a plurality of feature quantities are extracted by setting a plurality of local regions, but a plurality of feature quantities may be extracted by other methods. For example, a plurality of feature quantities may be extracted by extracting different types of feature quantities.
Further, in the present embodiment, the average of the feature amount vectors is used as the origin, but the present invention is not limited to this. In addition, the origin may be calculated by using another method. For example, a weighted average may be used instead of a simple average of the feature vectors. At this time, it is advisable to normalize the weight value so that the origin is inside the cluster created by the feature vector to be authenticated.
The above is the calculation method of the similarity calculation parameter corresponding to one local region. This is calculated for all other local regions.
図8に戻り、続いて、類似度算出パラメタ記憶部27が、算出した類似度算出パラメタを記憶する(S28)。
続いて、全てのカメラに対応する類似度算出パラメタ算出処理が完了していれば(S29でYes)、類似度算出部28は、この類似度算出パラメタ算出処理を完了する。まだ完了していないカメラがあれば(S29でNo)、S21に戻り、画像認証装置1は、続く処理を繰り返す。
以上が類似度算出パラメタ算出処理の説明である。
Returning to FIG. 8, the similarity calculation
Subsequently, if the similarity calculation parameter calculation process corresponding to all the cameras is completed (Yes in S29), the
The above is the explanation of the similarity calculation parameter calculation process.
図11は、この類似度算出パラメタ算出処理を実行中に表示する画面80の一例を模式的に示した図である。図11は、類似度算出パラメタを調整するために必要な認証画像の画像数(特徴量数)が所定数貯まったことをユーザに提示する様子を模式的に示している。図11には、カメラ2とカメラ3は類似度算出パラメタを算出するのに十分な画像数が集まっており(81a、82a、81b、82b)、カメラ4はまだ不十分であることが示されている(81c、82c)。このように、所定数の画像が貯まったことをユーザに提示することで、類似度算出パラメタを算出するために、あとどの程度の画像数を集めればよいか視覚的にわかるようになっている。
FIG. 11 is a diagram schematically showing an example of the
なお、本実施形態では、すべてのカメラに対応する類似度算出パラメタを算出しないと類似度算出パラメタ算出処理を完了しないようになっているが、これに限定されない。例えば、一部、または、全部の類似度算出パラメタの算出を完了する前に、類似度算出パラメタ算出処理を中断してもよい。その場合は、監視・認証処理の際に使用する類似度算出パラメタは他の方法で用意しておけばよい。例えば、事前に用意しておいたデフォルトの類似度算出パラメタを使うようにしてもよい。または、所定数には足りないものの、各カメラ毎に集めた特徴量で類似度算出パラメタを算出しておいてもよい。または、算出に足りない特徴量を監視・認証処理のバックグラウンドでさらに収集するようにして、所定数に達した時点で類似度算出パラメタを算出するようにしてもよい。その場合は、類似度算出パラメタの算出が終わるまでは、事前に用意したデフォルトの類似度算出パラメタを使用し、算出が終わったら、算出した類似度算出パラメタに差し替えるようにすればよい。 In the present embodiment, the similarity calculation parameter calculation process is not completed unless the similarity calculation parameters corresponding to all the cameras are calculated, but the present embodiment is not limited to this. For example, the similarity calculation parameter calculation process may be interrupted before the calculation of some or all of the similarity calculation parameters is completed. In that case, the similarity calculation parameters used in the monitoring / authentication process may be prepared by another method. For example, the default similarity calculation parameter prepared in advance may be used. Alternatively, although the number is not sufficient, the similarity calculation parameter may be calculated from the feature quantities collected for each camera. Alternatively, the feature amount that is insufficient for calculation may be further collected in the background of the monitoring / authentication process, and the similarity calculation parameter may be calculated when a predetermined number is reached. In that case, the default similarity calculation parameter prepared in advance may be used until the calculation of the similarity calculation parameter is completed, and then replaced with the calculated similarity calculation parameter after the calculation is completed.
<辞書登録処理>
次に、認証する人物を登録する辞書登録処理について説明する。この処理は、図3のコンソール画面から「辞書登録モード」を選択することで実行される。
図12は、辞書登録処理の処理フローの一例を示したものである。この図を参照しながら、実際の処理について詳細を説明する。
はじめに、認証画像取得部21が、辞書登録用の画像を取得する(S31)。なお、辞書登録用の画像については、必ずしもカメラ2〜4で撮像されたものである必要はなく、事前に撮像しておいた画像を利用してもよい。
続く、局所領域設定(S32)〜特徴抽出(S33)の処理については、前述した図8の処理S23、S24と同様であるため、説明を省略する。
<Dictionary registration process>
Next, the dictionary registration process for registering the person to be authenticated will be described. This process is executed by selecting the "dictionary registration mode" from the console screen of FIG.
FIG. 12 shows an example of the processing flow of the dictionary registration process. The actual processing will be described in detail with reference to this figure.
First, the authentication
Subsequent processes of local area setting (S32) to feature extraction (S33) are the same as the processes S23 and S24 of FIG. 8 described above, and thus description thereof will be omitted.
続いて、辞書登録部25が、特徴量を辞書へ登録する(S34)。このとき、登録した人物の人物IDを、特徴量に紐付けて登録する、すなわち、二次記憶装置14に記憶する。特徴量に紐付けられる人物IDは、ユーザ入力により取得すればよい。
以上が、辞書登録処理の説明である。
ここで登録しておいた人物が取り貯めた撮像画像に写っているか否かを、前述の監視・認証処理で判定する。なお、登録する人物の数に特に制限はなく、また、一人あたり複数の特徴量を登録してもよい。
以上が、本発明における実施形態1の説明である。
Subsequently, the
The above is the explanation of the dictionary registration process.
Whether or not the person registered here is reflected in the captured image is determined by the above-mentioned monitoring / authentication process. The number of persons to be registered is not particularly limited, and a plurality of feature quantities may be registered per person.
The above is the description of the first embodiment of the present invention.
以上説明したとおり、本実施形態では、設置したカメラで撮像した撮像画像から認証画像を取得し、設置したカメラに対応した類似度算出パラメタを算出することで、撮像条件に頑健な人物認証を実現する方法について説明した。
カメラを設置することにより、撮像される人物の向きや、照明条件等の撮像条件がある程度固定される。そのため、カメラの設置場所や画角等の撮像条件に特化させた類似度算出パラメタを用いることで、事前に用意した類似度算出パラメタを用いるよりも、より高精度に人物(オブジェクト)を認証することができる。
As described above, in the present embodiment, the authentication image is acquired from the image captured by the installed camera, and the similarity calculation parameter corresponding to the installed camera is calculated to realize the person authentication robust to the imaging conditions. I explained how to do it.
By installing the camera, the orientation of the person to be imaged and the imaging conditions such as the lighting conditions are fixed to some extent. Therefore, by using the similarity calculation parameters specialized for the imaging conditions such as the camera installation location and the angle of view, the person (object) can be authenticated with higher accuracy than using the similarity calculation parameters prepared in advance. can do.
変形例
上記実施形態1では、類似度としてコサイン類似度を用い、コサイン類似度算出の際の原点を類似度算出パラメタとして算出したが、別の類似度を用いてもよい。例えば、以下の式(5)、式(6)に示すように類似度Sとしてマハラノビス距離の逆数を用い、マハラノビス行列Mを類似度算出パラメタとして算出してもよい。
Modification Example In the above-described first embodiment, the cosine similarity is used as the similarity, and the origin at the time of calculating the cosine similarity is calculated as the similarity calculation parameter, but another similarity may be used. For example, as shown in the following equations (5) and (6), the reciprocal of the Mahalanobis distance may be used as the similarity S, and the Mahalanobis matrix M may be calculated as the similarity calculation parameter.
図13は、マハラノビス行列を類似度算出パラメタとして算出する場合の効果を模式的に示した図である。
図13は、図9、図10と同様に特徴量ベクトルの分布を示している。この分布には、事前に算出した平均ベクトル91、事前に算出したマハラノビス行列を基にした距離空間92、設置したカメラで収集した認証画像を基に新たに算出した平均ベクトル93を示している。さらに、この分布には、新たに算出したマハラノビス行列を基にした距離空間94、人物Dの特徴量ベクトルクラスタ95、人物Eの特徴量ベクトルクラスタ96を示している。
ここで、距離空間92は、事前に算出した平均ベクトル91からのマハラノビス距離が距離空間92の楕円上では等しいことを意味している。すなわち、距離空間92のマハラノビス距離は、図13の左下から右上の斜め方向の距離が、通常のユークリッド距離に比べ、短い距離尺度になっている。距離空間94も同様で、図13の左上から右下に向かう距離が、通常のユークリッド距離に比べ、短い距離尺度になっている。
FIG. 13 is a diagram schematically showing the effect when the Mahalanobis matrix is calculated as a similarity calculation parameter.
FIG. 13 shows the distribution of the feature vector as in FIGS. 9 and 10. This distribution shows a pre-calculated
Here, the
このように、事前に算出した距離尺度と設置したカメラで集めた認証画像から算出した距離尺度は異なる。図13の事前に算出したマハラノビス行列を基にした距離空間92では、図13の左下から右上の距離が短い距離尺度となる。このため、人物Dの特徴量ベクトル(人物Dの特徴量ベクトルクラスタ95内のいずれか一点)と人物Eの特徴量ベクトルのマハラノビス距離は近い。すなわち同一人物と判定される可能性がある。一方、新たに算出したマハラノビス行列を基にした距離空間94では、逆に人物Dの特徴量ベクトルと人物Eの特徴量ベクトル間の距離は長いので、別人と判定される可能性が高くなる。このように、マハラノビス距離のような、事前の学習で類似度算出パラメタを設定しておくような手法についても、本実施形態の手法を適用することができる。
また、本実施形態では、認証画像は人物の顔が写る画像としたが、それに限るものではなく、人体やその他の任意のオブジェクトが写る画像でもよい。
以上説明したように、本実施形態では、カメラの設置場所や画角に適した類似度算出パラメタを用いて人物(オブジェクト)をより高精度に認証することができる。
In this way, the distance scale calculated in advance and the distance scale calculated from the authentication image collected by the installed camera are different. In the
Further, in the present embodiment, the authentication image is an image in which a person's face is captured, but the present invention is not limited to this, and an image in which a human body or any other object is captured may be used.
As described above, in the present embodiment, the person (object) can be authenticated with higher accuracy by using the similarity calculation parameter suitable for the installation location and the angle of view of the camera.
実施形態2
上記実施形態1では、カメラの撮像画像から収集した特徴量を使って類似度算出パラメタを算出する例について説明した。本実施形態では、辞書登録処理時に類似度算出パラメタを算出する例について説明する。なお、実施形態1と同様の箇所は説明を省略し、差異のある箇所のみ説明する。
実施形態2では、実施形態1と同様に、認証に用いる類似度としてコサイン類似度を使う例を説明する。監視・認証処理および類似度算出パラメタ算出処理は、実施形態1と同じであるため説明を省略する。
辞書登録処理について説明する。
In the first embodiment, an example of calculating the similarity calculation parameter using the feature amount collected from the captured image of the camera has been described. In this embodiment, an example of calculating the similarity calculation parameter at the time of dictionary registration processing will be described. The same parts as in the first embodiment will be omitted, and only the parts with differences will be described.
In the second embodiment, as in the first embodiment, an example in which the cosine similarity is used as the similarity used for authentication will be described. Since the monitoring / authentication process and the similarity calculation parameter calculation process are the same as those in the first embodiment, the description thereof will be omitted.
The dictionary registration process will be described.
図14は、本実施形態における辞書登録処理の処理フローの一例を示したものである。この図を参照しながら、実際の処理について詳細を説明する。
登録画像取得(S41)〜辞書登録(S44)までは、実施形態1(図12のS31〜S34)と同様であるため、説明を省略する。
S44に続いて、類似度算出パラメタ算出部26が、辞書登録部25から取得した登録辞書を使って類似度算出パラメタを更新する(S45)。この類似度算出パラメタ算出処理で算出されている更新後の類似度算出パラメタσは、以下の式(7)で表される。
σ=w0σ0+wrσr (7)
ここで、σ0は、設置場所のカメラで収集した特徴量の平均ベクトルであり、σrは、登録辞書の全特徴量の平均ベクトルであり、w0、wrは、それぞれの類似度算出パラメタに対する重み係数である。
FIG. 14 shows an example of the processing flow of the dictionary registration process in the present embodiment. The actual processing will be described in detail with reference to this figure.
Since the registration image acquisition (S41) to the dictionary registration (S44) are the same as those in the first embodiment (S31 to S34 in FIG. 12), the description thereof will be omitted.
Following S44, the similarity calculation
σ = w 0 σ 0 + w r σ r (7)
Here, sigma 0 is the mean vector of the collected feature quantity at the site of the camera, the sigma r is the mean vector of all feature quantities of registered dictionary, w 0, w r is calculated for each of the similarity It is a weighting coefficient for a parameter.
一般的に、設置したカメラで収集できる特徴量の数に比べ、登録辞書の特徴量は数が少ないため、両方の特徴量を含めて平均をとると設置したカメラで収集した特徴量の影響が支配的になってしまう。そこで、本実施形態では、それぞれで算出した平均ベクトルを事前に定めた所定の重みで足し合わせ、登録辞書で求めた平均ベクトルの影響をどの程度にするか調整できるようにしている。
なお、σ0は事前に算出しておいてもよいし、設置場所のカメラで収集した特徴量を二次記憶装置14にすべて記憶しておき、式(7)を算出する際にσ0を算出してもよい。
続いて、類似度算出パラメタ記憶部27が、式(7)で算出された類似度算出パラメタσを二次記憶装置14に記憶する(S46)。
なお、本実施形態では、登録辞書に新たな特徴量が登録されると、毎回、類似度算出パラメタを算出するようにしたが、毎回算出しなくてもよい。例えば、登録辞書に所定数の特徴量が新たに登録された際に算出するようにしてもよい。
Generally, the number of features in the registered dictionary is smaller than the number of features that can be collected by the installed camera, so if you take the average including both features, the effect of the features collected by the installed camera will be affected. It becomes dominant. Therefore, in the present embodiment, the average vectors calculated for each are added by a predetermined weight determined in advance so that the influence of the average vector obtained by the registered dictionary can be adjusted.
Incidentally, sigma 0 is may be previously calculated in advance, a feature amount collected at the site of the camera may be stored all in the
Subsequently, the similarity calculation
In the present embodiment, the similarity calculation parameter is calculated every time a new feature amount is registered in the registration dictionary, but it is not necessary to calculate it every time. For example, it may be calculated when a predetermined number of features are newly registered in the registration dictionary.
また、本実施形態では、式(7)で登録辞書の全特徴量の平均ベクトルσrを算出したが、この他の方法を使って算出してもよい。例えば、登録辞書の人物毎の平均ベクトルをまず算出し、その後で、各人物の平均ベクトルをさらに平均するようにしてもよい。このようにすることで、人物毎の登録数に大きな差がある場合、登録数が多い人物の影響が大きくなりすぎないように抑制することができる。
以上が、本発明における第2の実施形態の説明である。
以上説明したように、本実施形態によれば、設置したカメラの撮像画像から収集した特徴量だけでなく、登録辞書の特徴量を類似度算出パラメタの算出に反映させることで、登録画像の撮僧条件により適した類似度算出パラメタを算出することができる。
Further, in the present embodiment, the average vector σ r of all the features of the registered dictionary is calculated by the equation (7), but it may be calculated by using another method. For example, the average vector for each person in the registered dictionary may be calculated first, and then the average vector for each person may be further averaged. By doing so, when there is a large difference in the number of registrations for each person, it is possible to suppress the influence of the person with a large number of registrations from becoming too large.
The above is the description of the second embodiment of the present invention.
As described above, according to the present embodiment, not only the feature amount collected from the captured image of the installed camera but also the feature amount of the registered dictionary is reflected in the calculation of the similarity calculation parameter to take the registered image. It is possible to calculate the similarity calculation parameter that is more suitable for the monk condition.
1…画像認証装置、2,3,4…カメラ、5…ネットワーク、21…認証画像取得部、22…局所領域設定部、23…特徴抽出部、24…特徴記憶部、25…辞書登録部、26…類似度算出パラメタ算出部、27…類似度算出パラメタ記憶部、28…類似度算出部、29…認証結果判定部、30…表示部 1 ... image authentication device, 2, 3, 4 ... camera, 5 ... network, 21 ... authentication image acquisition unit, 22 ... local area setting unit, 23 ... feature extraction unit, 24 ... feature storage unit, 25 ... dictionary registration unit, 26 ... Similarity calculation parameter calculation unit, 27 ... Similarity calculation parameter storage unit, 28 ... Similarity calculation unit, 29 ... Authentication result determination unit, 30 ... Display unit
Claims (11)
前記取得手段により取得された画像から特徴量を抽出する抽出手段と、
認証対象となる人物の画像の特徴量を記憶する記憶手段と、
前記撮像装置のそれぞれについて、前記撮像装置により撮像された画像から抽出された特徴量に基づいて、当該撮像装置により撮像された画像に前記認証対象となる人物が含まれているかを特定するための類似度算出パラメタを算出する第1の算出手段と、
前記撮像装置に応じて算出された前記類似度算出パラメタに基づいて変換された前記抽出された特徴量と、前記記憶された特徴量と、の類似度を算出する第2の算出手段と、
を備えることを特徴とする画像処理装置。 An acquisition means for acquiring an image captured by at least one imaging device, and
An extraction means for extracting a feature amount from an image acquired by the acquisition means, and an extraction means.
A storage means for storing the feature amount of the image of the person to be authenticated, and
For each of the imaging device, based on the feature quantity extracted from the image taken by the imaging device, the imaging device for identifying whether a person is included to be the authentication object on the image captured by the The first calculation means for calculating the similarity calculation parameter and
A second calculation means for calculating the similarity between the extracted feature amount converted based on the similarity calculation parameter calculated according to the imaging device and the stored feature amount, and
An image processing device comprising.
前記第2の算出手段は、前記第1の算出手段により算出された前記複数の類似度算出パラメタに基づいて、複数の類似度を算出し、算出された前記複数の類似度を1つの類似度に統合する、
ことを特徴とする請求項1に記載の画像処理装置。 The first calculation means calculates a plurality of similarity calculation parameters for one image acquired by the acquisition means.
The second calculation means calculates a plurality of similarities based on the plurality of similarity calculation parameters calculated by the first calculation means, and the calculated plurality of similarity is used as one similarity. Integrate into
The image processing apparatus according to claim 1.
前記第1の算出手段は、前記設定手段により設定された前記複数の局所領域のそれぞれについて、前記類似度算出パラメタを算出する、
ことを特徴とする請求項2に記載の画像処理装置。 Further, a setting means for setting a plurality of local areas for one image acquired by the acquisition means is provided.
The first calculation means calculates the similarity calculation parameter for each of the plurality of local regions set by the setting means.
The image processing apparatus according to claim 2.
ことを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。 The first calculation means calculates the similarity calculation parameter based on the stored feature amount in addition to the feature amount extracted from the acquired image.
The image processing apparatus according to any one of claims 1 to 3.
前記第2の算出手段は、前記第1の算出手段が算出した角度算出の原点を使った角度に基づいた前記類似度を算出する、
ことを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。 The similarity calculation parameter calculated by the first calculation means is the origin of angle calculation in the feature space.
It said second calculating means, the degree of similarity is calculated based on the angle of the first calculating means with the origin of the calculated angle calculated,
The image processing apparatus according to any one of claims 1 to 4.
前記第1の算出手段が算出する角度算出の原点は、前記抽出手段が抽出した前記複数の特徴量の平均である、
ことを特徴とする請求項5に記載の画像処理装置。 The extraction means extracts a plurality of feature quantities from the image and
The origin of the angle calculation calculated by the first calculation means is the average of the plurality of feature quantities extracted by the extraction means.
The image processing apparatus according to claim 5.
前記第2の算出手段は、前記第1の算出手段が算出したマハラノビス行列に基づいて前記類似度を算出する、
ことを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。 The similarity calculation parameter calculated by the first calculation means is a Mahalanobis matrix.
The second calculation means calculates the similarity based on the Mahalanobis matrix calculated by the first calculation means.
The image processing apparatus according to any one of claims 1 to 4.
前記第1の算出手段は、前記取得手段が取得した前記画像に基づいて複数の前記類似度算出パラメタを算出する、
ことを特徴とする請求項1から7のいずれか1項に記載の画像処理装置。 The acquisition means acquires the image in order to calculate a plurality of the similarity calculation parameters according to the user input.
The first calculation means calculates a plurality of the similarity calculation parameters based on the image acquired by the acquisition means.
The image processing apparatus according to any one of claims 1 to 7.
ことを特徴とする請求項1から8のいずれか1項に記載の画像処理装置。 A display means for presenting to the user that the acquisition means has acquired a predetermined number of the images for calculating the plurality of similarity calculation parameters is further provided.
The image processing apparatus according to any one of claims 1 to 8.
前記撮像装置により撮像された画像から特徴量を抽出する抽出ステップと、
前記撮像装置のそれぞれについて、前記撮像装置により撮像された画像から抽出された特徴量に基づいて、当該撮像装置により撮像された画像に認証対象となる人物が含まれているかを特定するための類似度算出パラメタを算出するステップと、
前記撮像装置に応じて算出された前記類似度算出パラメタに基づいて変換された前記抽出された特徴量と、記憶手段に記憶された前記認識対象の人物の画像の特徴量と、の類似度を算出する算出するステップと、
を有することを特徴とする画像処理方法。 A step of acquiring an image captured by at least one imaging device, and
An extraction step of extracting a feature amount from an image captured by the imaging device, and
For each of the imaging device, on the basis of the feature quantity extracted from the image taken by the imaging device, the imaging device for identifying whether a person is included as a authentication target image captured by Steps to calculate similarity calculation parameters and
The degree of similarity between the extracted feature amount converted based on the similarity calculation parameter calculated according to the imaging device and the feature amount of the image of the person to be recognized stored in the storage means. The steps to calculate and the steps to calculate
An image processing method characterized by having.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016186200A JP6873639B2 (en) | 2016-09-23 | 2016-09-23 | Image processing equipment, image processing methods and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016186200A JP6873639B2 (en) | 2016-09-23 | 2016-09-23 | Image processing equipment, image processing methods and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018049566A JP2018049566A (en) | 2018-03-29 |
JP6873639B2 true JP6873639B2 (en) | 2021-05-19 |
Family
ID=61766428
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016186200A Active JP6873639B2 (en) | 2016-09-23 | 2016-09-23 | Image processing equipment, image processing methods and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6873639B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019185384A (en) * | 2018-04-10 | 2019-10-24 | キヤノン株式会社 | Image authentication device, image authentication method, computer program and storage medium |
CN110059551A (en) * | 2019-03-12 | 2019-07-26 | 五邑大学 | A kind of automatic checkout system of food based on image recognition |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4624594B2 (en) * | 2000-06-28 | 2011-02-02 | パナソニック株式会社 | Object recognition method and object recognition apparatus |
JP3873793B2 (en) * | 2002-03-29 | 2007-01-24 | 日本電気株式会社 | Face metadata generation method and face metadata generation apparatus |
JP4844670B2 (en) * | 2009-11-13 | 2011-12-28 | 日本ビクター株式会社 | Video processing apparatus and video processing method |
JP6470503B2 (en) * | 2014-05-20 | 2019-02-13 | キヤノン株式会社 | Image collation device, image retrieval system, image collation method, image retrieval method and program |
-
2016
- 2016-09-23 JP JP2016186200A patent/JP6873639B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018049566A (en) | 2018-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4594945B2 (en) | Person search device and person search method | |
US8819015B2 (en) | Object identification apparatus and method for identifying object | |
KR101426952B1 (en) | Information processing apparatus, information processing method, person identification apparatus, and method of producing/updating dictionary data in person identification apparatus | |
US11080557B2 (en) | Image authentication apparatus, method, and storage medium using registered image | |
KR101280920B1 (en) | Image recognition apparatus and method | |
JP6700791B2 (en) | Information processing apparatus, information processing method, and program | |
KR101341212B1 (en) | Biometric authentication device, biometric authentication system, and biometric authentication method | |
JP7463052B2 (en) | Information processing device, information processing system, information processing method, and program | |
JP2017033469A (en) | Image identification method, image identification device and program | |
JP6822482B2 (en) | Line-of-sight estimation device, line-of-sight estimation method, and program recording medium | |
JP2008243093A (en) | Dictionary data registration device and method | |
US9721153B2 (en) | Image processing apparatus, image processing method, and storage medium that recognize an image based on a designated object type | |
WO2017206914A1 (en) | Fingerprint recognition method, fingerprint recognition system, and electronic device | |
JP5963525B2 (en) | Recognition device, control method thereof, control program, imaging device and display device | |
JP5937823B2 (en) | Image collation processing apparatus, image collation processing method, and image collation processing program | |
JP2014115821A (en) | Face feature extraction device and face authentication system | |
JP5971712B2 (en) | Monitoring device and method | |
JP6873639B2 (en) | Image processing equipment, image processing methods and programs | |
TW202001783A (en) | Image analysis method, electronic system and non-transitory computer-readable recording medium | |
JP5791361B2 (en) | PATTERN IDENTIFICATION DEVICE, PATTERN IDENTIFICATION METHOD, AND PROGRAM | |
US20160188856A1 (en) | Authentication device, authentication method, and non-transitory computer readable medium | |
JP5975828B2 (en) | Facial feature extraction apparatus and face authentication system | |
JP5995610B2 (en) | Subject recognition device and control method therefor, imaging device, display device, and program | |
JP2020187531A (en) | Information processing device, information processing method and program | |
JP7103443B2 (en) | Information processing equipment, information processing methods, and programs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190919 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201019 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201110 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201217 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210126 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210316 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210323 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210421 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6873639 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |