JP2018049566A - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP2018049566A
JP2018049566A JP2016186200A JP2016186200A JP2018049566A JP 2018049566 A JP2018049566 A JP 2018049566A JP 2016186200 A JP2016186200 A JP 2016186200A JP 2016186200 A JP2016186200 A JP 2016186200A JP 2018049566 A JP2018049566 A JP 2018049566A
Authority
JP
Japan
Prior art keywords
image
similarity
image processing
processing apparatus
authentication
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016186200A
Other languages
Japanese (ja)
Other versions
JP6873639B2 (en
Inventor
敦夫 野本
Atsuo Nomoto
敦夫 野本
佐藤 博
Hiroshi Sato
博 佐藤
雄司 金田
Yuji Kaneda
雄司 金田
俊亮 中野
Toshiaki Nakano
俊亮 中野
山本 貴久
Takahisa Yamamoto
貴久 山本
伊藤 嘉則
Yoshinori Ito
嘉則 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016186200A priority Critical patent/JP6873639B2/en
Publication of JP2018049566A publication Critical patent/JP2018049566A/en
Application granted granted Critical
Publication of JP6873639B2 publication Critical patent/JP6873639B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To authenticate an object accurately by use of a similarity calculation parameter suitable for a location or field of view of a camera.SOLUTION: An image processing apparatus includes: acquisition means of acquiring an image captured by at least one imaging apparatus; extraction means of extracting feature quantity from an image acquired by the acquisition means; storage means of storing a registration dictionary in which feature quantities of images are registered; first calculation means of calculating a similarity calculation parameter for calculating similarity between the feature quantities registered in the registration dictionary and feature quantity extracted from the image captured by the imaging apparatus, on the basis of the feature quantity extracted from the image captured by the imaging apparatus, for each of the imaging apparatuses; and second calculation means of calculating the similarity between the feature quantity registered in the registration dictionary and feature quantity of the image for authentication acquired by the acquisition means, for the imaging apparatus having captured the image for authentication, on the basis of the similarity calculation parameter calculated by the first calculation means.SELECTED DRAWING: Figure 2

Description

本発明は、画像中のオブジェクトを認証する画像処理装置、画像処理方法およびプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program for authenticating an object in an image.

設置したカメラで撮像された画像に写る人物が誰かを判定する人物認証技術が知られている。この人物認証技術の応用先として、顔写真を使った犯罪捜査や、迷子探し等がある。これらの応用先では、設置されたカメラ毎にその設置場所や画角が異なるために、カメラ毎に人物を撮像する際の撮像条件(例えば、人物の向きや照明条件)も異なってくる。そのため、撮像条件に頑健な人物認証技術が求められている。
一般に、人物認証技術では、撮像された人物の画像と事前に登録された人物の画像(以下、「登録画像」という。)との間で算出した類似度の大小により、人物が登録画像のうちの誰なのか、または誰でもないのかを判定している。この類似度をどのように算出するかは、人物認証の精度を決める重要な要素の一つであり、様々な方式が提案されている。
There is known a person authentication technique for determining who is shown in an image captured by an installed camera. Applications of this person authentication technology include criminal investigations using facial photographs and lost child search. In these application destinations, since the installation location and the angle of view differ for each installed camera, the imaging conditions (for example, the direction of the person and the lighting conditions) for imaging a person also differ for each camera. Therefore, there is a need for a person authentication technique that is robust to imaging conditions.
In general, in the person authentication technology, a person is included in the registered image based on the degree of similarity calculated between the captured person image and a previously registered person image (hereinafter referred to as “registered image”). Who is or who is not. How to calculate the similarity is one of the important factors that determine the accuracy of person authentication, and various methods have been proposed.

例えば、非特許文献1に開示された技術では、類似度を算出するパラメタを、事前に大量のデータで学習しておき、学習したパラメタをもとに類似度を算出している。様々な撮像条件を含む大量のデータを使って、パラメタを事前に学習することで撮像条件にある程度頑健な人物認証を実現している。
また、特許文献1に開示された技術では、入力パターンから入力部分空間を算出し、予め規定されたカテゴリに対応する辞書パターンから複数の辞書部分空間を算出し、入力部分空間と複数の辞書部分空間の各々とを、直交化行列を用いて線形変換している。そして、線形変換された入力部分空間と線形変換された複数の辞書部分空間との類似度を算出している。線形変換のための直交化行列は、複数の辞書部分空間同士を直交化して、登録画像に含まれる人物同士を区別しやすくする変換行列として生成されている。
For example, in the technique disclosed in Non-Patent Document 1, a parameter for calculating the similarity is learned in advance from a large amount of data, and the similarity is calculated based on the learned parameter. A large amount of data including various imaging conditions is used to learn parameters in advance, thereby realizing person authentication that is robust to the imaging conditions to some extent.
In the technique disclosed in Patent Document 1, an input subspace is calculated from an input pattern, a plurality of dictionary subspaces are calculated from a dictionary pattern corresponding to a predetermined category, and the input subspace and the plurality of dictionary parts are calculated. Each space is linearly transformed using an orthogonalization matrix. Then, the similarity between the linearly transformed input subspace and the plurality of linearly transformed dictionary subspaces is calculated. The orthogonalization matrix for linear transformation is generated as a transformation matrix that makes it easy to distinguish between persons included in a registered image by orthogonalizing a plurality of dictionary subspaces.

特許第4343125号公報Japanese Patent No. 4343125

H.V.Nguyen and L.Bai、“Cosine Similarity Metric Learning for Face Verification”,2010,ACCV(Annual Conference of Computer Vision).H. V. Nguyen and L.M. Bai, “Cosse Similarity Metric Learning for Face Verification”, 2010, ACCV (Annual Conference of Computer Vision).

しかしながら、上述の各文献に記載された技術では、カメラの設置場所や画角に適した類似度算出パラメタを得ることができないため、人物認証の精度が低下する場合があった。すなわち、非特許文献1の技術では、類似度算出パラメタは事前に大量のデータで学習されるものであるため、カメラの設置場所や画角に適した類似度算出パラメタを事前に算出することはできない。また、特許文献1の技術では、登録画像に含まれる人物毎の部分空間を直交化する変換行列を算出するものであって、認証すべき人物を撮像するカメラの設置場所や画角に適した類似度算出パラメタを算出することはできない。
本発明は上記課題を解決するためになされたものであり、カメラの設置場所や画角に適した類似度算出パラメタを用いてオブジェクトをより高精度に認証することを課題とする。
However, with the techniques described in the above-mentioned documents, since the similarity calculation parameter suitable for the installation location and the angle of view of the camera cannot be obtained, the accuracy of person authentication may be reduced. That is, in the technique of Non-Patent Document 1, since the similarity calculation parameter is learned from a large amount of data in advance, calculating the similarity calculation parameter suitable for the installation location and the angle of view of the camera in advance is not possible. Can not. The technique of Patent Document 1 calculates a transformation matrix for orthogonalizing a partial space for each person included in a registered image, and is suitable for the installation location and angle of view of a camera that captures a person to be authenticated. The similarity calculation parameter cannot be calculated.
The present invention has been made to solve the above-described problems, and an object of the present invention is to authenticate an object with higher accuracy using a similarity calculation parameter suitable for a camera installation location and an angle of view.

上記課題を解決するために、本発明にかかる画像処理装置のある態様によれば、少なくとも1つの撮像装置により撮像された画像を取得する取得手段と、前記取得手段により取得された画像から特徴量を抽出する抽出手段と、画像の特徴量が登録された登録辞書を記憶する記憶手段と、前記撮像装置のそれぞれについて、当該撮像装置により撮像された画像から抽出された特徴量に基づいて、当該撮像装置により撮像された画像から抽出される特徴量と前記登録辞書に登録された特徴量との間の類似度を算出するための類似度算出パラメタを算出する第1の算出手段と、前記取得手段により取得された認証対象画像の特徴量と前記登録辞書に登録された特徴量との間の前記類似度を、当該認証対象画像を撮像した撮像装置について、前記第1の算出手段により算出された前記類似度算出パラメタに基づいて算出する第2の算出手段と、を備える画像処理装置が提供される。   In order to solve the above problems, according to an aspect of the image processing device of the present invention, an acquisition unit that acquires an image captured by at least one imaging device, and a feature amount from the image acquired by the acquisition unit Extraction means for extracting image data, storage means for storing a registered dictionary in which image feature values are registered, and for each of the imaging devices, based on the feature values extracted from the image captured by the imaging device, First calculation means for calculating a similarity calculation parameter for calculating a similarity between a feature quantity extracted from an image captured by an imaging device and a feature quantity registered in the registration dictionary; and the acquisition For the imaging device that captures the authentication target image, the similarity between the feature amount of the authentication target image acquired by the means and the feature amount registered in the registration dictionary A second calculation means for calculating, based on the similarity calculation parameter calculated by the calculating means, an image processing apparatus including a is provided.

本発明によれば、カメラの設置場所や画角に適した類似度算出パラメタを用いてオブジェクトをより高精度に認証することができる。   According to the present invention, it is possible to authenticate an object with higher accuracy by using a similarity calculation parameter suitable for the installation location and angle of view of the camera.

実施形態1に係る画像認証システムのハードウェア構成の一例を示すブロック図。FIG. 2 is a block diagram illustrating an example of a hardware configuration of the image authentication system according to the first embodiment. 実施形態1に係る画像認証システムの制御プログラムの機能構成を示したブロック図。FIG. 2 is a block diagram illustrating a functional configuration of a control program of the image authentication system according to the first embodiment. 実施形態1に係る画像認証システムのコンソール画面を模式的に示した図。FIG. 3 is a diagram schematically illustrating a console screen of the image authentication system according to the first embodiment. 実施形態1に係る画像認証システムの監視・認証処理を示すフローチャート。5 is a flowchart illustrating monitoring / authentication processing of the image authentication system according to the first embodiment. 認証画像に設定する局所領域を模式的に示した図。The figure which showed typically the local area | region set to an authentication image. 実施形態1に係る画像認証システムの画像認証処理を示すフローチャート。5 is a flowchart showing image authentication processing of the image authentication system according to the first embodiment. 認証結果として表示する内容の一例を概念的に示した図。The figure which showed notionally an example of the content displayed as an authentication result. 実施形態1に係る画像認証システムの類似度算出パラメタ算出処理を示すフローチャート。5 is a flowchart showing similarity calculation parameter calculation processing of the image authentication system according to the first embodiment. 設置したカメラに適した原点を算出する例を模式的に示した図。The figure which showed typically the example which calculates the origin suitable for the installed camera. 算出した原点が、特徴量空間上の適切な位置になかった場合の例を模式的に示した図。The figure which showed typically the example when the calculated origin is not in the appropriate position on feature-value space. 実施形態1に係る画像認証システムが類似度算出パラメタ算出処理中に表示する算出用のサンプル収集状況を示す画面を模式的に示した図。The figure which showed typically the screen which shows the sample collection condition for a calculation which the image authentication system which concerns on Embodiment 1 displays during a similarity calculation parameter calculation process. 実施形態1に係る画像認証システムの辞書登録処理を示すフローチャート。5 is a flowchart showing dictionary registration processing of the image authentication system according to the first embodiment. 設置したカメラに適したマハラノビス行列を算出する例を模式的に示した図。The figure which showed typically the example which calculates the Mahalanobis matrix suitable for the installed camera. 実施形態2に係る画像認証システムの辞書登録処理を示すフローチャート。10 is a flowchart showing dictionary registration processing of the image authentication system according to the second embodiment.

以下、添付図面を参照して、本発明を実施するための実施形態について詳細に説明する。なお、以下に説明する実施形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施形態に限定されるものではない。また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。   DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the accompanying drawings. The embodiment described below is an example as means for realizing the present invention, and should be appropriately modified or changed according to the configuration and various conditions of the apparatus to which the present invention is applied. It is not limited to the embodiment. In addition, not all combinations of features described in the present embodiment are essential for the solving means of the present invention.

実施形態1
本発明の実施形態1に係る画像認証システムでは、設置したカメラ毎に類似度算出パラメタを算出しておき、撮り貯めた撮像画像の中から特定人物を認証する例について説明する。
<ハードウェア構成>
図1は、本実施形態に係る画像認証システムのハードウェア構成の一例を示すブロック図である。この画像認証システムは、画像認証装置1と、カメラ2〜4と、ネットワーク5とを備えている。
画像認証装置1は、画像から特定人物を認証する画像認証装置であり、具体的な構成は後述する。
カメラ2〜4は、所謂ネットワークカメラであり、撮像装置として機能する。各カメラ2〜4は、レンズとCCD、CMOSセンサ等の撮像素子を備え可視光を撮像する可視光カメラユニットと、ネットワークに接続するための通信装置とを備えている。なお、カメラ2〜4として、通信機能を有する他のカメラを用いてもよい。また、カメラユニットは、可視光を撮像するものに限らず、赤外線を撮像する赤外カメラユニット等を用いてもよい。
画像認証装置1と各カメラ2〜4とは、ネットワーク5を介して接続されており、相互にデータ通信が可能になっている。
また、図1には3台のカメラ(カメラ2〜4)を用いた構成が示されているが、カメラの数はこれに限られるものではない。
Embodiment 1
In the image authentication system according to the first embodiment of the present invention, an example will be described in which a similarity calculation parameter is calculated for each installed camera, and a specific person is authenticated from the captured images collected.
<Hardware configuration>
FIG. 1 is a block diagram illustrating an example of a hardware configuration of the image authentication system according to the present embodiment. This image authentication system includes an image authentication apparatus 1, cameras 2 to 4, and a network 5.
The image authentication device 1 is an image authentication device that authenticates a specific person from an image, and a specific configuration will be described later.
The cameras 2 to 4 are so-called network cameras and function as imaging devices. Each of the cameras 2 to 4 includes a visible light camera unit that includes a lens, an imaging element such as a CCD and a CMOS sensor, and captures visible light, and a communication device for connection to a network. Note that other cameras having a communication function may be used as the cameras 2 to 4. Further, the camera unit is not limited to one that captures visible light, but may be an infrared camera unit that captures infrared light.
The image authentication apparatus 1 and each of the cameras 2 to 4 are connected via a network 5 and can perform data communication with each other.
1 shows a configuration using three cameras (cameras 2 to 4), the number of cameras is not limited to this.

画像認証装置1は、CPU(Central Processing Unit)11と、ROM12と、RAM13と、二次記憶装置14と、通信装置15と、映像出力装置16と、操作入力装置17と、接続バス18とを備えている。
CPU11は、ROM12やRAM13に格納された制御プログラムを実行することにより、画像認識装置1全体の制御を行う。ROM12は、不揮発性メモリであり、制御プログラムや各種パラメタデータを記憶する。制御プログラムは、CPU11で実行され、後述する各処理を実現する。RAM13は、揮発性メモリであり、画像や制御プログラムおよびその実行結果を一時的に記憶する。
The image authentication device 1 includes a CPU (Central Processing Unit) 11, a ROM 12, a RAM 13, a secondary storage device 14, a communication device 15, a video output device 16, an operation input device 17, and a connection bus 18. I have.
The CPU 11 controls the entire image recognition apparatus 1 by executing a control program stored in the ROM 12 or the RAM 13. The ROM 12 is a non-volatile memory and stores a control program and various parameter data. The control program is executed by the CPU 11 and realizes each process described later. The RAM 13 is a volatile memory, and temporarily stores images, control programs, and execution results thereof.

二次記憶装置14は、ハードディスクやフラッシュメモリなどの書き換え可能な二次記憶装置であり、カメラ2〜4から、通信装置15を介して、受信した画像を記憶する。また、二次記憶装置14は、制御プログラム、各種設定内容、処理結果等の情報を必要に応じて記憶する。二次記憶装置14に記憶されている情報は、必要に応じてRAM13に出力され、CPU11が制御プログラムの実行等に利用する。
通信装置15は、例えば有線通信ユニットであり、ネットワーク5を介してカメラ2〜4とデータ通信を行う。なお、通信装置15は、無線通信ユニットであってもよい。
映像出力装置16は、CRTやTFT液晶などのモニタ装置であり、RAM13から取得した画像や制御プログラムの実行結果等を表示する。
操作入力装置17は、キーボードやマウス等のユーザからの操作を入力する装置である。後述するユーザ入力(ユーザからの指示入力)は、この操作入力装置17を介して取得する。
接続バス18は、画像認証装置1を構成する各装置を接続して相互にデータ通信を行う。
The secondary storage device 14 is a rewritable secondary storage device such as a hard disk or a flash memory, and stores images received from the cameras 2 to 4 via the communication device 15. Further, the secondary storage device 14 stores information such as control programs, various setting contents, and processing results as necessary. Information stored in the secondary storage device 14 is output to the RAM 13 as necessary, and is used by the CPU 11 to execute a control program.
The communication device 15 is a wired communication unit, for example, and performs data communication with the cameras 2 to 4 via the network 5. Note that the communication device 15 may be a wireless communication unit.
The video output device 16 is a monitor device such as a CRT or a TFT liquid crystal, and displays an image acquired from the RAM 13, an execution result of the control program, and the like.
The operation input device 17 is a device for inputting an operation from a user such as a keyboard and a mouse. User input (instruction input from the user) to be described later is acquired via the operation input device 17.
The connection bus 18 connects the devices constituting the image authentication device 1 and performs data communication with each other.

なお、本実施形態では、後述する処理を、画像認証装置1のCPU11を用いてソフトウェアで実現することとして説明するが、画像認証装置1の処理の一部または全部をハードウェアで実現するようにしても構わない。この場合のハードウェアとして、例えば専用回路(ASIC)や、プロセッサ(リコンフィギュラブルプロセッサ、DSP)等を用いることができる。
また、後述する処理を記述したソフトウェアをネットワークまたは各種記憶媒体を介して取得し、パーソナルコンピュータ等の処理装置(CPU、プロセッサ)にて実行してもよい。
また、カメラ2〜4が画像認証装置1の認証処理の一部または全部を実行するようにしても構わない。その場合は、画像認証装置1で行うものとした処理に必要なハードウェアを、カメラ2〜4がそれぞれ備えるようにすればよい。
In the present embodiment, the processing described later is described as being realized by software using the CPU 11 of the image authentication device 1, but part or all of the processing of the image authentication device 1 is realized by hardware. It doesn't matter. As hardware in this case, for example, a dedicated circuit (ASIC), a processor (reconfigurable processor, DSP), or the like can be used.
Further, software describing processing described later may be acquired via a network or various storage media and executed by a processing device (CPU, processor) such as a personal computer.
Further, the cameras 2 to 4 may execute part or all of the authentication processing of the image authentication apparatus 1. In that case, the cameras 2 to 4 may be provided with hardware necessary for processing performed by the image authentication apparatus 1.

<画像認証装置の機能構成>
図2は、本実施形態における画像認証装置1において制御プログラムを実行することによって実現される機能構成の一例を示したブロック図である。本実施形態の画像認証装置1は、認証画像取得部21、局所領域設定部22、特徴抽出部23、特徴記憶部24、辞書登録部25、類似度算出パラメタ算出部26、類似度算出パラメタ記憶部27、類似度算出部28、認証結果判定部29、表示部30を備えている。
認証画像取得部21は、カメラ2〜4から取得した撮像画像をもとに、認証対象である認証画像(認証対象画像)を取得し、局所領域設定部22へ出力する。ここで、「認証画像」とは、認証対象のオブジェクトが写った画像であり、本実施形態では人物の顔が写った画像である。
<Functional configuration of image authentication device>
FIG. 2 is a block diagram illustrating an example of a functional configuration realized by executing a control program in the image authentication apparatus 1 according to the present embodiment. The image authentication apparatus 1 according to the present embodiment includes an authentication image acquisition unit 21, a local region setting unit 22, a feature extraction unit 23, a feature storage unit 24, a dictionary registration unit 25, a similarity calculation parameter calculation unit 26, and a similarity calculation parameter storage. Unit 27, similarity calculation unit 28, authentication result determination unit 29, and display unit 30.
The authentication image acquisition unit 21 acquires an authentication image (authentication target image) that is an authentication target based on the captured images acquired from the cameras 2 to 4, and outputs the authentication image to the local region setting unit 22. Here, the “authentication image” is an image in which an object to be authenticated is captured, and in the present embodiment, is an image in which a human face is captured.

局所領域設定部22は、認証画像取得部21から取得した認証画像から、人物の顔の目や鼻といった特徴点の座標情報を抽出し、抽出した特徴点をもとに局所領域を設定する。そして、局所領域設定部22は、局所領域を認証画像とともに特徴抽出部23へ出力する。
特徴抽出部23は、局所領域設定部22から取得した認証画像の局所領域から抽出した特徴量を、特徴記憶部24に出力する。さらに、特徴抽出部23は、抽出した特徴量を、辞書登録部25、類似度算出パラメタ算出部26にも出力する。なお、本実施形態では、特徴量は認証画像の局所領域毎に抽出されるものとする。
特徴記憶部24は、特徴抽出部23から取得した特徴量を二次記憶装置14に記憶する。RAM13に記憶するようにしてもよい。記憶した特徴量は要求に応じて、類似度算出部28へ出力する。
The local region setting unit 22 extracts coordinate information of feature points such as eyes and nose of a person's face from the authentication image acquired from the authentication image acquisition unit 21, and sets a local region based on the extracted feature points. Then, the local region setting unit 22 outputs the local region together with the authentication image to the feature extraction unit 23.
The feature extraction unit 23 outputs the feature amount extracted from the local region of the authentication image acquired from the local region setting unit 22 to the feature storage unit 24. Further, the feature extraction unit 23 also outputs the extracted feature amount to the dictionary registration unit 25 and the similarity calculation parameter calculation unit 26. In the present embodiment, the feature amount is extracted for each local region of the authentication image.
The feature storage unit 24 stores the feature amount acquired from the feature extraction unit 23 in the secondary storage device 14. You may make it memorize | store in RAM13. The stored feature amount is output to the similarity calculation unit 28 upon request.

辞書登録部25は、特徴抽出部23から取得した特徴量を、登録辞書のデータとして二次記憶装置14に記憶する。あるいは登録辞書をRAM13に記憶するようにしてもよい。ここで、「登録辞書」とは、特徴量と、その特徴量に対応する人物ID(一般的には、人物名等)とを紐付けたデータのセットである。人物IDの取得方法については後述する。登録辞書には複数の人物の特徴量が含まれてもよいし、一人の人物について複数の特徴量を含んでもよい。また、登録辞書は、要求に応じて、類似度算出パラメタ算出部26、類似度算出部28に出力される。
類似度算出パラメタ算出部26は、特徴抽出部23から取得した特徴量、または、辞書登録部25から取得した登録辞書の特徴量をもとに類似度算出パラメタを算出し、類似度算出パラメタ記憶部27に出力する。類似度算出パラメタの算出処理詳細は後述する。
The dictionary registration unit 25 stores the feature amount acquired from the feature extraction unit 23 in the secondary storage device 14 as registration dictionary data. Alternatively, the registration dictionary may be stored in the RAM 13. Here, the “registration dictionary” is a set of data in which a feature quantity is associated with a person ID (generally, a person name or the like) corresponding to the feature quantity. A method for acquiring the person ID will be described later. The registration dictionary may include feature amounts of a plurality of persons, or may include a plurality of feature amounts for one person. The registration dictionary is output to the similarity calculation parameter calculation unit 26 and the similarity calculation unit 28 in response to a request.
The similarity calculation parameter calculation unit 26 calculates a similarity calculation parameter based on the feature amount acquired from the feature extraction unit 23 or the feature amount of the registered dictionary acquired from the dictionary registration unit 25, and stores the similarity calculation parameter storage To the unit 27. Details of the calculation processing of the similarity calculation parameter will be described later.

類似度算出パラメタ記憶部27は、類似度算出パラメタ算出部26から取得した類似度算出パラメタを二次記憶装置14に記憶する。記憶した類似度算出パラメタは、要求に応じて、類似度算出部28へ出力される。
類似度算出部28は、特徴記憶部24から取得した特徴量と辞書登録部25から取得した登録辞書との間の類似度を、類似度算出パラメタ記憶部27から取得した類似度算出パラメタをもとに算出する。算出した類似度は認証結果判定部29へ出力される。
認証結果判定部29は、類似度算出部28から取得した類似度をもとに、認証結果、すなわち、認証画像中の人物が登録辞書の中の誰なのか、または、誰でもないのかを判定する。認証結果は、表示部30へ出力される。
表示部30は、認証結果判定部29から取得した認証結果を映像出力装置16に表示する。
The similarity calculation parameter storage unit 27 stores the similarity calculation parameter acquired from the similarity calculation parameter calculation unit 26 in the secondary storage device 14. The stored similarity calculation parameter is output to the similarity calculation unit 28 upon request.
The similarity calculation unit 28 uses the similarity calculation parameter acquired from the similarity calculation parameter storage unit 27 as the similarity between the feature amount acquired from the feature storage unit 24 and the registration dictionary acquired from the dictionary registration unit 25. And calculate. The calculated similarity is output to the authentication result determination unit 29.
The authentication result determination unit 29 determines, based on the similarity acquired from the similarity calculation unit 28, who is the authentication result, that is, who is the person in the authentication image or who is not in the registration dictionary. To do. The authentication result is output to the display unit 30.
The display unit 30 displays the authentication result acquired from the authentication result determination unit 29 on the video output device 16.

<全体処理概要>
本実施形態における処理は、類似度算出パラメタ算出処理と、監視・認証処理と、辞書登録処理の3つの処理とを有している。類似度算出パラメタ算出処理では、設置されたカメラ2〜4に対応する類似度算出パラメタを算出する。監視・認証処理では、カメラ2〜4を使って撮像画像を撮り貯めつつ、特定人物が写っているかを判定する。辞書登録処理では、認証すべき人物の特徴量を登録辞書に追加する。
なお、各処理の開始時には、既に、カメラ2〜4が異なる場所に設置され、画像認証装置1は直ちにカメラ2〜4から画像を取得して後述する処理を開始できる状態であるものとする。
<Overview of overall processing>
The process according to the present embodiment includes three processes: a similarity calculation parameter calculation process, a monitoring / authentication process, and a dictionary registration process. In the similarity calculation parameter calculation process, a similarity calculation parameter corresponding to the installed cameras 2 to 4 is calculated. In the monitoring / authentication process, it is determined whether a specific person is captured while taking and storing captured images using the cameras 2 to 4. In the dictionary registration process, the feature amount of the person to be authenticated is added to the registration dictionary.
Note that at the start of each process, it is assumed that the cameras 2 to 4 are already installed in different locations, and the image authentication apparatus 1 is ready to immediately acquire images from the cameras 2 to 4 and start the process described later.

図3は、本実施形態における画像認証システムが、映像出力装置16に表示するコンソール画面の一例を示した図である。このコンソール画面40には、動作モードを指示するボタン41〜43と、各種設定を指示するボタン44と、終了を指示するボタン45と、ポインタ46とが表示されている。これにより、どの処理を実行するかのメニューが表示されている。ユーザは、操作入力装置17を操作し、ポインタ46によりメニュー中の処理を選択する。「監視・認証モード」、「辞書登録モード」、「調整モード」のいずれかのボタン41〜43を選択することで、画像認証装置1は、後述する処理を実行する。
例えば、ユーザがポインタ46により「設定」のボタン44を選択すると、画像認証装置1は、本実施形態の画像認証システムの各種設定を変更する処理を実行する。また、ユーザがポインタ46により「終了」のボタン45を選択すると、画像認証装置1は、本実施形態の画像認証システムを終了する。
FIG. 3 is a diagram illustrating an example of a console screen displayed on the video output device 16 by the image authentication system according to the present embodiment. On this console screen 40, buttons 41 to 43 for instructing an operation mode, buttons 44 for instructing various settings, a button 45 for instructing termination, and a pointer 46 are displayed. Thereby, a menu indicating which process is executed is displayed. The user operates the operation input device 17 and selects a process in the menu with the pointer 46. By selecting any one of the buttons 41 to 43 of “monitoring / authentication mode”, “dictionary registration mode”, and “adjustment mode”, the image authentication device 1 executes processing to be described later.
For example, when the user selects the “setting” button 44 with the pointer 46, the image authentication apparatus 1 executes processing for changing various settings of the image authentication system of the present embodiment. When the user selects the “end” button 45 with the pointer 46, the image authentication apparatus 1 ends the image authentication system of the present embodiment.

<監視・認証処理>
まず、本実施形態の画像認証装置1が、カメラ2〜4を使って人物の画像データを撮像しつつ、ユーザ入力に従って認証することで、特定人物が写っているか判定する監視・認証処理を説明する。この処理は、ユーザが操作入力装置17を操作し、ポインタ46で図3のコンソール画面40の「監視・認証モード」のボタン41を指示することで実行される。
なお、この監視・認証処理の間、カメラ2〜4は常に撮像を続け、二次記憶装置14に撮像画像を記憶し続けているものとする。このとき、画像認証装置1は、撮像画像がどのカメラで撮像されたのかを示すラベルと対応付けて記憶しておく。
また、この監視・認証処理は、操作入力装置17を介して取得するユーザ入力に応じて処理が進む。ユーザ入力として、監視・認証処理を終了する「終了指示」と、画像認証を実行させる「認証指示」の2つがある。この2つのユーザ入力は、図4に示す監視・認証処理の処理中ならば、いつでも受け取ることができるものとする。
<Monitoring / authentication processing>
First, the monitoring / authentication process in which the image authentication apparatus 1 according to the present embodiment determines whether a specific person is captured by authenticating according to a user input while capturing image data of a person using the cameras 2 to 4 will be described. To do. This process is executed by the user operating the operation input device 17 and pointing the “monitoring / authentication mode” button 41 on the console screen 40 of FIG.
Note that during this monitoring / authentication process, the cameras 2 to 4 always capture images, and continue to store captured images in the secondary storage device 14. At this time, the image authentication device 1 stores the image in association with a label indicating which camera has captured the captured image.
The monitoring / authentication process proceeds according to a user input acquired via the operation input device 17. There are two types of user input: “end instruction” for ending the monitoring / authentication process and “authentication instruction” for executing image authentication. These two user inputs can be received at any time during the monitoring / authentication process shown in FIG.

図4は、画像認証装置1が実行する監視・認証処理の処理フローの一例を示したものである。この図を参照しながら、実際の処理について詳細を説明する。
まず、認証画像取得部21は、ユーザ入力の「終了指示」がある(S1でYes)場合、この処理フローを終了する。「終了指示」がない場合(S1でNo)、さらにユーザ入力の「認証指示」がある場合(S2でYes)、認証画像を取得する(S3)。認証画像は、前述の通り、人物の顔が写る画像である。認証画像を取得するには、二次記憶装置14に記憶された撮像画像から人物の顔を検出し、検出した人物の顔を切り出せばよい。撮像画像から人物の顔を検出する方法については、公知の技術を用いればよい。
例えば、以下の文献に開示された技術を用いることができる。
P.Viola and M.Jones,“Robust Real−Time Face Detection”, In page II: 747, 2001.
検出した顔の画像上の座標に基づいて、撮像画像から顔の画像を切り出す。このとき、画像面に対する顔の面内回転を一定にするため画像正規化を施してもよい。例えば、顔の両目をつなぐ直線が、画像に対して水平になるように画像を回転させる、等の処理を施してもよい。
FIG. 4 shows an example of the processing flow of the monitoring / authentication process executed by the image authentication apparatus 1. The actual processing will be described in detail with reference to this figure.
First, the authentication image acquisition unit 21 ends this processing flow when there is a “termination instruction” of user input (Yes in S1). If there is no “end instruction” (No in S1), and if there is an “authentication instruction” input by the user (Yes in S2), an authentication image is acquired (S3). As described above, the authentication image is an image showing a person's face. In order to acquire the authentication image, it is only necessary to detect a human face from the captured image stored in the secondary storage device 14 and cut out the detected human face. As a method for detecting a human face from a captured image, a known technique may be used.
For example, the techniques disclosed in the following documents can be used.
P. Viola and M.M. Jones, “Robust Real-Time Face Detection”, In page II: 747, 2001.
Based on the detected coordinates on the face image, the face image is cut out from the captured image. At this time, image normalization may be performed to make the in-plane rotation of the face relative to the image plane constant. For example, processing such as rotating the image so that the straight line connecting both eyes of the face is horizontal to the image may be performed.

本実施形態では、二次記憶装置14に記憶された複数の撮像画像から人物の顔を検出し、検出した人物の顔、すなわち認証画像を切り出す。どの撮像画像を検出、切り出しの処理対象とするかはユーザに選択させればよい。例えば、ユーザに時間の範囲を指定させ、その時間の範囲内で撮像された撮像画像を処理対象とするようにしてもよい。
続いて、局所領域設定部22が、すべての認証画像に対して局所領域を設定する(S4)。ここでは、まず、顔の目や鼻といった器官の位置(器官位置)を検出し、検出した器官位置を基に局所領域を設定する。すなわち、局所領域設定部22は、1つの認証対象画像に対して複数の局所領域を設定する。
In the present embodiment, a human face is detected from a plurality of captured images stored in the secondary storage device 14, and the detected human face, that is, an authentication image is cut out. The user may select which captured image is to be detected and cut out. For example, the user may designate a time range, and a captured image captured within the time range may be set as a processing target.
Subsequently, the local region setting unit 22 sets a local region for all authentication images (S4). Here, first, the position of an organ (organ position) such as the eyes and nose of the face is detected, and a local region is set based on the detected organ position. That is, the local area setting unit 22 sets a plurality of local areas for one authentication target image.

図5は、認証画像に設定された局所領域を模式的に示した図である。この図に示すように、認証画像すなわち人物の顔画像50に対して右目の局所領域51、左目の局所領域52、口の局所領域53が設定されている。
なお、本実施形態では、検出した器官位置を中心とする矩形領域を局所領域として設定しているが、局所領域の設定方法は他の方法を用いてもよい。器官位置を中心とする矩形領域でなくてもよい。例えば、器官位置から所定の画素数離れた位置を基準とした領域でもよいし、矩形領域ではなく円形領域でもよい。また、検出した器官位置を基準としないで、顔画像の所定の領域を事前に定めておいてもよい。また、一つの器官位置に対して複数の局所領域を設定してもよいし、局所領域の数は図5で示した3つに限るものではない。
器官位置を検出する方法については公知の技術を用いればよい。例えば、特開2009−211177号公報に開示された技術を用いることができる。
FIG. 5 is a diagram schematically showing a local region set in the authentication image. As shown in this figure, a local region 51 for the right eye, a local region 52 for the left eye, and a local region 53 for the mouth are set for the authentication image, that is, the human face image 50.
In the present embodiment, a rectangular area centered on the detected organ position is set as a local area. However, other methods may be used as the local area setting method. It may not be a rectangular area centered on the organ position. For example, it may be an area based on a position that is a predetermined number of pixels away from the organ position, or may be a circular area instead of a rectangular area. Further, a predetermined area of the face image may be determined in advance without using the detected organ position as a reference. A plurality of local regions may be set for one organ position, and the number of local regions is not limited to three shown in FIG.
As a method for detecting the organ position, a known technique may be used. For example, the technique disclosed in Japanese Patent Application Laid-Open No. 2009-211177 can be used.

続いて、特徴抽出部23が、認証画像の各局所領域から特徴量を抽出する(S5)。特徴量を抽出する方法に関しては公知の技術を用いればよい。例えば、LBP(Local Binary Pattern)特徴量を用いることができる。あるいは、HOG(Histogram of Oriented Gradient)特徴量やSIFT(Scale−Invariant Feature Transform)特徴量を用いてもよい。また、これらを混合した特徴量を用いてもよい。事前に学習したCNN(Convolutional Neural Network)で抽出した特徴量を用いてもよい。また、抽出した特徴量を、PCA(Principal Component Analysis)等を使って次元圧縮してもよい。
続いて、特徴記憶部24が、抽出した特徴量を二次記憶装置14に記憶する(S6)。あるいは、特徴量をRAM13に記憶するようにしてもよい。
Subsequently, the feature extraction unit 23 extracts a feature amount from each local region of the authentication image (S5). A known technique may be used as a method for extracting the feature amount. For example, LBP (Local Binary Pattern) feature values can be used. Alternatively, a HOG (Histogram of Oriented Gradient) feature amount or a SIFT (Scale-Invariant Feature Transform) feature amount may be used. Moreover, you may use the feature-value which mixed these. You may use the feature-value extracted by CNN (Convolutional Neural Network) learned beforehand. Further, the extracted feature quantity may be dimensionally compressed using PCA (Principal Component Analysis) or the like.
Subsequently, the feature storage unit 24 stores the extracted feature amount in the secondary storage device 14 (S6). Alternatively, the feature amount may be stored in the RAM 13.

続いて、画像認証処理を行う(S7)。画像認証処理について以下、詳細に説明する。図6は、画像認証処理の処理フローの一例を示した図である。
はじめに、類似度算出部28が、辞書登録部25から登録辞書を取得する(S11)。登録辞書は、ユーザが認証したい人物の画像の特徴量を事前に登録しておいたものであり、事前にユーザによって登録されているものとする。辞書登録処理については後述する。
続いて、類似度算出部28が、類似度算出パラメタを類似度算出パラメタ記憶部27から取得する(S12)。なお、この類似度算出パラメタは、事前に算出しておき、類似度算出パラメタ記憶部27に記憶してあるものとする。類似度算出パラメタの算出処理については後述する。
続いて、類似度算出部28が、特徴記憶部24から認証対象となる特徴量を取得する(S13)。前述の通り、このとき取得する特徴量は、認証画像から取得された少なくとも一つ以上の特徴量である。一つの特徴量は、人物の顔一つに対応している。また、本実施形態では、顔一つに対して局所領域毎に特徴量を抽出しているので、一つの特徴量は複数の局所領域毎の特徴量を含む。
Subsequently, an image authentication process is performed (S7). The image authentication process will be described in detail below. FIG. 6 is a diagram illustrating an example of a processing flow of image authentication processing.
First, the similarity calculation unit 28 acquires a registration dictionary from the dictionary registration unit 25 (S11). The registration dictionary is obtained by registering in advance the feature amount of the image of the person the user wants to authenticate, and is registered in advance by the user. The dictionary registration process will be described later.
Subsequently, the similarity calculation unit 28 acquires a similarity calculation parameter from the similarity calculation parameter storage unit 27 (S12). It is assumed that the similarity calculation parameter is calculated in advance and stored in the similarity calculation parameter storage unit 27. The calculation process of the similarity calculation parameter will be described later.
Subsequently, the similarity calculation unit 28 acquires a feature quantity to be authenticated from the feature storage unit 24 (S13). As described above, the feature amount acquired at this time is at least one feature amount acquired from the authentication image. One feature amount corresponds to one face of a person. In the present embodiment, since feature amounts are extracted for each local region for one face, one feature amount includes feature amounts for a plurality of local regions.

続いて、類似度算出部28が、認証対象の特徴量と登録辞書のすべての特徴量との組み合わせについて、局所類似度を算出する(S14)。ここで、「局所類似度」とは、局所領域毎に算出された類似度のことである。前述の通り、認証対象の特徴量および登録辞書は局所領域毎に抽出された特徴量であるため、局所領域毎に類似度を算出する。ある局所領域一つについての局所類似度の算出方法を以下に説明する。
類似度算出方法としては、公知の技術を用いることができる。例えば、以下の式(1)に示すコサイン類似度を用いることができる。
Subsequently, the similarity calculation unit 28 calculates the local similarity for the combination of the feature quantity to be authenticated and all the feature quantities in the registration dictionary (S14). Here, the “local similarity” is a similarity calculated for each local region. As described above, since the feature quantity to be authenticated and the registered dictionary are the feature quantities extracted for each local area, the similarity is calculated for each local area. A method for calculating the local similarity for one local region will be described below.
As a similarity calculation method, a known technique can be used. For example, the cosine similarity shown in the following formula (1) can be used.

Figure 2018049566
ここで、・は内積を意味し、Sは特徴量ベクトルx’、y’間の類似度である。さらに、特徴量ベクトルx’、y’を以下の式(2)、式(3)で示す。
x’=x−μ (2)
y’=y−μ (3)
と表す。
Figure 2018049566
Here, · means an inner product, and S is the similarity between the feature quantity vectors x ′ and y ′. Furthermore, feature quantity vectors x ′ and y ′ are represented by the following formulas (2) and (3).
x ′ = x c −μ c (2)
y ′ = y−μ c (3)
It expresses.

はカメラcで撮像された認証画像から抽出した特徴量ベクトルを表す。yは、登録辞書に登録された特徴量ベクトルを表す。μは角度算出の原点ベクトルである。すなわち、式(1)は、特徴量ベクトルx、y間のコサイン類似度を、μを原点として、測っている。このμが本実施形態における類似度算出パラメタである。μの算出方法については後述する。
ここまで、ある局所領域一つについての類似度の算出方法を述べた。他の局所領域についても同様に類似度を算出する。
続いて、類似度算出部28が、認証対象のすべての特徴量と登録辞書の組み合わせについて、算出した局所類似度をもとに統合類似度を算出する(S15)。ここで、「統合類似度」とは、局所領域毎に算出された複数の局所類似度を統合した類似度である。
統合の方法については公知の技術を用いればよい。例えば、局所類似度の平均、局所類似度の最大値を選択する、等の方法を用いることができる。このほか、局所領域毎の重みを事前に算出しておき、局所類似度をその重みつき平均で統合するようにしてもよい。なお、本実施形態において、局所類似度算出(S14)と統合類似度算出(S15)の2つを合わせて類似度算出と呼ぶ。また、算出した統合類似度は、値のレンジが例えば1〜1000になるよう正規化処理を施してもよい。
x c represents a feature vector extracted from the authentication image captured by the camera c. y represents a feature vector registered in the registration dictionary. μ c is an origin vector for angle calculation. That is, Equation (1) measures the cosine similarity between the feature vectors x c and y with μ c as the origin. The mu c is similarity calculation parameters in the present embodiment. method will be described later calculation of mu c.
Up to this point, the method for calculating the similarity for one local region has been described. Similarities are similarly calculated for other local regions.
Subsequently, the similarity calculation unit 28 calculates the integrated similarity based on the calculated local similarity for all the combinations of the feature quantities to be authenticated and the registered dictionary (S15). Here, the “integrated similarity” is a similarity obtained by integrating a plurality of local similarities calculated for each local region.
A known technique may be used for the integration method. For example, it is possible to use a method such as selecting an average of local similarity and a maximum value of local similarity. In addition, the weight for each local region may be calculated in advance, and the local similarity may be integrated with the weighted average. In the present embodiment, the local similarity calculation (S14) and the integrated similarity calculation (S15) are collectively referred to as similarity calculation. Further, the calculated integrated similarity may be normalized so that the value range is, for example, 1 to 1000.

続いて、認証結果判定部29が、認証対象の画像中のすべての人物に対して、登録辞書のうち誰なのか、または誰でもないかを、統合類似度を基に判定をする(S16)。具体的には、最も高い統合類似度が、事前に定めた閾値よりも大きければ、認証結果判定部29は、その統合類似度に対応する登録辞書の人物であると判定する。逆に、最も高い類似度が、事前に定めた閾値以下の場合は、認証結果判定部29は、登録辞書のうちの誰でもない、と判定する。
以上で、図6の画像認証処理を終了する。
この後、図4のS7に戻り、続く処理を実行する。すなわち、表示部30は、認証結果判定部29から取得した認証結果を表示する(S8)。
Subsequently, the authentication result determination unit 29 determines who is or is not in the registration dictionary for all persons in the authentication target image based on the integrated similarity (S16). . Specifically, if the highest integrated similarity is greater than a predetermined threshold, the authentication result determination unit 29 determines that the person is in the registered dictionary corresponding to the integrated similarity. Conversely, if the highest similarity is equal to or less than a predetermined threshold, the authentication result determination unit 29 determines that no one is in the registration dictionary.
Thus, the image authentication process of FIG. 6 is completed.
Thereafter, the process returns to S7 in FIG. 4 and the subsequent processing is executed. That is, the display unit 30 displays the authentication result acquired from the authentication result determination unit 29 (S8).

図7は、認証結果の表示画面の一例を模式的に示した図である。この図7に示すように、この表示画面60には、登録辞書に登録された人物の画像(この例では人物A)61a、61bが左列に表示され、認証結果が右列に表示されている。本実施形態では、認証画像のうち、本人と判定された人物の画像62a〜62cと、それに対応する類似度63a〜63c、撮像したカメラ名、撮像時刻が表示されている。このように表示することで、登録辞書に登録された人物がいつ、どのカメラに写ったのかを確認することができる。
以上が、監視・認証処理である。
FIG. 7 is a diagram schematically illustrating an example of a display screen of the authentication result. As shown in FIG. 7, on this display screen 60, images of persons registered in the registration dictionary (in this example, person A) 61a, 61b are displayed in the left column, and authentication results are displayed in the right column. Yes. In the present embodiment, among the authentication images, images 62a to 62c of persons who are determined to be the principal, similarities 63a to 63c corresponding to the images, the names of the captured cameras, and imaging times are displayed. By displaying in this way, it is possible to confirm when and on which camera the person registered in the registration dictionary was captured.
The above is the monitoring / authentication process.

本実施形態では、認証画像の特徴量を予め記憶しておき、ユーザの認証指示があった時点で画像認証処理を実行するようにしたが、これに限定されず、特徴量を抽出した時点で画像認証処理を実行するようにしてもよい。
また、本実施形態では、監視・認証処理フロー(図4)のS3で取得したすべての認証画像に対して画像認証処理を実行したが、一部の認証画像を選択して画像認証処理を実行するようにしてもよい。例えば、所定の間隔で認証画像を間引いておいてもよいし、認証画像から抽出した特徴量をクラスタリングして、一つのクラスタから代表の特徴量を選んで画像認証処理をするようにしてもよい。
In the present embodiment, the feature amount of the authentication image is stored in advance, and the image authentication process is executed when the user authentication instruction is given. However, the present invention is not limited to this, and the feature amount is extracted. Image authentication processing may be executed.
In this embodiment, the image authentication process is executed for all the authentication images acquired in S3 of the monitoring / authentication process flow (FIG. 4). However, a part of the authentication images is selected and the image authentication process is executed. You may make it do. For example, authentication images may be thinned out at predetermined intervals, or feature amounts extracted from authentication images may be clustered, and a representative feature amount may be selected from one cluster for image authentication processing. .

<類似度算出パラメタ算出処理>
次に、本実施形態の画像認証装置1が、設置したカメラ2〜4それぞれに対応する類似度算出パラメタを算出する処理について説明する。この処理は、図3のコンソール画面から「調整モード」を選択することで実行される。この処理は、前述した監視・認証処理よりも時間的に前に実施しておくのが好ましい。これにより、カメラの設置場所や画角毎に適した類似度算出パラメタで監視・認証処理を行うことがでる。
図8は、類似度算出パラメタ算出処理の処理フローの一例を示したものである。この図を参照しながら、実際の処理について詳細を説明する。
なお、このフローの開始時から終了時までカメラ2〜4は所定のフレームレートで画像を撮像し続け、撮像画像を二次記憶装置14へ記憶し続けているものとする。
<Similarity calculation parameter calculation processing>
Next, processing in which the image authentication apparatus 1 according to the present embodiment calculates similarity calculation parameters corresponding to the installed cameras 2 to 4 will be described. This process is executed by selecting “adjustment mode” from the console screen of FIG. This process is preferably performed before the above-described monitoring / authentication process. As a result, the monitoring / authentication process can be performed with the similarity calculation parameter suitable for each camera installation location and angle of view.
FIG. 8 shows an example of the processing flow of similarity calculation parameter calculation processing. The actual processing will be described in detail with reference to this figure.
It is assumed that the cameras 2 to 4 continue to capture images at a predetermined frame rate from the start to the end of this flow, and continue to store the captured images in the secondary storage device 14.

始めに、認証画像取得部21が、類似度算出パラメタの算出が完了していないカメラを一つ選択する(S21)。
続いて、同じく認証画像取得部21が、二次記憶装置14に記憶された画像の中から、S21で選択したカメラで撮像された撮像画像を選択し、その撮像画像から人物の顔画像を取得する(S22)。撮像画像がどのカメラで撮像されたかを知るには、撮像画像に紐づけて記憶したラベルを参照すればよい。また、撮像画像から人物の顔画像を取得する方法については、前述の監視・認証処理で説明した方法と同様であるため、説明を省略する。なお、本実施形態では二次記憶装置14に記憶した撮像画像を取得するようにしたが、各カメラから直接、撮像画像を取得するようにしてもよい。
First, the authentication image acquisition unit 21 selects one camera for which the calculation of the similarity calculation parameter has not been completed (S21).
Subsequently, the authentication image acquisition unit 21 selects a captured image captured by the camera selected in S21 from the images stored in the secondary storage device 14, and acquires a human face image from the captured image. (S22). In order to know which camera has captured the captured image, a label stored in association with the captured image may be referred to. The method for acquiring a person's face image from the captured image is the same as the method described in the above-described monitoring / authentication process, and thus the description thereof is omitted. In the present embodiment, the captured image stored in the secondary storage device 14 is acquired. However, the captured image may be acquired directly from each camera.

局所領域設定(S23)と特徴量抽出(S24)については、前述の方法と同様であるため、説明を省略する。
続いて、特徴記憶部24が、特徴量を記憶する(S25)。このとき、本実施形態では、類似度算出パラメタ算出用に抽出した特徴量であることを示すラベルを特徴量に紐付けて記憶する。
続いて、類似度算出パラメタ算出用に抽出された特徴量の数が事前に定めた所定数より少なければ(S26でNo)、S22に戻り、続く処理を繰り返す。すなわち、類似度算出パラメタを算出するのに十分な数の特徴量が集まるまで、特徴量の収集(抽出と記憶)を繰り返す。収集した特徴量が所定数より多ければ(S26でYes)、S27に進む。
続いて、類似度算出パラメタ算出部26が、収集した特徴量を使って類似度算出パラメタを算出する(S27)。前述の通り、本実施形態における類似度算出パラメタはコサイン類似度の原点である。以下、ある局所領域一つに対応する類似度算出パラメタの算出方法について説明する。
カメラcに対応する原点μは下記式(4)の通り、設置したカメラ毎に集めた特徴量ベクトルxciを平均することで算出する。
Since the local region setting (S23) and the feature amount extraction (S24) are the same as those described above, the description thereof is omitted.
Subsequently, the feature storage unit 24 stores the feature amount (S25). At this time, in the present embodiment, a label indicating the feature amount extracted for calculating the similarity calculation parameter is stored in association with the feature amount.
Subsequently, if the number of feature amounts extracted for calculating the similarity calculation parameter is less than a predetermined number (No in S26), the process returns to S22 and the subsequent processing is repeated. That is, feature amount collection (extraction and storage) is repeated until a sufficient number of feature amounts are collected to calculate the similarity calculation parameter. If the collected feature quantity is greater than the predetermined number (Yes in S26), the process proceeds to S27.
Subsequently, the similarity calculation parameter calculation unit 26 calculates a similarity calculation parameter using the collected feature amount (S27). As described above, the similarity calculation parameter in the present embodiment is the origin of cosine similarity. Hereinafter, a method of calculating the similarity calculation parameter corresponding to one local area will be described.
The origin μ c corresponding to the camera c is calculated by averaging the feature quantity vectors x ci collected for each installed camera as shown in the following formula (4).

Figure 2018049566
ここで、xciはカメラcが撮像した認証画像から収集したi番目の特徴量ベクトルであることを示している。また、Nは収集した特徴量ベクトルのサンプル数である。この原点μ、すなわち類似度算出パラメタを用いて、監視・認証処理で類似度を算出する。
Figure 2018049566
Here, x ci indicates the i-th feature vector collected from the authentication image captured by the camera c. N is the number of collected feature vector samples. Using this origin μ c , that is, the similarity calculation parameter, the similarity is calculated by the monitoring / authentication process.

図9は、原点を算出したことによる効果を模式的に表した図であり、あるカメラで撮像された、ある局所領域の特徴ベクトル空間を表している。図中の白丸の点はそれぞれ特徴量ベクトルを表しており、特徴量ベクトルの集合すなわちクラスタを点線で表している。図9は、事前に定めた原点71、設置したカメラで集めた認証画像の特徴量ベクトルクラスタ72、人物Aの特徴量ベクトルクラスタ73、人物Bの特徴量ベクトルクラスタ74、設置したカメラで集めた認証画像を基に算出した原点75を示している。コサイン類似度のように、角度をベースにした類似度を算出する場合、認証対象となる特徴量ベクトルが作るクラスタの内側に原点があるほうが、特徴量ベクトルを区別する分解能が高い。   FIG. 9 is a diagram schematically showing an effect obtained by calculating the origin, and represents a feature vector space of a certain local region imaged by a certain camera. Each white dot in the figure represents a feature vector, and a set of feature vectors, that is, a cluster, is represented by a dotted line. FIG. 9 shows a predetermined origin 71, a feature vector cluster 72 of the authentication image collected by the installed camera, a feature vector cluster 73 of the person A, a feature vector cluster 74 of the person B, and collected by the installed camera. The origin 75 calculated based on the authentication image is shown. When calculating similarity based on an angle like cosine similarity, the resolution of distinguishing feature vectors is higher when the origin is inside the cluster created by the feature vector to be authenticated.

事前に定めた原点71は、認証対象の特徴ベクトルが作るクラスタの外側にあるため、例えば人物Aの特徴量ベクトル(73内の特徴量ベクトルのいずれか)と人物Bの特徴量ベクトルは、事前に定めた原点71を基準に角度を測ると角度はほとんど0に近い。そのため、コサイン類似度を算出すると、本来は別人であるはずが、誤って本人と判定されるような高い類似度が算出されてしまう。事前に定めた原点71は、一般的には、事前に用意した大量の認証画像をもとに算出しておく。   Since the predetermined origin 71 is outside the cluster created by the feature vector to be authenticated, for example, the feature vector of person A (one of the feature vectors in 73) and the feature vector of person B are When the angle is measured with reference to the origin 71 determined in the above, the angle is almost zero. For this reason, when the cosine similarity is calculated, it should be a different person, but a high similarity that is erroneously determined as the principal is calculated. The predetermined origin 71 is generally calculated based on a large number of authentication images prepared in advance.

しかし、設置したカメラで集めた認証画像の特徴量ベクトル分布は、事前に用意した認証画像の特徴量ベクトル分布とは異なっている場合がある。特に、設置したカメラは、画角や場所が制限されるため、特定の照明条件や顔向きの画像が、事前に用意した認証画像に比べ、多くなる。そのような場合に、誤った高い類似度が算出されてしまい、誤認証につながる。そこで、設置したカメラで集めた認証画像を基に算出した原点75を使うことで、設置したカメラで集めた認証画像の特徴量ベクトルクラスタ72の内側に入ることになる。これにより、カメラの設置場所や画角毎に認証に適した原点を使ってコサイン類似度を算出することができ、誤認証が低減されることが期待される。
しかしながら、設置したカメラで集めた認証画像を基に算出した原点の特徴量空間上の位置が、必ずしも認証に適した位置に来るとは限らない。
However, the feature vector distribution of the authentication image collected by the installed camera may be different from the feature vector distribution of the authentication image prepared in advance. In particular, the installed camera has a limited angle of view and location, so that images with specific lighting conditions and face orientations are larger than authentication images prepared in advance. In such a case, an erroneously high similarity is calculated, leading to erroneous authentication. Therefore, by using the origin 75 calculated based on the authentication image collected by the installed camera, it enters the inside of the feature vector cluster 72 of the authentication image collected by the installed camera. As a result, the cosine similarity can be calculated using an origin suitable for authentication for each camera installation location and angle of view, and it is expected that false authentication will be reduced.
However, the position of the origin in the feature amount space calculated based on the authentication image collected by the installed camera does not always come to a position suitable for authentication.

図10は、図9と同様に特徴量ベクトル空間を示しており、事前に定めた原点76、設置したカメラで集めた認証画像の特徴量ベクトルクラスタ77、人物Cの特徴量ベクトルクラスタ78、設置したカメラで集めた認証画像を基に算出した原点79を示している。この場合、事前に定めた原点71がコサイン類似度の算出に適さないのは図9と同様であるが、設置したカメラで集めた認証画像を基に算出した原点79が人物Cの特徴量ベクトルクラスタ78の内部に入っている。この場合、コサイン類似度を算出すると、特徴量ベクトルクラスタ78の人物Cと他の人物を誤って本人と判定してしまう誤認証が発生する場合がある。このように、算出した原点が誰かの特徴量ベクトルクラスタの内側に入ってしまう場合、認証に適した原点とは言えない。   FIG. 10 shows a feature vector space as in FIG. 9. A predetermined origin 76, a feature vector cluster 77 of an authentication image collected by an installed camera, a feature vector cluster 78 of a person C, installation The origin 79 calculated based on the authentication images collected by the camera is shown. In this case, the predetermined origin 71 is not suitable for calculating the cosine similarity as in FIG. 9, but the origin 79 calculated based on the authentication image collected by the installed camera is the feature vector of the person C. It is inside the cluster 78. In this case, if the cosine similarity is calculated, erroneous authentication may occur in which the person C of the feature vector cluster 78 and another person are erroneously determined as the principal. Thus, if the calculated origin falls inside someone's feature vector cluster, it cannot be said to be an origin suitable for authentication.

そこで、本実施形態では、認証画像一つに対して一つの特徴量ではなく、複数の局所領域を設定することで複数の特徴量を抽出し、最終的に複数の特徴量毎の類似度を統合して統合類似度を算出している。これにより、算出した類似度算出パラメタが認証に適していない局所領域があった場合の誤認証を低減している。すなわち、ある局所領域で認証に適していない類似度算出パラメタを算出し、別人を本人と判定するような高い類似度を算出したとしても、認証に適した類似度算出パラメタを算出できた他の局所領域の類似度と最終的に統合するため、誤認証の低減が期待できる。   Therefore, in this embodiment, instead of one feature amount for one authentication image, a plurality of feature amounts are extracted by setting a plurality of local regions, and finally the similarity for each of the plurality of feature amounts is obtained. Integrated similarity is calculated. This reduces false authentication when there is a local area where the calculated similarity calculation parameter is not suitable for authentication. In other words, even if a similarity calculation parameter that is not suitable for authentication in a certain local area is calculated, and a high similarity that determines another person as the person is calculated, other similarity calculation parameters that are suitable for authentication can be calculated. Since it is finally integrated with the similarity of the local area, it can be expected to reduce false authentication.

なお、本実施形態では、複数の局所領域を設定することで複数の特徴量を抽出したが、これ以外の方法で複数の特徴量を抽出してもよい。例えば、異なる種類の特徴量を抽出することで複数の特徴量を抽出してもよい。
また、本実施形態では、特徴量ベクトルの平均を原点として用いたがこれに限定されない。この他、別の方法を用いて原点を算出してもよい。例えば、特徴量ベクトルの単純な平均ではなく、重みつき平均を用いてもよい。このとき、認証対象の特徴量ベクトルが作るクラスタの内側に原点がくるように重みの値を正規化するとよい。
以上が、一つの局所領域に対応する類似度算出パラメタの算出方法である。これを、他のすべての局所領域について算出する。
In the present embodiment, a plurality of feature amounts are extracted by setting a plurality of local regions, but a plurality of feature amounts may be extracted by other methods. For example, a plurality of feature amounts may be extracted by extracting different types of feature amounts.
In this embodiment, the average of feature vectors is used as the origin, but the present invention is not limited to this. In addition, the origin may be calculated using another method. For example, a weighted average may be used instead of a simple average of feature vectors. At this time, it is preferable to normalize the weight value so that the origin is inside the cluster created by the feature vector to be authenticated.
The above is the calculation method of the similarity calculation parameter corresponding to one local region. This is calculated for all other local regions.

図8に戻り、続いて、類似度算出パラメタ記憶部27が、算出した類似度算出パラメタを記憶する(S28)。
続いて、全てのカメラに対応する類似度算出パラメタ算出処理が完了していれば(S29でYes)、類似度算出部28は、この類似度算出パラメタ算出処理を完了する。まだ完了していないカメラがあれば(S29でNo)、S21に戻り、画像認証装置1は、続く処理を繰り返す。
以上が類似度算出パラメタ算出処理の説明である。
Returning to FIG. 8, subsequently, the similarity calculation parameter storage unit 27 stores the calculated similarity calculation parameter (S28).
Subsequently, if the similarity calculation parameter calculation process corresponding to all the cameras has been completed (Yes in S29), the similarity calculation unit 28 completes the similarity calculation parameter calculation process. If there is a camera that has not been completed (No in S29), the process returns to S21, and the image authentication apparatus 1 repeats the subsequent processing.
The above is the description of the similarity calculation parameter calculation processing.

図11は、この類似度算出パラメタ算出処理を実行中に表示する画面80の一例を模式的に示した図である。図11は、類似度算出パラメタを調整するために必要な認証画像の画像数(特徴量数)が所定数貯まったことをユーザに提示する様子を模式的に示している。図11には、カメラ2とカメラ3は類似度算出パラメタを算出するのに十分な画像数が集まっており(81a、82a、81b、82b)、カメラ4はまだ不十分であることが示されている(81c、82c)。このように、所定数の画像が貯まったことをユーザに提示することで、類似度算出パラメタを算出するために、あとどの程度の画像数を集めればよいか視覚的にわかるようになっている。   FIG. 11 is a diagram schematically illustrating an example of a screen 80 displayed during execution of the similarity calculation parameter calculation processing. FIG. 11 schematically shows a state in which a predetermined number of authentication image numbers (number of feature quantities) necessary for adjusting the similarity calculation parameter is presented to the user. FIG. 11 shows that the camera 2 and the camera 3 have enough images (81a, 82a, 81b, 82b) to calculate the similarity calculation parameter, and the camera 4 is still insufficient. (81c, 82c). In this way, by indicating to the user that a predetermined number of images have been accumulated, it is possible to visually know how many images should be collected in order to calculate the similarity calculation parameter. .

なお、本実施形態では、すべてのカメラに対応する類似度算出パラメタを算出しないと類似度算出パラメタ算出処理を完了しないようになっているが、これに限定されない。例えば、一部、または、全部の類似度算出パラメタの算出を完了する前に、類似度算出パラメタ算出処理を中断してもよい。その場合は、監視・認証処理の際に使用する類似度算出パラメタは他の方法で用意しておけばよい。例えば、事前に用意しておいたデフォルトの類似度算出パラメタを使うようにしてもよい。または、所定数には足りないものの、各カメラ毎に集めた特徴量で類似度算出パラメタを算出しておいてもよい。または、算出に足りない特徴量を監視・認証処理のバックグラウンドでさらに収集するようにして、所定数に達した時点で類似度算出パラメタを算出するようにしてもよい。その場合は、類似度算出パラメタの算出が終わるまでは、事前に用意したデフォルトの類似度算出パラメタを使用し、算出が終わったら、算出した類似度算出パラメタに差し替えるようにすればよい。   In this embodiment, the similarity calculation parameter calculation processing is not completed unless the similarity calculation parameters corresponding to all the cameras are calculated. However, the present invention is not limited to this. For example, the similarity calculation parameter calculation process may be interrupted before completing the calculation of some or all of the similarity calculation parameters. In that case, the similarity calculation parameter used in the monitoring / authentication process may be prepared by another method. For example, a default similarity calculation parameter prepared in advance may be used. Alternatively, although the predetermined number is insufficient, the similarity calculation parameter may be calculated using the feature amount collected for each camera. Alternatively, feature quantities that are insufficient for calculation may be further collected in the background of the monitoring / authentication process, and the similarity calculation parameter may be calculated when a predetermined number is reached. In that case, a default similarity calculation parameter prepared in advance may be used until the calculation of the similarity calculation parameter is finished, and when the calculation is finished, the calculated similarity calculation parameter may be replaced.

<辞書登録処理>
次に、認証する人物を登録する辞書登録処理について説明する。この処理は、図3のコンソール画面から「辞書登録モード」を選択することで実行される。
図12は、辞書登録処理の処理フローの一例を示したものである。この図を参照しながら、実際の処理について詳細を説明する。
はじめに、認証画像取得部21が、辞書登録用の画像を取得する(S31)。なお、辞書登録用の画像については、必ずしもカメラ2〜4で撮像されたものである必要はなく、事前に撮像しておいた画像を利用してもよい。
続く、局所領域設定(S32)〜特徴抽出(S33)の処理については、前述した図8の処理S23、S24と同様であるため、説明を省略する。
<Dictionary registration process>
Next, a dictionary registration process for registering a person to be authenticated will be described. This process is executed by selecting “dictionary registration mode” from the console screen of FIG.
FIG. 12 shows an example of the processing flow of dictionary registration processing. The actual processing will be described in detail with reference to this figure.
First, the authentication image acquisition unit 21 acquires an image for dictionary registration (S31). Note that the dictionary registration image does not necessarily have to be captured by the cameras 2 to 4, and an image captured in advance may be used.
The subsequent processing from local region setting (S32) to feature extraction (S33) is the same as the processing S23 and S24 in FIG.

続いて、辞書登録部25が、特徴量を辞書へ登録する(S34)。このとき、登録した人物の人物IDを、特徴量に紐付けて登録する、すなわち、二次記憶装置14に記憶する。特徴量に紐付けられる人物IDは、ユーザ入力により取得すればよい。
以上が、辞書登録処理の説明である。
ここで登録しておいた人物が取り貯めた撮像画像に写っているか否かを、前述の監視・認証処理で判定する。なお、登録する人物の数に特に制限はなく、また、一人あたり複数の特徴量を登録してもよい。
以上が、本発明における実施形態1の説明である。
Subsequently, the dictionary registration unit 25 registers the feature amount in the dictionary (S34). At this time, the person ID of the registered person is registered in association with the feature quantity, that is, stored in the secondary storage device 14. What is necessary is just to acquire person ID linked | related with a feature-value by user input.
The above is the description of the dictionary registration process.
It is determined by the above-described monitoring / authentication process whether or not the person registered here is reflected in the collected captured image. Note that the number of persons to be registered is not particularly limited, and a plurality of feature amounts may be registered per person.
The above is description of Embodiment 1 in this invention.

以上説明したとおり、本実施形態では、設置したカメラで撮像した撮像画像から認証画像を取得し、設置したカメラに対応した類似度算出パラメタを算出することで、撮像条件に頑健な人物認証を実現する方法について説明した。
カメラを設置することにより、撮像される人物の向きや、照明条件等の撮像条件がある程度固定される。そのため、カメラの設置場所や画角等の撮像条件に特化させた類似度算出パラメタを用いることで、事前に用意した類似度算出パラメタを用いるよりも、より高精度に人物(オブジェクト)を認証することができる。
As described above, in this embodiment, authentication authentication is acquired from the captured image captured by the installed camera, and the similarity calculation parameter corresponding to the installed camera is calculated, thereby realizing person authentication robust to the imaging conditions. Explained how to do.
By installing the camera, imaging conditions such as the orientation of a person to be imaged and illumination conditions are fixed to some extent. Therefore, by using similarity calculation parameters specialized for imaging conditions such as camera installation location and angle of view, people (objects) can be authenticated more accurately than using similarity calculation parameters prepared in advance. can do.

変形例
上記実施形態1では、類似度としてコサイン類似度を用い、コサイン類似度算出の際の原点を類似度算出パラメタとして算出したが、別の類似度を用いてもよい。例えば、以下の式(5)、式(6)に示すように類似度Sとしてマハラノビス距離の逆数を用い、マハラノビス行列Mを類似度算出パラメタとして算出してもよい。
In the first embodiment, the cosine similarity is used as the similarity and the origin at the time of calculating the cosine similarity is calculated as the similarity calculation parameter. However, another similarity may be used. For example, the Mahalanobis matrix M may be calculated as the similarity calculation parameter using the inverse of the Mahalanobis distance as the similarity S as shown in the following formulas (5) and (6).

Figure 2018049566
ここで、x、yは、それぞれ、カメラcで撮像された人物の特徴量ベクトル、登録辞書の特徴量ベクトルを表す。
Figure 2018049566
Here, x c and y represent a feature vector of a person imaged by the camera c and a feature vector of a registered dictionary, respectively.

図13は、マハラノビス行列を類似度算出パラメタとして算出する場合の効果を模式的に示した図である。
図13は、図9、図10と同様に特徴量ベクトルの分布を示している。この分布には、事前に算出した平均ベクトル91、事前に算出したマハラノビス行列を基にした距離空間92、設置したカメラで収集した認証画像を基に新たに算出した平均ベクトル93を示している。さらに、この分布には、新たに算出したマハラノビス行列を基にした距離空間94、人物Dの特徴量ベクトルクラスタ95、人物Eの特徴量ベクトルクラスタ96を示している。
ここで、距離空間92は、事前に算出した平均ベクトル91からのマハラノビス距離が距離空間92の楕円上では等しいことを意味している。すなわち、距離空間92のマハラノビス距離は、図13の左下から右上の斜め方向の距離が、通常のユークリッド距離に比べ、短い距離尺度になっている。距離空間94も同様で、図13の左上から右下に向かう距離が、通常のユークリッド距離に比べ、短い距離尺度になっている。
FIG. 13 is a diagram schematically showing the effect when the Mahalanobis matrix is calculated as the similarity calculation parameter.
FIG. 13 shows the distribution of the feature vector, as in FIGS. In this distribution, an average vector 91 calculated in advance, a metric space 92 based on a Mahalanobis matrix calculated in advance, and an average vector 93 newly calculated based on an authentication image collected by an installed camera are shown. Further, the distribution shows a metric space 94 based on the newly calculated Mahalanobis matrix, a feature vector cluster 95 of person D, and a feature vector cluster 96 of person E.
Here, the metric space 92 means that the Mahalanobis distance from the average vector 91 calculated in advance is equal on the ellipse of the metric space 92. That is, the Mahalanobis distance of the metric space 92 is a distance scale in which the distance in the diagonal direction from the lower left to the upper right in FIG. 13 is shorter than the normal Euclidean distance. The distance space 94 is the same, and the distance from the upper left to the lower right in FIG. 13 is a shorter distance scale than the normal Euclidean distance.

このように、事前に算出した距離尺度と設置したカメラで集めた認証画像から算出した距離尺度は異なる。図13の事前に算出したマハラノビス行列を基にした距離空間92では、図13の左下から右上の距離が短い距離尺度となる。このため、人物Dの特徴量ベクトル(人物Dの特徴量ベクトルクラスタ95内のいずれか一点)と人物Eの特徴量ベクトルのマハラノビス距離は近い。すなわち同一人物と判定される可能性がある。一方、新たに算出したマハラノビス行列を基にした距離空間94では、逆に人物Dの特徴量ベクトルと人物Eの特徴量ベクトル間の距離は長いので、別人と判定される可能性が高くなる。このように、マハラノビス距離のような、事前の学習で類似度算出パラメタを設定しておくような手法についても、本実施形態の手法を適用することができる。
また、本実施形態では、認証画像は人物の顔が写る画像としたが、それに限るものではなく、人体やその他の任意のオブジェクトが写る画像でもよい。
以上説明したように、本実施形態では、カメラの設置場所や画角に適した類似度算出パラメタを用いて人物(オブジェクト)をより高精度に認証することができる。
Thus, the distance scale calculated from the authentication image collected by the installed camera is different from the distance scale calculated in advance. In the metric space 92 based on the Mahalanobis matrix calculated in advance in FIG. 13, the distance from the lower left to the upper right in FIG. 13 is a short distance measure. For this reason, the Mahalanobis distance between the feature vector of person D (any one point in the feature vector cluster 95 of person D) and the feature vector of person E is close. That is, there is a possibility that they are determined to be the same person. On the other hand, in the metric space 94 based on the newly calculated Mahalanobis matrix, the distance between the feature quantity vector of the person D and the feature quantity vector of the person E is conversely long, so that the possibility of being determined as a different person increases. As described above, the method of this embodiment can be applied to a method of setting a similarity calculation parameter in advance learning, such as Mahalanobis distance.
In the present embodiment, the authentication image is an image showing a person's face. However, the authentication image is not limited to this, and may be an image showing a human body or any other object.
As described above, in the present embodiment, a person (object) can be authenticated with higher accuracy by using a similarity calculation parameter suitable for the installation location and angle of view of the camera.

実施形態2
上記実施形態1では、カメラの撮像画像から収集した特徴量を使って類似度算出パラメタを算出する例について説明した。本実施形態では、辞書登録処理時に類似度算出パラメタを算出する例について説明する。なお、実施形態1と同様の箇所は説明を省略し、差異のある箇所のみ説明する。
実施形態2では、実施形態1と同様に、認証に用いる類似度としてコサイン類似度を使う例を説明する。監視・認証処理および類似度算出パラメタ算出処理は、実施形態1と同じであるため説明を省略する。
辞書登録処理について説明する。
Embodiment 2
In the first embodiment, the example in which the similarity calculation parameter is calculated using the feature amount collected from the captured image of the camera has been described. In the present embodiment, an example in which the similarity calculation parameter is calculated during the dictionary registration process will be described. In addition, description is abbreviate | omitted about the location similar to Embodiment 1, and only a different location is demonstrated.
In the second embodiment, as in the first embodiment, an example in which a cosine similarity is used as a similarity used for authentication will be described. Since the monitoring / authentication process and the similarity calculation parameter calculation process are the same as those in the first embodiment, description thereof is omitted.
The dictionary registration process will be described.

図14は、本実施形態における辞書登録処理の処理フローの一例を示したものである。この図を参照しながら、実際の処理について詳細を説明する。
登録画像取得(S41)〜辞書登録(S44)までは、実施形態1(図12のS31〜S34)と同様であるため、説明を省略する。
S44に続いて、類似度算出パラメタ算出部26が、辞書登録部25から取得した登録辞書を使って類似度算出パラメタを更新する(S45)。この類似度算出パラメタ算出処理で算出されている更新後の類似度算出パラメタσは、以下の式(7)で表される。
σ=wσ+wσ (7)
ここで、σは、設置場所のカメラで収集した特徴量の平均ベクトルであり、σは、登録辞書の全特徴量の平均ベクトルであり、w、wは、それぞれの類似度算出パラメタに対する重み係数である。
FIG. 14 shows an example of the processing flow of dictionary registration processing in the present embodiment. The actual processing will be described in detail with reference to this figure.
Since registration image acquisition (S41) to dictionary registration (S44) are the same as those in the first embodiment (S31 to S34 in FIG. 12), description thereof is omitted.
Subsequent to S44, the similarity calculation parameter calculation unit 26 updates the similarity calculation parameter using the registration dictionary acquired from the dictionary registration unit 25 (S45). The updated similarity calculation parameter σ calculated in the similarity calculation parameter calculation processing is expressed by the following equation (7).
σ = w 0 σ 0 + w r σ r (7)
Here, σ 0 is an average vector of feature values collected by the camera at the installation location, σ r is an average vector of all feature values of the registered dictionary, and w 0 and w r are the respective similarity calculations. A weighting factor for the parameter.

一般的に、設置したカメラで収集できる特徴量の数に比べ、登録辞書の特徴量は数が少ないため、両方の特徴量を含めて平均をとると設置したカメラで収集した特徴量の影響が支配的になってしまう。そこで、本実施形態では、それぞれで算出した平均ベクトルを事前に定めた所定の重みで足し合わせ、登録辞書で求めた平均ベクトルの影響をどの程度にするか調整できるようにしている。
なお、σは事前に算出しておいてもよいし、設置場所のカメラで収集した特徴量を二次記憶装置14にすべて記憶しておき、式(7)を算出する際にσを算出してもよい。
続いて、類似度算出パラメタ記憶部27が、式(7)で算出された類似度算出パラメタσを二次記憶装置14に記憶する(S46)。
なお、本実施形態では、登録辞書に新たな特徴量が登録されると、毎回、類似度算出パラメタを算出するようにしたが、毎回算出しなくてもよい。例えば、登録辞書に所定数の特徴量が新たに登録された際に算出するようにしてもよい。
Generally, compared to the number of features that can be collected with the installed camera, the number of features in the registered dictionary is small, so if you take the average including both features, the effect of the features collected with the installed camera will be affected. Become dominant. Therefore, in the present embodiment, the average vectors calculated respectively are added with predetermined weights so that the influence of the average vector obtained by the registration dictionary can be adjusted.
Note that σ 0 may be calculated in advance, or all the feature values collected by the camera at the installation location are stored in the secondary storage device 14, and σ 0 is calculated when calculating equation (7). It may be calculated.
Subsequently, the similarity calculation parameter storage unit 27 stores the similarity calculation parameter σ calculated by Expression (7) in the secondary storage device 14 (S46).
In the present embodiment, when a new feature amount is registered in the registration dictionary, the similarity calculation parameter is calculated every time. However, it may not be calculated every time. For example, it may be calculated when a predetermined number of feature amounts are newly registered in the registration dictionary.

また、本実施形態では、式(7)で登録辞書の全特徴量の平均ベクトルσを算出したが、この他の方法を使って算出してもよい。例えば、登録辞書の人物毎の平均ベクトルをまず算出し、その後で、各人物の平均ベクトルをさらに平均するようにしてもよい。このようにすることで、人物毎の登録数に大きな差がある場合、登録数が多い人物の影響が大きくなりすぎないように抑制することができる。
以上が、本発明における第2の実施形態の説明である。
以上説明したように、本実施形態によれば、設置したカメラの撮像画像から収集した特徴量だけでなく、登録辞書の特徴量を類似度算出パラメタの算出に反映させることで、登録画像の撮僧条件により適した類似度算出パラメタを算出することができる。
In the present embodiment, the average vector σ r of all the feature values of the registered dictionary is calculated by the equation (7), but may be calculated using other methods. For example, an average vector for each person in the registered dictionary may be calculated first, and then the average vector of each person may be further averaged. By doing in this way, when there is a big difference in the number of registration for every person, it can suppress that the influence of a person with many registration numbers does not become large too much.
The above is the description of the second embodiment of the present invention.
As described above, according to the present embodiment, not only the feature amount collected from the captured image of the installed camera but also the feature amount of the registration dictionary is reflected in the calculation of the similarity calculation parameter, thereby capturing the registered image. It is possible to calculate the similarity calculation parameter more suitable for the monk condition.

1…画像認証装置、2,3,4…カメラ、5…ネットワーク、21…認証画像取得部、22…局所領域設定部、23…特徴抽出部、24…特徴記憶部、25…辞書登録部、26…類似度算出パラメタ算出部、27…類似度算出パラメタ記憶部、28…類似度算出部、29…認証結果判定部、30…表示部   DESCRIPTION OF SYMBOLS 1 ... Image authentication apparatus, 2, 3, 4 ... Camera, 5 ... Network, 21 ... Authentication image acquisition part, 22 ... Local area | region setting part, 23 ... Feature extraction part, 24 ... Feature storage part, 25 ... Dictionary registration part, 26 ... Similarity calculation parameter calculation unit, 27 ... Similarity calculation parameter storage unit, 28 ... Similarity calculation unit, 29 ... Authentication result determination unit, 30 ... Display unit

Claims (11)

少なくとも1つの撮像装置により撮像された画像を取得する取得手段と、
前記取得手段により取得された画像から特徴量を抽出する抽出手段と、
画像の特徴量が登録された登録辞書を記憶する記憶手段と、
前記撮像装置のそれぞれについて、当該撮像装置により撮像された画像から抽出された特徴量に基づいて、当該撮像装置により撮像された画像から抽出される特徴量と前記登録辞書に登録された特徴量との間の類似度を算出するための類似度算出パラメタを算出する第1の算出手段と、
前記取得手段により取得された認証対象画像の特徴量と前記登録辞書に登録された特徴量との間の前記類似度を、当該認証対象画像を撮像した撮像装置について、前記第1の算出手段により算出された前記類似度算出パラメタに基づいて算出する第2の算出手段と、
を備えることを特徴とする画像処理装置。
Acquisition means for acquiring an image captured by at least one imaging device;
Extraction means for extracting feature amounts from the image acquired by the acquisition means;
Storage means for storing a registered dictionary in which image feature values are registered;
For each of the imaging devices, based on the feature amount extracted from the image captured by the imaging device, the feature amount extracted from the image captured by the imaging device and the feature amount registered in the registration dictionary First calculation means for calculating a similarity calculation parameter for calculating a similarity between
The similarity between the feature quantity of the authentication target image acquired by the acquisition means and the feature quantity registered in the registration dictionary is calculated by the first calculation means for the imaging device that captured the authentication target image. Second calculation means for calculating based on the calculated similarity calculation parameter;
An image processing apparatus comprising:
前記第1の算出手段は、前記取得手段により取得された1つの画像に対して、複数の類似度算出パラメタを算出し、
前記第2の算出手段は、前記第1の算出手段により算出された前記複数の類似度算出パラメタに基づいて、複数の類似度を算出し、算出された前記複数の類似度を1つの類似度に統合する、
ことを特徴とする請求項1に記載の画像処理装置。
The first calculation means calculates a plurality of similarity calculation parameters for one image acquired by the acquisition means,
The second calculating unit calculates a plurality of similarities based on the plurality of similarity calculating parameters calculated by the first calculating unit, and the calculated plurality of similarities are set as one similarity. Integrated into the
The image processing apparatus according to claim 1.
前記取得手段により取得された1つの画像に対して複数の局所領域を設定する設定手段をさらに備え、
前記第1の算出手段は、前記設定手段により設定された前記複数の局所領域のそれぞれについて、前記類似度算出パラメタを算出する、
ことを特徴とする請求項2に記載の画像処理装置。
A setting unit that sets a plurality of local regions for one image acquired by the acquiring unit;
The first calculation means calculates the similarity calculation parameter for each of the plurality of local regions set by the setting means;
The image processing apparatus according to claim 2.
前記第1の算出手段は、前記取得された画像から抽出された特徴量に加え、前記登録辞書に登録された特徴量に基づいて前記類似度算出パラメタを算出する、
ことを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。
The first calculation means calculates the similarity calculation parameter based on the feature amount registered in the registration dictionary in addition to the feature amount extracted from the acquired image.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記第1の算出手段が算出する前記類似度算出パラメタは、特徴量空間における角度算出の原点であり、
前記第2の算出手段は、前記第1の算出手段が算出した角度算出の原点を使った角度に基づいた類似度を算出する、
ことを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。
The similarity calculation parameter calculated by the first calculation means is an origin of angle calculation in the feature amount space,
The second calculation means calculates a similarity based on an angle using an angle calculation origin calculated by the first calculation means.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記抽出手段は、前記画像から複数の特徴量を抽出し、
前記第1の算出手段が算出する角度算出の原点は、前記抽出手段が抽出した前記複数の特徴量の平均である、
ことを特徴とする請求項5に記載の画像処理装置。
The extraction means extracts a plurality of feature amounts from the image,
The origin of the angle calculation calculated by the first calculation means is an average of the plurality of feature amounts extracted by the extraction means.
The image processing apparatus according to claim 5.
前記第1の算出手段が算出する類似度算出パラメタは、マハラノビス行列であり、
前記第2の算出手段は、前記第1の算出手段が算出したマハラノビス行列に基づいて前記類似度を算出する、
ことを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。
The similarity calculation parameter calculated by the first calculation means is a Mahalanobis matrix,
The second calculating means calculates the similarity based on the Mahalanobis matrix calculated by the first calculating means;
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記取得手段は、ユーザ入力に応じて複数の前記類似度算出パラメタを算出するために前記画像を取得し、
前記第1の算出手段は、前記取得手段が取得した前記画像に基づいて複数の前記類似度算出パラメタを算出する、
ことを特徴とする請求項1から7のいずれか1項に記載の画像処理装置。
The acquisition means acquires the image to calculate a plurality of the similarity calculation parameters according to user input,
The first calculation unit calculates a plurality of the similarity calculation parameters based on the image acquired by the acquisition unit.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記取得手段が複数の前記類似度算出パラメタを算出するための前記画像を所定数取得したことをユーザに提示する表示手段を更に備える、
ことを特徴とする請求項1から8のいずれか1項に記載の画像処理装置。
A display means for presenting to the user that the acquisition means has acquired a predetermined number of images for calculating a plurality of the similarity calculation parameters;
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
少なくとも1つの撮像装置により撮像された画像を取得するステップと、
前記取得ステップで取得された画像から特徴量を抽出する抽出ステップと、
前記撮像装置のそれぞれについて、当該撮像装置により撮像された画像から抽出された特徴量に基づいて、当該撮像装置により撮像された画像から抽出される特徴量と登録辞書に登録された特徴量との間の類似度を算出するための類似度算出パラメタを算出するステップと、
前記取得ステップで取得された認証対象画像と前記登録辞書に登録された特徴量との間の前記類似度を、当該認証対象画像を撮像した撮像装置について算出された前記類似度算出パラメタに基づいて算出するステップと、
を有することを特徴とする画像処理方法。
Obtaining an image captured by at least one imaging device;
An extraction step of extracting a feature amount from the image acquired in the acquisition step;
For each of the imaging devices, based on the feature amount extracted from the image captured by the imaging device, the feature amount extracted from the image captured by the imaging device and the feature amount registered in the registration dictionary Calculating a similarity calculation parameter for calculating a similarity between,
The similarity between the authentication target image acquired in the acquisition step and the feature amount registered in the registration dictionary is based on the similarity calculation parameter calculated for the imaging device that captured the authentication target image. A calculating step;
An image processing method comprising:
コンピュータを請求項1から9のいずれか1項に記載の画像処理装置として動作させるためのプログラム。   A program for causing a computer to operate as the image processing apparatus according to any one of claims 1 to 9.
JP2016186200A 2016-09-23 2016-09-23 Image processing equipment, image processing methods and programs Active JP6873639B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016186200A JP6873639B2 (en) 2016-09-23 2016-09-23 Image processing equipment, image processing methods and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016186200A JP6873639B2 (en) 2016-09-23 2016-09-23 Image processing equipment, image processing methods and programs

Publications (2)

Publication Number Publication Date
JP2018049566A true JP2018049566A (en) 2018-03-29
JP6873639B2 JP6873639B2 (en) 2021-05-19

Family

ID=61766428

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016186200A Active JP6873639B2 (en) 2016-09-23 2016-09-23 Image processing equipment, image processing methods and programs

Country Status (1)

Country Link
JP (1) JP6873639B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110059551A (en) * 2019-03-12 2019-07-26 五邑大学 A kind of automatic checkout system of food based on image recognition
JP2019185384A (en) * 2018-04-10 2019-10-24 キヤノン株式会社 Image authentication device, image authentication method, computer program and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002083297A (en) * 2000-06-28 2002-03-22 Matsushita Electric Ind Co Ltd Object recognition method and object recognition device
JP2003296735A (en) * 2002-03-29 2003-10-17 Nec Corp Method and device for generating face meta-data
JP2011109275A (en) * 2009-11-13 2011-06-02 Victor Co Of Japan Ltd Video processing device, and video processing method
JP2015219797A (en) * 2014-05-20 2015-12-07 キヤノン株式会社 Image collation device, image retrieval system, image collation method, image retrieval method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002083297A (en) * 2000-06-28 2002-03-22 Matsushita Electric Ind Co Ltd Object recognition method and object recognition device
JP2003296735A (en) * 2002-03-29 2003-10-17 Nec Corp Method and device for generating face meta-data
JP2011109275A (en) * 2009-11-13 2011-06-02 Victor Co Of Japan Ltd Video processing device, and video processing method
JP2015219797A (en) * 2014-05-20 2015-12-07 キヤノン株式会社 Image collation device, image retrieval system, image collation method, image retrieval method, and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
大場 敏文: "福笑いモジュールを用いた顔画像のインタラクティブ検索", 電子情報通信学会論文誌, vol. 80, no. 8, JPN6020041322, 25 August 1997 (1997-08-25), JP, pages 2254 - 2258, ISSN: 0004376157 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019185384A (en) * 2018-04-10 2019-10-24 キヤノン株式会社 Image authentication device, image authentication method, computer program and storage medium
CN110059551A (en) * 2019-03-12 2019-07-26 五邑大学 A kind of automatic checkout system of food based on image recognition

Also Published As

Publication number Publication date
JP6873639B2 (en) 2021-05-19

Similar Documents

Publication Publication Date Title
US8819015B2 (en) Object identification apparatus and method for identifying object
JP5567853B2 (en) Image recognition apparatus and method
US9626551B2 (en) Collation apparatus and method for the same, and image searching apparatus and method for the same
JP4544363B1 (en) Face authentication device, person image search system, face authentication device control program, computer-readable recording medium, and face authentication device control method
US11080557B2 (en) Image authentication apparatus, method, and storage medium using registered image
JP6700791B2 (en) Information processing apparatus, information processing method, and program
US8626782B2 (en) Pattern identification apparatus and control method thereof
JP6822482B2 (en) Line-of-sight estimation device, line-of-sight estimation method, and program recording medium
JP2017033469A (en) Image identification method, image identification device and program
WO2017206914A1 (en) Fingerprint recognition method, fingerprint recognition system, and electronic device
JP2020046928A (en) Information processor, information processing system, and information processing method and program
JP6265592B2 (en) Facial feature extraction apparatus and face authentication system
JP2008243093A (en) Dictionary data registration device and method
JP2016170542A (en) Image processing unit, image processing method and program
JP2016062253A (en) Object identification apparatus, object identification method, and program
JP6362085B2 (en) Image recognition system, image recognition method and program
JP6969878B2 (en) Discriminator learning device and discriminator learning method
KR20100075167A (en) Apparatus and method for capturing digital image using face recognition function
US10896343B2 (en) Information processing apparatus and information processing method
JP6410450B2 (en) Object identification device, object identification method, and program
JP2017058833A (en) Object identification device, object identification method, and program
JP6873639B2 (en) Image processing equipment, image processing methods and programs
JP6739200B2 (en) Video processing device, video processing system and control method
JP5791361B2 (en) PATTERN IDENTIFICATION DEVICE, PATTERN IDENTIFICATION METHOD, AND PROGRAM
JP2012027617A (en) Pattern identification device, pattern identification method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190919

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210323

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210421

R151 Written notification of patent or utility model registration

Ref document number: 6873639

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151