JP6873639B2 - Image processing equipment, image processing methods and programs - Google Patents

Image processing equipment, image processing methods and programs Download PDF

Info

Publication number
JP6873639B2
JP6873639B2 JP2016186200A JP2016186200A JP6873639B2 JP 6873639 B2 JP6873639 B2 JP 6873639B2 JP 2016186200 A JP2016186200 A JP 2016186200A JP 2016186200 A JP2016186200 A JP 2016186200A JP 6873639 B2 JP6873639 B2 JP 6873639B2
Authority
JP
Japan
Prior art keywords
image
similarity
authentication
calculated
similarity calculation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016186200A
Other languages
Japanese (ja)
Other versions
JP2018049566A (en
Inventor
敦夫 野本
敦夫 野本
佐藤 博
博 佐藤
雄司 金田
雄司 金田
俊亮 中野
俊亮 中野
山本 貴久
貴久 山本
伊藤 嘉則
嘉則 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016186200A priority Critical patent/JP6873639B2/en
Publication of JP2018049566A publication Critical patent/JP2018049566A/en
Application granted granted Critical
Publication of JP6873639B2 publication Critical patent/JP6873639B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像中のオブジェクトを認証する画像処理装置、画像処理方法およびプログラムに関する。 The present invention relates to an image processing device, an image processing method and a program for authenticating an object in an image.

設置したカメラで撮像された画像に写る人物が誰かを判定する人物認証技術が知られている。この人物認証技術の応用先として、顔写真を使った犯罪捜査や、迷子探し等がある。これらの応用先では、設置されたカメラ毎にその設置場所や画角が異なるために、カメラ毎に人物を撮像する際の撮像条件(例えば、人物の向きや照明条件)も異なってくる。そのため、撮像条件に頑健な人物認証技術が求められている。
一般に、人物認証技術では、撮像された人物の画像と事前に登録された人物の画像(以下、「登録画像」という。)との間で算出した類似度の大小により、人物が登録画像のうちの誰なのか、または誰でもないのかを判定している。この類似度をどのように算出するかは、人物認証の精度を決める重要な要素の一つであり、様々な方式が提案されている。
There is known a person authentication technology for determining who is in the image captured by the installed camera. Applications of this person authentication technology include criminal investigations using facial photographs and searching for lost children. In these application destinations, since the installation location and the angle of view are different for each installed camera, the imaging conditions (for example, the direction of the person and the lighting conditions) for photographing a person are also different for each camera. Therefore, robust person authentication technology is required for imaging conditions.
Generally, in the person authentication technology, a person is among the registered images based on the degree of similarity calculated between the captured image of the person and the image of the person registered in advance (hereinafter referred to as "registered image"). It determines who it is or who it is not. How to calculate this similarity is one of the important factors that determine the accuracy of person authentication, and various methods have been proposed.

例えば、非特許文献1に開示された技術では、類似度を算出するパラメタを、事前に大量のデータで学習しておき、学習したパラメタをもとに類似度を算出している。様々な撮像条件を含む大量のデータを使って、パラメタを事前に学習することで撮像条件にある程度頑健な人物認証を実現している。
また、特許文献1に開示された技術では、入力パターンから入力部分空間を算出し、予め規定されたカテゴリに対応する辞書パターンから複数の辞書部分空間を算出し、入力部分空間と複数の辞書部分空間の各々とを、直交化行列を用いて線形変換している。そして、線形変換された入力部分空間と線形変換された複数の辞書部分空間との類似度を算出している。線形変換のための直交化行列は、複数の辞書部分空間同士を直交化して、登録画像に含まれる人物同士を区別しやすくする変換行列として生成されている。
For example, in the technique disclosed in Non-Patent Document 1, parameters for calculating similarity are learned in advance from a large amount of data, and the similarity is calculated based on the learned parameters. By learning the parameters in advance using a large amount of data including various imaging conditions, it is possible to realize person authentication that is robust to the imaging conditions to some extent.
Further, in the technique disclosed in Patent Document 1, an input subspace is calculated from an input pattern, a plurality of dictionary subspaces are calculated from a dictionary pattern corresponding to a predetermined category, and the input subspace and a plurality of dictionary portions are calculated. Each of the spaces is linearly transformed using an orthogonalization matrix. Then, the similarity between the linearly transformed input subspace and the linearly transformed plurality of dictionary subspaces is calculated. The orthogonalization matrix for linear transformation is generated as a transformation matrix in which a plurality of dictionary subspaces are orthogonalized to make it easier to distinguish between persons included in the registered image.

特許第4343125号公報Japanese Patent No. 4343125

H.V.Nguyen and L.Bai、“Cosine Similarity Metric Learning for Face Verification”,2010,ACCV(Annual Conference of Computer Vision).H. V. Nguyen and L. Bai, "Cosine Science Learning for Face Verification", 2010, ACCV (Annual Computer of Computer Vision).

しかしながら、上述の各文献に記載された技術では、カメラの設置場所や画角に適した類似度算出パラメタを得ることができないため、人物認証の精度が低下する場合があった。すなわち、非特許文献1の技術では、類似度算出パラメタは事前に大量のデータで学習されるものであるため、カメラの設置場所や画角に適した類似度算出パラメタを事前に算出することはできない。また、特許文献1の技術では、登録画像に含まれる人物毎の部分空間を直交化する変換行列を算出するものであって、認証すべき人物を撮像するカメラの設置場所や画角に適した類似度算出パラメタを算出することはできない。
本発明は上記課題を解決するためになされたものであり、カメラの設置場所や画角に適した類似度算出パラメタを用いてオブジェクトをより高精度に認証することを課題とする。
However, with the techniques described in the above-mentioned documents, it is not possible to obtain similarity calculation parameters suitable for the camera installation location and angle of view, so that the accuracy of person authentication may decrease. That is, in the technique of Non-Patent Document 1, since the similarity calculation parameter is learned in advance from a large amount of data, it is not possible to calculate the similarity calculation parameter suitable for the camera installation location and angle of view in advance. Can not. Further, the technique of Patent Document 1 calculates a transformation matrix that orthogonalizes the subspace of each person included in the registered image, and is suitable for the installation location and angle of view of the camera that images the person to be authenticated. It is not possible to calculate the similarity calculation parameter.
The present invention has been made to solve the above problems, and an object of the present invention is to authenticate an object with higher accuracy by using a similarity calculation parameter suitable for a camera installation location and an angle of view.

上記課題を解決するために、本発明ある態様によれば、少なくとも1つの撮像装置により撮像された画像を取得する取得手段と、前記取得手段により取得された画像から特徴量を抽出する抽出手段と、認証対象となる人物の画像の特徴を記憶する記憶手段と、前記撮像装置のそれぞれについて、前記撮像装置により撮像された画像から抽出された特徴量に基づいて、当該撮像装置により撮像された画像に前記認証対象となる人物が含まれているかを特定するための類似度算出パラメタを算出する第1の算出手段と、前記撮像装置に応じて算出された前記類似度算出パラメタに基づいて変換された前記抽出された特徴量と、前記記憶された特徴量と、の類似度を算出する第2の算出手段と、を備える画像処理装置が提供される。 In order to solve the above problems , according to an aspect of the present invention, an acquisition means for acquiring an image captured by at least one image pickup device and an extraction means for extracting a feature amount from the image acquired by the acquisition means. When a storage unit for storing a feature quantity of a person in the image to be authenticated, for each of the imaging device, on the basis of the feature quantity extracted from the image captured by the image capturing apparatus, captured by the imaging device Based on the first calculation means for calculating the similarity calculation parameter for identifying whether the image to be authenticated includes the person to be authenticated and the similarity calculation parameter calculated according to the image pickup apparatus. An image processing apparatus is provided that includes a second calculation means for calculating the degree of similarity between the converted extracted feature amount and the stored feature amount.

本発明によれば、カメラの設置場所や画角に適した類似度算出パラメタを用いてオブジェクトをより高精度に認証することができる。 According to the present invention, it is possible to authenticate an object with higher accuracy by using a similarity calculation parameter suitable for a camera installation location and an angle of view.

実施形態1に係る画像認証システムのハードウェア構成の一例を示すブロック図。The block diagram which shows an example of the hardware configuration of the image authentication system which concerns on Embodiment 1. FIG. 実施形態1に係る画像認証システムの制御プログラムの機能構成を示したブロック図。The block diagram which showed the functional structure of the control program of the image authentication system which concerns on Embodiment 1. FIG. 実施形態1に係る画像認証システムのコンソール画面を模式的に示した図。The figure which showed typically the console screen of the image authentication system which concerns on Embodiment 1. FIG. 実施形態1に係る画像認証システムの監視・認証処理を示すフローチャート。The flowchart which shows the monitoring / authentication processing of the image authentication system which concerns on Embodiment 1. 認証画像に設定する局所領域を模式的に示した図。The figure which shows typically the local area to be set in the authentication image. 実施形態1に係る画像認証システムの画像認証処理を示すフローチャート。The flowchart which shows the image authentication processing of the image authentication system which concerns on Embodiment 1. 認証結果として表示する内容の一例を概念的に示した図。The figure which conceptually showed an example of the content to be displayed as an authentication result. 実施形態1に係る画像認証システムの類似度算出パラメタ算出処理を示すフローチャート。The flowchart which shows the similarity calculation parameter calculation process of the image authentication system which concerns on Embodiment 1. 設置したカメラに適した原点を算出する例を模式的に示した図。The figure which showed typically the example of calculating the origin suitable for the installed camera. 算出した原点が、特徴量空間上の適切な位置になかった場合の例を模式的に示した図。The figure which showed typically the example when the calculated origin was not in an appropriate position in the feature space. 実施形態1に係る画像認証システムが類似度算出パラメタ算出処理中に表示する算出用のサンプル収集状況を示す画面を模式的に示した図。The figure which showed typically the screen which shows the sample collection situation for calculation which the image authentication system which concerns on Embodiment 1 displays during the similarity calculation parameter calculation process. 実施形態1に係る画像認証システムの辞書登録処理を示すフローチャート。The flowchart which shows the dictionary registration process of the image authentication system which concerns on Embodiment 1. 設置したカメラに適したマハラノビス行列を算出する例を模式的に示した図。The figure which showed typically the example of calculating the Mahalanobis matrix suitable for the installed camera. 実施形態2に係る画像認証システムの辞書登録処理を示すフローチャート。The flowchart which shows the dictionary registration process of the image authentication system which concerns on Embodiment 2.

以下、添付図面を参照して、本発明を実施するための実施形態について詳細に説明する。なお、以下に説明する実施形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施形態に限定されるものではない。また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。 Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the accompanying drawings. The embodiment described below is an example as a means for realizing the present invention, and should be appropriately modified or changed depending on the configuration of the device to which the present invention is applied and various conditions. It is not limited to the embodiment. Moreover, not all combinations of features described in the present embodiment are essential for the means of solving the present invention.

実施形態1
本発明の実施形態1に係る画像認証システムでは、設置したカメラ毎に類似度算出パラメタを算出しておき、撮り貯めた撮像画像の中から特定人物を認証する例について説明する。
<ハードウェア構成>
図1は、本実施形態に係る画像認証システムのハードウェア構成の一例を示すブロック図である。この画像認証システムは、画像認証装置1と、カメラ2〜4と、ネットワーク5とを備えている。
画像認証装置1は、画像から特定人物を認証する画像認証装置であり、具体的な構成は後述する。
カメラ2〜4は、所謂ネットワークカメラであり、撮像装置として機能する。各カメラ2〜4は、レンズとCCD、CMOSセンサ等の撮像素子を備え可視光を撮像する可視光カメラユニットと、ネットワークに接続するための通信装置とを備えている。なお、カメラ2〜4として、通信機能を有する他のカメラを用いてもよい。また、カメラユニットは、可視光を撮像するものに限らず、赤外線を撮像する赤外カメラユニット等を用いてもよい。
画像認証装置1と各カメラ2〜4とは、ネットワーク5を介して接続されており、相互にデータ通信が可能になっている。
また、図1には3台のカメラ(カメラ2〜4)を用いた構成が示されているが、カメラの数はこれに限られるものではない。
Embodiment 1
In the image authentication system according to the first embodiment of the present invention, an example in which a similarity calculation parameter is calculated for each installed camera and a specific person is authenticated from the captured images captured will be described.
<Hardware configuration>
FIG. 1 is a block diagram showing an example of the hardware configuration of the image authentication system according to the present embodiment. This image authentication system includes an image authentication device 1, cameras 2 to 4, and a network 5.
The image authentication device 1 is an image authentication device that authenticates a specific person from an image, and a specific configuration will be described later.
The cameras 2 to 4 are so-called network cameras and function as an imaging device. Each of the cameras 2 to 4 includes a visible light camera unit that includes a lens and an image pickup element such as a CCD or a CMOS sensor to capture visible light, and a communication device for connecting to a network. As the cameras 2 to 4, other cameras having a communication function may be used. Further, the camera unit is not limited to the one that captures visible light, and an infrared camera unit or the like that captures infrared rays may be used.
The image authentication device 1 and the cameras 2 to 4 are connected to each other via the network 5, and data communication is possible with each other.
Further, although FIG. 1 shows a configuration using three cameras (cameras 2 to 4), the number of cameras is not limited to this.

画像認証装置1は、CPU(Central Processing Unit)11と、ROM12と、RAM13と、二次記憶装置14と、通信装置15と、映像出力装置16と、操作入力装置17と、接続バス18とを備えている。
CPU11は、ROM12やRAM13に格納された制御プログラムを実行することにより、画像認識装置1全体の制御を行う。ROM12は、不揮発性メモリであり、制御プログラムや各種パラメタデータを記憶する。制御プログラムは、CPU11で実行され、後述する各処理を実現する。RAM13は、揮発性メモリであり、画像や制御プログラムおよびその実行結果を一時的に記憶する。
The image authentication device 1 includes a CPU (Central Processing Unit) 11, a ROM 12, a RAM 13, a secondary storage device 14, a communication device 15, a video output device 16, an operation input device 17, and a connection bus 18. I have.
The CPU 11 controls the entire image recognition device 1 by executing a control program stored in the ROM 12 or the RAM 13. The ROM 12 is a non-volatile memory and stores a control program and various parameter data. The control program is executed by the CPU 11 and realizes each process described later. The RAM 13 is a volatile memory, and temporarily stores an image, a control program, and an execution result thereof.

二次記憶装置14は、ハードディスクやフラッシュメモリなどの書き換え可能な二次記憶装置であり、カメラ2〜4から、通信装置15を介して、受信した画像を記憶する。また、二次記憶装置14は、制御プログラム、各種設定内容、処理結果等の情報を必要に応じて記憶する。二次記憶装置14に記憶されている情報は、必要に応じてRAM13に出力され、CPU11が制御プログラムの実行等に利用する。
通信装置15は、例えば有線通信ユニットであり、ネットワーク5を介してカメラ2〜4とデータ通信を行う。なお、通信装置15は、無線通信ユニットであってもよい。
映像出力装置16は、CRTやTFT液晶などのモニタ装置であり、RAM13から取得した画像や制御プログラムの実行結果等を表示する。
操作入力装置17は、キーボードやマウス等のユーザからの操作を入力する装置である。後述するユーザ入力(ユーザからの指示入力)は、この操作入力装置17を介して取得する。
接続バス18は、画像認証装置1を構成する各装置を接続して相互にデータ通信を行う。
The secondary storage device 14 is a rewritable secondary storage device such as a hard disk or a flash memory, and stores images received from the cameras 2 to 4 via the communication device 15. Further, the secondary storage device 14 stores information such as a control program, various setting contents, and processing results as needed. The information stored in the secondary storage device 14 is output to the RAM 13 as needed, and is used by the CPU 11 for executing a control program or the like.
The communication device 15 is, for example, a wired communication unit, and performs data communication with the cameras 2 to 4 via the network 5. The communication device 15 may be a wireless communication unit.
The video output device 16 is a monitor device such as a CRT or a TFT liquid crystal, and displays an image acquired from the RAM 13, an execution result of a control program, and the like.
The operation input device 17 is a device for inputting an operation from a user such as a keyboard or a mouse. User input (instruction input from the user), which will be described later, is acquired via the operation input device 17.
The connection bus 18 connects each device constituting the image authentication device 1 and performs data communication with each other.

なお、本実施形態では、後述する処理を、画像認証装置1のCPU11を用いてソフトウェアで実現することとして説明するが、画像認証装置1の処理の一部または全部をハードウェアで実現するようにしても構わない。この場合のハードウェアとして、例えば専用回路(ASIC)や、プロセッサ(リコンフィギュラブルプロセッサ、DSP)等を用いることができる。
また、後述する処理を記述したソフトウェアをネットワークまたは各種記憶媒体を介して取得し、パーソナルコンピュータ等の処理装置(CPU、プロセッサ)にて実行してもよい。
また、カメラ2〜4が画像認証装置1の認証処理の一部または全部を実行するようにしても構わない。その場合は、画像認証装置1で行うものとした処理に必要なハードウェアを、カメラ2〜4がそれぞれ備えるようにすればよい。
In the present embodiment, the processing described later will be described as being realized by software using the CPU 11 of the image authentication device 1, but a part or all of the processing of the image authentication device 1 will be realized by hardware. It doesn't matter. As the hardware in this case, for example, a dedicated circuit (ASIC), a processor (reconfigurable processor, DSP), or the like can be used.
Further, software describing the processing described later may be acquired via a network or various storage media and executed by a processing device (CPU, processor) such as a personal computer.
Further, the cameras 2 to 4 may execute a part or all of the authentication process of the image authentication device 1. In that case, the cameras 2 to 4 may be provided with the hardware necessary for the processing performed by the image authentication device 1.

<画像認証装置の機能構成>
図2は、本実施形態における画像認証装置1において制御プログラムを実行することによって実現される機能構成の一例を示したブロック図である。本実施形態の画像認証装置1は、認証画像取得部21、局所領域設定部22、特徴抽出部23、特徴記憶部24、辞書登録部25、類似度算出パラメタ算出部26、類似度算出パラメタ記憶部27、類似度算出部28、認証結果判定部29、表示部30を備えている。
認証画像取得部21は、カメラ2〜4から取得した撮像画像をもとに、認証対象である認証画像(認証対象画像)を取得し、局所領域設定部22へ出力する。ここで、「認証画像」とは、認証対象のオブジェクトが写った画像であり、本実施形態では人物の顔が写った画像である。
<Functional configuration of image authentication device>
FIG. 2 is a block diagram showing an example of a functional configuration realized by executing a control program in the image authentication device 1 in the present embodiment. The image authentication device 1 of the present embodiment includes an authentication image acquisition unit 21, a local area setting unit 22, a feature extraction unit 23, a feature storage unit 24, a dictionary registration unit 25, a similarity calculation parameter calculation unit 26, and a similarity calculation parameter storage. A unit 27, a similarity calculation unit 28, an authentication result determination unit 29, and a display unit 30 are provided.
The authentication image acquisition unit 21 acquires an authentication target image (authentication target image) based on the captured images acquired from the cameras 2 to 4, and outputs the authentication image to the local area setting unit 22. Here, the "authentication image" is an image in which an object to be authenticated is captured, and in the present embodiment, is an image in which a person's face is captured.

局所領域設定部22は、認証画像取得部21から取得した認証画像から、人物の顔の目や鼻といった特徴点の座標情報を抽出し、抽出した特徴点をもとに局所領域を設定する。そして、局所領域設定部22は、局所領域を認証画像とともに特徴抽出部23へ出力する。
特徴抽出部23は、局所領域設定部22から取得した認証画像の局所領域から抽出した特徴量を、特徴記憶部24に出力する。さらに、特徴抽出部23は、抽出した特徴量を、辞書登録部25、類似度算出パラメタ算出部26にも出力する。なお、本実施形態では、特徴量は認証画像の局所領域毎に抽出されるものとする。
特徴記憶部24は、特徴抽出部23から取得した特徴量を二次記憶装置14に記憶する。RAM13に記憶するようにしてもよい。記憶した特徴量は要求に応じて、類似度算出部28へ出力する。
The local area setting unit 22 extracts coordinate information of feature points such as eyes and nose of a person's face from the authentication image acquired from the authentication image acquisition unit 21, and sets a local area based on the extracted feature points. Then, the local area setting unit 22 outputs the local area together with the authentication image to the feature extraction unit 23.
The feature extraction unit 23 outputs the feature amount extracted from the local area of the authentication image acquired from the local area setting unit 22 to the feature storage unit 24. Further, the feature extraction unit 23 also outputs the extracted feature amount to the dictionary registration unit 25 and the similarity calculation parameter calculation unit 26. In this embodiment, the feature amount is extracted for each local region of the authentication image.
The feature storage unit 24 stores the feature amount acquired from the feature extraction unit 23 in the secondary storage device 14. It may be stored in the RAM 13. The stored feature amount is output to the similarity calculation unit 28 as requested.

辞書登録部25は、特徴抽出部23から取得した特徴量を、登録辞書のデータとして二次記憶装置14に記憶する。あるいは登録辞書をRAM13に記憶するようにしてもよい。ここで、「登録辞書」とは、特徴量と、その特徴量に対応する人物ID(一般的には、人物名等)とを紐付けたデータのセットである。人物IDの取得方法については後述する。登録辞書には複数の人物の特徴量が含まれてもよいし、一人の人物について複数の特徴量を含んでもよい。また、登録辞書は、要求に応じて、類似度算出パラメタ算出部26、類似度算出部28に出力される。
類似度算出パラメタ算出部26は、特徴抽出部23から取得した特徴量、または、辞書登録部25から取得した登録辞書の特徴量をもとに類似度算出パラメタを算出し、類似度算出パラメタ記憶部27に出力する。類似度算出パラメタの算出処理詳細は後述する。
The dictionary registration unit 25 stores the feature amount acquired from the feature extraction unit 23 in the secondary storage device 14 as the data of the registration dictionary. Alternatively, the registered dictionary may be stored in the RAM 13. Here, the "registered dictionary" is a set of data in which a feature amount and a person ID (generally, a person name or the like) corresponding to the feature amount are associated with each other. The method of acquiring the person ID will be described later. The registered dictionary may include a plurality of features of a person, or may include a plurality of features for one person. Further, the registered dictionary is output to the similarity calculation parameter calculation unit 26 and the similarity calculation unit 28 according to the request.
The similarity calculation parameter calculation unit 26 calculates the similarity calculation parameter based on the feature amount acquired from the feature extraction unit 23 or the feature amount of the registered dictionary acquired from the dictionary registration unit 25, and stores the similarity calculation parameter. Output to unit 27. The details of the calculation process of the similarity calculation parameter will be described later.

類似度算出パラメタ記憶部27は、類似度算出パラメタ算出部26から取得した類似度算出パラメタを二次記憶装置14に記憶する。記憶した類似度算出パラメタは、要求に応じて、類似度算出部28へ出力される。
類似度算出部28は、特徴記憶部24から取得した特徴量と辞書登録部25から取得した登録辞書との間の類似度を、類似度算出パラメタ記憶部27から取得した類似度算出パラメタをもとに算出する。算出した類似度は認証結果判定部29へ出力される。
認証結果判定部29は、類似度算出部28から取得した類似度をもとに、認証結果、すなわち、認証画像中の人物が登録辞書の中の誰なのか、または、誰でもないのかを判定する。認証結果は、表示部30へ出力される。
表示部30は、認証結果判定部29から取得した認証結果を映像出力装置16に表示する。
The similarity calculation parameter storage unit 27 stores the similarity calculation parameter acquired from the similarity calculation parameter calculation unit 26 in the secondary storage device 14. The stored similarity calculation parameter is output to the similarity calculation unit 28 in response to a request.
The similarity calculation unit 28 also includes a similarity calculation parameter obtained from the similarity calculation parameter storage unit 27 for the similarity between the feature amount acquired from the feature storage unit 24 and the registered dictionary acquired from the dictionary registration unit 25. And calculate. The calculated similarity is output to the authentication result determination unit 29.
The authentication result determination unit 29 determines, based on the similarity degree obtained from the similarity calculation unit 28, the authentication result, that is, who or not the person in the authentication image is in the registered dictionary. To do. The authentication result is output to the display unit 30.
The display unit 30 displays the authentication result acquired from the authentication result determination unit 29 on the video output device 16.

<全体処理概要>
本実施形態における処理は、類似度算出パラメタ算出処理と、監視・認証処理と、辞書登録処理の3つの処理とを有している。類似度算出パラメタ算出処理では、設置されたカメラ2〜4に対応する類似度算出パラメタを算出する。監視・認証処理では、カメラ2〜4を使って撮像画像を撮り貯めつつ、特定人物が写っているかを判定する。辞書登録処理では、認証すべき人物の特徴量を登録辞書に追加する。
なお、各処理の開始時には、既に、カメラ2〜4が異なる場所に設置され、画像認証装置1は直ちにカメラ2〜4から画像を取得して後述する処理を開始できる状態であるものとする。
<Overview of overall processing>
The process in this embodiment includes three processes: a similarity calculation parameter calculation process, a monitoring / authentication process, and a dictionary registration process. In the similarity calculation parameter calculation process, the similarity calculation parameters corresponding to the installed cameras 2 to 4 are calculated. In the monitoring / authentication process, it is determined whether or not a specific person is captured while taking and storing captured images using cameras 2 to 4. In the dictionary registration process, the feature amount of the person to be authenticated is added to the registered dictionary.
At the start of each process, the cameras 2 to 4 are already installed in different places, and the image authentication device 1 can immediately acquire an image from the cameras 2 to 4 and start the process described later.

図3は、本実施形態における画像認証システムが、映像出力装置16に表示するコンソール画面の一例を示した図である。このコンソール画面40には、動作モードを指示するボタン41〜43と、各種設定を指示するボタン44と、終了を指示するボタン45と、ポインタ46とが表示されている。これにより、どの処理を実行するかのメニューが表示されている。ユーザは、操作入力装置17を操作し、ポインタ46によりメニュー中の処理を選択する。「監視・認証モード」、「辞書登録モード」、「調整モード」のいずれかのボタン41〜43を選択することで、画像認証装置1は、後述する処理を実行する。
例えば、ユーザがポインタ46により「設定」のボタン44を選択すると、画像認証装置1は、本実施形態の画像認証システムの各種設定を変更する処理を実行する。また、ユーザがポインタ46により「終了」のボタン45を選択すると、画像認証装置1は、本実施形態の画像認証システムを終了する。
FIG. 3 is a diagram showing an example of a console screen displayed on the video output device 16 by the image authentication system according to the present embodiment. On the console screen 40, buttons 41 to 43 for instructing the operation mode, buttons 44 for instructing various settings, a button 45 for instructing the end, and a pointer 46 are displayed. As a result, a menu of which process to execute is displayed. The user operates the operation input device 17 and selects a process in the menu with the pointer 46. By selecting any of the buttons 41 to 43 of the "monitoring / authentication mode", "dictionary registration mode", and "adjustment mode", the image authentication device 1 executes the process described later.
For example, when the user selects the "setting" button 44 with the pointer 46, the image authentication device 1 executes a process of changing various settings of the image authentication system of the present embodiment. Further, when the user selects the "end" button 45 with the pointer 46, the image authentication device 1 terminates the image authentication system of the present embodiment.

<監視・認証処理>
まず、本実施形態の画像認証装置1が、カメラ2〜4を使って人物の画像データを撮像しつつ、ユーザ入力に従って認証することで、特定人物が写っているか判定する監視・認証処理を説明する。この処理は、ユーザが操作入力装置17を操作し、ポインタ46で図3のコンソール画面40の「監視・認証モード」のボタン41を指示することで実行される。
なお、この監視・認証処理の間、カメラ2〜4は常に撮像を続け、二次記憶装置14に撮像画像を記憶し続けているものとする。このとき、画像認証装置1は、撮像画像がどのカメラで撮像されたのかを示すラベルと対応付けて記憶しておく。
また、この監視・認証処理は、操作入力装置17を介して取得するユーザ入力に応じて処理が進む。ユーザ入力として、監視・認証処理を終了する「終了指示」と、画像認証を実行させる「認証指示」の2つがある。この2つのユーザ入力は、図4に示す監視・認証処理の処理中ならば、いつでも受け取ることができるものとする。
<Monitoring / Authentication processing>
First, the monitoring / authentication process of determining whether or not a specific person is captured by the image authentication device 1 of the present embodiment while capturing image data of a person using cameras 2 to 4 and authenticating according to user input will be described. To do. This process is executed by the user operating the operation input device 17 and instructing the button 41 of the "monitoring / authentication mode" of the console screen 40 of FIG. 3 with the pointer 46.
During this monitoring / authentication process, it is assumed that the cameras 2 to 4 constantly take images and store the captured images in the secondary storage device 14. At this time, the image authentication device 1 stores the captured image in association with a label indicating which camera captured the captured image.
Further, this monitoring / authentication process proceeds according to the user input acquired via the operation input device 17. There are two user inputs, an "end instruction" for ending the monitoring / authentication process and an "authentication instruction" for executing image authentication. These two user inputs can be received at any time during the monitoring / authentication process shown in FIG.

図4は、画像認証装置1が実行する監視・認証処理の処理フローの一例を示したものである。この図を参照しながら、実際の処理について詳細を説明する。
まず、認証画像取得部21は、ユーザ入力の「終了指示」がある(S1でYes)場合、この処理フローを終了する。「終了指示」がない場合(S1でNo)、さらにユーザ入力の「認証指示」がある場合(S2でYes)、認証画像を取得する(S3)。認証画像は、前述の通り、人物の顔が写る画像である。認証画像を取得するには、二次記憶装置14に記憶された撮像画像から人物の顔を検出し、検出した人物の顔を切り出せばよい。撮像画像から人物の顔を検出する方法については、公知の技術を用いればよい。
例えば、以下の文献に開示された技術を用いることができる。
P.Viola and M.Jones,“Robust Real−Time Face Detection”, In page II: 747, 2001.
検出した顔の画像上の座標に基づいて、撮像画像から顔の画像を切り出す。このとき、画像面に対する顔の面内回転を一定にするため画像正規化を施してもよい。例えば、顔の両目をつなぐ直線が、画像に対して水平になるように画像を回転させる、等の処理を施してもよい。
FIG. 4 shows an example of the processing flow of the monitoring / authentication process executed by the image authentication device 1. The actual processing will be described in detail with reference to this figure.
First, the authentication image acquisition unit 21 ends this processing flow when there is a user-input "end instruction" (Yes in S1). When there is no "end instruction" (No in S1), and when there is a user-input "authentication instruction" (Yes in S2), an authentication image is acquired (S3). As described above, the authentication image is an image in which a person's face is captured. In order to acquire the authentication image, the face of a person may be detected from the captured image stored in the secondary storage device 14, and the face of the detected person may be cut out. As a method for detecting a person's face from a captured image, a known technique may be used.
For example, the techniques disclosed in the following documents can be used.
P. Viola and M. Jones, "Robust Real-Time Face Detection", Inpage II: 747, 2001.
A face image is cut out from the captured image based on the detected coordinates on the face image. At this time, image normalization may be performed in order to make the in-plane rotation of the face with respect to the image surface constant. For example, the image may be rotated so that the straight line connecting both eyes of the face is horizontal to the image.

本実施形態では、二次記憶装置14に記憶された複数の撮像画像から人物の顔を検出し、検出した人物の顔、すなわち認証画像を切り出す。どの撮像画像を検出、切り出しの処理対象とするかはユーザに選択させればよい。例えば、ユーザに時間の範囲を指定させ、その時間の範囲内で撮像された撮像画像を処理対象とするようにしてもよい。
続いて、局所領域設定部22が、すべての認証画像に対して局所領域を設定する(S4)。ここでは、まず、顔の目や鼻といった器官の位置(器官位置)を検出し、検出した器官位置を基に局所領域を設定する。すなわち、局所領域設定部22は、1つの認証対象画像に対して複数の局所領域を設定する。
In the present embodiment, the face of a person is detected from a plurality of captured images stored in the secondary storage device 14, and the face of the detected person, that is, the authentication image is cut out. The user may select which captured image is to be detected and cut out. For example, the user may be allowed to specify a time range, and the captured image captured within the time range may be processed.
Subsequently, the local area setting unit 22 sets the local area for all the authentication images (S4). Here, first, the positions of organs (organ positions) such as the eyes and nose of the face are detected, and a local region is set based on the detected organ positions. That is, the local area setting unit 22 sets a plurality of local areas for one authentication target image.

図5は、認証画像に設定された局所領域を模式的に示した図である。この図に示すように、認証画像すなわち人物の顔画像50に対して右目の局所領域51、左目の局所領域52、口の局所領域53が設定されている。
なお、本実施形態では、検出した器官位置を中心とする矩形領域を局所領域として設定しているが、局所領域の設定方法は他の方法を用いてもよい。器官位置を中心とする矩形領域でなくてもよい。例えば、器官位置から所定の画素数離れた位置を基準とした領域でもよいし、矩形領域ではなく円形領域でもよい。また、検出した器官位置を基準としないで、顔画像の所定の領域を事前に定めておいてもよい。また、一つの器官位置に対して複数の局所領域を設定してもよいし、局所領域の数は図5で示した3つに限るものではない。
器官位置を検出する方法については公知の技術を用いればよい。例えば、特開2009−211177号公報に開示された技術を用いることができる。
FIG. 5 is a diagram schematically showing a local region set in the authentication image. As shown in this figure, a local region 51 for the right eye, a local region 52 for the left eye, and a local region 53 for the mouth are set for the authentication image, that is, the face image 50 of a person.
In the present embodiment, the rectangular region centered on the detected organ position is set as the local region, but another method may be used as the method for setting the local region. It does not have to be a rectangular area centered on the organ position. For example, it may be a region based on a position separated by a predetermined number of pixels from the organ position, or may be a circular region instead of a rectangular region. In addition, a predetermined region of the facial image may be defined in advance without using the detected organ position as a reference. Further, a plurality of local regions may be set for one organ position, and the number of local regions is not limited to the three shown in FIG.
A known technique may be used for the method of detecting the organ position. For example, the technique disclosed in Japanese Patent Application Laid-Open No. 2009-21177 can be used.

続いて、特徴抽出部23が、認証画像の各局所領域から特徴量を抽出する(S5)。特徴量を抽出する方法に関しては公知の技術を用いればよい。例えば、LBP(Local Binary Pattern)特徴量を用いることができる。あるいは、HOG(Histogram of Oriented Gradient)特徴量やSIFT(Scale−Invariant Feature Transform)特徴量を用いてもよい。また、これらを混合した特徴量を用いてもよい。事前に学習したCNN(Convolutional Neural Network)で抽出した特徴量を用いてもよい。また、抽出した特徴量を、PCA(Principal Component Analysis)等を使って次元圧縮してもよい。
続いて、特徴記憶部24が、抽出した特徴量を二次記憶装置14に記憶する(S6)。あるいは、特徴量をRAM13に記憶するようにしてもよい。
Subsequently, the feature extraction unit 23 extracts the feature amount from each local region of the authentication image (S5). A known technique may be used for the method of extracting the feature amount. For example, an LBP (Local Binary Pattern) feature amount can be used. Alternatively, a HOG (Histogram of Oriented Gradient) feature quantity or a SIFT (Scale-Invariant Feature Transition) feature quantity may be used. Moreover, you may use the feature quantity which mixed these. The feature amount extracted by CNN (Convolutional Neural Network) learned in advance may be used. Further, the extracted feature amount may be dimensionally compressed using PCA (Principal Component Analysis) or the like.
Subsequently, the feature storage unit 24 stores the extracted feature amount in the secondary storage device 14 (S6). Alternatively, the feature amount may be stored in the RAM 13.

続いて、画像認証処理を行う(S7)。画像認証処理について以下、詳細に説明する。図6は、画像認証処理の処理フローの一例を示した図である。
はじめに、類似度算出部28が、辞書登録部25から登録辞書を取得する(S11)。登録辞書は、ユーザが認証したい人物の画像の特徴量を事前に登録しておいたものであり、事前にユーザによって登録されているものとする。辞書登録処理については後述する。
続いて、類似度算出部28が、類似度算出パラメタを類似度算出パラメタ記憶部27から取得する(S12)。なお、この類似度算出パラメタは、事前に算出しておき、類似度算出パラメタ記憶部27に記憶してあるものとする。類似度算出パラメタの算出処理については後述する。
続いて、類似度算出部28が、特徴記憶部24から認証対象となる特徴量を取得する(S13)。前述の通り、このとき取得する特徴量は、認証画像から取得された少なくとも一つ以上の特徴量である。一つの特徴量は、人物の顔一つに対応している。また、本実施形態では、顔一つに対して局所領域毎に特徴量を抽出しているので、一つの特徴量は複数の局所領域毎の特徴量を含む。
Subsequently, the image authentication process is performed (S7). The image authentication process will be described in detail below. FIG. 6 is a diagram showing an example of a processing flow of the image authentication process.
First, the similarity calculation unit 28 acquires a registered dictionary from the dictionary registration unit 25 (S11). In the registration dictionary, the feature amount of the image of the person to be authenticated by the user is registered in advance, and it is assumed that the feature amount is registered by the user in advance. The dictionary registration process will be described later.
Subsequently, the similarity calculation unit 28 acquires the similarity calculation parameter from the similarity calculation parameter storage unit 27 (S12). It is assumed that this similarity calculation parameter is calculated in advance and stored in the similarity calculation parameter storage unit 27. The calculation process of the similarity calculation parameter will be described later.
Subsequently, the similarity calculation unit 28 acquires the feature amount to be authenticated from the feature storage unit 24 (S13). As described above, the feature amount acquired at this time is at least one or more feature amount acquired from the authentication image. One feature corresponds to one person's face. Further, in the present embodiment, since the feature amount is extracted for each local region for one face, one feature amount includes the feature amount for each of a plurality of local regions.

続いて、類似度算出部28が、認証対象の特徴量と登録辞書のすべての特徴量との組み合わせについて、局所類似度を算出する(S14)。ここで、「局所類似度」とは、局所領域毎に算出された類似度のことである。前述の通り、認証対象の特徴量および登録辞書は局所領域毎に抽出された特徴量であるため、局所領域毎に類似度を算出する。ある局所領域一つについての局所類似度の算出方法を以下に説明する。
類似度算出方法としては、公知の技術を用いることができる。例えば、以下の式(1)に示すコサイン類似度を用いることができる。
Subsequently, the similarity calculation unit 28 calculates the local similarity for the combination of the feature amount to be authenticated and all the feature amounts of the registered dictionary (S14). Here, the "local similarity" is the similarity calculated for each local region. As described above, since the feature amount to be authenticated and the registered dictionary are the feature amount extracted for each local area, the similarity is calculated for each local area. The method of calculating the local similarity for one local region will be described below.
A known technique can be used as the similarity calculation method. For example, the cosine similarity shown in the following equation (1) can be used.

Figure 0006873639
ここで、・は内積を意味し、Sは特徴量ベクトルx’、y’間の類似度である。さらに、特徴量ベクトルx’、y’を以下の式(2)、式(3)で示す。
x’=x−μ (2)
y’=y−μ (3)
と表す。
Figure 0006873639
Here, · means the inner product, and S is the degree of similarity between the feature vectors x'and y'. Further, the feature vector x'and y'are shown by the following equations (2) and (3).
x'= x c − μ c (2)
y'= y−μ c (3)
It is expressed as.

はカメラcで撮像された認証画像から抽出した特徴量ベクトルを表す。yは、登録辞書に登録された特徴量ベクトルを表す。μは角度算出の原点ベクトルである。すなわち、式(1)は、特徴量ベクトルx、y間のコサイン類似度を、μを原点として、測っている。このμが本実施形態における類似度算出パラメタである。μの算出方法については後述する。
ここまで、ある局所領域一つについての類似度の算出方法を述べた。他の局所領域についても同様に類似度を算出する。
続いて、類似度算出部28が、認証対象のすべての特徴量と登録辞書の組み合わせについて、算出した局所類似度をもとに統合類似度を算出する(S15)。ここで、「統合類似度」とは、局所領域毎に算出された複数の局所類似度を統合した類似度である。
統合の方法については公知の技術を用いればよい。例えば、局所類似度の平均、局所類似度の最大値を選択する、等の方法を用いることができる。このほか、局所領域毎の重みを事前に算出しておき、局所類似度をその重みつき平均で統合するようにしてもよい。なお、本実施形態において、局所類似度算出(S14)と統合類似度算出(S15)の2つを合わせて類似度算出と呼ぶ。また、算出した統合類似度は、値のレンジが例えば1〜1000になるよう正規化処理を施してもよい。
x c represents a feature amount vector extracted from the authentication image captured by the camera c. y represents a feature amount vector registered in the registration dictionary. μ c is the origin vector for angle calculation. That is, the equation (1) measures the cosine similarity between the feature vectors x c and y with μ c as the origin. This μ c is a similarity calculation parameter in this embodiment. The calculation method of μ c will be described later.
So far, the method of calculating the similarity for one local region has been described. The similarity is calculated for other local regions in the same manner.
Subsequently, the similarity calculation unit 28 calculates the integrated similarity based on the calculated local similarity for all the features to be authenticated and the combination of the registered dictionaries (S15). Here, the "integrated similarity" is a similarity obtained by integrating a plurality of local similarities calculated for each local region.
A known technique may be used for the method of integration. For example, a method such as selecting the average of local similarity and the maximum value of local similarity can be used. In addition, the weight for each local region may be calculated in advance, and the local similarity may be integrated by the weighted average. In the present embodiment, the local similarity calculation (S14) and the integrated similarity calculation (S15) are collectively referred to as the similarity calculation. Further, the calculated integrated similarity may be normalized so that the value range is, for example, 1 to 1000.

続いて、認証結果判定部29が、認証対象の画像中のすべての人物に対して、登録辞書のうち誰なのか、または誰でもないかを、統合類似度を基に判定をする(S16)。具体的には、最も高い統合類似度が、事前に定めた閾値よりも大きければ、認証結果判定部29は、その統合類似度に対応する登録辞書の人物であると判定する。逆に、最も高い類似度が、事前に定めた閾値以下の場合は、認証結果判定部29は、登録辞書のうちの誰でもない、と判定する。
以上で、図6の画像認証処理を終了する。
この後、図4のS7に戻り、続く処理を実行する。すなわち、表示部30は、認証結果判定部29から取得した認証結果を表示する(S8)。
Subsequently, the authentication result determination unit 29 determines who or not the registered dictionary for all the persons in the image to be authenticated based on the integrated similarity (S16). .. Specifically, if the highest integrated similarity is larger than a predetermined threshold value, the authentication result determination unit 29 determines that the person is a person in the registered dictionary corresponding to the integrated similarity. On the contrary, when the highest degree of similarity is equal to or less than a predetermined threshold value, the authentication result determination unit 29 determines that the dictionary is not any of the registered dictionaries.
This completes the image authentication process of FIG.
After that, the process returns to S7 in FIG. 4 and the subsequent processing is executed. That is, the display unit 30 displays the authentication result acquired from the authentication result determination unit 29 (S8).

図7は、認証結果の表示画面の一例を模式的に示した図である。この図7に示すように、この表示画面60には、登録辞書に登録された人物の画像(この例では人物A)61a、61bが左列に表示され、認証結果が右列に表示されている。本実施形態では、認証画像のうち、本人と判定された人物の画像62a〜62cと、それに対応する類似度63a〜63c、撮像したカメラ名、撮像時刻が表示されている。このように表示することで、登録辞書に登録された人物がいつ、どのカメラに写ったのかを確認することができる。
以上が、監視・認証処理である。
FIG. 7 is a diagram schematically showing an example of an authentication result display screen. As shown in FIG. 7, on the display screen 60, images of persons (persons A in this example) 61a and 61b registered in the registration dictionary are displayed in the left column, and the authentication result is displayed in the right column. There is. In the present embodiment, the images 62a to 62c of the person determined to be the person, the corresponding similarity 63a to 63c, the imaged camera name, and the imaging time are displayed among the authenticated images. By displaying in this way, it is possible to confirm when and which camera the person registered in the registration dictionary was photographed.
The above is the monitoring / authentication process.

本実施形態では、認証画像の特徴量を予め記憶しておき、ユーザの認証指示があった時点で画像認証処理を実行するようにしたが、これに限定されず、特徴量を抽出した時点で画像認証処理を実行するようにしてもよい。
また、本実施形態では、監視・認証処理フロー(図4)のS3で取得したすべての認証画像に対して画像認証処理を実行したが、一部の認証画像を選択して画像認証処理を実行するようにしてもよい。例えば、所定の間隔で認証画像を間引いておいてもよいし、認証画像から抽出した特徴量をクラスタリングして、一つのクラスタから代表の特徴量を選んで画像認証処理をするようにしてもよい。
In the present embodiment, the feature amount of the authenticated image is stored in advance, and the image authentication process is executed when the user is instructed to authenticate, but the present invention is not limited to this, and the feature amount is extracted. The image authentication process may be executed.
Further, in the present embodiment, the image authentication process is executed for all the authentication images acquired in S3 of the monitoring / authentication processing flow (FIG. 4), but some authentication images are selected and the image authentication process is executed. You may try to do it. For example, the authentication images may be thinned out at predetermined intervals, or the feature amounts extracted from the authentication images may be clustered, and a representative feature amount may be selected from one cluster to perform the image authentication process. ..

<類似度算出パラメタ算出処理>
次に、本実施形態の画像認証装置1が、設置したカメラ2〜4それぞれに対応する類似度算出パラメタを算出する処理について説明する。この処理は、図3のコンソール画面から「調整モード」を選択することで実行される。この処理は、前述した監視・認証処理よりも時間的に前に実施しておくのが好ましい。これにより、カメラの設置場所や画角毎に適した類似度算出パラメタで監視・認証処理を行うことがでる。
図8は、類似度算出パラメタ算出処理の処理フローの一例を示したものである。この図を参照しながら、実際の処理について詳細を説明する。
なお、このフローの開始時から終了時までカメラ2〜4は所定のフレームレートで画像を撮像し続け、撮像画像を二次記憶装置14へ記憶し続けているものとする。
<Similarity calculation parameter calculation process>
Next, a process in which the image authentication device 1 of the present embodiment calculates the similarity calculation parameters corresponding to each of the installed cameras 2 to 4 will be described. This process is executed by selecting the "adjustment mode" from the console screen of FIG. It is preferable that this process is performed before the above-mentioned monitoring / authentication process in terms of time. As a result, monitoring / authentication processing can be performed with similarity calculation parameters suitable for each camera installation location and angle of view.
FIG. 8 shows an example of the processing flow of the similarity calculation parameter calculation process. The actual processing will be described in detail with reference to this figure.
It is assumed that the cameras 2 to 4 continue to capture images at a predetermined frame rate from the start to the end of this flow, and continue to store the captured images in the secondary storage device 14.

始めに、認証画像取得部21が、類似度算出パラメタの算出が完了していないカメラを一つ選択する(S21)。
続いて、同じく認証画像取得部21が、二次記憶装置14に記憶された画像の中から、S21で選択したカメラで撮像された撮像画像を選択し、その撮像画像から人物の顔画像を取得する(S22)。撮像画像がどのカメラで撮像されたかを知るには、撮像画像に紐づけて記憶したラベルを参照すればよい。また、撮像画像から人物の顔画像を取得する方法については、前述の監視・認証処理で説明した方法と同様であるため、説明を省略する。なお、本実施形態では二次記憶装置14に記憶した撮像画像を取得するようにしたが、各カメラから直接、撮像画像を取得するようにしてもよい。
First, the authentication image acquisition unit 21 selects one camera for which the calculation of the similarity calculation parameter has not been completed (S21).
Subsequently, the authentication image acquisition unit 21 also selects an image captured by the camera selected in S21 from the images stored in the secondary storage device 14, and acquires a person's face image from the image. (S22). In order to know which camera captured the captured image, the label stored in association with the captured image may be referred to. Further, since the method of acquiring the face image of a person from the captured image is the same as the method described in the above-mentioned monitoring / authentication process, the description thereof will be omitted. In the present embodiment, the captured image stored in the secondary storage device 14 is acquired, but the captured image may be acquired directly from each camera.

局所領域設定(S23)と特徴量抽出(S24)については、前述の方法と同様であるため、説明を省略する。
続いて、特徴記憶部24が、特徴量を記憶する(S25)。このとき、本実施形態では、類似度算出パラメタ算出用に抽出した特徴量であることを示すラベルを特徴量に紐付けて記憶する。
続いて、類似度算出パラメタ算出用に抽出された特徴量の数が事前に定めた所定数より少なければ(S26でNo)、S22に戻り、続く処理を繰り返す。すなわち、類似度算出パラメタを算出するのに十分な数の特徴量が集まるまで、特徴量の収集(抽出と記憶)を繰り返す。収集した特徴量が所定数より多ければ(S26でYes)、S27に進む。
続いて、類似度算出パラメタ算出部26が、収集した特徴量を使って類似度算出パラメタを算出する(S27)。前述の通り、本実施形態における類似度算出パラメタはコサイン類似度の原点である。以下、ある局所領域一つに対応する類似度算出パラメタの算出方法について説明する。
カメラcに対応する原点μは下記式(4)の通り、設置したカメラ毎に集めた特徴量ベクトルxciを平均することで算出する。
Since the local area setting (S23) and the feature amount extraction (S24) are the same as the above-mentioned methods, the description thereof will be omitted.
Subsequently, the feature storage unit 24 stores the feature amount (S25). At this time, in the present embodiment, a label indicating that the feature amount is extracted for calculating the similarity calculation parameter is associated with the feature amount and stored.
Subsequently, if the number of feature quantities extracted for calculating the similarity calculation parameter is less than a predetermined number determined in advance (No in S26), the process returns to S22 and the subsequent processing is repeated. That is, the collection (extraction and storage) of the features is repeated until a sufficient number of features for calculating the similarity calculation parameter are collected. If the collected feature amount is more than the predetermined number (Yes in S26), the process proceeds to S27.
Subsequently, the similarity calculation parameter calculation unit 26 calculates the similarity calculation parameter using the collected features (S27). As described above, the similarity calculation parameter in this embodiment is the origin of the cosine similarity. Hereinafter, a method of calculating the similarity calculation parameter corresponding to one local region will be described.
The origin μ c corresponding to the camera c is calculated by averaging the feature vector x ci collected for each installed camera as shown in the following equation (4).

Figure 0006873639
ここで、xciはカメラcが撮像した認証画像から収集したi番目の特徴量ベクトルであることを示している。また、Nは収集した特徴量ベクトルのサンプル数である。この原点μ、すなわち類似度算出パラメタを用いて、監視・認証処理で類似度を算出する。
Figure 0006873639
Here, x ci indicates that it is the i-th feature vector collected from the authentication image captured by the camera c. Further, N is the number of samples of the collected feature vector. Using this origin μ c , that is, the similarity calculation parameter, the similarity is calculated by the monitoring / authentication process.

図9は、原点を算出したことによる効果を模式的に表した図であり、あるカメラで撮像された、ある局所領域の特徴ベクトル空間を表している。図中の白丸の点はそれぞれ特徴量ベクトルを表しており、特徴量ベクトルの集合すなわちクラスタを点線で表している。図9は、事前に定めた原点71、設置したカメラで集めた認証画像の特徴量ベクトルクラスタ72、人物Aの特徴量ベクトルクラスタ73、人物Bの特徴量ベクトルクラスタ74、設置したカメラで集めた認証画像を基に算出した原点75を示している。コサイン類似度のように、角度をベースにした類似度を算出する場合、認証対象となる特徴量ベクトルが作るクラスタの内側に原点があるほうが、特徴量ベクトルを区別する分解能が高い。 FIG. 9 is a diagram schematically showing the effect of calculating the origin, and represents a feature vector space of a certain local region imaged by a certain camera. The white circle points in the figure represent the feature vector, and the set of feature vectors, that is, the cluster is represented by the dotted line. FIG. 9 shows a predetermined origin 71, a feature amount vector cluster 72 of the authentication image collected by the installed camera, a feature amount vector cluster 73 of the person A, a feature amount vector cluster 74 of the person B, and the feature amount vector cluster 74 collected by the installed camera. The origin 75 calculated based on the authentication image is shown. When calculating the similarity based on the angle like the cosine similarity, the resolution for distinguishing the feature vector is higher when the origin is inside the cluster created by the feature vector to be authenticated.

事前に定めた原点71は、認証対象の特徴ベクトルが作るクラスタの外側にあるため、例えば人物Aの特徴量ベクトル(73内の特徴量ベクトルのいずれか)と人物Bの特徴量ベクトルは、事前に定めた原点71を基準に角度を測ると角度はほとんど0に近い。そのため、コサイン類似度を算出すると、本来は別人であるはずが、誤って本人と判定されるような高い類似度が算出されてしまう。事前に定めた原点71は、一般的には、事前に用意した大量の認証画像をもとに算出しておく。 Since the predetermined origin 71 is outside the cluster created by the feature vector to be authenticated, for example, the feature vector of person A (one of the feature vectors in 73) and the feature vector of person B are predetermined. When the angle is measured with reference to the origin 71 defined in, the angle is almost 0. Therefore, when the cosine similarity is calculated, a high degree of similarity that is supposed to be a different person but is erroneously determined to be the person is calculated. The predetermined origin 71 is generally calculated based on a large number of authentication images prepared in advance.

しかし、設置したカメラで集めた認証画像の特徴量ベクトル分布は、事前に用意した認証画像の特徴量ベクトル分布とは異なっている場合がある。特に、設置したカメラは、画角や場所が制限されるため、特定の照明条件や顔向きの画像が、事前に用意した認証画像に比べ、多くなる。そのような場合に、誤った高い類似度が算出されてしまい、誤認証につながる。そこで、設置したカメラで集めた認証画像を基に算出した原点75を使うことで、設置したカメラで集めた認証画像の特徴量ベクトルクラスタ72の内側に入ることになる。これにより、カメラの設置場所や画角毎に認証に適した原点を使ってコサイン類似度を算出することができ、誤認証が低減されることが期待される。
しかしながら、設置したカメラで集めた認証画像を基に算出した原点の特徴量空間上の位置が、必ずしも認証に適した位置に来るとは限らない。
However, the feature amount vector distribution of the authenticated image collected by the installed camera may be different from the feature amount vector distribution of the authenticated image prepared in advance. In particular, since the angle of view and the location of the installed camera are limited, the number of images with specific lighting conditions and face orientation is larger than that of the authenticated image prepared in advance. In such a case, an erroneous high degree of similarity is calculated, leading to erroneous authentication. Therefore, by using the origin 75 calculated based on the authentication image collected by the installed camera, the feature amount vector cluster 72 of the authentication image collected by the installed camera is entered. As a result, the cosine similarity can be calculated using the origin suitable for authentication for each camera installation location and angle of view, and it is expected that false authentication will be reduced.
However, the position on the feature space of the origin calculated based on the authentication image collected by the installed camera does not always come to the position suitable for authentication.

図10は、図9と同様に特徴量ベクトル空間を示しており、事前に定めた原点76、設置したカメラで集めた認証画像の特徴量ベクトルクラスタ77、人物Cの特徴量ベクトルクラスタ78、設置したカメラで集めた認証画像を基に算出した原点79を示している。この場合、事前に定めた原点71がコサイン類似度の算出に適さないのは図9と同様であるが、設置したカメラで集めた認証画像を基に算出した原点79が人物Cの特徴量ベクトルクラスタ78の内部に入っている。この場合、コサイン類似度を算出すると、特徴量ベクトルクラスタ78の人物Cと他の人物を誤って本人と判定してしまう誤認証が発生する場合がある。このように、算出した原点が誰かの特徴量ベクトルクラスタの内側に入ってしまう場合、認証に適した原点とは言えない。 FIG. 10 shows a feature amount vector space as in FIG. 9, a predetermined origin 76, a feature amount vector cluster 77 of the authentication image collected by the installed camera, a feature amount vector cluster 78 of the person C, and an installation. The origin 79 calculated based on the authentication image collected by the camera is shown. In this case, it is the same as in FIG. 9 that the predetermined origin 71 is not suitable for calculating the cosine similarity, but the origin 79 calculated based on the authentication image collected by the installed camera is the feature vector of the person C. It is inside the cluster 78. In this case, when the cosine similarity is calculated, erroneous authentication may occur in which the person C of the feature vector cluster 78 and another person are erroneously determined to be the person. In this way, if the calculated origin falls inside someone's feature vector cluster, it cannot be said to be a suitable origin for authentication.

そこで、本実施形態では、認証画像一つに対して一つの特徴量ではなく、複数の局所領域を設定することで複数の特徴量を抽出し、最終的に複数の特徴量毎の類似度を統合して統合類似度を算出している。これにより、算出した類似度算出パラメタが認証に適していない局所領域があった場合の誤認証を低減している。すなわち、ある局所領域で認証に適していない類似度算出パラメタを算出し、別人を本人と判定するような高い類似度を算出したとしても、認証に適した類似度算出パラメタを算出できた他の局所領域の類似度と最終的に統合するため、誤認証の低減が期待できる。 Therefore, in the present embodiment, a plurality of feature quantities are extracted by setting a plurality of local regions instead of one feature quantity for one authentication image, and finally the similarity of each of the plurality of feature quantities is obtained. The integration similarity is calculated by integrating. This reduces erroneous authentication when there is a local area where the calculated similarity calculation parameter is not suitable for authentication. That is, even if a similarity calculation parameter that is not suitable for authentication is calculated in a certain local area and a high similarity that determines another person as the person is calculated, another similarity calculation parameter that is suitable for authentication can be calculated. Since it is finally integrated with the similarity of the local area, reduction of false authentication can be expected.

なお、本実施形態では、複数の局所領域を設定することで複数の特徴量を抽出したが、これ以外の方法で複数の特徴量を抽出してもよい。例えば、異なる種類の特徴量を抽出することで複数の特徴量を抽出してもよい。
また、本実施形態では、特徴量ベクトルの平均を原点として用いたがこれに限定されない。この他、別の方法を用いて原点を算出してもよい。例えば、特徴量ベクトルの単純な平均ではなく、重みつき平均を用いてもよい。このとき、認証対象の特徴量ベクトルが作るクラスタの内側に原点がくるように重みの値を正規化するとよい。
以上が、一つの局所領域に対応する類似度算出パラメタの算出方法である。これを、他のすべての局所領域について算出する。
In the present embodiment, a plurality of feature quantities are extracted by setting a plurality of local regions, but a plurality of feature quantities may be extracted by other methods. For example, a plurality of feature quantities may be extracted by extracting different types of feature quantities.
Further, in the present embodiment, the average of the feature amount vectors is used as the origin, but the present invention is not limited to this. In addition, the origin may be calculated by using another method. For example, a weighted average may be used instead of a simple average of the feature vectors. At this time, it is advisable to normalize the weight value so that the origin is inside the cluster created by the feature vector to be authenticated.
The above is the calculation method of the similarity calculation parameter corresponding to one local region. This is calculated for all other local regions.

図8に戻り、続いて、類似度算出パラメタ記憶部27が、算出した類似度算出パラメタを記憶する(S28)。
続いて、全てのカメラに対応する類似度算出パラメタ算出処理が完了していれば(S29でYes)、類似度算出部28は、この類似度算出パラメタ算出処理を完了する。まだ完了していないカメラがあれば(S29でNo)、S21に戻り、画像認証装置1は、続く処理を繰り返す。
以上が類似度算出パラメタ算出処理の説明である。
Returning to FIG. 8, the similarity calculation parameter storage unit 27 subsequently stores the calculated similarity calculation parameter (S28).
Subsequently, if the similarity calculation parameter calculation process corresponding to all the cameras is completed (Yes in S29), the similarity calculation unit 28 completes the similarity calculation parameter calculation process. If there is a camera that has not been completed yet (No in S29), the process returns to S21, and the image authentication device 1 repeats the following processing.
The above is the explanation of the similarity calculation parameter calculation process.

図11は、この類似度算出パラメタ算出処理を実行中に表示する画面80の一例を模式的に示した図である。図11は、類似度算出パラメタを調整するために必要な認証画像の画像数(特徴量数)が所定数貯まったことをユーザに提示する様子を模式的に示している。図11には、カメラ2とカメラ3は類似度算出パラメタを算出するのに十分な画像数が集まっており(81a、82a、81b、82b)、カメラ4はまだ不十分であることが示されている(81c、82c)。このように、所定数の画像が貯まったことをユーザに提示することで、類似度算出パラメタを算出するために、あとどの程度の画像数を集めればよいか視覚的にわかるようになっている。 FIG. 11 is a diagram schematically showing an example of the screen 80 displayed during the execution of the similarity calculation parameter calculation process. FIG. 11 schematically shows a state in which a predetermined number of images (features) of the authentication images required for adjusting the similarity calculation parameter are presented to the user. FIG. 11 shows that the camera 2 and the camera 3 have a sufficient number of images for calculating the similarity calculation parameters (81a, 82a, 81b, 82b), and the camera 4 is still insufficient. (81c, 82c). In this way, by presenting to the user that a predetermined number of images have been accumulated, it is possible to visually understand how many more images should be collected in order to calculate the similarity calculation parameter. ..

なお、本実施形態では、すべてのカメラに対応する類似度算出パラメタを算出しないと類似度算出パラメタ算出処理を完了しないようになっているが、これに限定されない。例えば、一部、または、全部の類似度算出パラメタの算出を完了する前に、類似度算出パラメタ算出処理を中断してもよい。その場合は、監視・認証処理の際に使用する類似度算出パラメタは他の方法で用意しておけばよい。例えば、事前に用意しておいたデフォルトの類似度算出パラメタを使うようにしてもよい。または、所定数には足りないものの、各カメラ毎に集めた特徴量で類似度算出パラメタを算出しておいてもよい。または、算出に足りない特徴量を監視・認証処理のバックグラウンドでさらに収集するようにして、所定数に達した時点で類似度算出パラメタを算出するようにしてもよい。その場合は、類似度算出パラメタの算出が終わるまでは、事前に用意したデフォルトの類似度算出パラメタを使用し、算出が終わったら、算出した類似度算出パラメタに差し替えるようにすればよい。 In the present embodiment, the similarity calculation parameter calculation process is not completed unless the similarity calculation parameters corresponding to all the cameras are calculated, but the present embodiment is not limited to this. For example, the similarity calculation parameter calculation process may be interrupted before the calculation of some or all of the similarity calculation parameters is completed. In that case, the similarity calculation parameters used in the monitoring / authentication process may be prepared by another method. For example, the default similarity calculation parameter prepared in advance may be used. Alternatively, although the number is not sufficient, the similarity calculation parameter may be calculated from the feature quantities collected for each camera. Alternatively, the feature amount that is insufficient for calculation may be further collected in the background of the monitoring / authentication process, and the similarity calculation parameter may be calculated when a predetermined number is reached. In that case, the default similarity calculation parameter prepared in advance may be used until the calculation of the similarity calculation parameter is completed, and then replaced with the calculated similarity calculation parameter after the calculation is completed.

<辞書登録処理>
次に、認証する人物を登録する辞書登録処理について説明する。この処理は、図3のコンソール画面から「辞書登録モード」を選択することで実行される。
図12は、辞書登録処理の処理フローの一例を示したものである。この図を参照しながら、実際の処理について詳細を説明する。
はじめに、認証画像取得部21が、辞書登録用の画像を取得する(S31)。なお、辞書登録用の画像については、必ずしもカメラ2〜4で撮像されたものである必要はなく、事前に撮像しておいた画像を利用してもよい。
続く、局所領域設定(S32)〜特徴抽出(S33)の処理については、前述した図8の処理S23、S24と同様であるため、説明を省略する。
<Dictionary registration process>
Next, the dictionary registration process for registering the person to be authenticated will be described. This process is executed by selecting the "dictionary registration mode" from the console screen of FIG.
FIG. 12 shows an example of the processing flow of the dictionary registration process. The actual processing will be described in detail with reference to this figure.
First, the authentication image acquisition unit 21 acquires an image for dictionary registration (S31). The image for registering the dictionary does not necessarily have to be captured by the cameras 2 to 4, and the image captured in advance may be used.
Subsequent processes of local area setting (S32) to feature extraction (S33) are the same as the processes S23 and S24 of FIG. 8 described above, and thus description thereof will be omitted.

続いて、辞書登録部25が、特徴量を辞書へ登録する(S34)。このとき、登録した人物の人物IDを、特徴量に紐付けて登録する、すなわち、二次記憶装置14に記憶する。特徴量に紐付けられる人物IDは、ユーザ入力により取得すればよい。
以上が、辞書登録処理の説明である。
ここで登録しておいた人物が取り貯めた撮像画像に写っているか否かを、前述の監視・認証処理で判定する。なお、登録する人物の数に特に制限はなく、また、一人あたり複数の特徴量を登録してもよい。
以上が、本発明における実施形態1の説明である。
Subsequently, the dictionary registration unit 25 registers the feature amount in the dictionary (S34). At this time, the person ID of the registered person is registered in association with the feature amount, that is, stored in the secondary storage device 14. The person ID associated with the feature amount may be acquired by user input.
The above is the explanation of the dictionary registration process.
Whether or not the person registered here is reflected in the captured image is determined by the above-mentioned monitoring / authentication process. The number of persons to be registered is not particularly limited, and a plurality of feature quantities may be registered per person.
The above is the description of the first embodiment of the present invention.

以上説明したとおり、本実施形態では、設置したカメラで撮像した撮像画像から認証画像を取得し、設置したカメラに対応した類似度算出パラメタを算出することで、撮像条件に頑健な人物認証を実現する方法について説明した。
カメラを設置することにより、撮像される人物の向きや、照明条件等の撮像条件がある程度固定される。そのため、カメラの設置場所や画角等の撮像条件に特化させた類似度算出パラメタを用いることで、事前に用意した類似度算出パラメタを用いるよりも、より高精度に人物(オブジェクト)を認証することができる。
As described above, in the present embodiment, the authentication image is acquired from the image captured by the installed camera, and the similarity calculation parameter corresponding to the installed camera is calculated to realize the person authentication robust to the imaging conditions. I explained how to do it.
By installing the camera, the orientation of the person to be imaged and the imaging conditions such as the lighting conditions are fixed to some extent. Therefore, by using the similarity calculation parameters specialized for the imaging conditions such as the camera installation location and the angle of view, the person (object) can be authenticated with higher accuracy than using the similarity calculation parameters prepared in advance. can do.

変形例
上記実施形態1では、類似度としてコサイン類似度を用い、コサイン類似度算出の際の原点を類似度算出パラメタとして算出したが、別の類似度を用いてもよい。例えば、以下の式(5)、式(6)に示すように類似度Sとしてマハラノビス距離の逆数を用い、マハラノビス行列Mを類似度算出パラメタとして算出してもよい。
Modification Example In the above-described first embodiment, the cosine similarity is used as the similarity, and the origin at the time of calculating the cosine similarity is calculated as the similarity calculation parameter, but another similarity may be used. For example, as shown in the following equations (5) and (6), the reciprocal of the Mahalanobis distance may be used as the similarity S, and the Mahalanobis matrix M may be calculated as the similarity calculation parameter.

Figure 0006873639
ここで、x、yは、それぞれ、カメラcで撮像された人物の特徴量ベクトル、登録辞書の特徴量ベクトルを表す。
Figure 0006873639
Here, x c and y represent the feature vector of the person captured by the camera c and the feature vector of the registered dictionary, respectively.

図13は、マハラノビス行列を類似度算出パラメタとして算出する場合の効果を模式的に示した図である。
図13は、図9、図10と同様に特徴量ベクトルの分布を示している。この分布には、事前に算出した平均ベクトル91、事前に算出したマハラノビス行列を基にした距離空間92、設置したカメラで収集した認証画像を基に新たに算出した平均ベクトル93を示している。さらに、この分布には、新たに算出したマハラノビス行列を基にした距離空間94、人物Dの特徴量ベクトルクラスタ95、人物Eの特徴量ベクトルクラスタ96を示している。
ここで、距離空間92は、事前に算出した平均ベクトル91からのマハラノビス距離が距離空間92の楕円上では等しいことを意味している。すなわち、距離空間92のマハラノビス距離は、図13の左下から右上の斜め方向の距離が、通常のユークリッド距離に比べ、短い距離尺度になっている。距離空間94も同様で、図13の左上から右下に向かう距離が、通常のユークリッド距離に比べ、短い距離尺度になっている。
FIG. 13 is a diagram schematically showing the effect when the Mahalanobis matrix is calculated as a similarity calculation parameter.
FIG. 13 shows the distribution of the feature vector as in FIGS. 9 and 10. This distribution shows a pre-calculated average vector 91, a metric space 92 based on a pre-calculated Mahalanobis matrix, and a newly calculated average vector 93 based on an authentication image collected by an installed camera. Further, this distribution shows a distance space 94 based on the newly calculated Mahalanobis matrix, a feature vector cluster 95 of the person D, and a feature vector cluster 96 of the person E.
Here, the metric space 92 means that the Mahalanobis distance from the pre-calculated average vector 91 is equal on the ellipse of the metric space 92. That is, the Mahalanobis distance in the metric space 92 is a distance scale in which the diagonal distance from the lower left to the upper right in FIG. 13 is shorter than the normal Euclidean distance. The same applies to the metric space 94, in which the distance from the upper left to the lower right in FIG. 13 is a shorter distance scale than the normal Euclidean distance.

このように、事前に算出した距離尺度と設置したカメラで集めた認証画像から算出した距離尺度は異なる。図13の事前に算出したマハラノビス行列を基にした距離空間92では、図13の左下から右上の距離が短い距離尺度となる。このため、人物Dの特徴量ベクトル(人物Dの特徴量ベクトルクラスタ95内のいずれか一点)と人物Eの特徴量ベクトルのマハラノビス距離は近い。すなわち同一人物と判定される可能性がある。一方、新たに算出したマハラノビス行列を基にした距離空間94では、逆に人物Dの特徴量ベクトルと人物Eの特徴量ベクトル間の距離は長いので、別人と判定される可能性が高くなる。このように、マハラノビス距離のような、事前の学習で類似度算出パラメタを設定しておくような手法についても、本実施形態の手法を適用することができる。
また、本実施形態では、認証画像は人物の顔が写る画像としたが、それに限るものではなく、人体やその他の任意のオブジェクトが写る画像でもよい。
以上説明したように、本実施形態では、カメラの設置場所や画角に適した類似度算出パラメタを用いて人物(オブジェクト)をより高精度に認証することができる。
In this way, the distance scale calculated in advance and the distance scale calculated from the authentication image collected by the installed camera are different. In the distance space 92 based on the Mahalanobis matrix calculated in advance in FIG. 13, the distance from the lower left to the upper right in FIG. 13 is a short distance scale. Therefore, the Mahalanobis distance between the feature amount vector of the person D (any one point in the feature amount vector cluster 95 of the person D) and the feature amount vector of the person E is close. That is, it may be determined that they are the same person. On the other hand, in the distance space 94 based on the newly calculated Mahalanobis matrix, on the contrary, since the distance between the feature amount vector of the person D and the feature amount vector of the person E is long, there is a high possibility that the person is determined as another person. As described above, the method of the present embodiment can also be applied to a method such as the Mahalanobis distance in which the similarity calculation parameter is set by prior learning.
Further, in the present embodiment, the authentication image is an image in which a person's face is captured, but the present invention is not limited to this, and an image in which a human body or any other object is captured may be used.
As described above, in the present embodiment, the person (object) can be authenticated with higher accuracy by using the similarity calculation parameter suitable for the installation location and the angle of view of the camera.

実施形態2
上記実施形態1では、カメラの撮像画像から収集した特徴量を使って類似度算出パラメタを算出する例について説明した。本実施形態では、辞書登録処理時に類似度算出パラメタを算出する例について説明する。なお、実施形態1と同様の箇所は説明を省略し、差異のある箇所のみ説明する。
実施形態2では、実施形態1と同様に、認証に用いる類似度としてコサイン類似度を使う例を説明する。監視・認証処理および類似度算出パラメタ算出処理は、実施形態1と同じであるため説明を省略する。
辞書登録処理について説明する。
Embodiment 2
In the first embodiment, an example of calculating the similarity calculation parameter using the feature amount collected from the captured image of the camera has been described. In this embodiment, an example of calculating the similarity calculation parameter at the time of dictionary registration processing will be described. The same parts as in the first embodiment will be omitted, and only the parts with differences will be described.
In the second embodiment, as in the first embodiment, an example in which the cosine similarity is used as the similarity used for authentication will be described. Since the monitoring / authentication process and the similarity calculation parameter calculation process are the same as those in the first embodiment, the description thereof will be omitted.
The dictionary registration process will be described.

図14は、本実施形態における辞書登録処理の処理フローの一例を示したものである。この図を参照しながら、実際の処理について詳細を説明する。
登録画像取得(S41)〜辞書登録(S44)までは、実施形態1(図12のS31〜S34)と同様であるため、説明を省略する。
S44に続いて、類似度算出パラメタ算出部26が、辞書登録部25から取得した登録辞書を使って類似度算出パラメタを更新する(S45)。この類似度算出パラメタ算出処理で算出されている更新後の類似度算出パラメタσは、以下の式(7)で表される。
σ=wσ+wσ (7)
ここで、σは、設置場所のカメラで収集した特徴量の平均ベクトルであり、σは、登録辞書の全特徴量の平均ベクトルであり、w、wは、それぞれの類似度算出パラメタに対する重み係数である。
FIG. 14 shows an example of the processing flow of the dictionary registration process in the present embodiment. The actual processing will be described in detail with reference to this figure.
Since the registration image acquisition (S41) to the dictionary registration (S44) are the same as those in the first embodiment (S31 to S34 in FIG. 12), the description thereof will be omitted.
Following S44, the similarity calculation parameter calculation unit 26 updates the similarity calculation parameter using the registered dictionary acquired from the dictionary registration unit 25 (S45). The updated similarity calculation parameter σ calculated by this similarity calculation parameter calculation process is represented by the following equation (7).
σ = w 0 σ 0 + w r σ r (7)
Here, sigma 0 is the mean vector of the collected feature quantity at the site of the camera, the sigma r is the mean vector of all feature quantities of registered dictionary, w 0, w r is calculated for each of the similarity It is a weighting coefficient for a parameter.

一般的に、設置したカメラで収集できる特徴量の数に比べ、登録辞書の特徴量は数が少ないため、両方の特徴量を含めて平均をとると設置したカメラで収集した特徴量の影響が支配的になってしまう。そこで、本実施形態では、それぞれで算出した平均ベクトルを事前に定めた所定の重みで足し合わせ、登録辞書で求めた平均ベクトルの影響をどの程度にするか調整できるようにしている。
なお、σは事前に算出しておいてもよいし、設置場所のカメラで収集した特徴量を二次記憶装置14にすべて記憶しておき、式(7)を算出する際にσを算出してもよい。
続いて、類似度算出パラメタ記憶部27が、式(7)で算出された類似度算出パラメタσを二次記憶装置14に記憶する(S46)。
なお、本実施形態では、登録辞書に新たな特徴量が登録されると、毎回、類似度算出パラメタを算出するようにしたが、毎回算出しなくてもよい。例えば、登録辞書に所定数の特徴量が新たに登録された際に算出するようにしてもよい。
Generally, the number of features in the registered dictionary is smaller than the number of features that can be collected by the installed camera, so if you take the average including both features, the effect of the features collected by the installed camera will be affected. It becomes dominant. Therefore, in the present embodiment, the average vectors calculated for each are added by a predetermined weight determined in advance so that the influence of the average vector obtained by the registered dictionary can be adjusted.
Incidentally, sigma 0 is may be previously calculated in advance, a feature amount collected at the site of the camera may be stored all in the secondary storage device 14, a sigma 0 when calculating the formula (7) It may be calculated.
Subsequently, the similarity calculation parameter storage unit 27 stores the similarity calculation parameter σ calculated by the equation (7) in the secondary storage device 14 (S46).
In the present embodiment, the similarity calculation parameter is calculated every time a new feature amount is registered in the registration dictionary, but it is not necessary to calculate it every time. For example, it may be calculated when a predetermined number of features are newly registered in the registration dictionary.

また、本実施形態では、式(7)で登録辞書の全特徴量の平均ベクトルσを算出したが、この他の方法を使って算出してもよい。例えば、登録辞書の人物毎の平均ベクトルをまず算出し、その後で、各人物の平均ベクトルをさらに平均するようにしてもよい。このようにすることで、人物毎の登録数に大きな差がある場合、登録数が多い人物の影響が大きくなりすぎないように抑制することができる。
以上が、本発明における第2の実施形態の説明である。
以上説明したように、本実施形態によれば、設置したカメラの撮像画像から収集した特徴量だけでなく、登録辞書の特徴量を類似度算出パラメタの算出に反映させることで、登録画像の撮僧条件により適した類似度算出パラメタを算出することができる。
Further, in the present embodiment, the average vector σ r of all the features of the registered dictionary is calculated by the equation (7), but it may be calculated by using another method. For example, the average vector for each person in the registered dictionary may be calculated first, and then the average vector for each person may be further averaged. By doing so, when there is a large difference in the number of registrations for each person, it is possible to suppress the influence of the person with a large number of registrations from becoming too large.
The above is the description of the second embodiment of the present invention.
As described above, according to the present embodiment, not only the feature amount collected from the captured image of the installed camera but also the feature amount of the registered dictionary is reflected in the calculation of the similarity calculation parameter to take the registered image. It is possible to calculate the similarity calculation parameter that is more suitable for the monk condition.

1…画像認証装置、2,3,4…カメラ、5…ネットワーク、21…認証画像取得部、22…局所領域設定部、23…特徴抽出部、24…特徴記憶部、25…辞書登録部、26…類似度算出パラメタ算出部、27…類似度算出パラメタ記憶部、28…類似度算出部、29…認証結果判定部、30…表示部 1 ... image authentication device, 2, 3, 4 ... camera, 5 ... network, 21 ... authentication image acquisition unit, 22 ... local area setting unit, 23 ... feature extraction unit, 24 ... feature storage unit, 25 ... dictionary registration unit, 26 ... Similarity calculation parameter calculation unit, 27 ... Similarity calculation parameter storage unit, 28 ... Similarity calculation unit, 29 ... Authentication result determination unit, 30 ... Display unit

Claims (11)

少なくとも1つの撮像装置により撮像された画像を取得する取得手段と、
前記取得手段により取得された画像から特徴量を抽出する抽出手段と、
認証対象となる人物の画像の特徴を記憶する記憶手段と、
前記撮像装置のそれぞれについて、前記撮像装置により撮像された画像から抽出された特徴量に基づいて、当該撮像装置により撮像された画像に前記認証対象となる人物が含まれているかを特定するための類似度算出パラメタを算出する第1の算出手段と、
前記撮像装置に応じて算出された前記類似度算出パラメタに基づいて変換された前記抽出された特徴量と、前記記憶された特徴量と、の類似度を算出する第2の算出手段と、
を備えることを特徴とする画像処理装置。
An acquisition means for acquiring an image captured by at least one imaging device, and
An extraction means for extracting a feature amount from an image acquired by the acquisition means, and an extraction means.
A storage means for storing the feature amount of the image of the person to be authenticated, and
For each of the imaging device, based on the feature quantity extracted from the image taken by the imaging device, the imaging device for identifying whether a person is included to be the authentication object on the image captured by the The first calculation means for calculating the similarity calculation parameter and
A second calculation means for calculating the similarity between the extracted feature amount converted based on the similarity calculation parameter calculated according to the imaging device and the stored feature amount, and
An image processing device comprising.
前記第1の算出手段は、前記取得手段により取得された1つの画像に対して、複数の類似度算出パラメタを算出し、
前記第2の算出手段は、前記第1の算出手段により算出された前記複数の類似度算出パラメタに基づいて、複数の類似度を算出し、算出された前記複数の類似度を1つの類似度に統合する、
ことを特徴とする請求項1に記載の画像処理装置。
The first calculation means calculates a plurality of similarity calculation parameters for one image acquired by the acquisition means.
The second calculation means calculates a plurality of similarities based on the plurality of similarity calculation parameters calculated by the first calculation means, and the calculated plurality of similarity is used as one similarity. Integrate into
The image processing apparatus according to claim 1.
前記取得手段により取得された1つの画像に対して複数の局所領域を設定する設定手段をさらに備え、
前記第1の算出手段は、前記設定手段により設定された前記複数の局所領域のそれぞれについて、前記類似度算出パラメタを算出する、
ことを特徴とする請求項2に記載の画像処理装置。
Further, a setting means for setting a plurality of local areas for one image acquired by the acquisition means is provided.
The first calculation means calculates the similarity calculation parameter for each of the plurality of local regions set by the setting means.
The image processing apparatus according to claim 2.
前記第1の算出手段は、前記取得された画像から抽出された特徴量に加え、前記記憶された特徴量に基づいて前記類似度算出パラメタを算出する、
ことを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。
The first calculation means calculates the similarity calculation parameter based on the stored feature amount in addition to the feature amount extracted from the acquired image.
The image processing apparatus according to any one of claims 1 to 3.
前記第1の算出手段が算出する前記類似度算出パラメタは、特徴量空間における角度算出の原点であり、
前記第2の算出手段は、前記第1の算出手段が算出した角度算出の原点を使った角度に基づいた前記類似度を算出する、
ことを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。
The similarity calculation parameter calculated by the first calculation means is the origin of angle calculation in the feature space.
It said second calculating means, the degree of similarity is calculated based on the angle of the first calculating means with the origin of the calculated angle calculated,
The image processing apparatus according to any one of claims 1 to 4.
前記抽出手段は、前記画像から複数の特徴量を抽出し、
前記第1の算出手段が算出する角度算出の原点は、前記抽出手段が抽出した前記複数の特徴量の平均である、
ことを特徴とする請求項5に記載の画像処理装置。
The extraction means extracts a plurality of feature quantities from the image and
The origin of the angle calculation calculated by the first calculation means is the average of the plurality of feature quantities extracted by the extraction means.
The image processing apparatus according to claim 5.
前記第1の算出手段が算出する類似度算出パラメタは、マハラノビス行列であり、
前記第2の算出手段は、前記第1の算出手段が算出したマハラノビス行列に基づいて前記類似度を算出する、
ことを特徴とする請求項1から4のいずれか1項に記載の画像処理装置。
The similarity calculation parameter calculated by the first calculation means is a Mahalanobis matrix.
The second calculation means calculates the similarity based on the Mahalanobis matrix calculated by the first calculation means.
The image processing apparatus according to any one of claims 1 to 4.
前記取得手段は、ユーザ入力に応じて複数の前記類似度算出パラメタを算出するために前記画像を取得し、
前記第1の算出手段は、前記取得手段が取得した前記画像に基づいて複数の前記類似度算出パラメタを算出する、
ことを特徴とする請求項1から7のいずれか1項に記載の画像処理装置。
The acquisition means acquires the image in order to calculate a plurality of the similarity calculation parameters according to the user input.
The first calculation means calculates a plurality of the similarity calculation parameters based on the image acquired by the acquisition means.
The image processing apparatus according to any one of claims 1 to 7.
前記取得手段が複数の前記類似度算出パラメタを算出するための前記画像を所定数取得したことをユーザに提示する表示手段を更に備える、
ことを特徴とする請求項1から8のいずれか1項に記載の画像処理装置。
A display means for presenting to the user that the acquisition means has acquired a predetermined number of the images for calculating the plurality of similarity calculation parameters is further provided.
The image processing apparatus according to any one of claims 1 to 8.
少なくとも1つの撮像装置により撮像された画像を取得するステップと、
前記撮像装置により撮像された画像から特徴量を抽出する抽出ステップと、
前記撮像装置のそれぞれについて、前記撮像装置により撮像された画像から抽出された特徴量に基づいて、当該撮像装置により撮像された画像に認証対象となる人物が含まれているかを特定するための類似度算出パラメタを算出するステップと、
前記撮像装置に応じて算出された前記類似度算出パラメタに基づいて変換された前記抽出された特徴量と、記憶手段に記憶された前記認識対象の人物の画像の特徴量と、の類似度を算出する算出するステップと、
を有することを特徴とする画像処理方法。
A step of acquiring an image captured by at least one imaging device, and
An extraction step of extracting a feature amount from an image captured by the imaging device, and
For each of the imaging device, on the basis of the feature quantity extracted from the image taken by the imaging device, the imaging device for identifying whether a person is included as a authentication target image captured by Steps to calculate similarity calculation parameters and
The degree of similarity between the extracted feature amount converted based on the similarity calculation parameter calculated according to the imaging device and the feature amount of the image of the person to be recognized stored in the storage means. The steps to calculate and the steps to calculate
An image processing method characterized by having.
コンピュータを請求項1から9のいずれか1項に記載の画像処理装置として動作させるためのプログラム。 A program for operating a computer as the image processing device according to any one of claims 1 to 9.
JP2016186200A 2016-09-23 2016-09-23 Image processing equipment, image processing methods and programs Active JP6873639B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016186200A JP6873639B2 (en) 2016-09-23 2016-09-23 Image processing equipment, image processing methods and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016186200A JP6873639B2 (en) 2016-09-23 2016-09-23 Image processing equipment, image processing methods and programs

Publications (2)

Publication Number Publication Date
JP2018049566A JP2018049566A (en) 2018-03-29
JP6873639B2 true JP6873639B2 (en) 2021-05-19

Family

ID=61766428

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016186200A Active JP6873639B2 (en) 2016-09-23 2016-09-23 Image processing equipment, image processing methods and programs

Country Status (1)

Country Link
JP (1) JP6873639B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019185384A (en) * 2018-04-10 2019-10-24 キヤノン株式会社 Image authentication device, image authentication method, computer program and storage medium
CN110059551A (en) * 2019-03-12 2019-07-26 五邑大学 A kind of automatic checkout system of food based on image recognition

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4624594B2 (en) * 2000-06-28 2011-02-02 パナソニック株式会社 Object recognition method and object recognition apparatus
JP3873793B2 (en) * 2002-03-29 2007-01-24 日本電気株式会社 Face metadata generation method and face metadata generation apparatus
JP4844670B2 (en) * 2009-11-13 2011-12-28 日本ビクター株式会社 Video processing apparatus and video processing method
JP6470503B2 (en) * 2014-05-20 2019-02-13 キヤノン株式会社 Image collation device, image retrieval system, image collation method, image retrieval method and program

Also Published As

Publication number Publication date
JP2018049566A (en) 2018-03-29

Similar Documents

Publication Publication Date Title
JP4594945B2 (en) Person search device and person search method
US8819015B2 (en) Object identification apparatus and method for identifying object
KR101426952B1 (en) Information processing apparatus, information processing method, person identification apparatus, and method of producing/updating dictionary data in person identification apparatus
US11080557B2 (en) Image authentication apparatus, method, and storage medium using registered image
KR101280920B1 (en) Image recognition apparatus and method
JP6700791B2 (en) Information processing apparatus, information processing method, and program
KR101341212B1 (en) Biometric authentication device, biometric authentication system, and biometric authentication method
JP7463052B2 (en) Information processing device, information processing system, information processing method, and program
JP2017033469A (en) Image identification method, image identification device and program
JP6822482B2 (en) Line-of-sight estimation device, line-of-sight estimation method, and program recording medium
JP2008243093A (en) Dictionary data registration device and method
US9721153B2 (en) Image processing apparatus, image processing method, and storage medium that recognize an image based on a designated object type
WO2017206914A1 (en) Fingerprint recognition method, fingerprint recognition system, and electronic device
JP5963525B2 (en) Recognition device, control method thereof, control program, imaging device and display device
JP5937823B2 (en) Image collation processing apparatus, image collation processing method, and image collation processing program
JP2014115821A (en) Face feature extraction device and face authentication system
JP5971712B2 (en) Monitoring device and method
JP6873639B2 (en) Image processing equipment, image processing methods and programs
TW202001783A (en) Image analysis method, electronic system and non-transitory computer-readable recording medium
JP5791361B2 (en) PATTERN IDENTIFICATION DEVICE, PATTERN IDENTIFICATION METHOD, AND PROGRAM
US20160188856A1 (en) Authentication device, authentication method, and non-transitory computer readable medium
JP5975828B2 (en) Facial feature extraction apparatus and face authentication system
JP5995610B2 (en) Subject recognition device and control method therefor, imaging device, display device, and program
JP2020187531A (en) Information processing device, information processing method and program
JP7103443B2 (en) Information processing equipment, information processing methods, and programs

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190919

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201110

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210126

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210323

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210421

R151 Written notification of patent or utility model registration

Ref document number: 6873639

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151