JP6090847B2 - Information processing apparatus and determination method - Google Patents

Information processing apparatus and determination method Download PDF

Info

Publication number
JP6090847B2
JP6090847B2 JP2013053619A JP2013053619A JP6090847B2 JP 6090847 B2 JP6090847 B2 JP 6090847B2 JP 2013053619 A JP2013053619 A JP 2013053619A JP 2013053619 A JP2013053619 A JP 2013053619A JP 6090847 B2 JP6090847 B2 JP 6090847B2
Authority
JP
Japan
Prior art keywords
information
feature
dimensional
determination
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013053619A
Other languages
Japanese (ja)
Other versions
JP2014178969A (en
Inventor
一秀 梅田
一秀 梅田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Solutions Innovators Ltd
Original Assignee
NEC Solutions Innovators Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Solutions Innovators Ltd filed Critical NEC Solutions Innovators Ltd
Priority to JP2013053619A priority Critical patent/JP6090847B2/en
Publication of JP2014178969A publication Critical patent/JP2014178969A/en
Application granted granted Critical
Publication of JP6090847B2 publication Critical patent/JP6090847B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、3次元情報により示される被判定物の3次元形状を扱う技術に関する。   The present invention relates to a technique for handling a three-dimensional shape of a determination target indicated by three-dimensional information.

人の顔の3次元形状の特徴を用いて被判定者の正当性を判定する手法が提案されている。下記特許文献1には、認証対象者の顔全体の3次元形状上の所定数の3次元ラインの形状の情報である3次元顔特徴量を算出し、この3次元顔特徴量と比較用顔特徴量との比較を行う手法が提案されている。また、下記非特許文献1及び2には、顔全体の構造情報ではなく、顔の部分的な構造情報を利用する3次元顔認証手法が提案されている。   There has been proposed a method for determining the legitimacy of a person to be determined using the characteristics of the three-dimensional shape of a human face. In Patent Document 1 below, a three-dimensional face feature amount that is information on the shape of a predetermined number of three-dimensional lines on the three-dimensional shape of the entire face of the person to be authenticated is calculated, and the three-dimensional face feature amount and the comparison face are calculated. A method for comparing with feature amounts has been proposed. Non-Patent Documents 1 and 2 below propose a three-dimensional face authentication technique that uses partial structure information of a face instead of the structure information of the entire face.

特開2008−123216号公報JP 2008-123216 A

早坂昭裕他、『顔の部分構造を用いた3次元顔認証の検討』、第22回信号処理シンポジウム、2007年11月7日〜9日(仙台)Akihiro Hayasaka et al., “Examination of three-dimensional face recognition using partial facial structure”, 22nd Signal Processing Symposium, November 7-9, 2007 (Sendai) 早坂昭裕他、『表情変化にロバストな3次元顔認証アルゴリズムの検討』、第21回 回路とシステム 軽井沢ワークショップ、2008年4月21日〜22日Akihiro Hayasaka et al., “Study of 3D face recognition algorithm robust to facial expression changes”, 21st Circuit and System Karuizawa Workshop, April 21-22, 2008

上述の各提案手法は、3次元点群データ間の距離や、特徴ベクトル(特徴量)との間の類似度に基づいて、被判定者の正当性を判定するため、高速処理に向かない可能性がある。例えば、上述の提案手法は、母数Nが大きい1対N認証や、複数人が写る動画の中から特定の者を検出する機能に適用することは困難である。   Each of the proposed methods described above is not suitable for high-speed processing because it determines the legitimacy of the person to be judged based on the distance between the 3D point cloud data and the similarity between the feature vectors (features). There is sex. For example, it is difficult to apply the above-described proposed method to the one-to-N authentication with a large parameter N or a function for detecting a specific person from a moving image in which a plurality of people are captured.

本発明は、このような事情に鑑みてなされたものであり、3次元情報を用いて被判定物における判定条件の適合性を高速に判定する技術を提供する。   The present invention has been made in view of such circumstances, and provides a technique for rapidly determining the suitability of the determination condition in the determination target using three-dimensional information.

本発明の各態様では、上述した課題を解決するために、それぞれ以下の構成を採用する。   Each aspect of the present invention employs the following configurations in order to solve the above-described problems.

第1の態様は、情報処理装置に関する。第1態様に係る情報処理装置は、被判定物の少なくとも一部の3次元情報を形成する深度情報及び2次元画像を取得する情報取得部と、情報取得部により取得される2次元画像から上記被判定物の2次元特徴情報を抽出する2次元特徴抽出部と、その2次元特徴情報及び情報取得部により取得される深度情報に基づいて、上記被判定物の3次元形状の特徴分類を示す特徴分類情報を抽出する3次元特徴抽出部と、判定条件となる2次元特徴情報及び特徴分類情報を取得する条件取得部と、2次元特徴抽出部により抽出される2次元特徴情報及び3次元特徴抽出部により抽出される特徴分類情報と、上記判定条件としての2次元特徴情報及び特徴分類情報との比較により、上記被判定物における上記判定条件の適合性を判定する判定部と、を有する。   A 1st aspect is related with information processing apparatus. The information processing apparatus according to the first aspect includes the information acquisition unit that acquires the depth information and the two-dimensional image forming the three-dimensional information of at least a part of the determination target, and the two-dimensional image acquired by the information acquisition unit. Based on the two-dimensional feature extraction unit that extracts the two-dimensional feature information of the determination target and the depth information acquired by the two-dimensional feature information and the information acquisition unit, the feature classification of the three-dimensional shape of the determination target is shown A three-dimensional feature extraction unit for extracting feature classification information, a condition acquisition unit for acquiring two-dimensional feature information and feature classification information as determination conditions, and a two-dimensional feature information and a three-dimensional feature extracted by the two-dimensional feature extraction unit A determination unit that determines suitability of the determination condition in the determination target object by comparing the feature classification information extracted by the extraction unit with the two-dimensional feature information and the feature classification information as the determination condition. That.

第2の態様は、少なくとも1つのコンピュータにより実行される判定方法に関する。第2態様に係る判定方法は、被判定物の少なくとも一部の3次元情報を形成する深度情報及び2次元画像を取得し、取得された2次元画像から上記被判定物の2次元特徴情報を抽出し、2次元特徴情報及び深度情報に基づいて、上記被判定物の3次元形状の特徴分類を示す特徴分類情報を抽出し、判定条件となる2次元特徴情報及び特徴分類情報を取得し、抽出された2次元特徴情報及び抽出された特徴分類情報と、上記判定条件としての2次元特徴情報及び特徴分類情報とを比較し、この比較により、上記被判定物における上記判定条件の適合性を判定する、ことを含む。   The second aspect relates to a determination method executed by at least one computer. In the determination method according to the second aspect, the depth information and the two-dimensional image forming at least a part of the three-dimensional information of the determination target are acquired, and the two-dimensional feature information of the determination target is obtained from the acquired two-dimensional image. Extracting the feature classification information indicating the feature classification of the three-dimensional shape of the object to be determined based on the two-dimensional feature information and the depth information, and acquiring the two-dimensional feature information and the feature classification information as a determination condition; The extracted two-dimensional feature information and the extracted feature classification information are compared with the two-dimensional feature information and the feature classification information as the determination conditions, and by this comparison, the suitability of the determination conditions in the determination target is determined. Including judging.

なお、本発明の他の態様としては、第2態様に係る判定方法を少なくとも1つのコンピュータに実行させるコンピュータプログラムであってもよいし、このようなプログラムを記録したコンピュータが読み取り可能な記録媒体であってもよい。この記録媒体は、非一時的な有形の媒体を含む。   As another aspect of the present invention, a computer program that causes at least one computer to execute the determination method according to the second aspect may be used, or a computer-readable recording medium that records such a program. There may be. This recording medium includes a non-transitory tangible medium.

上記各態様によれば、3次元情報を用いて被判定物における判定条件の適合性を高速に判定する技術を提供することができる。   According to each of the above aspects, it is possible to provide a technique for rapidly determining the suitability of the determination condition in the determination object using the three-dimensional information.

本発明の実施の形態に係る情報処理装置の構成例を概念的に示す図である。It is a figure which shows notionally the structural example of the information processing apparatus which concerns on embodiment of this invention. 第1実施形態における顔認証装置のハードウェア構成例を概念的に示す図である。It is a figure which shows notionally the hardware structural example of the face authentication apparatus in 1st Embodiment. 第1実施形態における顔認証装置の処理構成例を概念的に示す図である。It is a figure which shows notionally the process structural example of the face authentication apparatus in 1st Embodiment. 第1実施形態における顔認証装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the face authentication apparatus in 1st Embodiment. 第2実施形態における監視映像分析装置のハードウェア構成例を概念的に示す図である。It is a figure which shows notionally the hardware structural example of the monitoring image | video analysis apparatus in 2nd Embodiment. 第2実施形態における監視映像分析装置の処理構成例を概念的に示す図である。It is a figure which shows notionally the process structural example of the monitoring video analyzer in 2nd Embodiment. 第2実施形態における監視映像分析装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the monitoring video analyzer in 2nd Embodiment.

以下、本発明の実施の形態について説明する。なお、以下に挙げる実施形態は例示であり、本発明は以下の実施形態の構成に限定されない。   Embodiments of the present invention will be described below. In addition, embodiment mentioned below is an illustration and this invention is not limited to the structure of the following embodiment.

図1は、本発明の実施の形態に係る情報処理装置100の構成例を概念的に示す図である。図1に示されるように、情報処理装置100は、被判定物の少なくとも一部の3次元情報を形成する深度情報及び2次元画像を取得する情報取得部101と、情報取得部101により取得される2次元画像から上記被判定物の2次元特徴情報を抽出する2次元特徴抽出部102と、その2次元特徴情報及び情報取得部101により取得される深度情報に基づいて、上記被判定物の3次元形状の特徴分類を示す特徴分類情報を抽出する3次元特徴抽出部103と、判定条件となる2次元特徴情報及び特徴分類情報を取得する条件取得部104と、2次元特徴抽出部102により抽出される2次元特徴情報及び3次元特徴抽出部103により抽出される特徴分類情報と、上記判定条件としての2次元特徴情報及び特徴分類情報との比較により、上記被判定物における上記判定条件の適合性を判定する判定部105と、を有する。   FIG. 1 is a diagram conceptually illustrating a configuration example of an information processing apparatus 100 according to an embodiment of the present invention. As illustrated in FIG. 1, the information processing apparatus 100 is acquired by an information acquisition unit 101 that acquires depth information and a two-dimensional image that form three-dimensional information of at least a part of a determination target, and an information acquisition unit 101. Based on the two-dimensional feature extraction unit 102 that extracts the two-dimensional feature information of the determination target object from the two-dimensional image and the depth information acquired by the two-dimensional feature information and the information acquisition unit 101. A three-dimensional feature extraction unit 103 that extracts feature classification information indicating a feature classification of a three-dimensional shape, a condition acquisition unit 104 that acquires two-dimensional feature information and feature classification information serving as determination conditions, and a two-dimensional feature extraction unit 102 By comparing the extracted two-dimensional feature information and the feature classification information extracted by the three-dimensional feature extraction unit 103 with the two-dimensional feature information and the feature classification information as the determination conditions, It includes a determination unit 105 determines the suitability of the determination condition in the determination target object, the.

情報処理装置100は、例えば、後述する詳細実施形態における顔認証装置10及び分析装置20と同様のハードウェア構成を有し、その顔認証装置10及び分析装置20と同様にプログラムが処理されることで、上述の各処理部が実現される。   The information processing apparatus 100 has, for example, the same hardware configuration as the face authentication apparatus 10 and the analysis apparatus 20 in the detailed embodiment described later, and the program is processed in the same manner as the face authentication apparatus 10 and the analysis apparatus 20. Thus, each processing unit described above is realized.

また、本発明の実施の形態に係る判定方法は、少なくとも1つのコンピュータにより実行される。当該判定方法は、被判定物の少なくとも一部の3次元情報を形成する深度情報及び2次元画像を取得し、取得された2次元画像から上記被判定物の2次元特徴情報を抽出し、2次元特徴情報及び深度情報に基づいて、前記被判定物の3次元形状の特徴分類を示す特徴分類情報を抽出し、判定条件となる2次元特徴情報及び特徴分類情報を取得し、抽出された2次元特徴情報及び抽出された特徴分類情報と、上記判定条件としての2次元特徴情報及び特徴分類情報とを比較し、この比較により、被判定物における判定条件の適合性を判定する、ことを含む。但し、本判定方法に含まれる各工程は、順不同に逐次的に実行されてもよいし、同時に実行されてもよい。   The determination method according to the embodiment of the present invention is executed by at least one computer. The determination method acquires depth information and a two-dimensional image forming at least a part of the three-dimensional information of the determination target, extracts the two-dimensional feature information of the determination target from the acquired two-dimensional image, Based on the two-dimensional feature information and the depth information, feature classification information indicating the feature classification of the three-dimensional shape of the object to be determined is extracted, two-dimensional feature information and feature classification information serving as determination conditions are acquired, and the extracted 2 Including comparing the two-dimensional feature information and the feature classification information as the determination condition with the two-dimensional feature information and the extracted feature classification information, and determining the suitability of the determination condition in the determination target by this comparison. . However, each step included in the present determination method may be executed sequentially in random order, or may be executed simultaneously.

本実施形態では、3次元情報を形成する2次元画像から被判定物の2次元特徴情報が抽出され、この2次元特徴情報及び当該3次元情報を形成する深度情報とから被判定物の特徴分類情報が抽出される。ここで、2次元特徴情報とは、2次元空間における被判定物の特徴を示す情報を意味し、例えば、被判定物の特徴的部位の2次元の位置情報や色情報などである。被判定物が人の場合、特徴的部位として、目、鼻、口等が例示され、目尻、目頭、目の中心等の位置情報が2次元特徴情報として例示される。また、被判定物が車両の場合、特徴的部位として、ヘッドライトやフロントガラス等が例示され、ヘッドライトやフロントガラスの中心点の位置情報が2次元特徴情報として例示される。   In the present embodiment, the two-dimensional feature information of the object to be determined is extracted from the two-dimensional image forming the three-dimensional information, and the feature classification of the object to be determined from the two-dimensional feature information and the depth information forming the three-dimensional information. Information is extracted. Here, the two-dimensional feature information means information indicating the feature of the object to be determined in the two-dimensional space, such as two-dimensional position information or color information of a characteristic part of the object to be determined. When the determination target is a person, examples of the characteristic part include eyes, nose, mouth, and the like, and positional information such as the corner of the eye, the top of the eye, and the center of the eye is exemplified as the two-dimensional feature information. Further, when the object to be determined is a vehicle, examples of the characteristic part include a headlight and a windshield, and positional information of the center point of the headlight and the windshield is exemplified as two-dimensional feature information.

また、特徴分類情報は、3次元空間における被判定物の形状の特徴に関する分類を示す情報を意味する。被判定物が人の場合、特徴分類情報は、例えば、つり目、たれ目、一重、二重、切れ長等である。また、被判定物が車両の場合、当該特徴分類情報は、セダン、クーペ、1BOXワゴン、ステーションワゴン、SUV等である。但し、2次元特徴情報及び特徴分類情報の具体的形態は制限されない。また、2次元特徴情報及び特徴分類情報は、被判定物の全体から抽出されてもよいし、被判定物の一部(特徴的部位)から抽出されてもよい。   The feature classification information means information indicating a classification related to the shape feature of the determination target in the three-dimensional space. When the object to be determined is a person, the feature classification information is, for example, a suspended eye, a hanging eye, a single, a double, a cut length, or the like. When the determination target is a vehicle, the feature classification information includes a sedan, a coupe, a 1 BOX wagon, a station wagon, an SUV, and the like. However, specific forms of the two-dimensional feature information and feature classification information are not limited. Further, the two-dimensional feature information and the feature classification information may be extracted from the entire object to be determined, or may be extracted from a part (characteristic part) of the object to be determined.

本実施形態では、上述のように抽出された2次元特徴情報及び特徴分類情報が、判定条件として取得される2次元特徴情報及び特徴分類情報と比較され、この比較により、当該被判定物における判定条件の適合性が判定される。例えば、当該判定条件が探し当てる目標の2次元特徴情報及び特徴分類情報である場合、2次元画像及び深度情報から得られる被判定物がその目標であるか否かの適合性が判定される。また、当該判定条件が予め登録されている人(正当な人)の2次元特徴情報及び特徴分類情報である場合、2次元画像及び深度情報から得られる被判定者が正当な人である否かの適合性が判定される。   In the present embodiment, the two-dimensional feature information and the feature classification information extracted as described above are compared with the two-dimensional feature information and the feature classification information acquired as the determination conditions. The suitability of the conditions is determined. For example, if the determination condition is the target two-dimensional feature information and feature classification information to be found, whether or not the determination target obtained from the two-dimensional image and depth information is the target is determined. In addition, when the determination condition is two-dimensional feature information and feature classification information of a person (a legitimate person) registered in advance, whether or not the person to be determined obtained from the two-dimensional image and the depth information is a legitimate person The suitability of is determined.

このように、本実施形態によれば、2次元画像から得られる2次元特徴情報と、3次元形状の特徴を示す特徴分類情報との両方に基づいて、被判定物における判定条件の適合性が判定されるため、2次元情報のみ、又は、3次元情報のみで判定を行う手法に比べて、判定精度を向上させることができる。更に、本実施形態によれば、3次元空間での形状の特徴がカテゴライズされた特徴分類情報が判定に用いられるため、3次元点群データ間の距離や、特徴ベクトル間の類似度を算出する手法に比べて、判定処理を簡易化でき、ひいては、判定処理を高速化することができる。   As described above, according to the present embodiment, the suitability of the determination condition in the determination target object is based on both the two-dimensional feature information obtained from the two-dimensional image and the feature classification information indicating the feature of the three-dimensional shape. Since the determination is made, the determination accuracy can be improved as compared with the method of performing the determination only with the two-dimensional information or only with the three-dimensional information. Furthermore, according to the present embodiment, since feature classification information obtained by categorizing the shape features in the three-dimensional space is used for the determination, the distance between the three-dimensional point cloud data and the similarity between the feature vectors are calculated. Compared with the technique, the determination process can be simplified, and thus the determination process can be speeded up.

以下、上述の実施形態について更に詳細を説明する。以下に示す各詳細実施形態は、上述の実施形態における情報処理装置の構成及び判定方法を顔認証装置及び監視映像分析装置に適用した場合の例である。なお、上述の実施形態は、画像からの対象検出や生体認証への適用に制限されず、物体や生物等の3次元情報を用いる様々な判定技術に適用可能である。   Hereinafter, the details of the above-described embodiment will be described. Each detailed embodiment shown below is an example when the configuration of the information processing apparatus and the determination method in the above-described embodiment are applied to a face authentication apparatus and a monitoring video analysis apparatus. The above-described embodiment is not limited to application to target detection from images or biometric authentication, and can be applied to various determination techniques using three-dimensional information such as an object or a living thing.

[第1実施形態]
〔装置構成〕
図2は、第1実施形態における顔認証装置10のハードウェア構成例を概念的に示す図である。第1実施形態における顔認証装置10は、いわゆるコンピュータであり、例えば、バス5で相互に接続される、CPU(Central Processing Unit)2、メモリ3、入出力インタフェース(I/F)4等を有する。メモリ3は、RAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスク、可搬型記憶媒体等である。
[First Embodiment]
〔Device configuration〕
FIG. 2 is a diagram conceptually illustrating a hardware configuration example of the face authentication device 10 according to the first embodiment. The face authentication device 10 according to the first embodiment is a so-called computer, and includes, for example, a CPU (Central Processing Unit) 2, a memory 3, an input / output interface (I / F) 4, and the like that are connected to each other via a bus 5. . The memory 3 is a RAM (Random Access Memory), a ROM (Read Only Memory), a hard disk, a portable storage medium, or the like.

入出力I/F4は、図2に示されるように、3次元センサ7等と接続される。なお、第1実施形態は、入出力I/F4に接続される機器を制限せず、キーボード、マウス等のようなユーザ操作の入力を受け付ける入力装置や、ディスプレイ等の表示装置や、プリンタや、ネットワークを介して他のコンピュータと通信を行う通信装置等と接続されてもよい。顔認証装置10のハードウェア構成は制限されない。   As shown in FIG. 2, the input / output I / F 4 is connected to the three-dimensional sensor 7 and the like. The first embodiment does not limit devices connected to the input / output I / F 4, but includes an input device that accepts user operation input such as a keyboard and a mouse, a display device such as a display, a printer, You may connect with the communication apparatus etc. which communicate with another computer via a network. The hardware configuration of the face authentication device 10 is not limited.

3次元センサ7は、被判定者の少なくとも顔の3次元情報を検出する。検出される3次元情報は、可視光により得られる対象者の2次元像(画像)の情報と、3次元センサ7からの距離の情報(深度情報)とを含む。3次元センサ7は、例えば、Kinect(登録商標)のように、可視光カメラ及び距離画像センサにより実現される。距離画像センサは、深度センサとも呼ばれ、レーザから近赤外光のパターンを対象者に照射し、そのパターンを近赤外光を検知するカメラで撮像して得られる情報から距離画像センサから対象者までの距離(深度)が算出される。   The three-dimensional sensor 7 detects at least three-dimensional information of the face of the person to be determined. The detected three-dimensional information includes information on the two-dimensional image (image) of the subject obtained by visible light and information on the distance from the three-dimensional sensor 7 (depth information). The three-dimensional sensor 7 is realized by a visible light camera and a distance image sensor like Kinect (registered trademark), for example. A distance image sensor, also called a depth sensor, irradiates a subject with a near-infrared light pattern from a laser and captures the pattern with a camera that detects the near-infrared light. The distance (depth) to the person is calculated.

なお、3次元センサ7の実現手法は制限されず、当該3次元センサ7は、複数の可視光カメラを用いる3次元スキャナ方式で実現されてもよい。また、図2では、1つの3次元センサ7のみが図示されるが、3次元センサ7として、対象者の2次元画像を撮像する可視光カメラ及び対象者までの距離を検出する深度センサといった複数の機器が設けられてもよい。   The method for realizing the three-dimensional sensor 7 is not limited, and the three-dimensional sensor 7 may be realized by a three-dimensional scanner method using a plurality of visible light cameras. In FIG. 2, only one three-dimensional sensor 7 is illustrated. However, as the three-dimensional sensor 7, a plurality of visible light cameras that capture a two-dimensional image of the subject and a depth sensor that detects a distance to the subject are used. May be provided.

〔処理構成〕
図3は、第1実施形態における顔認証装置10の処理構成例を概念的に示す図である。第1実施形態における顔認証装置10は、情報取得部11、2次元特徴抽出部(以降、2D抽出部と表記する)12、3次元特徴抽出部(以降、3D抽出部と表記する)13、条件取得部14、判定部15、特徴情報格納部16等を有する。これら各処理部は、例えば、CPU2によりメモリ3に格納されるプログラムが実行されることにより実現される。また、当該プログラムは、例えば、CD(Compact Disc)、メモリカード等のような可搬型記録媒体やネットワーク上の他のコンピュータから入出力I/F4を介してインストールされ、メモリ3に格納されてもよい。
[Processing configuration]
FIG. 3 is a diagram conceptually illustrating a processing configuration example of the face authentication apparatus 10 in the first embodiment. The face authentication device 10 according to the first embodiment includes an information acquisition unit 11, a two-dimensional feature extraction unit (hereinafter referred to as a 2D extraction unit) 12, a three-dimensional feature extraction unit (hereinafter referred to as a 3D extraction unit) 13, It has a condition acquisition unit 14, a determination unit 15, a feature information storage unit 16, and the like. Each of these processing units is realized, for example, by executing a program stored in the memory 3 by the CPU 2. Further, the program may be installed from a portable recording medium such as a CD (Compact Disc) or a memory card or another computer on the network via the input / output I / F 4 and stored in the memory 3. Good.

情報取得部11は、3次元センサ7から、被判定者の顔の3次元情報を取得する。この3次元情報は、被判定者の顔が少なくとも一部に写る2次元画像、及び、その2次元画像の被写体に関する深度情報を含む。以降、3次元を3Dと表記し、2次元を2Dと表記する場合もある。   The information acquisition unit 11 acquires three-dimensional information of the face of the person to be determined from the three-dimensional sensor 7. This three-dimensional information includes a two-dimensional image in which the face of the person to be determined is at least partially captured, and depth information regarding the subject of the two-dimensional image. Hereinafter, 3D may be expressed as 3D, and 2D may be expressed as 2D.

2D抽出部12は、情報取得部11により取得された2D画像から被判定者の対象部位に関する2D特徴情報を抽出する。例えば、2D抽出部12は、目、鼻、口等のような被判定者の顔の少なくとも1つの部位に関する2D特徴情報を抽出する。判定精度を上げるためには、複数の部位の2D特徴情報が抽出されることが望ましい。2D抽出部12は、目の2D特徴情報として、目尻、目頭及び目の中心の位置(2D位置)を両目について抽出する。また、2D抽出部12は、鼻の2D特徴情報として、鼻幅を決める鼻翼の両縁及び鼻尖を抽出する。第1実施形態は、2D抽出部12が2D特徴情報を抽出する顔の部位や、2D特徴情報の具体的内容を制限しない。また、2D画像からの2D特徴情報の抽出手法には周知の手法が用いられればよい。   The 2D extraction unit 12 extracts 2D feature information related to the target portion of the person to be determined from the 2D image acquired by the information acquisition unit 11. For example, the 2D extraction unit 12 extracts 2D feature information related to at least one part of the face of the person to be determined, such as eyes, nose, and mouth. In order to increase the determination accuracy, it is desirable to extract 2D feature information of a plurality of parts. The 2D extraction unit 12 extracts, as the 2D feature information of the eyes, the positions of the eye corners, the eyes and the center of the eyes (2D positions) for both eyes. Further, the 2D extraction unit 12 extracts both edges of the nose wing and the nose tip that determine the nose width as 2D feature information of the nose. In the first embodiment, the 2D extraction unit 12 does not limit the face part from which the 2D feature information is extracted or the specific content of the 2D feature information. A known method may be used as a method for extracting 2D feature information from a 2D image.

ところで、2D特徴情報が2D位置を示す場合、被判定者の2D特徴情報、及び、後述する特徴情報格納部16に格納される登録者の2D特徴情報は、2D画像から、同一の2D座標空間に基づいて抽出される。この2D座標空間の統一化は、例えば、3次元センサ7から被写体(被判定者又は登録者)までの距離を一定にした上で、2D特徴情報の元となる各2D画像が撮像されることで実現される。また、これは、例えば、各2D画像に、被写体と共に共通のマーカ(ものさし)が写るようにし、共通のマーカで示される2D距離に基づいて、各2D画像から得られる各2D特徴情報をそれぞれ正規化することで実現され得る。   By the way, when the 2D feature information indicates the 2D position, the 2D feature information of the person to be determined and the 2D feature information of the registrant stored in the feature information storage unit 16 described later are obtained from the 2D image in the same 2D coordinate space. Extracted based on The unification of the 2D coordinate space is, for example, that each 2D image that is the basis of the 2D feature information is captured while the distance from the three-dimensional sensor 7 to the subject (determination person or registrant) is constant. It is realized with. In addition, for example, each 2D image includes a common marker (measure) along with the subject, and each 2D feature information obtained from each 2D image is normalized based on the 2D distance indicated by the common marker. Can be realized.

3D抽出部13は、2D抽出部12により抽出された2D特徴情報、及び、情報取得部11により取得された深度情報に基づいて、被判定者の特徴分類情報を抽出する。具体的には、3D抽出部13は、2D特徴情報により示される2D位置と深度情報の座標とを重ねあわせることにより、2D特徴情報で示される被判定者の顔の対象部位の3D形状情報を抽出する。3D抽出部13は、抽出された3D形状情報に基づいて、当該対象部位の特徴分類情報を抽出する。例えば、3D抽出部13は、抽出された目の3D情報に基づいて、まぶたと眼球との境を検出し、検出された境界に基づいて、目の形を認識し、その目の形に関する特徴分類情報を抽出する。また、3D抽出部13は、抽出された鼻の3D情報に基づいて、鼻尖(鼻先)の向きや形、鼻背の形や高さ、鼻翼の形などを認識し、そのような鼻の形に特徴分類情報を抽出する。3D抽出部13は、被判定者の口に関しては、唇の厚さなどを認識することができる。   Based on the 2D feature information extracted by the 2D extraction unit 12 and the depth information acquired by the information acquisition unit 11, the 3D extraction unit 13 extracts feature classification information of the person to be determined. Specifically, the 3D extraction unit 13 superimposes the 2D position indicated by the 2D feature information and the coordinates of the depth information, thereby obtaining the 3D shape information of the target part of the face of the person to be determined indicated by the 2D feature information. Extract. The 3D extraction unit 13 extracts feature classification information of the target part based on the extracted 3D shape information. For example, the 3D extraction unit 13 detects the boundary between the eyelid and the eyeball based on the extracted 3D information of the eye, recognizes the shape of the eye based on the detected boundary, and features relating to the shape of the eye Extract classification information. The 3D extraction unit 13 recognizes the direction and shape of the nose tip (nose tip), the shape and height of the back of the nose, the shape of the nose wing, and the like based on the extracted 3D information of the nose. Feature classification information is extracted. The 3D extraction unit 13 can recognize the lip thickness and the like regarding the mouth of the person to be determined.

3D抽出部13は、被判定者の顔の対象部位に関する複数の形状特徴分類の中の少なくとも1つの形状特徴分類を上記特徴分類情報として特定する。例えば、3D抽出部13は、被判定者の目の形に関し、つり目、たれ目、一重、二重、切れ長などのような複数の形状特徴分類の中の少なくとも1つ(例えば、たれ目)を特徴分類情報として特定する。また、3D抽出部13は、被判定者の鼻の形に関し、ターンアップ型、わし型、しし型、ローマ型、ギリシャ型、ヌビア型などのような複数の形状特徴分類の中の少なくとも1つ(例えば、しし型)を特徴分類情報として特定する。   The 3D extraction unit 13 specifies at least one shape feature classification among the plurality of shape feature classifications regarding the target part of the face of the person to be determined as the feature classification information. For example, the 3D extraction unit 13 relates to the eye shape of the person to be judged, and is at least one of a plurality of shape feature classifications such as a suspended eye, a leaned eye, a single, a double, and a cut length (for example, a leaned eye). Is identified as feature classification information. In addition, the 3D extraction unit 13 relates to the nose shape of the person to be judged, and is at least one of a plurality of shape feature classifications such as turn-up type, wrinkle type, lion type, Roman type, Greek type, and Nubian type. One (for example, a shin type) is specified as the feature classification information.

3D抽出部13は、被判定者の顔の対象部位に関する複数の形状特徴分類の各々に関し、その形状特徴分類に該当する程度を示すポイントをそれぞれ決定し、このような形状特徴分類とポイントとからなる情報を上記特徴分類情報として決定するようにしてもよい。例えば、3D抽出部13は、被判定者の鼻の形に関し、次のような特徴分類情報を決定することができる。なお、以下の例では、各形状特徴分類の最大ポイントは10ポイントである。
ターンアップ型:4ポイント
わし型:1ポイント
しし型:6ポイント
ローマ型:8ポイント
ギリシャ型:0ポイント
ヌビア型:1ポイント
The 3D extraction unit 13 determines a point indicating a degree corresponding to the shape feature classification for each of the plurality of shape feature classifications related to the target part of the face of the person to be determined, and from such shape feature classification and points Such information may be determined as the feature classification information. For example, the 3D extraction unit 13 can determine the following feature classification information regarding the shape of the person's nose. In the following example, the maximum point of each shape feature classification is 10 points.
Turn-up type: 4 points Horsetail type: 1 point Sushi type: 6 points Roman type: 8 points Greek type: 0 points Nubian type: 1 point

特徴情報格納部16は、被判定者の正当性を証明し得る、正当な2D特徴情報及び正当な特徴分類情報を格納する。以降、このような正当な特徴情報のペア(2D特徴情報及び特徴分類情報)が特徴情報格納部16に格納される人を登録者と表記する。即ち、特徴情報格納部16は、このような正当な特徴情報のペアを、認証すべき登録者毎にそれぞれ格納することもできる。このような正当な特徴情報のペアは、登録者自身の3D情報から2D抽出部12及び3D抽出部13により抽出された情報であり、任意のタイミングで特徴情報格納部16に格納される。   The feature information storage unit 16 stores valid 2D feature information and valid feature classification information that can prove the legitimacy of the person to be determined. Hereinafter, a person in which such a pair of valid feature information (2D feature information and feature classification information) is stored in the feature information storage unit 16 is referred to as a registrant. That is, the feature information storage unit 16 can also store such a pair of valid feature information for each registrant to be authenticated. Such a pair of valid feature information is information extracted by the 2D extraction unit 12 and the 3D extraction unit 13 from the registrant's own 3D information, and is stored in the feature information storage unit 16 at an arbitrary timing.

条件取得部14は、判定部15で対象とされる正当な特徴情報のペアを特徴情報格納部16から抽出する。具体的には、条件取得部14は、1対1認証が行われる場合には、1組の2D特徴情報及び特徴分類情報を抽出し、1対N認証が行われる場合には、N組の2D特徴情報及び特徴分類情報を抽出する。条件取得部14は、被判定者のIDを取得し、このIDに対応付けられる1組の2D特徴情報及び特徴分類情報を特徴情報格納部16から抽出することもできる。   The condition acquisition unit 14 extracts a pair of valid feature information targeted by the determination unit 15 from the feature information storage unit 16. Specifically, the condition acquisition unit 14 extracts one set of 2D feature information and feature classification information when one-to-one authentication is performed, and when one-to-N authentication is performed, the condition acquisition unit 14 2D feature information and feature classification information are extracted. The condition acquisition unit 14 can also acquire the ID of the person to be determined and extract a set of 2D feature information and feature classification information associated with the ID from the feature information storage unit 16.

判定部15は、被判定者の2D特徴情報と、条件取得部14により取得された正当な2D特徴情報とを比較し、かつ、被判定者の特徴分類情報と、条件取得部14により取得された正当な特徴分類情報とを比較することで、被判定者が登録者であるか否か、即ち、被判定者の正当性を判定する。具体的には、判定部15は、被判定者の2D特徴情報と登録者の2D特徴情報とが一致又は近似し、かつ、被判定者の特徴分類情報と登録者の特徴分類情報とが一致又は近似する場合に、被判定者を正当と判定する。   The determination unit 15 compares the 2D feature information of the person to be determined with the legitimate 2D feature information acquired by the condition acquisition unit 14, and is acquired by the feature classification information of the person to be determined and the condition acquisition unit 14. By comparing with the valid feature classification information, it is determined whether or not the person to be judged is a registrant, that is, the legitimacy of the person to be judged. Specifically, the determination unit 15 matches or approximates the 2D feature information of the person to be determined and the 2D feature information of the registrant, and matches the feature classification information of the person to be determined and the feature classification information of the registrant. Or, in the case of approximation, the person to be judged is judged to be valid.

例えば、判定部15は、2D特徴情報間の距離が所定値以下である場合に、両方の2D特徴情報が一致又は近似すると決定することができる。また、特徴分類情報が少なくとも1つの形状特徴分類を示す形態において、判定部15は、両方の特徴分類情報の少なくとも1つの形状特徴分類が同じである場合に、被判定者の特徴分類情報と登録者の特徴分類情報とが一致又は近似すると決定することができる。特徴分類情報が形状特徴分類とポイントとの組み合わせで示される形態では、判定部15は、同一形状特徴分類におけるポイントの差の合計又は平均若しくは最大値が所定値以下である場合に、両方の特徴分類情報が一致又は近似すると決定することができる。   For example, when the distance between 2D feature information is less than or equal to a predetermined value, the determination unit 15 can determine that both 2D feature information matches or approximates. Further, in the form in which the feature classification information indicates at least one shape feature classification, the determination unit 15 registers the feature classification information of the person to be determined when at least one shape feature classification of both feature classification information is the same. It can be determined that the feature classification information of the person matches or approximates. In the form in which the feature classification information is indicated by the combination of the shape feature classification and the point, the determination unit 15 determines that both the features are the same when the total or average or maximum value of the differences in the same shape feature classification is equal to or less than a predetermined value. It can be determined that the classification information matches or approximates.

また、判定部15は、2D特徴情報間の比較結果及び特徴分類情報間の比較結果をそれぞれポイント化し、それらから総合ポイントを算出し、この総合ポイントを用いて、被判定者の正当性を判定するようにしてもよい。具体的には、判定部15は、2D特徴情報間の適合度合いを示す2D適合値を決定し、特徴分類情報間の適合度合いを示す3D適合値を決定し、2D適合値及び3D適合値を掛け合せることにより総合適合値を算出し、この総合適合値を用いて、被判定者の正当性を判定する。例えば、2D特徴情報間及び特徴分類情報間の近似度が高い程、大きい2D適合値及び3D適合値がそれぞれ設定される形態では、判定部15は、総合適合値が所定閾値より大きい場合に、被判定者が正当であると判定する。   In addition, the determination unit 15 points the comparison result between the 2D feature information and the comparison result between the feature classification information, calculates a total point therefrom, and determines the legitimacy of the person to be determined using the total point. You may make it do. Specifically, the determination unit 15 determines a 2D fitness value indicating the degree of matching between 2D feature information, determines a 3D fitness value indicating the degree of matching between feature classification information, and determines the 2D fitness value and the 3D fitness value. The total fitness value is calculated by multiplication, and the legitimacy of the person to be judged is determined using the total fitness value. For example, in a form in which a larger 2D fitness value and 3D fitness value are set as the degree of approximation between 2D feature information and feature classification information is higher, the determination unit 15 determines that the overall fitness value is greater than a predetermined threshold. It is determined that the person to be determined is valid.

また、判定部15は、被判定物の複数の対象部位の各々に関し、2D適合値及び3D適合値をそれぞれ決定し、同一対象部位の2D適合値及び3D適合値を掛け合せることで部分適合値を更に決定し、各対象部位の部分適合値を足し合わせることで上記総合適合値を算出するようにしてもよい。この場合、判定部15は、各対象部位の部分適合値に、各対象部位に対応する重み係数を掛け合せて得られる値を足し合わせて、上記総合適合値を算出するようにしてもよい。重み係数は、例えば、誤検出され難い形状や表情によって変化し易い形状を持つ対象部位については、大きい値に設定され、誤検出され易い形状や表情によって変化し易い形状を持つ対象部位については、小さい値に設定される。   In addition, the determination unit 15 determines a 2D conformance value and a 3D conformance value for each of a plurality of target parts of the object to be determined, and multiplies the 2D conformance value and the 3D conformance value of the same target part to thereby obtain a partial conformance value May be further determined, and the total fitness value may be calculated by adding the partial fitness values of each target region. In this case, the determination unit 15 may calculate the total fitness value by adding a value obtained by multiplying the partial fitness value of each target site by a weighting coefficient corresponding to each target site. For example, the weighting factor is set to a large value for a target part having a shape that easily changes due to a shape or expression that is difficult to be erroneously detected. Set to a small value.

〔動作例〕
以下、第1実施形態における顔認証方法について説明する。図4は、第1実施形態における顔認証装置10の動作例を示すフローチャートである。以下の説明では、顔認証装置10を各工程の実行主体とするが、顔認証装置10に含まれる上述の各処理部を実行主体としてもよい。
[Operation example]
Hereinafter, the face authentication method in the first embodiment will be described. FIG. 4 is a flowchart illustrating an operation example of the face authentication apparatus 10 according to the first embodiment. In the following description, the face authentication device 10 is an execution subject of each process, but each of the processing units included in the face authentication device 10 may be an execution subject.

顔認証装置10は、被判定者の顔の3D情報を取得する(S41)。この3D情報は、上述のように3Dセンサ7により検出された情報から取得されてもよいし、他の装置から取得されてもよい。   The face authentication device 10 acquires 3D information of the face of the person to be determined (S41). This 3D information may be acquired from the information detected by the 3D sensor 7 as described above, or may be acquired from another device.

顔認証装置10は、取得された3D情報に含まれる2D画像から被判定者の2D特徴情報を抽出する(S42)。例えば、顔認証装置10は、2D画像から被判定者の複数の対象部位の各々に関する2D特徴情報をそれぞれ抽出する。上述のように、各対象部位の2D特徴情報は、対象部位毎にそれぞれ決まる。左口角、右口角、上唇点、下唇点等の2D位置が口の2D特徴情報として抽出され、鼻翼の両縁、鼻尖等の2D位置が鼻の2D特徴情報として抽出される。   The face authentication device 10 extracts 2D feature information of the person to be determined from the 2D image included in the acquired 3D information (S42). For example, the face authentication device 10 extracts 2D feature information related to each of a plurality of target portions of the person to be determined from the 2D image. As described above, the 2D feature information of each target part is determined for each target part. 2D positions such as the left mouth corner, right mouth corner, upper lip point, and lower lip point are extracted as 2D feature information of the mouth, and 2D positions such as both edges of the nose wing and nose tip are extracted as 2D feature information of the nose.

顔認証装置10は、(S42)で抽出された2D特徴情報及び3D情報に含まれる深度情報に基づいて、被判定者の特徴分類情報を抽出する(S43)。具体的には、顔認証装置10は、2D特徴情報により示される2D位置と深度情報の座標とを重ねあわせることにより、2D特徴情報で示される被判定者の顔の対象部位の3D形状情報を抽出し、抽出された3D形状情報に基づいて、当該対象部位の特徴分類情報を特定する。   The face authentication device 10 extracts the feature classification information of the person to be determined based on the 2D feature information extracted in (S42) and the depth information included in the 3D information (S43). Specifically, the face authentication device 10 superimposes the 2D position indicated by the 2D feature information and the coordinates of the depth information, thereby obtaining the 3D shape information of the target part of the face of the person to be determined indicated by the 2D feature information. Based on the extracted 3D shape information, the feature classification information of the target part is specified.

例えば、顔認証装置10は、被判定者の対象部位に関する複数の形状特徴分類の中の少なくとも1つの形状特徴分類を当該特徴分類情報として抽出するようにしてもよい。また、顔認証装置10は、被判定者の対象部位に関する複数の形状特徴分類の各々に関し、各形状特徴分類に該当する程度を示すポイントをそれぞれ決定し、形状特徴分類とポイントとの複数ペアを特徴分類情報として抽出するようにしてもよい。例えば、顔認証装置10は、口の特徴分類情報として、薄い唇、厚い唇、おちょぼ口、アヒル口、受け口等の複数の形状特徴分類の中の少なくとも1つを特定してもよい。   For example, the face authentication apparatus 10 may extract at least one shape feature classification from among a plurality of shape feature classifications related to the target portion of the person to be determined as the feature classification information. Further, the face authentication device 10 determines a point indicating a degree corresponding to each shape feature classification for each of the plurality of shape feature classifications regarding the target part of the person to be determined, and sets a plurality of pairs of the shape feature classification and the points. You may make it extract as feature classification information. For example, the face authentication apparatus 10 may specify at least one of a plurality of shape feature classifications such as thin lips, thick lips, candy mouths, duck mouths, and receptacles as mouth feature classification information.

顔認証装置10は、被判定者の正当性を証明し得る、正当な2D特徴情報及び正当な特徴分類情報(正当な特徴情報のペア)を特徴情報格納部16から取得する(S44)。顔認証装置10は、特徴情報格納部16に格納される全ての正当な特徴情報のペアを取得してもよいし、被判定者のID等により特定可能であれば、1つの正当な特徴情報のペアを取得してもよい。   The face authentication device 10 acquires valid 2D feature information and valid feature classification information (a pair of valid feature information) that can prove the validity of the person to be determined from the feature information storage unit 16 (S44). The face authentication device 10 may acquire all valid pairs of feature information stored in the feature information storage unit 16, or one valid feature information if it can be specified by the ID of the person to be determined. You may get a pair.

顔認証装置10は、(S42)で抽出された被判定者の2D特徴情報と(S44)で取得された正当な2D特徴情報とを比較し、かつ、(S43)で抽出された被判定者の特徴分類情報と(S44)で取得された正当な特徴分類情報とを比較する(S45)。ここで、顔認証装置10は、2D特徴情報間の比較結果を示す2D適合値を決定し、特徴分類情報間の比較結果を示す3D適合値を決定するようにしてもよい。   The face authentication device 10 compares the 2D feature information of the person to be determined extracted in (S42) with the valid 2D feature information acquired in (S44), and the person to be determined extracted in (S43) Is compared with the legitimate feature classification information acquired in (S44) (S45). Here, the face authentication apparatus 10 may determine a 2D fitness value indicating a comparison result between 2D feature information, and may determine a 3D fitness value indicating a comparison result between feature classification information.

顔認証装置10は、(S45)の比較結果に基づいて、被判定者の正当性を判定する(S46)。言い換えれば、顔認証装置10は、被判定者が、正当な特徴情報のペアを特徴情報格納部16に既に格納している登録者であるか否かを判定する。具体的には、顔認証装置10は、2D特徴情報間が一致又は近似し、かつ、特徴分類情報が一致又は近似する場合に、被判定者を正当と判定する。特徴情報間の近似の程度は、上述のような2D適合値及び3D適合値として決定され、2D適合値と3D適合値から算出される総合適合値が所定閾値を超えるか否かで被判定者の正当性が判定されてもよい。   The face authentication device 10 determines the legitimacy of the person to be determined based on the comparison result of (S45) (S46). In other words, the face authentication apparatus 10 determines whether or not the person to be determined is a registrant who has already stored a valid feature information pair in the feature information storage unit 16. Specifically, the face authentication device 10 determines that the person to be determined is valid when the 2D feature information matches or approximates and the feature classification information matches or approximates. The degree of approximation between feature information is determined as the 2D conformance value and the 3D conformance value as described above, and the person to be judged is determined by whether or not the total conformance value calculated from the 2D conformance value and the 3D conformance value exceeds a predetermined threshold value. May be determined.

〔第1実施形態における作用及び効果〕
上述のように、第1実施形態では、3次元センサ7で検出される被判定者の3D情報が取得され、3D情報の2D画像から、被判定者の対象部位に関する2D特徴情報が抽出され、3D情報の深度情報と2D特徴情報から、被判定者の対象部位に関する特徴分類情報が抽出される。そして、被判定者の2D特徴情報及び特徴分類情報と、特徴情報格納部16に格納されている正当な2D特徴情報及び正当な特徴分類情報との比較により、被判定者の正当性が判定される。従って、第1実施形態によれば、被判定者の対象部位に関する2次元の情報だけでなく、その対象部位に関する3次元の情報を考慮して、被判定者の正当性が判定されるため、判定精度を向上させることができる。
[Operation and Effect in First Embodiment]
As described above, in the first embodiment, the 3D information of the person to be determined detected by the three-dimensional sensor 7 is acquired, and 2D feature information regarding the target part of the person to be determined is extracted from the 2D image of the 3D information. Feature classification information related to the target part of the person to be determined is extracted from the depth information and the 2D feature information of the 3D information. Then, the legitimacy of the person to be judged is determined by comparing the person's 2D feature information and feature classification information with the legitimate 2D feature information and legitimate feature classification information stored in the feature information storage unit 16. The Therefore, according to the first embodiment, the legitimacy of the person to be judged is determined in consideration of not only the two-dimensional information about the target part of the person to be judged but also three-dimensional information about the target part. The determination accuracy can be improved.

更に、第1実施形態によれば、3次元形状の特徴分類情報は、複数の形状特徴分類の中の少なくとも1つ、又は、形状特徴分類とそのポイントとの複数のペアで示されるため、特徴分類情報間の比較処理を簡易化及び高速化することができる。   Furthermore, according to the first embodiment, the feature classification information of the three-dimensional shape is indicated by at least one of the plurality of shape feature classifications or a plurality of pairs of the shape feature classification and its points. Comparison processing between classification information can be simplified and speeded up.

また、第1実施形態では、被判定者の2D特徴情報と正当な2D特徴情報との間の適合度合いを示す2D適合値が決定され、被判定者の特徴分類情報と正当な特徴分類情報との間の適合度合いを示す3D適合値が決定され、それらから算出される総合適合値に基づいて被判定者の正当性が判定される。このように、2次元の情報の照合結果及び3次元の情報の照合結果がそれぞれポイント化されるため、第1実施形態によれば、被判定者の正当性の判定処理を簡易化及び高速化することができる。   In the first embodiment, a 2D matching value indicating a degree of matching between the 2D feature information of the person to be judged and the legitimate 2D feature information is determined, and the feature classification information of the person to be judged and the legitimate feature classification information are 3D matching values indicating the degree of matching between the two are determined, and the legitimacy of the person to be determined is determined based on the total matching value calculated from them. As described above, since the collation result of the two-dimensional information and the collation result of the three-dimensional information are each pointed, according to the first embodiment, the determination process of the validity of the person to be determined is simplified and speeded up. can do.

また、第1実施形態では、2D適合値及び3D適合値から、被判定者の対象部位毎に部分適合値が算出され、この部分適合値の合計により総合適合値が算出されてもよい。第1実施形態によれば、このように対象部位毎に部分適合値が算出されるため、被判定者の正当性判定への影響度の大きさに応じて、対象部位毎の重み付けを変えることもでき、ひいては、判定精度を向上させることができる。   In the first embodiment, a partial fitness value may be calculated for each target region of the person to be determined from the 2D fitness value and the 3D fitness value, and the total fitness value may be calculated by summing the partial fitness values. According to the first embodiment, since the partial fitness value is calculated for each target part in this way, the weight for each target part is changed in accordance with the degree of influence on the validity determination of the person to be determined. As a result, the determination accuracy can be improved.

[第2実施形態]
以下、第2実施形態における監視映像分析装置について、第1実施形態における顔認証装置10と異なる内容を中心に説明する。以下の説明では、第1実施形態と同様の内容については適宜省略する。第2実施形態における監視映像分析装置は、判定条件に合致する目標物(本実施形態では目標者)を監視映像の中から検出する。
[Second Embodiment]
Hereinafter, the monitoring video analysis device according to the second embodiment will be described focusing on the content different from the face authentication device 10 according to the first embodiment. In the following description, the same contents as those in the first embodiment are omitted as appropriate. The monitoring video analysis apparatus in the second embodiment detects a target (target person in this embodiment) that matches the determination condition from the monitoring video.

〔装置構成〕
図5は、第2実施形態における監視映像分析装置(以降、単に分析装置と表記する)20のハードウェア構成例を概念的に示す図である。第2実施形態における分析装置20は、いわゆるコンピュータであり、第1実施形態における顔認証装置10と同様の構成を有する。第2実施形態では、入出力I/F4は、入力装置8及び表示装置9等と接続される。入力装置8は、キーボード、マウス等のようなユーザ操作の入力を受け付ける装置であり、表示装置9は、ディスプレイのような分析装置20から送られる画像信号に応じて表示出力を行う装置である。入出力I/F4は、監視ビデオ装置(図示せず)と接続されていてもよいし、他の装置と通信する通信装置(図示せず)と接続されていてもよい。分析装置20のハードウェア構成は制限されない。
〔Device configuration〕
FIG. 5 is a diagram conceptually illustrating a hardware configuration example of a monitoring video analysis device (hereinafter simply referred to as an analysis device) 20 in the second embodiment. The analysis device 20 in the second embodiment is a so-called computer and has the same configuration as the face authentication device 10 in the first embodiment. In the second embodiment, the input / output I / F 4 is connected to the input device 8, the display device 9, and the like. The input device 8 is a device that receives input of a user operation such as a keyboard and a mouse, and the display device 9 is a device that performs display output in accordance with an image signal sent from an analysis device 20 such as a display. The input / output I / F 4 may be connected to a surveillance video device (not shown) or may be connected to a communication device (not shown) that communicates with other devices. The hardware configuration of the analyzer 20 is not limited.

〔処理構成〕
図6は、第2実施形態における分析装置20の処理構成例を概念的に示す図である。第2実施形態における分析装置20は、情報取得部21、2次元特徴抽出部(以降、2D抽出部と表記する)22、3次元特徴抽出部(以降、3D抽出部と表記する)23、条件取得部24、判定部25等を有する。これら各処理部は、第1実施形態と同様に、例えば、CPU2によりメモリ3に格納されるプログラムが実行されることにより実現される。
[Processing configuration]
FIG. 6 is a diagram conceptually illustrating a processing configuration example of the analysis apparatus 20 in the second embodiment. The analysis apparatus 20 in the second embodiment includes an information acquisition unit 21, a two-dimensional feature extraction unit (hereinafter referred to as a 2D extraction unit) 22, a three-dimensional feature extraction unit (hereinafter referred to as a 3D extraction unit) 23, a condition It has the acquisition part 24, the determination part 25 grade | etc.,. Each of these processing units is realized, for example, by executing a program stored in the memory 3 by the CPU 2 as in the first embodiment.

情報取得部21は、監視ビデオ装置、可搬型記録媒体又は他の装置等から、3D情報を含む監視映像データを取得する。監視映像データは、動画データであってもよいし、静止画データであってもよい。情報取得部21は、監視映像として動画データを取得する場合、動画データを構成する静止画フレームを2D画像として他の処理部に与えると共に、監視映像データに含まれる深度情報を他の処理部に与える。   The information acquisition unit 21 acquires monitoring video data including 3D information from a monitoring video device, a portable recording medium, or another device. The monitoring video data may be moving image data or still image data. When the moving image data is acquired as the monitoring video, the information acquisition unit 21 gives the still image frame constituting the moving image data to the other processing unit as a 2D image, and the depth information included in the monitoring video data to the other processing unit. give.

2D抽出部22及び3D抽出部23は、第1実施形態の2D抽出部12及び3D抽出部13と同様である。第2実施形態における被判定者とは、監視映像の2D画像に写る不特定者である。2D画像に複数の不特定者が写っている場合、2D抽出部22及び3D抽出部23は、各不特定者について、2D特徴情報及び特徴分類情報をそれぞれ抽出する。   The 2D extraction unit 22 and the 3D extraction unit 23 are the same as the 2D extraction unit 12 and the 3D extraction unit 13 of the first embodiment. The to-be-determined person in the second embodiment is an unspecified person that appears in the 2D image of the monitoring video. When a plurality of unspecified persons are reflected in the 2D image, the 2D extraction unit 22 and the 3D extraction unit 23 extract 2D feature information and feature classification information for each unspecified person, respectively.

条件取得部24は、検出対象となる目標者の判定条件情報を取得する。例えば、条件取得部24は、オペレータに目標者の判定条件を入力させるための入力画面を表示装置9に表示させ、その入力画面を介して入力装置8を用いて入力された判定条件情報を取得する。判定条件情報は、可搬型記録媒体や他の装置から入出力I/F4を介して取得されてもよい。判定条件情報は、目標者に関する2D特徴情報及び特徴分類情報である。このような判定条件情報は、似顔絵や写真等の目標者の2D画像から2D抽出部22及び3D抽出部23により抽出された2D特徴情報及び特徴分類情報であってもよい。   The condition acquisition unit 24 acquires determination condition information of a target person to be detected. For example, the condition acquisition unit 24 causes the display device 9 to display an input screen for allowing the operator to input the determination condition of the target person, and acquires determination condition information input using the input device 8 via the input screen. To do. The determination condition information may be acquired from a portable recording medium or another device via the input / output I / F 4. The determination condition information is 2D feature information and feature classification information regarding the target person. Such determination condition information may be 2D feature information and feature classification information extracted by a 2D extraction unit 22 and a 3D extraction unit 23 from a 2D image of a target person such as a portrait or a photograph.

判定部25は、上述の第1実施形態の判定部15と同様の処理により、被判定者が目標者であるか否かを判定する。但し、第2実施形態では、判定部25は、この判定にあたり、被判定者の2D特徴情報及び特徴分類情報と、判定条件情報で示される2D特徴情報及び特徴分類情報とを比較する。2D画像に複数の被判定者(不特定者)が写っている場合、判定部25は、各被判定者が目標者であるか否かをそれぞれ判定する。第2実施形態では、監視映像からの目標者の検出が目的となるため、2D特徴情報間及び特徴分類情報間の適合性の度合い(総合適合値)は、第1実施形態のそれよりも低くてもよい。   The determination unit 25 determines whether or not the determination target person is the target person by the same processing as the determination unit 15 of the first embodiment described above. However, in the second embodiment, the determination unit 25 compares the 2D feature information and feature classification information of the person to be determined with the 2D feature information and feature classification information indicated by the determination condition information in this determination. When a plurality of persons to be determined (unspecified persons) are shown in the 2D image, the determination unit 25 determines whether each person to be determined is a target person. In the second embodiment, the purpose is to detect the target person from the monitoring video, so the degree of compatibility (total fitness value) between the 2D feature information and the feature classification information is lower than that of the first embodiment. May be.

〔動作例〕
以下、第2実施形態における監視映像分析方法について説明する。図7は、第2実施形態における分析装置20の動作例を示すフローチャートである。以下の説明では、分析装置20を各工程の実行主体とするが、分析装置20に含まれる上述の各処理部を実行主体としてもよい。
[Operation example]
Hereinafter, a monitoring video analysis method according to the second embodiment will be described. FIG. 7 is a flowchart illustrating an operation example of the analyzer 20 according to the second embodiment. In the following description, the analysis device 20 is an execution subject of each process, but each of the above-described processing units included in the analysis device 20 may be an execution subject.

分析装置20は、3D情報を含む監視映像データを取得する(S71)。この監視映像データは、上述のように、監視ビデオ装置から取得されてもよいし、可搬型記録媒体や他の装置等から取得されてもよい。以下、監視映像データから得られる2D画像のうち、少なくとも1人の不特定者が写る2D画像を対象に、処理が実行される。2D画像に写る不特定者は、被判定者と表記される。   The analysis apparatus 20 acquires monitoring video data including 3D information (S71). As described above, the monitoring video data may be acquired from the monitoring video device, or may be acquired from a portable recording medium, another device, or the like. Hereinafter, processing is executed on a 2D image in which at least one unspecified person is captured among 2D images obtained from the monitoring video data. An unspecified person appearing in a 2D image is described as a person to be judged.

分析装置20は、監視映像データの2D画像から被判定者の2D特徴情報を抽出する(S72)。続いて、分析装置20は、2D特徴情報、及び、監視映像データの深度情報に基づいて、被判定者の特徴分類情報を抽出する(S73)。(S72)及び(S73)における具体的処理は、図4に示される(S42)及び(S43)と同様である。   The analysis device 20 extracts the 2D feature information of the person to be determined from the 2D image of the monitoring video data (S72). Subsequently, the analysis apparatus 20 extracts feature classification information of the person to be determined based on the 2D feature information and the depth information of the monitoring video data (S73). Specific processing in (S72) and (S73) is the same as (S42) and (S43) shown in FIG.

分析装置20は、検出対象となる目標者に関する判定条件情報を取得する(S74)。判定条件情報は、目標者に関する2D特徴情報及び特徴分類情報であり、例えば、入力装置等から入力される。また、目標者の似顔絵や写真等から(S72)及び(S73)と同様の処理により抽出された2D特徴情報及び特徴分類情報が判定条件情報とされてもよい。   The analyzer 20 acquires determination condition information regarding the target person to be detected (S74). The determination condition information is 2D feature information and feature classification information regarding the target person, and is input from an input device, for example. Further, 2D feature information and feature classification information extracted by the same process as (S72) and (S73) from a portrait or photograph of the target person may be used as the determination condition information.

分析装置20は、(S72)で抽出された被判定者の2D特徴情報と(S74)で取得された目標者の2D特徴情報とを比較し、かつ、(S73)で抽出された被判定者の特徴分類情報と(S74)で取得された目標者の特徴分類情報とを比較する(S75)。ここで、分析装置20は、2D特徴情報間の比較結果を示す2D適合値を決定し、特徴分類情報間の比較結果を示す3D適合値を決定するようにしてもよい。   The analysis apparatus 20 compares the 2D feature information of the person to be determined extracted in (S72) with the 2D feature information of the target person acquired in (S74), and the person to be determined extracted in (S73). Is compared with the feature classification information of the target obtained in (S74) (S75). Here, the analysis apparatus 20 may determine a 2D fitness value indicating a comparison result between 2D feature information, and may determine a 3D fitness value indicating a comparison result between feature classification information.

分析装置20は、(S75)の比較結果に基づいて、被判定者が目標者か否かを判定する(S76)。言い換えれば、分析装置20は、監視映像データの2D画像に写る不特定者が、判定条件情報で示される目標者であるか否かを判定する。具体的には、分析装置20は、2D特徴情報間が一致又は近似し、かつ、特徴分類情報が一致又は近似する場合に、被判定者を目標者であると判定する。特徴情報間の近似の程度は、上述のような2D適合値及び3D適合値として決定され、2D適合値と3D適合値から算出される総合適合値が所定閾値を超えるか否かで被判定者が目標者か否かが判定されてもよい。   Based on the comparison result of (S75), the analyzer 20 determines whether the person to be determined is the target person (S76). In other words, the analysis apparatus 20 determines whether or not the unspecified person shown in the 2D image of the monitoring video data is the target person indicated by the determination condition information. Specifically, the analysis apparatus 20 determines that the determination target person is the target person when the 2D feature information matches or approximates and the feature classification information matches or approximates. The degree of approximation between feature information is determined as the 2D conformance value and the 3D conformance value as described above, and the person to be judged is determined by whether or not the total conformance value calculated from the 2D conformance value and the 3D conformance value exceeds a predetermined threshold value. It may be determined whether or not is a target person.

〔第2実施形態における作用及び効果〕
上述のように、第2実施形態では、監視映像データに含まれる2D画像から、被判定者の対象部位に関する2D特徴情報が抽出され、監視映像データに含まれる深度情報と2D特徴情報から、被判定者の対象部位に関する特徴分類情報が抽出される。そして、被判定者の2D特徴情報及び特徴分類情報と、検出対象となる目標者の2D特徴情報及び特徴分類情報との比較により、被判定者が目標者か否かが判定される。従って、第2実施形態によれば、被判定者の対象部位に関する2次元の情報だけでなく、その対象部位に関する3次元の情報を考慮して、目標者が検出されるため、監視映像から目標者を検出する検出精度を向上させることができる。
[Operations and effects in the second embodiment]
As described above, in the second embodiment, 2D feature information related to the target part of the person to be determined is extracted from the 2D image included in the monitoring video data, and from the depth information and 2D feature information included in the monitoring video data, Feature classification information regarding the target part of the judge is extracted. Then, it is determined whether or not the determination target person is the target person by comparing the determination target person's 2D feature information and feature classification information with the target person's 2D feature information and feature classification information to be detected. Therefore, according to the second embodiment, the target person is detected in consideration of not only the two-dimensional information about the target part of the person to be determined but also the three-dimensional information about the target part. Detection accuracy for detecting a person can be improved.

更に、第2実施形態では、3次元形状の特徴分類情報は、複数の形状特徴分類の中の少なくとも1つ、又は、形状特徴分類とそのポイントとの複数のペアで示されるため、目標者を特定するための判定条件情報をオペレータに容易に指定させることができると共に、特徴分類情報間の比較処理を簡易化及び高速化することができる。   Furthermore, in the second embodiment, the feature classification information of the three-dimensional shape is indicated by at least one of the plurality of shape feature classifications or a plurality of pairs of the shape feature classification and its points. The determination condition information for specifying can be easily specified by the operator, and the comparison processing between the feature classification information can be simplified and speeded up.

また、第2実施形態では、被判定者の2D特徴情報と目標者の2D特徴情報との間の適合度合いを示す2D適合値が決定され、被判定者の特徴分類情報と目標者の特徴分類情報との間の適合度合いを示す3D適合値が決定され、それらから算出される総合適合値に基づいて被判定者が目標者であるか否かが判定される。このように、2次元の情報の比較結果及び3次元の情報の比較結果がそれぞれポイント化されるため、第2実施形態によれば、被判定者が目標者であるか否かの判定処理を簡易化及び高速化することができる。結果として、第2実施形態によれば、複数の不特定者が不定期に写る監視映像データから目標者を早く検出することができる。   In the second embodiment, a 2D fitness value indicating the degree of matching between the 2D feature information of the person to be judged and the 2D feature information of the target person is determined, and the feature classification information of the person to be judged and the feature classification of the target person A 3D matching value indicating the degree of matching with the information is determined, and it is determined whether or not the determination target person is the target person based on the total matching value calculated therefrom. As described above, since the comparison result of the two-dimensional information and the comparison result of the three-dimensional information are each pointed, according to the second embodiment, the determination process of whether or not the determination target person is the target person is performed. It can be simplified and speeded up. As a result, according to the second embodiment, it is possible to quickly detect the target person from the monitoring video data in which a plurality of unspecified persons appear irregularly.

[変形例]
上述の各実施形態では、被判定者の顔内の部位を対象部位として例示したが、特徴分類情報の抽出元となる対象部位は、上述の例のみに制限されるわけではない。例えば、被判定者の頭部の形状の特徴を示す特徴分類情報が抽出されてもよいし、被判定者の身長や体型等の特徴を示す特徴分類情報が抽出されてもよい。3次元情報を用いることで、やせ型、腹が出た体型、がっちりした体形等の形状特徴分類が抽出され得る。また、3次元センサ7から所定深度に位置する任意の人が写る2D画像内のその人の身長と、その実世界におけるその人の身長とを予め計測し、その所定深度、画像内身長及び実世界身長の関係と、取得された2D画像内の被判定者の身長と、取得された深度情報で示される被判定者の深度とから、実世界での被判定者の身長は算出することができる。このように様々な種類の特徴分類情報が用いられることにより、判定精度を向上させることができる。
[Modification]
In each of the embodiments described above, the part in the face of the person to be determined is exemplified as the target part, but the target part from which the feature classification information is extracted is not limited to the above example. For example, feature classification information indicating features of the shape of the head of the person to be determined may be extracted, or feature classification information indicating characteristics of the person to be determined, such as height and body shape, may be extracted. By using the three-dimensional information, it is possible to extract shape feature classifications such as a slim shape, a stubborn body shape, and a solid body shape. Further, the height of the person in a 2D image in which an arbitrary person located at a predetermined depth from the three-dimensional sensor 7 and the height of the person in the real world are measured in advance, and the predetermined depth, the height in the image, and the real world are measured. From the height relationship, the height of the person to be judged in the acquired 2D image, and the depth of the person to be judged indicated by the acquired depth information, the height of the person to be judged in the real world can be calculated. . By using various types of feature classification information in this way, the determination accuracy can be improved.

また、上述の第2実施形態では、判定条件情報は2D特徴情報及び特徴分類情報を含むが、判定条件情報は特徴分類情報のみを示すようにしてもよい。この場合、判定部15は、2D特徴情報間の比較を行わず、特徴分類情報間のみの比較を行うことで、被判定者が目標者か否かを判定すればよい。この場合、判定精度は低下するが、3次元の形状の特徴を示す特徴分類情報を指定するだけで、容易に目標者を検出することができる。   In the second embodiment described above, the determination condition information includes 2D feature information and feature classification information. However, the determination condition information may indicate only feature classification information. In this case, the determination unit 15 may determine whether or not the determination target person is the target person by performing comparison only between the feature classification information without performing comparison between the 2D feature information. In this case, although the determination accuracy is lowered, it is possible to easily detect the target person only by specifying the feature classification information indicating the feature of the three-dimensional shape.

なお、上述の説明で用いた複数のフローチャートでは、複数の工程(処理)が順番に記載されているが、各実施形態で実行される工程の実行順序は、その記載の順番に制限されない。各実施形態では、図示される工程の順番を内容的に支障のない範囲で変更することができる。   In addition, in the some flowchart used by the above-mentioned description, although several process (process) is described in order, the execution order of the process performed by each embodiment is not restrict | limited to the order of the description. In each embodiment, the order of the illustrated steps can be changed within a range that does not hinder the contents.

2 CPU
3 メモリ
4 入出力I/F
7 3次元センサ
8 入力装置
9 表示装置
10 顔認証装置
11、21、101 情報取得部
12、22、102 2次元特徴抽出部(2D抽出部)
13、23、103 3次元特徴抽出部(3D抽出部)
14、24、104 条件取得部
15、25、105 判定部
16 特徴情報格納部
20 監視映像分析装置(分析装置)
100 情報処理装置
2 CPU
3 Memory 4 Input / output I / F
7 3D sensor 8 Input device 9 Display device 10 Face authentication device 11, 21, 101 Information acquisition unit 12, 22, 102 Two-dimensional feature extraction unit (2D extraction unit)
13, 23, 103 3D feature extraction unit (3D extraction unit)
14, 24, 104 Condition acquisition unit 15, 25, 105 Determination unit 16 Feature information storage unit 20 Surveillance video analysis device (analysis device)
100 Information processing apparatus

Claims (9)

被判定物の少なくとも一部の3次元情報を形成する深度情報及び2次元画像を取得する情報取得部と、
前記情報取得部により取得される2次元画像から前記被判定物の2次元特徴情報を抽出する2次元特徴抽出部と、
前記2次元特徴情報及び前記情報取得部により取得される深度情報に基づいて、前記被判定物の3次元形状の特徴分類を示す特徴分類情報を抽出する3次元特徴抽出部と、
判定条件となる2次元特徴情報及び特徴分類情報を取得する条件取得部と、
前記2次元特徴抽出部により抽出される2次元特徴情報及び前記3次元特徴抽出部により抽出される特徴分類情報と、前記判定条件としての前記2次元特徴情報及び前記特徴分類情報との比較により、前記被判定物における前記判定条件の適合性を判定する判定部と、
を備える情報処理装置。
An information acquisition unit for acquiring depth information and a two-dimensional image forming three-dimensional information of at least a part of the determination object;
A two-dimensional feature extraction unit that extracts two-dimensional feature information of the object to be determined from a two-dimensional image acquired by the information acquisition unit;
Based on the two-dimensional feature information and the depth information acquired by the information acquisition unit, a three-dimensional feature extraction unit that extracts feature classification information indicating a feature classification of the three-dimensional shape of the determination object;
A condition acquisition unit for acquiring two-dimensional feature information and feature classification information as determination conditions;
By comparing the two-dimensional feature information extracted by the two-dimensional feature extraction unit and the feature classification information extracted by the three-dimensional feature extraction unit with the two-dimensional feature information and the feature classification information as the determination condition, A determination unit for determining suitability of the determination condition in the determination object;
An information processing apparatus comprising:
前記2次元特徴抽出部は、前記被判定物の対象部位に関する2次元特徴情報を抽出し、
前記3次元特徴抽出部は、前記特徴分類情報として、前記対象部位に関する複数の形状特徴分類の中の少なくとも1つの形状特徴分類を特定する、
請求項1に記載の情報処理装置。
The two-dimensional feature extraction unit extracts two-dimensional feature information related to a target part of the determination object,
The three-dimensional feature extraction unit specifies at least one shape feature classification among a plurality of shape feature classifications related to the target part as the feature classification information.
The information processing apparatus according to claim 1.
前記2次元特徴抽出部は、前記被判定物の対象部位に関する2次元特徴情報を抽出し、
前記3次元特徴抽出部は、前記特徴分類情報として、前記対象部位に関する複数の形状特徴分類の各々に関し、該形状特徴分類に該当する程度を示すポイントをそれぞれ決定する、
請求項1に記載の情報処理装置。
The two-dimensional feature extraction unit extracts two-dimensional feature information related to a target part of the determination object,
The three-dimensional feature extraction unit determines, as the feature classification information, a point indicating a degree corresponding to the shape feature classification for each of a plurality of shape feature classifications related to the target part;
The information processing apparatus according to claim 1.
前記判定部は、前記被判定物の前記2次元特徴情報と前記判定条件としての前記2次元特徴情報との比較により、2次元適合値を決定し、前記被判定物の前記特徴分類情報と前記判定条件としての前記特徴分類情報との比較により、3次元適合値を決定し、該2次元適合値及び該3次元適合値を用いて、総合適合値を算出し、該総合適合値に基づいて、前記被判定物における前記判定条件の適合性を判定する、
請求項1から3のいずれか1項に記載の情報処理装置。
The determination unit determines a two-dimensional fitness value by comparing the two-dimensional feature information of the determination object and the two-dimensional feature information as the determination condition, and determines the feature classification information of the determination object and the A three-dimensional fitness value is determined by comparison with the feature classification information as a determination condition, and a total fitness value is calculated using the two-dimensional fitness value and the three-dimensional fitness value. , Determining suitability of the determination condition in the object to be determined;
The information processing apparatus according to any one of claims 1 to 3.
前記判定部は、前記被判定物の複数の対象部位の各々に関し、前記2次元適合値及び前記3次元適合値をそれぞれ決定し、同一対象部位の前記2次元適合値及び前記3次元適合値から部分適合値を更に決定し、該各対象部位の部分適合値から前記総合適合値を算出する、
請求項4に記載の情報処理装置。
The determination unit determines the two-dimensional fitness value and the three-dimensional fitness value for each of the plurality of target regions of the determination target, and determines the two-dimensional fitness value and the three-dimensional fitness value of the same target region. Further determining a partial fitness value, and calculating the total fitness value from the partial fitness value of each target region,
The information processing apparatus according to claim 4.
前記被判定物は、前記情報取得部で取得される2次元画像に写る被判定者であり、
前記条件取得部は、個人の正当な2次元特徴情報及び特徴分類情報を格納する特徴格納部から、前記判定条件となる2次元特徴情報及び特徴分類情報を取得し、
前記判定部は、前記適合性の判定として、前記被判定者の正当性を判定する、
請求項1から5のいずれか1項に記載の情報処理装置。
The to-be-determined object is a to-be-determined person reflected in a two-dimensional image acquired by the information acquisition unit,
The condition acquisition unit acquires the two-dimensional feature information and feature classification information as the determination condition from a feature storage unit that stores legitimate two-dimensional feature information and feature classification information of an individual,
The determination unit determines the legitimacy of the determination target person as the suitability determination,
The information processing apparatus according to any one of claims 1 to 5.
前記被判定物は、前記情報取得部で取得される2次元画像に写る被判定者であり、
前記条件取得部は、前記情報取得部で取得される3次元情報から検出される目標者に関する2次元特徴情報及び特徴分類情報を取得し、
前記判定部は、前記適合性の判定として、前記被判定者が前記目標者か否かを判定する、
請求項1から5のいずれか1項に記載の情報処理装置。
The to-be-determined object is a to-be-determined person reflected in a two-dimensional image acquired by the information acquisition unit,
The condition acquisition unit acquires two-dimensional feature information and feature classification information about the target person detected from the three-dimensional information acquired by the information acquisition unit,
The determination unit determines whether the determination target person is the target person as the determination of the suitability;
The information processing apparatus according to any one of claims 1 to 5.
少なくとも1つのコンピュータにより実行される判定方法において、
被判定物の少なくとも一部の3次元情報を形成する深度情報及び2次元画像を取得し、
前記取得された2次元画像から前記被判定物の2次元特徴情報を抽出し、
前記2次元特徴情報及び前記深度情報に基づいて、前記被判定物の3次元形状の特徴分類を示す特徴分類情報を抽出し、
判定条件となる2次元特徴情報及び特徴分類情報を取得し、
前記抽出された2次元特徴情報及び前記抽出された特徴分類情報と、前記判定条件としての前記2次元特徴情報及び前記特徴分類情報とを比較し、
前記比較により、前記被判定物における前記判定条件の適合性を判定する、
ことを含む判定方法。
In a determination method executed by at least one computer,
Obtaining depth information and 2D image forming 3D information of at least a part of the determination object;
Extracting the two-dimensional feature information of the object to be determined from the acquired two-dimensional image;
Based on the two-dimensional feature information and the depth information, the feature classification information indicating the feature classification of the three-dimensional shape of the determination object is extracted,
Obtain two-dimensional feature information and feature classification information as judgment conditions,
Comparing the extracted two-dimensional feature information and the extracted feature classification information with the two-dimensional feature information and the feature classification information as the determination condition;
The suitability of the determination condition in the determination object is determined by the comparison.
A determination method including the above.
少なくとも1つのコンピュータに判定方法を実行させるプログラムにおいて、
前記判定方法は、
被判定物の少なくとも一部の3次元情報を形成する深度情報及び2次元画像を取得し、
前記取得された2次元画像から前記被判定物の2次元特徴情報を抽出し、
前記2次元特徴情報及び前記深度情報に基づいて、前記被判定物の3次元形状の特徴分類を示す特徴分類情報を抽出し、
判定条件となる2次元特徴情報及び特徴分類情報を取得し、
前記抽出された2次元特徴情報及び前記抽出された特徴分類情報と、前記判定条件としての前記2次元特徴情報及び前記特徴分類情報とを比較し、
前記比較により、前記被判定物における前記判定条件の適合性を判定する、
ことを含むプログラム。
In a program for causing at least one computer to execute a determination method,
The determination method is:
Obtaining depth information and 2D image forming 3D information of at least a part of the determination object;
Extracting the two-dimensional feature information of the object to be determined from the acquired two-dimensional image;
Based on the two-dimensional feature information and the depth information, the feature classification information indicating the feature classification of the three-dimensional shape of the determination object is extracted,
Obtain two-dimensional feature information and feature classification information as judgment conditions,
Comparing the extracted two-dimensional feature information and the extracted feature classification information with the two-dimensional feature information and the feature classification information as the determination condition;
The suitability of the determination condition in the determination object is determined by the comparison.
A program that includes that.
JP2013053619A 2013-03-15 2013-03-15 Information processing apparatus and determination method Active JP6090847B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013053619A JP6090847B2 (en) 2013-03-15 2013-03-15 Information processing apparatus and determination method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013053619A JP6090847B2 (en) 2013-03-15 2013-03-15 Information processing apparatus and determination method

Publications (2)

Publication Number Publication Date
JP2014178969A JP2014178969A (en) 2014-09-25
JP6090847B2 true JP6090847B2 (en) 2017-03-08

Family

ID=51698831

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013053619A Active JP6090847B2 (en) 2013-03-15 2013-03-15 Information processing apparatus and determination method

Country Status (1)

Country Link
JP (1) JP6090847B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105222725B (en) * 2015-09-24 2017-08-22 大连理工大学 A kind of high-definition image dynamic collecting method based on spectrum analysis
JP2018173731A (en) * 2017-03-31 2018-11-08 ミツミ電機株式会社 Face authentication device and face authentication method
CN110852134A (en) * 2018-07-27 2020-02-28 北京市商汤科技开发有限公司 Living body detection method, living body detection device, living body detection system, electronic device, and storage medium
JP7169213B2 (en) * 2019-02-05 2022-11-10 株式会社日立製作所 Physical health video analysis device, method and system
JP7226745B2 (en) * 2019-03-26 2023-02-21 株式会社 資生堂 Apparatus, method, program, and system for determining three-dimensional facial morphology
WO2023201723A1 (en) * 2022-04-22 2023-10-26 华为技术有限公司 Object detection model training method, and object detection method and apparatus

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02224185A (en) * 1989-02-27 1990-09-06 Osaka Gas Co Ltd Method and device for identifying person
WO2008056777A1 (en) * 2006-11-10 2008-05-15 Konica Minolta Holdings, Inc. Authentication system and authentication method
JP2012203592A (en) * 2011-03-24 2012-10-22 Nec Corp Image processing system, face information storage method, image processing device and method for controlling the same, and control program

Also Published As

Publication number Publication date
JP2014178969A (en) 2014-09-25

Similar Documents

Publication Publication Date Title
CN109711243B (en) Static three-dimensional face in-vivo detection method based on deep learning
US11360571B2 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
KR102596897B1 (en) Method of motion vector and feature vector based fake face detection and apparatus for the same
JP6090847B2 (en) Information processing apparatus and determination method
JP6125188B2 (en) Video processing method and apparatus
CN106372629B (en) Living body detection method and device
CN105335722B (en) Detection system and method based on depth image information
CN104933414B (en) A kind of living body faces detection method based on WLD-TOP
CN105740780B (en) Method and device for detecting living human face
KR102357340B1 (en) Method and apparatus for face recognition
JP5159950B2 (en) Image processing apparatus, method, and program
KR101789071B1 (en) Apparatus and method for extracting feature of depth image
KR101551576B1 (en) Robot cleaner, apparatus and method for recognizing gesture
CN108876835A (en) Depth information detection method, device and system and storage medium
CN110674680B (en) Living body identification method, living body identification device and storage medium
EP3241151A1 (en) An image face processing method and apparatus
JP2018036965A (en) Living body detection device
Chansri et al. Hand gesture recognition for Thai sign language in complex background using fusion of depth and color video
JP4235018B2 (en) Moving object detection apparatus, moving object detection method, and moving object detection program
KR101478709B1 (en) Method and apparatus for extracting and generating feature point and feature descriptor rgb-d image
KR102110459B1 (en) Method and apparatus for generating three dimension image
JP3952460B2 (en) Moving object detection apparatus, moving object detection method, and moving object detection program
CN108875488B (en) Object tracking method, object tracking apparatus, and computer-readable storage medium
US10140509B2 (en) Information processing for detection and distance calculation of a specific object in captured images
KR100951315B1 (en) Method and device detect face using AAMActive Appearance Model

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20140613

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170202

R150 Certificate of patent or registration of utility model

Ref document number: 6090847

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150