JP6090847B2 - Information processing apparatus and determination method - Google Patents
Information processing apparatus and determination method Download PDFInfo
- Publication number
- JP6090847B2 JP6090847B2 JP2013053619A JP2013053619A JP6090847B2 JP 6090847 B2 JP6090847 B2 JP 6090847B2 JP 2013053619 A JP2013053619 A JP 2013053619A JP 2013053619 A JP2013053619 A JP 2013053619A JP 6090847 B2 JP6090847 B2 JP 6090847B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- feature
- dimensional
- determination
- determined
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、3次元情報により示される被判定物の3次元形状を扱う技術に関する。 The present invention relates to a technique for handling a three-dimensional shape of a determination target indicated by three-dimensional information.
人の顔の3次元形状の特徴を用いて被判定者の正当性を判定する手法が提案されている。下記特許文献1には、認証対象者の顔全体の3次元形状上の所定数の3次元ラインの形状の情報である3次元顔特徴量を算出し、この3次元顔特徴量と比較用顔特徴量との比較を行う手法が提案されている。また、下記非特許文献1及び2には、顔全体の構造情報ではなく、顔の部分的な構造情報を利用する3次元顔認証手法が提案されている。
There has been proposed a method for determining the legitimacy of a person to be determined using the characteristics of the three-dimensional shape of a human face. In Patent Document 1 below, a three-dimensional face feature amount that is information on the shape of a predetermined number of three-dimensional lines on the three-dimensional shape of the entire face of the person to be authenticated is calculated, and the three-dimensional face feature amount and the comparison face are calculated. A method for comparing with feature amounts has been proposed. Non-Patent
上述の各提案手法は、3次元点群データ間の距離や、特徴ベクトル(特徴量)との間の類似度に基づいて、被判定者の正当性を判定するため、高速処理に向かない可能性がある。例えば、上述の提案手法は、母数Nが大きい1対N認証や、複数人が写る動画の中から特定の者を検出する機能に適用することは困難である。 Each of the proposed methods described above is not suitable for high-speed processing because it determines the legitimacy of the person to be judged based on the distance between the 3D point cloud data and the similarity between the feature vectors (features). There is sex. For example, it is difficult to apply the above-described proposed method to the one-to-N authentication with a large parameter N or a function for detecting a specific person from a moving image in which a plurality of people are captured.
本発明は、このような事情に鑑みてなされたものであり、3次元情報を用いて被判定物における判定条件の適合性を高速に判定する技術を提供する。 The present invention has been made in view of such circumstances, and provides a technique for rapidly determining the suitability of the determination condition in the determination target using three-dimensional information.
本発明の各態様では、上述した課題を解決するために、それぞれ以下の構成を採用する。 Each aspect of the present invention employs the following configurations in order to solve the above-described problems.
第1の態様は、情報処理装置に関する。第1態様に係る情報処理装置は、被判定物の少なくとも一部の3次元情報を形成する深度情報及び2次元画像を取得する情報取得部と、情報取得部により取得される2次元画像から上記被判定物の2次元特徴情報を抽出する2次元特徴抽出部と、その2次元特徴情報及び情報取得部により取得される深度情報に基づいて、上記被判定物の3次元形状の特徴分類を示す特徴分類情報を抽出する3次元特徴抽出部と、判定条件となる2次元特徴情報及び特徴分類情報を取得する条件取得部と、2次元特徴抽出部により抽出される2次元特徴情報及び3次元特徴抽出部により抽出される特徴分類情報と、上記判定条件としての2次元特徴情報及び特徴分類情報との比較により、上記被判定物における上記判定条件の適合性を判定する判定部と、を有する。 A 1st aspect is related with information processing apparatus. The information processing apparatus according to the first aspect includes the information acquisition unit that acquires the depth information and the two-dimensional image forming the three-dimensional information of at least a part of the determination target, and the two-dimensional image acquired by the information acquisition unit. Based on the two-dimensional feature extraction unit that extracts the two-dimensional feature information of the determination target and the depth information acquired by the two-dimensional feature information and the information acquisition unit, the feature classification of the three-dimensional shape of the determination target is shown A three-dimensional feature extraction unit for extracting feature classification information, a condition acquisition unit for acquiring two-dimensional feature information and feature classification information as determination conditions, and a two-dimensional feature information and a three-dimensional feature extracted by the two-dimensional feature extraction unit A determination unit that determines suitability of the determination condition in the determination target object by comparing the feature classification information extracted by the extraction unit with the two-dimensional feature information and the feature classification information as the determination condition. That.
第2の態様は、少なくとも1つのコンピュータにより実行される判定方法に関する。第2態様に係る判定方法は、被判定物の少なくとも一部の3次元情報を形成する深度情報及び2次元画像を取得し、取得された2次元画像から上記被判定物の2次元特徴情報を抽出し、2次元特徴情報及び深度情報に基づいて、上記被判定物の3次元形状の特徴分類を示す特徴分類情報を抽出し、判定条件となる2次元特徴情報及び特徴分類情報を取得し、抽出された2次元特徴情報及び抽出された特徴分類情報と、上記判定条件としての2次元特徴情報及び特徴分類情報とを比較し、この比較により、上記被判定物における上記判定条件の適合性を判定する、ことを含む。 The second aspect relates to a determination method executed by at least one computer. In the determination method according to the second aspect, the depth information and the two-dimensional image forming at least a part of the three-dimensional information of the determination target are acquired, and the two-dimensional feature information of the determination target is obtained from the acquired two-dimensional image. Extracting the feature classification information indicating the feature classification of the three-dimensional shape of the object to be determined based on the two-dimensional feature information and the depth information, and acquiring the two-dimensional feature information and the feature classification information as a determination condition; The extracted two-dimensional feature information and the extracted feature classification information are compared with the two-dimensional feature information and the feature classification information as the determination conditions, and by this comparison, the suitability of the determination conditions in the determination target is determined. Including judging.
なお、本発明の他の態様としては、第2態様に係る判定方法を少なくとも1つのコンピュータに実行させるコンピュータプログラムであってもよいし、このようなプログラムを記録したコンピュータが読み取り可能な記録媒体であってもよい。この記録媒体は、非一時的な有形の媒体を含む。 As another aspect of the present invention, a computer program that causes at least one computer to execute the determination method according to the second aspect may be used, or a computer-readable recording medium that records such a program. There may be. This recording medium includes a non-transitory tangible medium.
上記各態様によれば、3次元情報を用いて被判定物における判定条件の適合性を高速に判定する技術を提供することができる。 According to each of the above aspects, it is possible to provide a technique for rapidly determining the suitability of the determination condition in the determination object using the three-dimensional information.
以下、本発明の実施の形態について説明する。なお、以下に挙げる実施形態は例示であり、本発明は以下の実施形態の構成に限定されない。 Embodiments of the present invention will be described below. In addition, embodiment mentioned below is an illustration and this invention is not limited to the structure of the following embodiment.
図1は、本発明の実施の形態に係る情報処理装置100の構成例を概念的に示す図である。図1に示されるように、情報処理装置100は、被判定物の少なくとも一部の3次元情報を形成する深度情報及び2次元画像を取得する情報取得部101と、情報取得部101により取得される2次元画像から上記被判定物の2次元特徴情報を抽出する2次元特徴抽出部102と、その2次元特徴情報及び情報取得部101により取得される深度情報に基づいて、上記被判定物の3次元形状の特徴分類を示す特徴分類情報を抽出する3次元特徴抽出部103と、判定条件となる2次元特徴情報及び特徴分類情報を取得する条件取得部104と、2次元特徴抽出部102により抽出される2次元特徴情報及び3次元特徴抽出部103により抽出される特徴分類情報と、上記判定条件としての2次元特徴情報及び特徴分類情報との比較により、上記被判定物における上記判定条件の適合性を判定する判定部105と、を有する。
FIG. 1 is a diagram conceptually illustrating a configuration example of an
情報処理装置100は、例えば、後述する詳細実施形態における顔認証装置10及び分析装置20と同様のハードウェア構成を有し、その顔認証装置10及び分析装置20と同様にプログラムが処理されることで、上述の各処理部が実現される。
The
また、本発明の実施の形態に係る判定方法は、少なくとも1つのコンピュータにより実行される。当該判定方法は、被判定物の少なくとも一部の3次元情報を形成する深度情報及び2次元画像を取得し、取得された2次元画像から上記被判定物の2次元特徴情報を抽出し、2次元特徴情報及び深度情報に基づいて、前記被判定物の3次元形状の特徴分類を示す特徴分類情報を抽出し、判定条件となる2次元特徴情報及び特徴分類情報を取得し、抽出された2次元特徴情報及び抽出された特徴分類情報と、上記判定条件としての2次元特徴情報及び特徴分類情報とを比較し、この比較により、被判定物における判定条件の適合性を判定する、ことを含む。但し、本判定方法に含まれる各工程は、順不同に逐次的に実行されてもよいし、同時に実行されてもよい。 The determination method according to the embodiment of the present invention is executed by at least one computer. The determination method acquires depth information and a two-dimensional image forming at least a part of the three-dimensional information of the determination target, extracts the two-dimensional feature information of the determination target from the acquired two-dimensional image, Based on the two-dimensional feature information and the depth information, feature classification information indicating the feature classification of the three-dimensional shape of the object to be determined is extracted, two-dimensional feature information and feature classification information serving as determination conditions are acquired, and the extracted 2 Including comparing the two-dimensional feature information and the feature classification information as the determination condition with the two-dimensional feature information and the extracted feature classification information, and determining the suitability of the determination condition in the determination target by this comparison. . However, each step included in the present determination method may be executed sequentially in random order, or may be executed simultaneously.
本実施形態では、3次元情報を形成する2次元画像から被判定物の2次元特徴情報が抽出され、この2次元特徴情報及び当該3次元情報を形成する深度情報とから被判定物の特徴分類情報が抽出される。ここで、2次元特徴情報とは、2次元空間における被判定物の特徴を示す情報を意味し、例えば、被判定物の特徴的部位の2次元の位置情報や色情報などである。被判定物が人の場合、特徴的部位として、目、鼻、口等が例示され、目尻、目頭、目の中心等の位置情報が2次元特徴情報として例示される。また、被判定物が車両の場合、特徴的部位として、ヘッドライトやフロントガラス等が例示され、ヘッドライトやフロントガラスの中心点の位置情報が2次元特徴情報として例示される。 In the present embodiment, the two-dimensional feature information of the object to be determined is extracted from the two-dimensional image forming the three-dimensional information, and the feature classification of the object to be determined from the two-dimensional feature information and the depth information forming the three-dimensional information. Information is extracted. Here, the two-dimensional feature information means information indicating the feature of the object to be determined in the two-dimensional space, such as two-dimensional position information or color information of a characteristic part of the object to be determined. When the determination target is a person, examples of the characteristic part include eyes, nose, mouth, and the like, and positional information such as the corner of the eye, the top of the eye, and the center of the eye is exemplified as the two-dimensional feature information. Further, when the object to be determined is a vehicle, examples of the characteristic part include a headlight and a windshield, and positional information of the center point of the headlight and the windshield is exemplified as two-dimensional feature information.
また、特徴分類情報は、3次元空間における被判定物の形状の特徴に関する分類を示す情報を意味する。被判定物が人の場合、特徴分類情報は、例えば、つり目、たれ目、一重、二重、切れ長等である。また、被判定物が車両の場合、当該特徴分類情報は、セダン、クーペ、1BOXワゴン、ステーションワゴン、SUV等である。但し、2次元特徴情報及び特徴分類情報の具体的形態は制限されない。また、2次元特徴情報及び特徴分類情報は、被判定物の全体から抽出されてもよいし、被判定物の一部(特徴的部位)から抽出されてもよい。 The feature classification information means information indicating a classification related to the shape feature of the determination target in the three-dimensional space. When the object to be determined is a person, the feature classification information is, for example, a suspended eye, a hanging eye, a single, a double, a cut length, or the like. When the determination target is a vehicle, the feature classification information includes a sedan, a coupe, a 1 BOX wagon, a station wagon, an SUV, and the like. However, specific forms of the two-dimensional feature information and feature classification information are not limited. Further, the two-dimensional feature information and the feature classification information may be extracted from the entire object to be determined, or may be extracted from a part (characteristic part) of the object to be determined.
本実施形態では、上述のように抽出された2次元特徴情報及び特徴分類情報が、判定条件として取得される2次元特徴情報及び特徴分類情報と比較され、この比較により、当該被判定物における判定条件の適合性が判定される。例えば、当該判定条件が探し当てる目標の2次元特徴情報及び特徴分類情報である場合、2次元画像及び深度情報から得られる被判定物がその目標であるか否かの適合性が判定される。また、当該判定条件が予め登録されている人(正当な人)の2次元特徴情報及び特徴分類情報である場合、2次元画像及び深度情報から得られる被判定者が正当な人である否かの適合性が判定される。 In the present embodiment, the two-dimensional feature information and the feature classification information extracted as described above are compared with the two-dimensional feature information and the feature classification information acquired as the determination conditions. The suitability of the conditions is determined. For example, if the determination condition is the target two-dimensional feature information and feature classification information to be found, whether or not the determination target obtained from the two-dimensional image and depth information is the target is determined. In addition, when the determination condition is two-dimensional feature information and feature classification information of a person (a legitimate person) registered in advance, whether or not the person to be determined obtained from the two-dimensional image and the depth information is a legitimate person The suitability of is determined.
このように、本実施形態によれば、2次元画像から得られる2次元特徴情報と、3次元形状の特徴を示す特徴分類情報との両方に基づいて、被判定物における判定条件の適合性が判定されるため、2次元情報のみ、又は、3次元情報のみで判定を行う手法に比べて、判定精度を向上させることができる。更に、本実施形態によれば、3次元空間での形状の特徴がカテゴライズされた特徴分類情報が判定に用いられるため、3次元点群データ間の距離や、特徴ベクトル間の類似度を算出する手法に比べて、判定処理を簡易化でき、ひいては、判定処理を高速化することができる。 As described above, according to the present embodiment, the suitability of the determination condition in the determination target object is based on both the two-dimensional feature information obtained from the two-dimensional image and the feature classification information indicating the feature of the three-dimensional shape. Since the determination is made, the determination accuracy can be improved as compared with the method of performing the determination only with the two-dimensional information or only with the three-dimensional information. Furthermore, according to the present embodiment, since feature classification information obtained by categorizing the shape features in the three-dimensional space is used for the determination, the distance between the three-dimensional point cloud data and the similarity between the feature vectors are calculated. Compared with the technique, the determination process can be simplified, and thus the determination process can be speeded up.
以下、上述の実施形態について更に詳細を説明する。以下に示す各詳細実施形態は、上述の実施形態における情報処理装置の構成及び判定方法を顔認証装置及び監視映像分析装置に適用した場合の例である。なお、上述の実施形態は、画像からの対象検出や生体認証への適用に制限されず、物体や生物等の3次元情報を用いる様々な判定技術に適用可能である。 Hereinafter, the details of the above-described embodiment will be described. Each detailed embodiment shown below is an example when the configuration of the information processing apparatus and the determination method in the above-described embodiment are applied to a face authentication apparatus and a monitoring video analysis apparatus. The above-described embodiment is not limited to application to target detection from images or biometric authentication, and can be applied to various determination techniques using three-dimensional information such as an object or a living thing.
[第1実施形態]
〔装置構成〕
図2は、第1実施形態における顔認証装置10のハードウェア構成例を概念的に示す図である。第1実施形態における顔認証装置10は、いわゆるコンピュータであり、例えば、バス5で相互に接続される、CPU(Central Processing Unit)2、メモリ3、入出力インタフェース(I/F)4等を有する。メモリ3は、RAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスク、可搬型記憶媒体等である。
[First Embodiment]
〔Device configuration〕
FIG. 2 is a diagram conceptually illustrating a hardware configuration example of the
入出力I/F4は、図2に示されるように、3次元センサ7等と接続される。なお、第1実施形態は、入出力I/F4に接続される機器を制限せず、キーボード、マウス等のようなユーザ操作の入力を受け付ける入力装置や、ディスプレイ等の表示装置や、プリンタや、ネットワークを介して他のコンピュータと通信を行う通信装置等と接続されてもよい。顔認証装置10のハードウェア構成は制限されない。
As shown in FIG. 2, the input / output I /
3次元センサ7は、被判定者の少なくとも顔の3次元情報を検出する。検出される3次元情報は、可視光により得られる対象者の2次元像(画像)の情報と、3次元センサ7からの距離の情報(深度情報)とを含む。3次元センサ7は、例えば、Kinect(登録商標)のように、可視光カメラ及び距離画像センサにより実現される。距離画像センサは、深度センサとも呼ばれ、レーザから近赤外光のパターンを対象者に照射し、そのパターンを近赤外光を検知するカメラで撮像して得られる情報から距離画像センサから対象者までの距離(深度)が算出される。
The three-
なお、3次元センサ7の実現手法は制限されず、当該3次元センサ7は、複数の可視光カメラを用いる3次元スキャナ方式で実現されてもよい。また、図2では、1つの3次元センサ7のみが図示されるが、3次元センサ7として、対象者の2次元画像を撮像する可視光カメラ及び対象者までの距離を検出する深度センサといった複数の機器が設けられてもよい。
The method for realizing the three-
〔処理構成〕
図3は、第1実施形態における顔認証装置10の処理構成例を概念的に示す図である。第1実施形態における顔認証装置10は、情報取得部11、2次元特徴抽出部(以降、2D抽出部と表記する)12、3次元特徴抽出部(以降、3D抽出部と表記する)13、条件取得部14、判定部15、特徴情報格納部16等を有する。これら各処理部は、例えば、CPU2によりメモリ3に格納されるプログラムが実行されることにより実現される。また、当該プログラムは、例えば、CD(Compact Disc)、メモリカード等のような可搬型記録媒体やネットワーク上の他のコンピュータから入出力I/F4を介してインストールされ、メモリ3に格納されてもよい。
[Processing configuration]
FIG. 3 is a diagram conceptually illustrating a processing configuration example of the
情報取得部11は、3次元センサ7から、被判定者の顔の3次元情報を取得する。この3次元情報は、被判定者の顔が少なくとも一部に写る2次元画像、及び、その2次元画像の被写体に関する深度情報を含む。以降、3次元を3Dと表記し、2次元を2Dと表記する場合もある。
The
2D抽出部12は、情報取得部11により取得された2D画像から被判定者の対象部位に関する2D特徴情報を抽出する。例えば、2D抽出部12は、目、鼻、口等のような被判定者の顔の少なくとも1つの部位に関する2D特徴情報を抽出する。判定精度を上げるためには、複数の部位の2D特徴情報が抽出されることが望ましい。2D抽出部12は、目の2D特徴情報として、目尻、目頭及び目の中心の位置(2D位置)を両目について抽出する。また、2D抽出部12は、鼻の2D特徴情報として、鼻幅を決める鼻翼の両縁及び鼻尖を抽出する。第1実施形態は、2D抽出部12が2D特徴情報を抽出する顔の部位や、2D特徴情報の具体的内容を制限しない。また、2D画像からの2D特徴情報の抽出手法には周知の手法が用いられればよい。
The
ところで、2D特徴情報が2D位置を示す場合、被判定者の2D特徴情報、及び、後述する特徴情報格納部16に格納される登録者の2D特徴情報は、2D画像から、同一の2D座標空間に基づいて抽出される。この2D座標空間の統一化は、例えば、3次元センサ7から被写体(被判定者又は登録者)までの距離を一定にした上で、2D特徴情報の元となる各2D画像が撮像されることで実現される。また、これは、例えば、各2D画像に、被写体と共に共通のマーカ(ものさし)が写るようにし、共通のマーカで示される2D距離に基づいて、各2D画像から得られる各2D特徴情報をそれぞれ正規化することで実現され得る。
By the way, when the 2D feature information indicates the 2D position, the 2D feature information of the person to be determined and the 2D feature information of the registrant stored in the feature
3D抽出部13は、2D抽出部12により抽出された2D特徴情報、及び、情報取得部11により取得された深度情報に基づいて、被判定者の特徴分類情報を抽出する。具体的には、3D抽出部13は、2D特徴情報により示される2D位置と深度情報の座標とを重ねあわせることにより、2D特徴情報で示される被判定者の顔の対象部位の3D形状情報を抽出する。3D抽出部13は、抽出された3D形状情報に基づいて、当該対象部位の特徴分類情報を抽出する。例えば、3D抽出部13は、抽出された目の3D情報に基づいて、まぶたと眼球との境を検出し、検出された境界に基づいて、目の形を認識し、その目の形に関する特徴分類情報を抽出する。また、3D抽出部13は、抽出された鼻の3D情報に基づいて、鼻尖(鼻先)の向きや形、鼻背の形や高さ、鼻翼の形などを認識し、そのような鼻の形に特徴分類情報を抽出する。3D抽出部13は、被判定者の口に関しては、唇の厚さなどを認識することができる。
Based on the 2D feature information extracted by the
3D抽出部13は、被判定者の顔の対象部位に関する複数の形状特徴分類の中の少なくとも1つの形状特徴分類を上記特徴分類情報として特定する。例えば、3D抽出部13は、被判定者の目の形に関し、つり目、たれ目、一重、二重、切れ長などのような複数の形状特徴分類の中の少なくとも1つ(例えば、たれ目)を特徴分類情報として特定する。また、3D抽出部13は、被判定者の鼻の形に関し、ターンアップ型、わし型、しし型、ローマ型、ギリシャ型、ヌビア型などのような複数の形状特徴分類の中の少なくとも1つ(例えば、しし型)を特徴分類情報として特定する。
The
3D抽出部13は、被判定者の顔の対象部位に関する複数の形状特徴分類の各々に関し、その形状特徴分類に該当する程度を示すポイントをそれぞれ決定し、このような形状特徴分類とポイントとからなる情報を上記特徴分類情報として決定するようにしてもよい。例えば、3D抽出部13は、被判定者の鼻の形に関し、次のような特徴分類情報を決定することができる。なお、以下の例では、各形状特徴分類の最大ポイントは10ポイントである。
ターンアップ型:4ポイント
わし型:1ポイント
しし型:6ポイント
ローマ型:8ポイント
ギリシャ型:0ポイント
ヌビア型:1ポイント
The
Turn-up type: 4 points Horsetail type: 1 point Sushi type: 6 points Roman type: 8 points Greek type: 0 points Nubian type: 1 point
特徴情報格納部16は、被判定者の正当性を証明し得る、正当な2D特徴情報及び正当な特徴分類情報を格納する。以降、このような正当な特徴情報のペア(2D特徴情報及び特徴分類情報)が特徴情報格納部16に格納される人を登録者と表記する。即ち、特徴情報格納部16は、このような正当な特徴情報のペアを、認証すべき登録者毎にそれぞれ格納することもできる。このような正当な特徴情報のペアは、登録者自身の3D情報から2D抽出部12及び3D抽出部13により抽出された情報であり、任意のタイミングで特徴情報格納部16に格納される。
The feature
条件取得部14は、判定部15で対象とされる正当な特徴情報のペアを特徴情報格納部16から抽出する。具体的には、条件取得部14は、1対1認証が行われる場合には、1組の2D特徴情報及び特徴分類情報を抽出し、1対N認証が行われる場合には、N組の2D特徴情報及び特徴分類情報を抽出する。条件取得部14は、被判定者のIDを取得し、このIDに対応付けられる1組の2D特徴情報及び特徴分類情報を特徴情報格納部16から抽出することもできる。
The
判定部15は、被判定者の2D特徴情報と、条件取得部14により取得された正当な2D特徴情報とを比較し、かつ、被判定者の特徴分類情報と、条件取得部14により取得された正当な特徴分類情報とを比較することで、被判定者が登録者であるか否か、即ち、被判定者の正当性を判定する。具体的には、判定部15は、被判定者の2D特徴情報と登録者の2D特徴情報とが一致又は近似し、かつ、被判定者の特徴分類情報と登録者の特徴分類情報とが一致又は近似する場合に、被判定者を正当と判定する。
The
例えば、判定部15は、2D特徴情報間の距離が所定値以下である場合に、両方の2D特徴情報が一致又は近似すると決定することができる。また、特徴分類情報が少なくとも1つの形状特徴分類を示す形態において、判定部15は、両方の特徴分類情報の少なくとも1つの形状特徴分類が同じである場合に、被判定者の特徴分類情報と登録者の特徴分類情報とが一致又は近似すると決定することができる。特徴分類情報が形状特徴分類とポイントとの組み合わせで示される形態では、判定部15は、同一形状特徴分類におけるポイントの差の合計又は平均若しくは最大値が所定値以下である場合に、両方の特徴分類情報が一致又は近似すると決定することができる。
For example, when the distance between 2D feature information is less than or equal to a predetermined value, the
また、判定部15は、2D特徴情報間の比較結果及び特徴分類情報間の比較結果をそれぞれポイント化し、それらから総合ポイントを算出し、この総合ポイントを用いて、被判定者の正当性を判定するようにしてもよい。具体的には、判定部15は、2D特徴情報間の適合度合いを示す2D適合値を決定し、特徴分類情報間の適合度合いを示す3D適合値を決定し、2D適合値及び3D適合値を掛け合せることにより総合適合値を算出し、この総合適合値を用いて、被判定者の正当性を判定する。例えば、2D特徴情報間及び特徴分類情報間の近似度が高い程、大きい2D適合値及び3D適合値がそれぞれ設定される形態では、判定部15は、総合適合値が所定閾値より大きい場合に、被判定者が正当であると判定する。
In addition, the
また、判定部15は、被判定物の複数の対象部位の各々に関し、2D適合値及び3D適合値をそれぞれ決定し、同一対象部位の2D適合値及び3D適合値を掛け合せることで部分適合値を更に決定し、各対象部位の部分適合値を足し合わせることで上記総合適合値を算出するようにしてもよい。この場合、判定部15は、各対象部位の部分適合値に、各対象部位に対応する重み係数を掛け合せて得られる値を足し合わせて、上記総合適合値を算出するようにしてもよい。重み係数は、例えば、誤検出され難い形状や表情によって変化し易い形状を持つ対象部位については、大きい値に設定され、誤検出され易い形状や表情によって変化し易い形状を持つ対象部位については、小さい値に設定される。
In addition, the
〔動作例〕
以下、第1実施形態における顔認証方法について説明する。図4は、第1実施形態における顔認証装置10の動作例を示すフローチャートである。以下の説明では、顔認証装置10を各工程の実行主体とするが、顔認証装置10に含まれる上述の各処理部を実行主体としてもよい。
[Operation example]
Hereinafter, the face authentication method in the first embodiment will be described. FIG. 4 is a flowchart illustrating an operation example of the
顔認証装置10は、被判定者の顔の3D情報を取得する(S41)。この3D情報は、上述のように3Dセンサ7により検出された情報から取得されてもよいし、他の装置から取得されてもよい。
The
顔認証装置10は、取得された3D情報に含まれる2D画像から被判定者の2D特徴情報を抽出する(S42)。例えば、顔認証装置10は、2D画像から被判定者の複数の対象部位の各々に関する2D特徴情報をそれぞれ抽出する。上述のように、各対象部位の2D特徴情報は、対象部位毎にそれぞれ決まる。左口角、右口角、上唇点、下唇点等の2D位置が口の2D特徴情報として抽出され、鼻翼の両縁、鼻尖等の2D位置が鼻の2D特徴情報として抽出される。
The
顔認証装置10は、(S42)で抽出された2D特徴情報及び3D情報に含まれる深度情報に基づいて、被判定者の特徴分類情報を抽出する(S43)。具体的には、顔認証装置10は、2D特徴情報により示される2D位置と深度情報の座標とを重ねあわせることにより、2D特徴情報で示される被判定者の顔の対象部位の3D形状情報を抽出し、抽出された3D形状情報に基づいて、当該対象部位の特徴分類情報を特定する。
The
例えば、顔認証装置10は、被判定者の対象部位に関する複数の形状特徴分類の中の少なくとも1つの形状特徴分類を当該特徴分類情報として抽出するようにしてもよい。また、顔認証装置10は、被判定者の対象部位に関する複数の形状特徴分類の各々に関し、各形状特徴分類に該当する程度を示すポイントをそれぞれ決定し、形状特徴分類とポイントとの複数ペアを特徴分類情報として抽出するようにしてもよい。例えば、顔認証装置10は、口の特徴分類情報として、薄い唇、厚い唇、おちょぼ口、アヒル口、受け口等の複数の形状特徴分類の中の少なくとも1つを特定してもよい。
For example, the
顔認証装置10は、被判定者の正当性を証明し得る、正当な2D特徴情報及び正当な特徴分類情報(正当な特徴情報のペア)を特徴情報格納部16から取得する(S44)。顔認証装置10は、特徴情報格納部16に格納される全ての正当な特徴情報のペアを取得してもよいし、被判定者のID等により特定可能であれば、1つの正当な特徴情報のペアを取得してもよい。
The
顔認証装置10は、(S42)で抽出された被判定者の2D特徴情報と(S44)で取得された正当な2D特徴情報とを比較し、かつ、(S43)で抽出された被判定者の特徴分類情報と(S44)で取得された正当な特徴分類情報とを比較する(S45)。ここで、顔認証装置10は、2D特徴情報間の比較結果を示す2D適合値を決定し、特徴分類情報間の比較結果を示す3D適合値を決定するようにしてもよい。
The
顔認証装置10は、(S45)の比較結果に基づいて、被判定者の正当性を判定する(S46)。言い換えれば、顔認証装置10は、被判定者が、正当な特徴情報のペアを特徴情報格納部16に既に格納している登録者であるか否かを判定する。具体的には、顔認証装置10は、2D特徴情報間が一致又は近似し、かつ、特徴分類情報が一致又は近似する場合に、被判定者を正当と判定する。特徴情報間の近似の程度は、上述のような2D適合値及び3D適合値として決定され、2D適合値と3D適合値から算出される総合適合値が所定閾値を超えるか否かで被判定者の正当性が判定されてもよい。
The
〔第1実施形態における作用及び効果〕
上述のように、第1実施形態では、3次元センサ7で検出される被判定者の3D情報が取得され、3D情報の2D画像から、被判定者の対象部位に関する2D特徴情報が抽出され、3D情報の深度情報と2D特徴情報から、被判定者の対象部位に関する特徴分類情報が抽出される。そして、被判定者の2D特徴情報及び特徴分類情報と、特徴情報格納部16に格納されている正当な2D特徴情報及び正当な特徴分類情報との比較により、被判定者の正当性が判定される。従って、第1実施形態によれば、被判定者の対象部位に関する2次元の情報だけでなく、その対象部位に関する3次元の情報を考慮して、被判定者の正当性が判定されるため、判定精度を向上させることができる。
[Operation and Effect in First Embodiment]
As described above, in the first embodiment, the 3D information of the person to be determined detected by the three-
更に、第1実施形態によれば、3次元形状の特徴分類情報は、複数の形状特徴分類の中の少なくとも1つ、又は、形状特徴分類とそのポイントとの複数のペアで示されるため、特徴分類情報間の比較処理を簡易化及び高速化することができる。 Furthermore, according to the first embodiment, the feature classification information of the three-dimensional shape is indicated by at least one of the plurality of shape feature classifications or a plurality of pairs of the shape feature classification and its points. Comparison processing between classification information can be simplified and speeded up.
また、第1実施形態では、被判定者の2D特徴情報と正当な2D特徴情報との間の適合度合いを示す2D適合値が決定され、被判定者の特徴分類情報と正当な特徴分類情報との間の適合度合いを示す3D適合値が決定され、それらから算出される総合適合値に基づいて被判定者の正当性が判定される。このように、2次元の情報の照合結果及び3次元の情報の照合結果がそれぞれポイント化されるため、第1実施形態によれば、被判定者の正当性の判定処理を簡易化及び高速化することができる。 In the first embodiment, a 2D matching value indicating a degree of matching between the 2D feature information of the person to be judged and the legitimate 2D feature information is determined, and the feature classification information of the person to be judged and the legitimate feature classification information are 3D matching values indicating the degree of matching between the two are determined, and the legitimacy of the person to be determined is determined based on the total matching value calculated from them. As described above, since the collation result of the two-dimensional information and the collation result of the three-dimensional information are each pointed, according to the first embodiment, the determination process of the validity of the person to be determined is simplified and speeded up. can do.
また、第1実施形態では、2D適合値及び3D適合値から、被判定者の対象部位毎に部分適合値が算出され、この部分適合値の合計により総合適合値が算出されてもよい。第1実施形態によれば、このように対象部位毎に部分適合値が算出されるため、被判定者の正当性判定への影響度の大きさに応じて、対象部位毎の重み付けを変えることもでき、ひいては、判定精度を向上させることができる。 In the first embodiment, a partial fitness value may be calculated for each target region of the person to be determined from the 2D fitness value and the 3D fitness value, and the total fitness value may be calculated by summing the partial fitness values. According to the first embodiment, since the partial fitness value is calculated for each target part in this way, the weight for each target part is changed in accordance with the degree of influence on the validity determination of the person to be determined. As a result, the determination accuracy can be improved.
[第2実施形態]
以下、第2実施形態における監視映像分析装置について、第1実施形態における顔認証装置10と異なる内容を中心に説明する。以下の説明では、第1実施形態と同様の内容については適宜省略する。第2実施形態における監視映像分析装置は、判定条件に合致する目標物(本実施形態では目標者)を監視映像の中から検出する。
[Second Embodiment]
Hereinafter, the monitoring video analysis device according to the second embodiment will be described focusing on the content different from the
〔装置構成〕
図5は、第2実施形態における監視映像分析装置(以降、単に分析装置と表記する)20のハードウェア構成例を概念的に示す図である。第2実施形態における分析装置20は、いわゆるコンピュータであり、第1実施形態における顔認証装置10と同様の構成を有する。第2実施形態では、入出力I/F4は、入力装置8及び表示装置9等と接続される。入力装置8は、キーボード、マウス等のようなユーザ操作の入力を受け付ける装置であり、表示装置9は、ディスプレイのような分析装置20から送られる画像信号に応じて表示出力を行う装置である。入出力I/F4は、監視ビデオ装置(図示せず)と接続されていてもよいし、他の装置と通信する通信装置(図示せず)と接続されていてもよい。分析装置20のハードウェア構成は制限されない。
〔Device configuration〕
FIG. 5 is a diagram conceptually illustrating a hardware configuration example of a monitoring video analysis device (hereinafter simply referred to as an analysis device) 20 in the second embodiment. The
〔処理構成〕
図6は、第2実施形態における分析装置20の処理構成例を概念的に示す図である。第2実施形態における分析装置20は、情報取得部21、2次元特徴抽出部(以降、2D抽出部と表記する)22、3次元特徴抽出部(以降、3D抽出部と表記する)23、条件取得部24、判定部25等を有する。これら各処理部は、第1実施形態と同様に、例えば、CPU2によりメモリ3に格納されるプログラムが実行されることにより実現される。
[Processing configuration]
FIG. 6 is a diagram conceptually illustrating a processing configuration example of the
情報取得部21は、監視ビデオ装置、可搬型記録媒体又は他の装置等から、3D情報を含む監視映像データを取得する。監視映像データは、動画データであってもよいし、静止画データであってもよい。情報取得部21は、監視映像として動画データを取得する場合、動画データを構成する静止画フレームを2D画像として他の処理部に与えると共に、監視映像データに含まれる深度情報を他の処理部に与える。
The
2D抽出部22及び3D抽出部23は、第1実施形態の2D抽出部12及び3D抽出部13と同様である。第2実施形態における被判定者とは、監視映像の2D画像に写る不特定者である。2D画像に複数の不特定者が写っている場合、2D抽出部22及び3D抽出部23は、各不特定者について、2D特徴情報及び特徴分類情報をそれぞれ抽出する。
The
条件取得部24は、検出対象となる目標者の判定条件情報を取得する。例えば、条件取得部24は、オペレータに目標者の判定条件を入力させるための入力画面を表示装置9に表示させ、その入力画面を介して入力装置8を用いて入力された判定条件情報を取得する。判定条件情報は、可搬型記録媒体や他の装置から入出力I/F4を介して取得されてもよい。判定条件情報は、目標者に関する2D特徴情報及び特徴分類情報である。このような判定条件情報は、似顔絵や写真等の目標者の2D画像から2D抽出部22及び3D抽出部23により抽出された2D特徴情報及び特徴分類情報であってもよい。
The
判定部25は、上述の第1実施形態の判定部15と同様の処理により、被判定者が目標者であるか否かを判定する。但し、第2実施形態では、判定部25は、この判定にあたり、被判定者の2D特徴情報及び特徴分類情報と、判定条件情報で示される2D特徴情報及び特徴分類情報とを比較する。2D画像に複数の被判定者(不特定者)が写っている場合、判定部25は、各被判定者が目標者であるか否かをそれぞれ判定する。第2実施形態では、監視映像からの目標者の検出が目的となるため、2D特徴情報間及び特徴分類情報間の適合性の度合い(総合適合値)は、第1実施形態のそれよりも低くてもよい。
The
〔動作例〕
以下、第2実施形態における監視映像分析方法について説明する。図7は、第2実施形態における分析装置20の動作例を示すフローチャートである。以下の説明では、分析装置20を各工程の実行主体とするが、分析装置20に含まれる上述の各処理部を実行主体としてもよい。
[Operation example]
Hereinafter, a monitoring video analysis method according to the second embodiment will be described. FIG. 7 is a flowchart illustrating an operation example of the
分析装置20は、3D情報を含む監視映像データを取得する(S71)。この監視映像データは、上述のように、監視ビデオ装置から取得されてもよいし、可搬型記録媒体や他の装置等から取得されてもよい。以下、監視映像データから得られる2D画像のうち、少なくとも1人の不特定者が写る2D画像を対象に、処理が実行される。2D画像に写る不特定者は、被判定者と表記される。
The
分析装置20は、監視映像データの2D画像から被判定者の2D特徴情報を抽出する(S72)。続いて、分析装置20は、2D特徴情報、及び、監視映像データの深度情報に基づいて、被判定者の特徴分類情報を抽出する(S73)。(S72)及び(S73)における具体的処理は、図4に示される(S42)及び(S43)と同様である。
The
分析装置20は、検出対象となる目標者に関する判定条件情報を取得する(S74)。判定条件情報は、目標者に関する2D特徴情報及び特徴分類情報であり、例えば、入力装置等から入力される。また、目標者の似顔絵や写真等から(S72)及び(S73)と同様の処理により抽出された2D特徴情報及び特徴分類情報が判定条件情報とされてもよい。
The
分析装置20は、(S72)で抽出された被判定者の2D特徴情報と(S74)で取得された目標者の2D特徴情報とを比較し、かつ、(S73)で抽出された被判定者の特徴分類情報と(S74)で取得された目標者の特徴分類情報とを比較する(S75)。ここで、分析装置20は、2D特徴情報間の比較結果を示す2D適合値を決定し、特徴分類情報間の比較結果を示す3D適合値を決定するようにしてもよい。
The
分析装置20は、(S75)の比較結果に基づいて、被判定者が目標者か否かを判定する(S76)。言い換えれば、分析装置20は、監視映像データの2D画像に写る不特定者が、判定条件情報で示される目標者であるか否かを判定する。具体的には、分析装置20は、2D特徴情報間が一致又は近似し、かつ、特徴分類情報が一致又は近似する場合に、被判定者を目標者であると判定する。特徴情報間の近似の程度は、上述のような2D適合値及び3D適合値として決定され、2D適合値と3D適合値から算出される総合適合値が所定閾値を超えるか否かで被判定者が目標者か否かが判定されてもよい。
Based on the comparison result of (S75), the
〔第2実施形態における作用及び効果〕
上述のように、第2実施形態では、監視映像データに含まれる2D画像から、被判定者の対象部位に関する2D特徴情報が抽出され、監視映像データに含まれる深度情報と2D特徴情報から、被判定者の対象部位に関する特徴分類情報が抽出される。そして、被判定者の2D特徴情報及び特徴分類情報と、検出対象となる目標者の2D特徴情報及び特徴分類情報との比較により、被判定者が目標者か否かが判定される。従って、第2実施形態によれば、被判定者の対象部位に関する2次元の情報だけでなく、その対象部位に関する3次元の情報を考慮して、目標者が検出されるため、監視映像から目標者を検出する検出精度を向上させることができる。
[Operations and effects in the second embodiment]
As described above, in the second embodiment, 2D feature information related to the target part of the person to be determined is extracted from the 2D image included in the monitoring video data, and from the depth information and 2D feature information included in the monitoring video data, Feature classification information regarding the target part of the judge is extracted. Then, it is determined whether or not the determination target person is the target person by comparing the determination target person's 2D feature information and feature classification information with the target person's 2D feature information and feature classification information to be detected. Therefore, according to the second embodiment, the target person is detected in consideration of not only the two-dimensional information about the target part of the person to be determined but also the three-dimensional information about the target part. Detection accuracy for detecting a person can be improved.
更に、第2実施形態では、3次元形状の特徴分類情報は、複数の形状特徴分類の中の少なくとも1つ、又は、形状特徴分類とそのポイントとの複数のペアで示されるため、目標者を特定するための判定条件情報をオペレータに容易に指定させることができると共に、特徴分類情報間の比較処理を簡易化及び高速化することができる。 Furthermore, in the second embodiment, the feature classification information of the three-dimensional shape is indicated by at least one of the plurality of shape feature classifications or a plurality of pairs of the shape feature classification and its points. The determination condition information for specifying can be easily specified by the operator, and the comparison processing between the feature classification information can be simplified and speeded up.
また、第2実施形態では、被判定者の2D特徴情報と目標者の2D特徴情報との間の適合度合いを示す2D適合値が決定され、被判定者の特徴分類情報と目標者の特徴分類情報との間の適合度合いを示す3D適合値が決定され、それらから算出される総合適合値に基づいて被判定者が目標者であるか否かが判定される。このように、2次元の情報の比較結果及び3次元の情報の比較結果がそれぞれポイント化されるため、第2実施形態によれば、被判定者が目標者であるか否かの判定処理を簡易化及び高速化することができる。結果として、第2実施形態によれば、複数の不特定者が不定期に写る監視映像データから目標者を早く検出することができる。 In the second embodiment, a 2D fitness value indicating the degree of matching between the 2D feature information of the person to be judged and the 2D feature information of the target person is determined, and the feature classification information of the person to be judged and the feature classification of the target person A 3D matching value indicating the degree of matching with the information is determined, and it is determined whether or not the determination target person is the target person based on the total matching value calculated therefrom. As described above, since the comparison result of the two-dimensional information and the comparison result of the three-dimensional information are each pointed, according to the second embodiment, the determination process of whether or not the determination target person is the target person is performed. It can be simplified and speeded up. As a result, according to the second embodiment, it is possible to quickly detect the target person from the monitoring video data in which a plurality of unspecified persons appear irregularly.
[変形例]
上述の各実施形態では、被判定者の顔内の部位を対象部位として例示したが、特徴分類情報の抽出元となる対象部位は、上述の例のみに制限されるわけではない。例えば、被判定者の頭部の形状の特徴を示す特徴分類情報が抽出されてもよいし、被判定者の身長や体型等の特徴を示す特徴分類情報が抽出されてもよい。3次元情報を用いることで、やせ型、腹が出た体型、がっちりした体形等の形状特徴分類が抽出され得る。また、3次元センサ7から所定深度に位置する任意の人が写る2D画像内のその人の身長と、その実世界におけるその人の身長とを予め計測し、その所定深度、画像内身長及び実世界身長の関係と、取得された2D画像内の被判定者の身長と、取得された深度情報で示される被判定者の深度とから、実世界での被判定者の身長は算出することができる。このように様々な種類の特徴分類情報が用いられることにより、判定精度を向上させることができる。
[Modification]
In each of the embodiments described above, the part in the face of the person to be determined is exemplified as the target part, but the target part from which the feature classification information is extracted is not limited to the above example. For example, feature classification information indicating features of the shape of the head of the person to be determined may be extracted, or feature classification information indicating characteristics of the person to be determined, such as height and body shape, may be extracted. By using the three-dimensional information, it is possible to extract shape feature classifications such as a slim shape, a stubborn body shape, and a solid body shape. Further, the height of the person in a 2D image in which an arbitrary person located at a predetermined depth from the three-
また、上述の第2実施形態では、判定条件情報は2D特徴情報及び特徴分類情報を含むが、判定条件情報は特徴分類情報のみを示すようにしてもよい。この場合、判定部15は、2D特徴情報間の比較を行わず、特徴分類情報間のみの比較を行うことで、被判定者が目標者か否かを判定すればよい。この場合、判定精度は低下するが、3次元の形状の特徴を示す特徴分類情報を指定するだけで、容易に目標者を検出することができる。
In the second embodiment described above, the determination condition information includes 2D feature information and feature classification information. However, the determination condition information may indicate only feature classification information. In this case, the
なお、上述の説明で用いた複数のフローチャートでは、複数の工程(処理)が順番に記載されているが、各実施形態で実行される工程の実行順序は、その記載の順番に制限されない。各実施形態では、図示される工程の順番を内容的に支障のない範囲で変更することができる。 In addition, in the some flowchart used by the above-mentioned description, although several process (process) is described in order, the execution order of the process performed by each embodiment is not restrict | limited to the order of the description. In each embodiment, the order of the illustrated steps can be changed within a range that does not hinder the contents.
2 CPU
3 メモリ
4 入出力I/F
7 3次元センサ
8 入力装置
9 表示装置
10 顔認証装置
11、21、101 情報取得部
12、22、102 2次元特徴抽出部(2D抽出部)
13、23、103 3次元特徴抽出部(3D抽出部)
14、24、104 条件取得部
15、25、105 判定部
16 特徴情報格納部
20 監視映像分析装置(分析装置)
100 情報処理装置
2 CPU
3
7
13, 23, 103 3D feature extraction unit (3D extraction unit)
14, 24, 104
100 Information processing apparatus
Claims (9)
前記情報取得部により取得される2次元画像から前記被判定物の2次元特徴情報を抽出する2次元特徴抽出部と、
前記2次元特徴情報及び前記情報取得部により取得される深度情報に基づいて、前記被判定物の3次元形状の特徴分類を示す特徴分類情報を抽出する3次元特徴抽出部と、
判定条件となる2次元特徴情報及び特徴分類情報を取得する条件取得部と、
前記2次元特徴抽出部により抽出される2次元特徴情報及び前記3次元特徴抽出部により抽出される特徴分類情報と、前記判定条件としての前記2次元特徴情報及び前記特徴分類情報との比較により、前記被判定物における前記判定条件の適合性を判定する判定部と、
を備える情報処理装置。 An information acquisition unit for acquiring depth information and a two-dimensional image forming three-dimensional information of at least a part of the determination object;
A two-dimensional feature extraction unit that extracts two-dimensional feature information of the object to be determined from a two-dimensional image acquired by the information acquisition unit;
Based on the two-dimensional feature information and the depth information acquired by the information acquisition unit, a three-dimensional feature extraction unit that extracts feature classification information indicating a feature classification of the three-dimensional shape of the determination object;
A condition acquisition unit for acquiring two-dimensional feature information and feature classification information as determination conditions;
By comparing the two-dimensional feature information extracted by the two-dimensional feature extraction unit and the feature classification information extracted by the three-dimensional feature extraction unit with the two-dimensional feature information and the feature classification information as the determination condition, A determination unit for determining suitability of the determination condition in the determination object;
An information processing apparatus comprising:
前記3次元特徴抽出部は、前記特徴分類情報として、前記対象部位に関する複数の形状特徴分類の中の少なくとも1つの形状特徴分類を特定する、
請求項1に記載の情報処理装置。 The two-dimensional feature extraction unit extracts two-dimensional feature information related to a target part of the determination object,
The three-dimensional feature extraction unit specifies at least one shape feature classification among a plurality of shape feature classifications related to the target part as the feature classification information.
The information processing apparatus according to claim 1.
前記3次元特徴抽出部は、前記特徴分類情報として、前記対象部位に関する複数の形状特徴分類の各々に関し、該形状特徴分類に該当する程度を示すポイントをそれぞれ決定する、
請求項1に記載の情報処理装置。 The two-dimensional feature extraction unit extracts two-dimensional feature information related to a target part of the determination object,
The three-dimensional feature extraction unit determines, as the feature classification information, a point indicating a degree corresponding to the shape feature classification for each of a plurality of shape feature classifications related to the target part;
The information processing apparatus according to claim 1.
請求項1から3のいずれか1項に記載の情報処理装置。 The determination unit determines a two-dimensional fitness value by comparing the two-dimensional feature information of the determination object and the two-dimensional feature information as the determination condition, and determines the feature classification information of the determination object and the A three-dimensional fitness value is determined by comparison with the feature classification information as a determination condition, and a total fitness value is calculated using the two-dimensional fitness value and the three-dimensional fitness value. , Determining suitability of the determination condition in the object to be determined;
The information processing apparatus according to any one of claims 1 to 3.
請求項4に記載の情報処理装置。 The determination unit determines the two-dimensional fitness value and the three-dimensional fitness value for each of the plurality of target regions of the determination target, and determines the two-dimensional fitness value and the three-dimensional fitness value of the same target region. Further determining a partial fitness value, and calculating the total fitness value from the partial fitness value of each target region,
The information processing apparatus according to claim 4.
前記条件取得部は、個人の正当な2次元特徴情報及び特徴分類情報を格納する特徴格納部から、前記判定条件となる2次元特徴情報及び特徴分類情報を取得し、
前記判定部は、前記適合性の判定として、前記被判定者の正当性を判定する、
請求項1から5のいずれか1項に記載の情報処理装置。 The to-be-determined object is a to-be-determined person reflected in a two-dimensional image acquired by the information acquisition unit,
The condition acquisition unit acquires the two-dimensional feature information and feature classification information as the determination condition from a feature storage unit that stores legitimate two-dimensional feature information and feature classification information of an individual,
The determination unit determines the legitimacy of the determination target person as the suitability determination,
The information processing apparatus according to any one of claims 1 to 5.
前記条件取得部は、前記情報取得部で取得される3次元情報から検出される目標者に関する2次元特徴情報及び特徴分類情報を取得し、
前記判定部は、前記適合性の判定として、前記被判定者が前記目標者か否かを判定する、
請求項1から5のいずれか1項に記載の情報処理装置。 The to-be-determined object is a to-be-determined person reflected in a two-dimensional image acquired by the information acquisition unit,
The condition acquisition unit acquires two-dimensional feature information and feature classification information about the target person detected from the three-dimensional information acquired by the information acquisition unit,
The determination unit determines whether the determination target person is the target person as the determination of the suitability;
The information processing apparatus according to any one of claims 1 to 5.
被判定物の少なくとも一部の3次元情報を形成する深度情報及び2次元画像を取得し、
前記取得された2次元画像から前記被判定物の2次元特徴情報を抽出し、
前記2次元特徴情報及び前記深度情報に基づいて、前記被判定物の3次元形状の特徴分類を示す特徴分類情報を抽出し、
判定条件となる2次元特徴情報及び特徴分類情報を取得し、
前記抽出された2次元特徴情報及び前記抽出された特徴分類情報と、前記判定条件としての前記2次元特徴情報及び前記特徴分類情報とを比較し、
前記比較により、前記被判定物における前記判定条件の適合性を判定する、
ことを含む判定方法。 In a determination method executed by at least one computer,
Obtaining depth information and 2D image forming 3D information of at least a part of the determination object;
Extracting the two-dimensional feature information of the object to be determined from the acquired two-dimensional image;
Based on the two-dimensional feature information and the depth information, the feature classification information indicating the feature classification of the three-dimensional shape of the determination object is extracted,
Obtain two-dimensional feature information and feature classification information as judgment conditions,
Comparing the extracted two-dimensional feature information and the extracted feature classification information with the two-dimensional feature information and the feature classification information as the determination condition;
The suitability of the determination condition in the determination object is determined by the comparison.
A determination method including the above.
前記判定方法は、
被判定物の少なくとも一部の3次元情報を形成する深度情報及び2次元画像を取得し、
前記取得された2次元画像から前記被判定物の2次元特徴情報を抽出し、
前記2次元特徴情報及び前記深度情報に基づいて、前記被判定物の3次元形状の特徴分類を示す特徴分類情報を抽出し、
判定条件となる2次元特徴情報及び特徴分類情報を取得し、
前記抽出された2次元特徴情報及び前記抽出された特徴分類情報と、前記判定条件としての前記2次元特徴情報及び前記特徴分類情報とを比較し、
前記比較により、前記被判定物における前記判定条件の適合性を判定する、
ことを含むプログラム。 In a program for causing at least one computer to execute a determination method,
The determination method is:
Obtaining depth information and 2D image forming 3D information of at least a part of the determination object;
Extracting the two-dimensional feature information of the object to be determined from the acquired two-dimensional image;
Based on the two-dimensional feature information and the depth information, the feature classification information indicating the feature classification of the three-dimensional shape of the determination object is extracted,
Obtain two-dimensional feature information and feature classification information as judgment conditions,
Comparing the extracted two-dimensional feature information and the extracted feature classification information with the two-dimensional feature information and the feature classification information as the determination condition;
The suitability of the determination condition in the determination object is determined by the comparison.
A program that includes that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013053619A JP6090847B2 (en) | 2013-03-15 | 2013-03-15 | Information processing apparatus and determination method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013053619A JP6090847B2 (en) | 2013-03-15 | 2013-03-15 | Information processing apparatus and determination method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014178969A JP2014178969A (en) | 2014-09-25 |
JP6090847B2 true JP6090847B2 (en) | 2017-03-08 |
Family
ID=51698831
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013053619A Active JP6090847B2 (en) | 2013-03-15 | 2013-03-15 | Information processing apparatus and determination method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6090847B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105222725B (en) * | 2015-09-24 | 2017-08-22 | 大连理工大学 | A kind of high-definition image dynamic collecting method based on spectrum analysis |
JP2018173731A (en) * | 2017-03-31 | 2018-11-08 | ミツミ電機株式会社 | Face authentication device and face authentication method |
CN110852134A (en) * | 2018-07-27 | 2020-02-28 | 北京市商汤科技开发有限公司 | Living body detection method, living body detection device, living body detection system, electronic device, and storage medium |
JP7169213B2 (en) * | 2019-02-05 | 2022-11-10 | 株式会社日立製作所 | Physical health video analysis device, method and system |
JP7226745B2 (en) * | 2019-03-26 | 2023-02-21 | 株式会社 資生堂 | Apparatus, method, program, and system for determining three-dimensional facial morphology |
WO2023201723A1 (en) * | 2022-04-22 | 2023-10-26 | 华为技术有限公司 | Object detection model training method, and object detection method and apparatus |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02224185A (en) * | 1989-02-27 | 1990-09-06 | Osaka Gas Co Ltd | Method and device for identifying person |
WO2008056777A1 (en) * | 2006-11-10 | 2008-05-15 | Konica Minolta Holdings, Inc. | Authentication system and authentication method |
JP2012203592A (en) * | 2011-03-24 | 2012-10-22 | Nec Corp | Image processing system, face information storage method, image processing device and method for controlling the same, and control program |
-
2013
- 2013-03-15 JP JP2013053619A patent/JP6090847B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2014178969A (en) | 2014-09-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109711243B (en) | Static three-dimensional face in-vivo detection method based on deep learning | |
US11360571B2 (en) | Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data | |
KR102596897B1 (en) | Method of motion vector and feature vector based fake face detection and apparatus for the same | |
JP6090847B2 (en) | Information processing apparatus and determination method | |
JP6125188B2 (en) | Video processing method and apparatus | |
CN106372629B (en) | Living body detection method and device | |
CN105335722B (en) | Detection system and method based on depth image information | |
CN104933414B (en) | A kind of living body faces detection method based on WLD-TOP | |
CN105740780B (en) | Method and device for detecting living human face | |
KR102357340B1 (en) | Method and apparatus for face recognition | |
JP5159950B2 (en) | Image processing apparatus, method, and program | |
KR101789071B1 (en) | Apparatus and method for extracting feature of depth image | |
KR101551576B1 (en) | Robot cleaner, apparatus and method for recognizing gesture | |
CN108876835A (en) | Depth information detection method, device and system and storage medium | |
CN110674680B (en) | Living body identification method, living body identification device and storage medium | |
EP3241151A1 (en) | An image face processing method and apparatus | |
JP2018036965A (en) | Living body detection device | |
Chansri et al. | Hand gesture recognition for Thai sign language in complex background using fusion of depth and color video | |
JP4235018B2 (en) | Moving object detection apparatus, moving object detection method, and moving object detection program | |
KR101478709B1 (en) | Method and apparatus for extracting and generating feature point and feature descriptor rgb-d image | |
KR102110459B1 (en) | Method and apparatus for generating three dimension image | |
JP3952460B2 (en) | Moving object detection apparatus, moving object detection method, and moving object detection program | |
CN108875488B (en) | Object tracking method, object tracking apparatus, and computer-readable storage medium | |
US10140509B2 (en) | Information processing for detection and distance calculation of a specific object in captured images | |
KR100951315B1 (en) | Method and device detect face using AAMActive Appearance Model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20140613 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160210 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161215 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170202 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6090847 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |