JP2018089161A - Target person recognition method, device, system, and program - Google Patents
Target person recognition method, device, system, and program Download PDFInfo
- Publication number
- JP2018089161A JP2018089161A JP2016236018A JP2016236018A JP2018089161A JP 2018089161 A JP2018089161 A JP 2018089161A JP 2016236018 A JP2016236018 A JP 2016236018A JP 2016236018 A JP2016236018 A JP 2016236018A JP 2018089161 A JP2018089161 A JP 2018089161A
- Authority
- JP
- Japan
- Prior art keywords
- distance
- subject
- target person
- information
- distance image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
Description
本開示は、対象者認識方法、対象者認識装置、対象者認識システム、及び対象者認識プログラムに関する。 The present disclosure relates to a subject recognition method, a subject recognition device, a subject recognition system, and a subject recognition program.
対象者以外を誤認識することを抑止するために、距離画像における所定の特徴と、個人の実際の身長や、胸囲、腹囲等を表す個人情報とに基づいて、所定の動作を実施する対象者の動作情報を特定する技術が知られている。 In order to prevent misrecognition of persons other than the target person, a target person who performs a predetermined action based on a predetermined feature in the distance image and personal information representing an individual's actual height, chest circumference, abdominal circumference, etc. A technique for identifying the operation information is known.
しかしながら、上述のような従来技術では、距離画像センサから得られる対象者の距離画像に基づいて、対象者が特定の個人である可能性を精度良く判定することが難しい。対象者が同じであっても、距離画像センサと対象者との間の距離に応じて、距離画像に基づいて算出できる対象者の身長等の長さ情報は変動する。従って、上記のような個人情報を用いるだけでは、距離画像の対象者が特定の個人である可能性を精度良く判定することが難しい。 However, with the conventional techniques as described above, it is difficult to accurately determine the possibility that the subject is a specific individual based on the distance image of the subject obtained from the distance image sensor. Even if the subject is the same, length information such as the height of the subject that can be calculated based on the distance image varies depending on the distance between the distance image sensor and the subject. Therefore, it is difficult to accurately determine the possibility that the subject of the distance image is a specific individual only by using the above personal information.
そこで、1つの側面では、本発明は、距離画像センサから得られる対象者の距離画像に基づいて、対象者が特定の個人である可能性を精度良く判定することを目的とする。 Therefore, in one aspect, an object of the present invention is to accurately determine the possibility that the subject is a specific individual based on the distance image of the subject obtained from the distance image sensor.
1つの側面では、対象者の距離情報を画素値とする第1距離画像から得られる骨格情報に基づいて、前記対象者の第1身体特徴量に対応する第1距離と、前記対象者の別の第2身体特徴量に対応する第2距離とを算出し、
前記第1距離及び前記第2距離の比と、特定の個人の体格に関する体格情報を記憶する記憶部から取得する前記体格情報とに基づいて、前記対象者が前記特定の個人である可能性を判定することを含む、コンピュータにより実行される対象者認識方法が提供される。
In one aspect, based on the skeleton information obtained from the first distance image having the distance information of the subject person as a pixel value, the first distance corresponding to the first body feature amount of the subject person and the distinction of the subject person And a second distance corresponding to the second body feature amount of
Based on the ratio of the first distance and the second distance and the physique information acquired from the storage unit that stores the physique information related to the physique of a specific individual, the possibility that the target person is the specific individual. A computer-implemented subject recognition method is provided that includes determining.
1つの側面では、本発明によれば、距離画像センサから得られる対象者の距離画像に基づいて、対象者が特定の個人である可能性を精度良く判定することが可能となる。 In one aspect, according to the present invention, it is possible to accurately determine the possibility that the subject is a specific individual based on the distance image of the subject obtained from the distance image sensor.
以下、添付図面を参照しながら各実施例について詳細に説明する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings.
[実施例1]
図1は、実施例1による対象者認識システム1の概略構成を模式的に示す図である。図1には、説明用に、対象者Sが示されている。
[Example 1]
FIG. 1 is a diagram schematically illustrating a schematic configuration of a
対象者認識システム1は、距離画像センサ21と、対象者認識装置100とを含む。
The target
距離画像センサ21は、対象者Sの距離画像を取得する。例えば、距離画像センサ21は、3次元画像センサであり、空間全体のセンシングを行って距離を計測し、デジタル画像のように画素毎に距離情報を持つ距離画像を取得する。距離情報の取得方式は任意である。例えば、距離情報の取得方式は、特定のパターンを対象に投影してそれをイメージセンサで読み取り、投影パターンの幾何学的な歪みから三角測量の方式により距離を取得するアクティブステレオ方式であってもよい。また、レーザー光を照射してイメージセンサで反射光を読み取り、その位相のずれから距離を計測するTOF(Time-of-Flight)方式であってもよい。
The
尚、距離画像センサ21は、位置が固定される態様で設置されてもよいし、位置が可動な態様で設置されてもよい。また、距離画像センサ21は、複数個設置されてもよい。
The
対象者認識装置100は、距離画像センサ21から得られる距離画像に基づいて、対象者Sが特定の個人である可能性を判定する。特定の個人とは、固有の人物であり、以下では、認識対象者と称する。対象者Sが特定の個人である可能性を判定するとは、対象者Sが特定の個人であるか否かを判定することを含む概念である。
The
対象者認識装置100は、距離画像センサ21に接続されるコンピュータの形態で実現されてもよい。対象者認識装置100と距離画像センサ21との接続は、有線による通信路、無線による通信路、又はこれらの組み合わせで実現されてよい。例えば、対象者認識装置100が距離画像センサ21に対して比較的遠隔に配置されるサーバの形態である場合、対象者認識装置100は、ネットワークを介して距離画像センサ21に接続されてもよい。この場合、ネットワークは、例えば、携帯電話の無線通信網、インターネット、World Wide Web、VPN(virtual private network)、WAN(Wide Area Network)、有線ネットワーク、又はこれらの任意の組み合わせ等を含んでもよい。他方、対象者認識装置100が距離画像センサ21に対して比較的近傍に配置される場合、無線による通信路は、近距離無線通信、ブルーツース(登録商標)、Wi−Fi(Wireless Fidelity)等により実現されてもよい。
The
図2は、対象者認識装置100のハードウェア構成の一例を示す図である。
FIG. 2 is a diagram illustrating an example of a hardware configuration of the
図2に示す例では、対象者認識装置100は、制御部101、主記憶部102、補助記憶部103、ドライブ装置104、ネットワークI/F部106、入力部107を含む。
In the example illustrated in FIG. 2, the target
制御部101は、主記憶部102や補助記憶部103に記憶されたプログラムを実行する演算装置であり、入力部107や記憶装置からデータを受け取り、演算、加工した上で、記憶装置などに出力する。
The
主記憶部102は、ROM(Read Only Memory)やRAM(Random Access Memory)などであり、制御部101が実行する基本ソフトウェアであるOSやアプリケーションソフトウェアなどのプログラムやデータを記憶又は一時保存する記憶装置である。
The
補助記憶部103は、HDD(Hard Disk Drive)などであり、アプリケーションソフトウェアなどに関連するデータを記憶する記憶装置である。
The
ドライブ装置104は、記録媒体105、例えばフレキシブルディスクからプログラムを読み出し、記憶装置にインストールする。
The
記録媒体105は、所定のプログラムを格納する。この記録媒体105に格納されたプログラムは、ドライブ装置104を介して対象者認識装置100にインストールされる。インストールされた所定のプログラムは、対象者認識装置100により実行可能となる。
The
ネットワークI/F部106は、有線及び/又は無線回線などのデータ伝送路により構築されたネットワークを介して接続された通信機能を有する周辺機器と対象者認識装置100とのインターフェースである。
The network I /
入力部107は、カーソルキー、数字入力及び各種機能キー等を備えたキーボード、マウスやスライスパット等を有する。入力部107は、音声入力やジェスチャー等の他の入力方法に対応してもよい。
The
尚、図2に示す例において、以下で説明する各種処理等は、プログラムを対象者認識装置100に実行させることで実現することができる。また、プログラムを記録媒体105に記録し、このプログラムが記録された記録媒体105を対象者認識装置100に読み取らせて、以下で説明する各種処理等を実現させることも可能である。なお、記録媒体105は、様々なタイプの記録媒体を用いることができる。例えば、CD−ROM、フレキシブルディスク、光磁気ディスク等の様に情報を光学的、電気的或いは磁気的に記録する記録媒体、ROM、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等であってよい。なお、記録媒体105には、搬送波は含まれない。
In the example illustrated in FIG. 2, various processes described below can be realized by causing the
図3は、対象者認識装置100の機能の一例を示すブロック図である。図3には、対象者認識装置100に距離画像を入力する距離画像センサ21が併せて図示されている。
FIG. 3 is a block diagram illustrating an example of functions of the target
図3に示す例では、対象者認識装置100は、身体部位位置算出部110と、認識対象者決定部112と、特徴量算出部136(算出部の一例)と、個人認識部138(判定部の一例)とを含む。身体部位位置算出部110、認識対象者決定部112、特徴量算出部136、及び個人認識部138は、図2に示す制御部101が主記憶部102に記憶された1つ以上のプログラムを実行することで実現できる。尚、対象者認識装置100の機能の一部は、距離画像センサ21に内蔵されうるコンピュータにより実現されてもよい。
In the example illustrated in FIG. 3, the target
身体部位位置算出部110は、身体部位識別部1101と、非関節位置算出部1102と、関節位置算出部1103とを含む。
The body part
身体部位識別部1101には、距離画像センサ21から対象者Sの距離画像が入力される。身体部位識別部1101は、距離画像における対象者Sの身体の各部位を識別する。身体の各部位の識別は、予め機械学習により得られる学習結果に基づいて実現できる。身体の各部位の識別方法の一例は、図5乃至図7を参照して後述する。
A distance image of the subject S is input from the
図4は、身体の各部位の分け方の一例を示す図である。図4に示す例では、身体は、一例として、29部位a1〜a29に分けられている。身体は、関節部位(例えば、a17、a18、a21、a22等)と、非関節部位(例えば、a19、a20、a23、a24等)と、手や足の末端部位(a15、a16、a28、a29)とを含む。このようにして分けられた身体の各部位には、例えば固有のラベルが付与されてよい。以下では、身体の各部位(ラベルが付けられた各身体部位)を識別することを、「ラベル分け」とも称する。 FIG. 4 is a diagram illustrating an example of how to divide each part of the body. In the example shown in FIG. 4, the body is divided into 29 parts a1 to a29 as an example. The body includes joint parts (for example, a17, a18, a21, a22, etc.), non-joint parts (for example, a19, a20, a23, a24, etc.), and end parts of hands and feet (a15, a16, a28, a29). ). For example, a unique label may be given to each part of the body divided in this way. Hereinafter, identifying each body part (each body part labeled) is also referred to as “label division”.
ここで、図5乃至図7を参照して、身体の各部位の識別方法の一例について説明する。ここでは、機械学習方式としてランダムフォレストを用い、特徴量として注目画素と周辺画素の距離値の差を用いる例を説明する。ランダムフォレストでは複数の決定木を用い、入力データ(距離画像)の特徴量を算出してその結果に応じて決定木を分岐していき、最終的な結果を得る。本例においては、距離画像の各画素毎に特徴量を算出し、決定木で分岐していくことにより、最終的にその画素がどの身体部位(ラベル)に属するかを分類する。 Here, an example of a method for identifying each part of the body will be described with reference to FIGS. Here, an example will be described in which a random forest is used as the machine learning method and the difference between the distance values of the target pixel and the surrounding pixels is used as the feature amount. In the random forest, a plurality of decision trees are used, the feature amount of the input data (distance image) is calculated, and the decision tree is branched according to the result to obtain a final result. In this example, the feature quantity is calculated for each pixel of the distance image, and the decision tree is branched to finally classify which body part (label) the pixel belongs to.
特徴量f(I,x)は、距離画像内の注目点(ピクセル)とその周辺のオフセット点の間の距離値の差であり、数1の式で表される。 The feature amount f (I, x) is a difference in distance value between a point of interest (pixel) in the distance image and its surrounding offset points, and is expressed by the equation (1).
図5は、距離画像における注目点とオフセット点のイメージ図である。図5において、印“+”は注目点を表し、印“x”はオフセット点を表し、矢印はオフセットΔを概念的に表す。図5において、例えば注目点が頭部の画素でありオフセット点が背景部分となっている場合、注目点とオフセット点の距離の差は大きくなる。他方、胴体部分のように注目点とオフセット点が両方とも上半身にある場合、距離の差は小さくなる。 FIG. 5 is an image diagram of a point of interest and an offset point in a distance image. In FIG. 5, the mark “+” represents the point of interest, the mark “x” represents the offset point, and the arrow conceptually represents the offset Δ. In FIG. 5, for example, when the attention point is a head pixel and the offset point is a background portion, the difference in the distance between the attention point and the offset point becomes large. On the other hand, when the attention point and the offset point are both in the upper body as in the body part, the difference in distance is small.
図6は、画素毎に決定木を用いて身体部位を識別する方法の説明図である。図6には、決定木がT個の“tree 1”〜“tree T”示されている。身体部位識別部1101は、距離画像から1画素ずつ、事前に学習した識別器(複数の決定木)に入力し、画素毎に身体部位の推定を行う。身体部位識別部1101は、決定木の各ノードNkでは、その画素の特徴量f(I、x;Δk)を算出して閾値θkと比較する。各ノードでの演算に使用するオフセットΔkと閾値θkは学習の際に最も正しく部位が識別できる値が選択される。身体部位識別部1101は、各ノードで比較結果に応じた方向へと分岐して次のノードへ進み、終端ノードまで至る。決定木の終端ノードに到達すると、その画素がどの身体部位に属するかの確率分布が得られる。図6において、P1(c)は、決定木“tree 1”における確率分布を模式的に表し、PT(c)は、決定木“tree T”における確率分布を模式的に表す。cは、各身体部位(各ラベル)を表す。そして、確率分布をすべての木の結果で平均し、最も確率の大きい部位が推定結果となる。
FIG. 6 is an explanatory diagram of a method for identifying a body part using a decision tree for each pixel. FIG. 6 shows T tree “
図7は、機械学習(学習処理)の概要を示す説明図である。学習の際には様々な姿勢の距離画像と対応する部位ラベル付画像(ラベル分けデータ)のセットを大量に用意し、機械学習処理を行う。機械学習処理では、決定木でうまく分類できるように各ノードkで比較する周辺画素のオフセットΔk、及び、分岐の判定に使用する閾値θkが決定(学習)される。 FIG. 7 is an explanatory diagram showing an outline of machine learning (learning processing). At the time of learning, a large amount of set images (labeled data) with region labels corresponding to distance images of various postures are prepared, and machine learning processing is performed. In the machine learning process, the offset Δ k of the neighboring pixels to be compared at each node k and the threshold value θ k used for branch determination are determined (learned) so that the classification can be performed well by the decision tree.
ここでは、一例として、機械学習方式としてランダムフォレストを用い、特徴量として注目画素と周辺画素の距離値の差を用いているが、他の方法も可能である。例えば、距離画像を入力として各画素のマルチクラス分類(Multi-class Classification)を行う方式であってもよい。また、ランダムフォレストの場合でも距離値の差以外の特徴量を使ってもよいし、特徴量に相当するパラメータも含めて学習を行う深層学習(Deep Learning)を用いてもよい。 Here, as an example, a random forest is used as the machine learning method, and the difference between the distance values of the target pixel and the surrounding pixels is used as the feature amount, but other methods are also possible. For example, a method of performing multi-class classification of each pixel using a distance image as an input may be used. Further, even in the case of a random forest, feature quantities other than the difference in distance value may be used, or deep learning that performs learning including parameters corresponding to the feature quantities may be used.
また、身体部位識別部1101は、手や足の末端部位については、機械学習の結果を用いずに、距離画像のみから人体の輪郭抽出を行うことで認識してもよい。これは、手や足の末端部位については、機械学習の結果を用いなくても輪郭抽出により精度高い認識結果が得られる可能性が高いためである。
The body
身体部位識別部1101は、一の距離画像において2人以上の対象者Sを認識した場合、各対象者Sごとに、身体部位を識別する。
When two or more subjects S are recognized in one distance image, the body
非関節位置算出部1102は、身体部位識別部1101が識別した各非関節部位及び各末端部位の重心位置を算出する。非関節位置算出部1102は、図8に×マークで示すような、非関節部位a7、a8、a11、a12、a19、a20、a23、a24及び末端部位a15、a16、a28、a29の各重心位置を算出する。非関節位置算出部1102は、身体部位識別部1101が一の距離画像において2人以上の対象者Sを認識した場合、各対象者Sごとに、各非関節部位及び各末端部位の重心位置を算出する。
The non-joint
関節位置算出部1103は、身体部位識別部1101が識別した各関節部位の重心位置を算出する。関節位置算出部1103は、身体部位識別部1101が一の距離画像において2人以上の対象者Sを認識した場合、各対象者Sごとに、各関節部位の重心位置を算出する。関節位置算出部1103は、図9に×マークで示すような、関節部位の各重心位置、及び、他の骨格基準位置P1、P2、P3を算出する。この場合、関節位置算出部1103は、更に、図10に模式的に示すように、関節部位の各重心位置及び骨格基準位置P1、P2、P3に基づいて、骨格を認識してもよい。
The joint
図11は、非関節位置算出部1102及び関節位置算出部1103で用いることができる重心位置の算出方法の一例の説明図である。図11は、身体部位識別部1101による各部位の識別結果を示し、X1の拡大図を併せて示す。ここでは、図11のX1の拡大図を参照して、左肩(関節部位)の重心位置を求める例を説明する。部位X1の拡大図において、白抜きの“×”で示す各点Piは、肩と分類された画素に対応する3次元座標を表す。この場合、黒塗りの“×”で示す重心位置Joint(x,y,z)は、以下の数3の式のように、すべてのPiの座標(x,y,z)それぞれの平均を算出することによって求められてよい。なお、x成分及びy成分は、画像平面内の2次元座標の値であり、x成分は、水平方向の成分であり、y成分は、垂直方向の成分である。また、z成分は、距離を表す。
FIG. 11 is an explanatory diagram of an example of a method for calculating the center of gravity that can be used by the non-joint
認識対象者決定部112は、認識対象者(特定の個人)を決定する。ここでは、認識対象者は、1人であるが、2人以上であってもよい。認識対象者決定部112は、ユーザからの入力(入力部107を介して得られる情報)に基づいて、認識対象者を決定してよい。例えば、ユーザは、自身の子供を認識対象者としたい場合は、自身の子供が認識対象者に決定される入力を行う。或いは、認識対象者決定部112は、所定のアルゴリズムに基づいて、認識対象者を決定してよい。例えば不審な行動をしている人物を検出する所定のアルゴリズムに基づいて、不審な行動をしている人物が検出された場合、該人物が認識対象者として決定されてもよい。認識対象者決定部112は、認識対象者を決定すると、決定した認識対象者を個人認識部138に通知する。
The recognition target
対象者認識装置100は、更に、骨格データ記憶部121と、非関節部位位置データ記憶部122と、ユーザ情報記憶部124(記憶部の一例)とを含む。骨格データ記憶部121、非関節部位位置データ記憶部122、及びユーザ情報記憶部124は、例えば、図2の補助記憶部103により実現できる。
The
骨格データ記憶部121には、関節位置算出部1103により算出される各関節部位の重心位置と他の骨格基準位置P1、P2、P3の情報(以下、「骨格情報」と称する)が記憶される。
The skeleton
非関節部位位置データ記憶部122には、非関節位置算出部1102により算出される各非関節部位及び末端部位の重心位置の情報(以下、「非関節部位情報」と称する)が記憶される。
The non-joint part position
ユーザ情報記憶部124には、認識対象者の体格に関する体格情報(図12参照)が記憶される。体格情報は、身長や、座高、肩幅等のような、体格に起因して変化する長さ情報を含む。体格情報は、身長や、座高、肩幅等の各数値であってもよい。この場合、体格情報は、ユーザ入力により事前に登録(記憶)されてもよい。或いは、体格情報は、距離画像センサ21からの距離画像であって、認識対象者が対象者Sである距離画像に基づいて生成されてもよい。この場合、体格情報は、関節位置算出部1103により算出される各関節部位の重心位置や、非関節位置算出部1102により算出される各非関節部位等の重心位置を含んでよい。即ち、この場合、体格情報は、認識対象者が対象者Sである距離画像に基づいて得られる骨格情報や非関節部位情報を含んでよい。
The user
図12に示す例では、体格情報は、認識対象者(人物A,B)に係る身長、座高、肩幅、パラメータT1,T2を含む。パラメータT1は、座高/身長であり、パラメータT2は、肩幅/身長である。従って、パラメータT1,T2は、身長、座高及び肩幅の情報から算出できる。このようなパラメータT1,T2を用いる場合、座高及び肩幅が身長で正規化されることになるので、距離画像センサ21からの対象者Sの近さの変動に対応できる。尚、図12に示す例では、体格情報は、認識対象者(人物A,B)が対象者Sである距離画像に基づいて生成されている。
In the example shown in FIG. 12, the physique information includes the height, sitting height, shoulder width, and parameters T1 and T2 related to the person to be recognized (persons A and B). The parameter T1 is the sitting height / height, and the parameter T2 is the shoulder width / height. Therefore, the parameters T1 and T2 can be calculated from the information on the height, the sitting height, and the shoulder width. When such parameters T1 and T2 are used, the sitting height and the shoulder width are normalized by the height, so that it is possible to cope with the variation in the proximity of the subject S from the
特徴量算出部136は、骨格データ記憶部121に記憶された骨格情報に基づいて、所定の身体特徴量を算出する。特徴量算出部136は、身体部位識別部1101が一の距離画像において2人以上の対象者Sを認識した場合、各対象者Sごとに、身体特徴量を算出する。
The feature
所定の身体特徴量は、2つの関節部位間の距離、骨格基準位置と関節部位間の距離、又は、2つの骨格基準位置間の距離を含む。関節部位間の距離、及び、骨格基準位置と関節部位間の距離は、関節部位の重心位置(図9の×マーク参照)に基づいて算出される。所定の身体特徴量は、ユーザ情報記憶部124に記憶される体格情報と対比できる特徴量である。例えば、身長に係る身体特徴量は、頭部の骨格基準位置P3と足首a13又はa14との距離として算出される。また、座高に係る身体特徴量は、頭部の骨格基準位置P3と股部の骨格基準位置P2(又は股関節a5,a6)との距離として算出される。また、肩幅に係る身体特徴量は、左右の肩関節a17,a18の距離として算出される。これらの身体特徴量に係る距離は、各重心位置の2次元座標(x、y)間での距離であってもよいし、各重心位置の3次元座標(x,y,z)間での距離であってもよい。あるいは、身長や座高に係る身体特徴量は、各重心位置のy成分の差(距離)であってもよいし、肩幅に係る身体特徴量は、各重心位置のx成分の差(距離)であってもよい。
The predetermined body feature amount includes a distance between the two joint parts, a distance between the skeleton reference position and the joint part, or a distance between the two skeleton reference positions. The distance between the joint parts and the distance between the skeleton reference position and the joint parts are calculated based on the barycentric position of the joint parts (see the X mark in FIG. 9). The predetermined body feature amount is a feature amount that can be compared with the physique information stored in the user
所定の身体特徴量は、更に、関節部位と非関節部位間の距離、又は、骨格基準位置と非関節部位間の距離を含んでもよい。この場合、特徴量算出部136は、非関節部位位置データ記憶部122に記憶された非関節部位情報に更に基づいて、所定の身体特徴量を算出する。関節部位と非関節部位間の距離、又は、骨格基準位置と非関節部位間の距離は、非関節部位の重心位置に基づいて算出される。例えば、身長に係る身体特徴量は、頭部の骨格基準位置P3と足の末端部位a15又はa16との距離として算出される。また、手の長さに係る身体特徴量は、肩関節a17又はa18と手の末端部位a28又はa29との距離として算出される。同様に、これらの身体特徴量に係る距離は、各重心位置の2次元座標(x、y)間での距離であってもよいし、各重心位置の3次元座標(x,y,z)間での距離であってもよい。あるいは、例えば身長に係る身体特徴量は、各重心位置のy成分の差(距離)であってもよい。
The predetermined body feature amount may further include a distance between the joint part and the non-joint part, or a distance between the skeleton reference position and the non-joint part. In this case, the feature
個人認識部138は、ユーザ情報記憶部124に記憶された体格情報と、特徴量算出部136により算出された身体特徴量との対比結果に基づいて、対象者Sが認識対象者である可能性を判定する。なお、個人認識部138は、身体部位識別部1101が一の距離画像において2人以上の対象者Sを認識した場合、各対象者Sごとに、対象者Sが認識対象者であるか可能性を判定する。
Based on the comparison result between the physique information stored in the user
例えば、個人認識部138は、特徴量算出部136により算出された身長に係る身体特徴量αと座高に係る身体特徴量βとに基づいて、身体特徴量αに対する身体特徴量βの比(=β/α)を算出する。そして、個人認識部138は、比β/αと、ユーザ情報記憶部124に記憶された、ある一の認識対象者Kに係るパラメータT1とが、略一致した場合、対象者Sが認識対象者Kである可能性が高いと判定する。略一致とは、ある程度の誤差を許容する趣旨であり、許容誤差は、予め設定されてもよい。同様に、個人認識部138は、特徴量算出部136により算出された身長に係る身体特徴量αと肩幅に係る身体特徴量γとに基づいて、身体特徴量αに対する身体特徴量γの比(=γ/α)を算出する。そして、個人認識部138は、比γ/αと、ユーザ情報記憶部124に記憶された認識対象者Kに係るパラメータT2とが、略一致した場合、対象者Sが認識対象者Kである可能性が高いと判定する。比β/αとパラメータT1との対比、及び、比γ/αとパラメータT2との対比の双方を行う構成では、個人認識部138は、双方の対比結果が、対象者Sが認識対象者Kである可能性が高いことを示す場合、対象者Sが認識対象者Kであると確定的に判定してもよい。
For example, based on the body feature amount α related to the height and the body feature amount β related to the sitting height calculated by the feature
図13は、図12の体格情報に係る認識対象者(人物A,B)が対象者Sである距離画像から得られる骨格認識結果を示す図である。図12の体格情報は、図13に示す骨格認識結果(骨格情報)から得られている。図12及び図13から分かるように、人物A,Bの体格の相違は、身体特徴量の相違として現れる。従って、骨格情報や非関節部位情報に基づき得られる身体特徴量を利用することで、対象者Sが認識対象者である可能性を精度良く判定できることが分かる。尚、図13には、参考として、人物Aの特定の部位の2次元座標と、左側の人物に係る身体特徴量α、β、γとが示される。尚、上述したように、身体特徴量は、2次元座標間の距離や、x成分やy成分の差等で算出されてもよい。 FIG. 13 is a diagram illustrating a skeleton recognition result obtained from a distance image in which the person to be recognized (persons A and B) according to the physique information in FIG. The physique information in FIG. 12 is obtained from the skeleton recognition result (skeleton information) shown in FIG. As can be seen from FIGS. 12 and 13, the difference in the physique between the persons A and B appears as a difference in the body feature amount. Therefore, it can be understood that the possibility that the subject S is the recognition target can be accurately determined by using the body feature amount obtained based on the skeletal information and the non-joint part information. In FIG. 13, for reference, two-dimensional coordinates of a specific part of the person A and body feature amounts α, β, γ related to the left person are shown. As described above, the body feature amount may be calculated based on a distance between two-dimensional coordinates, a difference between x component and y component, or the like.
実施例1によれば、上述のように、骨格情報及び非関節部位情報の少なくともいずれか一方(以下、「骨格情報等」と称する)に基づき得られる身体特徴量を利用することで、対象者Sが認識対象者である可能性を精度良く判定できる。従って、一の距離画像において2人以上の対象者Sが認識される場合でも、2人以上の対象者Sのうちから、認識対象者を精度良く特定できる。また、骨格情報等は、例えば画像処理によるテンプレートマッチング等に比べて、対象者Sの距離画像から比較的小さい処理負荷で得ることができるので、認識対象者を高精度かつ高速に特定できる。 According to the first embodiment, as described above, by using the body feature amount obtained based on at least one of skeletal information and non-joint site information (hereinafter referred to as “skeletal information etc.”), The possibility that S is a person to be recognized can be accurately determined. Therefore, even when two or more subjects S are recognized in one distance image, the recognition subject can be accurately identified from the two or more subjects S. Further, since the skeleton information and the like can be obtained from the distance image of the target person S with a relatively small processing load as compared with, for example, template matching by image processing, the recognition target person can be specified with high accuracy and high speed.
また、実施例1によれば、上述のように、比β/α及び比γ/αを用いる場合には、座高及び肩幅が身長で正規化されることになるので、距離画像センサ21からの対象者Sの近さの変動に対応できる。即ち、距離画像センサ21と対象者Sとの間の距離とは無関係に、対象者Sが認識対象者である可能性を精度良く判定できる。また、比β/α及び比γ/αは、共に、身体特徴量の中で最も長い身長に係る身体特徴量αに基づくため、身体特徴量α、β、γにおける誤差の影響を最小化することが可能となる。
Further, according to the first embodiment, as described above, when the ratio β / α and the ratio γ / α are used, the seat height and the shoulder width are normalized by the height, and thus the distance from the
このようにして実施例1によれば、対象者Sが認識対象者である可能性を精度良く判定できるので、対象者認識システム1は、個人認証の用途や、不特定多数の対象者Sを含む距離画像から一の認識対象者を識別する用途等のような、多様な用途に利用できる。
In this way, according to the first embodiment, the possibility that the subject person S is a recognition target person can be accurately determined. Therefore, the subject
次に、図14を参照して、対象者認識装置100の動作例について説明する。
Next, an operation example of the
図14は、対象者認識装置100により実行される処理の一例を示すフローチャートである。図14に示す処理は、例えばオフラインで、実行されてよい。ここでは、補助記憶部103又は記録媒体105内の一の距離画像ファイルが処理対象であり、処理対象の距離画像ファイルに含まれる距離画像のフレーム数は、“N”であるものとする。
FIG. 14 is a flowchart illustrating an example of processing executed by the target
ステップS1400では、認識対象者決定部112は、認識対象者を決定する。尚、この際、認識対象者決定部112は、認識対象者に係る体格情報がユーザ情報記憶部124内に記憶されているか否かをチェックしてもよい。認識対象者に係る体格情報がユーザ情報記憶部124内に記憶されていない場合は、認識対象者決定部112は、エラーメッセージ等を表示装置(図示せず)に出力することで、ユーザに、認識対象者に係る体格情報の入力を促してよい。認識対象者に係る体格情報の入力は、上述のように、認識対象者が一人だけで捉えられた距離画像を入力することで実現されてよい。
In step S1400, the recognition target
ステップS1402では、身体部位位置算出部110は、“j”を“1”に設定する。
In step S1402, body part
ステップS1404では、身体部位位置算出部110は、補助記憶部103又は記録媒体105から、“j”番目のフレームの距離画像を取得する。
In step S <b> 1404, the body part
ステップS1406では、身体部位位置算出部110は、ステップS1404で取得した距離画像に基づいて、距離画像における対象者Sの身体の各部位を識別し、骨格情報等を生成する。骨格情報等の生成方法は、上述のとおりである。身体部位位置算出部110は、ステップS1404で取得した距離画像において2人以上の対象者Sを認識した場合、その旨を表すフラグFを“1”にセットする。フラグFの初期値は、“0”である。
In step S1406, the body part
ステップS1408では、特徴量算出部136は、身体部位位置算出部110が距離画像において2人以上の対象者Sを認識したか否かを判定する。即ち、特徴量算出部136は、フラグFが“1”であるか否かを判定する。判定結果が“YES”の場合は、ステップS1410に進み、それ以外の場合は、ステップS1416に進む。
In step S1408, the feature
ステップS1410では、特徴量算出部136は、対象者Sごとに、所定の身体特徴量を算出する。図14では、特徴量算出部136は、対象者Sごとに、身長に係る身体特徴量α、座高に係る身体特徴量β、及び肩幅に係る身体特徴量γを算出し、算出結果に基づいて、身体特徴量αに対する身体特徴量β及びγの各比(=β/α、γ/α)を算出する。
In step S1410, the feature
ステップS1412では、個人認識部138は、対象者Sごとに、ステップS1400で決定された認識対象者に係る体格情報と、ステップS1410で得られた各比(=β/α、γ/α)とに基づいて、対象者Sが認識対象者である可能性を判定する。具体的には、個人認識部138は、比β/αと認識対象者に係るパラメータT1とが、略一致し、且つ、比γ/αと認識対象者に係るパラメータT2とが、略一致した場合、対象者Sが認識対象者であると判定する。尚、パラメータT1,T2は、上述のように体格情報に含まれ、それぞれ、座高/身体特徴量、及び、肩幅/身長である。判定結果が“YES”の場合は、ステップS1414に進み、それ以外の場合は、ステップS1416に進む。
In step S1412, the
ステップS1414では、個人認識部138は、複数の対象者Sに係る骨格情報のうちの、認識対象者であると判定した対象者Sに係る骨格情報を、認識対象者に紐付ける。例えば、個人認識部138は、認識対象者であると判定した対象者Sに係る骨格情報に、認識対象者に係る識別子を付与する。
In step S1414, the
ステップS1416では、個人認識部138は、“j”が“N(処理対象の距離画像のフレーム数)”であるか否かを判定する。j=Nの場合は、そのまま終了となり、j≠Nの場合は、ステップS1418を経て、ステップS1404に戻る。
In step S1416, the
ステップS1418では、個人認識部138は、“j”を“1”だけインクリメントする。
In step S1418, the
図14に示す処理によれば、補助記憶部103又は記録媒体105に記憶されたNフレームの距離画像において、認識対象者を識別できる。これにより、ユーザは、例えば、Nフレームの距離画像のうちから、認識対象者が含まれる距離画像だけを抽出することが容易となる。また、Nフレームの距離画像が時間的に連続する場合(即ち動画である場合)、認識対象者の動きだけを抽出することも容易となる。
According to the process shown in FIG. 14, the person to be recognized can be identified in the N-frame distance image stored in the
尚、図14に示す処理は、オフラインで実行されるが、例えばオンライン(リアルタイム)で、所定周期毎(例えばフレーム周期毎)に実行されてもよい。この場合、ステップS1402、ステップS1416、ステップS1418は省略され、ステップS1404では、身体部位位置算出部110は、距離画像センサ21から直接的に距離画像を取得してよい。
The process shown in FIG. 14 is executed offline, but may be executed, for example, online (in real time) and at predetermined intervals (for example, every frame period). In this case, step S1402, step S1416, and step S1418 are omitted, and the body part
また、図14に示す処理では、ステップS1408の判定結果が“NO”の場合は、ステップS1416に進むが、これに限られない。ステップS1408の判定結果が“NO”の場合、特徴量算出部136は、一の対象者Sに係る各比(=β/α、γ/α)を算出してよい。この場合、個人認識部138は、認識対象者に係る体格情報と、各比(=β/α、γ/α)とに基づいて、一の対象者Sが認識対象者である可能性を判定する。そして、判定結果が“YES”の場合は、個人認識部138は、認識対象者であると判定した対象者Sに係る骨格情報を、認識対象者に紐付ける。
In the process shown in FIG. 14, if the determination result in step S1408 is “NO”, the process proceeds to step S1416, but is not limited thereto. When the determination result of step S1408 is “NO”, the feature
[実施例2]
実施例2による対象者認識システム1Aは、対象者認識処理で得られる情報を利用してロボット制御データを生成する点が異なる。以下では、上述した実施例1と同様であってよい構成要素については、同一の参照符号を付して説明を省略する。
[Example 2]
The subject recognition system 1A according to the second embodiment is different in that robot control data is generated using information obtained by subject recognition processing. In the following, components that may be the same as those in the first embodiment are denoted by the same reference numerals and description thereof is omitted.
対象者認識システム1Aは、距離画像センサ21と、対象者認識装置100Aとを含む。
The subject recognition system 1A includes a
対象者認識装置100Aは、図2に示したハードウェア構成を有してよい。図15は、対象者認識装置100Aの機能の一例を示すブロック図である。図15には、対象者認識装置100Aに距離画像を入力する距離画像センサ21が併せて図示されている。
The
図15は、対象者認識装置100Aの機能の一例を示すブロック図である。図15には、対象者認識装置100Aに距離画像を入力する距離画像センサ21が併せて図示されている。
FIG. 15 is a block diagram illustrating an example of functions of the
対象者認識装置100Aは、上述した実施例1による対象者認識装置100に対して、ロボット制御データ生成部140を更に含む点が異なる。ロボット制御データ生成部140は、図2に示す制御部101が主記憶部102に記憶された1つ以上のプログラムを実行することで実現できる。
The
ロボット制御データ生成部140は、身体部位位置算出部110により生成される骨格情報と、個人認識部138による認識結果とに基づいて、ロボット制御データを生成する。ロボット制御データ生成部140は、認識対象者の動きに合わせてロボットが動くように、ロボット制御データを生成する。
The robot control
図16は、ロボット90の一例を示す図である。図16には、ロボット90の内部の骨格910が模式的に透視で示される。ロボット90は、例えば人型であり、例えば人体の骨格(図10参照)と同様の骨格910を有する。従って、図16に示すロボット90は、人の動きを模倣できる。
FIG. 16 is a diagram illustrating an example of the
次に、図17を参照して、対象者認識装置100Aの動作例について説明する。
Next, an operation example of the
図17は、対象者認識装置100Aにより実行される処理の一例を示すフローチャートである。図17に示す処理は、例えばオフラインで、実行されてよい。
FIG. 17 is a flowchart illustrating an example of processing executed by the target
図17に示す処理は、上述した実施例1において図14に示した処理に対して、ステップS1700が追加された点が異なる。以下では、異なる点について説明する。 The process shown in FIG. 17 is different from the process shown in FIG. 14 in the first embodiment in that step S1700 is added. Below, a different point is demonstrated.
ステップS1416での判定結果が“YES”の場合(即ちj=Nの場合)、ステップS1700に進む。 If the determination result in step S1416 is “YES” (ie, j = N), the process proceeds to step S1700.
ステップS1700では、ロボット制御データ生成部140は、ステップS1414で得られた個人認識部138による認識結果(認識対象者であると判定した対象者Sに係る骨格情報)に基づいて、ロボット制御データを生成する。例えば、ロボット制御データ生成部140は、フレームごとに、ロボット90の骨格910の各関節位置が、認識対象者であると判定した対象者Sに係る骨格情報に対応するように、ロボット制御データを生成する。この場合、ロボット制御データは、複数のフレームにわたる時系列の制御データとなり、認識対象者の動きに合わせたロボット90の動きを実現できる。
In step S1700, the robot control
図17に示す処理によれば、補助記憶部103又は記録媒体105に記憶されたNフレームの距離画像において、認識対象者を識別できる。この結果、上述のように、認識対象者に応じたロボット制御データを生成でき、認識対象者の動きに合わせたロボット90の動きを実現できる。
According to the processing shown in FIG. 17, the person to be recognized can be identified in the N-frame distance image stored in the
尚、図17に示す処理は、オフラインで実行されるが、例えばオンライン(リアルタイム)で、所定周期毎(例えばフレーム周期毎)に実行されてもよい。この場合、ステップS1402、ステップS1416、ステップS1418は省略され、ステップS1404では、身体部位位置算出部110は、距離画像センサ21から直接的に距離画像を取得してよい。
Note that the processing shown in FIG. 17 is executed offline, but may be executed, for example, online (in real time) at every predetermined cycle (for example, every frame cycle). In this case, step S1402, step S1416, and step S1418 are omitted, and the body part
以上、各実施例について詳述したが、特定の実施例に限定されるものではなく、特許請求の範囲に記載された範囲内において、種々の変形及び変更が可能である。また、前述した実施例の構成要素を全部又は複数を組み合わせることも可能である。 Although each embodiment has been described in detail above, it is not limited to a specific embodiment, and various modifications and changes can be made within the scope described in the claims. It is also possible to combine all or a plurality of the components of the above-described embodiments.
例えば、上述した実施例では、対象者認識装置100は、非関節位置算出部1102及び非関節部位位置データ記憶部122を備えるが、非関節位置算出部1102及び非関節部位位置データ記憶部122は省略されてもよい。この場合、身体特徴量は、常に、骨格データ記憶部121に記憶された骨格情報に基づいて導出される。
For example, in the above-described embodiment, the
また、上述した実施例では、比β/α及び比γ/αが用いられるが、等価的に、比β/α及び比γ/αに代えて、比α/β及び比α/γが用いられてもよい。 Further, in the above-described embodiments, the ratio β / α and the ratio γ / α are used, but equivalently, the ratio α / β and the ratio α / γ are used instead of the ratio β / α and the ratio γ / α. May be.
なお、以上の実施例に関し、さらに以下の付記を開示する。
[付記1]
対象者の距離情報を画素値とする第1距離画像から得られる骨格情報に基づいて、前記対象者の第1身体特徴量に対応する第1距離と、前記対象者の別の第2身体特徴量に対応する第2距離とを算出し、
前記第1距離及び前記第2距離の比と、特定の個人の体格に関する体格情報を記憶する記憶部から取得する前記体格情報とに基づいて、前記対象者が前記特定の個人である可能性を判定することを含む、コンピュータにより実行される対象者認識方法。
[付記2]
前記体格情報は、前記第1距離画像とは異なる第2距離画像であって、前記特定の個人の距離情報を画素値とする第2距離画像に基づいて生成される、付記1に記載の対象者認識方法。
[付記3]
前記第1距離及び前記第2距離は、それぞれ、前記第1距離画像上における第1の身体部位の座標と、前記第1距離画像上における別の第2の身体部位の座標とに基づいて算出され、
前記第1距離を算出する場合、前記第1の身体部位は、頭部であり、前記第2の身体部位は、足首又は足首よりも先の部位である、付記1又は2に記載の対象者認識方法。
[付記4]
前記第1距離及び前記第2距離は、それぞれ、前記第1の身体部位の重心位置と、前記第2の身体部位の重心位置とに基づいて算出される、付記3に記載の対象者認識方法。
[付記5]
前記第2距離は、座高に対応し、
前記第2距離を算出する場合、前記第1の身体部位は、頭部であり、前記第2の身体部位は、股部である、付記3又は4に記載の対象者認識方法。
[付記6]
前記第2距離は、肩幅に対応し、
前記第2距離を算出する場合、前記第1の身体部位は、左の肩部であり、前記第2の身体部位は、右の肩部である、付記3又は4に記載の対象者認識方法。
[付記7]
前記対象者は、複数である、付記1〜6のうちのいずれか1項に記載の対象者認識方法。
[付記8]
前記骨格情報と、前記可能性の判定結果とに基づいて、ロボットを制御するためのデータを生成することを更に含む、付記1〜7のうちのいずれか1項に記載の対象者認識方法。
[付記9]
対象者の距離情報を画素値とする距離画像から得られる骨格情報に基づいて、前記対象者の第1身体特徴量に対応する第1距離と、前記対象者の別の第2身体特徴量に対応する第2距離とを算出する算出部と、
前記第1距離及び前記第2距離の比と、特定の個人の体格に関する体格情報を記憶する記憶部から取得する前記体格情報とに基づいて、前記対象者が前記特定の個人である可能性を判定する判定部とを含む、対象者認識装置。
[付記10]
対象者の距離情報を画素値とする距離画像を生成する距離画像センサと、
対象者認識装置とを含み、
前記対象者認識装置は、
前記距離画像から得られる骨格情報に基づいて、前記対象者の第1身体特徴量に対応する第1距離と、前記対象者の別の第2身体特徴量に対応する第2距離とを算出する算出部と、
前記第1距離及び前記第2距離の比と、特定の個人の体格に関する体格情報を記憶する記憶部から取得する前記体格情報とに基づいて、前記対象者が前記特定の個人である可能性を判定する判定部とを含む、対象者認識システム。
[付記11]
対象者の距離情報を画素値とする距離画像から得られる骨格情報に基づいて、前記対象者の第1身体特徴量に対応する第1距離と、前記対象者の別の第2身体特徴量に対応する第2距離とを算出し、
前記第1距離及び前記第2距離の比と、特定の個人の体格に関する体格情報を記憶する記憶部から取得する前記体格情報とに基づいて、前記対象者が前記特定の個人である可能性を判定する、
処理をコンピュータに実行させる対象者認識プログラム。
In addition, the following additional remarks are disclosed regarding the above Example.
[Appendix 1]
Based on the skeletal information obtained from the first distance image using the distance information of the subject as a pixel value, a first distance corresponding to the first body feature of the subject and another second body feature of the subject A second distance corresponding to the quantity,
Based on the ratio of the first distance and the second distance and the physique information acquired from the storage unit that stores the physique information related to the physique of a specific individual, the possibility that the target person is the specific individual. A subject recognition method executed by a computer, comprising: determining.
[Appendix 2]
The object according to
[Appendix 3]
The first distance and the second distance are respectively calculated based on the coordinates of the first body part on the first distance image and the coordinates of another second body part on the first distance image. And
In the case of calculating the first distance, the first body part is a head, and the second body part is a part ahead of an ankle or an ankle. Recognition method.
[Appendix 4]
The subject recognition method according to appendix 3, wherein the first distance and the second distance are calculated based on a centroid position of the first body part and a centroid position of the second body part, respectively. .
[Appendix 5]
The second distance corresponds to the sitting height;
The subject recognition method according to appendix 3 or 4, wherein when calculating the second distance, the first body part is a head, and the second body part is a crotch part.
[Appendix 6]
The second distance corresponds to a shoulder width;
The subject recognition method according to appendix 3 or 4, wherein when calculating the second distance, the first body part is a left shoulder part, and the second body part is a right shoulder part. .
[Appendix 7]
The target person recognition method according to
[Appendix 8]
The subject recognition method according to any one of
[Appendix 9]
Based on the skeletal information obtained from the distance image using the distance information of the subject person as a pixel value, the first distance corresponding to the first body feature amount of the subject person and another second body feature amount of the subject person A calculation unit for calculating a corresponding second distance;
Based on the ratio of the first distance and the second distance and the physique information acquired from the storage unit that stores the physique information related to the physique of a specific individual, the possibility that the target person is the specific individual. A subject recognition device including a determination unit for determining.
[Appendix 10]
A distance image sensor that generates a distance image having the distance information of the subject as pixel values;
A subject recognition device,
The subject recognition device
Based on the skeletal information obtained from the distance image, a first distance corresponding to the first body feature of the subject and a second distance corresponding to another second body feature of the subject are calculated. A calculation unit;
Based on the ratio of the first distance and the second distance and the physique information acquired from the storage unit that stores the physique information related to the physique of a specific individual, the possibility that the target person is the specific individual. A subject recognition system including a determination unit for determining.
[Appendix 11]
Based on the skeletal information obtained from the distance image using the distance information of the subject person as a pixel value, the first distance corresponding to the first body feature amount of the subject person and another second body feature amount of the subject person Calculating the corresponding second distance,
Based on the ratio of the first distance and the second distance and the physique information acquired from the storage unit that stores the physique information related to the physique of a specific individual, the possibility that the target person is the specific individual. judge,
A subject recognition program that causes a computer to execute processing.
1、1A 対象者認識システム
21 距離画像センサ
90 ロボット
100、100A 対象者認識装置
110 身体部位位置算出部
112 認識対象者決定部
121 骨格データ記憶部
122 非関節部位位置データ記憶部
124 ユーザ情報記憶部
136 特徴量算出部
138 個人認識部
140 ロボット制御データ生成部
1101 身体部位識別部
1102 非関節位置算出部
1103 関節位置算出部
DESCRIPTION OF
Claims (8)
前記第1距離及び前記第2距離の比と、特定の個人の体格に関する体格情報を記憶する記憶部から取得する前記体格情報とに基づいて、前記対象者が前記特定の個人である可能性を判定することを含む、コンピュータにより実行される対象者認識方法。 Based on the skeletal information obtained from the first distance image using the distance information of the subject as a pixel value, a first distance corresponding to the first body feature of the subject and another second body feature of the subject A second distance corresponding to the quantity,
Based on the ratio of the first distance and the second distance and the physique information acquired from the storage unit that stores the physique information related to the physique of a specific individual, the possibility that the target person is the specific individual. A subject recognition method executed by a computer, comprising: determining.
前記第1距離を算出する場合、前記第1の身体部位は、頭部であり、前記第2の身体部位は、足首又は足首よりも先の部位である、請求項1又は2に記載の対象者認識方法。 The first distance and the second distance are respectively calculated based on the coordinates of the first body part on the first distance image and the coordinates of another second body part on the first distance image. And
The target according to claim 1 or 2, wherein when calculating the first distance, the first body part is a head, and the second body part is an ankle or an anterior part of the ankle. Recognition method.
前記第2距離を算出する場合、前記第1の身体部位は、頭部であり、前記第2の身体部位は、股部である、請求項3に記載の対象者認識方法。 The second distance corresponds to the sitting height;
The subject recognition method according to claim 3, wherein, when calculating the second distance, the first body part is a head, and the second body part is a crotch part.
前記第2距離を算出する場合、前記第1の身体部位は、左の肩部であり、前記第2の身体部位は、右の肩部である、請求項3に記載の対象者認識方法。 The second distance corresponds to a shoulder width;
The subject recognition method according to claim 3, wherein, when calculating the second distance, the first body part is a left shoulder part, and the second body part is a right shoulder part.
前記第1距離及び前記第2距離の比と、特定の個人の体格に関する体格情報を記憶する記憶部から取得する前記体格情報とに基づいて、前記対象者が前記特定の個人である可能性を判定する判定部とを含む、対象者認識装置。 Based on the skeletal information obtained from the distance image using the distance information of the subject person as a pixel value, the first distance corresponding to the first body feature amount of the subject person and another second body feature amount of the subject person A calculation unit for calculating a corresponding second distance;
Based on the ratio of the first distance and the second distance and the physique information acquired from the storage unit that stores the physique information related to the physique of a specific individual, the possibility that the target person is the specific individual. A subject recognition device including a determination unit for determining.
対象者認識装置とを含み、
前記対象者認識装置は、
前記距離画像から得られる骨格情報に基づいて、前記対象者の第1身体特徴量に対応する第1距離と、前記対象者の別の第2身体特徴量に対応する第2距離とを算出する算出部と、
前記第1距離及び前記第2距離の比と、特定の個人の体格に関する体格情報を記憶する記憶部から取得する前記体格情報とに基づいて、前記対象者が前記特定の個人である可能性を判定する判定部とを含む、対象者認識システム。 A distance image sensor that generates a distance image having the distance information of the subject as pixel values;
A subject recognition device,
The subject recognition device
Based on the skeletal information obtained from the distance image, a first distance corresponding to the first body feature of the subject and a second distance corresponding to another second body feature of the subject are calculated. A calculation unit;
Based on the ratio of the first distance and the second distance and the physique information acquired from the storage unit that stores the physique information related to the physique of a specific individual, the possibility that the target person is the specific individual. A subject recognition system including a determination unit for determining.
前記第1距離及び前記第2距離の比と、特定の個人の体格に関する体格情報を記憶する記憶部から取得する前記体格情報とに基づいて、前記対象者が前記特定の個人である可能性を判定する、
処理をコンピュータに実行させる対象者認識プログラム。 Based on the skeletal information obtained from the distance image using the distance information of the subject person as a pixel value, the first distance corresponding to the first body feature amount of the subject person and another second body feature amount of the subject person Calculating the corresponding second distance,
Based on the ratio of the first distance and the second distance and the physique information acquired from the storage unit that stores the physique information related to the physique of a specific individual, the possibility that the target person is the specific individual. judge,
A subject recognition program that causes a computer to execute processing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016236018A JP2018089161A (en) | 2016-12-05 | 2016-12-05 | Target person recognition method, device, system, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016236018A JP2018089161A (en) | 2016-12-05 | 2016-12-05 | Target person recognition method, device, system, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018089161A true JP2018089161A (en) | 2018-06-14 |
Family
ID=62563458
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016236018A Withdrawn JP2018089161A (en) | 2016-12-05 | 2016-12-05 | Target person recognition method, device, system, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018089161A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020522285A (en) * | 2018-04-20 | 2020-07-30 | ボディグラム、インコーポレイテッド | System and method for whole body measurement extraction |
JP2021135592A (en) * | 2020-02-25 | 2021-09-13 | エヌ・ティ・ティ・コムウェア株式会社 | Individual estimation device, method for estimating individual, and program |
US11422568B1 (en) * | 2019-11-11 | 2022-08-23 | Amazon Technolgoies, Inc. | System to facilitate user authentication by autonomous mobile device |
-
2016
- 2016-12-05 JP JP2016236018A patent/JP2018089161A/en not_active Withdrawn
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020522285A (en) * | 2018-04-20 | 2020-07-30 | ボディグラム、インコーポレイテッド | System and method for whole body measurement extraction |
US11422568B1 (en) * | 2019-11-11 | 2022-08-23 | Amazon Technolgoies, Inc. | System to facilitate user authentication by autonomous mobile device |
JP2021135592A (en) * | 2020-02-25 | 2021-09-13 | エヌ・ティ・ティ・コムウェア株式会社 | Individual estimation device, method for estimating individual, and program |
JP7282704B2 (en) | 2020-02-25 | 2023-05-29 | エヌ・ティ・ティ・コムウェア株式会社 | INDIVIDUAL ESTIMATION DEVICE, INDIVIDUAL ESTIMATION METHOD, AND PROGRAM |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4950787B2 (en) | Image processing apparatus and method | |
US11721114B2 (en) | Method, system, and device of generating a reduced-size volumetric dataset | |
JP5873442B2 (en) | Object detection apparatus and object detection method | |
Dikovski et al. | Evaluation of different feature sets for gait recognition using skeletal data from Kinect | |
JP4951498B2 (en) | Face image recognition device, face image recognition method, face image recognition program, and recording medium recording the program | |
Ahmed et al. | Gait recognition based on Kinect sensor | |
JP2010176380A (en) | Information processing device and method, program, and recording medium | |
JP2007004767A (en) | Image recognition apparatus, method and program | |
JP2012123667A (en) | Attitude estimation device and attitude estimation method | |
JP2015002547A (en) | Image processing apparatus, program, and image processing method | |
KR20120041086A (en) | Processing apparatus and method for creating avatar | |
JP2018089161A (en) | Target person recognition method, device, system, and program | |
Krzeszowski et al. | DTW-based gait recognition from recovered 3-D joint angles and inter-ankle distance | |
EP3223035B1 (en) | Estimation apparatus, estimation method and computer-readable medium | |
JP2009288917A (en) | Information processor, information processing method and program | |
JP2017158644A (en) | Measuring apparatus, measuring method, and measuring program | |
JP5373128B2 (en) | Person identification device, person identification method, and person identification program | |
Azhar et al. | Significant body point labeling and tracking | |
JP2018169720A (en) | Motion detection system | |
JP6173376B2 (en) | Same person detection method and same person detection system | |
JP7327776B2 (en) | Facial expression estimation device, emotion determination device, facial expression estimation method and program | |
CN114463663A (en) | Method and device for calculating height of person, electronic equipment and storage medium | |
JP7024876B2 (en) | Detection device, processing device, detection method, and processing program | |
Nguyen et al. | Vision-Based Global Localization of Points of Gaze in Sport Climbing | |
WO2024009533A1 (en) | Action recognition device, action recognition method, and action recognition program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190807 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20200221 |