JP2018089161A - Target person recognition method, device, system, and program - Google Patents

Target person recognition method, device, system, and program Download PDF

Info

Publication number
JP2018089161A
JP2018089161A JP2016236018A JP2016236018A JP2018089161A JP 2018089161 A JP2018089161 A JP 2018089161A JP 2016236018 A JP2016236018 A JP 2016236018A JP 2016236018 A JP2016236018 A JP 2016236018A JP 2018089161 A JP2018089161 A JP 2018089161A
Authority
JP
Japan
Prior art keywords
distance
subject
target person
information
distance image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2016236018A
Other languages
Japanese (ja)
Inventor
岡田 英夫
Hideo Okada
英夫 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2016236018A priority Critical patent/JP2018089161A/en
Publication of JP2018089161A publication Critical patent/JP2018089161A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

PROBLEM TO BE SOLVED: To accurately determine a probability that a target person is a specific individual on the basis of a distance image of a target person that is to be obtained from a distance image sensor.SOLUTION: A target person recognition method is the method to be executed by a computer. The method includes: calculating a first distance corresponding to a first physical feature amount of a target person and a second distance corresponding to a different second physical feature amount of a target person on the basis of position data of a body region of a target person that is to be obtained from a first distance image with distance information of a target person as a pixel value; and determining a probability that a target person is a specific individual on the basis of a ratio of a first distance to a second distance and body shape information to be acquired from a storage section for storing body shape information related to a body shape of a specific individual.SELECTED DRAWING: Figure 3

Description

本開示は、対象者認識方法、対象者認識装置、対象者認識システム、及び対象者認識プログラムに関する。   The present disclosure relates to a subject recognition method, a subject recognition device, a subject recognition system, and a subject recognition program.

対象者以外を誤認識することを抑止するために、距離画像における所定の特徴と、個人の実際の身長や、胸囲、腹囲等を表す個人情報とに基づいて、所定の動作を実施する対象者の動作情報を特定する技術が知られている。   In order to prevent misrecognition of persons other than the target person, a target person who performs a predetermined action based on a predetermined feature in the distance image and personal information representing an individual's actual height, chest circumference, abdominal circumference, etc. A technique for identifying the operation information is known.

特開2015-61577号公報JP 2015-61577 特開2003-162720号公報Japanese Patent Laid-Open No. 2003-162720 特開2010-233737号公報JP 2010-233737 A

しかしながら、上述のような従来技術では、距離画像センサから得られる対象者の距離画像に基づいて、対象者が特定の個人である可能性を精度良く判定することが難しい。対象者が同じであっても、距離画像センサと対象者との間の距離に応じて、距離画像に基づいて算出できる対象者の身長等の長さ情報は変動する。従って、上記のような個人情報を用いるだけでは、距離画像の対象者が特定の個人である可能性を精度良く判定することが難しい。   However, with the conventional techniques as described above, it is difficult to accurately determine the possibility that the subject is a specific individual based on the distance image of the subject obtained from the distance image sensor. Even if the subject is the same, length information such as the height of the subject that can be calculated based on the distance image varies depending on the distance between the distance image sensor and the subject. Therefore, it is difficult to accurately determine the possibility that the subject of the distance image is a specific individual only by using the above personal information.

そこで、1つの側面では、本発明は、距離画像センサから得られる対象者の距離画像に基づいて、対象者が特定の個人である可能性を精度良く判定することを目的とする。   Therefore, in one aspect, an object of the present invention is to accurately determine the possibility that the subject is a specific individual based on the distance image of the subject obtained from the distance image sensor.

1つの側面では、対象者の距離情報を画素値とする第1距離画像から得られる骨格情報に基づいて、前記対象者の第1身体特徴量に対応する第1距離と、前記対象者の別の第2身体特徴量に対応する第2距離とを算出し、
前記第1距離及び前記第2距離の比と、特定の個人の体格に関する体格情報を記憶する記憶部から取得する前記体格情報とに基づいて、前記対象者が前記特定の個人である可能性を判定することを含む、コンピュータにより実行される対象者認識方法が提供される。
In one aspect, based on the skeleton information obtained from the first distance image having the distance information of the subject person as a pixel value, the first distance corresponding to the first body feature amount of the subject person and the distinction of the subject person And a second distance corresponding to the second body feature amount of
Based on the ratio of the first distance and the second distance and the physique information acquired from the storage unit that stores the physique information related to the physique of a specific individual, the possibility that the target person is the specific individual. A computer-implemented subject recognition method is provided that includes determining.

1つの側面では、本発明によれば、距離画像センサから得られる対象者の距離画像に基づいて、対象者が特定の個人である可能性を精度良く判定することが可能となる。   In one aspect, according to the present invention, it is possible to accurately determine the possibility that the subject is a specific individual based on the distance image of the subject obtained from the distance image sensor.

実施例1による対象者認識システムの概略構成を模式的に示す図である。It is a figure which shows typically schematic structure of the subject recognition system by Example 1. FIG. 対象者認識装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of a subject recognition apparatus. 対象者認識装置の機能の一例を示すブロック図である。It is a block diagram which shows an example of the function of a subject recognition apparatus. 身体の各部位の分け方の一例を示す図である。It is a figure which shows an example of how to divide each part of the body. 距離画像における注目点とオフセット点のイメージ図である。It is an image figure of the attention point and offset point in a distance image. 画素毎に決定木を用いて身体部位を識別する方法の説明図である。It is explanatory drawing of the method of identifying a body part using a decision tree for every pixel. 機械学習の概要を示す説明図である。It is explanatory drawing which shows the outline | summary of machine learning. 非関節部位の重心位置のイメージ図である。It is an image figure of the gravity center position of a non-joint part. 関節部位等の重心位置のイメージ図である。It is an image figure of a gravity center position, such as a joint part. 骨格の認識結果のイメージ図である。It is an image figure of the recognition result of a skeleton. 重心位置の算出方法の一例の説明図である。It is explanatory drawing of an example of the calculation method of a gravity center position. 体格情報の一例を示す説明図である。It is explanatory drawing which shows an example of physique information. 体格の異なる人物の骨格認識結果を示す図である。It is a figure which shows the skeleton recognition result of the person from whom a physique differs. 実施例1による対象者認識装置により実行される処理の一例を示すフローチャートである。6 is a flowchart illustrating an example of processing executed by a subject recognition device according to Embodiment 1. 実施例2による対象者認識装置の機能の一例を示すブロック図である。It is a block diagram which shows an example of the function of the subject recognition apparatus by Example 2. ロボットの一例を示す図である。It is a figure which shows an example of a robot. 実施例2による対象者認識装置により実行される処理の一例を示すフローチャートである。12 is a flowchart illustrating an example of processing executed by a subject recognition device according to a second embodiment.

以下、添付図面を参照しながら各実施例について詳細に説明する。   Hereinafter, embodiments will be described in detail with reference to the accompanying drawings.

[実施例1]
図1は、実施例1による対象者認識システム1の概略構成を模式的に示す図である。図1には、説明用に、対象者Sが示されている。
[Example 1]
FIG. 1 is a diagram schematically illustrating a schematic configuration of a subject recognition system 1 according to the first embodiment. FIG. 1 shows a subject S for explanation.

対象者認識システム1は、距離画像センサ21と、対象者認識装置100とを含む。   The target person recognition system 1 includes a distance image sensor 21 and a target person recognition apparatus 100.

距離画像センサ21は、対象者Sの距離画像を取得する。例えば、距離画像センサ21は、3次元画像センサであり、空間全体のセンシングを行って距離を計測し、デジタル画像のように画素毎に距離情報を持つ距離画像を取得する。距離情報の取得方式は任意である。例えば、距離情報の取得方式は、特定のパターンを対象に投影してそれをイメージセンサで読み取り、投影パターンの幾何学的な歪みから三角測量の方式により距離を取得するアクティブステレオ方式であってもよい。また、レーザー光を照射してイメージセンサで反射光を読み取り、その位相のずれから距離を計測するTOF(Time-of-Flight)方式であってもよい。   The distance image sensor 21 acquires a distance image of the subject S. For example, the distance image sensor 21 is a three-dimensional image sensor, measures the distance by sensing the entire space, and acquires a distance image having distance information for each pixel like a digital image. The acquisition method of distance information is arbitrary. For example, the distance information acquisition method may be an active stereo method in which a specific pattern is projected onto an object, read by an image sensor, and the distance is acquired by a triangulation method from the geometric distortion of the projection pattern. Good. Further, a TOF (Time-of-Flight) method may be used in which laser light is irradiated, reflected light is read by an image sensor, and a distance is measured from the phase shift.

尚、距離画像センサ21は、位置が固定される態様で設置されてもよいし、位置が可動な態様で設置されてもよい。また、距離画像センサ21は、複数個設置されてもよい。   The distance image sensor 21 may be installed in a manner in which the position is fixed, or may be installed in a manner in which the position is movable. A plurality of distance image sensors 21 may be installed.

対象者認識装置100は、距離画像センサ21から得られる距離画像に基づいて、対象者Sが特定の個人である可能性を判定する。特定の個人とは、固有の人物であり、以下では、認識対象者と称する。対象者Sが特定の個人である可能性を判定するとは、対象者Sが特定の個人であるか否かを判定することを含む概念である。   The subject recognition apparatus 100 determines the possibility that the subject S is a specific individual based on the distance image obtained from the distance image sensor 21. A specific individual is a unique person and is hereinafter referred to as a recognition target person. Determining the possibility that the target person S is a specific individual is a concept including determining whether or not the target person S is a specific individual.

対象者認識装置100は、距離画像センサ21に接続されるコンピュータの形態で実現されてもよい。対象者認識装置100と距離画像センサ21との接続は、有線による通信路、無線による通信路、又はこれらの組み合わせで実現されてよい。例えば、対象者認識装置100が距離画像センサ21に対して比較的遠隔に配置されるサーバの形態である場合、対象者認識装置100は、ネットワークを介して距離画像センサ21に接続されてもよい。この場合、ネットワークは、例えば、携帯電話の無線通信網、インターネット、World Wide Web、VPN(virtual private network)、WAN(Wide Area Network)、有線ネットワーク、又はこれらの任意の組み合わせ等を含んでもよい。他方、対象者認識装置100が距離画像センサ21に対して比較的近傍に配置される場合、無線による通信路は、近距離無線通信、ブルーツース(登録商標)、Wi−Fi(Wireless Fidelity)等により実現されてもよい。   The subject recognition device 100 may be realized in the form of a computer connected to the distance image sensor 21. The connection between the subject recognition device 100 and the distance image sensor 21 may be realized by a wired communication path, a wireless communication path, or a combination thereof. For example, when the subject recognition device 100 is in the form of a server that is relatively remote to the distance image sensor 21, the subject recognition device 100 may be connected to the distance image sensor 21 via a network. . In this case, the network may include, for example, a mobile phone wireless communication network, the Internet, the World Wide Web, a VPN (virtual private network), a WAN (Wide Area Network), a wired network, or any combination thereof. On the other hand, when the subject recognition device 100 is disposed relatively close to the distance image sensor 21, the wireless communication path is based on short-range wireless communication, Bluetooth (registered trademark), Wi-Fi (Wireless Fidelity), or the like. It may be realized.

図2は、対象者認識装置100のハードウェア構成の一例を示す図である。   FIG. 2 is a diagram illustrating an example of a hardware configuration of the subject recognition device 100.

図2に示す例では、対象者認識装置100は、制御部101、主記憶部102、補助記憶部103、ドライブ装置104、ネットワークI/F部106、入力部107を含む。   In the example illustrated in FIG. 2, the target person recognition device 100 includes a control unit 101, a main storage unit 102, an auxiliary storage unit 103, a drive device 104, a network I / F unit 106, and an input unit 107.

制御部101は、主記憶部102や補助記憶部103に記憶されたプログラムを実行する演算装置であり、入力部107や記憶装置からデータを受け取り、演算、加工した上で、記憶装置などに出力する。   The control unit 101 is an arithmetic device that executes a program stored in the main storage unit 102 or the auxiliary storage unit 103, receives data from the input unit 107 or the storage device, calculates, processes, and outputs the data to the storage device or the like. To do.

主記憶部102は、ROM(Read Only Memory)やRAM(Random Access Memory)などであり、制御部101が実行する基本ソフトウェアであるOSやアプリケーションソフトウェアなどのプログラムやデータを記憶又は一時保存する記憶装置である。   The main storage unit 102 is a ROM (Read Only Memory), a RAM (Random Access Memory), or the like, and a storage device that stores or temporarily stores programs and data such as an OS and application software that are basic software executed by the control unit 101. It is.

補助記憶部103は、HDD(Hard Disk Drive)などであり、アプリケーションソフトウェアなどに関連するデータを記憶する記憶装置である。   The auxiliary storage unit 103 is an HDD (Hard Disk Drive) or the like, and is a storage device that stores data related to application software or the like.

ドライブ装置104は、記録媒体105、例えばフレキシブルディスクからプログラムを読み出し、記憶装置にインストールする。   The drive device 104 reads the program from the recording medium 105, for example, a flexible disk, and installs it in the storage device.

記録媒体105は、所定のプログラムを格納する。この記録媒体105に格納されたプログラムは、ドライブ装置104を介して対象者認識装置100にインストールされる。インストールされた所定のプログラムは、対象者認識装置100により実行可能となる。   The recording medium 105 stores a predetermined program. The program stored in the recording medium 105 is installed in the subject recognition device 100 via the drive device 104. The installed predetermined program can be executed by the subject recognition apparatus 100.

ネットワークI/F部106は、有線及び/又は無線回線などのデータ伝送路により構築されたネットワークを介して接続された通信機能を有する周辺機器と対象者認識装置100とのインターフェースである。   The network I / F unit 106 is an interface between a peripheral device having a communication function and a target person recognition apparatus 100 connected via a network constructed by a data transmission path such as a wired and / or wireless line.

入力部107は、カーソルキー、数字入力及び各種機能キー等を備えたキーボード、マウスやスライスパット等を有する。入力部107は、音声入力やジェスチャー等の他の入力方法に対応してもよい。   The input unit 107 includes a keyboard having cursor keys, numeric input, various function keys, and the like, a mouse, a slice pad, and the like. The input unit 107 may correspond to other input methods such as voice input and gestures.

尚、図2に示す例において、以下で説明する各種処理等は、プログラムを対象者認識装置100に実行させることで実現することができる。また、プログラムを記録媒体105に記録し、このプログラムが記録された記録媒体105を対象者認識装置100に読み取らせて、以下で説明する各種処理等を実現させることも可能である。なお、記録媒体105は、様々なタイプの記録媒体を用いることができる。例えば、CD−ROM、フレキシブルディスク、光磁気ディスク等の様に情報を光学的、電気的或いは磁気的に記録する記録媒体、ROM、フラッシュメモリ等の様に情報を電気的に記録する半導体メモリ等であってよい。なお、記録媒体105には、搬送波は含まれない。   In the example illustrated in FIG. 2, various processes described below can be realized by causing the subject recognition apparatus 100 to execute a program. It is also possible to record the program on the recording medium 105 and cause the subject recognition apparatus 100 to read the recording medium 105 on which the program is recorded, thereby realizing various processes described below. Note that various types of recording media can be used as the recording medium 105. For example, a recording medium for optically, electrically or magnetically recording information such as a CD-ROM, flexible disk, magneto-optical disk, etc., a semiconductor memory for electrically recording information such as ROM, flash memory, etc. It may be. Note that the recording medium 105 does not include a carrier wave.

図3は、対象者認識装置100の機能の一例を示すブロック図である。図3には、対象者認識装置100に距離画像を入力する距離画像センサ21が併せて図示されている。   FIG. 3 is a block diagram illustrating an example of functions of the target person recognition apparatus 100. FIG. 3 also shows a distance image sensor 21 that inputs a distance image to the subject recognition apparatus 100.

図3に示す例では、対象者認識装置100は、身体部位位置算出部110と、認識対象者決定部112と、特徴量算出部136(算出部の一例)と、個人認識部138(判定部の一例)とを含む。身体部位位置算出部110、認識対象者決定部112、特徴量算出部136、及び個人認識部138は、図2に示す制御部101が主記憶部102に記憶された1つ以上のプログラムを実行することで実現できる。尚、対象者認識装置100の機能の一部は、距離画像センサ21に内蔵されうるコンピュータにより実現されてもよい。   In the example illustrated in FIG. 3, the target person recognition apparatus 100 includes a body part position calculation unit 110, a recognition target person determination unit 112, a feature amount calculation unit 136 (an example of a calculation unit), and a personal recognition unit 138 (determination unit). Example). The body part position calculation unit 110, the recognition target person determination unit 112, the feature amount calculation unit 136, and the individual recognition unit 138 execute one or more programs stored in the main storage unit 102 by the control unit 101 illustrated in FIG. This can be achieved. Note that some of the functions of the subject recognition apparatus 100 may be realized by a computer that can be incorporated in the distance image sensor 21.

身体部位位置算出部110は、身体部位識別部1101と、非関節位置算出部1102と、関節位置算出部1103とを含む。   The body part position calculation unit 110 includes a body part identification unit 1101, a non-joint position calculation unit 1102, and a joint position calculation unit 1103.

身体部位識別部1101には、距離画像センサ21から対象者Sの距離画像が入力される。身体部位識別部1101は、距離画像における対象者Sの身体の各部位を識別する。身体の各部位の識別は、予め機械学習により得られる学習結果に基づいて実現できる。身体の各部位の識別方法の一例は、図5乃至図7を参照して後述する。   A distance image of the subject S is input from the distance image sensor 21 to the body part identification unit 1101. The body part identification unit 1101 identifies each part of the body of the subject S in the distance image. Identification of each part of the body can be realized based on a learning result obtained in advance by machine learning. An example of a method for identifying each part of the body will be described later with reference to FIGS.

図4は、身体の各部位の分け方の一例を示す図である。図4に示す例では、身体は、一例として、29部位a1〜a29に分けられている。身体は、関節部位(例えば、a17、a18、a21、a22等)と、非関節部位(例えば、a19、a20、a23、a24等)と、手や足の末端部位(a15、a16、a28、a29)とを含む。このようにして分けられた身体の各部位には、例えば固有のラベルが付与されてよい。以下では、身体の各部位(ラベルが付けられた各身体部位)を識別することを、「ラベル分け」とも称する。   FIG. 4 is a diagram illustrating an example of how to divide each part of the body. In the example shown in FIG. 4, the body is divided into 29 parts a1 to a29 as an example. The body includes joint parts (for example, a17, a18, a21, a22, etc.), non-joint parts (for example, a19, a20, a23, a24, etc.), and end parts of hands and feet (a15, a16, a28, a29). ). For example, a unique label may be given to each part of the body divided in this way. Hereinafter, identifying each body part (each body part labeled) is also referred to as “label division”.

ここで、図5乃至図7を参照して、身体の各部位の識別方法の一例について説明する。ここでは、機械学習方式としてランダムフォレストを用い、特徴量として注目画素と周辺画素の距離値の差を用いる例を説明する。ランダムフォレストでは複数の決定木を用い、入力データ(距離画像)の特徴量を算出してその結果に応じて決定木を分岐していき、最終的な結果を得る。本例においては、距離画像の各画素毎に特徴量を算出し、決定木で分岐していくことにより、最終的にその画素がどの身体部位(ラベル)に属するかを分類する。   Here, an example of a method for identifying each part of the body will be described with reference to FIGS. Here, an example will be described in which a random forest is used as the machine learning method and the difference between the distance values of the target pixel and the surrounding pixels is used as the feature amount. In the random forest, a plurality of decision trees are used, the feature amount of the input data (distance image) is calculated, and the decision tree is branched according to the result to obtain a final result. In this example, the feature quantity is calculated for each pixel of the distance image, and the decision tree is branched to finally classify which body part (label) the pixel belongs to.

特徴量f(I,x)は、距離画像内の注目点(ピクセル)とその周辺のオフセット点の間の距離値の差であり、数1の式で表される。   The feature amount f (I, x) is a difference in distance value between a point of interest (pixel) in the distance image and its surrounding offset points, and is expressed by the equation (1).

Figure 2018089161
ここで、Iは距離画像、xは注目点の座標、d(x)は、注目点の距離、d(x+Δ)は、オフセット点の距離である。オフセットΔは、以下のとおりである。
Figure 2018089161
Here, I is the distance image, x is the coordinates of the point of interest, d I (x) is the distance of the point of interest, and d I (x + Δ) is the distance of the offset point. The offset Δ is as follows.

Figure 2018089161
ここで、vは、注目点からのオフセット(正規化前)である。尚、オフセット点の位置については学習時に決まった位置を使い、距離画像センサ21からの対象者Sの近さの変動に対応するために距離で正規化を行っている。即ち、対象者Sが近いほど距離画像が拡大されるため、オフセットΔは、注目点の距離で正規化されている。
Figure 2018089161
Here, v is an offset from the attention point (before normalization). Note that the position of the offset point is a position determined at the time of learning, and is normalized by the distance in order to cope with the variation in the proximity of the subject S from the distance image sensor 21. That is, since the distance image is enlarged as the subject S is closer, the offset Δ is normalized by the distance of the point of interest.

図5は、距離画像における注目点とオフセット点のイメージ図である。図5において、印“+”は注目点を表し、印“x”はオフセット点を表し、矢印はオフセットΔを概念的に表す。図5において、例えば注目点が頭部の画素でありオフセット点が背景部分となっている場合、注目点とオフセット点の距離の差は大きくなる。他方、胴体部分のように注目点とオフセット点が両方とも上半身にある場合、距離の差は小さくなる。   FIG. 5 is an image diagram of a point of interest and an offset point in a distance image. In FIG. 5, the mark “+” represents the point of interest, the mark “x” represents the offset point, and the arrow conceptually represents the offset Δ. In FIG. 5, for example, when the attention point is a head pixel and the offset point is a background portion, the difference in the distance between the attention point and the offset point becomes large. On the other hand, when the attention point and the offset point are both in the upper body as in the body part, the difference in distance is small.

図6は、画素毎に決定木を用いて身体部位を識別する方法の説明図である。図6には、決定木がT個の“tree 1”〜“tree T”示されている。身体部位識別部1101は、距離画像から1画素ずつ、事前に学習した識別器(複数の決定木)に入力し、画素毎に身体部位の推定を行う。身体部位識別部1101は、決定木の各ノードNでは、その画素の特徴量f(I、x;Δ)を算出して閾値θと比較する。各ノードでの演算に使用するオフセットΔと閾値θは学習の際に最も正しく部位が識別できる値が選択される。身体部位識別部1101は、各ノードで比較結果に応じた方向へと分岐して次のノードへ進み、終端ノードまで至る。決定木の終端ノードに到達すると、その画素がどの身体部位に属するかの確率分布が得られる。図6において、P1(c)は、決定木“tree 1”における確率分布を模式的に表し、PT(c)は、決定木“tree T”における確率分布を模式的に表す。cは、各身体部位(各ラベル)を表す。そして、確率分布をすべての木の結果で平均し、最も確率の大きい部位が推定結果となる。 FIG. 6 is an explanatory diagram of a method for identifying a body part using a decision tree for each pixel. FIG. 6 shows T tree “tree 1” to “tree T”. The body part identification unit 1101 inputs each pixel from the distance image to a classifier (a plurality of decision trees) learned in advance, and estimates the body part for each pixel. The body part identification unit 1101 calculates the feature value f (I, x; Δ k ) of the pixel at each node N k of the decision tree and compares it with the threshold θ k . Offset delta k and the threshold theta k to be used for calculation in each node the most correct site can identify the value at the time of learning is selected. The body part identification unit 1101 branches in the direction corresponding to the comparison result at each node, proceeds to the next node, and reaches the terminal node. When the end node of the decision tree is reached, a probability distribution as to which body part the pixel belongs to is obtained. In FIG. 6, P 1 (c) schematically represents a probability distribution in the decision tree “tree 1”, and P T (c) schematically represents a probability distribution in the decision tree “tree T”. c represents each body part (each label). Then, the probability distribution is averaged with the results of all the trees, and the portion with the highest probability is the estimation result.

図7は、機械学習(学習処理)の概要を示す説明図である。学習の際には様々な姿勢の距離画像と対応する部位ラベル付画像(ラベル分けデータ)のセットを大量に用意し、機械学習処理を行う。機械学習処理では、決定木でうまく分類できるように各ノードで比較する周辺画素のオフセットΔ、及び、分岐の判定に使用する閾値θが決定(学習)される。 FIG. 7 is an explanatory diagram showing an outline of machine learning (learning processing). At the time of learning, a large amount of set images (labeled data) with region labels corresponding to distance images of various postures are prepared, and machine learning processing is performed. In the machine learning process, the offset Δ k of the neighboring pixels to be compared at each node k and the threshold value θ k used for branch determination are determined (learned) so that the classification can be performed well by the decision tree.

ここでは、一例として、機械学習方式としてランダムフォレストを用い、特徴量として注目画素と周辺画素の距離値の差を用いているが、他の方法も可能である。例えば、距離画像を入力として各画素のマルチクラス分類(Multi-class Classification)を行う方式であってもよい。また、ランダムフォレストの場合でも距離値の差以外の特徴量を使ってもよいし、特徴量に相当するパラメータも含めて学習を行う深層学習(Deep Learning)を用いてもよい。   Here, as an example, a random forest is used as the machine learning method, and the difference between the distance values of the target pixel and the surrounding pixels is used as the feature amount, but other methods are also possible. For example, a method of performing multi-class classification of each pixel using a distance image as an input may be used. Further, even in the case of a random forest, feature quantities other than the difference in distance value may be used, or deep learning that performs learning including parameters corresponding to the feature quantities may be used.

また、身体部位識別部1101は、手や足の末端部位については、機械学習の結果を用いずに、距離画像のみから人体の輪郭抽出を行うことで認識してもよい。これは、手や足の末端部位については、機械学習の結果を用いなくても輪郭抽出により精度高い認識結果が得られる可能性が高いためである。   The body part identification unit 1101 may recognize the end part of the hand or foot by extracting the contour of the human body only from the distance image without using the result of machine learning. This is because, with regard to the end portions of the hands and feet, there is a high possibility that a highly accurate recognition result is obtained by contour extraction without using the result of machine learning.

身体部位識別部1101は、一の距離画像において2人以上の対象者Sを認識した場合、各対象者Sごとに、身体部位を識別する。   When two or more subjects S are recognized in one distance image, the body part identification unit 1101 identifies a body part for each subject S.

非関節位置算出部1102は、身体部位識別部1101が識別した各非関節部位及び各末端部位の重心位置を算出する。非関節位置算出部1102は、図8に×マークで示すような、非関節部位a7、a8、a11、a12、a19、a20、a23、a24及び末端部位a15、a16、a28、a29の各重心位置を算出する。非関節位置算出部1102は、身体部位識別部1101が一の距離画像において2人以上の対象者Sを認識した場合、各対象者Sごとに、各非関節部位及び各末端部位の重心位置を算出する。   The non-joint position calculation unit 1102 calculates the centroid position of each non-joint part and each end part identified by the body part identification unit 1101. The non-joint position calculation unit 1102 has the center-of-gravity positions of the non-joint parts a7, a8, a11, a12, a19, a20, a23, a24 and the end parts a15, a16, a28, a29, as indicated by x marks in FIG. Is calculated. When the body part identification unit 1101 recognizes two or more subjects S in one distance image, the non-joint position calculation unit 1102 calculates the center-of-gravity positions of each non-joint part and each end part for each subject S. calculate.

関節位置算出部1103は、身体部位識別部1101が識別した各関節部位の重心位置を算出する。関節位置算出部1103は、身体部位識別部1101が一の距離画像において2人以上の対象者Sを認識した場合、各対象者Sごとに、各関節部位の重心位置を算出する。関節位置算出部1103は、図9に×マークで示すような、関節部位の各重心位置、及び、他の骨格基準位置P1、P2、P3を算出する。この場合、関節位置算出部1103は、更に、図10に模式的に示すように、関節部位の各重心位置及び骨格基準位置P1、P2、P3に基づいて、骨格を認識してもよい。   The joint position calculation unit 1103 calculates the gravity center position of each joint part identified by the body part identification unit 1101. When the body part identification unit 1101 recognizes two or more subjects S in one distance image, the joint position calculation unit 1103 calculates the gravity center position of each joint part for each subject S. The joint position calculation unit 1103 calculates each barycentric position of the joint part and other skeleton reference positions P1, P2, and P3 as indicated by a cross mark in FIG. In this case, the joint position calculation unit 1103 may further recognize the skeleton based on the center-of-gravity positions of the joint parts and the skeleton reference positions P1, P2, and P3 as schematically illustrated in FIG.

図11は、非関節位置算出部1102及び関節位置算出部1103で用いることができる重心位置の算出方法の一例の説明図である。図11は、身体部位識別部1101による各部位の識別結果を示し、X1の拡大図を併せて示す。ここでは、図11のX1の拡大図を参照して、左肩(関節部位)の重心位置を求める例を説明する。部位X1の拡大図において、白抜きの“×”で示す各点Piは、肩と分類された画素に対応する3次元座標を表す。この場合、黒塗りの“×”で示す重心位置Joint(x,y,z)は、以下の数3の式のように、すべてのPiの座標(x,y,z)それぞれの平均を算出することによって求められてよい。なお、x成分及びy成分は、画像平面内の2次元座標の値であり、x成分は、水平方向の成分であり、y成分は、垂直方向の成分である。また、z成分は、距離を表す。   FIG. 11 is an explanatory diagram of an example of a method for calculating the center of gravity that can be used by the non-joint position calculation unit 1102 and the joint position calculation unit 1103. FIG. 11 shows the identification result of each part by the body part identification unit 1101, and also shows an enlarged view of X1. Here, an example in which the center of gravity position of the left shoulder (joint part) is obtained will be described with reference to an enlarged view of X1 in FIG. In the enlarged view of the part X1, each point Pi indicated by an outline “x” represents a three-dimensional coordinate corresponding to a pixel classified as a shoulder. In this case, the center-of-gravity position Joint (x, y, z) indicated by black “×” is calculated as the average of all the coordinates (x, y, z) of all Pis, as shown in Equation 3 below. You may be asked to do that. The x component and the y component are values of two-dimensional coordinates in the image plane, the x component is a horizontal component, and the y component is a vertical component. The z component represents a distance.

Figure 2018089161
尚、数3の式において、“n”は、各点Piの個数である。尚、3次元座標に代えて、2次元座標(x,y)で重心位置が算出されてもよい。
Figure 2018089161
In the equation (3), “n” is the number of points Pi. Note that the gravity center position may be calculated using two-dimensional coordinates (x, y) instead of the three-dimensional coordinates.

認識対象者決定部112は、認識対象者(特定の個人)を決定する。ここでは、認識対象者は、1人であるが、2人以上であってもよい。認識対象者決定部112は、ユーザからの入力(入力部107を介して得られる情報)に基づいて、認識対象者を決定してよい。例えば、ユーザは、自身の子供を認識対象者としたい場合は、自身の子供が認識対象者に決定される入力を行う。或いは、認識対象者決定部112は、所定のアルゴリズムに基づいて、認識対象者を決定してよい。例えば不審な行動をしている人物を検出する所定のアルゴリズムに基づいて、不審な行動をしている人物が検出された場合、該人物が認識対象者として決定されてもよい。認識対象者決定部112は、認識対象者を決定すると、決定した認識対象者を個人認識部138に通知する。   The recognition target person determination unit 112 determines a recognition target person (a specific individual). Here, the recognition target person is one person, but may be two or more persons. The recognition target person determination unit 112 may determine the recognition target person based on input from the user (information obtained via the input unit 107). For example, when the user wants his / her child to be a recognition target person, the user performs input to determine his / her child as the recognition target person. Alternatively, the recognition target person determining unit 112 may determine the recognition target person based on a predetermined algorithm. For example, when a person who performs suspicious behavior is detected based on a predetermined algorithm for detecting a person who performs suspicious behavior, the person may be determined as a person to be recognized. When the recognition target person determination unit 112 determines the recognition target person, the recognition target person determination unit 112 notifies the individual recognition unit 138 of the determined recognition target person.

対象者認識装置100は、更に、骨格データ記憶部121と、非関節部位位置データ記憶部122と、ユーザ情報記憶部124(記憶部の一例)とを含む。骨格データ記憶部121、非関節部位位置データ記憶部122、及びユーザ情報記憶部124は、例えば、図2の補助記憶部103により実現できる。   The subject recognition apparatus 100 further includes a skeleton data storage unit 121, a non-joint part position data storage unit 122, and a user information storage unit 124 (an example of a storage unit). The skeleton data storage unit 121, the non-joint part position data storage unit 122, and the user information storage unit 124 can be realized by the auxiliary storage unit 103 in FIG. 2, for example.

骨格データ記憶部121には、関節位置算出部1103により算出される各関節部位の重心位置と他の骨格基準位置P1、P2、P3の情報(以下、「骨格情報」と称する)が記憶される。   The skeleton data storage unit 121 stores information on the centroid position of each joint part calculated by the joint position calculation unit 1103 and other skeleton reference positions P1, P2, and P3 (hereinafter referred to as “skeleton information”). .

非関節部位位置データ記憶部122には、非関節位置算出部1102により算出される各非関節部位及び末端部位の重心位置の情報(以下、「非関節部位情報」と称する)が記憶される。   The non-joint part position data storage unit 122 stores information on the center-of-gravity position of each non-joint part and end part calculated by the non-joint position calculation unit 1102 (hereinafter referred to as “non-joint part information”).

ユーザ情報記憶部124には、認識対象者の体格に関する体格情報(図12参照)が記憶される。体格情報は、身長や、座高、肩幅等のような、体格に起因して変化する長さ情報を含む。体格情報は、身長や、座高、肩幅等の各数値であってもよい。この場合、体格情報は、ユーザ入力により事前に登録(記憶)されてもよい。或いは、体格情報は、距離画像センサ21からの距離画像であって、認識対象者が対象者Sである距離画像に基づいて生成されてもよい。この場合、体格情報は、関節位置算出部1103により算出される各関節部位の重心位置や、非関節位置算出部1102により算出される各非関節部位等の重心位置を含んでよい。即ち、この場合、体格情報は、認識対象者が対象者Sである距離画像に基づいて得られる骨格情報や非関節部位情報を含んでよい。   The user information storage unit 124 stores physique information related to the physique of the person to be recognized (see FIG. 12). The physique information includes length information that changes due to the physique, such as height, sitting height, shoulder width, and the like. The physique information may be numerical values such as height, sitting height, and shoulder width. In this case, the physique information may be registered (stored) in advance by user input. Alternatively, the physique information may be a distance image from the distance image sensor 21 and generated based on a distance image in which the recognition target person is the target person S. In this case, the physique information may include the centroid position of each joint part calculated by the joint position calculation unit 1103 and the centroid position of each non-joint part calculated by the non-joint position calculation unit 1102. That is, in this case, the physique information may include skeletal information and non-joint site information obtained based on a distance image in which the recognition target person is the target person S.

図12に示す例では、体格情報は、認識対象者(人物A,B)に係る身長、座高、肩幅、パラメータT1,T2を含む。パラメータT1は、座高/身長であり、パラメータT2は、肩幅/身長である。従って、パラメータT1,T2は、身長、座高及び肩幅の情報から算出できる。このようなパラメータT1,T2を用いる場合、座高及び肩幅が身長で正規化されることになるので、距離画像センサ21からの対象者Sの近さの変動に対応できる。尚、図12に示す例では、体格情報は、認識対象者(人物A,B)が対象者Sである距離画像に基づいて生成されている。   In the example shown in FIG. 12, the physique information includes the height, sitting height, shoulder width, and parameters T1 and T2 related to the person to be recognized (persons A and B). The parameter T1 is the sitting height / height, and the parameter T2 is the shoulder width / height. Therefore, the parameters T1 and T2 can be calculated from the information on the height, the sitting height, and the shoulder width. When such parameters T1 and T2 are used, the sitting height and the shoulder width are normalized by the height, so that it is possible to cope with the variation in the proximity of the subject S from the distance image sensor 21. In the example illustrated in FIG. 12, the physique information is generated based on a distance image in which the recognition target person (persons A and B) is the target person S.

特徴量算出部136は、骨格データ記憶部121に記憶された骨格情報に基づいて、所定の身体特徴量を算出する。特徴量算出部136は、身体部位識別部1101が一の距離画像において2人以上の対象者Sを認識した場合、各対象者Sごとに、身体特徴量を算出する。   The feature amount calculation unit 136 calculates a predetermined body feature amount based on the skeleton information stored in the skeleton data storage unit 121. When the body part identification unit 1101 recognizes two or more subjects S in one distance image, the feature amount calculator 136 calculates a body feature amount for each subject S.

所定の身体特徴量は、2つの関節部位間の距離、骨格基準位置と関節部位間の距離、又は、2つの骨格基準位置間の距離を含む。関節部位間の距離、及び、骨格基準位置と関節部位間の距離は、関節部位の重心位置(図9の×マーク参照)に基づいて算出される。所定の身体特徴量は、ユーザ情報記憶部124に記憶される体格情報と対比できる特徴量である。例えば、身長に係る身体特徴量は、頭部の骨格基準位置P3と足首a13又はa14との距離として算出される。また、座高に係る身体特徴量は、頭部の骨格基準位置P3と股部の骨格基準位置P2(又は股関節a5,a6)との距離として算出される。また、肩幅に係る身体特徴量は、左右の肩関節a17,a18の距離として算出される。これらの身体特徴量に係る距離は、各重心位置の2次元座標(x、y)間での距離であってもよいし、各重心位置の3次元座標(x,y,z)間での距離であってもよい。あるいは、身長や座高に係る身体特徴量は、各重心位置のy成分の差(距離)であってもよいし、肩幅に係る身体特徴量は、各重心位置のx成分の差(距離)であってもよい。   The predetermined body feature amount includes a distance between the two joint parts, a distance between the skeleton reference position and the joint part, or a distance between the two skeleton reference positions. The distance between the joint parts and the distance between the skeleton reference position and the joint parts are calculated based on the barycentric position of the joint parts (see the X mark in FIG. 9). The predetermined body feature amount is a feature amount that can be compared with the physique information stored in the user information storage unit 124. For example, the body feature amount related to the height is calculated as the distance between the skeleton reference position P3 of the head and the ankle a13 or a14. The body feature amount related to the sitting height is calculated as the distance between the skeleton reference position P3 of the head and the skeleton reference position P2 of the crotch (or hip joints a5 and a6). The body feature amount related to the shoulder width is calculated as the distance between the left and right shoulder joints a17 and a18. The distances related to these body feature amounts may be distances between the two-dimensional coordinates (x, y) of the respective centroid positions, or between the three-dimensional coordinates (x, y, z) of the centroid positions. It may be a distance. Alternatively, the body feature amount related to height or sitting height may be the difference (distance) of the y component of each center of gravity position, and the body feature amount related to the shoulder width is the difference (distance) of the x component of each center of gravity position. There may be.

所定の身体特徴量は、更に、関節部位と非関節部位間の距離、又は、骨格基準位置と非関節部位間の距離を含んでもよい。この場合、特徴量算出部136は、非関節部位位置データ記憶部122に記憶された非関節部位情報に更に基づいて、所定の身体特徴量を算出する。関節部位と非関節部位間の距離、又は、骨格基準位置と非関節部位間の距離は、非関節部位の重心位置に基づいて算出される。例えば、身長に係る身体特徴量は、頭部の骨格基準位置P3と足の末端部位a15又はa16との距離として算出される。また、手の長さに係る身体特徴量は、肩関節a17又はa18と手の末端部位a28又はa29との距離として算出される。同様に、これらの身体特徴量に係る距離は、各重心位置の2次元座標(x、y)間での距離であってもよいし、各重心位置の3次元座標(x,y,z)間での距離であってもよい。あるいは、例えば身長に係る身体特徴量は、各重心位置のy成分の差(距離)であってもよい。   The predetermined body feature amount may further include a distance between the joint part and the non-joint part, or a distance between the skeleton reference position and the non-joint part. In this case, the feature amount calculation unit 136 calculates a predetermined body feature amount based further on the non-joint part information stored in the non-joint part position data storage unit 122. The distance between the joint part and the non-joint part, or the distance between the skeleton reference position and the non-joint part is calculated based on the barycentric position of the non-joint part. For example, the body feature amount related to the height is calculated as a distance between the skeleton reference position P3 of the head and the foot end part a15 or a16. The body feature amount related to the length of the hand is calculated as the distance between the shoulder joint a17 or a18 and the end portion a28 or a29 of the hand. Similarly, the distances related to these body feature amounts may be distances between the two-dimensional coordinates (x, y) of the respective gravity center positions, or the three-dimensional coordinates (x, y, z) of the respective gravity center positions. It may be a distance between. Alternatively, for example, the body feature amount related to the height may be a difference (distance) between the y components of the respective gravity center positions.

個人認識部138は、ユーザ情報記憶部124に記憶された体格情報と、特徴量算出部136により算出された身体特徴量との対比結果に基づいて、対象者Sが認識対象者である可能性を判定する。なお、個人認識部138は、身体部位識別部1101が一の距離画像において2人以上の対象者Sを認識した場合、各対象者Sごとに、対象者Sが認識対象者であるか可能性を判定する。   Based on the comparison result between the physique information stored in the user information storage unit 124 and the physical feature amount calculated by the feature amount calculation unit 136, the personal recognition unit 138 may determine that the subject person S is a recognition target person. Determine. In addition, when the body part identification unit 1101 recognizes two or more target persons S in one distance image, the personal recognition unit 138 may determine whether the target person S is a recognition target person for each target person S. Determine.

例えば、個人認識部138は、特徴量算出部136により算出された身長に係る身体特徴量αと座高に係る身体特徴量βとに基づいて、身体特徴量αに対する身体特徴量βの比(=β/α)を算出する。そして、個人認識部138は、比β/αと、ユーザ情報記憶部124に記憶された、ある一の認識対象者Kに係るパラメータT1とが、略一致した場合、対象者Sが認識対象者Kである可能性が高いと判定する。略一致とは、ある程度の誤差を許容する趣旨であり、許容誤差は、予め設定されてもよい。同様に、個人認識部138は、特徴量算出部136により算出された身長に係る身体特徴量αと肩幅に係る身体特徴量γとに基づいて、身体特徴量αに対する身体特徴量γの比(=γ/α)を算出する。そして、個人認識部138は、比γ/αと、ユーザ情報記憶部124に記憶された認識対象者Kに係るパラメータT2とが、略一致した場合、対象者Sが認識対象者Kである可能性が高いと判定する。比β/αとパラメータT1との対比、及び、比γ/αとパラメータT2との対比の双方を行う構成では、個人認識部138は、双方の対比結果が、対象者Sが認識対象者Kである可能性が高いことを示す場合、対象者Sが認識対象者Kであると確定的に判定してもよい。   For example, based on the body feature amount α related to the height and the body feature amount β related to the sitting height calculated by the feature amount calculation unit 136, the personal recognition unit 138 has a ratio of the body feature amount β to the body feature amount α (= β / α) is calculated. Then, when the ratio β / α and the parameter T1 related to a certain recognition target person K stored in the user information storage unit 124 substantially match, the personal recognition unit 138 determines that the target person S is the recognition target person. It is determined that there is a high possibility of K. “Substantially coincidence” means that a certain amount of error is allowed, and the allowable error may be set in advance. Similarly, based on the body feature amount α related to the height calculated by the feature amount calculation unit 136 and the body feature amount γ related to the shoulder width, the individual recognition unit 138 has a ratio of the body feature amount γ to the body feature amount α ( = Γ / α) is calculated. When the ratio γ / α and the parameter T2 related to the recognition target person K stored in the user information storage unit 124 substantially match, the personal recognition unit 138 may recognize the target person S as the recognition target person K. Judgment is high. In the configuration in which both the comparison between the ratio β / α and the parameter T1 and the comparison between the ratio γ / α and the parameter T2 are performed, the individual recognition unit 138 indicates that the comparison result of both indicates that the target person S is the recognition target person K. May indicate that the subject person S is the recognition subject person K.

図13は、図12の体格情報に係る認識対象者(人物A,B)が対象者Sである距離画像から得られる骨格認識結果を示す図である。図12の体格情報は、図13に示す骨格認識結果(骨格情報)から得られている。図12及び図13から分かるように、人物A,Bの体格の相違は、身体特徴量の相違として現れる。従って、骨格情報や非関節部位情報に基づき得られる身体特徴量を利用することで、対象者Sが認識対象者である可能性を精度良く判定できることが分かる。尚、図13には、参考として、人物Aの特定の部位の2次元座標と、左側の人物に係る身体特徴量α、β、γとが示される。尚、上述したように、身体特徴量は、2次元座標間の距離や、x成分やy成分の差等で算出されてもよい。   FIG. 13 is a diagram illustrating a skeleton recognition result obtained from a distance image in which the person to be recognized (persons A and B) according to the physique information in FIG. The physique information in FIG. 12 is obtained from the skeleton recognition result (skeleton information) shown in FIG. As can be seen from FIGS. 12 and 13, the difference in the physique between the persons A and B appears as a difference in the body feature amount. Therefore, it can be understood that the possibility that the subject S is the recognition target can be accurately determined by using the body feature amount obtained based on the skeletal information and the non-joint part information. In FIG. 13, for reference, two-dimensional coordinates of a specific part of the person A and body feature amounts α, β, γ related to the left person are shown. As described above, the body feature amount may be calculated based on a distance between two-dimensional coordinates, a difference between x component and y component, or the like.

実施例1によれば、上述のように、骨格情報及び非関節部位情報の少なくともいずれか一方(以下、「骨格情報等」と称する)に基づき得られる身体特徴量を利用することで、対象者Sが認識対象者である可能性を精度良く判定できる。従って、一の距離画像において2人以上の対象者Sが認識される場合でも、2人以上の対象者Sのうちから、認識対象者を精度良く特定できる。また、骨格情報等は、例えば画像処理によるテンプレートマッチング等に比べて、対象者Sの距離画像から比較的小さい処理負荷で得ることができるので、認識対象者を高精度かつ高速に特定できる。   According to the first embodiment, as described above, by using the body feature amount obtained based on at least one of skeletal information and non-joint site information (hereinafter referred to as “skeletal information etc.”), The possibility that S is a person to be recognized can be accurately determined. Therefore, even when two or more subjects S are recognized in one distance image, the recognition subject can be accurately identified from the two or more subjects S. Further, since the skeleton information and the like can be obtained from the distance image of the target person S with a relatively small processing load as compared with, for example, template matching by image processing, the recognition target person can be specified with high accuracy and high speed.

また、実施例1によれば、上述のように、比β/α及び比γ/αを用いる場合には、座高及び肩幅が身長で正規化されることになるので、距離画像センサ21からの対象者Sの近さの変動に対応できる。即ち、距離画像センサ21と対象者Sとの間の距離とは無関係に、対象者Sが認識対象者である可能性を精度良く判定できる。また、比β/α及び比γ/αは、共に、身体特徴量の中で最も長い身長に係る身体特徴量αに基づくため、身体特徴量α、β、γにおける誤差の影響を最小化することが可能となる。   Further, according to the first embodiment, as described above, when the ratio β / α and the ratio γ / α are used, the seat height and the shoulder width are normalized by the height, and thus the distance from the distance image sensor 21 is increased. It is possible to deal with fluctuations in the proximity of the target person S. That is, regardless of the distance between the distance image sensor 21 and the target person S, it is possible to accurately determine the possibility that the target person S is a recognition target person. Further, since the ratio β / α and the ratio γ / α are both based on the body feature amount α related to the longest height among the body feature amounts, the influence of errors in the body feature amounts α, β, γ is minimized. It becomes possible.

このようにして実施例1によれば、対象者Sが認識対象者である可能性を精度良く判定できるので、対象者認識システム1は、個人認証の用途や、不特定多数の対象者Sを含む距離画像から一の認識対象者を識別する用途等のような、多様な用途に利用できる。   In this way, according to the first embodiment, the possibility that the subject person S is a recognition target person can be accurately determined. Therefore, the subject person recognition system 1 can be used for personal authentication and for an unspecified number of subject persons S. The present invention can be used for various purposes such as a purpose of identifying one person to be recognized from a distance image included.

次に、図14を参照して、対象者認識装置100の動作例について説明する。   Next, an operation example of the subject recognition apparatus 100 will be described with reference to FIG.

図14は、対象者認識装置100により実行される処理の一例を示すフローチャートである。図14に示す処理は、例えばオフラインで、実行されてよい。ここでは、補助記憶部103又は記録媒体105内の一の距離画像ファイルが処理対象であり、処理対象の距離画像ファイルに含まれる距離画像のフレーム数は、“N”であるものとする。   FIG. 14 is a flowchart illustrating an example of processing executed by the target person recognition apparatus 100. The process illustrated in FIG. 14 may be executed offline, for example. Here, it is assumed that one distance image file in the auxiliary storage unit 103 or the recording medium 105 is a processing target, and the number of distance image frames included in the processing target distance image file is “N”.

ステップS1400では、認識対象者決定部112は、認識対象者を決定する。尚、この際、認識対象者決定部112は、認識対象者に係る体格情報がユーザ情報記憶部124内に記憶されているか否かをチェックしてもよい。認識対象者に係る体格情報がユーザ情報記憶部124内に記憶されていない場合は、認識対象者決定部112は、エラーメッセージ等を表示装置(図示せず)に出力することで、ユーザに、認識対象者に係る体格情報の入力を促してよい。認識対象者に係る体格情報の入力は、上述のように、認識対象者が一人だけで捉えられた距離画像を入力することで実現されてよい。   In step S1400, the recognition target person determining unit 112 determines a recognition target person. At this time, the recognition subject person determination unit 112 may check whether or not the physique information related to the recognition subject person is stored in the user information storage unit 124. When the physique information related to the recognition target person is not stored in the user information storage unit 124, the recognition target person determination unit 112 outputs an error message or the like to the display device (not shown), You may prompt the input of the physique information concerning a recognition subject person. As described above, the input of the physique information related to the recognition target person may be realized by inputting a distance image in which the recognition target person is captured by only one person.

ステップS1402では、身体部位位置算出部110は、“j”を“1”に設定する。   In step S1402, body part position calculation unit 110 sets “j” to “1”.

ステップS1404では、身体部位位置算出部110は、補助記憶部103又は記録媒体105から、“j”番目のフレームの距離画像を取得する。   In step S <b> 1404, the body part position calculation unit 110 acquires a distance image of the “j” th frame from the auxiliary storage unit 103 or the recording medium 105.

ステップS1406では、身体部位位置算出部110は、ステップS1404で取得した距離画像に基づいて、距離画像における対象者Sの身体の各部位を識別し、骨格情報等を生成する。骨格情報等の生成方法は、上述のとおりである。身体部位位置算出部110は、ステップS1404で取得した距離画像において2人以上の対象者Sを認識した場合、その旨を表すフラグFを“1”にセットする。フラグFの初期値は、“0”である。   In step S1406, the body part position calculation unit 110 identifies each part of the body of the subject S in the distance image based on the distance image acquired in step S1404, and generates skeleton information and the like. The method for generating the skeleton information and the like is as described above. When the body part position calculation unit 110 recognizes two or more subjects S in the distance image acquired in step S1404, the body part position calculation unit 110 sets a flag F indicating that to “1”. The initial value of the flag F is “0”.

ステップS1408では、特徴量算出部136は、身体部位位置算出部110が距離画像において2人以上の対象者Sを認識したか否かを判定する。即ち、特徴量算出部136は、フラグFが“1”であるか否かを判定する。判定結果が“YES”の場合は、ステップS1410に進み、それ以外の場合は、ステップS1416に進む。   In step S1408, the feature amount calculation unit 136 determines whether the body part position calculation unit 110 has recognized two or more subjects S in the distance image. That is, the feature amount calculation unit 136 determines whether or not the flag F is “1”. If the determination result is “YES”, the process proceeds to step S1410, and otherwise, the process proceeds to step S1416.

ステップS1410では、特徴量算出部136は、対象者Sごとに、所定の身体特徴量を算出する。図14では、特徴量算出部136は、対象者Sごとに、身長に係る身体特徴量α、座高に係る身体特徴量β、及び肩幅に係る身体特徴量γを算出し、算出結果に基づいて、身体特徴量αに対する身体特徴量β及びγの各比(=β/α、γ/α)を算出する。   In step S1410, the feature amount calculation unit 136 calculates a predetermined body feature amount for each subject S. In FIG. 14, the feature amount calculation unit 136 calculates, for each subject S, a body feature amount α related to height, a body feature amount β related to sitting height, and a body feature amount γ related to shoulder width, and based on the calculation result. The ratios of the body feature amounts β and γ to the body feature amount α (= β / α, γ / α) are calculated.

ステップS1412では、個人認識部138は、対象者Sごとに、ステップS1400で決定された認識対象者に係る体格情報と、ステップS1410で得られた各比(=β/α、γ/α)とに基づいて、対象者Sが認識対象者である可能性を判定する。具体的には、個人認識部138は、比β/αと認識対象者に係るパラメータT1とが、略一致し、且つ、比γ/αと認識対象者に係るパラメータT2とが、略一致した場合、対象者Sが認識対象者であると判定する。尚、パラメータT1,T2は、上述のように体格情報に含まれ、それぞれ、座高/身体特徴量、及び、肩幅/身長である。判定結果が“YES”の場合は、ステップS1414に進み、それ以外の場合は、ステップS1416に進む。   In step S1412, the individual recognizing unit 138 for each subject S, the physique information related to the recognition subject determined in step S1400, and the ratios (= β / α, γ / α) obtained in step S1410. Based on the above, the possibility that the subject person S is a recognition subject person is determined. Specifically, the personal recognition unit 138 substantially matches the ratio β / α and the parameter T1 related to the recognition target person, and substantially matches the ratio γ / α and the parameter T2 related to the recognition target person. In this case, it is determined that the target person S is a recognition target person. The parameters T1 and T2 are included in the physique information as described above, and are seat height / body feature amount and shoulder width / height, respectively. If the determination result is “YES”, the process proceeds to step S1414; otherwise, the process proceeds to step S1416.

ステップS1414では、個人認識部138は、複数の対象者Sに係る骨格情報のうちの、認識対象者であると判定した対象者Sに係る骨格情報を、認識対象者に紐付ける。例えば、個人認識部138は、認識対象者であると判定した対象者Sに係る骨格情報に、認識対象者に係る識別子を付与する。   In step S1414, the personal recognition unit 138 associates the skeleton information related to the target person S determined to be the recognition target person among the skeleton information related to the plurality of target persons S with the recognition target person. For example, the personal recognition unit 138 assigns an identifier related to the recognition target person to the skeleton information related to the target person S determined to be the recognition target person.

ステップS1416では、個人認識部138は、“j”が“N(処理対象の距離画像のフレーム数)”であるか否かを判定する。j=Nの場合は、そのまま終了となり、j≠Nの場合は、ステップS1418を経て、ステップS1404に戻る。   In step S1416, the personal recognition unit 138 determines whether “j” is “N (number of frames of the distance image to be processed)”. If j = N, the process ends as it is. If j ≠ N, the process returns to step S1404 via step S1418.

ステップS1418では、個人認識部138は、“j”を“1”だけインクリメントする。   In step S1418, the personal recognition unit 138 increments “j” by “1”.

図14に示す処理によれば、補助記憶部103又は記録媒体105に記憶されたNフレームの距離画像において、認識対象者を識別できる。これにより、ユーザは、例えば、Nフレームの距離画像のうちから、認識対象者が含まれる距離画像だけを抽出することが容易となる。また、Nフレームの距離画像が時間的に連続する場合(即ち動画である場合)、認識対象者の動きだけを抽出することも容易となる。   According to the process shown in FIG. 14, the person to be recognized can be identified in the N-frame distance image stored in the auxiliary storage unit 103 or the recording medium 105. Thereby, for example, the user can easily extract only the distance image including the recognition target person from the N frame distance images. In addition, when N frames of distance images are continuous in time (that is, when they are moving images), it is easy to extract only the movement of the person to be recognized.

尚、図14に示す処理は、オフラインで実行されるが、例えばオンライン(リアルタイム)で、所定周期毎(例えばフレーム周期毎)に実行されてもよい。この場合、ステップS1402、ステップS1416、ステップS1418は省略され、ステップS1404では、身体部位位置算出部110は、距離画像センサ21から直接的に距離画像を取得してよい。   The process shown in FIG. 14 is executed offline, but may be executed, for example, online (in real time) and at predetermined intervals (for example, every frame period). In this case, step S1402, step S1416, and step S1418 are omitted, and the body part position calculation unit 110 may acquire a distance image directly from the distance image sensor 21 in step S1404.

また、図14に示す処理では、ステップS1408の判定結果が“NO”の場合は、ステップS1416に進むが、これに限られない。ステップS1408の判定結果が“NO”の場合、特徴量算出部136は、一の対象者Sに係る各比(=β/α、γ/α)を算出してよい。この場合、個人認識部138は、認識対象者に係る体格情報と、各比(=β/α、γ/α)とに基づいて、一の対象者Sが認識対象者である可能性を判定する。そして、判定結果が“YES”の場合は、個人認識部138は、認識対象者であると判定した対象者Sに係る骨格情報を、認識対象者に紐付ける。   In the process shown in FIG. 14, if the determination result in step S1408 is “NO”, the process proceeds to step S1416, but is not limited thereto. When the determination result of step S1408 is “NO”, the feature amount calculation unit 136 may calculate each ratio (= β / α, γ / α) related to one target person S. In this case, the personal recognition unit 138 determines the possibility that one target person S is a recognition target person based on the physique information related to the recognition target person and each ratio (= β / α, γ / α). To do. When the determination result is “YES”, the personal recognition unit 138 associates the skeleton information related to the target person S determined to be the recognition target person with the recognition target person.

[実施例2]
実施例2による対象者認識システム1Aは、対象者認識処理で得られる情報を利用してロボット制御データを生成する点が異なる。以下では、上述した実施例1と同様であってよい構成要素については、同一の参照符号を付して説明を省略する。
[Example 2]
The subject recognition system 1A according to the second embodiment is different in that robot control data is generated using information obtained by subject recognition processing. In the following, components that may be the same as those in the first embodiment are denoted by the same reference numerals and description thereof is omitted.

対象者認識システム1Aは、距離画像センサ21と、対象者認識装置100Aとを含む。   The subject recognition system 1A includes a distance image sensor 21 and a subject recognition device 100A.

対象者認識装置100Aは、図2に示したハードウェア構成を有してよい。図15は、対象者認識装置100Aの機能の一例を示すブロック図である。図15には、対象者認識装置100Aに距離画像を入力する距離画像センサ21が併せて図示されている。   The subject recognition device 100A may have the hardware configuration shown in FIG. FIG. 15 is a block diagram illustrating an example of functions of the subject recognition device 100A. FIG. 15 also illustrates a distance image sensor 21 that inputs a distance image to the subject recognition device 100A.

図15は、対象者認識装置100Aの機能の一例を示すブロック図である。図15には、対象者認識装置100Aに距離画像を入力する距離画像センサ21が併せて図示されている。   FIG. 15 is a block diagram illustrating an example of functions of the subject recognition device 100A. FIG. 15 also illustrates a distance image sensor 21 that inputs a distance image to the subject recognition device 100A.

対象者認識装置100Aは、上述した実施例1による対象者認識装置100に対して、ロボット制御データ生成部140を更に含む点が異なる。ロボット制御データ生成部140は、図2に示す制御部101が主記憶部102に記憶された1つ以上のプログラムを実行することで実現できる。   The subject recognition apparatus 100A is different from the subject recognition apparatus 100 according to the first embodiment described above in that it further includes a robot control data generation unit 140. The robot control data generation unit 140 can be realized by the control unit 101 illustrated in FIG. 2 executing one or more programs stored in the main storage unit 102.

ロボット制御データ生成部140は、身体部位位置算出部110により生成される骨格情報と、個人認識部138による認識結果とに基づいて、ロボット制御データを生成する。ロボット制御データ生成部140は、認識対象者の動きに合わせてロボットが動くように、ロボット制御データを生成する。   The robot control data generation unit 140 generates robot control data based on the skeleton information generated by the body part position calculation unit 110 and the recognition result by the personal recognition unit 138. The robot control data generation unit 140 generates robot control data so that the robot moves in accordance with the movement of the person to be recognized.

図16は、ロボット90の一例を示す図である。図16には、ロボット90の内部の骨格910が模式的に透視で示される。ロボット90は、例えば人型であり、例えば人体の骨格(図10参照)と同様の骨格910を有する。従って、図16に示すロボット90は、人の動きを模倣できる。   FIG. 16 is a diagram illustrating an example of the robot 90. In FIG. 16, the skeleton 910 inside the robot 90 is schematically shown in perspective. The robot 90 is, for example, a humanoid, and has, for example, a skeleton 910 similar to the skeleton of a human body (see FIG. 10). Therefore, the robot 90 shown in FIG. 16 can imitate the movement of a person.

次に、図17を参照して、対象者認識装置100Aの動作例について説明する。   Next, an operation example of the subject recognition apparatus 100A will be described with reference to FIG.

図17は、対象者認識装置100Aにより実行される処理の一例を示すフローチャートである。図17に示す処理は、例えばオフラインで、実行されてよい。   FIG. 17 is a flowchart illustrating an example of processing executed by the target person recognition apparatus 100A. The process illustrated in FIG. 17 may be executed offline, for example.

図17に示す処理は、上述した実施例1において図14に示した処理に対して、ステップS1700が追加された点が異なる。以下では、異なる点について説明する。   The process shown in FIG. 17 is different from the process shown in FIG. 14 in the first embodiment in that step S1700 is added. Below, a different point is demonstrated.

ステップS1416での判定結果が“YES”の場合(即ちj=Nの場合)、ステップS1700に進む。   If the determination result in step S1416 is “YES” (ie, j = N), the process proceeds to step S1700.

ステップS1700では、ロボット制御データ生成部140は、ステップS1414で得られた個人認識部138による認識結果(認識対象者であると判定した対象者Sに係る骨格情報)に基づいて、ロボット制御データを生成する。例えば、ロボット制御データ生成部140は、フレームごとに、ロボット90の骨格910の各関節位置が、認識対象者であると判定した対象者Sに係る骨格情報に対応するように、ロボット制御データを生成する。この場合、ロボット制御データは、複数のフレームにわたる時系列の制御データとなり、認識対象者の動きに合わせたロボット90の動きを実現できる。   In step S1700, the robot control data generation unit 140 obtains the robot control data based on the recognition result (the skeleton information related to the target person S determined to be a recognition target person) by the personal recognition unit 138 obtained in step S1414. Generate. For example, the robot control data generation unit 140 sets the robot control data for each frame so that each joint position of the skeleton 910 of the robot 90 corresponds to the skeleton information related to the target person S determined to be the recognition target person. Generate. In this case, the robot control data is time-series control data over a plurality of frames, and the movement of the robot 90 according to the movement of the person to be recognized can be realized.

図17に示す処理によれば、補助記憶部103又は記録媒体105に記憶されたNフレームの距離画像において、認識対象者を識別できる。この結果、上述のように、認識対象者に応じたロボット制御データを生成でき、認識対象者の動きに合わせたロボット90の動きを実現できる。   According to the processing shown in FIG. 17, the person to be recognized can be identified in the N-frame distance image stored in the auxiliary storage unit 103 or the recording medium 105. As a result, as described above, the robot control data corresponding to the recognition target person can be generated, and the movement of the robot 90 in accordance with the movement of the recognition target person can be realized.

尚、図17に示す処理は、オフラインで実行されるが、例えばオンライン(リアルタイム)で、所定周期毎(例えばフレーム周期毎)に実行されてもよい。この場合、ステップS1402、ステップS1416、ステップS1418は省略され、ステップS1404では、身体部位位置算出部110は、距離画像センサ21から直接的に距離画像を取得してよい。   Note that the processing shown in FIG. 17 is executed offline, but may be executed, for example, online (in real time) at every predetermined cycle (for example, every frame cycle). In this case, step S1402, step S1416, and step S1418 are omitted, and the body part position calculation unit 110 may acquire a distance image directly from the distance image sensor 21 in step S1404.

以上、各実施例について詳述したが、特定の実施例に限定されるものではなく、特許請求の範囲に記載された範囲内において、種々の変形及び変更が可能である。また、前述した実施例の構成要素を全部又は複数を組み合わせることも可能である。   Although each embodiment has been described in detail above, it is not limited to a specific embodiment, and various modifications and changes can be made within the scope described in the claims. It is also possible to combine all or a plurality of the components of the above-described embodiments.

例えば、上述した実施例では、対象者認識装置100は、非関節位置算出部1102及び非関節部位位置データ記憶部122を備えるが、非関節位置算出部1102及び非関節部位位置データ記憶部122は省略されてもよい。この場合、身体特徴量は、常に、骨格データ記憶部121に記憶された骨格情報に基づいて導出される。   For example, in the above-described embodiment, the subject recognition apparatus 100 includes the non-joint position calculation unit 1102 and the non-joint part position data storage unit 122, but the non-joint position calculation unit 1102 and the non-joint part position data storage unit 122 include It may be omitted. In this case, the body feature amount is always derived based on the skeleton information stored in the skeleton data storage unit 121.

また、上述した実施例では、比β/α及び比γ/αが用いられるが、等価的に、比β/α及び比γ/αに代えて、比α/β及び比α/γが用いられてもよい。   Further, in the above-described embodiments, the ratio β / α and the ratio γ / α are used, but equivalently, the ratio α / β and the ratio α / γ are used instead of the ratio β / α and the ratio γ / α. May be.

なお、以上の実施例に関し、さらに以下の付記を開示する。
[付記1]
対象者の距離情報を画素値とする第1距離画像から得られる骨格情報に基づいて、前記対象者の第1身体特徴量に対応する第1距離と、前記対象者の別の第2身体特徴量に対応する第2距離とを算出し、
前記第1距離及び前記第2距離の比と、特定の個人の体格に関する体格情報を記憶する記憶部から取得する前記体格情報とに基づいて、前記対象者が前記特定の個人である可能性を判定することを含む、コンピュータにより実行される対象者認識方法。
[付記2]
前記体格情報は、前記第1距離画像とは異なる第2距離画像であって、前記特定の個人の距離情報を画素値とする第2距離画像に基づいて生成される、付記1に記載の対象者認識方法。
[付記3]
前記第1距離及び前記第2距離は、それぞれ、前記第1距離画像上における第1の身体部位の座標と、前記第1距離画像上における別の第2の身体部位の座標とに基づいて算出され、
前記第1距離を算出する場合、前記第1の身体部位は、頭部であり、前記第2の身体部位は、足首又は足首よりも先の部位である、付記1又は2に記載の対象者認識方法。
[付記4]
前記第1距離及び前記第2距離は、それぞれ、前記第1の身体部位の重心位置と、前記第2の身体部位の重心位置とに基づいて算出される、付記3に記載の対象者認識方法。
[付記5]
前記第2距離は、座高に対応し、
前記第2距離を算出する場合、前記第1の身体部位は、頭部であり、前記第2の身体部位は、股部である、付記3又は4に記載の対象者認識方法。
[付記6]
前記第2距離は、肩幅に対応し、
前記第2距離を算出する場合、前記第1の身体部位は、左の肩部であり、前記第2の身体部位は、右の肩部である、付記3又は4に記載の対象者認識方法。
[付記7]
前記対象者は、複数である、付記1〜6のうちのいずれか1項に記載の対象者認識方法。
[付記8]
前記骨格情報と、前記可能性の判定結果とに基づいて、ロボットを制御するためのデータを生成することを更に含む、付記1〜7のうちのいずれか1項に記載の対象者認識方法。
[付記9]
対象者の距離情報を画素値とする距離画像から得られる骨格情報に基づいて、前記対象者の第1身体特徴量に対応する第1距離と、前記対象者の別の第2身体特徴量に対応する第2距離とを算出する算出部と、
前記第1距離及び前記第2距離の比と、特定の個人の体格に関する体格情報を記憶する記憶部から取得する前記体格情報とに基づいて、前記対象者が前記特定の個人である可能性を判定する判定部とを含む、対象者認識装置。
[付記10]
対象者の距離情報を画素値とする距離画像を生成する距離画像センサと、
対象者認識装置とを含み、
前記対象者認識装置は、
前記距離画像から得られる骨格情報に基づいて、前記対象者の第1身体特徴量に対応する第1距離と、前記対象者の別の第2身体特徴量に対応する第2距離とを算出する算出部と、
前記第1距離及び前記第2距離の比と、特定の個人の体格に関する体格情報を記憶する記憶部から取得する前記体格情報とに基づいて、前記対象者が前記特定の個人である可能性を判定する判定部とを含む、対象者認識システム。
[付記11]
対象者の距離情報を画素値とする距離画像から得られる骨格情報に基づいて、前記対象者の第1身体特徴量に対応する第1距離と、前記対象者の別の第2身体特徴量に対応する第2距離とを算出し、
前記第1距離及び前記第2距離の比と、特定の個人の体格に関する体格情報を記憶する記憶部から取得する前記体格情報とに基づいて、前記対象者が前記特定の個人である可能性を判定する、
処理をコンピュータに実行させる対象者認識プログラム。
In addition, the following additional remarks are disclosed regarding the above Example.
[Appendix 1]
Based on the skeletal information obtained from the first distance image using the distance information of the subject as a pixel value, a first distance corresponding to the first body feature of the subject and another second body feature of the subject A second distance corresponding to the quantity,
Based on the ratio of the first distance and the second distance and the physique information acquired from the storage unit that stores the physique information related to the physique of a specific individual, the possibility that the target person is the specific individual. A subject recognition method executed by a computer, comprising: determining.
[Appendix 2]
The object according to appendix 1, wherein the physique information is a second distance image different from the first distance image, and is generated based on a second distance image having pixel information as distance information of the specific individual. Recognition method.
[Appendix 3]
The first distance and the second distance are respectively calculated based on the coordinates of the first body part on the first distance image and the coordinates of another second body part on the first distance image. And
In the case of calculating the first distance, the first body part is a head, and the second body part is a part ahead of an ankle or an ankle. Recognition method.
[Appendix 4]
The subject recognition method according to appendix 3, wherein the first distance and the second distance are calculated based on a centroid position of the first body part and a centroid position of the second body part, respectively. .
[Appendix 5]
The second distance corresponds to the sitting height;
The subject recognition method according to appendix 3 or 4, wherein when calculating the second distance, the first body part is a head, and the second body part is a crotch part.
[Appendix 6]
The second distance corresponds to a shoulder width;
The subject recognition method according to appendix 3 or 4, wherein when calculating the second distance, the first body part is a left shoulder part, and the second body part is a right shoulder part. .
[Appendix 7]
The target person recognition method according to claim 1, wherein the target person is a plurality.
[Appendix 8]
The subject recognition method according to any one of appendices 1 to 7, further including generating data for controlling the robot based on the skeleton information and the determination result of the possibility.
[Appendix 9]
Based on the skeletal information obtained from the distance image using the distance information of the subject person as a pixel value, the first distance corresponding to the first body feature amount of the subject person and another second body feature amount of the subject person A calculation unit for calculating a corresponding second distance;
Based on the ratio of the first distance and the second distance and the physique information acquired from the storage unit that stores the physique information related to the physique of a specific individual, the possibility that the target person is the specific individual. A subject recognition device including a determination unit for determining.
[Appendix 10]
A distance image sensor that generates a distance image having the distance information of the subject as pixel values;
A subject recognition device,
The subject recognition device
Based on the skeletal information obtained from the distance image, a first distance corresponding to the first body feature of the subject and a second distance corresponding to another second body feature of the subject are calculated. A calculation unit;
Based on the ratio of the first distance and the second distance and the physique information acquired from the storage unit that stores the physique information related to the physique of a specific individual, the possibility that the target person is the specific individual. A subject recognition system including a determination unit for determining.
[Appendix 11]
Based on the skeletal information obtained from the distance image using the distance information of the subject person as a pixel value, the first distance corresponding to the first body feature amount of the subject person and another second body feature amount of the subject person Calculating the corresponding second distance,
Based on the ratio of the first distance and the second distance and the physique information acquired from the storage unit that stores the physique information related to the physique of a specific individual, the possibility that the target person is the specific individual. judge,
A subject recognition program that causes a computer to execute processing.

1、1A 対象者認識システム
21 距離画像センサ
90 ロボット
100、100A 対象者認識装置
110 身体部位位置算出部
112 認識対象者決定部
121 骨格データ記憶部
122 非関節部位位置データ記憶部
124 ユーザ情報記憶部
136 特徴量算出部
138 個人認識部
140 ロボット制御データ生成部
1101 身体部位識別部
1102 非関節位置算出部
1103 関節位置算出部
DESCRIPTION OF SYMBOLS 1, 1A Target person recognition system 21 Distance image sensor 90 Robot 100, 100A Target person recognition apparatus 110 Body part position calculation part 112 Recognition target person determination part 121 Skeletal data storage part 122 Non-joint part position data storage part 124 User information storage part 136 Feature amount calculation unit 138 Personal recognition unit 140 Robot control data generation unit 1101 Body part identification unit 1102 Non-joint position calculation unit 1103 Joint position calculation unit

Claims (8)

対象者の距離情報を画素値とする第1距離画像から得られる骨格情報に基づいて、前記対象者の第1身体特徴量に対応する第1距離と、前記対象者の別の第2身体特徴量に対応する第2距離とを算出し、
前記第1距離及び前記第2距離の比と、特定の個人の体格に関する体格情報を記憶する記憶部から取得する前記体格情報とに基づいて、前記対象者が前記特定の個人である可能性を判定することを含む、コンピュータにより実行される対象者認識方法。
Based on the skeletal information obtained from the first distance image using the distance information of the subject as a pixel value, a first distance corresponding to the first body feature of the subject and another second body feature of the subject A second distance corresponding to the quantity,
Based on the ratio of the first distance and the second distance and the physique information acquired from the storage unit that stores the physique information related to the physique of a specific individual, the possibility that the target person is the specific individual. A subject recognition method executed by a computer, comprising: determining.
前記体格情報は、前記第1距離画像とは異なる第2距離画像であって、前記特定の個人の距離情報を画素値とする第2距離画像に基づいて生成される、請求項1に記載の対象者認識方法。   The physique information is a second distance image different from the first distance image, and is generated based on a second distance image having pixel information as distance information of the specific individual. Target person recognition method. 前記第1距離及び前記第2距離は、それぞれ、前記第1距離画像上における第1の身体部位の座標と、前記第1距離画像上における別の第2の身体部位の座標とに基づいて算出され、
前記第1距離を算出する場合、前記第1の身体部位は、頭部であり、前記第2の身体部位は、足首又は足首よりも先の部位である、請求項1又は2に記載の対象者認識方法。
The first distance and the second distance are respectively calculated based on the coordinates of the first body part on the first distance image and the coordinates of another second body part on the first distance image. And
The target according to claim 1 or 2, wherein when calculating the first distance, the first body part is a head, and the second body part is an ankle or an anterior part of the ankle. Recognition method.
前記第2距離は、座高に対応し、
前記第2距離を算出する場合、前記第1の身体部位は、頭部であり、前記第2の身体部位は、股部である、請求項3に記載の対象者認識方法。
The second distance corresponds to the sitting height;
The subject recognition method according to claim 3, wherein, when calculating the second distance, the first body part is a head, and the second body part is a crotch part.
前記第2距離は、肩幅に対応し、
前記第2距離を算出する場合、前記第1の身体部位は、左の肩部であり、前記第2の身体部位は、右の肩部である、請求項3に記載の対象者認識方法。
The second distance corresponds to a shoulder width;
The subject recognition method according to claim 3, wherein, when calculating the second distance, the first body part is a left shoulder part, and the second body part is a right shoulder part.
対象者の距離情報を画素値とする距離画像から得られる骨格情報に基づいて、前記対象者の第1身体特徴量に対応する第1距離と、前記対象者の別の第2身体特徴量に対応する第2距離とを算出する算出部と、
前記第1距離及び前記第2距離の比と、特定の個人の体格に関する体格情報を記憶する記憶部から取得する前記体格情報とに基づいて、前記対象者が前記特定の個人である可能性を判定する判定部とを含む、対象者認識装置。
Based on the skeletal information obtained from the distance image using the distance information of the subject person as a pixel value, the first distance corresponding to the first body feature amount of the subject person and another second body feature amount of the subject person A calculation unit for calculating a corresponding second distance;
Based on the ratio of the first distance and the second distance and the physique information acquired from the storage unit that stores the physique information related to the physique of a specific individual, the possibility that the target person is the specific individual. A subject recognition device including a determination unit for determining.
対象者の距離情報を画素値とする距離画像を生成する距離画像センサと、
対象者認識装置とを含み、
前記対象者認識装置は、
前記距離画像から得られる骨格情報に基づいて、前記対象者の第1身体特徴量に対応する第1距離と、前記対象者の別の第2身体特徴量に対応する第2距離とを算出する算出部と、
前記第1距離及び前記第2距離の比と、特定の個人の体格に関する体格情報を記憶する記憶部から取得する前記体格情報とに基づいて、前記対象者が前記特定の個人である可能性を判定する判定部とを含む、対象者認識システム。
A distance image sensor that generates a distance image having the distance information of the subject as pixel values;
A subject recognition device,
The subject recognition device
Based on the skeletal information obtained from the distance image, a first distance corresponding to the first body feature of the subject and a second distance corresponding to another second body feature of the subject are calculated. A calculation unit;
Based on the ratio of the first distance and the second distance and the physique information acquired from the storage unit that stores the physique information related to the physique of a specific individual, the possibility that the target person is the specific individual. A subject recognition system including a determination unit for determining.
対象者の距離情報を画素値とする距離画像から得られる骨格情報に基づいて、前記対象者の第1身体特徴量に対応する第1距離と、前記対象者の別の第2身体特徴量に対応する第2距離とを算出し、
前記第1距離及び前記第2距離の比と、特定の個人の体格に関する体格情報を記憶する記憶部から取得する前記体格情報とに基づいて、前記対象者が前記特定の個人である可能性を判定する、
処理をコンピュータに実行させる対象者認識プログラム。
Based on the skeletal information obtained from the distance image using the distance information of the subject person as a pixel value, the first distance corresponding to the first body feature amount of the subject person and another second body feature amount of the subject person Calculating the corresponding second distance,
Based on the ratio of the first distance and the second distance and the physique information acquired from the storage unit that stores the physique information related to the physique of a specific individual, the possibility that the target person is the specific individual. judge,
A subject recognition program that causes a computer to execute processing.
JP2016236018A 2016-12-05 2016-12-05 Target person recognition method, device, system, and program Withdrawn JP2018089161A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016236018A JP2018089161A (en) 2016-12-05 2016-12-05 Target person recognition method, device, system, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016236018A JP2018089161A (en) 2016-12-05 2016-12-05 Target person recognition method, device, system, and program

Publications (1)

Publication Number Publication Date
JP2018089161A true JP2018089161A (en) 2018-06-14

Family

ID=62563458

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016236018A Withdrawn JP2018089161A (en) 2016-12-05 2016-12-05 Target person recognition method, device, system, and program

Country Status (1)

Country Link
JP (1) JP2018089161A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020522285A (en) * 2018-04-20 2020-07-30 ボディグラム、インコーポレイテッド System and method for whole body measurement extraction
JP2021135592A (en) * 2020-02-25 2021-09-13 エヌ・ティ・ティ・コムウェア株式会社 Individual estimation device, method for estimating individual, and program
US11422568B1 (en) * 2019-11-11 2022-08-23 Amazon Technolgoies, Inc. System to facilitate user authentication by autonomous mobile device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020522285A (en) * 2018-04-20 2020-07-30 ボディグラム、インコーポレイテッド System and method for whole body measurement extraction
US11422568B1 (en) * 2019-11-11 2022-08-23 Amazon Technolgoies, Inc. System to facilitate user authentication by autonomous mobile device
JP2021135592A (en) * 2020-02-25 2021-09-13 エヌ・ティ・ティ・コムウェア株式会社 Individual estimation device, method for estimating individual, and program
JP7282704B2 (en) 2020-02-25 2023-05-29 エヌ・ティ・ティ・コムウェア株式会社 INDIVIDUAL ESTIMATION DEVICE, INDIVIDUAL ESTIMATION METHOD, AND PROGRAM

Similar Documents

Publication Publication Date Title
JP4950787B2 (en) Image processing apparatus and method
US11721114B2 (en) Method, system, and device of generating a reduced-size volumetric dataset
JP5873442B2 (en) Object detection apparatus and object detection method
Dikovski et al. Evaluation of different feature sets for gait recognition using skeletal data from Kinect
JP4951498B2 (en) Face image recognition device, face image recognition method, face image recognition program, and recording medium recording the program
Ahmed et al. Gait recognition based on Kinect sensor
JP2010176380A (en) Information processing device and method, program, and recording medium
JP2007004767A (en) Image recognition apparatus, method and program
JP2012123667A (en) Attitude estimation device and attitude estimation method
JP2015002547A (en) Image processing apparatus, program, and image processing method
KR20120041086A (en) Processing apparatus and method for creating avatar
JP2018089161A (en) Target person recognition method, device, system, and program
Krzeszowski et al. DTW-based gait recognition from recovered 3-D joint angles and inter-ankle distance
EP3223035B1 (en) Estimation apparatus, estimation method and computer-readable medium
JP2009288917A (en) Information processor, information processing method and program
JP2017158644A (en) Measuring apparatus, measuring method, and measuring program
JP5373128B2 (en) Person identification device, person identification method, and person identification program
Azhar et al. Significant body point labeling and tracking
JP2018169720A (en) Motion detection system
JP6173376B2 (en) Same person detection method and same person detection system
JP7327776B2 (en) Facial expression estimation device, emotion determination device, facial expression estimation method and program
CN114463663A (en) Method and device for calculating height of person, electronic equipment and storage medium
JP7024876B2 (en) Detection device, processing device, detection method, and processing program
Nguyen et al. Vision-Based Global Localization of Points of Gaze in Sport Climbing
WO2024009533A1 (en) Action recognition device, action recognition method, and action recognition program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190807

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20200221