JP2012215555A - Measurement device, measurement method, and measurement program - Google Patents

Measurement device, measurement method, and measurement program Download PDF

Info

Publication number
JP2012215555A
JP2012215555A JP2012033610A JP2012033610A JP2012215555A JP 2012215555 A JP2012215555 A JP 2012215555A JP 2012033610 A JP2012033610 A JP 2012033610A JP 2012033610 A JP2012033610 A JP 2012033610A JP 2012215555 A JP2012215555 A JP 2012215555A
Authority
JP
Japan
Prior art keywords
head
shoulder
calculating
person
shoulders
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012033610A
Other languages
Japanese (ja)
Other versions
JP5953484B2 (en
Inventor
Drazen Brscic
ドラジェン ブルシュチッチ
Tetsushi Ikeda
徹志 池田
Takayuki Kanda
崇行 神田
Takahiro Miyashita
敬宏 宮下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2012033610A priority Critical patent/JP5953484B2/en
Publication of JP2012215555A publication Critical patent/JP2012215555A/en
Application granted granted Critical
Publication of JP5953484B2 publication Critical patent/JP5953484B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)
  • Measurement Of Optical Distance (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain various information by measuring a plurality of targets with a laser range finder.SOLUTION: A measurement device (10) measures a plurality of targets (T1, T2, ...) by a LRF (14) of which a scan surface (Scn) is inclined against a horizontal surface. A computer (12) of the measurement device (10) registers three-dimensional shape models (M1 and M2) of a plurality of targets with a database (50) in a step S1, then, while changing an inclination angle (α) of the scan surface (Scn) against the horizontal surface by controlling the LRF (14) in a step S3, compares measurement data of the LRF (14) and the three-dimensional shape models (M1 and M2) by using respective particle filters (38a, 38b, ...) of the plurality of targets to estimate at least respective three-dimensional shapes and postures of the plurality of targets, especially directions of human bodies and directions of heads, in steps S5 to S19 (and S21 to S39).

Description

この発明は、計測装置,計測方法および計測プログラムに関し、特に、3次元距離計測センサ(たとえばレーザレンジファインダ,レーザレンジスキャナ,3Dスキャナ,測域センサなど)で対象を計測する、計測装置,計測方法および計測プログラムに関する。   The present invention relates to a measuring apparatus, a measuring method, and a measuring program, and more particularly, a measuring apparatus and a measuring method for measuring an object with a three-dimensional distance measuring sensor (for example, a laser range finder, a laser range scanner, a 3D scanner, a range sensor, etc.). And measurement programs.

この種の従来の装置としては、たとえば特許文献1に開示されたものが知られている。この背景技術では、複数のレーザレンジファインダ(LRF)で被験者を計測して、計測結果から被験者の位置および移動速度を推定し、さらに人形状モデルを用いて被験者の体の向きおよび腕の動きをも推定している。
特開2009−168578号公報
As this type of conventional apparatus, for example, one disclosed in Patent Document 1 is known. In this background art, a subject is measured with a plurality of laser range finders (LRF), the position and moving speed of the subject are estimated from the measurement results, and the body orientation and arm movement of the subject are further determined using a human shape model. Also estimate.
JP 2009-168578 A

しかし、特許文献1の背景技術では、どのLRFも、スキャン面が腰の高さで水平となるように設置されている。したがって、LRFからの計測データには、腰の高さでの距離情報しか含まれていないので、3次元形状や姿勢を推定することはできない。   However, in the background art of Patent Document 1, any LRF is installed such that the scan surface is horizontal at the waist level. Therefore, since the measurement data from the LRF includes only distance information at the waist height, the three-dimensional shape and posture cannot be estimated.

また、特許文献1の背景技術は、複数の人が密集した状況ではLRFからの計測データに基づいて一人一人を分離することが難しくなるという問題点を有する。   In addition, the background art of Patent Document 1 has a problem that it is difficult to separate each person based on measurement data from the LRF in a situation where a plurality of people are crowded.

それゆえに、この発明の主たる目的は、新規な、計測装置,計測方法および計測プログラムを提供することである。   Therefore, a main object of the present invention is to provide a novel measuring apparatus, measuring method, and measuring program.

この発明の他の目的は、3次元距離計測センサで複数の対象を計測して多様な情報を得ることができる、計測装置,計測方法および計測プログラムを提供することである。   Another object of the present invention is to provide a measuring apparatus, a measuring method, and a measuring program capable of obtaining a variety of information by measuring a plurality of objects with a three-dimensional distance measuring sensor.

この発明のその他の目的は、3次元距離計測センサで人の体の方向および頭の方向を計測できる、計測装置,計測方法および計測プログラムを提供することである。   Another object of the present invention is to provide a measuring device, a measuring method, and a measuring program capable of measuring the direction of a human body and the direction of a head with a three-dimensional distance measuring sensor.

この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、本発明の理解を助けるために後述する実施の形態との対応関係を示したものであって、本発明を何ら限定するものではない。   The present invention employs the following configuration in order to solve the above problems. The reference numerals in parentheses, supplementary explanations, and the like indicate correspondence relationships with embodiments described later to help understanding of the present invention, and do not limit the present invention in any way.

第1の発明は、そのスキャン面(Scn)が水平面に対して傾斜した3次元距離計測センサ(14)で複数の対象(T1,T2,…)を計測する計測装置(10)であって、複数の対象に関する3次元形状モデル(M1,M2)が登録されたデータベース(50)、3次元距離計測センサを制御してスキャン面の水平面に対する傾斜角(α)を変化させる変化手段(S3)、および3次元距離計測センサからの計測データ(34)とデータベースに登録された3次元形状モデルとの比較に基づいて複数の対象それぞれの3次元形状および姿勢を少なくとも推定する第1推定手段(S5〜S19,S21〜S39)を備える。   The first invention is a measuring device (10) for measuring a plurality of objects (T1, T2,...) With a three-dimensional distance measuring sensor (14) whose scanning surface (Scn) is inclined with respect to a horizontal plane. A database (50) in which three-dimensional shape models (M1, M2) relating to a plurality of objects are registered, a change means (S3) for controlling the three-dimensional distance measurement sensor to change the inclination angle (α) of the scan plane with respect to the horizontal plane; And first estimation means (S5 to S5) for estimating at least the three-dimensional shape and the posture of each of the plurality of objects based on the comparison between the measurement data (34) from the three-dimensional distance measurement sensor and the three-dimensional shape model registered in the database. S19, S21 to S39).

第1の発明によれば、スキャン面の傾斜角を変化させつつ計測を行うことで、複数の対象の分離が容易となり、こうして分離された複数の対象それぞれの3次元形状および姿勢を推定することができる。   According to the first invention, by performing measurement while changing the tilt angle of the scan plane, it becomes easy to separate a plurality of objects, and estimating the three-dimensional shape and posture of each of the plurality of objects thus separated. Can do.

なお、各対象は、動いている方が好ましいが、停止していてもよい。   Each object is preferably moving, but may be stopped.

なお、傾斜角が大きければ(α=90度またはそれに近い角度であれば)、対象同士の重なり合いが小さくなるので複数の対象を容易に分離できる一方、計測領域は狭くなる。このため、変化手段による傾斜角の変化範囲は、分離の容易さと計測領域の広さとのバランスを考慮して、適宜な範囲が選ばれる。ある実施例では、傾斜角の変化範囲を24度〜90度(24°≦α≦90°)としているが、たとえば20度〜80度や30度〜150度などでもよい。   If the inclination angle is large (α = 90 degrees or an angle close thereto), the overlap between the objects becomes small, so that a plurality of objects can be easily separated, while the measurement area becomes narrow. For this reason, the change range of the inclination angle by the changing means is selected in consideration of the balance between the ease of separation and the size of the measurement region. In an embodiment, the change range of the inclination angle is set to 24 degrees to 90 degrees (24 ° ≦ α ≦ 90 °), but may be, for example, 20 degrees to 80 degrees, 30 degrees to 150 degrees, or the like.

第2の発明は、第1の発明に従属する計測装置であって、第1推定手段は複数の対象それぞれに対応する複数の時系列フィルタリングを並列に実行することによって推定を行う。   A second invention is a measurement device subordinate to the first invention, and the first estimation means performs estimation by executing a plurality of time-series filterings corresponding to a plurality of objects in parallel.

なお、時系列フィルタリングには、ある実施例ではパーティクルフィルタを用いるが、カルマンフィルタなど他の時系列フィルタを用いてもよい。   For the time series filtering, a particle filter is used in an embodiment, but other time series filters such as a Kalman filter may be used.

第2の発明によれば、複数の対象(T1,T2,…)それぞれにパーティクルフィルタ(38a,38b,…)を適用することで、それぞれの3次元形状および姿勢を高い精度で推定することができる。   According to the second invention, by applying the particle filter (38a, 38b,...) To each of the plurality of objects (T1, T2,...), Each three-dimensional shape and posture can be estimated with high accuracy. it can.

第3の発明は、第2の発明に従属する計測装置であって、3次元形状モデルは肩から上の身体形状モデル(M1)を含み、姿勢は頭部の向き(Α)を含む。   A third invention is a measurement apparatus according to the second invention, wherein the three-dimensional shape model includes a body shape model (M1) above the shoulder, and the posture includes a head direction (a heel).

第3の発明によれば、頭部のサイズおよび向きを推定することができる。また、頭部のサイズから身長も推定できる。   According to the third invention, the size and orientation of the head can be estimated. The height can also be estimated from the size of the head.

第4の発明は、第3の発明に従属する計測装置であって、3次元形状モデルはさらに全身の骨格モデル(M2)を含み、姿勢は頭部以外の各部位の向きをさらに含む。   A fourth invention is a measuring apparatus according to the third invention, wherein the three-dimensional shape model further includes a whole body skeleton model (M2), and the posture further includes the orientation of each part other than the head.

第4の発明によれば、腕や脚といった部位のサイズおよび向きも推定できる。   According to the fourth invention, the size and orientation of parts such as arms and legs can also be estimated.

第5の発明は、第3の発明に従属する計測装置であって、第1推定手段は複数の対象それぞれの位置および移動方向をさらに推定し、第1推定手段の推定結果に基づいて複数の対象それぞれの頭部が移動方向とは異なる方向を向いたと判断される場合に当該頭部の向いた先に位置する目標を特定する特定手段(S67)、および複数の対象それぞれについて特定手段の特定結果に基づく個別行動情報を作成する第1作成手段(S69)をさらに備える。   5th invention is a measuring device which depends on 3rd invention, Comprising: 1st estimation means further estimates the position and moving direction of each of several object, Based on the estimation result of 1st estimation means, several When it is determined that the head of each target is oriented in a direction different from the moving direction, the specifying means (S67) for specifying a target located ahead of the head, and the specifying means for each of the plurality of targets First creation means (S69) for creating individual action information based on the specific result is further provided.

第5の発明によれば、位置および移動方向に加えて頭部の向きを考慮することで、各対象が移動しながら見た目標を特定できる。また、こうして特定した結果に基づいて、「対象T1は店舗A,B,…および案内板Pを見た」,「対象T2は店舗C,D,…および案内板Qを見た」といった個別行動情報を作成できる。   According to the fifth aspect, by considering the orientation of the head in addition to the position and the moving direction, it is possible to specify the target viewed while each object is moving. Further, based on the result thus identified, individual actions such as “target T1 saw store A, B,... And guide board P” and “target T2 saw store C, D,. Can create information.

第6の発明は、第5の発明に従属する計測装置であって、第1推定手段の推定結果を複数の対象間で比較して、位置が近接しかつ移動方向が共通であってしかも頭部が一定以上の頻度で相対する方向を向く対象群がある場合に、当該対象群をグループと推定する第2推定手段(S81〜S91)をさらに備える。   A sixth invention is a measuring apparatus according to the fifth invention, wherein the estimation results of the first estimating means are compared among a plurality of objects, the positions are close and the moving direction is common, and the head is When there is a target group in which the parts face each other at a certain frequency or more, second estimation means (S81 to S91) for estimating the target group as a group is further provided.

第6の発明によれば、位置および移動方向に加えて頭部の向きを考慮することで、グループ推定が容易に行える。   According to the sixth aspect of the invention, group estimation can be easily performed by considering the head direction in addition to the position and the moving direction.

第7の発明は、第6の発明に従属する計測装置であって、第1推定手段の推定結果に基づいて複数の対象それぞれの属性を推定する第3推定手段(S51)、および第2推定手段でグループと推定された対象群に関する第3推定の推定結果に基づいて、当該グループを複数のカテゴリのいずれかに分類する分類手段(S101)をさらに備える。   7th invention is a measuring device subordinate to 6th invention, Comprising: 3rd estimation means (S51) which estimates each attribute of several object based on the estimation result of 1st estimation means, and 2nd estimation Classification means (S101) for classifying the group into any of a plurality of categories based on the estimation result of the third estimation relating to the target group estimated as a group by the means.

なお、ある実施例では、属性は性別,大人/子供の区別などを含み、性別,大人/子供の区別は、たとえば頭部の3次元形状から推定される。複数のカテゴリとは、たとえば友達同士,家族連れ,カップルなどである。   In one embodiment, the attributes include sex, adult / child distinction, etc., and the sex, adult / child distinction is estimated from, for example, the three-dimensional shape of the head. The plurality of categories are, for example, friends, families, couples, and the like.

第7の発明によれば、複数の対象それぞれの属性を推定できる。また、グループと推定された対象群の属性から、グループの分類も可能になる。   According to the seventh invention, the attributes of each of a plurality of objects can be estimated. Further, the group can be classified from the attributes of the target group estimated as the group.

第8の発明は、第7の発明に従属する計測装置であって、第1作成手段で作成された個別行動情報を第2推定手段の推定に基づくグループ毎に解析してグループ行動情報を作成する第2作成手段(S103)をさらに備える。   An eighth invention is a measuring device subordinate to the seventh invention, wherein the group behavior information is created by analyzing the individual behavior information created by the first creation means for each group based on the estimation of the second estimation means. A second creating means (S103).

第8の発明によれば、個別行動をグループ毎に解析することでグループ行動に関する情報が得られる。ある実施例では、グループと推定された対象群について個別行動情報の和集合をとることで、たとえば「グループG1は店舗A,B,C,…および案内板Pを見た」といったグループ行動情報を作成している。   According to the eighth aspect of the invention, information on group behavior can be obtained by analyzing individual behavior for each group. In an embodiment, by taking the union of individual action information for a target group estimated as a group, for example, group action information such as “Group G1 saw store A, B, C,. Creating.

第9の発明は、第8の発明に従属する計測装置であって、第2作成手段で作成されたグループ行動情報を分類手段の分類に基づくカテゴリ毎に解析してグループ行動パターン情報を作成する第3作成手段(S105)をさらに備える。   A ninth invention is a measuring apparatus subordinate to the eighth invention, and generates group behavior pattern information by analyzing the group behavior information created by the second creation means for each category based on the classification of the classification means. Third preparation means (S105) is further provided.

第9の発明によれば、グループ行動をカテゴリ毎に解析することで、各カテゴリに特有の行動パターンに関する情報が得られる。ある実施例では、たとえば、“友達同士”に分類されたグループ群(G1,G5)についてグループ行動情報の積集合をとることで、「友達同士のグループは店舗Aおよび案内板Pを見る」といったグループ行動パターン情報を作成している。   According to the ninth aspect, by analyzing the group behavior for each category, information regarding the behavior pattern specific to each category can be obtained. In an embodiment, for example, by taking a product set of group action information for a group group (G1, G5) classified as “friends”, “a group of friends sees store A and information board P”. Group action pattern information is created.

第10の発明は、第1の発明に従属する計測装置であって、複数の対象の少なくとも1つは人であり、3次元距離計測センサからの計測データに基づいて人の頭および肩を検出する検出手段(S115〜S119)、および検出手段によって検出された頭および肩の間の位置関係に基づいて人の体の方向(θb)および頭の方向(θh)を計算する計算手段(S121〜S135)をさらに備え、第1推定手段は計算手段の計算結果に基づいて人の姿勢に関する推定を行う。   A tenth invention is a measurement device according to the first invention, wherein at least one of the plurality of objects is a person, and a person's head and shoulder are detected based on measurement data from a three-dimensional distance measurement sensor Detecting means (S115 to S119), and calculating means (S121 to S121) for calculating the human body direction (θb) and head direction (θh) based on the positional relationship between the head and shoulder detected by the detecting means S135), and the first estimation means estimates the posture of the person based on the calculation result of the calculation means.

第10の発明によれば、3次元距離計測センサで人の姿勢として体の方向および頭の方向を計測して、計測結果に基づく姿勢推定が行える。   According to the tenth invention, the direction of the body and the direction of the head are measured as the posture of the person by the three-dimensional distance measuring sensor, and the posture can be estimated based on the measurement result.

第11の発明は、第10の発明に従属する計測装置であって、3次元距離計測センサは人の頭頂点(HTP)よりも高い位置に設置され、検出手段は、3次元距離計測センサからの計測データのうち人に対応する計測データを高さ方向に層化する層化手段(S115)、および層化手段の層化結果から頭頂点を含む頭上層(HLY)および当該頭上層から所定数層隔てて下にある肩の層(SLY)を抽出する抽出手段(S117)を含み、計算手段は、抽出手段によって抽出された肩の層に基づいて両肩をつなぐ線(SLN)に垂直な方向を計算する第1計算手段(S127,S129)、抽出手段によって抽出された頭上層のうち第1計算手段によって計算された方向に対して最後部(HRA)にある頭後点(HRP)を計算する第2計算手段(S131)、抽出手段によって抽出された頭上層のうち第2計算手段によって計算された頭後点に対して最前部(HFA)にある頭前点(HFP)を計算する第3計算手段(S133)、および第2計算手段によって計算された頭後点から第3計算手段によって計算された頭前点に向かう方向を計算する第4計算手段(S135)を含み、第1推定手段は、第1計算手段によって計算された方向を体の方向として推定し、第4計算手段によって計算された方向を頭の方向として推定する。   An eleventh invention is a measuring device according to the tenth invention, wherein the three-dimensional distance measuring sensor is installed at a position higher than a human head apex (HTP), and the detecting means is a three-dimensional distance measuring sensor. Of the measurement data corresponding to the person in the height direction (S115), the overhead layer (HLY) including the head apex from the stratification result of the stratification means, and a predetermined value from the overhead layer Extraction means (S117) for extracting the lower shoulder layer (SLY) separated by several layers, the calculation means perpendicular to the line (SLN) connecting the shoulders based on the shoulder layer extracted by the extraction means First calculation means (S127, S129) for calculating a correct direction, out of the overhead layer extracted by the extraction means, the head point (HRP) at the rearmost part (HRA) with respect to the direction calculated by the first calculation means 2nd calculation to calculate Step (S131), third calculation means for calculating a frontal point (HFP) at the forefront (HFA) with respect to the back of the head calculated by the second calculation means among the overhead layers extracted by the extraction means ( S133), and fourth calculation means (S135) for calculating a direction from the back of the head calculated by the second calculation means to the front of the head calculated by the third calculation means, the first estimation means includes: The direction calculated by the first calculating means is estimated as the body direction, and the direction calculated by the fourth calculating means is estimated as the head direction.

第11の発明によれば、人に対応する計測データを層化して最上位の頭上層(HLY)および所定数層下位の肩の層(SLY)を抽出することで、頭および肩が検出できる。なお、人に対応する計測データは、3次元距離計測センサからの計測データに対してたとえばクラスタリングを行うことにより得られる。また、肩の層から両肩をつなぐ線に垂直な方向を求めることで、体の方向が計算できる。さらに、頭上層から体の方向に基づいて頭後点を求め、そして、頭後点から頭前点に向かう方向を求めることで、頭の方向が計算できる。   According to the eleventh invention, the head and shoulder can be detected by layering measurement data corresponding to a person and extracting the uppermost upper layer (HLY) and the shoulder layer (SLY) lower by a predetermined number of layers. . Measurement data corresponding to a person can be obtained by, for example, clustering the measurement data from the three-dimensional distance measurement sensor. In addition, the direction of the body can be calculated by obtaining the direction perpendicular to the line connecting the shoulders from the shoulder layer. Furthermore, the direction of the head can be calculated by obtaining the back of the head based on the body direction from the upper layer and then obtaining the direction from the back of the head toward the front of the head.

第12の発明は、第11の発明に従属する計測装置であって、計算手段は、抽出手段によって抽出された頭上層に基づいて頭の中心点(P)を計算する第5計算手段(S121)、肩の層が両肩を含むか一方の肩しか含まないかを判別する判別手段(S123)、および、判別手段によって肩の層が一方の肩しか含まないと判別された場合に、当該一方の肩と第5計算手段によって検出された頭の中心点とに基づいて、両肩は頭に対して左右対称な位置にありかつ頭は両肩をつなぐ線よりも前方にあるという条件を満たすように、他方の肩を計算する第6計算手段(S125)をさらに含み、第1計算手段は、判別手段によって肩の層が両肩を含むと判別された場合には当該両肩をつなぐ線に垂直な方向を計算し、一方の肩しか含まないと判別された場合には当該一方の肩および第6計算手段によって計算された他方の肩をつなぐ線に垂直な方向を計算する。   A twelfth aspect of the invention is a measuring apparatus according to the eleventh aspect of the invention, wherein the calculation means calculates fifth center means (P121) for calculating the center point (P) of the head based on the overhead layer extracted by the extraction means. ), Determining means for determining whether the shoulder layer includes both shoulders or only one shoulder (S123), and when the determining means determines that the shoulder layer includes only one shoulder, Based on one shoulder and the center point of the head detected by the fifth calculation means, the condition is that both shoulders are in a symmetrical position with respect to the head and the head is in front of the line connecting the shoulders. Sixth calculation means (S125) for calculating the other shoulder so as to satisfy is satisfied, and the first calculation means connects the shoulders when the determination means determines that the shoulder layer includes both shoulders. Calculate the direction perpendicular to the line and determine that only one shoulder is included. Calculating a direction perpendicular to the line connecting the other shoulder calculated by the one of the shoulder and the sixth calculation means when it is.

第12の発明によれば、頭上層から頭の中心点を計算できる。また、肩の層が一方の肩しか含まない場合に、当該一方の肩と頭の中心点とに基づいて、「両肩は頭に対して左右対称な位置にある」という条件、および「頭は両肩をつなぐ線よりも前方にある」という条件を満たすように、他方の肩が計算できる。肩の層が両肩を含む場合には当該両肩をつなぐ線に垂直な方向を求め、一方の肩しか含まない場合には当該一方の肩および計算された他方の肩をつなぐ線に垂直な方向を求めるので、頭と少なくとも一方の肩とを検出すれば、体の方向が計算できる。   According to the twelfth aspect, the center point of the head can be calculated from the overhead layer. In addition, when the shoulder layer includes only one shoulder, on the basis of the one shoulder and the center point of the head, the condition that “the shoulders are symmetrical with respect to the head” and “the head The other shoulder can be calculated to satisfy the condition that “is ahead of the line connecting the shoulders”. If the shoulder layer includes both shoulders, the direction perpendicular to the line connecting the shoulders is obtained, and if only one shoulder is included, the direction perpendicular to the line connecting the one shoulder and the other shoulder is calculated. Since the direction is obtained, the direction of the body can be calculated by detecting the head and at least one shoulder.

第13の発明は、第12の発明に従属する計測装置であって、判別手段は肩の層を構成する点群の頭の中心点に対する分布に基づいて判別を行う。   A thirteenth invention is a measuring apparatus according to the twelfth invention, wherein the discriminating means discriminates based on the distribution of the point group constituting the shoulder layer with respect to the center point of the head.

第13の発明によれば、肩の層を構成する点群が頭の中心点に対して両側に均等に分布しているか片側に偏って分布しているかで、両肩か一方の肩かの判別が行える。   According to the thirteenth invention, whether the point group constituting the shoulder layer is evenly distributed on both sides or biased to one side with respect to the center point of the head, Can be determined.

第14の発明は、第12または13の発明に従属する計測装置であって、第1推定手段は第5計算手段によって計算された頭の中心点の位置を人の位置として推定する。   A fourteenth invention is a measuring apparatus according to the twelfth or thirteenth invention, wherein the first estimating means estimates the position of the center point of the head calculated by the fifth calculating means as the position of the person.

第14の発明によれば、頭の中心点から人の位置が推定できる。言い換えると、位置推定のために求めた頭の中心点を利用することで、頭と一方の肩しか検出されなくても、体の方向が計算できる。   According to the fourteenth aspect, the position of the person can be estimated from the center point of the head. In other words, by using the center point of the head obtained for position estimation, the body direction can be calculated even if only the head and one shoulder are detected.

第15の発明は、そのスキャン面(Scn)が水平面に対して傾斜した3次元距離計測センサ(14)で複数の対象(T1,T2,…)を計測する計測方法であって、複数の対象に関する3次元形状モデル(M1,M2)をデータベース(50)に登録する登録ステップ(S1)、3次元距離計測センサを制御してスキャン面の水平面に対する傾斜角(α)を変化させる変化ステップ(S3)、および3次元距離計測センサからの計測データ(34)とデータベースに登録された3次元形状モデルとの比較に基づいて複数の対象それぞれの3次元形状および姿勢を少なくとも推定する第1推定ステップ(S5〜S19,S21〜S39)を備える。   A fifteenth aspect of the invention is a measurement method for measuring a plurality of objects (T1, T2,...) With a three-dimensional distance measurement sensor (14) whose scan surface (Scn) is inclined with respect to a horizontal plane, the plurality of objects A registration step (S1) for registering the three-dimensional shape model (M1, M2) in the database (50) and a change step (S3) for controlling the three-dimensional distance measurement sensor to change the inclination angle (α) of the scan plane with respect to the horizontal plane. ), And a first estimation step for estimating at least the three-dimensional shape and the posture of each of the plurality of objects based on the comparison between the measurement data (34) from the three-dimensional distance measurement sensor and the three-dimensional shape model registered in the database. S5 to S19, S21 to S39).

第16の発明は、計測プログラム(30)であって、そのスキャン面(Scn)が水平面に対して傾斜した3次元距離計測センサ(14)で複数の対象(T1,T2,…)を計測する計測装置(10)のコンピュータ(12)を、複数の対象に関する3次元形状モデル(M1,M2)が登録されたデータベース(50)、3次元距離計測センサを制御してスキャン面の水平面に対する傾斜角(α)を変化させる変化手段(S3)、および3次元距離計測センサからの計測データ(34)とデータベースに登録された3次元形状モデルとの比較に基づいて複数の対象それぞれの3次元形状および姿勢を少なくとも推定する第1推定手段(S5〜S19,S21〜S39)として機能させる。   The sixteenth invention is a measurement program (30), and measures a plurality of objects (T1, T2,...) With a three-dimensional distance measurement sensor (14) whose scan surface (Scn) is inclined with respect to a horizontal plane. The computer (12) of the measuring device (10) controls the database (50) in which the three-dimensional shape models (M1, M2) relating to a plurality of objects are registered, the three-dimensional distance measurement sensor, and the inclination angle of the scan plane with respect to the horizontal plane Based on a comparison between the change means (S3) for changing (α) and the measurement data (34) from the three-dimensional distance measurement sensor and the three-dimensional shape model registered in the database, It functions as first estimation means (S5 to S19, S21 to S39) for estimating at least the posture.

第17の発明は、人の頭頂点(HTP)よりも高い位置に設置された3次元距離計測センサ(14)で当該人の体の方向(θb)および頭の方向(θh)を計測する計測装置(10)であって、3次元距離計測センサからの計測データに基づいて人の頭および肩を検出する検出手段(S115〜S119)、および検出手段によって検出された頭および肩の間の位置関係に基づいて人の体の方向(θb)および頭の方向(θh)を計算する計算手段(S121〜S135)を備える。   The seventeenth invention is a measurement in which the direction (θb) and the head direction (θh) of the person's body are measured by a three-dimensional distance measurement sensor (14) installed at a position higher than the person's head vertex (HTP). Device (10), detecting means (S115-S119) for detecting a person's head and shoulder based on measurement data from a three-dimensional distance measuring sensor, and a position between the head and shoulder detected by the detecting means Computation means (S121 to S135) for calculating a human body direction (θb) and a head direction (θh) based on the relationship is provided.

第17の発明によれば、3次元距離計測センサで人の体の方向および頭の方向を計測できる。   According to the seventeenth aspect, the direction of the human body and the direction of the head can be measured by the three-dimensional distance measuring sensor.

第18の発明は、第17の発明に従属する計測装置であって、検出手段は、3次元距離計測センサからの計測データのうち人に対応する計測データを高さ方向に層化する層化手段(S115)、および層化手段の層化結果から頭頂点を含む頭上層(HLY)および当該頭上層から所定数層隔てて下にある肩の層(SLY)を抽出する抽出手段(S117)を含み、計算手段は、抽出手段によって抽出された肩の層に基づいて両肩をつなぐ線(SLN)に垂直な方向を計算する第1計算手段(S127,S129)、抽出手段によって抽出された頭上層のうち第1計算手段によって計算された方向に対して最後部(HRA)にある頭後点(HRP)を計算する第2計算手段(S131)、抽出手段によって抽出された頭上層のうち第2計算手段によって計算された頭後点に対して最前部(HFA)にある頭前点(HFP)を計算する第3計算手段(S133)、および第2計算手段によって計算された頭後点から第3計算手段によって計算された頭前点に向かう方向を計算する第4計算手段(S135)を含む。   An eighteenth aspect of the invention is a measurement apparatus according to the seventeenth aspect of the invention, in which the detection means stratifies the measurement data corresponding to the person among the measurement data from the three-dimensional distance measurement sensor in the height direction. Means (S115), and extraction means (S117) for extracting the upper layer including the head apex (HLY) and the shoulder layer (SLY) below the upper layer by a predetermined number of layers from the stratification result of the stratification means The calculation means includes first calculation means (S127, S129) for calculating a direction perpendicular to a line (SLN) connecting both shoulders based on the shoulder layer extracted by the extraction means, extracted by the extraction means Of the overhead layers, the second calculation means (S131) for calculating the posterior point (HRP) at the rearmost part (HRA) with respect to the direction calculated by the first calculation means, of the overhead layers extracted by the extraction means Second calculation means Therefore, the third calculation means (S133) for calculating the frontal point (HFP) in the forefront part (HFA) with respect to the calculated rearward point, and the third calculation from the backside point calculated by the second calculation means 4th calculation means (S135) which calculates the direction which goes to the prefrontal point calculated by the means is included.

第18の発明によれば、人に対応する計測データを層化して最上位の頭上層および所定数層下位の肩の層を抽出することで、頭および肩が検出できる。なお、人に対応する計測データは、たとえばレーザレンジファインダからの計測データに対してクラスタリングを行うことにより得られる。また、肩の層から両肩をつなぐ線に垂直な方向を求めることで、体の方向が計算できる。さらに、頭上層から体の方向に基づいて頭後点を求め、そして、頭後点から頭前点に向かう方向を求めることで、頭の方向が計算できる。   According to the eighteenth aspect, the head and shoulder can be detected by layering the measurement data corresponding to the person and extracting the uppermost upper layer and the shoulder layer below the predetermined number of layers. Measurement data corresponding to a person can be obtained, for example, by performing clustering on measurement data from a laser range finder. In addition, the direction of the body can be calculated by obtaining the direction perpendicular to the line connecting the shoulders from the shoulder layer. Furthermore, the direction of the head can be calculated by obtaining the back of the head based on the body direction from the upper layer and then obtaining the direction from the back of the head toward the front of the head.

第19の発明は、第18の発明に従属する計測装置であって、計算手段は、抽出手段によって抽出された頭上層に基づいて頭の中心点(P)を計算する第5計算手段(S121)、肩の層が両肩を含むか一方の肩しか含まないかを判別する判別手段(S123)、および、判別手段によって肩の層が一方の肩しか含まないと判別された場合に、当該一方の肩と第5計算手段によって検出された頭の中心点とに基づいて、両肩は頭に対して左右対称な位置にありかつ頭は両肩をつなぐ線よりも前方にあるという条件を満たすように、他方の肩を計算する第6計算手段(S125)をさらに含み、第1計算手段は、判別手段によって肩の層が両肩を含むと判別された場合には当該両肩をつなぐ線に垂直な方向を計算し、一方の肩しか含まないと判別された場合には当該一方の肩および第6計算手段によって計算された他方の肩をつなぐ線に垂直な方向を計算する。   A nineteenth aspect of the invention is a measuring apparatus according to the eighteenth aspect of the invention, wherein the calculation means calculates fifth center means (P121) for calculating the center point (P) of the head based on the overhead layer extracted by the extraction means. ), Determining means for determining whether the shoulder layer includes both shoulders or only one shoulder (S123), and when the determining means determines that the shoulder layer includes only one shoulder, Based on one shoulder and the center point of the head detected by the fifth calculation means, the condition is that both shoulders are in a symmetrical position with respect to the head and the head is in front of the line connecting the shoulders. Sixth calculation means (S125) for calculating the other shoulder so as to satisfy is satisfied, and the first calculation means connects the shoulders when the determination means determines that the shoulder layer includes both shoulders. Calculate the direction perpendicular to the line and determine that only one shoulder is included. Calculating a direction perpendicular to the line connecting the other shoulder calculated by the one of the shoulder and the sixth calculation means when it is.

第19の発明によれば、頭上層から頭の中心点を計算できる。また、肩の層が一方の肩しか含まない場合に、当該一方の肩と頭の中心点とに基づいて、「両肩は頭に対して左右対称な位置にある」という条件、および「頭は両肩をつなぐ線よりも前方にある」という条件を満たすように、他方の肩が計算できる。肩の層が両肩を含む場合には当該両肩をつなぐ線に垂直な方向を求め、一方の肩しか含まない場合には当該一方の肩および計算された他方の肩をつなぐ線に垂直な方向を求めるので、頭と少なくとも一方の肩とを検出すれば、体の方向が計算できる。   According to the nineteenth aspect, the center point of the head can be calculated from the overhead layer. In addition, when the shoulder layer includes only one shoulder, on the basis of the one shoulder and the center point of the head, the condition that “the shoulders are symmetrical with respect to the head” and “the head The other shoulder can be calculated to satisfy the condition that “is ahead of the line connecting the shoulders”. If the shoulder layer includes both shoulders, the direction perpendicular to the line connecting the shoulders is obtained, and if only one shoulder is included, the direction perpendicular to the line connecting the one shoulder and the other shoulder is calculated. Since the direction is obtained, the direction of the body can be calculated by detecting the head and at least one shoulder.

第20の発明は、第19の発明に従属する計測装置であって、判別手段は肩の層を構成する点群の頭の中心点に対する分布に基づいて判別を行う。   A twentieth aspect of the invention is a measuring apparatus according to the nineteenth aspect of the invention, in which the discrimination means performs discrimination based on the distribution of the point group constituting the shoulder layer with respect to the center point of the head.

第20の発明によれば、肩の層を構成する点群が頭の中心点に対して両側に均等に分布しているか片側に偏って分布しているかで、両肩か一方の肩かの判別が行える。   According to the twentieth invention, whether the point group constituting the shoulder layer is evenly distributed on both sides or biased to one side with respect to the center point of the head, Can be determined.

第21の発明は、第19または20の発明に従属する計測装置であって、第5計算手段の計算結果,第1計算手段の計算結果および第4計算手段の計算結果を入力として時系列フィルタリングを実行することによって人の位置(P),体の方向(θb)および頭の方向(θh)を推定する推定手段(S21〜S31)をさらに備える。   A twenty-first invention is a measuring apparatus according to the nineteenth or twentieth invention, wherein time series filtering is performed using the calculation result of the fifth calculation means, the calculation result of the first calculation means, and the calculation result of the fourth calculation means as inputs. Is further provided with estimation means (S21 to S31) for estimating the position (P), the body direction (θb), and the head direction (θh) of the person.

第21の発明によれば、時系列フィルタリングによって人の位置,体の方向および頭の方向を追跡できる。   According to the twenty-first aspect, the position of the person, the direction of the body, and the direction of the head can be tracked by time series filtering.

なお、時系列フィルタリングには、ある実施例ではパーティクルフィルタ(好ましくはSIRパーティクルフィルタ)を用いるが、カルマンフィルタなど他の時系列フィルタを用いてもよい。   Note that, for the time series filtering, a particle filter (preferably an SIR particle filter) is used in a certain embodiment, but other time series filters such as a Kalman filter may be used.

第22の発明は、人の頭頂点(HTP)よりも高い位置に設置された3次元距離計測センサ(14)で当該人の体の方向(θb)および頭の方向(θh)を計測する計測方法であって、3次元距離計測センサからの計測データに基づいて人の頭および肩を検出する検出ステップ(S115〜S119)、および検出ステップによって検出された頭および肩の間の位置関係に基づいて人の体の方向(θb)および頭の方向(θh)を計算する計算ステップ(S121〜S135)を含む。   In a twenty-second invention, measurement is performed by measuring the direction of the human body (θb) and the direction of the head (θh) with a three-dimensional distance measurement sensor (14) installed at a position higher than the human head apex (HTP). A detection step (S115 to S119) for detecting a person's head and shoulders based on measurement data from a three-dimensional distance measurement sensor, and a positional relationship between the head and shoulders detected by the detection step. And calculating steps (S121 to S135) for calculating the human body direction (θb) and head direction (θh).

第23の発明は、計測プログラムであって、人の頭頂点(HTP)よりも高い位置に設置された3次元距離計測センサ(14)で当該人の体の方向(θb)および頭の方向(θh)を計測する計測装置(10)コンピュータを、3次元距離計測センサからの計測データに基づいて人の頭および肩を検出する検出手段(S115〜S119)、および検出手段によって検出された頭および肩の間の位置関係に基づいて人の体の方向(θb)および頭の方向(θh)を計算する計算手段(S121〜S135)として機能させる。   A twenty-third invention is a measurement program, which is a three-dimensional distance measurement sensor (14) installed at a position higher than a person's head apex (HTP), and the person's body direction (θb) and head direction ( measuring device (10) for measuring θh), detecting means (S115-S119) for detecting a human head and shoulder based on measurement data from a three-dimensional distance measuring sensor, and a head detected by the detecting means and It is made to function as calculation means (S121 to S135) for calculating the direction of the human body (θb) and the direction of the head (θh) based on the positional relationship between the shoulders.

第22,23の各発明によっても、第17の発明と同様に、3次元距離計測センサで人の体の方向および頭の方向を計測できる。   According to each of the twenty-second and twenty-third inventions, as in the seventeenth invention, the direction of the human body and the direction of the head can be measured by the three-dimensional distance measurement sensor.

この発明によれば、3次元距離計測センサで複数の対象を計測して多様な情報を得ることができる、計測装置,計測方法および計測プログラムが実現される。また、3次元距離計測センサで人の体の方向および頭の方向を計測できる、計測装置,計測方法および計測プログラムが実現される。   According to the present invention, a measuring device, a measuring method, and a measuring program capable of obtaining a variety of information by measuring a plurality of objects with a three-dimensional distance measuring sensor are realized. In addition, a measurement device, a measurement method, and a measurement program that can measure the direction of the human body and the direction of the head with a three-dimensional distance measurement sensor are realized.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

この発明の一実施例である計測装置の構成を示すブロック図である。It is a block diagram which shows the structure of the measuring device which is one Example of this invention. LRFによる計測処理を説明するための図解図であり、(A)が計測領域(スキャン面)を示し、(B)が対象と計測領域との関係を示す。It is an illustration figure for explaining the measurement process by LRF, (A) shows a measurement field (scan plane), and (B) shows a relation between a subject and a measurement field. 傾斜したLRFからの計測データに施される座標変換処理を説明するための図解図であり、(A)が水平なスキャン面と傾斜したスキャン面との関係を示し、(B)が座標変換に用いるパラメータを示す。It is an illustration figure for demonstrating the coordinate transformation process performed to the measurement data from inclined LRF, (A) shows the relationship between a horizontal scanning surface and an inclined scanning surface, (B) is used for coordinate transformation. The parameter used is shown. 16個のLRFのショッピングセンタへの配置例を示す図解図(上面図)である。It is an illustration figure (top view) which shows the example of arrangement | positioning to the shopping center of 16 LRF. 1つのLRFの計測領域の一例を示す図解図である。It is an illustration figure which shows an example of the measurement area | region of one LRF. 1つのLRFによる走査例を示す図解図である。It is an illustration figure which shows the example of a scan by one LRF. メモリマップを示す図解図である。It is an illustration figure which shows a memory map. CPU動作の一部を示すフロー図である。It is a flowchart which shows a part of CPU operation | movement. CPU動作の他の一部を示すフロー図である。It is a flowchart which shows another part of CPU operation | movement. CPU動作のその他の一部を示すフロー図である。It is a flowchart which shows the other part of CPU operation | movement. CPU動作のさらにその他の一部を示すフロー図である。It is a flowchart which shows a part of others of CPU operation | movement. CPU動作の他の一部を示すフロー図である。It is a flowchart which shows another part of CPU operation | movement. CPU動作のその他の一部を示すフロー図である。It is a flowchart which shows the other part of CPU operation | movement. 肩から上の身体形状モデルを示す図解図である。It is an illustration figure which shows the body shape model above from a shoulder. 全身の骨格モデルを示す図解図であり、この骨格モデルの肩から上は図14の形状モデルと対応している。It is an illustration figure which shows the skeleton model of a whole body, and the upper part from the shoulder of this skeleton model respond | corresponds with the shape model of FIG. メモリに記憶された各種情報のデータ構造を示す図解図であり、(A)は対象情報の、(B)はグループ情報の、(C)は個別行動情報の、(D)はグループ行動情報の、そして(E)はグループ行動パターン情報の、データ構造例を示す。It is an illustration figure which shows the data structure of the various information memorize | stored in memory, (A) is object information, (B) is group information, (C) is individual action information, (D) is group action information. And (E) shows an example of the data structure of the group action pattern information. 対象全体の移動方向と頭部の向き(視線方向)の関係を示す図解図である。It is an illustration figure which shows the relationship between the moving direction of the whole object, and the direction (line-of-sight direction) of a head. 人の位置および姿勢に関する変数を示す図解図である。It is an illustration figure which shows the variable regarding a person's position and attitude | position. LRFの出力(3Dスキャンデータ)に基づいて人の位置および姿勢(体の方向および頭の方向)を計測する方法(頭と両肩が検出された場合)を示すフロー図である。It is a flowchart which shows the method (when a head and both shoulders are detected) which measures a person's position and attitude | position (the direction of a body and the direction of a head) based on the output (3D scan data) of LRF. 人体に対応する3Dスキャンの層化を示す図解図である。It is an illustration figure which shows stratification of 3D scanning corresponding to a human body. 人体に対応する3Dスキャンの一形状(RLFの計測角が90度,人がLRFに対して横向きの場合)を示す図解図である。It is an illustration figure which shows one shape (when the measurement angle of RLF is 90 degree | times and a person is sideways with respect to LRF) corresponding to a human body. 人体に対応する3Dスキャンの他の形状(LRFの計測角が90度,人がLRFに対して正面向きの場合)を示す図解図である。It is an illustration figure which shows the other shape (when the measurement angle of LRF is 90 degree | times and a person is facing front with respect to LRF) corresponding to a human body. 人体に対応する3Dスキャンのその他の形状(LRFの計測角が0の場合:人の向きは任意)を示す図解図である。It is an illustration figure which shows the other shape of 3D scanning corresponding to a human body (when the measurement angle of LRF is 0: the direction of a person is arbitrary). 人体に対応する3Dスキャンのさらにその他の形状(LRFの計測角が30〜40度,人がLRFに対して横または斜め向きの場合)を示す図解図である。FIG. 10 is an illustrative view showing still another shape of a 3D scan corresponding to a human body (when an LRF measurement angle is 30 to 40 degrees and a person is laterally or obliquely with respect to the LRF). LRFの出力(3Dスキャンデータ)に基づいて人の位置および姿勢(体の方向および頭の方向)を計測する方法(頭と一方の肩が検出された場合)を示すフロー図である。It is a flowchart which shows the method (when a head and one shoulder are detected) which measures a person's position and attitude | position (the direction of a body and the direction of a head) based on the output (3D scan data) of LRF. 図25の検出結果(頭と一方の肩)に対して「肩よりも頭が前方にある」という特徴から可能な他方の肩の配置を示す図解図であり、(A)は人がLRFに対して左横を向いている(言い換えるとLRFが人の右側面をスキャンしている)場合を、(B)は人がLRFに対して右横を向いている(LRFが人の左側面をスキャンしている)場合の配置を示す。It is an illustration figure which shows arrangement | positioning of the other shoulder possible from the characteristic that "the head is ahead of a shoulder" with respect to the detection result (head and one shoulder) of FIG. 25, (A) is a person in LRF When (LRF is scanning the right side of the person), (B) shows that the person is pointing to the right side of the LRF (LRF is the left side of the person). Shows the layout when scanning). CPU動作の別の一部を示すフロー図である。It is a flowchart which shows another part of CPU operation | movement. 人の姿勢をLRFの出力に基づいて推定した結果(追跡なし)とモーショントラッカで実測した結果との比較を示す図解図であり、(A)は体の方向に関する比較を、(B)は頭の方向に関する比較を示す。It is an illustration figure which shows the comparison with the result (establishment without tracking) and the result measured by the motion tracker which estimated a person's posture based on the output of LRF, (A) is a comparison about a body direction, (B) is a head. A comparison of the directions is shown. 人の位置および姿勢をLRFの出力に基づいてパーティクルフィルタで追跡しつつ推定した結果とモーショントラッカで実測した結果との比較の一部を示す図解図であり、(A)は位置xに関する比較を、(B)は位置yに関する比較を示す。It is an illustration figure which shows a part of comparison with the result estimated while tracking the position and attitude | position of a person with the particle filter based on the output of LRF, and the result actually measured with the motion tracker, (A) is a comparison regarding the position x. , (B) shows a comparison for position y. 人の位置および姿勢をLRFの出力に基づいてパーティクルフィルタで追跡しつつ推定した結果とモーショントラッカで実測した結果との比較の他の一部を示す図解図であり、(A)は体の方向θbに関する比較を、(B)は頭の方向θhに関する比較を示す。It is an illustration figure which shows the other part of the comparison with the result estimated while tracking a person's position and posture with the particle filter based on the output of LRF, and the result measured with the motion tracker, (A) is the direction of the body Comparison with respect to θb, (B) shows comparison with respect to the head direction θh.

(第1実施例)
図1を参照して、この実施例の計測装置10はコンピュータ12を含み、コンピュータ12には複数(ここでは16台)のレーザレンジファインダ(以下“LRF”と記す)14が接続される。なお、以下では、「3次元距離計測センサ」として、「レーザレンジファインダ」を例にとって説明するものの、この発明は、このような場合に限定されるものではなく、センサから対象までの3次元の距離が計測可能なセンサであれば他の装置を使用してもよい。たとえば、Microsoft社のKinect(登録商標)センサやパナソニック製の3次元距離画像センサD−IMagerなどを使用することも可能である。この種のセンサは、レーザレンジスキャナ,3Dスキャナ,測域センサなどと呼ばれる場合もある。
(First embodiment)
Referring to FIG. 1, a measuring apparatus 10 of this embodiment includes a computer 12, and a plurality of (here, 16) laser range finders (hereinafter referred to as “LRF”) 14 are connected to the computer 12. In the following description, the “laser range finder” will be described as an example of the “three-dimensional distance measurement sensor”. However, the present invention is not limited to such a case, and the three-dimensional distance from the sensor to the target is not limited. Another device may be used as long as the sensor can measure the distance. For example, it is also possible to use a Microsoft Kinect (registered trademark) sensor, a Panasonic three-dimensional distance image sensor D-IMAGEr, or the like. This type of sensor is sometimes called a laser range scanner, 3D scanner, range sensor, or the like.

コンピュータ12は、一般的なパーソナルコンピュータ(PC)でよく、たとえばキーボードなどの入力器12a,モニタなどの表示器12b,CPU12cおよびメモリ12dなどを備えている。なお、場合によっては、副コンピュータ(図示せず)に各LRF14を接続し、副コンピュータをコンピュータ12と接続する構成でもよい。   The computer 12 may be a general personal computer (PC), and includes an input device 12a such as a keyboard, a display device 12b such as a monitor, a CPU 12c, a memory 12d, and the like. In some cases, each LRF 14 may be connected to a secondary computer (not shown), and the secondary computer may be connected to the computer 12.

LRFは一般に、レーザ光を照射し、それが対象(物体や人体など)で反射して戻ってくるまでの時間から距離を計測する。この実施例のLRF14は、軸の周りをたとえば±45度の範囲で回転するミラー(図示せず)を含み、レーザ光の進路(角度β:図2参照)をこの回転ミラーでたとえば0.6度ずつ変化させながら計測を行う(レーザ光でスキャンする)ことができる。以下では、LRF14によってレーザ光でスキャン(走査)される平面をスキャン面と呼ぶ。また、LRF14で計測可能な距離は、レーザ光が人の目に影響を与えないよう、所定距離R(たとえば15m)以下に制限されている。このため、LRF14の計測領域(スキャン面Scn)は、たとえば図2(A)に示すような扇形、つまり半径Rで中心角90度の扇形となる。なお、スキャン面Scnの中心角は90度とは限らず、たとえば180度や360度などでもよい。   In general, the LRF irradiates a laser beam, and measures the distance from the time until it is reflected by the target (object, human body, etc.) and returned. The LRF 14 of this embodiment includes a mirror (not shown) that rotates around an axis in a range of, for example, ± 45 degrees, and the path of the laser beam (angle β: see FIG. 2) is, for example, 0.6 by this rotating mirror. Measurements can be performed (scanning with laser light) while changing each time. Hereinafter, a plane scanned with the laser beam by the LRF 14 is referred to as a scan plane. The distance measurable by the LRF 14 is limited to a predetermined distance R (for example, 15 m) or less so that the laser beam does not affect human eyes. Therefore, the measurement region (scanning surface Scn) of the LRF 14 has a fan shape as shown in FIG. 2A, for example, a fan shape having a radius R and a central angle of 90 degrees. Note that the central angle of the scan surface Scn is not limited to 90 degrees, and may be, for example, 180 degrees or 360 degrees.

さらに、LRF14は、上記のようなスキャン面Scnの傾斜角(つまり水平面に対するスキャン面Scnの角度α)をも、たとえば24度から90度の範囲で0.6度ずつ変化させる。つまり、2つの角度α,βを変化させながら距離dの計測を行うことができる。したがって、LRF14からの距離情報は3つの変数d,α,βを含んでおり、このような距離情報を“3次元距離情報”と呼ぶ。   Furthermore, the LRF 14 also changes the inclination angle of the scan surface Scn as described above (that is, the angle α of the scan surface Scn with respect to the horizontal plane) by 0.6 degrees within a range of 24 degrees to 90 degrees, for example. That is, the distance d can be measured while changing the two angles α and β. Therefore, the distance information from the LRF 14 includes three variables d, α, and β, and such distance information is referred to as “three-dimensional distance information”.

コンピュータ12は、このようなLRF14を通じて、対象の3次元距離情報を取得する。LRF14からの3次元距離情報には、図2(B)に示すように、対象Objをスキャン面Scnで切ったとき、その切断面Crsの輪郭線Ln上の各点Pについて距離dおよび角度α,βを示す情報(ローカル座標系)が含まれている。ただし、このLRF14からは、レーザ光が到達しない影の部分の2次元距離情報は得られないので、対象の全体像が必要な場合には、別の1つまたは2つ以上のLRF14を、たとえば対象を挟んで反対側に、または対象を取り囲むように配置する必要がある。   The computer 12 acquires the target three-dimensional distance information through the LRF 14. As shown in FIG. 2B, the three-dimensional distance information from the LRF 14 includes a distance d and an angle α for each point P on the contour line Ln of the cut surface Crs when the object Obj is cut by the scan surface Scn. , Β information (local coordinate system) is included. However, since the two-dimensional distance information of the shadow portion where the laser beam does not reach cannot be obtained from the LRF 14, if one or more LRFs 14 are necessary, It is necessary to arrange the object on the opposite side of the object or so as to surround the object.

したがって、複数のLRF14を所定の位置(既知)に設置すれば、コンピュータ12は、各々から対象の3次元距離情報を取得して、3次元空間(ワールド座標系)における位置(たとえば重心など特徴点の位置座標(x,y,z))および移動速度、さらには3次元形状および方向、そして姿勢(たとえば頭部,腕,脚など特徴部位の向き)を計算することができる。   Accordingly, if a plurality of LRFs 14 are installed at predetermined positions (known), the computer 12 acquires the target three-dimensional distance information from each of them and obtains a position (for example, a feature point such as the center of gravity) in the three-dimensional space (world coordinate system). Position coordinates (x, y, z)) and moving speed, as well as a three-dimensional shape and direction, and a posture (for example, the direction of a characteristic part such as a head, arm, leg) can be calculated.

ただし、LRF14で計測を行う場合、図3(A)に示すように、スキャン面Scnが水平面から傾斜しているために、図3(B)に示すように、対象までの水平面上の距離と比べて、計測される距離が見かけ上長くなる。また、図4に示すように、対象までの距離に応じて、対象を計測する高さ(z)が変化する。したがって、ローカル座標系からワールド座標系への変換処理に加えて、傾斜を補正するための座標系の変換処理も必要となる。   However, when the measurement is performed with the LRF 14, as shown in FIG. 3A, since the scan plane Scn is inclined from the horizontal plane, as shown in FIG. In comparison, the measured distance is apparently longer. Further, as shown in FIG. 4, the height (z) for measuring the object changes according to the distance to the object. Therefore, in addition to the conversion process from the local coordinate system to the world coordinate system, a coordinate system conversion process for correcting the inclination is also required.

具体的には、図3(A)および図3(B)を参照して、計測された各点の変換後の位置ベクトルx’=SP’は、傾斜LRF14iが水平に設置されていたと仮定した場合の位置ベクトルx=SPから、次式(数1)のように求められる。   Specifically, with reference to FIG. 3A and FIG. 3B, it is assumed that the position vector x ′ = SP ′ after conversion of each measured point has the slope LRF 14i installed horizontally. From the position vector x = SP in this case, the following equation (Equation 1) is obtained.

ここでnはセンサを回転する軸に平行な単位ベクトル、αはセンサの水平面からの傾斜角である。座標変換式は、回転行列を用いて次式(数2)のように記述できる。   Here, n is a unit vector parallel to the axis of rotation of the sensor, and α is an inclination angle of the sensor from the horizontal plane. The coordinate transformation formula can be described as the following formula (Formula 2) using a rotation matrix.

ここでIは3行3列の単位ベクトルであり、nの要素をn=(n,n,n)と定義した(nはnの転置)。 Here, I 3 is a unit vector of 3 rows and 3 columns, and n elements are defined as n = (n x , n y , n z ) ( t n is transposition of n).

このように、計測装置10は、スキャン面Scnの傾斜角αを変化させながら計測を行うので、1回の計測によって(たとえば傾斜角αが最小値24度から最大値90度まで変化する期間に)、対象の3次元形状を計算することができる。また、対象が停止していても、その3次元形状を計算することができる(ただし、対象が動いていれば、多様な位置関係で計測が行えるので、3次元形状の計算精度が高まる点で好ましい)。   As described above, the measurement apparatus 10 performs measurement while changing the inclination angle α of the scan surface Scn. Therefore, the measurement apparatus 10 performs a single measurement (for example, in a period in which the inclination angle α changes from a minimum value of 24 degrees to a maximum value of 90 degrees). ), The three-dimensional shape of the object can be calculated. In addition, even if the object is stopped, its 3D shape can be calculated (however, if the object is moving, measurement can be performed with various positional relationships, so that the calculation accuracy of the 3D shape is improved. preferable).

また、傾斜角αがこのように変化することで、計測領域が拡がると共に、複数の対象が密集している状態でも、対象群を直上ないしその近傍から計測した計測データに基づいて1つ1つの対象に容易に分離することができる。そして、様々な傾斜角で計測した計測データに基づいて、分離した1つ1つの対象の3次元形状を精度よく計算することができる。   In addition, by changing the inclination angle α in this way, the measurement area is expanded, and even when a plurality of objects are densely packed, one by one based on measurement data measured directly above or in the vicinity thereof. Can be easily separated into objects. And based on the measurement data measured with various inclination angles, the three-dimensional shape of each separated object can be calculated with high accuracy.

また、計測装置10では、上記のように計算した3次元形状から対象の種類(たとえば人体か物体か)ないし属性(たとえば、人体なら性別や大人/子供の区別、物体ならショッピングカート/手荷物の区別など)やプロファイル(たとえば身長など)を推定したり、姿勢(たとえば頭部の向き)から行動(たとえば通路沿いの店舗や案内板を見ながら歩く行動)を推定したりすることも可能となる。   In the measuring apparatus 10, the type (for example, human body or object) or attribute (for example, sex or adult / child distinction for the human body, shopping cart / baggage distinction for the object) from the three-dimensional shape calculated as described above. Etc.) and a profile (for example, height), or an action (for example, an action of walking while looking at a store or a guide board along a passage) from a posture (for example, the direction of the head) can be estimated.

そして、特に、上記のような計算および推定を複数の対象について同時に行うことで、対象間の関係(たとえば友人同士か家族連れか、あるいは他人か)を推定することもできるし、友人同士や家族連れといったグループの行動パターン(たとえば、友人同士が特定の店舗や案内板に注目したり、家族連れが特定の通路を通ったり、といった行動パターン)を解析することも可能となる。   In particular, by performing the calculation and estimation as described above for a plurality of targets at the same time, it is possible to estimate the relationship between the targets (for example, whether they are friends, family members, or others), and friends and family members. It is also possible to analyze a group's behavior pattern such as companion (for example, a behavior pattern in which friends pay attention to a specific store or information board, or a family travels through a specific passage).

16台のLRF14のショッピングセンタへの設置例を図4に示す。図4はショッピングセンタ内を上から見た上面図である。ショッピングセンタ内には、ワールド座標系として、たとえば床面上の点Oを原点に、床面の長辺および短辺に沿ってX軸およびY軸が定義され、さらにX軸およびY軸の両方に垂直なZ軸(鉛直上方)が定義される。   An example of installation of 16 LRFs 14 in a shopping center is shown in FIG. FIG. 4 is a top view of the shopping center as viewed from above. In the shopping center, as a world coordinate system, for example, an X axis and a Y axis are defined along the long side and the short side of the floor surface with the point O on the floor surface as the origin, and both the X axis and the Y axis are defined. A Z axis (vertically upward) perpendicular to is defined.

この例では、図4からわかるように、16台のLRF14は、ショッピングセンタを横(X軸方向)に貫く通路およびその両端に位置する広場ないしオープン形式の飲食店舗に跨って(ここでは10台が通路に、6台が広場等に)配置され、これら通路および広場等を計測領域としてカバーする。この黒枠で示された計測領域は、たとえば約1220平方メートルの広さを有し、計測領域の周囲には、各種の飲食店舗や物販店舗が軒を連ねている。   In this example, as can be seen from FIG. 4, the 16 LRFs 14 straddle a passage that penetrates the shopping center laterally (in the X-axis direction) and a plaza or an open-type restaurant located at both ends thereof (here 10 units). Are arranged in the aisle and 6 are in the plaza, etc., and the aisle and the plaza are covered as a measurement area. The measurement area indicated by the black frame has an area of about 1220 square meters, for example, and various restaurants and merchandise stores are lined up around the measurement area.

16台のLRF14のうち、通路沿いの10台(黒丸)は低所たとえば3.5mの高さに設置され、広場等の6台(白丸)は高所たとえば10mの高さに設置される。こうして、個々のLRF14の高さを当該LRF14が担当する計測領域の広さに応じて変えることで、効率のよい計測が行える。   Of the 16 LRFs 14, 10 (black circles) along the passage are installed at a low place, for example, 3.5 m, and 6 (white circles) such as a plaza are installed at a high place, for example, 10 m. Thus, efficient measurement can be performed by changing the height of each LRF 14 in accordance with the size of the measurement region that the LRF 14 is in charge of.

個々のLRF14は、たとえば図5に示すように、鉛直下方から前方に66度(24°≦α≦90°),左右に90度(−45°≦β≦45°)の範囲を計測することができる。したがって、あるLRF14の設置高さを8mとすると、身長1.8mの歩行者を対象として計測可能な範囲は、そのLRF14の直下で左右に12.4m、そのLRF14の66°(10.7m)前方では左右に30.5mとなる。   For example, as shown in FIG. 5, each LRF 14 measures a range of 66 degrees (24 ° ≦ α ≦ 90 °) forward and 90 degrees (−45 ° ≦ β ≦ 45 °) from left to right. Can do. Therefore, if the installation height of a certain LRF14 is 8 m, the measurable range for a pedestrian with a height of 1.8 m is 12.4 m right and left immediately below the LRF14, and 66 ° (10.7 m) of the LRF14. It is 30.5m on the left and right in front.

ある1つのLRF14による走査例を図6に示す。図6を参照して、1つ1つの黒点は、ある1つのLRF14から角度α,βを変えながら周期的に射出されたレーザ光が対象である人体または床面に到達する位置を表している。十字印“+”は、LRF14の直下位置を示す。このようなレーザ走査によって、LRF14自身から各黒点までの距離が計測され、計測結果から対象の位置や姿勢などの情報が得られる。   An example of scanning by one LRF 14 is shown in FIG. Referring to FIG. 6, each black dot represents a position where laser light periodically emitted from one LRF 14 while changing the angles α and β reaches the target human body or the floor. . A cross mark “+” indicates a position immediately below the LRF 14. By such laser scanning, the distance from the LRF 14 itself to each black spot is measured, and information such as the position and orientation of the target can be obtained from the measurement result.

なお、LRF14の角度分解能が0.6度×0.6度(つまり角度α,βの変化が0.6度刻み)の場合、LRF14から対象までの距離が8mであれば、黒点の間隔は8cm程度となって、人体の位置や姿勢を求めるのに十分な距離分解能が得られる。   When the angle resolution of the LRF 14 is 0.6 degrees × 0.6 degrees (that is, the changes in the angles α and β are in increments of 0.6 degrees), if the distance from the LRF 14 to the object is 8 m, the interval between the black spots is The distance resolution is about 8 cm, and sufficient distance resolution is obtained to determine the position and posture of the human body.

このようなLRF14を複数台設置して、異なる方向から計測を行うことで、孤立した対象に対して詳細な計測が行えると共に、隣接する複数の対象に対しても、それらを互いに分離することが容易になり、かつ遮蔽(ある対象が別の対象の陰に隠れること)による計測漏れを回避することができるので、安定した計測が行える。   By installing a plurality of such LRFs 14 and performing measurements from different directions, detailed measurements can be performed on isolated objects, and even a plurality of adjacent objects can be separated from each other. Since it becomes easy and measurement omission due to occlusion (being hidden behind another object) can be avoided, stable measurement can be performed.

なお、図1〜図6に示した構成や数値は一例であり、LRF14の個数およびそれらの配置、ならびに個々のLRF14の設置高さ,角度変域および角度分解能などは、必要に応じて適宜変更してよい。   The configurations and numerical values shown in FIGS. 1 to 6 are merely examples, and the number of LRFs 14 and their arrangements, the installation height of each LRF 14, the angular range, the angular resolution, and the like may be changed as necessary. You can do it.

次に、計測装置10のコンピュータ12が行う処理について説明する。最初、概要を説明する。コンピュータ12は、まず、16台のLRF14からの計測データに基づいて、対象の状態(たとえば位置,移動方向,3次元形状および姿勢など)をパーティクルフィルタでリアルタイムに推定する状態推定処理を実行する。   Next, processing performed by the computer 12 of the measuring apparatus 10 will be described. First, an outline will be described. First, the computer 12 executes state estimation processing for estimating a target state (for example, position, moving direction, three-dimensional shape, posture, and the like) in real time using a particle filter based on measurement data from the 16 LRFs 14.

パーティクルフィルタは、予測および観測を繰り返すことによって現在の対象の状態を推定する時系列フィルタの一種であり、具体的には、現状態から起こりうる次状態を多数のパーティクルに見立てて、観測された状態との間の尤度(類似度)をパーティクル毎に求め、全パーティクルを尤度に応じて加重平均した結果を現在の対象の状態であると推定する。そして、重みに従う新たなパーティクルを発生させ、同様の処理を繰り返すことで、対象の状態を逐次推定することができる。   A particle filter is a type of time-series filter that estimates the current target state by repeating prediction and observation. Specifically, the particle filter is observed by regarding the next state that can occur from the current state as many particles. The likelihood (similarity) between the states is obtained for each particle, and the result of weighted averaging of all particles according to the likelihood is estimated to be the current target state. Then, by generating new particles according to the weight and repeating the same processing, the target state can be estimated sequentially.

状態推定処理では、1つ1つの対象の状態を専用のパーティクルフィルタで推定する。したがって、たとえば10個の対象が検出されている状態では、10個のパーティクルフィルタが並列に動作しており、別の対象が検出されると、11個目のパーティクルフィルタが新たに生成される。   In the state estimation process, the state of each target is estimated by a dedicated particle filter. Therefore, for example, in the state where ten targets are detected, ten particle filters operate in parallel, and when another target is detected, an eleventh particle filter is newly generated.

コンピュータ12はまた、上記のような状態推定処理と並列的に、各対象の状態に基づいて、各対象が“一人”であるかグループに属するかを推定するグループ推定処理、および各対象が個別に行う行動(たとえば店舗や案内板を見る行動)を推定する個別行動推定処理をも実行する。   In parallel with the state estimation processing as described above, the computer 12 also performs group estimation processing for estimating whether each target is “one person” or belongs to a group based on the state of each target, and each target is individually The individual action estimation process for estimating the action to be performed (for example, the action of looking at a store or a guide board) is also executed.

そして、各種の推定処理が完了した後、コンピュータ12はさらに、推定結果に基づいてグループ行動を解析する。このグループ行動解析処理では、各グループを“友達同士”,“家族連れ”,“カップル”などのカテゴリに分類したり、個別行動情報をグループ毎に解析してグループ行動情報を作成したり、グループ行動情報をカテゴリ毎に解析してグループ行動パターン情報を作成したりする。   Then, after the various estimation processes are completed, the computer 12 further analyzes the group behavior based on the estimation result. In this group behavior analysis process, each group is classified into categories such as “friends”, “family”, “couple”, etc., group behavior information is created by analyzing individual behavior information for each group, Analyzing behavior information for each category to create group behavior pattern information.

次に、具体的な処理手順について、図7のメモリマップおよび図8〜図13のフローチャートを用いて、図14〜図17の図解も参照しながら説明する。上述したような一連の処理は、コンピュータ12のCPU12cが、メモリ12dに記憶された図7に示すようなプログラムおよびデータに基づいて、図8〜図13に示すようなフローに従う処理を実行することにより実現される。   Next, a specific processing procedure will be described using the memory map of FIG. 7 and the flowcharts of FIGS. 8 to 13 with reference to the illustrations of FIGS. In the series of processes as described above, the CPU 12c of the computer 12 executes processes according to the flow shown in FIGS. 8 to 13 based on the program and data shown in FIG. 7 stored in the memory 12d. It is realized by.

図7を参照して、メモリ12dにはプログラムエリア20およびデータエリア22が形成され、プログラムエリア22に計測プログラム32が格納される。計測プログラム32は、CPU12cを介してLRF14による計測処理を実現するソフトウェアプログラムであり、図8〜図13のフローのうち特に図8のメインフローに対応している。   Referring to FIG. 7, program area 20 and data area 22 are formed in memory 12 d, and measurement program 32 is stored in program area 22. The measurement program 32 is a software program that realizes measurement processing by the LRF 14 via the CPU 12c, and particularly corresponds to the main flow of FIG. 8 among the flows of FIGS.

計測プログラム32には、サブのソフトウェアプログラムである推定プログラム32aおよび解析プログラム32bが含まれている。推定プログラム32aは、パーティクルフィルタによる状態推定処理(図9)、属性/プロファイル推定処理(図10)、個別行動推定処理(図11)およびグループ推定処理(図12)を担当し、解析プログラム32bは、グループ解析処理(図13)を担当する。なお、図示は省略するが、プログラムエリア20には、入力器12aおよび表示器12bを制御してキー入力,画像出力などを実現する入出力制御プログラムなども記憶される。   The measurement program 32 includes an estimation program 32a and an analysis program 32b which are sub software programs. The estimation program 32a is in charge of state estimation processing (FIG. 9), attribute / profile estimation processing (FIG. 10), individual behavior estimation processing (FIG. 11) and group estimation processing (FIG. 12) using a particle filter, and the analysis program 32b is In charge of group analysis processing (FIG. 13). Although not shown, the program area 20 also stores an input / output control program for controlling the input device 12a and the display device 12b to realize key input, image output, and the like.

データエリア22には、計測データ34,変換データ36,パーティクルフィルタ38,対象情報40,グループ情報42,個別行動情報44,グループ行動情報46,グループ行動パターン情報48,3次元形状モデルデータベース(DB)50および地図データ52が記憶さる。計測データ34は、各LRF14による計測の結果を示すデータである(先述したような3次元距離情報を含む)。変換データ36は、計測データ34に後述するような2種類の座標変換処理を施して得られるデータである。パーティクルフィルタ38は、変換データ36に基づいて各対象(T1,T2,…)の状態を推定するための時系列フィルタであり、対象T1用パーティクルフィルタ38a,対象T2用パーティクルフィルタ38b,…を含む。   The data area 22 includes measurement data 34, conversion data 36, particle filter 38, target information 40, group information 42, individual action information 44, group action information 46, group action pattern information 48, and a three-dimensional shape model database (DB). 50 and map data 52 are stored. The measurement data 34 is data indicating the result of measurement by each LRF 14 (including three-dimensional distance information as described above). The conversion data 36 is data obtained by subjecting the measurement data 34 to two types of coordinate conversion processing as will be described later. The particle filter 38 is a time series filter for estimating the state of each target (T1, T2,...) Based on the conversion data 36, and includes a target T1 particle filter 38a, a target T2 particle filter 38b,. .

対象情報40は、各対象(T1,T2,…)の状態や属性/プロファイルを示す情報であり、パーティクルフィルタ38による推定の結果に基づいて作成される。具体的には、図16(A)に示すように、状態として位置,移動方向,3次元形状および姿勢が、属性/プロファイルとして身長,性別および大人/子供の区別が記述される。   The target information 40 is information indicating the state and attribute / profile of each target (T1, T2,...), And is created based on the estimation result by the particle filter 38. Specifically, as shown in FIG. 16A, the position, moving direction, three-dimensional shape and posture are described as states, and height, gender and adult / child distinction are described as attributes / profiles.

グループ情報42は、対象情報40から推定されるグループを示す情報であり、具体的には、図16(B)に示すように、各グループ(G1,G2,…)について要素およびカテゴリが記述される。このグループ情報42からは、対象T1およびT2でグループG1が構成され、二人は友達同士であることが分かる。また、対象T5〜T7でグループG2が構成され、三人は家族連れであることが分かる。なお、どのグループにも含まれない対象については、“一人”であるとみなされる。   The group information 42 is information indicating a group estimated from the target information 40. Specifically, as shown in FIG. 16B, elements and categories are described for each group (G1, G2,...). The From this group information 42, it can be seen that the groups T1 and T2 constitute a group G1, and that the two are friends. Moreover, group G2 is comprised by object T5-T7, and it turns out that three are families. Note that a subject that is not included in any group is considered to be “one person”.

個別行動情報44は、各対象(T1,T2,…)の個別的な行動を示す情報であり、対象情報40から推定される。個別行動情報44には、図16(C)に示すように、各対象(T1,T2,…)について、当該対象の地図上での軌跡と共に、当該対象の行動が「(対象T1は)店舗A,B,…および案内板Pを見た」,「(対象T2は)店舗A,C,…および案内板Pを見た」のように記述される。   The individual action information 44 is information indicating individual actions of each target (T1, T2,...) And is estimated from the target information 40. In the individual action information 44, as shown in FIG. 16C, for each target (T1, T2,...), Along with the trajectory of the target on the map, the target action is “(target T1) store. It is described as “I saw A, B,... And the guide plate P”, “(Target T2) saw store A, C,.

グループ行動情報46は、各グループ(G1,G2,…)の行動を示す情報であり、グループ情報42および個別行動情報44に基づいて作成される。グループ行動情報46には、図16(D)に示すように、各グループ(G1,G2,…)について軌跡および行動が記述される。たとえば、グループG1の軌跡は、グループG1に属する対象T1およびT2の軌跡を平均したものである。グループG1の行動は、グループG1に属する対象T1およびT2の行動に関する和集合であり、具体的には、「(対象T1は)店舗A,B,…および案内板Pを見た」および「(対象T2は)店舗A,C,…および案内板Pを見た」に基づいて「店舗A,B,C,…および案内板Pを見た」などのように記述される。   The group behavior information 46 is information indicating the behavior of each group (G1, G2,...), And is created based on the group information 42 and the individual behavior information 44. In the group action information 46, as shown in FIG. 16D, a trajectory and actions are described for each group (G1, G2,...). For example, the trajectory of the group G1 is an average of the trajectories of the objects T1 and T2 belonging to the group G1. The action of the group G1 is a union regarding the actions of the objects T1 and T2 belonging to the group G1, and specifically, “(the object T1) saw the stores A, B,... And the guide board P” and “( The object T2 is described as “I saw the stores A, B, C,... And the guide plate P” based on “I saw the stores A, C,.

グループ行動パターン情報48は、同じカテゴリに属するグループ行動に共通のパターンを示す情報であり、グループ情報42およびグループ行動情報46に基づいて作成される。グループ行動パターン情報48には、図16(E)に示すように、各カテゴリ(友達同士,家族連れ,カップル)について要素および行動パターンが記述される。たとえば、“友達同士” の行動パターンは、“友達同士”に属するグループG1,G5,…の行動に関する積集合であり、「(友達同士のグループは)店舗Aおよび案内板Pを見る」などのように記述される。   The group action pattern information 48 is information indicating a pattern common to group actions belonging to the same category, and is created based on the group information 42 and the group action information 46. In the group behavior pattern information 48, as shown in FIG. 16E, elements and behavior patterns are described for each category (friends, families, couples). For example, the action pattern of “friends” is a product set related to the actions of the groups G1, G5,... Belonging to “friends”, such as “(a group of friends) see store A and information board P”. Is described as follows.

3次元形状モデルDB50は、対象の3次元形状および姿勢を推定するための2種類のモデルM1およびM2を登録したデータベースである。モデルM1は、図14に示すような肩から上の身体形状を示すモデルであり、頭頂部の中心位置Oを原点として高さzおよび方向θにおける半径rを定義すると、r(z,θ)のように表現される。一方、モデルM2は、図15に示すような全身の骨格を示すモデルであり、楕円で示された頭部の骨、四辺形で示された胴体の骨、および8本の線分で示された手足の骨と、これらの骨を繋ぐ8個の黒丸で示された関節とで表現される。モデルM2では、肩から上がモデルM1に対応しており、各骨の長さR1〜R4,L1〜L4は既知である(計測データ34に基づいて計算された値がセットされる)。   The three-dimensional shape model DB 50 is a database in which two types of models M1 and M2 for estimating a target three-dimensional shape and posture are registered. The model M1 is a model showing the body shape above the shoulder as shown in FIG. 14. When the height z and the radius r in the direction θ are defined with the center position O of the head as the origin, r (z, θ) It is expressed as On the other hand, the model M2 is a model showing a whole body skeleton as shown in FIG. 15, and is shown by an ellipse of the head bone, a quadrilateral torso bone, and eight line segments. It is expressed by the bones of the limbs and the joints indicated by the eight black circles connecting these bones. In the model M2, the top from the shoulder corresponds to the model M1, and the lengths R1 to R4 and L1 to L4 of the bones are known (values calculated based on the measurement data 34 are set).

図8を参照して、計測処理が開始されると、CPU12cは、まず、ステップS1で初期処理を行う。初期処理では、たとえば、データエリア22内の各種情報(40〜49)の初期化、3次元形状モデルDB50へのモデルM1およびM2の登録、および地図データ52の取込みなどが行われる。   Referring to FIG. 8, when the measurement process is started, the CPU 12c first performs an initial process in step S1. In the initial processing, for example, various information (40 to 49) in the data area 22 is initialized, the models M1 and M2 are registered in the three-dimensional shape model DB 50, and the map data 52 is taken in.

初期処理が完了すると、ステップS3に進んで、各LRF14の傾斜角(α)を制御する。初回実行時には、変数αに初期値(たとえば24度)をセットし、2回目以降の実行時には、αを0.6度ずつ増加させていき、αが上限値(たとえば90度)に達するとαを初期値に戻して同様の動作を繰り返す。各LRF14は、CPU12cが指定した変数αに従ってスキャン面の傾斜角を変化させる。   When the initial processing is completed, the process proceeds to step S3, and the inclination angle (α) of each LRF 14 is controlled. At the first execution, an initial value (for example, 24 degrees) is set to the variable α. At the second and subsequent executions, α is increased by 0.6 degrees, and when α reaches the upper limit (for example, 90 degrees), α Is returned to the initial value and the same operation is repeated. Each LRF 14 changes the tilt angle of the scan surface according to the variable α designated by the CPU 12c.

次に、ステップS5で各LRF14から計測データ34を取得し、ステップS7では、その取得した計測データ34に、スキャン面Scnの傾斜を補正するための座標変換(数1および数2参照)を施す。そして、その座標変換された計測データをステップS9で空間的に統合する。言い換えると、ステップS7で座標変換された計測データに対してさらに、ローカル座標系からワールド座標系への座標変換を施す。   Next, in step S5, measurement data 34 is acquired from each LRF 14, and in step S7, coordinate conversion (see Equations 1 and 2) is performed on the acquired measurement data 34 to correct the inclination of the scan plane Scn. . Then, the coordinate-converted measurement data is spatially integrated in step S9. In other words, coordinate conversion from the local coordinate system to the world coordinate system is further performed on the measurement data subjected to coordinate conversion in step S7.

次に、ステップS11で、2種類の座標変換が施された後の計測データつまり変換データ36に基づいて対象を検出する。具体的な検出方法としては、床面の位置を予め入力しておき、床面より一定以上高い位置で検出された一定数以上の計測点の集合を対象とみなす方法がある。または、同じ方向を一定時間計測して、得られた最大距離を背景の位置として登録し、背景より一定距離以上手前にある1計測点の集合を対象とする方法も挙げられる。対象間の距離が接触するほど接近していない場合には、3次元空間上で相対的に近い距離に集まった計測点の集合を、クラスタリングによって個別の対象として分離して抽出することも可能である。いずれにしても、LRF14による3次元計測では、カメラを用いた3次元計測手法と比較して、個々の対象を分離しやすい利点がある。そして特に、スキャン面Scnの傾斜角αを変化させながら計測を行う場合には、計測領域が拡がると共に、個々の対象を分離して3次元形状を精度よく計算することができる。   Next, in step S11, an object is detected based on the measurement data after the two types of coordinate transformations, that is, the transformation data 36. As a specific detection method, there is a method in which the position of the floor surface is input in advance and a set of a predetermined number or more of measurement points detected at a position higher than the floor surface is regarded as a target. Another method is to measure the same direction for a certain period of time, register the obtained maximum distance as the position of the background, and target a set of one measurement point that is more than a certain distance before the background. When the distance between objects is not close enough to touch, a set of measurement points gathered at a relatively close distance in the three-dimensional space can be separated and extracted as an individual object by clustering. is there. In any case, the three-dimensional measurement using the LRF 14 has an advantage that individual objects can be easily separated as compared with the three-dimensional measurement method using a camera. In particular, when measurement is performed while changing the inclination angle α of the scan plane Scn, the measurement area is expanded, and each object can be separated and the three-dimensional shape can be accurately calculated.

その後、ステップS13に進んで、新たな対象が検出されたか否かを判別し、ここでNOであれば、ステップS15に移って、既検出の対象が消滅したか否かをさらに判別する。ここでもNOであれば、ステップS3に戻って上記と同様の処理を(たとえば0.1秒毎に:以下同様)繰り返す。   Then, it progresses to step S13, and it is discriminate | determined whether the new object was detected, and if it is NO here, it will move to step S15 and will further discriminate | determine whether the already detected object has disappeared. If “NO” here as well, the process returns to step S3 and repeats the same processing as described above (for example, every 0.1 second: the same applies hereinafter).

ステップS13でYESであれば、ステップS17に進んで、当該対象用のパーティクルフィルタ38を生成し、その後、ステップS3に戻って上記と同様の処理を繰り返す。ステップS15でYESであれば、ステップS19に進んで、当該対象用のパーティクルフィルタ38を削除し、その後、ステップS3に戻って上記と同様の処理を繰り返す。   If “YES” in the step S13, the process proceeds to a step S17 to generate the target particle filter 38, and thereafter, the process returns to the step S3 to repeat the same processing as described above. If “YES” in the step S15, the process proceeds to a step S19 to delete the target particle filter 38, and then returns to the step S3 to repeat the same processing as described above.

したがって、たとえば、2つの対象T1およびT2が検出されている状態では、これら対象T1およびT2用の2つのパーティクルフィルタ38aおよび38bがデータエリア22に記憶され、それらによる2つの状態推定処理が並列に実行されている。この状態で、新たな対象T3が検出されると、対象T3用のパーティクルフィルタ38cが追加され、一方、既検出の対象(たとえばT1)が消滅すると、当該対象用のパーティクルフィルタ38(たとえば対象T1用パーティクルフィルタ38a)は削除される。   Therefore, for example, in a state where two targets T1 and T2 are detected, two particle filters 38a and 38b for these targets T1 and T2 are stored in the data area 22, and the two state estimation processes by them are performed in parallel. It is running. In this state, when a new target T3 is detected, a particle filter 38c for the target T3 is added. On the other hand, when the already detected target (for example, T1) disappears, the target particle filter 38 (for example, the target T1) The particle filter 38a) is deleted.

こうして生成されたパーティクルフィルタ38a,38b,…による対象T1,T2,…の状態推定処理は、それぞれ図9のフローに従って実行される。すなわち、図9と同様のフローが、現在検出されている対象の数と同数だけ並列に実行される。このうち、パーティクルフィルタ38aによる対象T1の状態推定処理は、以下のようになる。   The state estimation processing of the objects T1, T2,... By the particle filters 38a, 38b,. That is, the same flow as in FIG. 9 is executed in parallel by the same number as the number of objects currently detected. Among these, the state estimation process of the target T1 by the particle filter 38a is as follows.

図9を参照して、まず、ステップS21で、パーティクルフィルタ38aに含まれる各パーティクルを初期化した後、ステップS23に進んで、対象T1の状態に関する複数の仮説を生成する。ここで状態には、位置,移動方向,3次元形状および姿勢(たとえば頭部の向き)などが含まれる。そして、ステップS25で、各パーティクルにいずれか1つの仮説を付与する。   Referring to FIG. 9, first, in step S21, each particle included in the particle filter 38a is initialized, and then the process proceeds to step S23 to generate a plurality of hypotheses relating to the state of the target T1. Here, the state includes a position, a moving direction, a three-dimensional shape, a posture (for example, a head direction), and the like. In step S25, any one hypothesis is assigned to each particle.

次に、ステップS27で、新たな計測データ34が取得されたか否かを判別し、NOであれば待機する。先述した計測処理(図8参照)によってデータエリア22内の計測データ34ひいては変換データ36が更新されると、ステップS27でYESと判別し、ステップS29〜S39の一連の処理を実行する。   Next, in step S27, it is determined whether or not new measurement data 34 has been acquired. When the measurement data 34 in the data area 22 and thus the conversion data 36 are updated by the above-described measurement processing (see FIG. 8), YES is determined in step S27, and a series of processing in steps S29 to S39 is executed.

すなわち、ステップS29では、モデルM1に基づいて、現在の計測値に対する各パーティクルの尤度を計算し、ステップS31では、全パーティクルを計算した尤度に応じて加重平均する。ステップS33では、その加重平均値を対象T1の状態に関する推定値として出力する。データエリア22に記憶された対象情報40は、こうして出力される推定値に基づいて更新される。   That is, in step S29, the likelihood of each particle with respect to the current measurement value is calculated based on the model M1, and in step S31, a weighted average is performed according to the calculated likelihood of all particles. In step S33, the weighted average value is output as an estimated value related to the state of the target T1. The target information 40 stored in the data area 22 is updated based on the estimated value output in this way.

さらに、ステップS35で、先に計算した尤度に基づきパーティクルの選択を行い、パーティクルの集合を更新した後、ステップS37に進んで、次の計測時点での各パーティクルの状態を予測する。そして、ステップS39で予測結果に基づき仮説を更新した後、ステップS25に戻って上記と同様の処理を繰り返す。   Further, in step S35, particles are selected based on the previously calculated likelihood, and after updating the set of particles, the process proceeds to step S37 to predict the state of each particle at the next measurement time point. And after updating a hypothesis based on a prediction result by step S39, it returns to step S25 and repeats the same process as the above.

これによって、対象T1の位置および姿勢は、具体的には以下のように推定される。この推定処理は、要するに、対象T1に対応する計測点の集合(ステップS5の検出結果)をXとして、Xに最も合うようなモデルM1の位置および正面の方向Αを求める手続きである。なお、モデルM1の正面方向Αは、対象T1の視線方向とみなしてよい。   Thus, the position and orientation of the target T1 are specifically estimated as follows. In short, this estimation process is a procedure for obtaining the position of the model M1 and the front direction Α that best fits X, where X is the set of measurement points corresponding to the target T1 (the detection result of step S5). Note that the front direction 正面 of the model M1 may be regarded as the line-of-sight direction of the target T1.

すなわち、最初、対象T1に対応する計測点(x,y,z)の集合をXにセットする。次に、先述のr(z,θ)で表現されるモデルM1(図13参照)に対し、ある位置および方向つまり(X,Α)を与える。そして、Xの各点Xiに次式(数3)による演算を行い、演算結果の集合をX’とする。 That is, first, a set of measurement points (x, y, z) corresponding to the target T1 is set to X. Next, a certain position and direction, that is, (X c , Α) is given to the model M1 (see FIG. 13) expressed by the aforementioned r (z, θ). Then, an operation according to the following equation (Equation 3) is performed on each point Xi of X, and a set of operation results is set as X ′.

このX’に対して、モデルM1つまりr=r(θ,z)との誤差errorを次式(数4)のように定義する。   For this X ′, an error error from the model M1, that is, r = r (θ, z) is defined as in the following equation (Equation 4).

ここでX’=(x’,y’,z’)t ,r’=√{x’+y’}である(ただし上付tは行列の転置を意味する)。 Here, X ′ = (x ′, y ′, z ′) t , r ′ = √ {x ′ 2 + y ′ 2 } (where superscript t means transposition of a matrix).

以上のような準備の後、パーティクルフィルタを用いて(X,Α)の様々な値に対するerrorを計算し、計算結果が最小になる(X *,Α*)を、対象T1に関する位置および方向の推定値とする。 After the preparation as described above, the error is calculated for various values of (X c , Α) using the particle filter, and (X c * , Α * ) having the minimum calculation result is calculated as the position of the target T1 and Estimated direction.

なお、(X *,Α*)の求め方については、たとえば、次式(数5)で与えられる計測点の中心位置〈X〉を初期値として、その周辺の値を探索する方法がある。 Note that (X c * , Α * ) can be obtained by, for example, a method of searching for a peripheral value using the center position <X c > of the measurement point given by the following equation (Equation 5) as an initial value. is there.

ここで、〈x〉,〈y〉はそれぞれXに含まれる計測点のx,y座標の平均であり、zmaxはXに含まれる計測点のz座標の最大値である。具体的には、Xとして〈X〉の近傍の様々な値を、Αとして全ての方向の様々な角度値をそれぞれ選択しながら、上式(数4)でerrorを計算し、計算結果が最小になるようなXおよびΑの組み合わせを(X *,Α*)として出力すればよい。 Here, <x> and <y> are averages of x and y coordinates of measurement points included in X, respectively, and z max is a maximum value of z coordinates of measurement points included in X. Specifically, various values in the vicinity of <X c> as X c, with respective selected all directions of various angles values as Alpha, calculates the error in the above equation (Equation 4), the calculation result A combination of Xc and Α that minimizes the value may be output as ( Xc * , Α * ).

なお、ここでは、位置および姿勢として、肩から上の位置および向きを推定したが、より特定的に、頭部の位置および向きを推定してもよい。この場合、たとえば肩に対する頭部の回転角度をパラメータとして持つモデル(図示せず)を用いることも考えられる。人の頭部の形状には個人差があるものの、左右の対象性などの一般的な特徴を反映したモデルを用いることで、頭部の向きの推定は可能である。さらには、このようなモデルを対象T1,T2,…毎に準備して、各対象から計測された頭部形状に基づいて各モデルを動的に変化させる(対象T1,T2,…毎に頭部の形状を学習していく)ことで、各対象について頭部の位置および向きを精度よく推定することができる。その際、頭部の平均的な向きは移動方向に一致すると仮定すれば、各対象が歩きながら見た店舗や案内看板を推定することも可能である。   Here, the position and orientation above the shoulder are estimated as the position and orientation, but more specifically, the position and orientation of the head may be estimated. In this case, for example, a model (not shown) having the rotation angle of the head with respect to the shoulder as a parameter may be used. Although there are individual differences in the shape of a person's head, the orientation of the head can be estimated by using a model that reflects general characteristics such as the right and left objects. Further, such a model is prepared for each target T1, T2,..., And each model is dynamically changed based on the head shape measured from each target (the head for each target T1, T2,. The position and orientation of the head can be accurately estimated for each target. At that time, if it is assumed that the average direction of the head coincides with the moving direction, it is also possible to estimate the store or the signboard that each object viewed while walking.

また、対象T1,T2,…の密度が比較的低い(重なり合わない程度に間隔が空いている)場合には、モデルM1を用いて求めた肩から上(頭部)の位置および方向を基準として、全身の骨格を示すモデルM2を適用することによって、さらに腕や脚の姿勢も推定できる。   Further, when the density of the objects T1, T2,... Is relatively low (they are spaced so as not to overlap), the position and direction above the shoulder (head) determined using the model M1 are used as a reference. By applying the model M2 indicating the whole body skeleton, the postures of the arms and legs can be estimated further.

モデルM1に加えてモデルM2を適用する利点は、モデルM1によって身長が既知となった結果、モデルM2によって腕や脚といった各部位の長さを精度よく推定できる点にある。加えて、モデルM1によって肩から上(頭部)の位置および向きが既知となるので、腕や脚といった各部位について可能な姿勢の候補数が削減され、その結果、モデルM2による姿勢の推定を効率的に行える点も挙げられる。   The advantage of applying the model M2 in addition to the model M1 is that the height of each part such as an arm and a leg can be accurately estimated by the model M2 as a result of the height being known by the model M1. In addition, since the position and orientation above the shoulder (head) are known by the model M1, the number of possible posture candidates for each part such as arms and legs is reduced. As a result, the posture estimation by the model M2 is performed. The point which can be performed efficiently is also mentioned.

モデルM2を用いた姿勢の推定では、まず、モデルM1を用いて求めた肩から上(頭部)の位置および方向に整合するように、モデルM2の頭部と肩(胴体)の姿勢を決め、次に、腕や脚といった各部位について、モデルM1を用いる場合と同様に可能な姿勢(ここでは8個の関節角の組)の候補を計算する。そして、計測点との誤差が最小になるような関節角の組を求め、それを各部位の姿勢として出力すればよい。   In the estimation of the posture using the model M2, first, the posture of the head and the shoulder (torso) of the model M2 is determined so as to match the position and direction of the upper (head) from the shoulder obtained using the model M1. Next, candidates for possible postures (here, a set of eight joint angles) are calculated for each part such as an arm and a leg in the same manner as when the model M1 is used. Then, a set of joint angles that minimizes an error from the measurement point may be obtained and output as the posture of each part.

移動方向および3次元形状についても、上記と同様に、まず可能な候補を計算し、次に、パーティクルフィルタ38aを用いて、計測点との誤差が最小となる移動方向および3次元形状を求め、それらを推定結果として対象情報40に記述すればよい。   For the moving direction and the three-dimensional shape, as in the above, first, possible candidates are calculated, and then using the particle filter 38a, the moving direction and the three-dimensional shape with the smallest error from the measurement point are obtained, What is necessary is just to describe them in the object information 40 as an estimation result.

パーティクルフィルタ38b,30c,…による対象T2,T3,…の状態推定処理もそれぞれ上記と同様に実行され、それらの推定結果が対象情報40に反映される。   The state estimation processing of the objects T2, T3,... By the particle filters 38b, 30c,... Is executed in the same manner as described above, and the estimation results are reflected in the object information 40.

上記のようにして推定された対象T1,T2,T3,…の状態(対象情報40)に基づく属性/プロファイル推定処理は、それぞれ図10のフローに従って実行される。すなわち、図10と同様のフローが、現在検出されている対象の数と同数だけ並列に実行される。このうち、対象T1の属性/プロファイル推定処理は、以下のようになる。   The attribute / profile estimation processing based on the states (target information 40) of the targets T1, T2, T3,... Estimated as described above is executed according to the flow of FIG. That is, the same flow as in FIG. 10 is executed in parallel by the same number as the number of objects currently detected. Among these, the attribute / profile estimation process of the target T1 is as follows.

最初、ステップS51で、繰り返し推定される3次元形状に基づいて、対象T1の属性ないしプロファイル、ここでは身長,性別および大人/子供を特定する。そして、特定に成功したか否かをステップS53で判別し、NOであればステップS51に戻って上記と同様の処理を繰り返す。ステップS53でYESであれば、その特定結果を対象情報40に記述した後、ステップS51に戻って上記と同様の処理を繰り返す。   First, in step S51, an attribute or profile of the target T1, here, height, sex, and adult / child are specified based on the repeatedly estimated three-dimensional shape. Then, it is determined in step S53 whether or not the identification has succeeded. If NO, the process returns to step S51 to repeat the same processing as described above. If “YES” in the step S53, the specifying result is described in the target information 40, and then the process returns to the step S51 to repeat the same processing as described above.

また、上記のようにして推定された対象T1,T2,T3,…の状態(対象情報40)に基づく個別行動推定処理は、それぞれ図11のフローに従って実行される。すなわち、図11と同様のフローが、現在検出されている対象の数と同数だけ並列に実行される。このうち、対象T1の個別行動推定処理は、以下のようになる。   Moreover, the individual action estimation process based on the state (target information 40) of the targets T1, T2, T3,... Estimated as described above is executed according to the flow of FIG. That is, the same flow as in FIG. 11 is executed in parallel by the same number as the number of objects currently detected. Among these, the individual action estimation process of the target T1 is as follows.

図11を参照して、最初、ステップS61で、繰り返し推定される位置(対象T1の現在位置)を蓄積していき、蓄積結果を対象T1の軌跡として個別行動情報44に記述する。次に、ステップS63で、繰り返し推定される2つの方向つまり移動方向および肩から上(頭部)の方向を比較して、肩から上(頭部)が移動方向とは異なる方向を向いたか否かを次のステップS65で判別する。   Referring to FIG. 11, first, in step S61, a position repeatedly estimated (current position of target T1) is accumulated, and the accumulation result is described in individual action information 44 as a trajectory of target T1. Next, in step S63, two directions repeatedly estimated, that is, the moving direction and the direction from the shoulder to the top (head) are compared, and whether or not the shoulder to the top (head) is directed in a direction different from the moving direction. This is discriminated in the next step S65.

肩から上(頭部)が移動方向に対して一定角度以上回転し、かつその状態が一定時間以上継続した場合に、ステップS65でYESと判別してステップS67に進む。一方、肩から上(頭部)の回転角が一定角度に満たないか、たとえ回転角が一定角度以上であってもその状態の継続時間が一定時間に満たない場合には、ステップS65でNOと判別し、ステップS61に戻って上記と同様の処理を繰り返す。   When the upper part from the shoulder (head) rotates by a certain angle or more with respect to the moving direction and the state continues for a certain time or more, it is determined as YES in Step S65, and the process proceeds to Step S67. On the other hand, if the rotation angle above the shoulder (head) is less than a certain angle, or if the duration of the state is less than a certain time even if the rotation angle is equal to or greater than a certain angle, NO is determined in step S65. And return to step S61 to repeat the same processing as above.

ステップS67では、地図データ52に基づいて、たとえば図17に示すように、肩から上(頭部)の向いた先、つまり視線方向に存在する店舗や案内板(ここでは店舗Aおよび案内板P)を特定する。そして、ステップS69で、その特定結果に基づいて、対象T1の行動たとえば「店舗Aと案内板Pを見た」を個別行動情報44に記述する。その後、ステップS61に戻って上記と同様の処理を繰り返す。   In step S67, based on the map data 52, for example, as shown in FIG. 17, a store or a guide board (here, the store A and the guide board P present in the direction from the shoulder to the top (head), that is, the line of sight. ). In step S69, based on the identification result, the behavior of the target T1, for example, “I saw the store A and the guide board P” is described in the individual behavior information 44. Then, it returns to step S61 and repeats the same process as the above.

これにより、個別行動情報44に記述された対象T1の軌跡および行動が周期的に更新されていく。たとえば、行動に関する記述は、「店舗Aと案内板Pを見た」→「店舗A,Bと案内板Pを見た」→「店舗A,B,…と案内板Pを見た」のように変化する。対象T2,T3,…の個別行動推定処理もそれぞれ上記と同様に実行され、それらの推定結果が個別行動情報44に反映される(図16(C)参照)。   Thereby, the locus | trajectory and action of object T1 described in the individual action information 44 are updated periodically. For example, the description about the action is “I saw the store A and the guide board P” → “I saw the store A, B and the guide board P” → “I saw the store A, B,. To change. The individual behavior estimation processing of the objects T2, T3,... Is also performed in the same manner as described above, and the estimation results are reflected in the individual behavior information 44 (see FIG. 16C).

また、先述のようにして推定された対象T1,T2,T3,…の状態に基づいて、図12のフローに従うグループ推定処理がさらに実行される。図12を参照して、最初、ステップS81で、グループ情報42を初期化する。これによって、各対象は、ひとまず“一人”とみなされる。次に、ステップS83で、対象情報40に基づいて、対象T1,T2,…の間で互いの位置および移動方向を比較し、そして、ステップS85で、位置が近接しかつ移動方向が共通の対象があるか否かを判別する。ここでNOであれば、所定時間の待機状態を経てステップS83に戻り、上記と同様の処理を繰り返す。   Further, based on the states of the targets T1, T2, T3,... Estimated as described above, a group estimation process according to the flow of FIG. Referring to FIG. 12, first, in step S81, group information 42 is initialized. In this way, each object is considered as “one person” for the time being. Next, in step S83, the positions and movement directions of the objects T1, T2,... Are compared based on the object information 40, and in step S85, the positions are close to each other and the movement direction is the same. It is determined whether or not there is. If “NO” here, the process returns to the step S83 through a standby state for a predetermined time, and the same processing as described above is repeated.

ステップS85でYESであれば、ステップS87に進んで、当該対象の間で互いの姿勢(肩から上ないし頭部の向き)を比較し、そしてステップS89で、肩から上ないし頭部が一定以上の頻度で相対する向きを向くか否かを判別する。ここでNOであれば、所定時間の待機状態を経てステップS83に戻り、上記と同様の処理を繰り返す。   If “YES” in the step S85, the process proceeds to a step S87 to compare the postures (the direction from the shoulder to the head) between the objects, and in the step S89, the upper part from the shoulder to the head is a certain level or more. It is discriminated whether or not they face each other at the frequency of. If “NO” here, the process returns to the step S83 through a standby state for a predetermined time, and the same processing as described above is repeated.

ステップS89でYESであれば、ステップS91に進んで、当該対象を1つのグループとしてグループ情報42(図16(B)参照)に登録する。その後、ステップS83に戻って上記と同様の処理を繰り返す。   If “YES” in the step S89, the process proceeds to a step S91 to register the target in the group information 42 (see FIG. 16B) as one group. Then, it returns to step S83 and repeats the same process as the above.

これによって、たとえば対象T1およびT2が1つのグループであると推定された場合、対象T1およびT2を要素とするグループG1がグループ情報42に登録される。その後に、たとえば対象T5〜T7が1つのグループであると推定されたとすると、対象T5〜T7を要素とするグループG2がグループ情報42に追加登録される。なお、図示は省略するが、ある時点まで1つのグループであると推定されていた対象(たとえばT1およびT2)が消滅ないし離散した場合、当該グループ(たとえばG1)の登録はグループ情報42から抹消される。   Thus, for example, when it is estimated that the targets T1 and T2 are one group, the group G1 having the targets T1 and T2 as elements is registered in the group information 42. Thereafter, for example, if it is estimated that the targets T5 to T7 are one group, the group G2 having the targets T5 to T7 as elements is additionally registered in the group information 42. Although illustration is omitted, when a target (for example, T1 and T2) estimated to be one group until a certain point in time disappears or is dispersed, the registration of the group (for example, G1) is deleted from the group information 42. The

一方、グループG1,G2,…の行動を解析するグループ行動解析処理は、上記のようして推定された対象T1,T2,T3,…の個別行動(個別行動情報44)に基づいて、図13のフローに従って実行される。   On the other hand, the group behavior analysis processing for analyzing the behavior of the groups G1, G2,... Is based on the individual behavior (individual behavior information 44) of the targets T1, T2, T3,. It is executed according to the flow.

図13を参照して、最初のステップS101では、対象情報40に記述された身長,性別および大人/子供の区別、ならびにグループ情報42に記述された要素の数(現在検出されている対象T1,T2,…の総数)に基づいて、各グループを友達同士,家族連れおよびカップルのいずれかのカテゴリに分類し、結果をグループ情報42に追記する。   Referring to FIG. 13, in the first step S101, the height, gender and adult / child distinction described in the target information 40, and the number of elements described in the group information 42 (the currently detected target T1, Based on the total number of T2,..., Each group is classified into one of the categories of friends, families, and couples, and the result is added to the group information 42.

次のステップS93では、個別行動情報44をグループ毎に解析して、グループ行動情報46を作成する。具体的には、グループG1に属する対象T1およびT2の軌跡からそれらの平均を求め、その平均軌跡をグループ行動情報46に記述する。また、対象T1およびT2の行動の和集合を求め、結果をグループ行動情報46にさらに記述する。   In the next step S93, the individual action information 44 is analyzed for each group, and the group action information 46 is created. Specifically, the average of the trajectories of the targets T1 and T2 belonging to the group G1 is obtained, and the average trajectory is described in the group action information 46. Further, a union of the actions of the objects T1 and T2 is obtained, and the result is further described in the group action information 46.

その次のステップS95では、グループ行動情報46をカテゴリ毎に解析して、グループ行動パターン情報48を作成する。具体的には、友達同士に分類されたグループ(たとえばG1,G5,…)の行動からそれらの積集合を求め、その結果を友達同士のグループの行動パターン(たとえば「店舗Aと案内板Pを見る」)としてグループ行動パターン情報48に記述する。家族連れ,カップルについても、同様に行動の積集合を求め、それぞれの結果を家族連れ,カップルの行動パターンとしてグループ行動パターン情報48に記述する。   In the next step S95, the group action information 46 is analyzed for each category, and group action pattern information 48 is created. Specifically, the product set of these is obtained from the behavior of the group (for example, G1, G5,...) Classified as friends, and the result is used to determine the behavior pattern of the group of friends (for example, “Store A and Information Board P. It is described in the group action pattern information 48 as “see”. Similarly, a set of behaviors is obtained for families and couples, and the results are described in the group behavior pattern information 48 as behavior patterns of families and couples.

こうして、各グループの分類,行動および行動パターンについて解析が完了すると、このグループ解析処理は終了される。   In this way, when the analysis on the classification, behavior, and behavior pattern of each group is completed, this group analysis processing is terminated.

なお、以上のフローでは、対象の状態をパーティクルフィルタ38で推定したが、カルマンフィルタなど他の時系列フィルタで推定してもよいし、時系列フィルタリング以外の方法たとえば動的計画法(Dynamic Programming)によるDPマッチングなどによって推定してもよい。   In the above flow, the target state is estimated by the particle filter 38, but may be estimated by another time series filter such as a Kalman filter, or by a method other than the time series filtering, for example, by dynamic programming. You may estimate by DP matching etc.

以上から明らかなように、この実施例の計測装置10は、スキャン面Scnが傾斜した16台のLRF14をショッピングセンタ内に配置して、複数の対象(T1,T2,…)を計測する。なお、LRF14の台数は、計測領域に応じて適宜な台数が選ばれてよく、場合によっては1台でもよい。LRF14の配置は、それぞれの計測領域が適宜オーバーラップするように決められるが、場合によっては、オーバーラップはなくてもよい。   As is clear from the above, the measuring apparatus 10 of this embodiment measures 16 objects (T1, T2,...) By arranging 16 LRFs 14 with the scan plane Scn inclined in the shopping center. As the number of LRFs 14, an appropriate number may be selected according to the measurement region, and may be one according to circumstances. The arrangement of the LRF 14 is determined so that the respective measurement areas overlap appropriately, but in some cases, there is no need for overlap.

詳しくは、計測装置10のコンピュータ12は、ステップS1で、複数の対象に関する3次元形状モデル(M1,M2)をDB50に登録し、その後、ステップS3で、LRF14を制御してスキャン面Scnの水平面に対する傾斜角αを24度〜90度の範囲で変化させつつ、ステップS5〜S19およびS21〜S39で複数の対象それぞれのパーティクルフィルタ38a,38b,…を用いてLRF14からの計測データ34(変換データ36)と3次元形状モデル50(M1,M2)との比較を行うことにより複数の対象それぞれの状態(位置,移動方向,3次元形状および姿勢)を推定する。なお、傾斜角αの変化範囲は、24度〜90度に限らず、分離の容易さと計測領域の広さとのバランスを考慮して、適宜な範囲(たとえば20度〜80度や30度〜150度など)を選べばよい。   Specifically, the computer 12 of the measuring apparatus 10 registers the three-dimensional shape models (M1, M2) related to a plurality of objects in the DB 50 in step S1, and then controls the LRF 14 in step S3 to control the horizontal plane of the scan plane Scn. The measurement data 34 (conversion data) from the LRF 14 using the particle filters 38a, 38b,... Of the plurality of objects in steps S5 to S19 and S21 to S39 while changing the inclination angle α with respect to. 36) and the three-dimensional shape model 50 (M1, M2) are compared to estimate the state (position, moving direction, three-dimensional shape and posture) of each of the plurality of objects. Note that the change range of the inclination angle α is not limited to 24 degrees to 90 degrees, and an appropriate range (for example, 20 degrees to 80 degrees or 30 degrees to 150 degrees) in consideration of the balance between the ease of separation and the width of the measurement region. You can choose a degree).

こうして、傾斜角αを変化させつつ計測を行うことで、複数の対象T1,T2,…の分離が容易となり、分離された複数の対象T1,T2,…それぞれにパーティクルフィルタ38a,38b,…を用いることで、それぞれの3次元形状および姿勢を精度よく推定することができる。また、動く対象でも停止した対象でも、その3次元形状を推定できる。   Thus, by measuring while changing the inclination angle α, the separation of the plurality of targets T1, T2,... Becomes easy, and the particle filters 38a, 38b,. By using it, each three-dimensional shape and posture can be accurately estimated. In addition, the three-dimensional shape can be estimated for both moving and stopped objects.

特に、3次元形状モデルとして、肩から上の身体形状モデルM1を用いることで、肩から上ないし頭部の3次元形状および向き(Α:図17参照)を推定できるし、全身の骨格モデルM2も併用することで、腕や脚の向きの推定も可能になる。   In particular, by using the body shape model M1 above the shoulder as the three-dimensional shape model, the three-dimensional shape and orientation (次 元: see FIG. 17) of the top or head from the shoulder can be estimated, and the whole body skeleton model M2 By using together, it is possible to estimate the orientation of arms and legs.

また、頭部の3次元形状から、身長などのプロファイルや、性別,大人/子供の区別といった属性を推定することができるし、頭部の向きΑからは、特定の店舗や案内板を見るといった行動(個別行動)の推定も可能である。   In addition, from the three-dimensional shape of the head, it is possible to estimate profiles such as height, gender, adult / child distinction, etc., and looking at specific stores and information boards from the head orientation Behavior (individual behavior) can also be estimated.

そして、複数の対象T1,T2,…の間で位置,移動方向および姿勢(頭部の向きΑ)を比較することによってグループか一人かの推定も行えるし、グループG1,G2,…を各対象の属性に基づいて複数のカテゴリ(友達同士,家族連れおよびカップルなど)に分類することも可能である。   Then, by comparing the position, moving direction, and posture (head orientation Α) among a plurality of objects T1, T2,... It is also possible to classify into a plurality of categories (friends, families, couples, etc.) based on the attributes of

さらには、個別行動情報44をグループ毎に解析することでグループ行動情報46を作成したり、グループ行動情報46をカテゴリ毎に解析してグループ行動パターン情報48を作成したりすることもできる。   Further, group behavior information 46 can be created by analyzing the individual behavior information 44 for each group, or group behavior pattern information 48 can be created by analyzing the group behavior information 46 for each category.

このほか、混雑した状況でも一人一人の位置が計測可能になることにより、特定の場所を訪れる正確な人数を集計することができる。また、混雑した状況でも一人一人の移動軌跡を求めることが可能であり、一人一人の移動軌跡からグループ単位での移動軌跡(平均軌跡)を求めることもできる。これらにより、人の移動を妨げる原因を調査したり、環境内に新たな物体を置いた場合やイベントを行った場合の人の流れを調べたりすることが可能になる。   In addition, since the position of each person can be measured even in a crowded situation, the exact number of people who visit a specific place can be counted. In addition, it is possible to obtain the movement trajectory of each person even in a crowded situation, and it is also possible to obtain a movement trajectory (average trajectory) for each group from the movement trajectory of each person. As a result, it becomes possible to investigate the cause that hinders the movement of a person, or to investigate the flow of a person when a new object is placed in the environment or when an event is performed.

また、上記のような調査を行う際に、大人と子供を区別して集計したり、男女別に集計したりすることができるし、大人/子供や性別といった属性による行動パターンの違いを解析することも可能になる。   In addition, when conducting surveys as described above, it is possible to aggregate adults and children separately, or to aggregate by gender, and to analyze differences in behavior patterns depending on attributes such as adults / children and sex. It becomes possible.

さらに、肩の位置から人の上半身の方向を知ることができるし、特に、顔の向いている方向から人の興味を持つ対象を推定することも可能である。多くの人が興味を示す対象の位置を求めることにより、案内の設置や広告の設置を検討する根拠を得ることができる。   Furthermore, it is possible to know the direction of the upper body of the person from the position of the shoulder, and in particular, it is possible to estimate the object of interest of the person from the direction in which the face is facing. By obtaining the positions of objects that many people are interested in, it is possible to obtain grounds for considering the installation of guidance and advertisements.

加えて、グループ推定を行い、グループを単位として群集の行動を解析することで、一人一人を他人として扱った場合と比べて、より実際に近い行動を知ることができる。   In addition, by performing group estimation and analyzing the behavior of the crowd in units of groups, it is possible to know behaviors that are closer to reality than when each person is treated as another person.

こうして、計測装置10は、LRF14で複数の対象T1,T2,…を計測して、多様な情報を得ることができる。   In this way, the measuring device 10 can measure a plurality of objects T1, T2,... With the LRF 14, and obtain various information.

そして、これらの情報は、たとえば、環境内でロボットを動かす際に有用である。具体的には、ロボットは、環境内での人の移動の統計解析を行うことにより、場所や時間による人の動きの違いを理解して、人の動きを遮らないように動くことができる。また、人の通常移動する経路に沿って、人の動きに寄り添いながらサービスをすることが可能になる。また、サービスを行う場所まで移動する際に、多くの人が移動する経路を避ける制御を行ったり、多くの人が興味を示す方向を避ける(つまり人の視界にできるだけ入らないようにする)制御を行ったりすることも可能である。また、リアルタイムに計測された人の位置および頭部の向き(視線方向:人が興味を示した方向)に基づいて、人の興味に応じたサービスを行うことも可能である。また、人のグループを認識することにより、グループの中に割り込まないように移動したり、グループ全員で食事のできる場所を紹介したりといった、グループで訪れた人に適したサービスを提案することが可能である。
(第2実施例)
この実施例(第2実施例)の計測装置10のハードウェア構成は、前の実施例(第1実施例)の計測装置10のそれと同様である。よって、図1〜図3を援用し、詳しい説明を省略する。また、計測装置10の基本動作および設置環境等も、前の実施例の場合と同様なので、図4〜図6を援用し、詳しい説明を省略する。
These pieces of information are useful, for example, when moving the robot in the environment. Specifically, the robot can move so as not to obstruct the movement of the person by performing a statistical analysis of the movement of the person in the environment to understand the difference in the movement of the person depending on the place and time. In addition, it becomes possible to provide services while closely following the movement of the person along the path of the person's normal movement. In addition, when moving to the place where the service is performed, control is performed to avoid the route that many people move, and control to avoid the direction in which many people are interested (that is, to avoid entering the human field of view as much as possible). It is also possible to perform. It is also possible to provide a service according to the person's interest based on the person's position and head orientation (line-of-sight direction: the direction in which the person showed interest) measured in real time. In addition, by recognizing a group of people, it is possible to propose a service suitable for people visiting the group, such as moving so as not to interrupt the group or introducing places where everyone can eat. Is possible.
(Second embodiment)
The hardware configuration of the measuring device 10 of this embodiment (second embodiment) is the same as that of the measuring device 10 of the previous embodiment (first embodiment). Therefore, FIG. 1 to FIG. 3 are used and detailed description is omitted. Further, since the basic operation and installation environment of the measuring apparatus 10 are the same as those in the previous embodiment, FIGS. 4 to 6 are used and detailed description thereof is omitted.

この実施例と前の実施例との間で計測装置10の動作上の主要な相違は、人の姿勢を推定するにあたって、後者が、図17に示されるように、頭部ないしは肩から上の全体的な方向を検出している(つまり体の方向と頭の方向とを特に区別していない)のに対し、前者は、図18に示されるように、体の方向(θb)と頭の方向(θh)とを明確に区別する点にある。   The main difference in operation of the measuring apparatus 10 between this embodiment and the previous embodiment is that in estimating the person's posture, the latter is above the head or shoulder as shown in FIG. While the whole direction is detected (that is, the body direction and the head direction are not particularly distinguished), the former, as shown in FIG. 18, shows the body direction (θb) and the head direction. The point is to clearly distinguish the direction (θh).

これは、コンピュータ12の処理でいえば、パーティクルフィルタによる状態推定処理(図9参照)に供される変数(位置,移動方向,3次元形状および姿勢を示す変数)のうち、姿勢を示す変数の数が、前の実施例の場合よりも1つ多い、という違いになる。   In terms of processing by the computer 12, among variables (variables indicating position, moving direction, three-dimensional shape and posture) used for state estimation processing (see FIG. 9) by the particle filter, The difference is that the number is one more than in the previous embodiment.

したがって、メモリ12dの内容およびCPU12の処理も、一部を除いて前の実施例と同様なので、図7〜図17を援用し、共通点についての説明は省略または簡略化する。以下、上記の相違点を中心に、図18〜図30を用いて詳しく説明する。   Accordingly, the contents of the memory 12d and the processing of the CPU 12 are the same as those of the previous embodiment except for a part thereof, so that explanations of the common points are omitted or simplified with reference to FIGS. Hereinafter, it demonstrates in detail using FIGS. 18-30 centering on said difference.

図19には、LRF14の出力(3Dスキャンデータ)に基づいて人の位置および姿勢(体の方向および頭の方向)を計測する方法(頭と両肩が検出された場合)が示される。この位置&姿勢計測方法は、(A)頭上部および肩の検出、(B)特徴抽出、および(C)位置および姿勢の計算、の大きく3段階で構成される。
(A)頭上部および肩の検出
一人の被験者(人体の少なくとも肩から上)に対応する3Dスキャンデータ(以下単に“3Dスキャン”)を層化し、頭上層のデータ(“頭上層”)および肩の層のデータ(“肩の層”)を抽出する。
FIG. 19 shows a method of measuring the position and posture (body direction and head direction) of a person based on the output (3D scan data) of the LRF 14 (when the head and both shoulders are detected). This position & orientation measurement method is mainly composed of three stages: (A) detection of the upper head and shoulders, (B) feature extraction, and (C) calculation of position and orientation.
(A) Detection of the upper head and shoulders The 3D scan data (hereinafter simply referred to as “3D scan”) corresponding to one subject (at least above the shoulder of the human body) is layered, and the upper layer data (“overhead layer”) and shoulder The data of the layer (“shoulder layer”) is extracted.

具体的には、計測装置10は、図20に示されるように、LRF14の出力に基づく人体の3Dスキャン(SC)を、最も上の点つまり頭頂点(HTP)から所定幅(たとえば10cm)で水平方向にスライスして、上から1番目の層(頭頂点を0として、0〜10cmの範囲に入る点の集合)および4番目の層(30〜40cmの範囲に入る点の集合)をそれぞれ頭上層(HLY)および肩の層(SLY)として抽出する。   Specifically, as shown in FIG. 20, the measurement apparatus 10 performs a 3D scan (SC) of the human body based on the output of the LRF 14 with a predetermined width (for example, 10 cm) from the top point, that is, the head vertex (HTP). Slicing horizontally, the first layer from the top (set of points that fall in the range of 0-10 cm with the top vertex being 0) and the fourth layer (set of points that fall in the range of 30-40 cm) Extract as overhead layer (HLY) and shoulder layer (SLY).

なお、スライス幅は、固定値でもよいが、好ましくは、身長(大人/子供)に応じて変化するパラメータであり、たとえば、身長170cm(大人)の場合は10cm、身長100cm(子供)の場合は6.5cm、などのように設定される。   The slice width may be a fixed value, but is preferably a parameter that varies depending on the height (adult / child). For example, when the height is 170 cm (adult), the height is 10 cm, and when the height is 100 cm (child). It is set to 6.5 cm.

または、上記のように一定間隔で均等にスライスする代わりに、人体形状に応じた間隔で不均等にスライスしてもよい(たとえば、第1層は10cm、第4層は13cmなど)。または、いったん均等にスライスした後、各層に属する点の数を計数して、その比率が人体形状と適合するように各層の幅を調節する方法もある。   Alternatively, instead of slicing evenly at regular intervals as described above, slicing may be unevenly spaced at intervals according to the human body shape (for example, the first layer is 10 cm, the fourth layer is 13 cm, etc.). Alternatively, after slicing evenly, the number of points belonging to each layer is counted, and the width of each layer is adjusted so that the ratio matches the shape of the human body.

図20の人体に対応する典型的な3Dスキャンの形状を、頭上層および肩の層にそれぞれ黒およびグレーのハッチングを付けて、図21〜図24に示す。図21は、LRF14の計測角が90度で、人がLRF14に対して横向きの場合の形状を、図22は、LRF14の計測角が90度で、人がLRF14に対して正面向きの場合の形状を、図23は、LRF14の計測角が0で、人がLRF14に対して正面向きの場合の形状を、図24は、LRF14の計測角が30〜40度で、人がLRF14に対して横または斜め向きの場合の形状を、それぞれ示している。   A typical 3D scan shape corresponding to the human body of FIG. 20 is shown in FIGS. 21-24 with black and gray hatching on the overhead and shoulder layers, respectively. FIG. 21 shows the shape when the measurement angle of the LRF 14 is 90 degrees and the person is sideways with respect to the LRF 14. FIG. 22 shows the shape when the measurement angle of the LRF 14 is 90 degrees and the person is facing the front with respect to the LRF 14. FIG. 23 shows the shape when the measurement angle of the LRF 14 is 0 and the person is facing the front with respect to the LRF 14. FIG. 24 shows the shape when the measurement angle of the LRF 14 is 30 to 40 degrees and the person is with respect to the LRF 14. The shapes in the case of landscape or oblique orientation are shown.

なお、この実施例で「計測角」とは、LRF14の光軸が鉛直線に対してなす角をいい、LRF14を真下に向けた場合は0度、真横に向けた場合は90度となる。前の実施例で用いた「傾斜角」(α:図3(A)参照)との間では、“計測角=90°−α”の関係がある。   In this embodiment, the “measurement angle” refers to an angle formed by the optical axis of the LRF 14 with respect to the vertical line. The angle is 0 degrees when the LRF 14 is directed downward and 90 degrees when the LRF 14 is directed sideways. There is a relationship of “measurement angle = 90 ° −α” with the “inclination angle” (α: see FIG. 3A) used in the previous embodiment.

LRF14の計測領域を図5のように設定した場合、つまりLRF14を8mの高さに設置して、鉛直線に対し±45度の振り角で0〜66度の範囲を計測する場合に得られるのは、図23または図24のような3Dスキャンである。図23の例では、頭上部の全部または大部分と左右両方の肩とを視認できるのに対し、図24の例では、頭上部の一部と一方の肩しか視認できない。ここでは、図23に示されるように、頭上部の全部または大部分と両肩とが検出されたものとする。
(B)特徴抽出
まず、(1)頭上層から“頭の中心点”を求め、(2)肩の層からは“体の方向ベクトル”を求める。次に、(3)頭上層から、体の方向ベクトルに対して最も後ろにある“頭の後部点”(“頭後点”ともいう:図18参照)を求め、さらに(4)頭上層から、“頭の後部点”に対して最も遠いところにある“頭の前部点”(“頭前点”ともいう)を求める。
When the measurement region of the LRF 14 is set as shown in FIG. 5, that is, when the LRF 14 is installed at a height of 8 m and a range of 0 to 66 degrees is measured with a swing angle of ± 45 degrees with respect to the vertical line. Is a 3D scan as shown in FIG. In the example of FIG. 23, all or most of the upper part of the head and both the left and right shoulders can be visually recognized. In the example of FIG. 24, only a part of the upper part of the head and one shoulder can be visually recognized. Here, as shown in FIG. 23, it is assumed that all or most of the upper part of the head and both shoulders have been detected.
(B) Feature extraction First, (1) “the center point of the head” is obtained from the overhead layer, and (2) “body direction vector” is obtained from the shoulder layer. Next, (3) from the overhead layer, the “posterior point of the head” (also referred to as “back of head point”: see FIG. 18) that is the most backward with respect to the body direction vector is obtained, and (4) from the overhead layer Then, the “frontal point of the head” (also referred to as the “frontal point”) that is farthest from the “rear point of the head” is obtained.

より具体的には、図18も参照して、計測装置10は、(1)頭上層の中心点(P:つまり頭上層に含まれる点の平均、あるいは頭上層の重心)を求め、これを“頭の中心点”とする。また、(2)肩の層に主成分分析を施し、その第2主成分を“体の方向”とする。なお、この場合の第1主成分は、両肩をつなぐ線の方向である。前後の向きは、「一般に肩よりも頭が前方にある」という人体の特徴に基づいて決められる。これにより、体の方向を示すベクトル(体の方向ベクトルVb)が求まる。   More specifically, referring also to FIG. 18, the measuring apparatus 10 obtains (1) the center point of the overhead layer (P: the average of points included in the overhead layer or the center of gravity of the overhead layer) “Head center point”. (2) A principal component analysis is performed on the shoulder layer, and the second principal component is defined as “body direction”. In this case, the first main component is the direction of the line connecting both shoulders. The front-rear direction is determined based on the human body characteristic that “the head is generally ahead of the shoulder”. Thereby, a vector indicating the direction of the body (body direction vector Vb) is obtained.

次に、計測装置10は、(3)頭上層において、体の方向ベクトルVbに対して最も後方のものから一定数の点(たとえば頭上層全体の1/5の点)を特定し、その特定された点で構成される頭後領域(HRA)の中心点を求めて、これを“頭後点”(HRP)とする。1/5という割合は、一例に過ぎず、適宜変更されてよい(たとえば25%など)。   Next, the measuring apparatus 10 identifies (3) a certain number of points (for example, 1/5 of the entire overhead layer) from the rearmost one with respect to the body direction vector Vb in the overhead layer. The center point of the occipital region (HRA) composed of the determined points is obtained, and this is set as the “occipital point” (HRP). The ratio of 1/5 is merely an example, and may be changed as appropriate (for example, 25%).

なお、上記のように頭後領域を決める場合、図18に示されるように、頭上層を頭後領域HRAとそれ以外の領域とに区分する境界線BN1は、両肩をつなぐ線SLNと一般に一致しない。他の実施例では、頭上層のうち両肩をつなぐ線SLNよりも後方の領域を頭後領域と定義してもよい(この場合の境界線BN1は、両肩をつなぐ線SLNと常に一致する:図示せず)。両肩をつなぐ線SLNは、たとえば、肩の層の中心点を通り、かつ肩の層の第1主成分に平行な直線として求めることができる。また、境界線BN1は、直線とは限らず、曲線でもよい(部分的にまたは全体的に湾曲したり折れ曲がったりしていてもよい)。   When determining the occipital region as described above, as shown in FIG. 18, the boundary line BN1 that divides the overhead layer into the occipital region HRA and the other regions is generally the same as the line SLN connecting both shoulders. It does not match. In another embodiment, the region behind the line SLN connecting the shoulders in the overhead layer may be defined as the occipital region (the boundary line BN1 in this case always coincides with the line SLN connecting the shoulders). : Not shown). The line SLN connecting the shoulders can be obtained as, for example, a straight line that passes through the center point of the shoulder layer and is parallel to the first principal component of the shoulder layer. In addition, the boundary line BN1 is not limited to a straight line, but may be a curved line (may be partially or entirely curved or bent).

次に、計測装置10は、(4)頭上層において、頭後点に対して遠い順に一定数の点(たとえば頭上層全体の1/5の点)を特定し、その特定された点で構成される頭前領域(HFA)の中心点を求め、これを“頭前点”(HFP)とする。1/5という割合もまた、適宜変更されてよい(たとえば30%など)。   Next, the measuring apparatus 10 specifies (4) a certain number of points (for example, 1/5 points of the entire overhead layer) in the order of distance from the back of the head in the overhead layer, and is configured by the identified points. The center point of the prefrontal region (HFA) to be obtained is obtained, and this is set as the “frontal point” (HFP). The ratio of 1/5 may also be changed as appropriate (for example, 30%).

なお、この場合、頭上層を頭前領域とそれ以外の領域とに区分する境界線BN2は、図18に示されるように曲線(円弧)となるが、他の実施例では、直線でもよい。たとえば、頭の中心点Pに関して、頭後領域側の境界線BN1と対称な直線を求め、これを境界線BN2と定義する。この場合、頭上層において境界線BN2よりも前方の領域が、頭前領域となる。
(C)位置および姿勢の計算
前段の(1)で求めた頭の中心点を人の“位置”P(x,y)とし、(2)で求めた体の方向ベクトルVbの方向を“体の方向”θbとし、そして(3)で求めた頭後点から(4)で求めた頭前点に向かう方向を“頭の方向”θhとする。具体的には、計測装置10は、人の状態を示す変数のうち位置および姿勢を示す変数(x,y,θbおよびθh)に計算結果をセットする。
In this case, the boundary line BN2 that divides the overhead layer into the frontal region and the other region is a curve (arc) as shown in FIG. 18, but may be a straight line in other embodiments. For example, with respect to the center point P of the head, a straight line symmetrical to the boundary line BN1 on the occipital region side is obtained, and this is defined as the boundary line BN2. In this case, a region in front of the boundary line BN2 in the overhead layer is a prefrontal region.
(C) Calculation of position and posture The center point of the head obtained in (1) in the previous stage is the person's “position” P (x, y), and the direction of the body direction vector Vb obtained in (2) is “body”. Direction θb, and the direction from the back of the head determined in (3) to the front of the head determined in (4) is referred to as “head direction” θh. Specifically, the measuring device 10 sets the calculation result to variables (x, y, θb, and θh) that indicate positions and postures among variables that indicate a person's state.

一方、頭上部の一部と片方の肩しか検出されない場合の計測方法は、たとえば図25のようになる。この計測方法は、前述した図19の計測方法の一部を変更したものであり、共通部分の説明は省略または簡略化する。
(A)頭上部および肩の検出
前述と同様の手順で3Dスキャンを層化し、第1および第4層を抽出した結果、図24に示すように、頭上部の一部と一方の肩とが検出されたとする。
(B)特徴抽出
まず、(1)頭上層から前述と同様の手順で“頭の中心点”を求める。また、(2a)頭上層および肩の層(つまり頭と一方の肩)から、他方の肩(頭に隠れて見えない肩)を計算する。人体の左右対称性つまり「両肩は頭に対して左右対称な位置にある」という特徴、および「一般に肩よりも頭が前方にある(頭は両肩をつなぐ線よりも前方にある)」という特徴を考慮すると、検出された頭および一方の肩の位置に対して可能な他方の肩の位置は、図26(A)および図26(B)に示すように2通りある。どちらの配置が適当かは、前後の向きで決まる。そして、前後の向きは、人体の特徴点たとえば頭の中心点の移動方向に基づいて判定できる。一例として、現フレームで求めた頭の中心点と、前フレームで求めた頭の中心点との比較から前後の向きを判定し、この向きに適合する方の配置を採用すればよい。
On the other hand, a measurement method when only a part of the upper head and one shoulder are detected is as shown in FIG. 25, for example. This measurement method is obtained by changing a part of the measurement method of FIG. 19 described above, and description of common parts is omitted or simplified.
(A) Detection of upper head and shoulder As a result of layering the 3D scan and extracting the first and fourth layers by the same procedure as described above, as shown in FIG. Suppose that it was detected.
(B) Feature extraction First, (1) “the center point of the head” is obtained from the overhead layer in the same procedure as described above. Also, (2a) the other shoulder (should not be seen by being hidden by the head) is calculated from the upper layer and the shoulder layer (that is, the head and one shoulder). Symmetry of the human body, that is, the characteristic that “both shoulders are symmetrical with respect to the head” and “the head is generally ahead of the shoulder (the head is ahead of the line connecting the shoulders)” In view of the above feature, there are two possible positions of the other shoulder with respect to the detected position of the head and one shoulder as shown in FIGS. 26 (A) and 26 (B). Which arrangement is appropriate is determined by the front-rear direction. The front-rear direction can be determined based on the moving direction of the human body feature point, for example, the center point of the head. As an example, the front-rear direction may be determined from a comparison between the center point of the head obtained in the current frame and the center point of the head obtained in the previous frame, and an arrangement that matches this direction may be adopted.

次に、(2b)検出された方の肩と、計算された方の肩とをつなぐ線(SLN1またはSLN2:図26(A)および図26(B)参照)に垂直なベクトルを求め、これを体の方向ベクトル(Vb)とする。そして、前述と同様の手順で、(3)頭上層から体の方向ベクトルに対して最も後ろにある頭後点を求め、さらに、(4)頭上層から頭後点に対して最も遠いところにある頭前点を求める。
(C)位置および姿勢の計算
前段の(1)で求めた頭の中心点を人の“位置”P(x,y)とし、(2b)で求めた体の方向ベクトルの方向を“体の方向”θbとし、そして(3)で求めた頭後点から(4)で求めた頭前点に向かう方向を“頭の方向”θhとする。
Next, (2b) a vector perpendicular to the line (SLN1 or SLN2: see FIG. 26 (A) and FIG. 26 (B)) connecting the detected shoulder and the calculated shoulder is obtained, Is the body direction vector (Vb). Then, in the same procedure as described above, (3) the farthest posterior point with respect to the body direction vector from the overhead layer is obtained, and (4) the farthest from the overhead layer to the posterior point. Find a certain frontal point.
(C) Calculation of position and posture The center point of the head obtained in (1) in the previous stage is the person's “position” P (x, y), and the direction of the body direction vector obtained in (2b) is “ The direction “θb” is set, and the direction from the back of the head determined in (3) to the front of the head determined in (4) is “head direction” θh.

この場合、頭上層に頭の一部しか含まれないため、位置の誤差が生じるが、モーショントラッカを用いた検証結果によれば、最大10cm程度の誤差にとどまる。また、体の方向の誤差は平均10度(両肩が見えていれば平均5度)、頭の方向の誤差は平均20度(計測角が小さいか、人がLRF14の方を向いていれば10度)である(詳細は後述)。   In this case, since only a part of the head is included in the overhead layer, a position error occurs. However, according to the verification result using the motion tracker, the error is only about 10 cm at the maximum. The body direction error is an average of 10 degrees (5 degrees if both shoulders are visible), and the head direction error is an average of 20 degrees (if the measurement angle is small or the person is facing LRF14) 10 degrees) (details will be described later).

以上のような位置および姿勢の計測方法は、コンピュータ12(CPU12c)が図27のフローに従い動作することで実現される。図27のフローは、図9のフローにおいて、ステップS29で尤度計算を行うときパーティクルフィルタに入力される、現在の位置および姿勢に関する計測値を求める処理(以下“位置&姿勢計測処理”と呼ぶ)である。そして、図27のフローは、図9のフローと同様、図8のフローのステップS11で検出された対象毎に実行される。したがって、たとえば同時に3人の被験者が検出されている状態では、図9のフローおよび図27のフローが3組、並列的に実行されることになる。   The position and orientation measurement method as described above is realized by the computer 12 (CPU 12c) operating according to the flow of FIG. The flow of FIG. 27 is a process for obtaining a measurement value related to the current position and orientation that is input to the particle filter when the likelihood calculation is performed in step S29 in the flow of FIG. 9 (hereinafter referred to as “position & orientation measurement process”). ). The flow in FIG. 27 is executed for each target detected in step S11 of the flow in FIG. 8 as in the flow in FIG. Therefore, for example, when three subjects are detected at the same time, three sets of the flow of FIG. 9 and the flow of FIG. 27 are executed in parallel.

図27を参照して、CPU12cは、まず、ステップS111で初期処理を実行する。具体的には、“位置”,“体の方向”および“頭の方向”(を示す変数x,y,bθおよびθh)を初期化したり、3Dスキャン,頭上層および肩の層といったテンポラリデータの保持領域(図示は省略するが、たとえば図7に示すメモリ12dのデータエリア22内に形成される)をクリアしたりする。   Referring to FIG. 27, first, the CPU 12c executes an initial process in step S111. Specifically, “position”, “body direction” and “head direction” (indicating variables x, y, bθ and θh) are initialized, temporary data such as 3D scan, overhead layer and shoulder layer are stored. The holding area (not shown, but formed in, for example, the data area 22 of the memory 12d shown in FIG. 7) is cleared.

初期処理が完了すると、ステップS113に進み、データエリア22から当該対象の3Dスキャンデータを取得する。なお、各対象の3Dスキャンデータは、LRF14の出力に対してクラスタリングを行って得られるデータであり、データエリア22に記憶された対象情報40の中に含まれている。次に、ステップS113で取得した3Dスキャンデータに対し、ステップS115で層化処理(図20参照)を施す。そして、層化結果から頭上層(HLY)および肩の層(SLY)をステップS117で抽出する。なお、3Dスキャンを層化して頭上層および肩の層を抽出する具体的な手順は、先に説明したので省略する。   When the initial processing is completed, the process proceeds to step S113, and the target 3D scan data is acquired from the data area 22. The 3D scan data of each target is data obtained by clustering the output of the LRF 14 and is included in the target information 40 stored in the data area 22. Next, a layering process (see FIG. 20) is performed on the 3D scan data acquired in step S113 in step S115. Then, an overhead layer (HLY) and a shoulder layer (SLY) are extracted from the stratification result in step S117. The specific procedure for layering the 3D scan and extracting the overhead layer and the shoulder layer has been described above and will not be described.

次に、ステップS117の抽出結果に基づいて、頭および肩が検出されたか否かをステップS119で判別する。具体的には、たとえば、抽出された頭部層に含まれる点の個数を計数して、その個数が第1所定数を上回れば頭が検出されたとみなし、そうでなければ頭は検出されなかったとみなす。同様に、肩の層に含まれる点の個数を計数して、その個数が第2所定数を上回れば肩が検出されたとみなし、そうでなければ肩は検出されなかったとみなす。ステップS119の判別結果は、頭および肩が共に検出されたとみなされる場合にYESとなり、少なくとも一方が検出されなかったとみなされる場合にはNOとなる。   Next, based on the extraction result in step S117, it is determined in step S119 whether a head and a shoulder have been detected. Specifically, for example, the number of points included in the extracted head layer is counted, and if the number exceeds the first predetermined number, it is considered that the head has been detected, otherwise the head is not detected. It is considered to be. Similarly, the number of points included in the shoulder layer is counted, and if the number exceeds the second predetermined number, it is considered that the shoulder has been detected, and otherwise the shoulder is not detected. The determination result in step S119 is YES when it is considered that both the head and the shoulder have been detected, and NO when it is considered that at least one of them has not been detected.

ステップS119でNOであれば、ステップS113に戻って上記と同様の処理を繰り返す。なお、このステップS113からS119を経てS113に戻るループ、またはテップS113からS135を経てS131に戻るループ(後述)は、1フレームに1回の周期で(たとえば1/30秒毎に)実行される。なお、この周期は一例であり、適宜変更されてよい(たとえば6フレームに1回など)。周期が時間的に変動してもよい。   If “NO” in the step S119, the process returns to the step S113 to repeat the same processing as described above. The loop returning from step S113 to S119 and returning to S113, or the loop returning from step S113 to S135 and returning to S131 (described later) is executed once per frame (for example, every 1/30 seconds). . This period is an example, and may be changed as appropriate (for example, once every 6 frames). The period may vary with time.

ステップS119でYESであれば、ステップS121に進み、ステップS117で抽出した頭上層から頭の中心点(P)を計算し、結果を“位置”とする(変数x,yにセットする)。具体的な計算方法は、先に説明したので省略する。次のステップS123では、検出された肩は両肩であるか否かを判別する。具体的には、肩の層において、“頭の中心点”を挟んで両側(左右)に略均等でかつ一定以上離れた2つの領域が形成されている場合、YES(両肩である)と判別する。一方、“頭の中心点”の片側に単一の領域しか形成されていない場合、または、両側に2つの領域が形成されていても、互いに不均等(一方が小さ過ぎ)であったり距離が近過ぎたりする場合、NO(片方の肩である)と判別する。   If “YES” in the step S119, the process proceeds to a step S121, the center point (P) of the head is calculated from the overhead layer extracted in the step S117, and the result is set to “position” (set to the variables x and y). Since the specific calculation method was demonstrated previously, it abbreviate | omits. In the next step S123, it is determined whether or not the detected shoulders are both shoulders. Specifically, in the shoulder layer, if two regions that are substantially equal and separated by a certain distance or more are formed on both sides (left and right) across the “center of the head”, YES (both shoulders) and Determine. On the other hand, if only a single region is formed on one side of the “head center point”, or two regions are formed on both sides, they are not equal to each other (one is too small) or the distance is If it is too close, NO (is one shoulder) is determined.

ステップS123でNOであれば、ステップS125を経てステップS127進む。ステップS123でYESであれば、直ちにステップS127に進む。ステップS125では、ステップS117で抽出した頭上層つまり一方の肩と、ステップS121で計算した頭の中心点とに基づいて、他方の肩(頭に隠れて見えない肩)を計算する(図26(A),図26(B)参照)。具体的な計算方法は、先に説明したので省略する。   If “NO” in the step S123, the process proceeds to the step S127 through the step S125. If “YES” in the step S123, the process immediately proceeds to a step S127. In step S125, the other shoulder (should not be seen by being hidden by the head) is calculated based on the upper layer, that is, one shoulder extracted in step S117 and the center point of the head calculated in step S121 (FIG. 26 ( (See A) and FIG. 26B). Since the specific calculation method was demonstrated previously, it abbreviate | omits.

なお、先の説明では、他方の肩の位置として図26(A)および図26(B)のどちらに示された位置が適当かを前後の向きに基づいて判断する際に、現フレームで求めた頭の中心点と前フレームで求めたそれとの比較から移動方向を判別して前後の向きを決定したが、対象情報40に記述された3次元形状から前後の向きを決定することもできる。たとえば、3次元形状から顔の面や鼻の突起などを検出できた場合には、頭の中心点に対して顔や鼻がある方を前方とみなせばよい。   In the above description, when the position of the other shoulder shown in FIG. 26 (A) or FIG. 26 (B) is appropriate is determined based on the front and back directions, it is obtained in the current frame. The front and rear direction is determined by determining the moving direction from the comparison between the center point of the head and that obtained in the previous frame, but the front and rear direction can also be determined from the three-dimensional shape described in the target information 40. For example, when a face surface or a nose protrusion can be detected from a three-dimensional shape, the face or nose with respect to the center point of the head may be regarded as the front.

ステップS127では、検出(または推定)した両肩をつなぐ線に垂直なベクトルつまり体の方向ベクトルVbを主成分分析によって計算する。具体的な計算方法は、先に説明したので省略する。なお、主成分分析に代えて、一方の肩の中心点および他方の肩の中心点をそれぞれ求め、これら2つの中心点をつなぐ線の法線ベクトルを計算しても、体の方向ベクトルVbを求めることができる。こうして計算した体の方向ベクトルVbの方向をステップS129で“体の方向”として(変数θbにセットして)、ステップS131に進む。   In step S127, a vector perpendicular to the line connecting the detected (or estimated) shoulders, that is, a body direction vector Vb is calculated by principal component analysis. Since the specific calculation method was demonstrated previously, it abbreviate | omits. It should be noted that, instead of principal component analysis, even if the center point of one shoulder and the center point of the other shoulder are respectively obtained and the normal vector of the line connecting these two center points is calculated, the body direction vector Vb is obtained. Can be sought. The direction of the body direction vector Vb thus calculated is set as “body direction” (set to the variable θb) in step S129, and the process proceeds to step S131.

ステップS131では、ステップS117で抽出した頭上層およびステップS129で計算した体の方向に基づいて頭後点(HRP:図18参照)を計算し、次のステップS133では、ステップS117で抽出した頭上層およびステップS131で計算した頭後点に基づいて頭前点(HFP:図18参照)を計算する。頭後点さらには頭前点の具体的な計算方法は、先に説明したので省略する。   In step S131, an occipital point (HRP: see FIG. 18) is calculated based on the overhead layer extracted in step S117 and the body direction calculated in step S129. In the next step S133, the overhead layer extracted in step S117. And the frontal point (HFP: see FIG. 18) is calculated based on the backside point calculated in step S131. Since the specific calculation method of the occipital point and the occipital point has already been described, it will be omitted.

そして、ステップS131で計算した頭後点からステップS133で計算した頭前点へ向かう方向を求め、これを“頭の方向”とする(変数θhにセットする)。その後、ステップS113に戻って上記と同様の処理を繰り返す。   Then, the direction from the back of the head calculated in step S131 toward the front of the head calculated in step S133 is obtained, and this is set as the “head direction” (set to the variable θh). Then, it returns to step S113 and repeats the same process as the above.

これにより、当該対象の現時点での“位置”,“体の方向”および“頭の方向”が繰り返し(周期的に)計算され、毎回の計算結果は、現在時刻情報と関連付けられて、対象情報40に追記される。こうして、対象情報40には、当該対象の“位置”,“体の方向”および“頭の方向”を示す計測値(変数x,y,θbおよびθhの時間的な変化を示す情報)が記述される結果となる。   As a result, the current “position”, “body direction”, and “head direction” of the target are repeatedly (periodically) calculated, and each calculation result is correlated with the current time information to obtain the target information. 40 is added. Thus, in the target information 40, measurement values (information indicating temporal changes in the variables x, y, θb, and θh) indicating the “position”, “body direction”, and “head direction” of the target are described. Result.

図9に示したパーティクルフィルタによる状態推定処理では、次の点が変更される。ステップS23では、当該対象の状態(位置,移動方向,3次元形状および姿勢)に関する複数の仮説を生成する際に、位置として上記の“位置”が、姿勢として上記の“体の方向”および“頭の方向”が採用される。ステップS29では、3次元形状モデルに基づいて現在の計測値に対する各パーティクルの尤度を計算する際に、現在の位置および姿勢に関する計測値として、当該対象の“位置”,“体の方向”および“頭の方向”に関する計測値(変数x,y,θbおよびθhの値)が参照される。   In the state estimation process by the particle filter shown in FIG. 9, the following points are changed. In step S23, when generating a plurality of hypotheses relating to the state of the target (position, moving direction, three-dimensional shape and posture), the above-mentioned “position” is used as the position, and the “body direction” and “ The “head direction” is adopted. In step S29, when calculating the likelihood of each particle for the current measurement value based on the three-dimensional shape model, the “position”, “body direction” of the target and Reference is made to the measurement values (values of variables x, y, θb and θh) relating to the “head direction”.

この実施例でのステップS29の尤度計算は、たとえば次のように行われる。パーティクルフィルタとしては、SIR(Sampling Importance Resampling)パーティクルフィルタを用いる。これにより、異なるLRF14の計測エリア間を遷移中にも連続追跡が行え、よりスムーズな推定結果が得られる。また、2Dレンジスキャナのような他のタイプのレーザレンジファインダ(測域センサ)を用いたり、異なる種類のセンサを組み合わせて用いたりすることも容易になる。ただし、場合によっては、SIR以外のパーティクルフィルタ、たとえばSIS(Importance Sampling)パーティクルフィルタなどを用いてもよい。   The likelihood calculation in step S29 in this embodiment is performed as follows, for example. A SIR (Sampling Importance Resampling) particle filter is used as the particle filter. Thereby, continuous tracking can be performed during transition between measurement areas of different LRFs 14, and a smoother estimation result can be obtained. In addition, it becomes easy to use another type of laser range finder (a range sensor) such as a 2D range scanner or a combination of different types of sensors. However, in some cases, a particle filter other than SIR, for example, an SIS (Importance Sampling) particle filter may be used.

パーティクルの状態は、位置(x,y),速度v,移動方向θ,体の方向θおよび頭の方向θによって与えられる(前出のθbおよびθhは、以下では下付添字を用いてθおよびθのように記される)。これらは、図4や図18に示すワールド座標系(X,Y,Z)で定義される変数であり、移動方向θ,体の方向θおよび頭の方向θは、所定方向(たとえばX軸方向)に対する角度として示される。フィルタ予測ステップで使われる動きモデルは、ゼロ平均ガウスノイズを付加することによるこれらの変数の更新を含む。パーティクルmに関する速度,移動方向,体の方向および頭の方向のノイズパラメータとして、σ =0.2[m/s2],σ =σ =σ =0.2[rad]を用いる。予測位置(x’,y’)は、予測された速度および移動方向に基づいて計算される。 The state of the particle is given by the position (x, y), the velocity v, the moving direction θ m , the body direction θ b and the head direction θ h (the above θb and θh are shown below using subscripts). Θ b and θ h ). These are variables defined in the world coordinate system (X, Y, Z) shown in FIGS. 4 and 18, and the moving direction θ m , the body direction θ b and the head direction θ h are defined in a predetermined direction (for example, X-axis direction). The motion model used in the filter prediction step involves updating these variables by adding zero mean Gaussian noise. As noise parameters of the velocity, movement direction, body direction and head direction regarding the particle m, σ m v = 0.2 [m / s 2 ], σ m m = σ m b = σ m h = 0.2 [ rad]. The predicted position (x ′, y ′) is calculated based on the predicted speed and moving direction.

パーティクルmの重みを決定するために、5つの独立した尤度モデルの組み合わせとして、入力の尤度p(z|m)を次式(6)のように定義する(簡略な表記法を用いる)。   In order to determine the weight of the particle m, the input likelihood p (z | m) is defined as the following equation (6) as a combination of five independent likelihood models (using a simple notation). .

p = pxybmhb …(6)
位置に関する尤度は、ガウス関数pxy(z|m)〜N(dxy,σ xy)で定義される。ここでdxyは、計測および予測された頭部位置間のユークリッド距離である。分散パラメータσ xyは、実験では0.2[m]に設定される。
p = p xy p b p h p bm p hb (6)
The likelihood regarding the position is defined by a Gaussian function p xy (z | m) to N (d xy , σ l xy ). Here, d xy is the Euclidean distance between the measured and predicted head positions. The dispersion parameter σ l xy is set to 0.2 [m] in the experiment.

体の方向に関する尤度は、推定された体の方向p(z|m)〜N(d,σ b1)を中心とするガウシアンで定義される。ここでd=|θ−θ’|は、抽出および予測された体の方向([−π,π]に規格化されている)の間の絶対差分であり、分散はσ b1=0.5[rad]に設定される。同様に、頭の方向に関する尤度は、p(z|m)〜N(d,σ ),d=|θ−θ’|およびσ =0.5[rad]で与えられる。 The likelihood regarding the direction of the body is defined by Gaussian centered on the estimated body direction p b (z | m) to N (d b , σ l b1 ). Where d b = | θ b −θ ′ b | is the absolute difference between the extracted and predicted body direction (normalized to [−π, π]) and the variance is σ l b1 = 0.5 [rad] is set. Similarly, the likelihood regarding the direction of the head, p h (z | m) ~N (d h, σ l h), d h = | θ h -θ 'h | and σ l h = 0.5 [rad ] Is given.

上式(6)の最後の2項は、推定された値についての実用的な限定と選択を導くものであり、pbm(m)の項が整列した体および移動方向への僅かな傾向を与える。人は専ら前向きに歩くという事実を反映したものであり、これは次式(7)のように定義される。 The last two terms of equation (6) lead to practical limitations and choices about the estimated values, and the terms of p bm (m) are aligned and show a slight tendency towards the direction of movement. give. This reflects the fact that people walk exclusively forward, and this is defined as:

bm 〜wbm1N(dbm,σ m)+wbm2 …(7)
ここでdbm =|θ’−θ’|は、予測された体の方向と移動方向との間の絶対差分であり、wbm1=0.2,wbm2=0.8,そしてσ bm=0.5[rad]である。
p bm to w bm1 N (d bm , σ l b m) + w bm2 (7)
Where d bm = | θ ′ b −θ ′ m | is the absolute difference between the predicted body direction and the direction of movement, w bm1 = 0.2, w bm2 = 0.8, and σ l bm = 0.5 [rad].

上式(6)のphb(m)項は、体の方向および頭の方向の間の差分に注目して、尤もらしいこと―大半の人は頭を前方から90度以上回すことができない、という仮定は順当に見える―の確認をまず試みる。加えて、「人は前方を向いて頭を回転させる傾向がある」(実験的証拠が“J. Schrammel, E. Mattheiss, S. Dobelt, L. Paletta, A. Almer, and M. Tscheligi, “Attentional behavior of users on the move towards pervasive advertising media,” in Pervasive Advertising, J. Muller, F. Alt, and D. Michelis, Eds. Springer, 2011, ch. 14”に示されている)、という仮定も採用する。これは、次式(8)のようにモデル化される。 The phb (m) term in equation (6) is plausible , focusing on the difference between the body direction and the head direction—most people cannot turn their heads more than 90 degrees from the front, This assumption seems reasonable-try to check first. In addition, “people tend to turn their heads forward” (experimental evidence is “J. Schrammel, E. Mattheiss, S. Dobelt, L. Paletta, A. Almer, and M. Tscheligi,“ Attentional behavior of users on the move towards pervasive advertising media, ”in Pervasive Advertising, J. Muller, F. Alt, and D. Michelis, Eds. Springer, 2011, ch. 14”) adopt. This is modeled as the following equation (8).

hb<πであればphb=1−dhb /(2π),そうでなければphb=0…(8)
ここでdhbは、体の方向と頭の方向との間の絶対差分(ラジアン単位)である。このモデルは、頭の方向推定における大きなエラーおよびアウトライヤ(飛び値)の影響を制限すると共に、推定が行えないときに頭の方向を体の方向に揃える。
If d hb <π, then p hb = 1−d hb / (2π), otherwise p hb = 0 (8)
Where d hb is the absolute difference (in radians) between the body direction and the head direction. This model limits the effects of large errors and outliers in head direction estimation and aligns the head direction with the body direction when estimation cannot be performed.

こうして、対象の姿勢を推定する際に、“体の方向”および“頭の方向”が明確に区別される。また、そのような推定結果を利用することで、個別行動推定処理(図11参照)やグループ推定処理(図12参照)において、より細かい推定を行ったり、推定の精度を高めたりすることができる。   Thus, when estimating the posture of the object, the “body direction” and the “head direction” are clearly distinguished. In addition, by using such an estimation result, it is possible to perform finer estimation or improve estimation accuracy in the individual action estimation process (see FIG. 11) or the group estimation process (see FIG. 12). .

具体的には、図11の個別行動推定処理において、ステップS63で“体の方向”および“頭の方向”の各々を移動方向と比較し、ステップS65では“体の方向”および“頭の方向”の各々が移動方向とは異なる向きを向いたかを判別することで、頭および体が当該店舗の方を向いたのか、頭だけが店舗の方を向いたのかの区別が可能となる。たとえば、頭および体が当該店舗の方を向いた場合は関心の度合いが高く、頭だけが店舗の方を向いた場合は関心の度合いが低い、と仮定すれば、ステップS69では、当該対象が当該店舗を見た旨と共に、関心の度合いをも記述することができる。   Specifically, in the individual action estimation process of FIG. 11, each of “body direction” and “head direction” is compared with the movement direction in step S63, and “body direction” and “head direction” are compared in step S65. It is possible to distinguish whether the head and the body are facing the store or only the head is facing the store by discriminating whether each of “is directed in a direction different from the moving direction. For example, assuming that the degree of interest is high when the head and body are facing the store, and the degree of interest is low when only the head is facing the store, in step S69, the target is Along with seeing the store, the degree of interest can be described.

また、図12のグループ推定処理において、ステップS87では、“頭の方向”だけでなく“体の方向”についても比較を行い、ステップS89では、頭および体の両方が相対する向きを向く(つまり当該対象間で体ごと向かい合う)頻度について判別を行い、そしてステップS91では、体ごと向かい合う頻度の高い対象をグループ情報42に登録し、単に顔だけ向かい合った対象の登録を回避することで、より精度の高いグループ情報42が得られる。   In the group estimation process of FIG. 12, not only “head direction” but also “body direction” are compared in step S87, and in step S89, both the head and body face in opposite directions (ie, In step S91, a high-frequency object that faces each body is registered in the group information 42, and the registration of the object that faces only the face is avoided more accurately. High group information 42 is obtained.

最後に、検証実験の結果を記しておく。まず、推定結果(追跡なし)について検証する。実験では、KinectTMセンサを支柱の約2.5mの高さ(つまり天井で制限される高さ)に取り付けた。また、同じ場所にViconモーションキャプチャシステムをインストールし、頭および肩にマーカを付けて、姿勢および頭部方向の実測値も得た。合計12人の被験者(男性9人,女性3人)が実験に参加した。被験者には、センサの前に立って頭を左右に回す動きを8通りの異なる胴体角度(45度のステップ)で繰り返し行ってもらった。同様のプロセスは、センサから4つの異なる距離:0.7m(センサ角33度);および2m,2.5m,3m(センサ角63度)で繰り返された。 Finally, the results of the verification experiment are noted. First, the estimation result (no tracking) is verified. In the experiment, the Kinect TM sensor was attached to a height of about 2.5 m (that is, the height limited by the ceiling) of the column. In addition, the Vicon motion capture system was installed at the same location, and markers were attached to the head and shoulders, and the measured values of posture and head direction were also obtained. A total of 12 subjects (9 men and 3 women) participated in the experiment. The subject was asked to repeat the movement of standing in front of the sensor and turning his head left and right at eight different body angles (45 degree steps). The same process was repeated at four different distances from the sensor: 0.7 m (sensor angle 33 degrees); and 2 m, 2.5 m and 3 m (sensor angle 63 degrees).

位置推定におけるエラーは、主として頭部レイヤの部分視界によるが、全ての実験で小さかった(RMSE(Root Mean Square Error)つまり二乗平均平方根誤差が平均7.5cm)。胴体角および頭部角については、全航跡でのRMSEの平均値はそれぞれ26.8度および36.8度であった。我々は、胴体および頭部角度の推定結果をより詳細に分析した。   The error in position estimation mainly depends on the partial field of view of the head layer, but was small in all experiments (RMSE (Root Mean Square Error), that is, the root mean square error averaged 7.5 cm). For the trunk angle and head angle, the average RMSE values for all tracks were 26.8 degrees and 36.8 degrees, respectively. We analyzed the estimation results of the torso and head angles in more detail.

また、体および頭の方向の推定結果とモーショントラッカからの実測データとの比較例が、図28(A)および図28(B)に示される。図28(A)において、推定された体の方向は、モーショントラッカの出力と多くの部分でよく一致する。ただし、センサが人の側面だけを捉えた部分、つまり10秒および30秒の付近では、より大きな偏差が生じている。これは、前述のように、片方の肩が頭の影に隠れて見えないことに起因している。図28(B)に示す頭の方向推定でも、人の側面を見ているために大きなエラーが見られるが、部分的には、体の方向推定で生じたエラーの影響もある。   Moreover, a comparative example of the estimation result of the body and head directions and the measured data from the motion tracker is shown in FIGS. 28 (A) and 28 (B). In FIG. 28 (A), the estimated body direction agrees well with the output of the motion tracker in many parts. However, a larger deviation occurs in the part where the sensor captures only the side of the person, that is, in the vicinity of 10 seconds and 30 seconds. As described above, this is due to the fact that one shoulder is hidden behind the head and cannot be seen. Even in the head direction estimation shown in FIG. 28B, a large error is seen because the person's side is viewed, but in part, there is also an influence of the error caused by the body direction estimation.

次に、トラッキング結果を検証する。実験では、Viconトラッカと2個のKinectTMセンサを持つ構成を採用した。これらのセンサは、2.5mの高さに55度の計測角で設置され、共働して約2×3mのエリアをカバーした。このエリアは、モーショントラッカのトラッキングエリアと概ね一致する。被験者には、エリア内を自由に動いたり見回したりしてもらった。 Next, the tracking result is verified. In the experiment, a configuration having a Vicon tracker and two Kinect sensors was adopted. These sensors were installed at a measurement angle of 55 degrees at a height of 2.5 m and cooperated to cover an area of about 2 × 3 m. This area substantially coincides with the tracking area of the motion tracker. Subjects were allowed to move freely and look around the area.

図29(A),図29(B),図30(A)および図30(B)は、一実行例について、変数x,y,θbおよびθhを、パーティクルフィルタによる追跡と、モーショントラッカによる計測との間で比較した結果を示している。これらの比較から、位置(x,y)および体の方向(θb)はトラッカ出力によく追従しており、センサ間の遷移(y=0mの付近)もスムーズであることが見て取れる。頭の方向(θh)のトラッキングエラーは予想よりも大きいが、これは推定エラーが大きかったことによる。一般に、トラッキング実行でのRMSE値は、推定時のそれに匹敵するか、それより幾分良好であった。   FIG. 29A, FIG. 29B, FIG. 30A, and FIG. 30B show the variables x, y, θb, and θh for one execution example, and tracking with a particle filter and measurement with a motion tracker. The result compared with is shown. From these comparisons, it can be seen that the position (x, y) and the body direction (θb) follow the tracker output well, and the transition between the sensors (around y = 0 m) is also smooth. The tracking error in the head direction (θh) is larger than expected, because the estimation error is large. In general, the RMSE value in the tracking run was comparable to or somewhat better than that at the time of estimation.

以上のように、この実施例では、3Dレンジセンサの一種であるLRF14を用いて、人の位置ならびに体および頭の方向を推定する方法について説明した。その方法は、要するに、次のステップで構成される:1) 頭上層および肩の層の抽出―位置は頭上層の平均であり、体の方向は肩の線に垂直である;および2) 頭後点および頭前点の計算―頭の向きはこれら2点間をつなぐ線の方向である。   As described above, in this embodiment, the method of estimating the position of the person and the direction of the body and head using the LRF 14 which is a kind of 3D range sensor has been described. The method consists essentially of the following steps: 1) Extraction of the overhead and shoulder layers-the position is the average of the overhead layers, the body direction is perpendicular to the shoulder line; and 2) the head Calculation of back and front points-head orientation is the direction of the line connecting these two points.

この方法によれば、センサの計測結果が信頼できるエリアでは、安定した位置推定(誤差10cm以下)が行える。体および頭の方向についても同様である。我々の検証試験では、体の方向について、平均エラーは10度、両方の肩が見えていれば5度であり、頭の方向については、小さな計測角または被験者がセンサを向いている場合で10%、それ以外の場合で20%であった。   According to this method, stable position estimation (error 10 cm or less) can be performed in an area where the measurement result of the sensor is reliable. The same applies to the direction of the body and head. In our verification test, the mean error is 10 degrees for body direction, 5 degrees if both shoulders are visible, and the head direction is 10 for small measurement angles or when the subject is facing the sensor. %, 20% in other cases.

加えて、パーティクルフィルタ(好ましくはSIRパーティクルフィルタ)を用いることで、複数センサによる連続的かつスムーズなトラッキングが行える。特定のタイプのレンジセンサに依存することがなく、広いエリアのトラッキングへの適用も容易なので、様々な環境で体および頭の方向について360度に渡る正確な情報が得られる。   In addition, by using a particle filter (preferably an SIR particle filter), continuous and smooth tracking by a plurality of sensors can be performed. It does not depend on a specific type of range sensor and is easy to apply to tracking large areas, thus providing accurate information over 360 degrees for body and head orientation in various environments.

10 …計測装置
12 …コンピュータ
14 …レーザレンジファインダ(LRF)
52 …3次元形状モデルデータベース(DB)
M1 …肩から上の身体形状モデル
M2 …全身の骨格モデル
T1,T2 …対象
Scn …スキャン面
P …人の位置(頭上層の中心点)
HTP …頭頂点
HLY,SLY …頭上層,肩の層
SN,SLN1,SLN2 …両肩をつなぐ線
HRA,HFA …頭後領域,頭前領域
HRP,HFP …頭後点,頭前点
θb,θh …体の方向,頭の方向
10 ... Measuring device 12 ... Computer 14 ... Laser range finder (LRF)
52 ... 3D shape model database (DB)
M1 ... Body shape model above shoulder M2 ... Skeletal model of whole body T1, T2 ... Target Scn ... Scan plane P ... Human position (center point of overhead layer)
HTP ... head apex HLY, SLY ... overhead layer, shoulder layer SN, SLN1, SLN2 ... lines connecting both shoulders HRA, HFA ... occipital region, prefrontal region HRP, HFP ... occipital point, prefrontal point θb, θh ... Body direction, head direction

Claims (23)

そのスキャン面が水平面に対して傾斜した3次元距離計測センサで複数の対象を計測する計測装置であって、
前記複数の対象に関する3次元形状モデルが登録されたデータベース、
前記3次元距離計測センサを制御してスキャン面の水平面に対する傾斜角を変化させる変化手段、および
前記3次元距離計測センサからの計測データと前記データベースに登録された3次元形状モデルとの比較に基づいて前記複数の対象それぞれの3次元形状および姿勢を少なくとも推定する第1推定手段を備える、計測装置。
A measuring device that measures a plurality of objects with a three-dimensional distance measuring sensor whose scan surface is inclined with respect to a horizontal plane,
A database in which a three-dimensional shape model relating to the plurality of objects is registered;
Based on the comparison between the measurement data from the three-dimensional distance measurement sensor and the three-dimensional shape model registered in the database, the changing means for controlling the three-dimensional distance measurement sensor to change the inclination angle of the scan plane with respect to the horizontal plane. And a first estimation means for estimating at least the three-dimensional shape and posture of each of the plurality of objects.
前記第1推定手段は前記複数の対象それぞれに対応する複数の時系列フィルタリングを並列に実行することによって推定を行う、請求項1または2記載の計測装置。   The measurement apparatus according to claim 1, wherein the first estimation unit performs estimation by executing a plurality of time-series filterings corresponding to the plurality of objects in parallel. 前記3次元形状モデルは肩から上の身体形状モデルを含み、
前記姿勢は頭部の向きを含む、請求項2記載の計測装置。
The three-dimensional shape model includes a body shape model above the shoulder,
The measurement apparatus according to claim 2, wherein the posture includes a head direction.
前記3次元形状モデルはさらに全身の骨格モデルを含み、
前記姿勢は頭部以外の各部位の向きをさらに含む、請求項3記載の計測装置。
The three-dimensional shape model further includes a whole body skeleton model,
The measuring apparatus according to claim 3, wherein the posture further includes directions of respective parts other than the head.
前記第1推定手段は前記複数の対象それぞれの位置および移動方向をさらに推定し、
前記第1推定手段の推定結果に基づいて前記複数の対象それぞれの頭部が移動方向とは異なる方向を向いたと判断される場合に当該頭部の向いた先に位置する目標を特定する特定手段、および
前記複数の対象それぞれについて前記特定手段の特定結果に基づく個別行動情報を作成する第1作成手段をさらに備える、請求項3記載の計測装置。
The first estimating means further estimates the position and moving direction of each of the plurality of objects;
A specification that identifies a target located ahead of the head when the head of each of the plurality of objects is determined to be in a direction different from the moving direction based on the estimation result of the first estimation unit The measurement apparatus according to claim 3, further comprising: first means for creating individual behavior information based on a result of identification by the identification unit for each of the plurality of objects.
前記第1推定手段の推定結果を前記複数の対象間で比較して、その結果、位置が近接しかつ移動方向が共通であってしかも頭部が一定以上の頻度で相対する方向を向く対象群がある場合に、当該対象群をグループと推定する第2推定手段をさらに備える、請求項5記載の計測装置。   The estimation results of the first estimation means are compared between the plurality of objects, and as a result, the objects are located close to each other, have the same moving direction, and have their heads facing the opposite direction at a certain frequency or more. The measurement apparatus according to claim 5, further comprising second estimation means for estimating the target group as a group when there is a target group. 前記第1推定手段の推定結果に基づいて前記複数の対象それぞれの属性を推定する第3推定手段、および
前記第2推定手段でグループと推定された対象群に関する前記第3推定の推定結果に基づいて、当該グループを複数のカテゴリのいずれかに分類する分類手段をさらに備える、請求項6記載の計測装置。
A third estimating unit that estimates an attribute of each of the plurality of objects based on an estimation result of the first estimating unit; and an estimation result of the third estimation relating to the target group estimated as a group by the second estimating unit. The measuring apparatus according to claim 6, further comprising a classifying unit that classifies the group into any of a plurality of categories.
前記第1作成手段で作成された個別行動情報を前記第2推定手段の推定に基づくグループ毎に解析してグループ行動情報を作成する第2作成手段をさらに備える、請求項7記載の計測装置。   The measuring apparatus according to claim 7, further comprising second creation means for analyzing the individual behavior information created by the first creation means for each group based on the estimation of the second estimation means to create group behavior information. 前記第2作成手段で作成されたグループ行動情報を前記分類手段の分類に基づくカテゴリ毎に解析してグループ行動パターン情報を作成する第3作成手段をさらに備える、請求項8記載の計測装置。   The measurement apparatus according to claim 8, further comprising third creation means for creating group behavior pattern information by analyzing the group behavior information created by the second creation means for each category based on the classification of the classification means. 前記複数の対象の少なくとも1つは人であり、
前記3次元距離計測センサからの計測データに基づいて前記人の頭および肩を検出する検出手段、および
前記検出手段によって検出された頭および肩の間の位置関係に基づいて前記人の体の方向および頭の方向を計算する計算手段をさらに備え、
前記第1推定手段は前記計算手段の計算結果に基づいて前記人の姿勢に関する推定を行う、請求項1記載の計測装置。
At least one of the plurality of subjects is a person;
Detection means for detecting the person's head and shoulders based on measurement data from the three-dimensional distance measurement sensor, and direction of the person's body based on the positional relationship between the head and shoulders detected by the detection means And a calculation means for calculating the head direction,
The measurement apparatus according to claim 1, wherein the first estimation unit performs estimation related to the posture of the person based on a calculation result of the calculation unit.
前記3次元距離計測センサは前記人の頭頂点よりも高い位置に設置され、
前記検出手段は、
前記3次元距離計測センサからの計測データのうち前記人に対応する計測データを高さ方向に層化する層化手段、および
前記層化手段の層化結果から前記頭頂点を含む頭上層および当該頭上層から所定数層隔てて下にある肩の層を抽出する抽出手段を含み、
前記計算手段は、
前記抽出手段によって抽出された肩の層に基づいて両肩をつなぐ線に垂直な方向を計算する第1計算手段、
前記抽出手段によって抽出された頭上層のうち前記第1計算手段によって計算された方向に対して最後部にある頭後点を計算する第2計算手段、
前記抽出手段によって抽出された頭上層のうち前記第2計算手段によって計算された頭後点に対して最前部にある頭前点を計算する第3計算手段、および
前記第2計算手段によって計算された頭後点から前記第3計算手段によって計算された頭前点に向かう方向を計算する第4計算手段を含み、
前記第1推定手段は、前記第1計算手段によって計算された方向を前記体の方向として推定し、前記第4計算手段によって計算された方向を前記頭の方向として推定する、請求項10記載の計測装置。
The three-dimensional distance measuring sensor is installed at a position higher than the head apex of the person,
The detection means includes
Of the measurement data from the three-dimensional distance measurement sensor, the stratification means for stratifying the measurement data corresponding to the person in the height direction, the overhead layer including the top vertex from the stratification result of the stratification means, and the An extraction means for extracting a shoulder layer below the overhead layer by a predetermined number of layers;
The calculating means includes
First calculating means for calculating a direction perpendicular to a line connecting the shoulders based on the shoulder layer extracted by the extracting means;
A second calculating means for calculating a back head point located at the rearmost part with respect to the direction calculated by the first calculating means among the overhead layers extracted by the extracting means;
Third calculation means for calculating a forefront point in the forefront with respect to the back head point calculated by the second calculation means among the overhead layers extracted by the extraction means; and calculated by the second calculation means A fourth calculation means for calculating a direction from the rear head point toward the front point calculated by the third calculation means;
The said 1st estimation means estimates the direction calculated by the said 1st calculation means as a direction of the said body, and estimates the direction calculated by the said 4th calculation means as the direction of the said head. Measuring device.
前記計算手段は、
前記抽出手段によって抽出された頭上層に基づいて頭の中心点を計算する第5計算手段、
前記肩の層が両肩を含むか一方の肩しか含まないかを判別する判別手段、および
前記判別手段によって前記肩の層が一方の肩しか含まないと判別された場合に、当該一方の肩と前記第5計算手段によって検出された頭の中心点とに基づいて、両肩は頭に対して左右対称な位置にありかつ頭は両肩をつなぐ線よりも前方にあるという条件を満たすように、他方の肩を計算する第6計算手段をさらに含み、
前記第1計算手段は、前記判別手段によって前記肩の層が両肩を含むと判別された場合には当該両肩をつなぐ線に垂直な方向を計算し、一方の肩しか含まないと判別された場合には当該一方の肩および前記第6計算手段によって計算された他方の肩をつなぐ線に垂直な方向を計算する、請求項11記載の計測装置。
The calculating means includes
Fifth calculation means for calculating the center point of the head based on the overhead layer extracted by the extraction means;
Determining means for determining whether the shoulder layer includes both shoulders or only one shoulder; and when the determining means determines that the shoulder layer includes only one shoulder, the one shoulder And the center point of the head detected by the fifth calculation means so as to satisfy the condition that both shoulders are symmetric with respect to the head and the head is ahead of the line connecting the shoulders. Further includes sixth calculation means for calculating the other shoulder,
The first calculating means calculates a direction perpendicular to a line connecting the shoulders when the determining means determines that the shoulder layer includes both shoulders, and determines that only one shoulder is included. 12. The measuring apparatus according to claim 11, wherein, in the case of a failure, a direction perpendicular to a line connecting the one shoulder and the other shoulder calculated by the sixth calculating means is calculated.
前記判別手段は前記肩の層を構成する点の前記頭の中心点に対する分布に基づいて判別を行う、請求項12記載の計測装置。   The measurement device according to claim 12, wherein the determination unit performs determination based on a distribution of points constituting the shoulder layer with respect to a center point of the head. 前記第1推定手段は前記第5計算手段によって計算された頭の中心点の位置を前記人の位置として推定する、請求項12または13記載の計測装置。   The measuring apparatus according to claim 12 or 13, wherein the first estimating means estimates the position of the center point of the head calculated by the fifth calculating means as the position of the person. そのスキャン面が水平面に対して傾斜した3次元距離計測センサで複数の対象を計測する計測方法であって、
前記複数の対象に関する3次元形状モデルをデータベースに登録する登録ステップ、
前記3次元距離計測センサを制御してスキャン面の水平面に対する傾斜角を変化させる変化ステップ、および
前記3次元距離計測センサからの計測データと前記データベースに登録された3次元形状モデルとの比較に基づいて前記複数の対象それぞれの3次元形状および姿勢を少なくとも推定する第1推定ステップを備える、計測方法。
A measurement method for measuring a plurality of objects with a three-dimensional distance measurement sensor whose scan plane is inclined with respect to a horizontal plane,
A registration step of registering a three-dimensional shape model relating to the plurality of objects in a database;
Based on a step of changing the tilt angle of the scan plane with respect to the horizontal plane by controlling the three-dimensional distance measurement sensor, and a comparison between the measurement data from the three-dimensional distance measurement sensor and the three-dimensional shape model registered in the database And a first estimation step for estimating at least the three-dimensional shape and posture of each of the plurality of objects.
そのスキャン面が水平面に対して傾斜した3次元距離計測センサで複数の対象を計測する計測装置のコンピュータを、
前記複数の対象に関する3次元形状モデルが登録されたデータベース、
前記3次元距離計測センサを制御してスキャン面の水平面に対する傾斜角を変化させる変化手段、および
前記3次元距離計測センサからの計測データと前記データベースに登録された3次元形状モデルとの比較に基づいて前記複数の対象それぞれの3次元形状および姿勢を少なくとも推定する第1推定手段として機能させる、計測プログラム。
A measuring device computer that measures a plurality of objects with a three-dimensional distance measuring sensor whose scan surface is inclined with respect to a horizontal plane,
A database in which a three-dimensional shape model relating to the plurality of objects is registered;
Based on the comparison between the measurement data from the three-dimensional distance measurement sensor and the three-dimensional shape model registered in the database, the changing means for controlling the three-dimensional distance measurement sensor to change the inclination angle of the scan plane with respect to the horizontal plane. A measurement program that functions as first estimation means for estimating at least the three-dimensional shape and posture of each of the plurality of objects.
人の頭頂点よりも高い位置に設置された3次元距離計測センサで当該人の体の方向および頭の方向を計測する計測装置であって、
前記3次元距離計測センサからの計測データに基づいて前記人の頭および肩を検出する検出手段、および
前記検出手段によって検出された頭および肩の間の位置関係に基づいて前記人の体の方向および頭の方向を計算する計算手段を備える、計測装置。
A measuring device that measures the direction of the person's body and head with a three-dimensional distance measurement sensor installed at a position higher than the person's head vertex,
Detection means for detecting the person's head and shoulders based on measurement data from the three-dimensional distance measurement sensor, and direction of the person's body based on the positional relationship between the head and shoulders detected by the detection means And a measuring device comprising calculation means for calculating the direction of the head.
前記検出手段は、
前記3次元距離計測センサからの計測データのうち前記人に対応する計測データを高さ方向に層化する層化手段、および
前記層化手段の層化結果から前記頭頂点を含む頭上層および当該頭上層から所定数層隔てて下にある肩の層を抽出する抽出手段を含み、
前記計算手段は、
前記抽出手段によって抽出された肩の層に基づいて両肩をつなぐ線に垂直な方向を計算する第1計算手段、
前記抽出手段によって抽出された頭上層のうち前記第1計算手段によって計算された方向に対して最後部にある頭後点を計算する第2計算手段、
前記抽出手段によって抽出された頭上層のうち前記第2計算手段によって計算された頭後点に対して最前部にある頭前点を計算する第3計算手段、および
前記第2計算手段によって計算された頭後点から前記第3計算手段によって計算された頭前点に向かう方向を計算する第4計算手段を含む、請求項17記載の計測装置。
The detection means includes
Of the measurement data from the three-dimensional distance measurement sensor, the stratification means for stratifying the measurement data corresponding to the person in the height direction, the overhead layer including the top vertex from the stratification result of the stratification means, and the An extraction means for extracting a shoulder layer below the overhead layer by a predetermined number of layers;
The calculating means includes
First calculating means for calculating a direction perpendicular to a line connecting the shoulders based on the shoulder layer extracted by the extracting means;
A second calculating means for calculating a back head point located at the rearmost part with respect to the direction calculated by the first calculating means among the overhead layers extracted by the extracting means;
Third calculation means for calculating a forefront point in the forefront with respect to the back head point calculated by the second calculation means among the overhead layers extracted by the extraction means; and calculated by the second calculation means The measurement apparatus according to claim 17, further comprising fourth calculation means for calculating a direction from the rear head point toward the front point calculated by the third calculation means.
前記計算手段は、
前記抽出手段によって抽出された頭上層に基づいて頭の中心点を計算する第5計算手段、
前記肩の層が両肩を含むか一方の肩しか含まないかを判別する判別手段、および
前記判別手段によって前記肩の層が一方の肩しか含まないと判別された場合に、当該一方の肩と前記第5計算手段によって検出された頭の中心点とに基づいて、両肩は頭に対して左右対称な位置にありかつ頭は両肩をつなぐ線よりも前方にあるという条件を満たすように、他方の肩を計算する第6計算手段をさらに含み、
前記第1計算手段は、前記判別手段によって前記肩の層が両肩を含むと判別された場合には当該両肩をつなぐ線に垂直な方向を計算し、一方の肩しか含まないと判別された場合には当該一方の肩および前記第6計算手段によって計算された他方の肩をつなぐ線に垂直な方向を計算する、請求項18記載の計測装置。
The calculating means includes
Fifth calculation means for calculating the center point of the head based on the overhead layer extracted by the extraction means;
Determining means for determining whether the shoulder layer includes both shoulders or only one shoulder; and when the determining means determines that the shoulder layer includes only one shoulder, the one shoulder And the center point of the head detected by the fifth calculation means so as to satisfy the condition that both shoulders are symmetric with respect to the head and the head is ahead of the line connecting the shoulders. Further includes sixth calculation means for calculating the other shoulder,
The first calculating means calculates a direction perpendicular to a line connecting the shoulders when the determining means determines that the shoulder layer includes both shoulders, and determines that only one shoulder is included. 19. The measuring apparatus according to claim 18, wherein, in the case of a failure, a direction perpendicular to a line connecting the one shoulder and the other shoulder calculated by the sixth calculating means is calculated.
前記判別手段は前記肩の層を構成する点群の前記頭の中心点に対する分布に基づいて判別を行う、請求項19記載の計測装置。   The measurement device according to claim 19, wherein the determination unit performs determination based on a distribution of a point group constituting the shoulder layer with respect to the center point of the head. 前記第5計算手段の計算結果,前記第1計算手段の計算結果および前記第4計算手段の計算結果を入力として時系列フィルタリングを実行することによって前記人の位置,体の方向および頭の方向を推定する推定手段をさらに備える、請求項19または20記載の計測装置。   The position of the person, the direction of the body and the direction of the head are determined by executing time series filtering with the calculation result of the fifth calculation means, the calculation result of the first calculation means and the calculation result of the fourth calculation means as inputs. 21. The measuring device according to claim 19 or 20, further comprising an estimating means for estimating. 人の頭頂点よりも高い位置に設置された3次元距離計測センサで当該人の体の方向および頭の方向を計測する計測方法であって、
前記3次元距離計測センサからの計測データに基づいて前記人の頭および肩を検出する検出ステップ、および
前記検出ステップによって検出された頭および肩の間の位置関係に基づいて前記人の体の方向および頭の方向を計算する計算ステップ含む、計測方法。
A measurement method for measuring the direction of the person's body and the direction of the head with a three-dimensional distance measurement sensor installed at a position higher than the person's head apex,
A detection step of detecting the person's head and shoulders based on measurement data from the three-dimensional distance measurement sensor; and a direction of the person's body based on the positional relationship between the head and shoulders detected by the detection step And a measuring method including a calculating step for calculating a head direction.
人の頭頂点よりも高い位置に設置された3次元距離計測センサで当該人の体の方向および頭の方向を計測する計測装置コンピュータを、
前記3次元距離計測センサからの計測データに基づいて前記人の頭および肩を検出する検出手段、および
前記検出手段によって検出された頭および肩の間の位置関係に基づいて前記人の体の方向および頭の方向を計算する計算手段として機能させる、計測プログラム。
A measuring device computer that measures the direction of the person's body and the direction of the head with a three-dimensional distance measurement sensor installed at a position higher than the head apex of the person,
Detection means for detecting the person's head and shoulders based on measurement data from the three-dimensional distance measurement sensor, and direction of the person's body based on the positional relationship between the head and shoulders detected by the detection means And a measurement program that functions as a calculation means for calculating the head direction.
JP2012033610A 2011-03-30 2012-02-20 Measuring device, measuring method and measuring program Active JP5953484B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012033610A JP5953484B2 (en) 2011-03-30 2012-02-20 Measuring device, measuring method and measuring program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2011074368 2011-03-30
JP2011074368 2011-03-30
JP2012033610A JP5953484B2 (en) 2011-03-30 2012-02-20 Measuring device, measuring method and measuring program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2015232565A Division JP6296043B2 (en) 2011-03-30 2015-11-30 Measuring device, measuring method and measuring program

Publications (2)

Publication Number Publication Date
JP2012215555A true JP2012215555A (en) 2012-11-08
JP5953484B2 JP5953484B2 (en) 2016-07-20

Family

ID=47268423

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2012033610A Active JP5953484B2 (en) 2011-03-30 2012-02-20 Measuring device, measuring method and measuring program
JP2015232565A Active JP6296043B2 (en) 2011-03-30 2015-11-30 Measuring device, measuring method and measuring program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2015232565A Active JP6296043B2 (en) 2011-03-30 2015-11-30 Measuring device, measuring method and measuring program

Country Status (1)

Country Link
JP (2) JP5953484B2 (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015066625A (en) * 2013-09-27 2015-04-13 株式会社国際電気通信基礎技術研究所 Attention object estimation system, robot, and control program
JP2015114950A (en) * 2013-12-13 2015-06-22 富士通株式会社 Movement determination method, movement determination device, and movement determination program
KR101558258B1 (en) * 2015-02-04 2015-10-12 (주)유디피 People counter using TOF camera and counting method thereof
WO2017056245A1 (en) * 2015-09-30 2017-04-06 楽天株式会社 Information processing device, information processing method, and information processing program
CN107869993A (en) * 2017-11-07 2018-04-03 西北工业大学 Small satellite attitude method of estimation based on adaptive iteration particle filter
JP2018055643A (en) * 2016-09-30 2018-04-05 キヤノン株式会社 Image processing apparatus and image processing method
CN108726306A (en) * 2018-08-17 2018-11-02 寿县理康信息技术服务有限公司 A kind of elevator protection system being distributed formula air bag
JP2018173707A (en) * 2017-03-31 2018-11-08 株式会社国際電気通信基礎技術研究所 Person estimation system and estimation program
CN110291557A (en) * 2017-02-06 2019-09-27 三菱电机株式会社 Monitoring arrangement
CN110455277A (en) * 2019-08-19 2019-11-15 哈尔滨工业大学 High-precision attitude measuring device and method based on internet of things data fusion
WO2020026677A1 (en) * 2018-07-31 2020-02-06 株式会社ニコン Detection device, processing device, detection method, and processing program
WO2020044734A1 (en) * 2018-08-28 2020-03-05 清水建設株式会社 Information providing system and information providing method
JP2020516911A (en) * 2017-04-10 2020-06-11 ビーイーエー エス.エー.Bea S.A. Sensor for automatic door control
CN112651266A (en) * 2019-10-11 2021-04-13 北京百度网讯科技有限公司 Pedestrian detection method and device
US11000222B2 (en) 2018-08-29 2021-05-11 Tata Consultancy Services Limited Particle filtering for continuous tracking and correction of body joint positions

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6713619B2 (en) * 2017-03-30 2020-06-24 株式会社エクォス・リサーチ Body orientation estimation device and body orientation estimation program
RU2714525C1 (en) * 2019-07-30 2020-02-18 федеральное государственное автономное образовательное учреждение высшего образования "Казанский (Приволжский) федеральный университет" (ФГАОУ ВО КФУ) Method for determining the mean square error of spatial coordinates of points of the analyzed object from image processing obtained by different cameras with arbitrary values of orientation elements

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004185363A (en) * 2002-12-04 2004-07-02 Ishikawajima Harima Heavy Ind Co Ltd Object distinction method by area sensor
JP2004326264A (en) * 2003-04-22 2004-11-18 Matsushita Electric Works Ltd Obstacle detecting device and autonomous mobile robot using the same and obstacle detecting method and obstacle detecting program
JP2006185166A (en) * 2004-12-27 2006-07-13 Matsushita Electric Works Ltd Human detection method and human detector using depth map
JP2007004663A (en) * 2005-06-27 2007-01-11 Nippon Telegr & Teleph Corp <Ntt> Action identification device, action identification method, program and storage medium
JP2008186375A (en) * 2007-01-31 2008-08-14 Univ Of Tokyo Object measuring system
JP2009025956A (en) * 2007-07-18 2009-02-05 Mazda Motor Corp Pedestrian detection device
JP2009110185A (en) * 2007-10-29 2009-05-21 East Japan Railway Co Passerby behavior analyzer, passerby behavior analysis method, and its program
JP2009168578A (en) * 2008-01-15 2009-07-30 Advanced Telecommunication Research Institute International Measurement device and measurement method
JP2010205015A (en) * 2009-03-04 2010-09-16 Advanced Telecommunication Research Institute International Group behavior estimation device and service provision system
JP2011226880A (en) * 2010-04-19 2011-11-10 Advanced Telecommunication Research Institute International Measuring device, measuring method and measuring program

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5086404A (en) * 1988-09-02 1992-02-04 Claussen Claus Frenz Device for simultaneous continuous and separate recording and measurement of head and body movements during standing, walking and stepping
JPH08161453A (en) * 1994-12-02 1996-06-21 Tokai Rika Co Ltd Counter for number of persons
JPH09237348A (en) * 1996-02-29 1997-09-09 Sanyo Electric Co Ltd Method for estimating posture of human body
JP4644992B2 (en) * 2001-08-10 2011-03-09 パナソニック電工株式会社 Human body detection method using range image
JP4085959B2 (en) * 2003-11-14 2008-05-14 コニカミノルタホールディングス株式会社 Object detection device, object detection method, and recording medium
JP4475060B2 (en) * 2004-08-24 2010-06-09 パナソニック電工株式会社 Human detection device
JP4691701B2 (en) * 2005-01-26 2011-06-01 株式会社Ihi Number detection device and method
JP4799910B2 (en) * 2005-06-02 2011-10-26 ノルベルト・リンク Apparatus and method for detecting a person in a survey area
JP5396192B2 (en) * 2009-08-11 2014-01-22 株式会社日立国際電気 People counter
JP5762730B2 (en) * 2010-12-09 2015-08-12 パナソニック株式会社 Human detection device and human detection method

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004185363A (en) * 2002-12-04 2004-07-02 Ishikawajima Harima Heavy Ind Co Ltd Object distinction method by area sensor
JP2004326264A (en) * 2003-04-22 2004-11-18 Matsushita Electric Works Ltd Obstacle detecting device and autonomous mobile robot using the same and obstacle detecting method and obstacle detecting program
JP2006185166A (en) * 2004-12-27 2006-07-13 Matsushita Electric Works Ltd Human detection method and human detector using depth map
JP2007004663A (en) * 2005-06-27 2007-01-11 Nippon Telegr & Teleph Corp <Ntt> Action identification device, action identification method, program and storage medium
JP2008186375A (en) * 2007-01-31 2008-08-14 Univ Of Tokyo Object measuring system
JP2009025956A (en) * 2007-07-18 2009-02-05 Mazda Motor Corp Pedestrian detection device
JP2009110185A (en) * 2007-10-29 2009-05-21 East Japan Railway Co Passerby behavior analyzer, passerby behavior analysis method, and its program
JP2009168578A (en) * 2008-01-15 2009-07-30 Advanced Telecommunication Research Institute International Measurement device and measurement method
JP2010205015A (en) * 2009-03-04 2010-09-16 Advanced Telecommunication Research Institute International Group behavior estimation device and service provision system
JP2011226880A (en) * 2010-04-19 2011-11-10 Advanced Telecommunication Research Institute International Measuring device, measuring method and measuring program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6015038843; 岡本康太郎、外7名: '"LRFとカメラを利用した商業施設における歩行者行動の分類"' 電子情報通信学会技術研究報告 Vol.110,No.420, 20110214, p.233-238 *

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015066625A (en) * 2013-09-27 2015-04-13 株式会社国際電気通信基礎技術研究所 Attention object estimation system, robot, and control program
JP2015114950A (en) * 2013-12-13 2015-06-22 富士通株式会社 Movement determination method, movement determination device, and movement determination program
US9582721B2 (en) 2013-12-13 2017-02-28 Fujitsu Limited Method and apparatus for determining movement
KR101558258B1 (en) * 2015-02-04 2015-10-12 (주)유디피 People counter using TOF camera and counting method thereof
US9818026B2 (en) 2015-02-04 2017-11-14 UDP Technology Ltd. People counter using TOF camera and counting method thereof
WO2017056245A1 (en) * 2015-09-30 2017-04-06 楽天株式会社 Information processing device, information processing method, and information processing program
JPWO2017056245A1 (en) * 2015-09-30 2018-06-07 楽天株式会社 Information processing apparatus, information processing method, and information processing program
JP2018055643A (en) * 2016-09-30 2018-04-05 キヤノン株式会社 Image processing apparatus and image processing method
CN110291557A (en) * 2017-02-06 2019-09-27 三菱电机株式会社 Monitoring arrangement
CN110291557B (en) * 2017-02-06 2023-06-06 三菱电机株式会社 Monitoring device
JP2018173707A (en) * 2017-03-31 2018-11-08 株式会社国際電気通信基礎技術研究所 Person estimation system and estimation program
JP7229560B2 (en) 2017-04-10 2023-02-28 ビーイーエー エス.エー. Sensor for automatic door control
JP2020516911A (en) * 2017-04-10 2020-06-11 ビーイーエー エス.エー.Bea S.A. Sensor for automatic door control
CN107869993A (en) * 2017-11-07 2018-04-03 西北工业大学 Small satellite attitude method of estimation based on adaptive iteration particle filter
WO2020026677A1 (en) * 2018-07-31 2020-02-06 株式会社ニコン Detection device, processing device, detection method, and processing program
JPWO2020026677A1 (en) * 2018-07-31 2021-08-02 株式会社ニコン Detection device, processing device, detection method, and processing program
JP7024876B2 (en) 2018-07-31 2022-02-24 株式会社ニコン Detection device, processing device, detection method, and processing program
CN108726306A (en) * 2018-08-17 2018-11-02 寿县理康信息技术服务有限公司 A kind of elevator protection system being distributed formula air bag
WO2020044734A1 (en) * 2018-08-28 2020-03-05 清水建設株式会社 Information providing system and information providing method
JP2020035096A (en) * 2018-08-28 2020-03-05 清水建設株式会社 Information service system and information service method
JP7272764B2 (en) 2018-08-28 2023-05-12 清水建設株式会社 Information provision system
US11000222B2 (en) 2018-08-29 2021-05-11 Tata Consultancy Services Limited Particle filtering for continuous tracking and correction of body joint positions
CN110455277A (en) * 2019-08-19 2019-11-15 哈尔滨工业大学 High-precision attitude measuring device and method based on internet of things data fusion
JP7189908B2 (en) 2019-10-11 2022-12-14 アポロ インテリジェント ドライビング テクノロジー(ペキン)カンパニー リミテッド Pedestrian detection method and device
JP2021064349A (en) * 2019-10-11 2021-04-22 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド Method and apparatus for detecting pedestrian
CN112651266A (en) * 2019-10-11 2021-04-13 北京百度网讯科技有限公司 Pedestrian detection method and device
US11724721B2 (en) 2019-10-11 2023-08-15 Apollo Intelligent Driving Technology (Beijing) Co., Ltd. Method and apparatus for detecting pedestrian

Also Published As

Publication number Publication date
JP6296043B2 (en) 2018-03-20
JP5953484B2 (en) 2016-07-20
JP2016075693A (en) 2016-05-12

Similar Documents

Publication Publication Date Title
JP6296043B2 (en) Measuring device, measuring method and measuring program
JP5950296B2 (en) Person tracking attribute estimation device, person tracking attribute estimation method, program
US9411037B2 (en) Calibration of Wi-Fi localization from video localization
Choi et al. A general framework for tracking multiple people from a moving camera
US10891741B2 (en) Human analytics using fusion of image and depth modalities
US8504292B1 (en) Indoor localization based on ultrasound sensors
KR101519940B1 (en) Three-dimensional object modelling fitting &amp; tracking
US20220113366A1 (en) Method and system for tracking a mobile device
US11734854B2 (en) System, method and computer program product for determining sizes and/or 3D locations of objects imaged by a single camera
Bertoni et al. Perceiving humans: from monocular 3d localization to social distancing
JP5027741B2 (en) Image monitoring device
JP6779410B2 (en) Video analyzer, video analysis method, and program
JP2004298285A (en) Judgment device and judgment method of walking condition and pedestrian attribute
Amanatiadis A multisensor indoor localization system for biped robots operating in industrial environments
Meissner et al. Real-time detection and tracking of pedestrians at intersections using a network of laserscanners
JP2021135619A (en) Situation identification device, situation learning device, and program
WO2020217812A1 (en) Image processing device that recognizes state of subject and method for same
Abd Rahman et al. Pedestrian detection using triple laser range finders
Seer et al. Kinects and human kinetics: a new approach for studying crowd behavior
KR20210105618A (en) Method ahd device for motion recognizing with lider sensor
Laue et al. Efficient and reliable sensor models for humanoid soccer robot self-localization
Ettehadieh Systematic parameter optimization and application of automated tracking in pedestrian-dominant situations
Pierard et al. Design of a reliable processing pipeline for the non-intrusive measurement of feet trajectories with lasers
Cielniak et al. Quantitative performance evaluation of a people tracking system on a mobile robot
Nakamura et al. Human sensing in crowd using laser scanners

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141121

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160421

R150 Certificate of patent or registration of utility model

Ref document number: 5953484

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250