JP2013064671A - Measurement system and measurement method - Google Patents

Measurement system and measurement method Download PDF

Info

Publication number
JP2013064671A
JP2013064671A JP2011204031A JP2011204031A JP2013064671A JP 2013064671 A JP2013064671 A JP 2013064671A JP 2011204031 A JP2011204031 A JP 2011204031A JP 2011204031 A JP2011204031 A JP 2011204031A JP 2013064671 A JP2013064671 A JP 2013064671A
Authority
JP
Japan
Prior art keywords
target
class
measurement
feature vector
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011204031A
Other languages
Japanese (ja)
Other versions
JP5866682B2 (en
Inventor
Yucel Zeynep
ユーセル ゼイネップ
Tetsushi Ikeda
徹志 池田
Takahiro Miyashita
敬宏 宮下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2011204031A priority Critical patent/JP5866682B2/en
Publication of JP2013064671A publication Critical patent/JP2013064671A/en
Application granted granted Critical
Publication of JP5866682B2 publication Critical patent/JP5866682B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide a measurement device capable of accurately identifying and classifying an object while tracking a moving object within an observation region using a distance measurement sensor.SOLUTION: A measurement device 100 includes: a plurality of laser range finders 10.1 to 10.4 arranged so as to measure a horizontal distance to an object; a tracking module 5610 which estimates a position and a moving velocity of the object from a measurement result; a feature extraction and calculation section 5622 which calculates a feature vector representing a shape of the object on the basis of the measurement result; a prior probability calculation section 5624 which calculates a probability that the object belongs to each predetermined classification class as a prior probability on the basis of the feature vector; and a label allocation processing section 5628 which determines whether or not the object is in a synchronized state where the object moves in synchronization with another object and also determines the classification class to which the object belongs based on the calculated prior probability as well as likelihood that the object in the synchronized state corresponds to each classification class.

Description

この発明は計測システムおよび計測方法に関し、特にたとえば、計測対象の位置および形状を追跡しつつ、計測対象を特定するための、計測システムおよび計測方法に関する。   The present invention relates to a measurement system and a measurement method, and more particularly to, for example, a measurement system and a measurement method for specifying a measurement target while tracking the position and shape of the measurement target.

近年のロボット技術の発展により、これからのロボットには人と共存し協調する役割が求められている。そのためにはロボットに様々な機能、たとえば、環境をロボット自らが判断して理解する機能が必要になる。   With the recent development of robot technology, future robots are required to play a role in coexistence with humans. For this purpose, the robot needs various functions, for example, a function for the robot itself to judge and understand the environment.

また、環境知能の技術分野では、ユーザに提供されるサービスを促進し、利便性を最大化するように、環境上のセンサ等が設計される必要がある。その目的のために、健常者のユーザだけでなく、特定のニーズを持ったユーザも広範囲に考慮する必要がある。高齢者またはハンディキャップをもつユーザが、歩行器、手押し車、車椅子などの様々な補助具を使用している場合、たとえば、ショッピングセンターなどにおいては、ユーザを階段またはエスカレーターの代わりに、エレベータを使用するように誘導するというようなニーズも発生する可能性がある。このような場合は、ある環境中で、動いている対象を識別する技術が必要となる。   In the field of environmental intelligence, environmental sensors and the like need to be designed to promote services provided to users and maximize convenience. For that purpose, not only healthy users but also users with specific needs need to be considered extensively. When elderly people or users with handicap use a variety of assistive devices such as walker, wheelbarrow, wheelchair, etc., for example, in shopping centers, use users instead of stairs or escalators There is a possibility that the need to guide the user to do so will occur. In such a case, a technique for identifying a moving object in a certain environment is required.

したがって、歩行者検知およびそのトラッキングは広い適用領域において、ポピュラーな研究トピックとなっている。   Therefore, pedestrian detection and tracking has become a popular research topic in a wide range of applications.

ここで、このような歩行者検知およびそのトラッキングのための方法としては、大きくは、画像認識ベースの技術と、距離センサベースの技術とに分けられる。   Here, such methods for detecting and tracking pedestrians can be broadly divided into image recognition-based technology and distance sensor-based technology.

ここで、距離センサベースの技術は、一般には、混雑している環境での計測も比較的正確に行え、また、直射日光がさすような環境でも安定して計測できる利点がある。このような距離センサベースの技術では、所定の空間内で、そこを移動する人間の位置を追跡するための技術として、距離センサのデータに基づいて、人を検知し追跡する計測装置の一例が、たとえば、特許文献1に開示されている。   Here, the distance sensor-based technology generally has an advantage that measurement can be performed relatively accurately in a congested environment and can be stably measured even in an environment exposed to direct sunlight. In such a distance sensor-based technique, as a technique for tracking the position of a person moving in a predetermined space, an example of a measuring device that detects and tracks a person based on distance sensor data is available. For example, it is disclosed in Patent Document 1.

この特許文献1では、計測装置は、コンピュータを含み、コンピュータには複数のレーザーレンジファインダが接続される。複数のレーザーレンジファインダは、 或る環境に配置され、コンピュータは、レーザーレンジファインダの検出結果に基づいて人を追跡する。たとえば、コンピュータは、パーティクルフィルタを用いて、人の位置および移動速度を推定し、胴体および両腕を3つの円で組み合わせた人形状モデルを用いて、人の身体の方向と腕の動きとを推定する。同様の技術内容は、非特許文献1にも開示されている。   In Patent Document 1, the measurement device includes a computer, and a plurality of laser range finders are connected to the computer. A plurality of laser range finders are arranged in an environment, and the computer tracks a person based on the detection results of the laser range finders. For example, a computer estimates the position and moving speed of a person using a particle filter, and uses a human shape model that combines a torso and both arms with three circles to determine the direction of the person's body and the movement of the arm. presume. Similar technical contents are also disclosed in Non-Patent Document 1.

また、レーザレンジファインダにより、人間を検知およびトラッキングするに際して、1つの位置に配置されるポールごとに3つ高さのレベル、頭部の高さ、上体の高さ、および脚部の高さに相当するレーザレンジファインダを設置する技術が、非特許文献2に開示されている。   Also, when detecting and tracking humans with a laser range finder, each pole placed at one position has three levels of height, head height, upper body height, and leg height. A technique for installing a laser range finder corresponding to is disclosed in Non-Patent Document 2.

また、カルマンフィルタを用いて、人間の脚を追跡し、人間のパターンと人間以外のパターンとを判別する技術が、非特許文献3に開示されている。   Further, Non-Patent Document 3 discloses a technique that uses a Kalman filter to track a human leg and discriminate between a human pattern and a non-human pattern.

特開2009−168578号公報JP 2009-168578 A

D. F. Glas, T. Miyashita, H. Ishiguro, and N. Hagita, ”Laser−based tracking of human position and orientation using parametric shape modeling”, Advanced Robotics, vol. 23, no. 4, pp. 405−428, 2009D. F. Glas, T.W. Miyashita, H .; Ishiguro, and N.K. Hagita, “Laser-based tracking of human position and orientation using parametric shape modeling”, Advanced Robotics, vol. 23, no. 4, pp. 405-428, 2009 O. M. Mozos, R. Kurazume, and T. Hasegawa, “Multi−Part people detection using 2D range data”, Int. Journal of Social Robotics, vol. 2, no. 1, pp. 31−40, 2010O. M.M. Mozos, R.A. Kurazume, and T.K. Hasegawa, “Multi-Part people detection using 2D range data”, Int. Journal of Social Robots, vol. 2, no. 1, pp. 31-40, 2010 K. O. Arras, S. Grzonka, M. Luber, and W. Burgard, “Efficient people tracking in laser range data using a multi−hypothesis leg−tracker with adaptive occlusion probabilities,” in Proc. of IEEE Int. Conf. on Robotics and Automation, 2008, pp. 1710−1715K. O. Arras, S.M. Grzonka, M.M. Luber, and W.L. Burgard, “Efficient people tracking in laser range data using a multi-hypothesis leg-tracker with adaptive occlusion probes,” in Proc. of IEEE Int. Conf. on Robotics and Automation, 2008, pp. 1710-1715

ただし、特許文献1に開示された技術は、距離計測センサによって、被験者の位置、移動速度、身体の向きおよび腕の位置の推定するための技術であって、距離センサのデータに基づいて、検出された対象を識別することを目的としたものではない。   However, the technique disclosed in Patent Document 1 is a technique for estimating the position, moving speed, body orientation, and arm position of a subject by a distance measurement sensor, and is detected based on the data of the distance sensor. It is not intended to identify the subject that was made.

また、非特許文献3のような技術はあるものの、移動する対象が複数同時に存在し、かつ、人間および人間以外の対象が観測領域内に存在するような環境で、対象を追跡しつつ、正確に対象を識別するのは、必ずしも容易ではないという問題があった。   Although there is a technique such as Non-Patent Document 3, there is a plurality of moving objects at the same time, and in an environment where humans and non-human objects exist in the observation area, the target is accurately tracked. However, it is not always easy to identify the target.

本発明は、上記のような問題を解決するためになされたものであって、その目的は、距離計測センサを用いて、観測領域内の移動対象を追跡しつつ、精度よく、対象を識別して分類することが可能な計測システムおよび計測方法を提供することである。   The present invention has been made to solve the above-described problems, and its purpose is to accurately identify an object while tracking a moving object in an observation region using a distance measurement sensor. It is to provide a measurement system and a measurement method that can be classified.

この発明の1つの局面に従うと、観測領域内で対象の移動を追跡し、対象を分類するための計測システムであって、対象までの水平方向の距離を計測可能に配置された複数の距離計測手段と、複数の距離計測手段によって対象を計測した計測結果を取得する取得手段と、取得手段によって取得された計測結果から、対象の位置および移動速度を推定する追跡手段と、計測結果に基づいて、対象の水平な2次元断面形状の特徴を表現する特徴ベクトルを算出する特徴抽出手段と、特徴ベクトルに基づいて、対象が予め定められた分類の各クラスのうちのいずれのクラスに属するかを判別する判別手段とを備え、判別手段は、特徴ベクトルに基づいて、対象が予め定められた分類の各クラスに属する確率を事前確率として算出する事前確率算出手段と、対象の移動速度および対象間の距離に基づいて、対象が他の対象と同期して移動している同期状態であるかを判別し、事前確率と、同期状態にある対象がクラスに対応する尤度とに基づいて、対象が属するクラスを判別する同期状態検知手段とを含む。   According to one aspect of the present invention, a measurement system for tracking the movement of an object in an observation region and classifying the object, and measuring a plurality of distances arranged so as to be able to measure a horizontal distance to the object Based on the measurement results, the acquisition means for acquiring the measurement results obtained by measuring the object by the plurality of distance measurement means, the tracking means for estimating the position and moving speed of the object from the measurement results acquired by the acquisition means, A feature extraction unit that calculates a feature vector that expresses a feature of a horizontal two-dimensional cross-sectional shape of the target, and which class of each class of a predetermined class the target belongs to based on the feature vector Discriminating means for discriminating, and the discriminating means calculates the probability that the target belongs to each class of a predetermined class as a prior probability based on the feature vector. Based on the movement speed of the target and the distance between the targets, it is determined whether the target is in a synchronized state moving in synchronization with other targets, and the prior probability and the target in the synchronized state correspond to the class Synchronization state detecting means for discriminating a class to which the object belongs based on the likelihood of performing.

好ましくは、特徴ベクトルは、対象の水平な2次元断面形状のサイズと対象の水平な2次元断面形状のアスペクト比とを表現する、請求項1記載の計測システム。   The measurement system according to claim 1, wherein the feature vector preferably represents a size of the horizontal two-dimensional cross-sectional shape of the target and an aspect ratio of the horizontal two-dimensional cross-sectional shape of the target.

好ましくは、同期状態検知手段は、対象のペアの速度ベクトルのなす角と、対象のペアのうちの一方の対象の速度ベクトルと対象のペアの対象間の間隔ベクトルとのなす角とに基づいて、対象のペアが同期状態であるかを判別する。   Preferably, the synchronization state detecting means is based on an angle formed by a speed vector of the target pair and an angle formed by a speed vector of one target of the target pairs and an interval vector between the targets of the target pair. , It is determined whether the target pair is in a synchronized state.

好ましくは、特徴抽出手段は、取得手段によって取得された同時刻における複数の計測結果に所定の間隔のデータを内挿する手段を有する。   Preferably, the feature extraction means includes means for interpolating data at a predetermined interval into a plurality of measurement results at the same time acquired by the acquisition means.

この発明の他の局面に従うと、観測領域内で対象の移動を追跡し、対象を分類するための計測方法であって、対象までの水平方向の距離を計測可能に配置された複数の距離計測手段によって対象を計測した計測結果を取得するステップと、取得された計測結果から、対象の位置および移動速度を推定するステップと、計測結果に基づいて、対象の水平な2次元断面形状の特徴を表現する特徴ベクトルを算出するステップと、特徴ベクトルに基づいて、対象が予め定められた分類の各クラスのうちのいずれのクラスに属するかを判別するステップとを備え、判別するステップは、特徴ベクトルに基づいて、対象が予め定められた分類の各クラスに属する確率を事前確率として算出するステップと、対象の移動速度および対象間の距離に基づいて、対象が他の対象と同期して移動している同期状態であるかを判別し、事前確率と、同期状態にある対象がクラスに対応する尤度とに基づいて、対象が属するクラスを判別するステップとを含む。   According to another aspect of the present invention, there is provided a measurement method for tracking the movement of an object in an observation region and classifying the object, and measuring a plurality of distances arranged so as to be able to measure a horizontal distance to the object A step of acquiring a measurement result obtained by measuring a target by means, a step of estimating a position and a moving speed of the target from the acquired measurement result, and a feature of a horizontal two-dimensional cross-sectional shape of the target based on the measurement result A step of calculating a feature vector to be expressed; and a step of determining which class of each class of a predetermined class the object belongs to based on the feature vector, wherein the step of determining includes: Based on the step of calculating the probability that the target belongs to each class of a predetermined classification as a prior probability, based on the moving speed of the target and the distance between the targets Determine whether the target is in a synchronized state moving in synchronization with other targets, and determine the class to which the target belongs based on the prior probability and the likelihood that the synchronized target corresponds to the class Steps.

この発明によれば、複数の距離計測手段により、観測領域内で移動する対象を追跡し、その対象が分類のいずれのクラスに属するかを判別する際に、対象の形状を反映した特徴ベクトルに基づいて判別するので、オクルージョンに対してロバストであって、対象の向きに対しても独立に判別が可能となる。   According to the present invention, when a target moving within the observation region is tracked by a plurality of distance measuring means and it is determined which class of the class the target belongs to the feature vector reflecting the shape of the target. Since the determination is based on this, it is robust with respect to occlusion and can be determined independently with respect to the direction of the object.

また、この発明によれば、特徴ベクトルによる判別を事前確率として、2つの対象の移動の同期状態による尤度を考慮した事後確率により判別を行うことで、判定の精度を向上させることが可能となる。   In addition, according to the present invention, it is possible to improve the accuracy of the determination by performing the determination based on the posterior probability in consideration of the likelihood based on the synchronization state of the movement of the two objects, with the determination based on the feature vector as the prior probability. Become.

実施の形態1の計測システム1000の構成を説明するための図である。It is a figure for demonstrating the structure of the measurement system 1000 of Embodiment 1. FIG. レーザーレンジファインダの検出高さのレベルと検出対象とを示す図である。It is a figure which shows the level of the detection height of a laser range finder, and a detection target. 計測演算装置100のハードウェア構成を説明するためのブロック図である。FIG. 3 is a block diagram for explaining a hardware configuration of a measurement arithmetic device 100. 本実施の形態の計測演算装置100において、上述したCPU56がソフトウェアを実行するにより実現する機能を示す機能ブロック図である。It is a functional block diagram which shows the function implement | achieved when the CPU56 mentioned above performs software in the measurement calculating apparatus 100 of this Embodiment. 観測領域に複数の人が存在し、かつ、1つのレーザレンジファインダにより観測がなされる場合を示す概念図である。It is a conceptual diagram which shows the case where a several person exists in an observation area | region and an observation is made with one laser range finder. 同時に追跡された対象の数と、その観測がなされた時間間隔との関係を示す図である。It is a figure which shows the relationship between the number of the objects tracked simultaneously, and the time interval when the observation was made. 、人HとベビーカートBとが、4つのレーザーレンジファインダ10.1〜10.4により測距される様子を示す概念図である。It is a conceptual diagram which shows a mode that the person H and the baby cart B are measured by the four laser range finders 10.1 to 10.4. 対象X(人H)および対象Y(ベビーカートB)についての特徴ベクトルを示す概念図である。It is a conceptual diagram which shows the feature vector about the object X (person H) and the object Y (baby cart B). 判別関数値について、それぞれのクラスH,W,S,Bの正規分布を示す図である。It is a figure which shows the normal distribution of each class H, W, S, and B about a discriminant function value. 同期状態の特定を実行する対象をモデル化して示す図である。It is a figure which models and shows the object which performs specification of a synchronous state. 距離d0以内の範囲で移動する2つの対象について、測距データ(エッジ情報)を示す概念図である。For two moving objects within a range of distances d 0, it is a conceptual diagram illustrating the distance measurement data (edge information). 追跡モジュール部5610および識別処理モジュール5620が実行する処理を説明するためのフローチャートである。22 is a flowchart for explaining processing executed by a tracking module unit 5610 and an identification processing module 5620. 識別処理モジュール5620が実行する各対象へのラベルの割り当て処理を説明するためのフローチャートである。22 is a flowchart for explaining label assignment processing to each target executed by the identification processing module 5620. 追跡が実施された場合の1つの場面を示す図である。It is a figure which shows one scene when tracking is implemented. ラベルの割当の結果を示す図である。It is a figure which shows the result of the allocation of a label. 判別された対象のペアについて、各ペアの判別の正確性を示す図である。It is a figure which shows the accuracy of discrimination | determination of each pair about the discriminated target pair.

以下、本発明の実施の形態の計測システムについて、図に従って説明する。なお、以下の実施の形態において、同じ符号を付した構成要素および処理工程は、同一または相当するものであり、必要でない場合は、その説明は繰り返さない。   Hereinafter, a measurement system according to an embodiment of the present invention will be described with reference to the drawings. In the following embodiments, components and processing steps given the same reference numerals are the same or equivalent, and the description thereof will not be repeated unless necessary.

(実施の形態1)
図1は、実施の形態1の計測システム1000の構成を説明するための図である。
(Embodiment 1)
FIG. 1 is a diagram for explaining a configuration of a measurement system 1000 according to the first embodiment.

図1では、たとえば、ショッピングセンターの一部の領域に、4つの距離計測センサ10.1〜10.4を配置した状態を示す。また、計測システム1000においては、対象の追跡および特定処理を実行するための計測演算装置100も配置される。ここで、距離計測センサとしては、非接触で二点間の距離を計る計測機器であればよいが、以下では、距離計測センサ10.1〜10.4は、それぞれ、レーザーレンジファインダであるものとして説明する。   For example, FIG. 1 shows a state in which four distance measurement sensors 10.1 to 10.4 are arranged in a partial area of a shopping center. In the measurement system 1000, a measurement arithmetic device 100 is also arranged for executing target tracking and specific processing. Here, the distance measuring sensor may be any measuring device that measures the distance between two points in a non-contact manner, but in the following, each of the distance measuring sensors 10.1 to 10.4 is a laser range finder. Will be described.

図1において、所定の観測領域をショッピングセンターとしたことにより、人間(以下、記号Hで表す)が移動時に使用する補助具として、ベビーカート(以下、記号Bで表す)、ショッピングカート(以下、記号Sで表す)、車椅子(以下、記号Wで表す)を想定する。   In FIG. 1, by setting a predetermined observation area as a shopping center, a baby cart (hereinafter referred to as symbol B), a shopping cart (hereinafter referred to as symbol B), a shopping cart (hereinafter referred to as symbol B) are used as auxiliary tools for humans (hereinafter referred to as symbol H) during movement. Assume a wheelchair (denoted by symbol S) and a wheelchair (hereinafter denoted by symbol W).

図1においては、人間HがベビーカートBを押している状態、人間HがショッピングカートSを押している状態、人間Hが他の人間Hと並んで歩行している状態とが例示されている。   In FIG. 1, a state where the human H is pushing the baby cart B, a state where the human H is pushing the shopping cart S, and a state where the human H is walking side by side with other humans H are illustrated.

また、計測演算装置100は、特に限定されないが、汎用のコンピュータで実現することが可能であり、レーザーレンジファインダ10.1〜10.4とは、所定の規格のインターフェイスを介して接続される。図1の例では、1台の計測演算装置100にすべてのレーザーレンジファインダ10.1〜10.4を接続するようにしてあるが、LANのようなネットワークで接続される2台以上のコンピュータで処理を分担するようにしてもよい。その場合には、たとえば、いずれか1台のコンピュータが統括コンピュータとして機能すればよい。   Moreover, the measurement arithmetic device 100 is not particularly limited, but can be realized by a general-purpose computer, and is connected to the laser range finders 10.1 to 10.4 via an interface of a predetermined standard. In the example of FIG. 1, all the laser range finders 10.1 to 10.4 are connected to one measurement arithmetic device 100, but two or more computers connected via a network such as a LAN. You may make it share processing. In that case, for example, any one computer may function as a central computer.

さらに、図1の例では、所定の観測領域における対象を追跡するために、4つのレーザーレンジファインダ10.1〜10.4を設けるようにしてあるが、これは単なる例示である。したがって、領域の大きさ、形状、障害物の位置や個数に応じて、レーザーレンジファインダの数は適宜変更される。レーザーレンジファインダ10.1〜10.4は、建物内の所定の観測領域内の移動対象を検出可能な位置に配置され、レーザーレンジファインダ 10.1〜10.4の各々は、少なくとも2つ以上のレーザーレンジファインダ10.1〜10.4の検出領域が重なるように配置される。   Further, in the example of FIG. 1, four laser range finders 10.1 to 10.4 are provided to track an object in a predetermined observation area, but this is merely an example. Therefore, the number of laser range finders is appropriately changed according to the size, shape, and position and number of obstacles. The laser range finders 10.1 to 10.4 are arranged at positions where a moving object in a predetermined observation area in the building can be detected, and each of the laser range finders 10.1 to 10.4 is at least two or more. The laser range finders 10.1 to 10.4 are arranged so as to overlap.

レーザーレンジファインダ10.1〜10.4は、レーザーを照射し、物体に反射して戻ってくるまでの時間から当該物体ための距離を計測するものである。たとえば、トランスミッタ(図示せず)から照射したレーザーを回転ミラー(図示せず)で反射させて、前方を扇状に一定角度(たとえば、0.5度)ずつスキャンする。   The laser range finder 10.1-10.4 measures the distance for the said object from the time it irradiates with a laser, is reflected on an object, and returns. For example, a laser beam emitted from a transmitter (not shown) is reflected by a rotating mirror (not shown), and the front is scanned in a fan shape by a certain angle (for example, 0.5 degrees).

ここで、レーザーレンジファインダ10.1〜10.4の計測範囲は、半径Rの半円形状(扇形)で示される。つまり、レーザーレンジファインダ10.1〜10.4は、その正面方向を中心とした場合に、左右について所定の角度、たとえば、90°の方向を所定の距離(R)以内で計測可能である。   Here, the measurement range of the laser range finder 10.1 to 10.4 is indicated by a semicircular shape (fan shape) with a radius R. That is, the laser range finder 10.1 to 10.4 can measure a predetermined angle with respect to the left and right, for example, a direction of 90 ° within a predetermined distance (R) when the front direction is the center.

また、使用しているレーザーは、日本工業規格 JIS C 6802 「レーザー製品の安全基準」におけるクラス1レーザーであり、人の眼に対して影響を及ぼさない安全なレベルであるものとする。   The laser used is a class 1 laser in Japanese Industrial Standard JIS C 6802 “Safety Standards for Laser Products”, and is at a safe level that does not affect human eyes.

[ハードウェアブロック]
図2は、レーザーレンジファインダの検出高さのレベルと検出対象とを示す図である。
[Hardware block]
FIG. 2 is a diagram showing the detection height level of the laser range finder and the detection target.

図2に例示されるように、レーザーレンジファインダ10.1〜10.4は、人間が移動する際の補助具であるベビーカートB、ショッピングカートS、車椅子Wを識別するために、床から52cmの高さのレベルL2での距離測定を行う。さらに、レーザーレンジファインダ10.1〜10.4は、移動対象(歩行者)のトラッキングのために、床から87cmの高さのレベルL1での距離測定を行う。この高さL1は、いずれの補助具についてもその上端に近いレベルであるとともに、対象となる歩行者の胴体を検出可能とするために設定された高さであり、たとえば、日本人の成人の平均身長から算出される。したがって、計測システム1000を設ける場所(地域ないし国)等に応じて、レーザーレンジファインダ10.1〜10.4の測距の高さL1は、適宜変更されてもよい。   As illustrated in FIG. 2, the laser range finder 10.1 to 10.4 is 52 cm from the floor in order to identify the baby cart B, shopping cart S, and wheelchair W, which are aids when a person moves. The distance is measured at the level L2 of the height. Further, the laser range finders 10.1 to 10.4 perform distance measurement at a level L1 having a height of 87 cm from the floor in order to track a moving object (pedestrian). This height L1 is a level close to the upper end of any assisting device, and is a height set so as to be able to detect the torso of the target pedestrian. Calculated from average height. Therefore, the distance measurement height L1 of the laser range finder 10.1 to 10.4 may be appropriately changed according to the place (region or country) where the measurement system 1000 is provided.

ここで、図示は省略するが、計測演算装置100の計測結果は、たとえば、被験者とコミュニケーションするロボット(コミュニケーションロボット)などに与えられ、この計測結果を用いて、コミュニケーションロボットは被験者とのコミュニケーションを円滑に実行する、というような構成とすることが可能である。たとえば、コミュニケーションロボットは、被験者の位置を確認して、被験者に近づき、身振りや手振りのような動作(行動)および音声の少なくとも一方によるコミュニケーション行動を実行する。また、被験者が移動する場合には、コミュニケーションロボットはその速度で被験者に並走し、移動しながらコミュニケーションを取ることも可能である。   Here, although illustration is omitted, the measurement result of the measurement arithmetic device 100 is given to, for example, a robot (communication robot) that communicates with the subject, and the communication robot facilitates communication with the subject using this measurement result. It is possible to adopt a configuration such as For example, the communication robot confirms the position of the subject, approaches the subject, and executes a communication behavior by at least one of an action (behavior) such as gesture or hand gesture and voice. In addition, when the subject moves, the communication robot can run parallel to the subject at that speed and communicate while moving.

図3は、計測演算装置100のハードウェア構成を説明するためのブロック図である。   FIG. 3 is a block diagram for explaining a hardware configuration of the measurement arithmetic device 100.

図3に示されるように、計測演算装置100は、外部記録媒体64に記録されたデータを読み取ることができるドライブ装置52と、バス66に接続された中央演算装置(CPU:Central Processing Unit)56と、ROM(Read Only Memory) 58と、RAM(Random Access Memory)60と、不揮発性記憶装置54と、レーザレンジファインダ10.1〜10.4からの測距データを取込むためのデータ入力インタフェース(以下、データ入力I/F)68とを含んでいる。   As shown in FIG. 3, the measurement arithmetic device 100 includes a drive device 52 that can read data recorded on the external recording medium 64, and a central processing unit (CPU: Central Processing Unit) 56 connected to a bus 66. A ROM (Read Only Memory) 58, a RAM (Random Access Memory) 60, a non-volatile storage device 54, and a data input interface for fetching distance measurement data from the laser range finders 10.1 to 10.4 (Hereinafter, data input I / F) 68.

外部記録媒体64としては、たとえば、CD−ROM、DVD−ROMのような光ディスクやメモリカードを使用することができる。ただし、記録媒体ドライブ52の機能を実現する装置は、光ディスクやフラッシュメモリなどの不揮発性の記録媒体に記憶されたデータを読み出せる装置であれば、対象となる記録媒体は、これらに限定されない。また、不揮発性記憶装置54の機能を実現する装置も、不揮発的にデータを記憶し、かつ、ランダムアクセスできる装置であれば、ハードディスクのような磁気記憶装置を使用してもよいし、フラッシュメモリなどの不揮発性半導体メモリを記憶装置として用いるソリッドステートドライブ(SSD:Solid State Drive)を用いることもできる。   As the external recording medium 64, for example, an optical disk such as a CD-ROM or a DVD-ROM or a memory card can be used. However, the target recording medium is not limited to this as long as the device that realizes the function of the recording medium drive 52 is a device that can read data stored in a nonvolatile recording medium such as an optical disk or a flash memory. In addition, a device that realizes the function of the nonvolatile storage device 54 may be a magnetic storage device such as a hard disk or a flash memory as long as it can store data in a nonvolatile manner and can be accessed randomly. A solid state drive (SSD) that uses a nonvolatile semiconductor memory such as a storage device can also be used.

このような計測演算装置100の主要部は、コンピュータハードウェアと、CPU56により実行されるソフトウェアとにより実現される。一般的にこうしたソフトウェアは、マスクROMやプログラマブルROMなどにより、計測演算装置100製造時に記録されており、これが実行時にRAM60に読みだされる構成としてもよいし、ドライブ装置52により記録媒体64から読取られて不揮発性記憶装置54に一旦格納され、実行時にRAM60に読みだされる構成としてもよい。または、当該装置がネットワークに接続されている場合には、ネットワーク上のサーバから、一旦、不揮発性記憶装置54にコピーされ、不揮発性記憶装置54からRAM60に読出されてCPU56により実行される構成であってもよい。   The main part of such a measurement arithmetic device 100 is realized by computer hardware and software executed by the CPU 56. In general, such software is recorded by mask ROM, programmable ROM, or the like at the time of measurement and calculation device 100 manufacture. The software may be read into RAM 60 at the time of execution, or read from recording medium 64 by drive device 52. It may be configured to be temporarily stored in the nonvolatile storage device 54 and read to the RAM 60 at the time of execution. Alternatively, when the device is connected to a network, the server is temporarily copied from the server on the network to the nonvolatile storage device 54, read from the nonvolatile storage device 54 to the RAM 60, and executed by the CPU 56. There may be.

図3に示したコンピュータのハードウェア自体およびその動作原理は一般的なものである。したがって、本発明の最も本質的な部分の1つは、不揮発性記憶装置54等の記録媒体に記憶されたソフトウェアである。   The computer hardware itself and its operating principle shown in FIG. 3 are general. Accordingly, one of the most essential parts of the present invention is software stored in a recording medium such as the nonvolatile storage device 54.

[システムの機能ブロック]
以下に説明するとおり、本実施の形態の計測演算装置100では、コンピュータがレーザーレンジファインダ10.1〜10.4からの出力(距離データ)に基づいて、パーティクルフィルタを用いて、対象の位置および速度を推定する。
[System functional blocks]
As will be described below, in the measurement arithmetic device 100 according to the present embodiment, the computer uses the particle filter based on the outputs (distance data) from the laser range finders 10.1 to 10.4, and the target position and Estimate speed.

図4は、本実施の形態の計測演算装置100において、上述したCPU56がソフトウェアを実行するにより実現する機能を示す機能ブロック図である。   FIG. 4 is a functional block diagram showing functions realized by the above-described CPU 56 executing software in the measurement arithmetic device 100 according to the present embodiment.

なお、図4に示した機能ブロックのうちのCPU56が実現する機能ブロックとしては、ソフトウェアでの処理に限定されるものではなく、その一部または全部がハードウェアにより実現されてもよい。   Note that the functional blocks realized by the CPU 56 among the functional blocks shown in FIG. 4 are not limited to software processing, and a part or all of them may be realized by hardware.

図4を参照して、レーザーレンジファインダ10.1〜10.4からの測距信号は、データキャプチャ処理部5602により制御されてデジタルデータとして入力され、キャプチャデータ記録処理部5604により、たとえば、不揮発性記憶装置54のような記憶装置に格納される。   Referring to FIG. 4, ranging signals from laser range finders 10.1 to 10.4 are controlled by data capture processing unit 5602 and input as digital data, and captured data recording processing unit 5604, for example, is nonvolatile. Stored in a storage device such as the sexual storage device 54.

後に詳しく説明するように、計測演算装置100は、さらに、パーティクルフィルタ法を用いて対象の位置の追跡処理を実行するための追跡モジュール部5610と、対象を識別して特定する処理を実行するための識別処理モジュール5620とを含む。   As will be described in detail later, the measurement arithmetic device 100 further executes a tracking module unit 5610 for performing tracking processing of the position of the target using the particle filter method, and processing for identifying and specifying the target. Identification processing module 5620.

追跡モジュール部5610は、対象の時刻tの状態を、対象の動作モデルと前時刻(t−1)の状態およびパーティクルの重みとに基づいて、予測する更新計算部5612と、測距データを記憶装置54から読みだして、パーティクル毎に時刻tの測距データと状態との尤度を計算し、各パーティクルの重みを尤度に基づいて割り当てる重み割当計算部5614と、すべてのパーティクルが表わす対象の状態と重みとから、現在の対象の状態を推定する状態評価計算部5616と、推定された状態と重みに基づいて、パーティクルのリサンプリングを実行するリサンプリング計算部5618とを含む。このような追跡モジュール部5610の動作については、後に、詳しく説明する。   The tracking module unit 5610 predicts the state of the target time t based on the behavior model of the target, the state of the previous time (t−1), and the weight of the particle, and stores the distance measurement data. Read from the device 54, calculate the likelihood of the distance measurement data and the state at time t for each particle, assign the weight of each particle based on the likelihood, and objects represented by all particles The state evaluation calculation unit 5616 for estimating the current target state from the state and the weight of the current state, and the resampling calculation unit 5618 for executing the resampling of the particle based on the estimated state and the weight. The operation of the tracking module unit 5610 will be described in detail later.

識別処理モジュール5620は、測距データから、各対象について、後に説明する特徴ベクトルを抽出する特徴抽出演算部5622と、抽出された特徴ベクトルに基づいて対象の分類のための事前確率を算出する事前確率算出部5624と、対象間の距離と対象の速度ベクトルとに基づいて、同期状態(CQ:Coherence Quality)を検知するCQ検知部5626と、検知された同期状態に応じて、対象に対していずれの分類に属するかのラベルを割り当てるラベル割当処理部5628とを含む。   The identification processing module 5620 extracts a feature vector, which will be described later, for each target from the distance measurement data, and calculates a prior probability for classifying the target based on the extracted feature vector. Based on the probability calculation unit 5624, the distance between the targets and the velocity vector of the target, the CQ detection unit 5626 that detects the synchronization state (CQ: Coherence Quality), and the target according to the detected synchronization state A label assignment processing unit 5628 for assigning a label belonging to which classification.

(対象の位置の検出および追跡)
以下では、上述した人を含む対象の位置の検出とその追跡処理について説明する。
(Detection and tracking of target position)
Below, the detection of the position of the object containing the person mentioned above and its tracking process are demonstrated.

本アルゴリズムでは、1つの対象ごとに、パーティクルフィルタと呼ばれるパーティクルの集合を1つ関連付けることにより追跡(トラッキング)を実行する。   In this algorithm, tracking is performed by associating one set of particles called a particle filter for each target.

このような追跡においては、対象の観測領域への進入、対象の連続的な追跡、対象の観測領域からの退出のイベントを検知する必要がある。   In such tracking, it is necessary to detect events of entry into the observation area of the object, continuous tracking of the object, and exit from the observation area of the object.

対象の観測領域への侵入は、前時刻までの測距データによる背景モデルと現在のセンサデータとの比較により検知される。背景モデルも、時間とともに更新される。このようにして、前景データ(現時点の対象のデータ)が特定され、このような前景データから、連続したセグメント、すなわち、対象の候補となるパターンが抽出され、このような候補が登録される。   The intrusion into the target observation area is detected by comparing the background model based on the distance measurement data up to the previous time and the current sensor data. The background model is also updated over time. In this way, foreground data (current target data) is specified, continuous segments, that is, patterns serving as target candidates are extracted from such foreground data, and such candidates are registered.

追跡の段階では、このような候補の各々に、パーティクルフィルタが割り当てられる。   At the tracking stage, each such candidate is assigned a particle filter.

パーティクルフィルタによって、対象の候補Xについて、以下のように表現される状態sX[t]が推定される。 The state s X [t] expressed as follows is estimated for the target candidate X by the particle filter.

そして、上記のような対象の候補Xが、所定の期間、たとえば、0.4秒存在し続けた後に、この候補が、有効な対象として登録される。 Then, after the target candidate X as described above continues to exist for a predetermined period, for example, 0.4 seconds, this candidate is registered as an effective target.

対象の追跡は、パーティクルフィルタを周期的に更新することにより実行される。   Object tracking is performed by periodically updating the particle filter.

このようなパーティクルフィルタによる追跡処理では、以下のようなステップが繰り返される。   In the tracking process using such a particle filter, the following steps are repeated.

i)更新ステップ
動作モデルにしたがって、各パーティクルの状態が更新される。動作モデルは、追跡処理の対象のダイナミクスを反映したものとなる。
i) Update step The state of each particle is updated according to the behavior model. The behavior model reflects the dynamics to be tracked.

ここで、人間の歩行動作は、人間は、立ち止まったり、急に歩く方向を変えたりするために、単純な線型関数や乱雑動作を表すブラウン運動によっては、近似できない。そこで、動作モデルとしては、パーティクルの状態を上述のように、位置と速度であるとした場合に、速度成分にガウスノイズを加え、このような速度にしたがって、位置が移動するとのモデルを採用する。すなわち、たとえば、以下のような式のモデルを採用する。   Here, the human walking motion cannot be approximated by a simple linear function or a Brownian motion representing a random motion because the human stops or suddenly changes the walking direction. Therefore, as the motion model, when the particle state is the position and velocity as described above, a model in which Gaussian noise is added to the velocity component and the position moves according to such velocity is adopted. . That is, for example, the following model is employed.

ここで、wx、wyは、平均0で、標準偏差σx、σyのガウシアンノイズである。 Here, w x and w y are Gaussian noises having an average of 0 and standard deviations σ x and σ y .

ii)重み割当ステップ
尤度モデルにしたがって、各パーティクルに相対的な尤度を表す重みを割り当てる。ここで、尤度は、以下のように表される。
ii) Weight assignment step Assign a weight representing a relative likelihood to each particle according to a likelihood model. Here, the likelihood is expressed as follows.

なお、尤度モデルについては、後に詳しく説明する。 The likelihood model will be described in detail later.

iii)状態評価ステップ
パーティクルの状態の平均として、各対象の状態が算出される。
iii) State evaluation step The state of each target is calculated as an average of the state of the particles.

iv)リサンプリングステップ
システムの状態をより正確に反映させるために、パーティクルをその重み比例した確率で、復元抽出して、時刻tにおける新たなパーティクルの集合を得る。なお、リサンプリングの方法としては、SIR(Sampling Importance Resampling)法を用いることができるが、この方法に限定されるものではない。
(尤度モデル)
以下では、上述した尤度モデルについて、簡単に説明する。より詳しい説明は、たとえば、非特許文献1に開示がある。
iv) Resampling step In order to more accurately reflect the state of the system, particles are restored and extracted with a probability proportional to their weights, and a new set of particles at time t is obtained. As a resampling method, a SIR (Sampling Importance Resampling) method can be used, but it is not limited to this method.
(Likelihood model)
Below, the likelihood model mentioned above is demonstrated easily. More detailed explanation is disclosed in Non-Patent Document 1, for example.

尤度モデルの目的は、上述した尤度を近似するモデルを提供することである。ここで、尤度を計算するに当たり、本実施の形態では、測定の結果得られるのは、複数のレーザレンジファインダによる測定データである。したがって、ロバストな尤度モデルは、センサの測定値に含まれるノイズ、オクルージョンなどに対して、ロバストな尤度の評価を与えうるものでなければならない。   The purpose of the likelihood model is to provide a model that approximates the likelihood described above. Here, in calculating the likelihood, in this embodiment, measurement data obtained by a plurality of laser range finders is obtained as a result of measurement. Therefore, the robust likelihood model must be capable of giving a robust likelihood evaluation to noise, occlusion, and the like included in the sensor measurement values.

レーザレンジファインダからは、対象の位置を評価するために有用な以下のような情報を得ることができる。   From the laser range finder, the following information useful for evaluating the position of the object can be obtained.

i)占有情報 : 観測領域内のある点が、ものに占められているか、あるいは、そうでないかを示す情報である。     i) Occupancy information: Information indicating whether a certain point in the observation area is occupied or not.

ii)エッジ情報 : 検出された対象のエッジに対応する輪郭線(の一部)の情報である。     ii) Edge information: Information on (a part of) the contour line corresponding to the detected target edge.

図5は、観測領域に複数の人が存在し、かつ、1つのレーザレンジファインダにより観測がなされる場合を示す概念図である。   FIG. 5 is a conceptual diagram showing a case where a plurality of people exist in the observation area and observation is performed by one laser range finder.

図5(a)は、1つのレーザレンジファインダによるスキャンの様子を示す。図5(b)は、占有情報を示す。ここで、黒で示された領域は、ここでは、人の存在のためにレーザレンジファインダからは、影領域(占有領域)とされた領域である。一方、灰色の領域は、レーザレンジファインダからは可視領域(非占有領域)とされた領域である。   FIG. 5A shows a state of scanning by one laser range finder. FIG. 5B shows occupancy information. Here, the area shown in black is an area that is a shadow area (occupied area) from the laser range finder due to the presence of a person. On the other hand, the gray region is a region that is a visible region (non-occupied region) from the laser range finder.

図5(c)は、エッジ情報を示す。すなわち、所定のスキャン間隔でスキャンした時に、レーザレンジファインダの測定から上記占有領域のエッジとされる点の位置情報である。   FIG. 5C shows edge information. That is, it is the position information of the point that is the edge of the occupied area from the measurement of the laser range finder when scanning at a predetermined scan interval.

レーザレンジファインダごとの測定により、領域が「可視領域」「影領域」「観測不能領域」に分割されることで、占有尤度が得られる。ここで、「観測不能領域」とは、そのレーザレンジファインダにとっての背景モデル外の領域である。   Occurrence likelihood is obtained by dividing the region into “visible region”, “shadow region”, and “unobservable region” by measurement for each laser range finder. Here, the “unobservable region” is a region outside the background model for the laser range finder.

ここで、影領域は、必ず、エッジの背後に存在することになる。   Here, the shadow area always exists behind the edge.

上述した状態を計算するために、以下の式を用いる。   In order to calculate the state described above, the following equation is used.

ここで、NSは、レーザレンジファインダの個数であり、定数pcolは、2つのパーティクルフィルタが、同一の対象を追跡しないようにするために減算される定数である。 Here, N S is the number of laser range finder, the constant p col, the two particle filters, is a constant to be subtracted in order not to track the same target.

すなわち、基本的には、影領域にあるときの尤度は、定数psと尤度peとの和を、レーザレンジファインダについて積算することで得られる。ここで、尤度peは、観測されたエッジの背後の所定の距離の位置を中心とする正規分布である。ここでは、この所定の距離として、50cmを採用している。 That is, basically, the likelihood when in the shadow region can be obtained by integrating the sum of the constant p s and the likelihood p e with respect to the laser range finder. Here, the likelihood p e is a normal distribution centered on the position of a predetermined distance behind the observed edge. Here, 50 cm is adopted as the predetermined distance.

また、定数poは、可視領域にあるときの尤度を表す定数である。ここで、本来であれば、可視領域では、尤度は0とするべきであるものの、種々の誤差により、実際には、可視領域と影領域との境界は、完全に、2値的には分離できないため、演算にエラー耐性を持たせるために、一定の値を有するものとしている。これにより、パーティクルは、影領域外に存在することになっても、直ちには、消滅しない。 The constant p o is a constant that represents the likelihood when it is in the visible region. Here, although the likelihood should be 0 in the visible region, the boundary between the visible region and the shadow region is actually completely binary due to various errors. Since it cannot be separated, it is assumed that it has a certain value in order to give error tolerance to the operation. As a result, even if the particles are present outside the shadow area, they do not disappear immediately.

また、観測領域からの対象の退出については、i)その対象に関連付けられたパーティクルが、所定の値以上に広がってしまった場合や、ii)そのパーティクルフィルタについての尤度の平均が所定の値を下回った場合には、そのパーティクルフィルタは、もはや対象を追跡していないものとして、関連する対象が、登録から削除される。   As for the exit of the target from the observation area, i) when the particle associated with the target has spread beyond a predetermined value, or ii) the average likelihood for the particle filter is a predetermined value. If so, the particle filter is no longer tracking the target and the associated target is removed from the registration.

また、後に説明するように、追跡の対象は、所定の時間、たとえば、2秒以上、観測領域内に存在すると、識別されて分類される対象となる。   Further, as will be described later, a tracking target is a target to be identified and classified if it exists in the observation region for a predetermined time, for example, 2 seconds or more.

(モデリングと特徴抽出)
以下、上述したような対象の識別と分類について説明する。
(Modeling and feature extraction)
Hereinafter, the identification and classification of the object as described above will be described.

このような対象の識別のためには、レーザレンジファインダの測距データから、以下に説明するような特徴ベクトルを抽出する。   In order to identify such an object, a feature vector as described below is extracted from the distance measurement data of the laser range finder.

ここで、このような識別の対象は、上述したようなショッピングセンターのような環境では、対象の形状は似通っているものの、対象の軌道は、さまざまな形状を取りうることになる。しかも、一般には、同時に検出される対象の個数に対して、レーザレンジファインダの個数は同数程度である場合が多い。   Here, in the environment such as the shopping center as described above, the object to be identified is similar in shape to the object, but the trajectory of the object can take various shapes. Moreover, in general, the number of laser range finders is often the same as the number of objects to be detected simultaneously.

図6は、上述したような追跡方法により同時に追跡された対象の数と、その観測がなされた時間間隔との関係を示す図である。   FIG. 6 is a diagram showing the relationship between the number of objects tracked simultaneously by the tracking method as described above and the time interval at which the observation was made.

後に説明する実際の実験において、所定の観測領域内では、少なくとも複数の対象が同時に追跡され、多い場合は、6から7個程度が、同時に追跡されている。   In an actual experiment described later, at least a plurality of objects are simultaneously tracked within a predetermined observation area, and in the case of many, about 6 to 7 objects are tracked simultaneously.

より詳しくは、観測時間のそれぞれ、25%、29%および22%が、同時に追跡された対象がそれぞれ、1個、2個および3個の期間である。また、観測時間の24%が、同時に追跡された対象が4個以上の期間である。   More specifically, 25%, 29% and 22% of the observation time, respectively, are one, two and three periods respectively tracked simultaneously. In addition, 24% of the observation time is a period of four or more objects tracked simultaneously.

したがって、このような識別のための特徴ベクトルは、以下のような特性を有することが望ましい。   Therefore, it is desirable that the feature vector for such identification has the following characteristics.

第一に、特徴ベクトルは、オクルージョンに対してロバストであることが必要であり、かつ、対象までの距離とは、独立なものでなければならない。   First, feature vectors need to be robust to occlusion and must be independent of the distance to the object.

第二に、対象の軌道は、大きく変わっていく可能性があるものの、特徴ベクトルは、対象の向きとは、独立なものでなければならない。   Second, the trajectory of the object can change significantly, but the feature vector must be independent of the orientation of the object.

レーザレンジファインダの測距データをx−y平面(水平平面)に変換した時、距離分解能を100mm以下に設定すると、測距データにより得られる測定サンプル(エッジ情報)は、観測領域内のセグメント(分割領域)として把握される。さらに、以下に説明するように、特徴ベクトルとして、対象の形状の特徴を表現するものを採用するので、生の測定サンプルに対してより均一な分布となるように前処理が施される。すなわち、レーザレンジファインダが扇型にスキャンすることに伴い、同一時刻での生の測定サンプルは、主としてレーザレンジファインダからの距離に応じて、たとえば、10mmから100mmの間隔で存在する。このような場合でも、前処理後の測定サンプルは、所定の間隔、たとえば、10mmごとに1つ存在することとなるように、生の測定サンプルを線型に内挿したものを生成する。   When the distance measurement data of the laser range finder is converted into the xy plane (horizontal plane), if the distance resolution is set to 100 mm or less, the measurement sample (edge information) obtained from the distance measurement data is obtained from the segment ( Divided area). Further, as will be described below, since a feature vector expressing the feature of the target shape is adopted, preprocessing is performed so that the raw measurement sample has a more uniform distribution. That is, as the laser range finder scans in a fan shape, raw measurement samples at the same time are present at intervals of, for example, 10 mm to 100 mm mainly depending on the distance from the laser range finder. Even in such a case, the measurement sample after the pretreatment is generated by linearly interpolating the raw measurement sample so that one exists at a predetermined interval, for example, every 10 mm.

このような前処理後の測定サンプルを用いて、対象Xの形状を表現するパラメータにより、特徴ベクトルは、以下のように表現されるものとする。   It is assumed that the feature vector is expressed as follows by using a parameter expressing the shape of the target X using the measurement sample after such preprocessing.

したがって、第1成分f1 Xは、車椅子WやベビーカートBでは、より大きな値となり、人Hについては、より小さな値となり、ショッピングカートSについては、もっとも小さな値となる。これは、図2に示すように、識別に使用される検出の高さレベルL2での断面積が、ショッピングカートSでは、もっとも小さいからである。すなわち、第1成分は、対象の水平な2次元断面形状のサイズを表現する成分である。 Therefore, the first component f 1 X has a larger value in the wheelchair W and the baby cart B, a smaller value for the person H, and a smallest value for the shopping cart S. This is because, in the shopping cart S, the cross-sectional area at the detection height level L2 used for identification is the smallest as shown in FIG. That is, the first component is a component that represents the size of the horizontal two-dimensional cross-sectional shape of the target.

第2成分f2 Xは、人HおよびベビーカートBについては、比較的広がりを持った分布を持つ。これは、人Hは、服装、年齢、性別などによって、この値がばらつくためであり、ベビーカートBでは、これにバッグがかけられたり、買い物かごが付けられたりするために、値がばらつくことになる。これに比べて、車椅子WやショッピングカードSでは、第2成分のばらつきは小さい。第2成分は、対象の水平な2次元断面形状のアスペクト比に相当する。 The second component f 2 X has a relatively broad distribution for the person H and the baby cart B. This is because the value of person H varies depending on clothes, age, gender, etc., and in baby cart B, the value varies because a bag is put on it or a shopping basket is attached. become. Compared to this, in the wheelchair W and the shopping card S, the variation of the second component is small. The second component corresponds to the aspect ratio of the target horizontal two-dimensional cross-sectional shape.

このような特徴ベクトルは、上述したような特徴ベクトルに対する一般的な要件をいずれも満たしている。   Such feature vectors satisfy all of the general requirements for feature vectors as described above.

すなわち、測定サンプルについては、上述したように、まず、生の測定サンプル間で内挿処理をしているために、仮に、オクルージョンにより対象の一部が影になったとしても、すなわち、生の測定サンプルが存在しない領域があっても、そのことが、特徴ベクトルに与える影響が緩和される。   That is, as described above, since the measurement sample is first interpolated between the raw measurement samples, even if a part of the object is shaded by occlusion, Even if there is a region where the measurement sample does not exist, the influence on the feature vector is reduced.

さらに、上述したような前処理を施すことで、測定サンプルが均一に分布することとしているので、特徴ベクトルは、レーザレンジファインダからの距離に独立なものとなり、さらに、第1成分および第2成分は、対象の向きに対しても独立である。   Furthermore, since the measurement sample is uniformly distributed by performing the pre-processing as described above, the feature vector is independent of the distance from the laser range finder, and further, the first component and the second component Is independent of the orientation of the object.

なお、特徴ベクトルは、対象の向きに依存せず、かつ、対象の形状の特徴をパラメータで表現したものであれば、上記のような特定の水平面についての断面でのサイズやアスペクト比に相当するパラメータに限定されない。たとえば、レーザレンジファインダの測距を行う水平面の個数を増やした場合には、そのような他の水平面の形状や、さらには、鉛直方向での形状の変化等を考慮に入れることも可能である。したがって、特徴ベクトルは、対象の向きに依存しない対象の形状を表現する複数のパラメータの列として定義される。   Note that the feature vector does not depend on the orientation of the object, and if the feature of the object shape is expressed by a parameter, it corresponds to the size or aspect ratio in the cross section of the specific horizontal plane as described above. It is not limited to parameters. For example, when the number of horizontal planes for measuring the distance of the laser range finder is increased, it is also possible to take into account such other horizontal plane shapes, or changes in the shape in the vertical direction. . Therefore, the feature vector is defined as a sequence of a plurality of parameters expressing the shape of the object that does not depend on the direction of the object.

図7は、図1に示した例において、人HとベビーカートBとが、4つのレーザーレンジファインダ10.1〜10.4により測距される様子を示す概念図である。   FIG. 7 is a conceptual diagram showing how the person H and the baby cart B are measured by the four laser range finders 10.1 to 10.4 in the example shown in FIG.

図8は、図7に示した場合において、対象X(人H)および対象Y(ベビーカートB)についての特徴ベクトルを示す概念図である。   FIG. 8 is a conceptual diagram showing feature vectors for the target X (person H) and the target Y (baby cart B) in the case shown in FIG.

図7に示すような測距により、図8において、黒点で示すような測距データが得られたものとする。   It is assumed that distance measurement data as shown by black dots in FIG. 8 is obtained by distance measurement as shown in FIG.

なお、図8では、生の測距データを示しているので、たとえば、ベビーカートBについては、測定サンプルの欠けた領域がある。ただし、このような領域についても、上述したような前処理後の測定サンプルには、内挿されたデータが生成される。   In FIG. 8, since the raw distance measurement data is shown, for example, for the baby cart B, there is an area where the measurement sample is missing. However, also in such a region, interpolated data is generated in the measurement sample after the preprocessing as described above.

対象X(人H)には、Nr X個のサンプルがあり、対象Y(ベビーカートB)には、Nr Y個の測定サンプルがあるので、これに応じて、特徴ベクトルの第1成分がそれぞれ算出される。 The target X (person H) has N r X samples, and the target Y (baby cart B) has N r Y measurement samples, and accordingly, the first component of the feature vector Are calculated respectively.

さらに、対象Xについては、固有値v1 Xおよびv0 Xが得られ、対象Yについては、固有値v1 Yおよびv0 Yが得られるので、これらに基づいて、特徴ベクトルの第2成分がそれぞれ算出される。
(形状に基づく分類のための事前確率)
まず、形状に特徴に基づいた対象の分類を実行する第1段階として、フィッシャーの線型判別(FLD : Fisher Linear Discriminant)を用いる。
Furthermore, eigenvalues v 1 X and v 0 X are obtained for the object X , and eigenvalues v 1 Y and v 0 Y are obtained for the object Y. Based on these, the second component of the feature vector is Calculated.
(A priori probability for classification based on shape)
First, Fisher's linear discriminant (FLD) is used as a first stage for performing classification of objects based on features in shape.

フィッシャーの線型判別自体は、周知なものであり、たとえば、以下の文献にも開示がある。   Fischer's linear discrimination itself is well known and disclosed in, for example, the following documents.

文献1:R. O. Duda, P. E. Hart, and D. G. Stork, Pattern Classification, 2nd ed. Newyork Wiley, 2001
特徴ベクトルfXに対するフィッシャーの線型判別関数gは、以下のような形式に表現される。
Reference 1: RO Duda, PE Hart, and DG Stork, Pattern Classification, 2nd ed. Newyork Wiley, 2001
Fisher's linear discriminant function g for the feature vector f X is expressed in the following format.

ここで、wは、重みベクトルであり、bは重みしきい値である。 Here, w is a weight vector, and b is a weight threshold value.

たとえば、分類に含まれるクラスを、クラスeiとクラスejとで表現する。以下の関係が成り立つのであれば、特徴ベクトルは、クラスeiが割り当てられる。   For example, classes included in the classification are expressed by class ei and class ej. If the following relationship holds, the class ei is assigned to the feature vector.

分類のための事前確率を得るために、フィッシャーの線型判別関数のトレーニングにおいて得られた各クラスの線型判別関数値に正規分布をフィッティングする。 In order to obtain prior probabilities for classification, a normal distribution is fitted to the linear discriminant function values of each class obtained in Fisher's linear discriminant function training.

図9は、判別関数値について、それぞれのクラスH,W,S,Bの正規分布を示す図である。   FIG. 9 is a diagram illustrating normal distributions of the classes H, W, S, and B with respect to the discriminant function values.

図9において、たとえば、一点鎖線で示されるような判別関数値を有する対象が観測されたとする。   In FIG. 9, for example, it is assumed that an object having a discriminant function value as indicated by a one-dot chain line is observed.

この場合、このようなグラフから、事前確率計算部5624は、対象の分類の事前確率として、対象がベビーカートBである確率P(B)、対象が人Hである確率P(H)、対象が車椅子Wである確率P(W)を、それぞれ、得ることができる。   In this case, from such a graph, the prior probability calculation unit 5624, as the prior probability of the target classification, the probability P (B) that the target is a baby cart B, the probability P (H) that the target is a person H, the target The probability P (W) that is a wheelchair W can be obtained.

なお、以上の説明では、フィッシャーの線型判別関数を例にとって説明したが、判別関数としては、これに限定されず、特徴ベクトルから、対応する対象がいずれのクラスに属するかを確率として得られるものであれば、他の判別関数を用いることも可能である。   In the above description, Fischer's linear discriminant function has been described as an example. However, the discriminant function is not limited to this, and can be obtained from the feature vector as a probability to which class the corresponding target belongs. Any other discriminant function can be used.

(前処理および同期状態の検知)
以下では、CQ検知部5626が、一緒に移動する対象を特定し、同期状態を検知するために、2つの対象について、速度ベクトルおよび間隔ベクトルの関係が調べる方法について説明する。
(Preprocessing and synchronization status detection)
Hereinafter, a method will be described in which the CQ detection unit 5626 checks the relationship between the velocity vector and the interval vector for two objects in order to identify the objects that move together and detect the synchronization state.

ここで、同期状態には、横並列移動(side by side)と縦列移動(tandem)とがある。   Here, the synchronized state includes horizontal parallel movement (side by side) and vertical movement (tandem).

図10は、このような同期状態の特定を実行する対象をモデル化して示す図である。   FIG. 10 is a diagram showing a model of a target on which the synchronization state is specified.

図10に示されるように、3つの対象X,Y,Zが、存在するとする。対象Xは、対象Yの後ろに従って動いており、対象Zは、対象Xと隣り合って移動しているものとする。   As shown in FIG. 10, it is assumed that three objects X, Y, and Z exist. It is assumed that the target X moves following the target Y, and the target Z moves adjacent to the target X.

このとき、速度ベクトルおよび間隔ベクトルを以下のように定義する。   At this time, the velocity vector and the interval vector are defined as follows.

そこで、まず、実測された測距データから、各対象の速度ベクトルおよび間隔ベクトルを取得する手続きについて説明する。 First, a procedure for acquiring the velocity vector and the interval vector of each target from the actually measured distance measurement data will be described.

追跡処理により得られた対象Xの中心位置の時系列データC0 X[t]={c0 X[t]}から、スムージング処理された位置の時系列データCX[t]={cX[t]}を以下のような手続きで算出する。 When the center position of the target X obtained by the tracking process sequence data C 0 X [t] = { c 0 X [t]} from the time series of the smoothing processing position data C X [t] = {c X [T]} is calculated by the following procedure.

すなわち、ノイズの影響を低減するために、以下のようなローパスフィルタによる畳み込み(コンボリューション)演算を実行する。   That is, in order to reduce the influence of noise, the following convolution operation using a low-pass filter is executed.

さらに、所定の時間間隔、たとえば、Δt=100msecごとに、以下のような平均化を実行し、さらに、スムージングの効果を上げるために、2時間間隔分(2Δt)ごとに速度ベクトルを計算する。 Further, the following averaging is performed at a predetermined time interval, for example, every Δt = 100 msec, and a velocity vector is calculated every two time intervals (2Δt) in order to further improve the smoothing effect.

一方、間隔ベクトルは、スムージング後の位置の各時刻における位置、たとえば、位置cX[t]と位置cY[t]の差として計算される。 On the other hand, the interval vector is calculated as the position at each time of the position after smoothing, for example, the difference between the position c X [t] and the position c Y [t].

このようにして計算された速度の大きさは、後に説明する実環境でのテストでは、平均950mm/secで、分散340mm/secであった。   The magnitude of the speed calculated in this way was 950 mm / sec on average and 340 mm / sec dispersion in the test in the real environment described later.

以上のようにして、速度ベクトルおよび間隔ベクトルが所定の時間間隔ごとに算出されると、これに基づいて、以下のようにして、同期状態が判定される。   As described above, when the velocity vector and the interval vector are calculated for each predetermined time interval, the synchronization state is determined based on this as follows.

以下のような判定は、2つの対象が所定の距離d0以内に存在しており、かつ、それらの速度ベクトルの大きさが所定の大きさV0以上であるような対象のペアに対して実行される。 The following determination is made for a pair of objects in which two objects exist within a predetermined distance d 0 and the magnitudes of their velocity vectors are greater than or equal to a predetermined magnitude V 0 . Executed.

図10に示すようなモデルでは、以下のような条件が成り立つことを意味する。   The model shown in FIG. 10 means that the following conditions are satisfied.

図11は、図1で示した例において、このような距離d0以内の範囲で移動する2つの対象について、測距データ(エッジ情報)を示す概念図である。 FIG. 11 is a conceptual diagram showing distance measurement data (edge information) for two objects moving within such a range within the distance d 0 in the example shown in FIG.

ここでは、一例として、距離d0を1mとし、大きさV0を75mm/secであるものとする。 Here, as an example, it is assumed that the distance d 0 is 1 m and the size V 0 is 75 mm / sec.

図10においては、対象Xと対象Yとは、同一の方向に移動しているので以下のような式(3)の関係が成り立つ。   In FIG. 10, since the target X and the target Y are moving in the same direction, the relationship of the following formula (3) is established.

上述した所定の距離の範囲内に存在する2つの対象について、この式(3)のような関係が2つの対象間になり立てば、それらの対象は、一緒に移動しているといえる。 With respect to two objects existing within the range of the predetermined distance described above, if a relationship such as the equation (3) is established between the two objects, it can be said that the objects are moving together.

このような移動をする2つの対象の組み合わせは、横並列移動(たとえば、H−Hのペア)または縦列移動(たとえば、H−SのペアまたはH−Bのペア)であるので、さらに、2つの対象の間の相対位置を調べれば、いずれの移動モードであるのかが特定できる。   Since the combination of two objects that make such a move is a horizontal parallel move (eg, H-H pair) or a column move (eg, H-S pair or H-B pair), it further adds 2 By examining the relative position between the two objects, it is possible to identify which movement mode it is.

たとえば、図10の対象Xと対象Yについては、対象Yの後ろを対象Xが同期して移動している縦列移動モードであるので、対象Xについては、間隔ベクトルdXYは、速度ベクトルVXおよびVYと同方向を向いているので、以下の式(4)が成り立つ。 For example, since the target X and the target Y in FIG. 10 are in the column movement mode in which the target X is moving behind the target Y in synchronization, the interval vector d XY is the velocity vector V X for the target X. Since they are oriented in the same direction as V Y , the following equation (4) is established.

このように、対象Xが、他の対象Yの後ろ側を一緒に移動している縦列移動モードを、特に、後方縦列移動モード(記号Rで表す)と呼ぶ。 In this way, the column movement mode in which the object X is moving together behind the other object Y is particularly referred to as a rear column movement mode (represented by the symbol R).

一方、対象Yを基準に式(4)と同様の値を計算すると、間隔ベクトルdYXは、速度ベクトルVXおよびVYと逆方向を向いているので、以下の式(4)´が成り立つ。 On the other hand, when the same value as that of the equation (4) is calculated with respect to the target Y, the interval vector d YX is directed in the opposite direction to the velocity vectors V X and V Y, and the following equation (4) ′ is established. .

このように、対象Yが、他の対象Xの前側を一緒に移動している縦列移動モードを、特に、前方縦列移動モード(記号Fで表す)と呼ぶ。ただし、分類の判別にあたっては、その絶対値も使用される。 In this way, the column movement mode in which the object Y is moving together on the front side of the other object X is particularly referred to as a front column movement mode (represented by the symbol F). However, the absolute value is also used for classification.

また、図10において、対象Xと対象Zとは、横並列移動しているので、間隔ベクトルdXZは、速度ベクトルVXおよびVZと垂直方向を向いているので、以下の式(5)が成り立つ。 In FIG. 10, since the object X and the object Z are moving side by side in parallel, the interval vector d XZ is oriented in the vertical direction with respect to the velocity vectors V X and V Z. Holds.

したがって、対象間の距離、対象の移動速度、および上述した式(3)〜(5)の関係をもとにすれば、2つの一緒に移動する対象が、横並列移動モードであって、本実施の形態では、H−Hペアに対応するのか、前方縦列移動モードまたは後方縦列移動モードであって、H−SペアまたはH−Bペアであるのかを特定することが可能となる。 Therefore, based on the distance between the objects, the movement speed of the objects, and the relations of the above formulas (3) to (5), the two objects that move together are in the horizontal parallel movement mode, and In the embodiment, it is possible to specify whether the pair corresponds to the H-H pair, the front column movement mode or the rear column movement mode, and the H-S pair or the H-B pair.

(同期状態の判別条件)
なお、現実には、対象は、独立に加速したり、減速したり、あるいは、間隔を変えたりが可能であるので、式(3)〜(5)は、厳密に0または1となることはない。
(Conditions for determining synchronization status)
In reality, since the object can be accelerated, decelerated, or the interval can be changed independently, the equations (3) to (5) can be strictly 0 or 1. Absent.

そこで、CQ検知部5626は、式(3)および式(4)(または式(4)´の絶対値)が、ともに、たとえば、0.8以上であれば、そのような2つの対象は、縦列移動モードで移動しており、H−SペアまたはH−Bペアに相当すると判定する。なお、式(4)がなりたつか、式(4)´がなりたつかにより、後方縦列移動モードまたは前方縦列移動モードであるかが判定される。   Therefore, if both of the expressions (3) and (4) (or the absolute value of the expression (4) ′) are, for example, 0.8 or more, the CQ detection unit 5626 has two such objects as It is determined that the movement is in the column movement mode and corresponds to the H-S pair or the H-B pair. Whether formula (4) is met or formula (4) ′ is met determines whether it is the rear column movement mode or the front column movement mode.

一方、式(5)の値は、人間同士の移動の相対関係で決まるため、縦列移動モードほど、明確な範囲の値をとることがない。そこで、以下の説明では、CQ検知部5626は、式(3)の値が0.8以上であるが、式(4)(または式(4)´の絶対値)が、0.8未満の対象のペアについては、横並列移動モードであって、本実施の形態では、H−Hペアであるものと判別することとする。   On the other hand, since the value of Equation (5) is determined by the relative relationship of movement between humans, it does not take a clear range of values as in the column movement mode. Therefore, in the following description, the CQ detection unit 5626 has the value of the expression (3) of 0.8 or more, but the expression (4) (or the absolute value of the expression (4) ′) is less than 0.8. The target pair is in the horizontal parallel movement mode, and in the present embodiment, it is determined that it is an HH pair.

そして、上記いずれの場合にも該当しない場合は、CQ検知部5626は、対象が独立して移動している状態であると判断する。   If none of the above cases apply, the CQ detection unit 5626 determines that the target is moving independently.

(事前確率と同期状態(移動モード)との組み合わせによる判別)
対象の分類のクラスを記号eで表し、クラスeは、E={H,W,S,B}のいずれかを意味するものとする。
(Distinction based on a combination of prior probability and synchronization status (movement mode))
The class of the target classification is represented by the symbol e, and the class e means any of E = {H, W, S, B}.

また、同期状態を記号cqで表し、同期状態cqは、{D,S,F,R}のいずれかを意味するものとする。ここで、記号Dは、対象が独立して移動している状態であり、記号Sは、横並列移動モードの状態であり、記号Fは、前方縦列移動モードの状態であり、記号Rは、後方縦列移動モードの状態であることを示す。   Also, the synchronization state is represented by the symbol cq, and the synchronization state cq means any one of {D, S, F, R}. Here, symbol D is a state where the object is moving independently, symbol S is a state of horizontal parallel movement mode, symbol F is a state of forward tandem movement mode, and symbol R is Indicates the state of backward column movement mode.

ベイズ則によれば、同期状態cqであるときに、対象がクラスeに属する事後確率p(e|cq)は、以下の式(6)ように表される。したがって、ラベル割当処理部5628は、対象がいずれのクラスに属するかを、式(7)により判定することが可能である。   According to the Bayes rule, the posterior probability p (e | cq) that the object belongs to the class e when in the synchronization state cq is expressed as the following equation (6). Therefore, the label allocation processing unit 5628 can determine to which class the target belongs by using Expression (7).

ここで、事前確率P(e)については、上述した特徴ベクトルから導出でき、尤度P(cq|e)については、事前に実験的に複数の対象の実測結果に基づいて、定めておくことが可能である。 Here, the prior probability P (e) can be derived from the above-described feature vector, and the likelihood P (cq | e) is experimentally determined in advance based on actual measurement results of a plurality of targets. Is possible.

図12は、以上説明した追跡モジュール部5610および識別処理モジュール5620が実行する処理を説明するためのフローチャートである。   FIG. 12 is a flowchart for explaining processing executed by the tracking module unit 5610 and the identification processing module 5620 described above.

図12を参照して、処理が開始されると、追跡モジュール部5610は、パーティクルを初期化する(S100)。ここでは、追跡モジュール部5610は、全ての(特に限定されないが、たとえば、400個)パー ティクルを状態空間に均等にばら撒く。ただし、状態空間は、レーザーレンジファインダ10.1〜10.4で検出可能な領域に対応する。   Referring to FIG. 12, when the process is started, tracking module unit 5610 initializes particles (S100). Here, the tracking module unit 5610 distributes all (for example, but not limited to 400) particles equally in the state space. However, the state space corresponds to a region that can be detected by the laser range finder 10.1 to 10.4.

続いて、追跡モジュール部5610は、変数mを初期化する(m=1)(S102)。ただし、変数mは、状態空間に配置されたパーティクルを識別するための変数である。   Subsequently, the tracking module unit 5610 initializes the variable m (m = 1) (S102). However, the variable m is a variable for identifying particles arranged in the state space.

さらに、追跡モジュール部5610は、m番目のパーティクルが表わしている時刻t−1の対象Xの状態sm X[t−1]と、パーティクルの重みπm X[t−1]と、動作モデルとから次の状態sm X[t]を求める。 Further, the tracking module unit 5610 includes the state s m X [t−1] of the target X at the time t−1 represented by the mth particle, the particle weight π m X [t−1], and the behavior model. Then, the next state s m X [t] is obtained.

ただし、上述のとおり、mはパーティクルを個別に識別するための添え字である。   However, as described above, m is a subscript for individually identifying particles.

動作モデルについては、線形な移動にガウシアンノイズを組み合わせたモデルを用いる。その具体的な例については、上述したとおりである。   As the motion model, a model in which Gaussian noise is combined with linear movement is used. Specific examples thereof are as described above.

続いて、追跡モジュール部5610は、変数mをイクリメントする(S106)。そして、変数mが最大値(現在のパーティクルの総数)を超えているかどうかを判断する(S108)。つまり、すべてのパーティクルについて次の状態sm X[t]を求めたかどうかを判断する。 Subsequently, the tracking module unit 5610 increments the variable m (S106). Then, it is determined whether or not the variable m exceeds the maximum value (current total number of particles) (S108). That is, it is determined whether or not the next state s m X [t] has been obtained for all particles.

ステップS108で“NO”であれば、つまり変数mが最大値以下であれば、ステップS104に戻って、次のパーティクルm(←m+1)についての次の状態sm X[t]を求める。 If “NO” in the step S108, that is, if the variable m is equal to or less than the maximum value, the process returns to the step S104 to obtain the next state s m X [t] for the next particle m (← m + 1).

一方、ステップS081で“YES”であれば、つまり変数mが最大値を超えていれば、すべてのパーティクルmについての次の状態sm X[t]を求めたと判断して、追跡モジュール部5610は、ステップS110で、記憶装置54から測距データに基づく占有情報(センサデータと称す)を読み取る。 On the other hand, if “YES” in the step S081, that is, if the variable m exceeds the maximum value, it is determined that the next state s m X [t] for all the particles m is obtained, and the tracking module unit 5610 Reads the occupancy information (referred to as sensor data) based on the distance measurement data from the storage device 54 in step S110.

さらに、追跡モジュール部5610は、パーティクルm毎に、時刻tのセンサデータr[t]と状態との尤度を計算する。つまり、ステップS104で推定した状態sm X[t]と、センサデータに基づく実際の状態との類似度を算出し(S112)、重みπm X[t]を求める(S114)。 Further, the tracking module unit 5610 calculates the likelihood between the sensor data r [t] and the state at time t for each particle m. That is, the similarity between the state s m X [t] estimated in step S104 and the actual state based on the sensor data is calculated (S112), and the weight π m X [t] is obtained (S114).

尤度については、上述したとおりである。   The likelihood is as described above.

また、ステップS114においては、追跡モジュール部5610は、各パーティクルの重みπm X[t]を、ステップS112で求めた尤度p(r[t]|sm X[t])の高さに比例させて求める。たとえば、尤度p(r[t]|sm X[t])の最も高いパーティクルから順に、重みπm X[t]を線形的に変化するように決定してもよいし、一定の閾値毎に、重みπm X[t]を段階的に変化するように決定してもよい。 In step S114, the tracking module unit 5610 sets the weight π m X [t] of each particle to the height of the likelihood p (r [t] | s m X [t]) obtained in step S112. Calculate proportionally. For example, the weight π m X [t] may be determined so as to change linearly in order from the particle having the highest likelihood p (r [t] | s m X [t]), or a constant threshold value. Each time, the weight π m X [t] may be determined to change stepwise.

続いて、すべてのパーティクルが表わす人の状態sm X[t]と重みπm X[t]とから、追跡モジュール部5610は、現在の対象の状態を推定する。特に限定されないが、たとえば、2σπ以上の重みπm X[t]を持つパーティクルmが表わす対象の状態sm X[t]を利用して、その平均として現在の対象の状態を推定する。ただし、σπは全パーティクルmの重みπm X[t]についての標準偏差である。 Subsequently, the tracking module unit 5610 estimates the current target state from the human state s m X [t] and the weight π m X [t] represented by all the particles. Although not particularly limited, for example, the current state of the object is estimated as an average using the state s m X [t] of the object represented by the particle m having a weight π m X [t] of 2σπ or more. However, σπ is a standard deviation for the weight π m X [t] of all particles m.

以上のようにして、現在までの対象の状態の推定が完了した時点で、識別処理モジュール5620が、対象を分類して、各対象にラベルを割り当てる(S118)。この分類の処理については、後述する。   As described above, when the estimation of the state of the target up to the present is completed, the identification processing module 5620 classifies the target and assigns a label to each target (S118). This classification process will be described later.

そして、追跡モジュール部5610は、ステップS1116での現在の対象の状態についての推定結果から、パーティクルを重点的にばら撒く位置(領域)と、消去する パーティクルとを決定し、パーティクルのばら撒きと消去とにより復元抽出して、処理をステップS102に復帰させる。つまり、リサンプリング処理が実行される。   Then, the tracking module unit 5610 determines a position (region) where particles are to be focused on and a particle to be erased from the estimation result of the current target state in step S1116, and disperses and erases the particles. Then, the process is restored and extracted, and the process returns to step S102. That is, the resampling process is executed.

図13は、ステップS118において、識別処理モジュール5620が実行する各対象へのラベルの割り当て処理を説明するためのフローチャートである。   FIG. 13 is a flowchart for explaining the process of assigning labels to each target executed by the identification processing module 5620 in step S118.

図13を参照して、まず、特徴抽出演算部5622が、測定されたエッジ情報に基づいて、対象の水平な2次元断面形状のサイズと、対象の水平な2次元断面形状のアスペクト比とを表す特徴ベクトルを抽出する(S200)。   Referring to FIG. 13, first, the feature extraction calculation unit 5622 calculates the size of the target horizontal two-dimensional cross-sectional shape and the aspect ratio of the target horizontal two-dimensional cross-sectional shape based on the measured edge information. A feature vector to be represented is extracted (S200).

次に、予め設定された線型判別関数に基づいて、事前確率計算部5624が、特徴ベクトルから得られる判別関数値に基づき、対象が分類の各クラスに属する確率を表す事前確率を計算する(S202)。   Next, based on the preset linear discriminant function, the prior probability calculation unit 5624 calculates a prior probability representing the probability that the target belongs to each class of the classification based on the discriminant function value obtained from the feature vector (S202). ).

次に、CQ検知部5626が、複数の対象のうち、所定の距離の範囲内にあり、かつ所定の大きさ以上の速度で移動する対象のペアについて、対象の速度ベクトルおよび間隔ベクトルに基づいて、同期状態を分類する(S204)。   Next, the CQ detection unit 5626 determines a pair of targets that are within a predetermined distance range and move at a speed equal to or greater than a predetermined size among a plurality of targets based on the target velocity vector and the interval vector. The synchronization state is classified (S204).

次に、ラベル割当処理部5628が、ステップ202に求められた事前確率と、予め実験的に求められている対象のクラスに対する同期状態についての尤度に基づいて、事後確率を求めることで、もっとも事後確率の高いクラスのラベルを対象に割り当てる(S206)。   Next, the label allocation processing unit 5628 obtains the posterior probability based on the prior probability obtained in step 202 and the likelihood of the synchronization state for the target class obtained experimentally in advance. A label of a class having a high posterior probability is assigned to the target (S206).

このようにして、パーティクルフィルタを適用して、対象を追跡することができ、特徴ベクトルから対象の識別が可能となる。ただし、1つの対象に対して1のパーティクルフィルタが必要であるため、複数の対象を同時に追跡する場合には、同じ数だけのパーティクルフィルタが必要である。
(実験結果)
以下、以上説明した追跡および識別処理の正確さおよび整合性を実地にチェックした結果について説明する。
In this way, the object can be tracked by applying the particle filter, and the object can be identified from the feature vector. However, since one particle filter is required for one target, the same number of particle filters are required when tracking a plurality of targets simultaneously.
(Experimental result)
Hereinafter, the results of checking the accuracy and consistency of the tracking and identification process described above will be described.

実験は、ショッピングセンターの入り口ホールにおいて、平日の15時から16時の間で実施された。入口ホールは、バッグ持ったり、カートを押したりする多くの顧客が、行き来する場所である。   The experiment was conducted between 15:00 and 16:00 on weekdays in the entrance hall of the shopping center. The entrance hall is a place where many customers who carry bags or push carts come and go.

追跡を実施した領域(観測領域)は、7.5m×8mの矩形領域である。この領域の4隅に、4つのポールを立て、図2に示したように、各ポールにおいて床から高さ52cmと87cmの位置にレーザレンジファインダを固定した。特に、床から52cmの高さは、対象を区別しやすい断面形状が測定できる高さとして設定されたものである。   The area (observation area) where the tracking is performed is a rectangular area of 7.5 m × 8 m. Four poles were set up at the four corners of this area, and as shown in FIG. 2, a laser range finder was fixed at positions 52 cm and 87 cm high from the floor in each pole. In particular, the height of 52 cm from the floor is set as a height at which a cross-sectional shape that can easily distinguish the object can be measured.

レーザレンジファインダのサンプリングレートは、40Hzであり、角度分解能は、0.25度である。また、レーザレンジファインダから30mmから10mまでの範囲が、測距可能な範囲である。35分間にわたって、レーザレンジファインダによる測距データとともに、ビデオ画像の撮影も同時実施した。ビデオ撮影は、本実施の形態の方法でのラベルの割当の妥当性を、検証するために実施したものである。   The sampling rate of the laser range finder is 40 Hz, and the angular resolution is 0.25 degrees. Further, the range from 30 mm to 10 m from the laser range finder is the range in which distance measurement is possible. For 35 minutes, video images were taken at the same time as the distance measurement data from the laser range finder. Video shooting is performed in order to verify the validity of label assignment by the method of the present embodiment.

総数504個の対象が検知され、ビデオ画像によれば、そのうち、391個が人間(H)であり、34個が車椅子(W)であり、48個がショッピングカート(S)であり、31個がベビーカート(B)である。391人の歩行者のうち、2人、3人または4人からなる44のグループあった。   A total of 504 objects were detected, and according to the video image, 391 of them were human (H), 34 were wheelchairs (W), 48 were shopping carts (S), and 31 were Is a baby cart (B). Of the 391 pedestrians, there were 44 groups of 2, 3 or 4 people.

図14は、追跡が実施された場合の1つの場面を示す図である。   FIG. 14 is a diagram illustrating one scene when tracking is performed.

この図の中では、11個の対象が、移動しているものとして追跡されている。このうち、楕円で囲まれているのは、2人で一緒に移動している3つのグループである。あとは、2人の単独の歩行者と、1つのショッピングカートと、ベビーカートを押しながら移動している1人の歩行者がいる。   In this figure, 11 objects are tracked as moving. Of these, three groups surrounded by ellipses are moving together with two people. After that, there are two pedestrians, one shopping cart, and one pedestrian moving while pushing a baby cart.

(同期状態を考慮する前の判別結果)
以下では、まず、同期状態を考慮することなく、特徴ベクトルのみに基づいて、対象を判別した結果について説明する。
(Distinction result before considering synchronization status)
In the following, a description will be given first of the result of discriminating an object based only on the feature vector without considering the synchronization state.

ここでは、判別のためのトレーニングのための対象のサンプルと、実際に判別の性能を評価するための試験動作における対象のサンプルとは、異なるものとする。   Here, it is assumed that a target sample for training for discrimination is different from a target sample in a test operation for actually evaluating discrimination performance.

図15は、ラベルの割当の結果を示す図であり、図15(a)は、特徴ベクトルのみに基づいて、ラベルの割当を行った場合の結果を示す図である。   FIG. 15 is a diagram illustrating a result of label allocation, and FIG. 15A is a diagram illustrating a result when label allocation is performed based only on feature vectors.

すなわち、この表において、縦方向は、ビデオ画像から確認された対象に現実に割り当てられるべきラベルを示し、横方向は、試験動作において割り当てられたラベルを示す。   That is, in this table, the vertical direction indicates the label that should be actually assigned to the object confirmed from the video image, and the horizontal direction indicates the label assigned in the test operation.

したがって、試験動作における判別が100%の精度を有するときは、対角方向のみに0でない要素が現れることになる。   Therefore, when the determination in the test operation has 100% accuracy, an element other than 0 appears only in the diagonal direction.

ただし、図15(a)から明らかなように、特徴ベクトルだけによる判別でもある程度までの判別は可能なものの、現実には、誤ってラベルが割り当てられる場合が相当割合で存在する。   However, as is clear from FIG. 15A, although it is possible to determine to some extent even by determination using only the feature vector, in reality there are a considerable proportion of cases where labels are erroneously assigned.

図16は、判別された対象のペアについて、各ペアの判別の正確性を示す図である。   FIG. 16 is a diagram showing the accuracy of discrimination of each pair for the discriminated target pair.

図16によれば、H−Hペアは、44ペアのうち、35ペアが正しく判別されている。
H−Sペアは、44ペアのうち、43ペアが正しく判別されている。H−Bペアは、24ペアのうち、23ペアが正しく判別されている。
According to FIG. 16, 35 pairs out of 44 pairs are correctly identified as the H-H pairs.
Of the 44 pairs, 43 pairs are correctly identified among the HS pairs. Of the 24 pairs of H-B pairs, 23 pairs are correctly identified.

したがって、判別ミスは主として、H−Hペアにより発生している。これは、H−Hペアでは、移動速度が極端に小さかったり、あるグループが立ち止まり、方向を変えて、別のグループと合流するというようなことがおこったりするからである。   Therefore, discrimination errors are mainly caused by HH pairs. This is because in the H-H pair, the moving speed is extremely low, or a certain group stops, changes its direction, and merges with another group.

これに対して、H−SペアやH−Bペアは、動作がより規則的であるので、より高い割合で、正しく判別されている。   On the other hand, since the operations of the H-S pair and the H-B pair are more regular, they are correctly discriminated at a higher rate.

(同期状態を考慮した後の判別結果)
図15(b)は、特徴ベクトルと同期状態との双方を考慮して、ラベルの割当を行った結果を示す図である。
(Distinction result after considering the synchronization status)
FIG. 15B is a diagram illustrating a result of label assignment in consideration of both the feature vector and the synchronization state.

同期状態を考慮することで、人Hに対する判別は、成功率が60%から95%まで、向上している。また、車椅子Wについての成功率も、74%から81%まで向上している。   Considering the synchronization state, the discrimination for the person H is improved from 60% to 95%. The success rate for wheelchairs W has also improved from 74% to 81%.

特徴ベクトルのみを考慮した場合は、人Hや車椅子Wは、ベビーカートBと誤認識される場合多かったものの、同期状態を考慮することで、このような誤認識が抑制されていることがわかる。   When only the feature vector is considered, the person H and the wheelchair W are often erroneously recognized as the baby cart B, but it is understood that such erroneous recognition is suppressed by considering the synchronization state. .

以上説明したように、計測演算装置100のように、複数の距離計測センサにより、観測領域内で移動する対象を追跡し、その対象が分類のいずれのクラスに属するかを判別する際に、対象の大きさや形状を反映した特徴ベクトルを導入すると、オクルージョンに対してロバストであって、対象の向きに対しても独立に判別が可能となる。   As described above, when the object that moves in the observation region is tracked by a plurality of distance measurement sensors and the target belongs to which class of the classification, as in the measurement arithmetic device 100, the object If a feature vector reflecting the size and shape of the image is introduced, it is robust against occlusion and can be determined independently with respect to the target direction.

また、このような特徴ベクトルによる判別を事前確率として、2つの対象の移動の同期状態による尤度を考慮した事後確率により判別を行うことで、判定の精度を向上させることが可能となる。   Moreover, it is possible to improve the accuracy of the determination by performing the determination based on the posterior probability in consideration of the likelihood based on the synchronization state of the movements of the two objects using the determination based on the feature vector as the prior probability.

今回開示された実施の形態は、本発明を具体的に実施するための構成の例示であって、本発明の技術的範囲を制限するものではない。本発明の技術的範囲は、実施の形態の説明ではなく、特許請求の範囲によって示されるものであり、特許請求の範囲の文言上の範囲および均等の意味の範囲内での変更が含まれることが意図される。   Embodiment disclosed this time is an illustration of the structure for implementing this invention concretely, Comprising: The technical scope of this invention is not restrict | limited. The technical scope of the present invention is shown not by the description of the embodiment but by the scope of the claims, and includes modifications within the wording and equivalent meanings of the scope of the claims. Is intended.

10.1〜10.4 レーザーレンジファインダ、52 ドライブ装置、54 不揮発性記憶装置、56 CPU、58 ROM、60 RAM、64 外部記録媒体、66 バス、100 計測演算装置、5602 データキャプチャ処理部、5604 キャプチャデータ記録処理部、5610 追跡モジュール部、5612 更新計算部、5614 重み割当計算部、5616 状態評価計算部、5618 リサンプリング計算部、5620 識別処理モジュール、5622 特徴抽出演算部、5624 事前確率算出部、5626 CQ検知部、5628 ラベル割当処理部。   10.1 to 10.4 Laser range finder, 52 drive device, 54 nonvolatile storage device, 56 CPU, 58 ROM, 60 RAM, 64 external recording medium, 66 bus, 100 measurement arithmetic device, 5602 data capture processing unit, 5604 Capture data recording processing unit, 5610 tracking module unit, 5612 update calculation unit, 5614 weight allocation calculation unit, 5616 state evaluation calculation unit, 5618 resampling calculation unit, 5620 identification processing module, 5622 feature extraction calculation unit, 5624 prior probability calculation unit , 5626 CQ detection unit, 5628 Label allocation processing unit.

Claims (5)

観測領域内で対象の移動を追跡し、前記対象を分類するための計測システムであって、
前記対象までの水平方向の距離を計測可能に配置された複数の距離計測手段と、
前記複数の距離計測手段によって前記対象を計測した計測結果を取得する取得手段と、
前記取得手段によって取得された前記計測結果から、前記対象の位置および移動速度を推定する追跡手段と、
前記計測結果に基づいて、前記対象の水平な2次元断面形状の特徴を表現する特徴ベクトルを算出する特徴抽出手段と、
前記特徴ベクトルに基づいて、前記対象が予め定められた分類の各クラスのうちのいずれのクラスに属するかを判別する判別手段とを備え、
前記判別手段は、
前記特徴ベクトルに基づいて、前記対象が予め定められた分類の各クラスに属する確率を事前確率として算出する事前確率算出手段と、
前記対象の移動速度および前記対象間の距離に基づいて、前記対象が他の対象と同期して移動している同期状態であるかを判別し、前記事前確率と、前記同期状態にある対象が前記クラスに対応する尤度とに基づいて、前記対象が属するクラスを判別する同期状態検知手段とを含む、計測システム。
A measurement system for tracking movement of an object in an observation area and classifying the object,
A plurality of distance measuring means arranged to be able to measure the horizontal distance to the object;
Obtaining means for obtaining a measurement result obtained by measuring the object by the plurality of distance measuring means;
Tracking means for estimating the position and moving speed of the object from the measurement result obtained by the obtaining means;
Feature extraction means for calculating a feature vector that represents a feature of a horizontal two-dimensional cross-sectional shape of the object based on the measurement result;
Determination means for determining, based on the feature vector, which class of each class of the predetermined classification the object belongs to;
The discrimination means includes
A prior probability calculating means for calculating, as a prior probability, a probability that the target belongs to each class of a predetermined classification based on the feature vector;
Based on the movement speed of the object and the distance between the objects, it is determined whether the object is in a synchronized state moving in synchronization with another object, and the prior probability and the object in the synchronized state And a synchronization state detecting means for determining the class to which the object belongs based on the likelihood corresponding to the class.
前記特徴ベクトルは、前記対象の水平な2次元断面形状のサイズと前記対象の水平な2次元断面形状のアスペクト比とを表現する、請求項1記載の計測システム。   The measurement system according to claim 1, wherein the feature vector represents a size of a horizontal two-dimensional cross-sectional shape of the target and an aspect ratio of the horizontal two-dimensional cross-sectional shape of the target. 前記同期状態検知手段は、
前記対象のペアの速度ベクトルのなす角と、前記対象のペアのうちの一方の対象の速度ベクトルと前記対象のペアの対象間の間隔ベクトルとのなす角とに基づいて、前記対象のペアが前記同期状態であるかを判別する、請求項2記載の計測システム。
The synchronization state detecting means includes
Based on the angle formed by the velocity vector of the target pair and the angle formed by the velocity vector of one target of the target pair and the interval vector between the targets of the target pair, the target pair is The measurement system according to claim 2, wherein it is determined whether the synchronization state is established.
前記特徴抽出手段は、前記取得手段によって取得された同時刻における複数の前記計測結果に所定の間隔のデータを内挿する手段を有する、請求項2または3記載の計測システム。   The measurement system according to claim 2, wherein the feature extraction unit includes a unit that interpolates data at a predetermined interval into the plurality of measurement results obtained at the same time acquired by the acquisition unit. 観測領域内で対象の移動を追跡し、前記対象を分類するための計測方法であって、
前記対象までの水平方向の距離を計測可能に配置された複数の距離計測手段によって前記対象を計測した計測結果を取得するステップと、
前記取得された前記計測結果から、前記対象の位置および移動速度を推定するステップと、
前記計測結果に基づいて、前記対象の水平な2次元断面形状の特徴を表現する特徴ベクトルを算出するステップと、
前記特徴ベクトルに基づいて、前記対象が予め定められた分類の各クラスのうちのいずれのクラスに属するかを判別するステップとを備え、
前記判別するステップは、
前記特徴ベクトルに基づいて、前記対象が予め定められた分類の各クラスに属する確率を事前確率として算出するステップと、
前記対象の移動速度および前記対象間の距離に基づいて、前記対象が他の対象と同期して移動している同期状態であるかを判別し、前記事前確率と、前記同期状態にある対象が前記クラスに対応する尤度とに基づいて、前記対象が属するクラスを判別するステップとを含む、計測方法。
A measurement method for tracking movement of an object in an observation area and classifying the object,
Obtaining a measurement result obtained by measuring the object by a plurality of distance measuring means arranged so as to be able to measure a horizontal distance to the object;
Estimating the position and moving speed of the object from the acquired measurement result;
Calculating a feature vector representing a feature of a horizontal two-dimensional cross-sectional shape of the object based on the measurement result;
Determining, based on the feature vector, which class of each class of the predetermined classification the object belongs to,
The step of determining includes
Calculating the probability that the target belongs to each class of a predetermined classification based on the feature vector as a prior probability;
Based on the movement speed of the object and the distance between the objects, it is determined whether the object is in a synchronized state moving in synchronization with another object, and the prior probability and the object in the synchronized state Determining the class to which the object belongs based on the likelihood corresponding to the class.
JP2011204031A 2011-09-20 2011-09-20 Measuring system and measuring method Active JP5866682B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011204031A JP5866682B2 (en) 2011-09-20 2011-09-20 Measuring system and measuring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011204031A JP5866682B2 (en) 2011-09-20 2011-09-20 Measuring system and measuring method

Publications (2)

Publication Number Publication Date
JP2013064671A true JP2013064671A (en) 2013-04-11
JP5866682B2 JP5866682B2 (en) 2016-02-17

Family

ID=48188301

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011204031A Active JP5866682B2 (en) 2011-09-20 2011-09-20 Measuring system and measuring method

Country Status (1)

Country Link
JP (1) JP5866682B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016223872A (en) * 2015-05-29 2016-12-28 三菱電機株式会社 Object Identification Device
JP2017083251A (en) * 2015-10-27 2017-05-18 北陽電機株式会社 Area sensor and external storage device
CN108153307A (en) * 2017-12-21 2018-06-12 中国人民解放军总参谋部第六十研究所 A kind of straight line autonomous tracing in intelligent vehicle
JP2018185249A (en) * 2017-04-27 2018-11-22 株式会社デンソーテン Radar device and target detection method
JP7420682B2 (en) 2020-08-25 2024-01-23 慶應義塾 Gait measurement system

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000003499A (en) * 1998-06-16 2000-01-07 Daihatsu Motor Co Ltd Walker detection system and its controlling method
JP2003014844A (en) * 2001-07-04 2003-01-15 Nissan Motor Co Ltd Object type-discriminating apparatus and method
JP2003217086A (en) * 2002-01-23 2003-07-31 Ishikawajima Harima Heavy Ind Co Ltd Pedestrian sensitive signal control method
JP2003248057A (en) * 2002-02-27 2003-09-05 Japan Radio Co Ltd Radar-tracking apparatus
JP2004185363A (en) * 2002-12-04 2004-07-02 Ishikawajima Harima Heavy Ind Co Ltd Object distinction method by area sensor
JP2004191095A (en) * 2002-12-09 2004-07-08 Foundation For The Promotion Of Industrial Science Passenger track extraction device and system
JP2004347489A (en) * 2003-05-23 2004-12-09 Daihatsu Motor Co Ltd Object recognition device and recognition means
JP2005107792A (en) * 2003-09-30 2005-04-21 Seiko Precision Inc Ic tag, article management system using it, entrance/exit management system using it, and tracking system using it
JP2005346617A (en) * 2004-06-07 2005-12-15 East Japan Railway Co Passer-by behavior analysis system
JP2006163616A (en) * 2004-12-03 2006-06-22 Asahi Kasei Corp Traffic signal controlling system, traffic signal controlling method and program
JP2009168578A (en) * 2008-01-15 2009-07-30 Advanced Telecommunication Research Institute International Measurement device and measurement method
JP2011065400A (en) * 2009-09-17 2011-03-31 Daihatsu Motor Co Ltd Object recognition apparatus
JP2011145812A (en) * 2010-01-13 2011-07-28 Ihi Corp Laser sensor and detection target determination method using the same

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000003499A (en) * 1998-06-16 2000-01-07 Daihatsu Motor Co Ltd Walker detection system and its controlling method
JP2003014844A (en) * 2001-07-04 2003-01-15 Nissan Motor Co Ltd Object type-discriminating apparatus and method
JP2003217086A (en) * 2002-01-23 2003-07-31 Ishikawajima Harima Heavy Ind Co Ltd Pedestrian sensitive signal control method
JP2003248057A (en) * 2002-02-27 2003-09-05 Japan Radio Co Ltd Radar-tracking apparatus
JP2004185363A (en) * 2002-12-04 2004-07-02 Ishikawajima Harima Heavy Ind Co Ltd Object distinction method by area sensor
JP2004191095A (en) * 2002-12-09 2004-07-08 Foundation For The Promotion Of Industrial Science Passenger track extraction device and system
JP2004347489A (en) * 2003-05-23 2004-12-09 Daihatsu Motor Co Ltd Object recognition device and recognition means
JP2005107792A (en) * 2003-09-30 2005-04-21 Seiko Precision Inc Ic tag, article management system using it, entrance/exit management system using it, and tracking system using it
JP2005346617A (en) * 2004-06-07 2005-12-15 East Japan Railway Co Passer-by behavior analysis system
JP2006163616A (en) * 2004-12-03 2006-06-22 Asahi Kasei Corp Traffic signal controlling system, traffic signal controlling method and program
JP2009168578A (en) * 2008-01-15 2009-07-30 Advanced Telecommunication Research Institute International Measurement device and measurement method
JP2011065400A (en) * 2009-09-17 2011-03-31 Daihatsu Motor Co Ltd Object recognition apparatus
JP2011145812A (en) * 2010-01-13 2011-07-28 Ihi Corp Laser sensor and detection target determination method using the same

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016223872A (en) * 2015-05-29 2016-12-28 三菱電機株式会社 Object Identification Device
US10545228B2 (en) 2015-05-29 2020-01-28 Mitsubishi Electric Corporation Object identification device
JP2017083251A (en) * 2015-10-27 2017-05-18 北陽電機株式会社 Area sensor and external storage device
US10641871B2 (en) 2015-10-27 2020-05-05 Hokuyo Automatic Co., Ltd. Area sensor and external storage device
JP2018185249A (en) * 2017-04-27 2018-11-22 株式会社デンソーテン Radar device and target detection method
CN108153307A (en) * 2017-12-21 2018-06-12 中国人民解放军总参谋部第六十研究所 A kind of straight line autonomous tracing in intelligent vehicle
CN108153307B (en) * 2017-12-21 2021-12-24 中国人民解放军总参谋部第六十研究所 Linear tracing method
JP7420682B2 (en) 2020-08-25 2024-01-23 慶應義塾 Gait measurement system

Also Published As

Publication number Publication date
JP5866682B2 (en) 2016-02-17

Similar Documents

Publication Publication Date Title
US11360571B2 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
US9542626B2 (en) Augmenting layer-based object detection with deep convolutional neural networks
Maggio et al. Efficient multitarget visual tracking using random finite sets
Nedevschi et al. Stereo-based pedestrian detection for collision-avoidance applications
KR101776621B1 (en) Apparatus for recognizing location mobile robot using edge based refinement and method thereof
Ramya et al. A modified frame difference method using correlation coefficient for background subtraction
JP5728815B2 (en) Object detection device
CN104599287B (en) Method for tracing object and device, object identifying method and device
JP5866682B2 (en) Measuring system and measuring method
WO2016025713A1 (en) Three-dimensional hand tracking using depth sequences
WO2017183769A1 (en) Device and method for detecting abnormal situation
KR101804681B1 (en) A human detecting apparatus and method using a low-resolution 2d lidar sensor
US9805285B2 (en) State estimation apparatus, state estimation method, and integrated circuit
JP4631036B2 (en) Passer-by behavior analysis device, passer-by behavior analysis method, and program thereof
Baumgartner et al. Tracking people and their objects
Zhang et al. Robust Real-Time Human Perception with Depth Camera.
KR20120048958A (en) Method for tracking object and for estimating
Navarro-Serment et al. LADAR-based pedestrian detection and tracking
Badgujar et al. Hand gesture recognition system
Kirchner et al. A robust people detection, tracking, and counting system
CN107665495B (en) Object tracking method and object tracking device
Aadi et al. Proposed real-time obstacle detection system for visually impaired assistance based on deep learning
Yücel et al. Identification of mobile entities based on trajectory and shape information
Pan et al. Occlusion handling based on particle filter in surveillance system
JP6747311B2 (en) Image processing program, image processing method, and image processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140522

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150911

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151215

R150 Certificate of patent or registration of utility model

Ref document number: 5866682

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250