JP2011238139A - Moving object detecting program and moving object detecting device - Google Patents
Moving object detecting program and moving object detecting device Download PDFInfo
- Publication number
- JP2011238139A JP2011238139A JP2010110586A JP2010110586A JP2011238139A JP 2011238139 A JP2011238139 A JP 2011238139A JP 2010110586 A JP2010110586 A JP 2010110586A JP 2010110586 A JP2010110586 A JP 2010110586A JP 2011238139 A JP2011238139 A JP 2011238139A
- Authority
- JP
- Japan
- Prior art keywords
- movement
- moving
- movement trajectory
- unit
- moving body
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、移動体検出プログラムおよび移動体検出装置に関する。 The present invention relates to a moving object detection program and a moving object detection device.
サービスロボットは、サービスエリア内で各種の案内や荷物の運搬作業などを行う。例えば、このサービスエリアは、商業施設、博物館、駅等の公共の空間に対応する。近年では、サービスロボットの行動を効率化させるために、サービスエリア内の人の密度や、一定時間内の人の移動の流れを検知し、サービスロボットがサービスを行う場合の最適な場所や向きを調整するための技術が求められている。また、一時的に発生するサービスエリア内のイベントの場所を検知する技術も求められている。 The service robot performs various types of guidance and luggage transport operations in the service area. For example, this service area corresponds to a public space such as a commercial facility, a museum, or a station. In recent years, in order to improve the efficiency of service robot behavior, the density of people in the service area and the flow of people moving within a certain period of time can be detected to determine the optimal location and orientation for service robots to perform services. There is a need for technology to make adjustments. There is also a need for a technique for detecting the location of an event within a service area that occurs temporarily.
なお、人の移動を検知する技術としては、人の移動情報を含む画像データを所定のサイズに分割し、所定のサイズに分割された領域毎に移動速度を集計して表示することで、対象物に対する人の移動特性を容易に把握することを可能にするというものがある。 In addition, as a technique for detecting the movement of a person, image data including movement information of a person is divided into a predetermined size, and the movement speed is aggregated and displayed for each area divided into the predetermined size. There is one that makes it possible to easily grasp the movement characteristics of a person relative to an object.
一般的に、サービスロボットがサービスを行う場合には、個人の移動の流れを検知するよりも複数人の移動の流れを統合して検知したほうが都合がよい。しかし、人の移動を個別に追跡する技術は存在していたが、複数人の移動の流れを統合して検知する技術は存在していない。 In general, when a service robot performs a service, it is more convenient to detect the flow of movement of a plurality of people in an integrated manner than to detect the flow of movement of an individual. However, there has been a technique for individually tracking a person's movement, but there is no technique for integrating and detecting the flow of movement of a plurality of persons.
また、上記従来技術のように、所定のサイズに分割された領域毎に移動速度を集計する場合には、正確に人の移動特性を検知することができないという問題がある。図24〜図27は、従来技術の問題を説明するための図である。 Further, when the movement speed is totaled for each area divided into a predetermined size as in the above-described prior art, there is a problem that it is impossible to accurately detect the movement characteristics of a person. 24-27 is a figure for demonstrating the problem of a prior art.
図24に示すように、分割された領域が大きすぎる場合には、複数の速度ベクトルが同一の領域内に含まれてしまう。図24に示す例では、領域1に速度ベクトル1a〜1cが含まれている。このように、同一の領域に複数の速度ベクトルが含まれている場合には、各速度ベクトル1a〜1cは平均化されて、速度ベクトル1dとなる。このように、速度ベクトルを平均化すると、領域に対応する移動速度の精度が低下してしまう。
As shown in FIG. 24, when the divided area is too large, a plurality of velocity vectors are included in the same area. In the example shown in FIG. 24, the
また、同一の領域の各速度ベクトルの方向が真逆の場合には、速度ベクトルを平均化することで、移動速度の精度が著しく低下する。図25に示すように、同じ領域1に2人の人が逆方向に移動している場合の速度ベクトルは、それぞれ速度ベクトル1e、1fとなる。各人物の移動速度は速く、一方の人の移動速度はもう一方の人の移動速度よりも若干速いものとする。この速度ベクトル1e、1fを平均化すると、速度ベクトル1gとなる。この場合には、速度ベクトル1e、1fが大きなものであるにもかかわらず、平均した速度ベクトル1gが小さなものとなってしまうため、領域1内の人の移動速度は遅いと判定されていまい、移動速度の精度が著しく低下する。
In addition, when the direction of each speed vector in the same region is the opposite direction, the accuracy of the moving speed is significantly lowered by averaging the speed vectors. As shown in FIG. 25, the velocity vectors when two people are moving in the opposite direction in the
これに対して、分割された領域が小さすぎる場合には、速度ベクトルが含まれない領域が発生してしまい、連続性が失われてしまう。図26に示す例では、領域2b、2d〜2iに速度ベクトルが存在しておらず、連続性が失われている。
On the other hand, if the divided area is too small, an area that does not include the velocity vector is generated, and continuity is lost. In the example shown in FIG. 26, the velocity vectors do not exist in the
上記のように、正確に人の移動を検知するためには、人の移動速度を考慮して、分割するサイズを調整しなければならないが、そのような対応策は講じられていない。なお、仮に人の移動速度を考慮して、分割するサイズを調整しても、人の移動軌跡を推定することは困難な場合がある。 As described above, in order to accurately detect a person's movement, the size to be divided must be adjusted in consideration of the movement speed of the person, but no such countermeasure has been taken. Note that it may be difficult to estimate the movement locus of a person even if the size to be divided is adjusted in consideration of the movement speed of the person.
図27に示すように、各領域に速度ベクトル3a〜3dがそれぞれ含まれている場合には、隣接領域の速度ベクトルのつながりのパターンが複数パターン存在し、一意に移動軌跡を特定することができない。例えば、速度ベクトル3aと3bとがつながり、速度ベクトル3cと3dとがつながるとした場合には、人の移動軌跡はそれぞれ移動軌跡3e、3fとなる。これに対して、速度ベクトル3aと3dとがつながり、速度ベクトル3bと3cとがつながるとした場合には、人の移動軌跡はそれぞれ移動軌跡3g、3hとなる。どちらの移動軌跡が正しいのかを判断するには、経験則等に頼るほかなく、精度よく移動軌跡を検出できているとは言い難かった。
As shown in FIG. 27, when each region includes
開示の技術は、上記に鑑みてなされたものであって、複数人の移動推移を検出することができる移動体検出プログラムおよび移動体検出装置を提供することを目的とする。なお、上記課題は、サービスロボットだけではなく、公共の空間を監視する監視システムなどにも同様に生ずる課題である。 The disclosed technology has been made in view of the above, and an object thereof is to provide a moving body detection program and a moving body detection apparatus capable of detecting a movement transition of a plurality of persons. Note that the above-mentioned problem is a problem that occurs not only in service robots but also in monitoring systems that monitor public spaces.
本願の開示する移動体検出プログラムは、コンピュータに、移動体の位置を示す位置情報と該移動体が前記位置に存在した時間を示す時間情報とを対応づけて記憶部に記憶する記憶手順と、前記位置情報および前記時間情報に基づいて、複数の移動体の移動軌跡を移動体毎に算出する移動軌跡算出手順と、前記移動軌跡算出手順により算出された複数の移動軌跡のうち、移動軌跡の長さが他の移動軌跡の長さと比較して長い移動軌跡を示す基準移動軌跡を特定する移動軌跡特定手順と、前記基準移動軌跡の特徴に類似する他の移動軌跡を統合することで、複数の移動体の移動推移を検出する移動推移検出手順とを実行させることを要件とする。 A moving object detection program disclosed in the present application stores in a storage unit, in a computer, position information indicating a position of a moving object and time information indicating a time when the moving object is present at the position, in association with each other. Based on the position information and the time information, a movement trajectory calculation procedure for calculating a movement trajectory of a plurality of moving bodies for each moving body, and among the plurality of movement trajectories calculated by the movement trajectory calculation procedure, By integrating a movement trajectory identification procedure for identifying a reference movement trajectory that indicates a movement trajectory that is longer than the length of other movement trajectories, and other movement trajectories similar to the characteristics of the reference movement trajectory, It is a requirement to execute a movement transition detection procedure for detecting a movement transition of a moving body.
本願の開示する移動体検出プログラムの一つの態様によれば、複数人の移動推移を検出することができるという効果を奏する。 According to one aspect of the moving body detection program disclosed in the present application, it is possible to detect the movement transition of a plurality of persons.
以下に、本願の開示する移動体検出プログラムおよび移動体検出装置の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。 Embodiments of a moving object detection program and a moving object detection device disclosed in the present application will be described below in detail with reference to the drawings. Note that the present invention is not limited to the embodiments.
図1は、本実施例1にかかる移動体検出装置の構成を示す図である。図1に示すように、この移動体検出装置50は、記憶部51、移動軌跡算出部52、移動軌跡特定部53、移動推移検出部54を有する。
FIG. 1 is a diagram illustrating the configuration of the moving object detection device according to the first embodiment. As illustrated in FIG. 1, the moving body detection device 50 includes a
記憶部51は、移動体の位置を示す位置情報と該移動体が前記位置に存在した時間を示す時間情報とを対応づけて記憶する。移動軌跡算出部52は、位置情報および時間情報に基づいて、複数の移動体の移動軌跡を移動体毎に算出する。
The
移動軌跡特定部53は、移動軌跡算出部52により算出された複数の移動軌跡のうち、移動軌跡の長さが他の移動軌跡の長さと比較して長い移動軌跡を示す基準移動軌跡を特定する。移動推移検出部54は、移動軌跡特定部53が特定した基準移動軌跡の特徴に類似する他の移動軌跡を統合することで、複数の移動体の移動推移を検出する。
The movement trajectory identification unit 53 identifies a reference movement trajectory that indicates a movement trajectory that is longer than the length of other movement trajectories among the plurality of movement trajectories calculated by the movement trajectory calculation unit 52. . The movement
上記の移動体検出装置50は、複数の移動体の移動軌跡のうち、各移動軌跡の長さに基づいて基準移動軌跡を特定し、基準移動軌跡の特徴に類似する他の移動軌跡を統合する。このため、本実施例1にかかる移動体検出装置50は、移動体全体の移動の移動推移を検出することができる。 The moving body detection device 50 identifies a reference movement locus based on the length of each movement locus among movement loci of a plurality of moving bodies, and integrates other movement loci similar to the characteristics of the reference movement locus. . For this reason, the moving body detection apparatus 50 according to the first embodiment can detect the movement transition of the movement of the entire moving body.
なお、図1に示した移動軌跡算出部52、移動軌跡特定部53、移動推移検出部54は、後述する図4の移動軌跡統合部172に対応する。また、記憶部51は、後述する図4の記憶部160に対応する。
Note that the movement trajectory calculation unit 52, the movement trajectory identification unit 53, and the movement
図2は、本実施例2にかかるサービスロボットの構成を示す図である。図2に示すように、このサービスロボットは、リアルタイムクロック110、カメラ120a、LRF120b、人検知部130、駆動部140、通知部150、記憶部160、制御部170を有する。
FIG. 2 is a diagram illustrating the configuration of the service robot according to the second embodiment. As shown in FIG. 2, the service robot includes a real-
リアルタイムクロック110は、現在の時間データを順次生成し、生成した時間データを人検知部130、制御部170に出力する装置である。カメラ120aは、画像を順次撮影し、撮影した画像データを人検知部130に出力する装置である。
The
LRF(Laser Range Finder)120bは、検索範囲内の物体の座標を検出する装置である。LRF120bは、検出した物体の座標データを人検知部130に出力する。以下において、LRF120bが、物体の座標を検出する処理の一例について説明する。図3は、LRFの処理を説明するための図である。
An LRF (Laser Range Finder) 120b is a device that detects the coordinates of an object within a search range. The LRF 120b outputs the coordinate data of the detected object to the
図3のXg軸およびYg軸は、所定の位置を基準とした座標軸であり、この座標軸系をグローバル座標軸系とする。図3のXr軸およびYr軸は、サービスロボット100を基準とした座標軸であり、この座標軸をローカル座標軸系とする。図3の検索範囲5は、LRF120bのレーザーの照射範囲に対応する。
The Xg axis and the Yg axis in FIG. 3 are coordinate axes with a predetermined position as a reference, and this coordinate axis system is a global coordinate axis system. The Xr axis and the Yr axis in FIG. 3 are coordinate axes based on the
LRF120bは、水平方向にレーザーを照射し、照射したレーザーが物体に当たって反射してくる時間を測定することにより、サービスロボット100と物体との距離およびサービスロボット100と物体との角度を計測する。LRF120bは、計測した距離および角度から、ローカル座標軸上の物体の座標を算出する。そして、LRF120bは、グローバル座標軸上のサービスロボット100の座標と、ローカル座標軸上の物体の座標とを加算することで、グローバル座標軸上の物体の座標を算出する。LRF120bは、グローバル座標軸上の物体の座標データを人検知部130に出力する。
The LRF 120b measures the distance between the
人検知部130は、LRF120bから各物体の座標データを取得し、取得した座標データのうち、人の座標データを検出する処理部である。例えば、人検知部130は、人の画像の特徴を含むテンプレートを保持しており、かかるテンプレートとカメラ120aからの画像データとを比較することで、サービスロボット100の前方に人が存在するか否かを判定する。
The
例えば、人検知部130は、サービスロボット100の前方に人が存在していると判定している間に、LRF120bから取得した物体の座標データを、人の座標データとして検出し、ID(Identification)を付与する。そして、人検知部130は、IDと、座標データと、この座標データを取得した時間データとを対応づけたデータを制御部170に出力する。
For example, the
駆動部140は、制御部170からの制御命令に応答して、サービスロボット100を駆動する装置である。例えば、駆動部140には、図示しない車輪などが取り付けられており、駆動部140はこの車輪を駆動させることで、サービスロボット100を移動させる。通知部150は、制御部170から出力される各種のデータを上位アプリケーションに通知する処理部である。
The drive unit 140 is a device that drives the
記憶部160は、制御部170が各種の処理を実行するために利用するデータを記憶する記憶装置である。この記憶部160は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子、またはハードディスク、光ディスクなどの記憶装置に対応する。
The
制御部170は、サービスエリア内の複数人の移動の流れ、複数人に注目される位置、一時的に複数人に影響を与えるイベントの位置を検知する制御装置である。この制御部170は、ASIC(Application Specific Integrated Circuit)や、FPGA(Field Programmable Gate Array)などの集積装置に対応する。または、この制御部170は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等の電子回路に対応する。 The control unit 170 is a control device that detects a flow of movement of a plurality of persons in a service area, a position that is noticed by the plurality of persons, and a position of an event that temporarily affects the plurality of persons. The control unit 170 corresponds to an integrated device such as an application specific integrated circuit (ASIC) or a field programmable gate array (FPGA). Or this control part 170 respond | corresponds to electronic circuits, such as CPU (Central Processing Unit) and MPU (Micro Processing Unit).
次に、図2に示した記憶部160および制御部170の具体的な構成について説明する。図4は、記憶部および制御部の構成を示す機能ブロック図である。図4に示すように、記憶部160は、原始データ161、移動軌跡スプラインリスト162、流れリスト163、減速座標点リスト164、交点リスト165を記憶する。制御部170は、原始データ登録部171、移動軌跡統合部172、注目場所検出部173、リアルタイム行動認識部174、駆動制御部175を有する。
Next, specific configurations of the
原始データ登録部171は、人検知部130から人のIDと人の座標データと時間データとを取得し、取得した情報を基にして原始データ161を生成する処理部である。図5は、原始データのデータ構造を示す図である。図5に示すように、この原始データ161は、タイムスタンプ、ID(Identification)、x座標、y座標、x方向の速度、y方向の速度を有する。
The source data registration unit 171 is a processing unit that acquires a person ID, person coordinate data, and time data from the
このうち、IDは人を一意に識別する情報である。x座標は、グローバル座標軸上の人のx座標を示す。y座標は、グローバル座標軸上の人のy座標を示す。タイムスタンプは、x座標、y座標に人が存在した時点での時間を示す。x方向の速度は、タイムスタンプの示す時間において、人のx方向の速度を示す。y方向の速度は、タイムスタンプの示す時間において、人のy方向の速度を示す。 Among these, ID is information that uniquely identifies a person. The x coordinate indicates a person's x coordinate on the global coordinate axis. The y coordinate indicates the y coordinate of the person on the global coordinate axis. The time stamp indicates the time when a person is present at the x and y coordinates. The speed in the x direction indicates the speed of the person in the x direction at the time indicated by the time stamp. The speed in the y direction indicates the speed of the person in the y direction at the time indicated by the time stamp.
例えば、原始データ登録部171は、前後のx座標の差分値を、前後のタイムスタンプの差分値で除算することで、x方向の速度を算出する。原始データ登録部171は、前後のy座標の差分値を、前後のタイムスタンプの差分値で除算することで、y方向の速度を算出する。 For example, the source data registration unit 171 calculates the velocity in the x direction by dividing the difference value between the preceding and following x coordinates by the difference value between the preceding and succeeding time stamps. The source data registration unit 171 calculates the speed in the y direction by dividing the difference value between the preceding and following y coordinates by the difference value between the preceding and succeeding time stamps.
移動軌跡統合部172は、複数人の移動軌跡を統合することで、複数人全体の移動の流れを抽出する処理部である。複数人の全体の移動の流れは、複数人の全体の移動推移と同様の意味である。図6は、移動軌跡統合部の処理を説明するための図である。図6に示すように、移動軌跡統合部172は、原始データ161のx座標、y座標を基にして、ID毎に移動軌跡スプラインを算出する(ステップS10)。ここで、移動軌跡スプラインは、人の移動軌跡に対応する。 The movement trajectory integration unit 172 is a processing unit that extracts a movement flow of the plurality of persons by integrating the movement trajectories of the plurality of persons. The overall movement flow of a plurality of people has the same meaning as the movement movement of the whole of the plurality of people. FIG. 6 is a diagram for explaining the processing of the movement trajectory integration unit. As shown in FIG. 6, the movement trajectory integration unit 172 calculates a movement trajectory spline for each ID based on the x-coordinate and y-coordinate of the original data 161 (step S10). Here, the movement trajectory spline corresponds to a human movement trajectory.
移動軌跡統合部172は、移動軌跡スプラインを算出した後に、類似する移動軌跡スプライン毎に移動軌跡スプラインを分類する(ステップS11)。そして、移動軌跡統合部172は、分類した移動軌跡スプライン毎に平均化を行い、平均化を行った後の軌跡を複数人の流れとして検出する(ステップS12)。 After calculating the movement locus spline, the movement locus integration unit 172 classifies the movement locus spline for each similar movement locus spline (step S11). Then, the movement trajectory integration unit 172 performs averaging for each classified movement trajectory spline, and detects the trajectory after the averaging as a flow of a plurality of persons (step S12).
ここで、図6のステップS10に示した移動軌跡統合部172の処理について説明する。移動軌跡統合部172は、最小二乗法を利用して、x、y座標の近似曲線を算出することで、移動軌跡スプラインデータを算出する。図7は、移動軌跡スプラインの一例を示す図である。図7の曲線1Aは、ID「○○」に対応する移動軌跡スプラインであり、曲線2Aは、ID「××」に対応する移動軌跡スプラインである。
Here, the process of the movement trajectory integration unit 172 shown in step S10 of FIG. 6 will be described. The movement trajectory integration unit 172 calculates the movement trajectory spline data by calculating an approximate curve of the x and y coordinates using the least square method. FIG. 7 is a diagram illustrating an example of a movement trajectory spline.
移動軌跡統合部172は、原始データ161に記憶された全てのIDに対する移動軌跡スプラインを算出した後に、各移動軌跡スプラインを移動軌跡スプラインリスト162に登録する。図8は、移動軌跡スプラインリストのデータ構造を示す図である。図8に示すように、この移動軌跡スプラインリスト162は、人のID毎に移動軌跡スプラインを記憶している。また、移動軌跡スプラインリスト162は、始点の座標、終点の座標もあわせて記憶している。なお、移動軌跡スプラインリスト162に記憶された移動軌跡スプラインは、連続するx、y座標のデータでもよいし、上記最小二乗法で求めた近似式であってもよい。
The movement locus integration unit 172 registers the movement locus splines in the movement
次に、図6のステップS11に示した移動軌跡統合部172の処理について説明する。まず、移動軌跡統合部172は、移動軌跡スプラインリスト162に記憶された各移動軌跡スプラインを、長いものから順に並べ替え、一番長い移動軌跡スプラインを取り出す。移動軌跡統合部172は、取り出した移動軌跡スプラインを、移動軌跡スプラインリスト162から削除する。以下の説明において、移動軌跡スプラインリスト162に記憶された複数の移動軌跡スプラインのうち、最も長い移動軌跡スプラインを参照スプラインと表記する。
Next, the process of the movement locus integration unit 172 shown in step S11 of FIG. 6 will be described. First, the movement trajectory integration unit 172 sorts the movement trajectory splines stored in the movement
移動軌跡統合部172は、参照スプラインと移動軌跡スプラインリスト162に記憶された残りの移動軌跡スプラインとを順次比較して、方向差、最短距離の平均値、分散を求め、参照スプラインに類似する移動軌跡スプラインを判定する。
The movement trajectory integration unit 172 sequentially compares the reference spline and the remaining movement trajectory splines stored in the movement
まず、方向差について説明する。移動軌跡統合部172は、参照スプラインの始点から終点への方向と、移動軌跡スプラインの始点から終点への方向との差分を求めることで、方向差を算出する。 First, the direction difference will be described. The movement trajectory integration unit 172 calculates the direction difference by obtaining a difference between the direction from the start point to the end point of the reference spline and the direction from the start point to the end point of the movement trajectory spline.
続いて、最短距離の平均値について説明する。移動軌跡統合部172は、移動軌跡スプラインを所定のサンプル数だけサンプリングする。そして、移動軌跡統合部172は、サンプリングした移動軌跡スプラインのn番目の座標から参照スプラインまでの最短距離を算出する。例えば、サンプル数をSiとすると、nは、1〜Siまでの整数となる。移動軌跡統合部172は、各最短距離の合計値をSiで除算することで、最短距離の平均値を算出する。 Next, the average value of the shortest distance will be described. The movement trajectory integration unit 172 samples the movement trajectory spline by a predetermined number of samples. Then, the movement trajectory integration unit 172 calculates the shortest distance from the nth coordinate of the sampled movement trajectory spline to the reference spline. For example, when the number of samples is Si, n is an integer from 1 to Si. The movement locus integration unit 172 calculates the average value of the shortest distances by dividing the total value of the shortest distances by Si.
図9は、最短距離の平均値を説明するための図である。図9では、参照スプライン1B、移動軌跡スプライン2B、3Bを用いて説明する。また、サンプル数を3とする。移動軌跡統合部172は、参照スプライン1Bと移動軌跡スプライン2Bとの最短距離の平均値を求める場合には、距離1C、2C、3Cを加算した値を3で除算する。移動軌跡統合部172は、参照スプライン1Bと、移動軌跡スプライン3Bとの最短距離の平均値を求める場合には、距離1D、2D、3Dを加算した値を3で除算する。
FIG. 9 is a diagram for explaining the average value of the shortest distances. In FIG. 9, description will be made using the
続いて、分散について説明する。まず、移動軌跡統合部172は、上記最短距離の平均値を算出する手法と同様にして、平均値を算出する。そして、移動軌跡統合部172は、各最短距離から平均値を除算した値をそれぞれ二乗し、二乗した値を合計する。移動軌跡統合部172は、合計した値を平均値の二乗で除算することで、分散を算出する。 Subsequently, dispersion will be described. First, the movement trajectory integration unit 172 calculates the average value in the same manner as the method for calculating the average value of the shortest distances. Then, the movement trajectory integration unit 172 squares the values obtained by dividing the average value from each shortest distance, and sums the squared values. The movement trajectory integration unit 172 calculates the variance by dividing the total value by the square of the average value.
移動軌跡統合部172は、参照スプライン毎に方向差が第1閾値未満、かつ、最短距離の平均値が第2閾値未満、かつ、分散が第3閾値未満となる移動軌跡スプラインを検出する。上記条件を満たす移動軌跡スプラインは、参照スプラインに類似するものとなる。移動軌跡統合部172は、参照スプラインと該参照スプラインに類似する移動軌跡スプラインとを対応づけて、流れリスト163に記憶する。
The movement trajectory integration unit 172 detects a movement trajectory spline in which the direction difference is less than the first threshold, the average value of the shortest distances is less than the second threshold, and the variance is less than the third threshold for each reference spline. The movement trajectory spline that satisfies the above conditions is similar to the reference spline. The movement trajectory integration unit 172 stores the reference spline and the movement trajectory spline similar to the reference spline in association with each other in the
図10は、流れリストのデータ構造を示す図である。図10に示すように、この流れリスト163は、参照スプラインを一意に識別する参照スプラインID、参照スプライン、移動軌跡スプラインを有する。
FIG. 10 is a diagram illustrating a data structure of the flow list. As shown in FIG. 10, the
次に、図6のステップS12に示した移動軌跡統合部172の処理について説明する。移動軌跡統合部172は、流れリスト163を参照し、参照スプラインID毎に、参照スプラインと各移動軌跡スプラインとを平均化することで、全体の流れを算出する。図11は、全体の流れの算出を説明するための図である。例えば、ある参照スプラインIDには、参照スプライン4Aと、移動軌跡スプライン4Bとが存在したとする。この場合には、移動軌跡統合部172は、各スプライン4A、4Bの各座標x、yの値に対して最小二乗法を適用することで、全体の流れ4Cを算出する。
Next, the process of the movement trajectory integration unit 172 shown in step S12 of FIG. 6 will be described. The movement trajectory integration unit 172 refers to the
図12は、移動軌跡統合部が算出した全体の流れを示す図である。図12に示す例では、移動軌跡スプライン5B、5C、参照スプライン5Aが平均化されることで、全体の流れ5Dが得られる。また、移動軌跡スプライン6A、参照スプライン6Bが平均化されることで、全体の流れ6Cが得られる。移動軌跡統合部172は、全体の流れのデータを駆動制御部175に出力する。
FIG. 12 is a diagram illustrating an overall flow calculated by the movement trajectory integration unit. In the example shown in FIG. 12, the
なお、移動軌跡統合部172は、平均化を行う場合に、参照スプラインの長さとその他の移動軌跡スプラインの長さに基づいて、サンプル数を調整してもよい。例えば、移動軌跡統合部172は、参照スプラインのサンプル数Smaxを決める。そして、移動軌跡統合部172は、他の移動軌跡スプラインの長さをSPi、参照スプラインの長さをSPmaxとした場合、他の移動軌跡スプラインのサンプル数Siを、式(1)により算出する。 Note that the movement trajectory integration unit 172 may adjust the number of samples based on the length of the reference spline and the length of other movement trajectory splines when performing averaging. For example, the movement trajectory integration unit 172 determines the sample number Smax of the reference spline. Then, the movement trajectory integration unit 172 calculates the number of samples Si of the other movement trajectory splines by the formula (1), where SPi is the length of the other movement trajectory spline and SPmax is the length of the reference spline.
Si=SPmax/SPi×Smax・・・(1)
式(1)に示すように、参照スプラインが長いほど他の移動軌跡スプラインのサンプル数が多くなり、全体の流れを算出する場合の計算に大きく影響する。
Si = SPmax / SPi × Smax (1)
As shown in equation (1), the longer the reference spline, the greater the number of samples of other movement trajectory splines, which greatly affects the calculation when calculating the overall flow.
図4の説明に戻る。注目場所検出部173は、注目度の高い場所を人が通過する際に、人の移動速度が減速することを利用して、注目度の高い場所を検出する処理部である。図13は、注目場所検出部の処理を説明するための図である。図13の縦軸は速度を示し、横軸は時間を示す。曲線7Aは、人物aの時間と速度との関係を示すものであり、曲線7Bは、人物bの時間と速度との関係を示すものであり、曲線7Cは、人物cの時間と速度との関係を示すものである。各曲線7A〜7Cは、原始データ161のタイムスタンプと、x、y方向の速度から求めることができる。各人物a〜cには所定のIDが割り振られているものとする。
Returning to the description of FIG. The attention
まず、注目場所検出部173は、各人の減速する時間帯を抽出する。人が減速することは、人の加速度がマイナスになることに等しい。このため、注目場所検出部173は、原始データ161に基づいて、人毎の加速度を算出し、算出した加速度がマイナスとなる時間帯を抽出する。図13に示す例では、人物aが減速する時間帯は8Aとなり、人物bが減速する時間帯は8Bとなり、人物cが減速する時間帯は8Cとなる。
First, the attention
注目場所検出部173は、各人が減速した時間帯を抽出した後に、この減速した時間帯に対応する各人の移動軌跡を移動軌跡スプラインリスト162から取得する。そして、注目場所検出部173は、減速した時間帯の移動軌跡を等間隔にサンプリングし、サンプリングしたx、y座標点および移動方向を対応づけて減速座標点リスト164に登録する。なお、注目場所検出部173は、移動軌跡の始点および終点の関係から移動方向を算出するものとする。
The attention
図14は、減速座標点リストのデータ構造を示す図である。図14に示すように、この減速座標点リスト164は、ID、移動方向、減速座標点とを対応づけて記憶する。IDは、人を一意に識別するものであり、減速座標点は、減速した時間帯の移動軌跡を等間隔にサンプリングした場合のx、y座標に対応する。
FIG. 14 is a diagram illustrating a data structure of the deceleration coordinate point list. As shown in FIG. 14, the deceleration coordinate
注目場所検出部173は、ID毎の減速座標点を利用して、階級DX、DYで2Dヒストグラムを作成する。そして、注目場所検出部173は、ヒストグラムの度数が高い順で場所を抽出し、度数が所定の度数以上となる領域を注目度の高い場所として抽出する。図15は、注目度の高い場所を説明するための図である。
The attention
図15において、場所9Aは、人物aが減速した時間帯8Aに移動した領域であり、場所9Bは、人物bが減速した時間帯8Bに移動した領域であり、場所9Cは、人物cが減速した時間帯8Cに移動した領域である。例えば、各人物a〜cが移動したx、y座標を基にヒストグラムを作成すると、場所9Dに対応する領域の度数が所定の度数以上となる。この場合には、注目場所検出部173は、場所9Dを注目度の高い場所として判定する。例えば、興味深い展示品9Eが場所9D付近に存在している可能性が高い。
In FIG. 15, a
また、注目場所検出部173は、ID毎の移動方向を利用して、階級DAでヒストグラムを作成する。そして、注目場所検出部173は、ヒストグラムの度数が一番高い移動方向を、注目度の高い場所に対する移動方向として判定する。注目場所検出部173は、注目度の高い場所と、注目度の高い場所に対する移動方向のデータを、駆動制御部175に出力する。
Further, the attention
なお、注目度が高くなくても、障害物が存在する場合には、人の移動速度が減少するものと考えられる。このため、注目場所検出部173は、障害物の存在する場所情報を保持しておき、この場所情報に含まれる注目度の高い場所を除いた後に、残りの注目度の高い場所のデータを駆動制御部175に出力してもよい。
Even if the degree of attention is not high, it is considered that the moving speed of a person decreases when an obstacle is present. For this reason, the attention
ところで、上記の注目場所検出部173の処理では、ヒストグラムを利用して、注目度の高い場所を検出していたが、これに限定されるものではない。注目場所検出部173は、カーネル密度推定方法を用いることで、注目度の高い場所を検出してもよい。図16は、注目場所検出部のその他の処理を説明するための図である。
By the way, in the processing of the attention
図16の横軸は時間を示す。縦軸は、各曲線に応じて異なる値を示す。具体的には、曲線10Aに対しては、縦軸は位置に対応する。曲線10Bに対しては、縦軸は速度に対応する。曲線10Cに対しては、縦軸は加速度に対応する。注目場所検出部173は、曲線10A、10Bは、原始データ161を基に作成する。また、注目場所検出部173は、前後の速度と前後の時間差に基づいて、時間毎の加速度を算出し、曲線10Cを作成する。
The horizontal axis in FIG. 16 indicates time. The vertical axis indicates different values depending on each curve. Specifically, for the
注目場所検出部173は、曲線10Cの加速度の推移に着目し、加速度が減少する時間を減速開始時間Tniとして特定する。また、注目場所検出部173は、曲線10Cの加速度の推移に着目し、加速度が減少した後に、加速度が増加する時間を減速完了時間Tnjとして特定する。
The location-of-
そして、注目場所検出部173は、減速開始時間Tniおよび減速完了時間Tnjの間の位置を特定する。図16に示す例では、減速開始時間Tniおよび減速完了時間Tnjの間の位置範囲は、位置範囲10Dとなる。注目場所検出部173は、位置範囲10Dを間隔DTでサンプリングを行い、サンプリング結果となるx、y座標を減速座標点リスト164に登録する。注目場所検出部173は、その他の人についても上記処理を実行することで、人が減速した位置範囲をそれぞれ算出する。そして、注目場所検出部173は、各位置範囲をサンプリングして、サンプリング結果を減速座標点リスト164に登録する。
Then, the attention
なお、注目場所検出部173が減速開始時間Tni、減速完了時間Tnjを特定する方法は下記のとおりとなる。注目場所検出部173は、曲線10Cの開示時間をTn0とし、dtの時間間隔で、曲線10Cを微分する。微分した値をJerkとする。そして、注目場所検出部173は、Jerkがマイナスとなる時間帯を減速時間帯とし、この減速時間帯の開始時間を減速開始時間Tni、減速時間帯の終了時間を減速完了時間Tnjとする。
Note that the method of specifying the deceleration start time Tni and the deceleration completion time Tnj by the attention
注目場所検出部173がサンプリングを行う場合の分解能は、運用によって適宜切り替えられる。例えば、注目場所の検出に高い精度が求められる場合には、サンプリング間隔は短い間隔に設定される。このように、サンプリング間隔を短くすることで、注目場所の検出精度が向上する。これに対して、注目場所の検出に高い精度が求められない場合には、サンプリング間隔は長い間隔に設定される。このように、サンプリング間隔を長くすることで、計算コストを削減することができる。
The resolution when the attention
図4の説明に戻る。リアルタイム行動認識部174は、ある時間Tnにおいて瞬間的に発生するイベントの位置を検出する処理部である。リアルタイム行動認識部174は、人検知部130から人のIDと人の座標データと時間データとを取得し、ID毎に人の移動速度を算出する。例えば、リアルタイム行動認識部174は、前後の座標の差を前後の時間の差で除算することで、移動速度を順次算出する。
Returning to the description of FIG. The real-time
リアルタイム行動認識部174は、時間Tnの人の位置を通り、移動速度の向きと同方向の直線を算出する。リアルタイム行動認識部174は、人毎に上記直線をそれぞれ算出する。そして、リアルタイム行動認識部174は、各直線の交点を算出し、算出した交点の座標を、瞬間的に発生するイベントの位置として検出する。リアルタイム行動認識部174は、各直線の交点を交点リスト165に登録する。また、リアルタイム行動認識部174は、イベントの位置のデータを駆動制御部175に出力する。
The real-time
図17は、リアルタイム行動認識部の処理を説明するための図(1)である。図17において、11A、11B、11Cは、時間Tnにおける人物a、b、cの位置を示す。12A、12B、12Cは、時間Tnにおける人物a、b、cの移動速度の向きを示す。直線13Aは、位置11Aを通り、向き12Aと同方向の直線であり、直線13Bは、位置11Bを通り、向き12Bと同方向の直線であり、直線13Cは、位置11Cを通り、向き12Cと同方向の直線である。直線13A、13B、13Cの交点は交点14Aとなる。この場合には、リアルタイム行動認識部174は、交点14Aを、瞬間的に発生するイベントの位置として検出する。
FIG. 17 is a diagram (1) for explaining the processing of the real-time action recognition unit. In FIG. 17, 11A, 11B, and 11C indicate the positions of the persons a, b, and c at time Tn. 12A, 12B, and 12C indicate the directions of the moving speeds of the persons a, b, and c at time Tn. The straight line 13A passes through the
図17に示す例では、各人が交点に向かっている場合について説明したが、交点から人が離れる場合にも、交点に対応する位置に何かしらのイベントが発生したものと考えられる。図18は、リアルタイム行動認識部の処理を説明するための図(2)である。図18において、11D、11E、11Fは、時間Tnにおける人物d、e、fの位置を示す。12D、12E、12Fは、時間Tnにおける人物d、e、fの移動速度の向きを示す。直線13Dは、位置11Dを通り、向き12Dと同方向の直線であり、直線13Eは、位置11Eを通り、向き12Eと同方向の直線であり、直線13Fは、位置11Fを通り、向き12Fと同方向の直線である。直線13D、13B、13Cの交点は交点14Bとなる。この場合には、リアルタイム行動認識部174は、交点14Bを、瞬間的に発生するイベントの位置として検出する。
In the example illustrated in FIG. 17, the case where each person is approaching the intersection has been described. However, even when the person leaves the intersection, it is considered that some event has occurred at a position corresponding to the intersection. FIG. 18 is a diagram (2) for explaining the processing of the real-time action recognition unit. In FIG. 18, 11D, 11E, and 11F indicate the positions of the persons d, e, and f at the time Tn. 12D, 12E, and 12F indicate the directions of the moving speeds of the persons d, e, and f at time Tn. The
なお、リアルタイム行動認識部174は、各直線の交点を算出した後に、一定範囲内に存在する交点の数が閾値以上となる場合に、この一定範囲内の位置を、瞬間的に発生するイベントの位置として検出してもよい。上記交点は、2本の直線の交点でもよいし、3本以上の直線の交点でもよい。
In addition, after calculating the intersection of each straight line, the real-time
図4の説明に戻る。駆動制御部175は、移動軌跡統合部172から取得する複数人の流れ、注目場所検出部173から取得する注目度の高い場所、リアルタイム行動認識部174から取得する瞬間的に発生するイベントの位置を基にして、駆動部140を駆動させる処理部である。例えば、駆動制御部175は、複数人の流れに添うようにサービスロボット100が移動するように、制御命令を駆動部140に出力する。また、駆動制御部175は、サービスロボット100が注目度の高い位置に移動するように、制御命令を駆動部140に出力する。また、駆動制御部175は、サービスロボット100が、瞬間的に発生するイベントの位置に移動するように、制御命令を駆動部140に出力する。
Returning to the description of FIG. The drive control unit 175 indicates the flow of a plurality of people acquired from the movement trajectory integration unit 172, the location with a high degree of attention acquired from the attention
次に、図2に示した制御部170の処理手順について説明する。図19は、本実施例2にかかる制御部の処理手順を示すフローチャートである。図19に示す処理は、例えば、サービスロボット100が起動したことを契機として実行される。図19に示すように、制御部170は、検知サイクルをCiに設定する(ステップS101)。Ciの値は例えば100msである。
Next, a processing procedure of the control unit 170 illustrated in FIG. 2 will be described. FIG. 19 is a flowchart of the process procedure of the control unit according to the second embodiment. The process illustrated in FIG. 19 is executed, for example, when the
制御部170は、人のID、座標、速度をタイムスタンプ付きで記憶部160に保存する(ステップS102)。また、制御部170は、移動軌跡スプラインを作成し、記憶部160に保存する(ステップS103)。
The control unit 170 stores the person's ID, coordinates, and speed in the
制御部170は、一定時間内のデータを統計する場合には(ステップS104,Yes)、一定時間内の複数人の流れ、注目度の高い場所を検出し、検出結果を出力し(ステップS105)、ステップS106に移行する。ここで一定時間は、例えば、10分程度の時間である。 When the data within a certain period of time is statistically determined (step S104, Yes), the control unit 170 detects a flow of a plurality of people within a certain period of time and a place with a high degree of attention, and outputs a detection result (step S105). The process proceeds to step S106. Here, the fixed time is, for example, about 10 minutes.
一方、制御部170は、一定時間内のデータを統計しない場合には(ステップS104,No)、リアルタイム行動認識を行うか否かを判定する(ステップS106)。制御部170は、リアルタイム行動認識を行う場合には(ステップS106,Yes)、リアルタイム行動認識を実行し、実行結果を出力し(ステップS107)、ステップS108に移行する。 On the other hand, the control unit 170 determines whether or not to perform real-time action recognition (step S106) when the data within a certain period of time is not statistics (step S104, No). When performing real-time action recognition (step S106, Yes), the controller 170 executes real-time action recognition, outputs the execution result (step S107), and proceeds to step S108.
一方、制御部170は、リアルタイム行動認識を行わない場合には(ステップS106,No)、処理を終了するか否かを判定する(ステップS108)。制御部170は、処理を終了する場合には(ステップS108,Yes)、処理を終了する。制御部170は、処理を継続する場合には(ステップS108,No)、Ciに1を加算し(ステップS109)、ステップS101に再度移行する。 On the other hand, when the real time action recognition is not performed (No at Step S106), the control unit 170 determines whether to end the process (Step S108). If the control unit 170 ends the process (step S108, Yes), the control unit 170 ends the process. When the process is continued (No at Step S108), the control unit 170 adds 1 to Ci (Step S109), and proceeds to Step S101 again.
次に、図4に示した移動軌跡統合部172の処理手順について説明する。図20は、移動軌跡統合部の処理手順を示すフローチャートである。図20に示す処理は、例えば、原始データ登録部171により、原始データ161が生成されたことを契機に実行される。
Next, the processing procedure of the movement trajectory integration unit 172 shown in FIG. 4 will be described. FIG. 20 is a flowchart illustrating a processing procedure of the movement trajectory integration unit. The process illustrated in FIG. 20 is executed by the source data registration unit 171 when the
図20に示すように、移動軌跡統合部172は、移動軌跡スプラインリスト162を作成し、この移動軌跡スプラインリスト162を空に設定する(ステップS201)。また、移動軌跡統合部172は、所定時間内の全ての人の移動軌跡スプラインを移動軌跡スプラインリスト162に追加する(ステップS202)。
As illustrated in FIG. 20, the movement trajectory integration unit 172 creates a movement
移動軌跡統合部172は、移動軌跡スプラインの長さに基づいて移動軌跡スプラインリスト162をソートする(ステップS203)。移動軌跡統合部172は、各移動軌跡スプラインの始点、終点の位置で方向を計算し、計算結果を保存する(ステップS204)。
The movement trajectory integration unit 172 sorts the movement
移動軌跡統合部172は、移動軌跡スプラインリスト162に含まれる移動軌跡スプラインのうち、一番長い移動軌跡スプラインiを取得する(ステップS205)。そして、移動軌跡統合部172は、移動軌跡スプラインiを参照スプラインとし、流れリスト163を作成する(ステップS206)。
The movement locus integration unit 172 acquires the longest movement locus spline i among the movement locus splines included in the movement locus spline list 162 (step S205). Then, the movement trajectory integration unit 172 creates a
移動軌跡統合部172は、移動軌跡スプラインiとの方位差が第1閾値未満となる移動軌跡スプラインjを取得する(ステップS207)。移動軌跡統合部172は、移動軌跡スプラインjを等間隔にN点サンプリングし、移動軌跡スプラインiとの最短距離を計算する(ステップS208)。 The movement trajectory integration unit 172 acquires a movement trajectory spline j whose azimuth difference from the movement trajectory spline i is less than the first threshold (step S207). The movement trajectory integration unit 172 samples the movement trajectory spline j at N points at equal intervals, and calculates the shortest distance from the movement trajectory spline i (step S208).
移動軌跡統合部172は、最短距離の平均値および分散が閾値以上の場合には(ステップS209,No)、jに1を加算し(ステップS210)、ステップS207に移行する。一方、移動軌跡統合部172は、最短距離の平均値および分散が閾値未満の場合には(ステップS209,Yes)、移動軌跡スプラインiの流れリスト163に移動軌跡スプラインjを追加する。また、移動軌跡統合部172は、移動軌跡スプラインiを移動軌跡スプラインリスト162から削除する(ステップS211)。なお、上記のように、最短距離の平均値と比較される閾値は、第2閾値であり、分散と比較される閾値は第3閾値である。
When the average value and variance of the shortest distances are equal to or greater than the threshold (No at Step S209), the movement trajectory integration unit 172 adds 1 to j (Step S210), and proceeds to Step S207. On the other hand, when the average value and the variance of the shortest distances are less than the threshold (Yes in step S209), the movement trajectory integration unit 172 adds the movement trajectory spline j to the
移動軌跡統合部172は、移動軌跡スプラインiとの方位差が第1閾値未満となる移動軌跡スプラインが存在する場合には(ステップS212,Yes)、ステップS210に移行する。一方、移動軌跡統合部172は、移動軌跡スプラインiとの方位差が第1閾値未満となる移動軌跡スプラインが存在しない場合には(ステップS212,No)、移動軌跡スプラインリスト162が空であるか否かを判定する(ステップS213)。
If there is a movement trajectory spline whose azimuth difference from the movement trajectory spline i is less than the first threshold (Yes in step S212), the movement trajectory integration unit 172 proceeds to step S210. On the other hand, if there is no movement locus spline whose azimuth difference from the movement locus spline i is less than the first threshold (No in step S212), the movement locus integration unit 172 determines whether the movement
移動軌跡統合部172は、移動軌跡スプラインリスト162が空ではない場合には(ステップS213,No)、iに1を加算し(ステップS214)、ステップS205に移動する。
If the movement
一方、移動軌跡統合部172は、移動軌跡スプラインリスト162が空の場合には(ステップS213,Yes)、流れリスト163に含まれる全ての移動軌跡スプラインを、重みを考慮して平均化する(ステップS215)。そして、移動軌跡統合部172は、平均化した移動軌跡スプラインを該当流れモデルに設定し、駆動制御部175に出力する(ステップS216)。
On the other hand, when the movement
次に、図4に示した注目場所検出部173の処理手順について説明する。図21は、注目場所検出部の処理手順を示すフローチャートである。図21に示す処理は、例えば、原始データ登録部171により、原始データ161が生成されたことを契機に実行される。
Next, a processing procedure of the attention
注目場所検出部173は、所定時間内の全ての人の移動位置の軌跡、速度の軌跡、加速度の軌跡を取得する(ステップS301)。また、注目場所検出部173は、減速座標点リスト164を生成する(ステップS302)。
The attention
注目場所検出部173は、N番目の人が減速する時間帯[Tni、Tnj]を抽出し(ステップS303)、時間帯[Tni、Tnj]内の移動軌跡を取得し、間隔DTにて移動軌跡をリサンプリングする(ステップS304)。
The attention
注目場所検出部173は、リサンプリングしたX、Y座標点および移動方向を減速座標点リスト164に追加する(ステップS305)。注目場所検出部173は、登録が完了してない場合には(ステップS306,No)、再度ステップS303に移行する。
The attention
一方、注目場所検出部173は、登録が完了した場合には(ステップS306,Yes)、減速座標点リスト164のX、Y座標点を利用して、階級DX、DYで2Dヒストグラムを作成する(ステップS307)。
On the other hand, when the registration is completed (Yes in step S306), the attention
注目場所検出部173は、ヒストグラムの度数がN以上となる場所を判定し(ステップS308)、判定した場所において、移動方向のヒストグラムを作成する(ステップS309)。そして、注目場所検出部173は、ヒストグラムの最も高い度数の角度を該当場所の移動方向として判定する(ステップS310)。
The attention
次に、図4に示したリアルタイム行動認識部174の処理手順について説明する。図22は、リアルタイム行動認識部の処理手順を示すフローチャートである。図22に示す処理は、例えば、人検知部130から、人のID、座標データ、時間データを取得したことを契機に実行される。
Next, the processing procedure of the real-time
リアルタイム行動認識部174は、検知サイクルで検知した全ての人の位置、速度を取得し(ステップS401)、各人の位置を通り、速度と同方向の直線を作成する(ステップS402)。
The real-time
リアルタイム行動認識部174は、直線iと直線i以外の直線との交点のX,Y座標を算出し(ステップS403)、交点リスト165に登録する(ステップS404)。リアルタイム行動認識部174は、登録が完了していない場合には(ステップS405,No)、iに1を加算し(ステップS406)、ステップS403に移行する。
The real-time
一方、リアルタイム行動認識部174は、登録が完了した場合には(ステップS405,Yes)、交点リスト165のX,Y座標を利用し、階級DRで2Dヒストグラムを作成する(ステップS407)。リアルタイム行動認識部174は、ヒストグラムの度数が閾値Nを超えた場合に、その階級の平均値をイベントの発生位置として検出する(ステップS408)。
On the other hand, when the registration is completed (Yes in step S405), the real-time
上述してきたように、サービスロボット100に含まれる制御部170は、複数の人の移動軌跡スプラインのうち、最も長い移動軌跡スプラインを参照スプラインとして特定する。そして、制御部170は、参照スプラインの特徴に類似する他の移動スプラインを統合することで複数人の流れを検出する。このように、複数人の流れを検出することができるので、例えば、サービスロボット100は、単一の人の動きに影響されず、サービスを行う場合の最適な位置に移動することができる。
As described above, the control unit 170 included in the
また、制御部170は、人の速度を算出し、速度が減速した時点での人の位置を検出する。一般的に、人は注目度の高い場所にさしかかると、移動する速度が減速するものと考えられる。このため、制御部170は、注目度の高い場所を検出することができるので、サービスロボット100は、注目度の高い場所に移動して、サービスを提供することができる。
In addition, the control unit 170 calculates the speed of the person and detects the position of the person when the speed is reduced. Generally, when a person approaches a place with a high degree of attention, it is considered that the moving speed is reduced. For this reason, since the control part 170 can detect a place with a high degree of attention, the
また、制御部170は、人が移動するたびに、一時的な各人の移動方向をそれぞれ算出し、算出した各移動方向と同方向の直線に基づいて、各人の移動に影響を与える位置を検出する。このため、制御部170は、リアルタイムに各人に注目される場所を検出することができ、サービスロボット100は、注目される場所に移動することで、サービスを適切に実行することができる。
Further, each time a person moves, the control unit 170 calculates a temporary movement direction of each person, and a position that affects the movement of each person based on a straight line in the same direction as each calculated movement direction. Is detected. For this reason, the control unit 170 can detect a place that is noticed by each person in real time, and the
ところで、上記実施例2では、制御部170がサービスエリア内の複数人の移動の流れ、複数人に注目される位置、一時的に複数人に与えるイベントの位置を検出し、該当場所にサービスロボット100を移動させる場合について説明した。しかし、制御部170の機能をサービスロボット100以外の装置に適用することも可能である。例えば、制御部170の機能をカメラを制御する監視システムに適用し、複数人の移動の流れ、複数人に注目される位置、一時的に複数人に与えるイベントの位置を検出した場合に、該当場所の方向にカメラを向けて監視を行うようにしてもよい。
By the way, in the second embodiment, the control unit 170 detects a flow of movement of a plurality of persons in the service area, a position that is noticed by a plurality of persons, and a position of an event that is temporarily given to the plurality of persons. The case where 100 is moved was demonstrated. However, the function of the control unit 170 can be applied to devices other than the
また、上記実施例2では、LRF120bをサービスロボット100に搭載する場合について説明したが、これに限定されるものではない。例えば、LRF120bをサービスロボット100以外の所定の位置に設置してもよい。
In the second embodiment, the case where the LRF 120b is mounted on the
また、駆動制御部175は、移動軌跡統合部172から取得する複数人の移動推移と、注目場所検出部173から取得する注目度の高い場所とを比較し、複数人の移動推移と注目度の高い場所とが重なる領域を検出してもよい。例えば、駆動制御部175は、検出した領域に向けてサービスロボット100が移動するように、制御命令を駆動部140に出力する。
In addition, the drive control unit 175 compares the movement transition of the plurality of persons acquired from the movement trajectory integration unit 172 with the place of high attention acquired from the attention
なお、上記の制御部170は、既知のパーソナルコンピュータ、ワークステーション等の情報処理装置に、制御部170等の各機能を搭載することによって実現することもできる。 The control unit 170 described above can be realized by mounting each function of the control unit 170 or the like on an information processing apparatus such as a known personal computer or workstation.
図23は、本実施例にかかる制御部を構成するコンピュータのハードウェア構成を示す図である。このコンピュータ200は、各種演算処理を実行するCPU201と、ユーザからのデータの入力を受け付ける入力装置202と、ネットワークを介して他のコンピュータとの間でデータの授受を行うネットワークインターフェース装置203とを有する。また、コンピュータ200は、カメラ204と、LRF205と、リアルタイムクロック206とを有する。また、コンピュータ200は、各種情報を一時記憶するRAM(Random Access Memory)207と、ハードディスク装置208とを有する。各装置201〜208は、バス209に接続される。
FIG. 23 is a diagram illustrating a hardware configuration of a computer constituting the control unit according to the present embodiment. The
そして、ハードディスク装置208は、図2に示した人検知部130、制御部170と同様の機能を有する検出プログラム208aを記憶する。また、ハードディスク装置208は、図2の記憶部160に記憶されたデータに対応する各種データ208bを記憶する。
The
CPU201は、検出プログラム208aを読み出してRAM207に展開する。そうすると、検出プログラム208aは、検出プロセス207aとして機能するようになる。この検出プロセス207aは、図2の人検知部130、制御部170に対応する。なお、CPU201は、ハードディスク装置208に記憶された各種データ208bを読み出して、RAM207に記憶させる。
The
検出プロセス207aは、各種データ207b、および、カメラ204、LRF205、リアルタイムクロック206からのデータを利用して、複数人の移動の流れ、注目度の高い場所、一時的に発生するイベントの位置を検出する。
The
なお、検出プログラム208aは、必ずしもハードディスク装置208に格納されている必要はない。コンピュータ200は、CD−ROM等の記憶媒体に記憶された検出プログラム208aを読み出して実行するようにしてもよい。また、公衆回線、インターネット、LAN(Local Area Network)、WAN(Wide Area Network)等にこの検出プログラム208aを記憶させておき、コンピュータ200が検出プログラム208aを読み出して実行するようにしてもよい。
Note that the
以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。 The following supplementary notes are further disclosed with respect to the embodiments including the above examples.
(付記1)コンピュータに、
移動体の位置を示す位置情報と該移動体が前記位置に存在した時間を示す時間情報とを対応づけて記憶部に記憶する記憶手順と、
前記位置情報および前記時間情報に基づいて、複数の移動体の移動軌跡を移動体毎に算出する移動軌跡算出手順と、
前記移動軌跡算出手順により算出された複数の移動軌跡のうち、移動軌跡の長さが他の移動軌跡の長さと比較して長い移動軌跡を示す基準移動軌跡を特定する移動軌跡特定手順と、
前記基準移動軌跡の特徴に類似する他の移動軌跡を統合することで、複数の移動体の移動推移を検出する移動推移検出手順と
を実行させることを特徴とする移動体検出プログラム。
(Supplementary note 1)
A storage procedure for storing, in the storage unit, position information indicating the position of the moving body and time information indicating the time when the moving body has existed at the position;
Based on the position information and the time information, a movement trajectory calculation procedure for calculating a movement trajectory of a plurality of moving bodies for each moving body;
A movement trajectory identification procedure for identifying a reference movement trajectory that indicates a movement trajectory that is longer than a length of other movement trajectories among a plurality of movement trajectories calculated by the movement trajectory calculation procedure;
A moving body detection program for executing a movement transition detection procedure for detecting movement transitions of a plurality of moving bodies by integrating other movement paths similar to the characteristics of the reference movement path.
(付記2)前記記憶部に記憶された前記位置情報および前記時間情報に基づいて、移動体の加速度を算出し、該加速度が減少した時点での前記移動体の位置を検出する位置検出手順を更にコンピュータに実行させることを特徴とする付記1に記載の移動体検出プログラム。
(Supplementary Note 2) A position detection procedure for calculating the acceleration of the moving body based on the position information and the time information stored in the storage unit and detecting the position of the moving body when the acceleration decreases. The moving object detection program according to
(付記3)前記移動推移検出手順において検出された複数の移動体の移動軌跡と、前記位置検出手順において検出された移動体の位置とが重なる位置を検出する重なり位置検出手順を更にコンピュータに実行させることを特徴とする付記2に記載の移動体検出プログラム。
(Additional remark 3) The overlapping position detection procedure which detects the position where the movement locus | trajectory of the several mobile body detected in the said movement transition detection procedure and the position of the mobile body detected in the said position detection procedure overlap is further performed to a computer The moving body detection program according to
(付記4)一定の時間間隔毎に、一時的な各移動体の移動方向をそれぞれ算出し、各移動体の位置から前記移動方向への直線がそれぞれ重複する領域または各移動体の位置から前記移動方向とは正反対の方向への直線がそれぞれ重複する領域を検出する重複領域検出手順を更にコンピュータに実行させることを特徴とする付記1、2または3に記載の移動体検出プログラム。
(Additional remark 4) At every fixed time interval, the temporary moving direction of each moving body is calculated, respectively, and the straight line from the position of each moving body to the moving direction overlaps each other or from the position of each moving body. 4. The moving body detection program according to
(付記5)移動体の位置を示す位置情報と該移動体が前記位置に存在した時間を示す時間情報とを対応づけて記憶する記憶部と、
前記位置情報および前記時間情報に基づいて、複数の移動体の移動軌跡を移動体毎に算出する移動軌跡算出部と、
前記移動軌跡算出部により算出された複数の移動軌跡のうち、移動軌跡の長さが他の移動軌跡の長さと比較して長い移動軌跡を示す基準移動軌跡を特定する移動軌跡特定部と、
前記基準移動軌跡の特徴に類似する他の移動軌跡を統合することで、複数の移動体の移動推移を検出する移動推移検出部と
を備えたことを特徴とする移動体検出装置。
(Additional remark 5) The memory | storage part which matches and memorize | stores the positional information which shows the position of a mobile body, and the time information which shows the time when this mobile body existed in the said position,
Based on the position information and the time information, a movement trajectory calculation unit that calculates a movement trajectory of a plurality of moving bodies for each moving body;
Among the plurality of movement trajectories calculated by the movement trajectory calculation unit, a movement trajectory specifying unit that specifies a reference movement trajectory indicating a movement trajectory that is longer than the length of the other movement trajectories,
A moving body detection apparatus comprising: a movement transition detection unit that detects movement transitions of a plurality of moving bodies by integrating other movement paths similar to the characteristics of the reference movement path.
(付記6)前記記憶部に記憶された前記位置情報および前記時間情報に基づいて、移動体の加速度を算出し、該加速度が減少した時点での前記移動体の位置を検出する位置検出部を更に備えたことを特徴とする付記5に記載の移動体検出装置。
(Supplementary Note 6) A position detection unit that calculates the acceleration of the moving body based on the position information and the time information stored in the storage unit, and detects the position of the moving body when the acceleration decreases. The moving body detection device according to
(付記7)前記移動推移検出部において検出された複数の移動体の移動軌跡と、前記位置検出部において検出された移動体の位置とが重なる位置を検出する重なり位置検出部を更に備えたことを特徴とする付記6に記載の移動体検出装置。 (Additional remark 7) It further provided the overlap position detection part which detects the position where the movement locus | trajectory of the several mobile body detected in the said movement transition detection part and the position of the mobile body detected in the said position detection part overlap. The moving body detection device according to appendix 6, characterized by:
(付記8)一定の時間間隔毎に、一時的な各移動体の移動方向をそれぞれ算出し、各移動体の位置から前記移動方向への直線がそれぞれ重複する領域または各移動体の位置から前記移動方向とは正反対の方向への直線がそれぞれ重複する領域を検出する重複領域検出部を更に備えたことを特徴とする付記5、6または7に記載の移動体検出装置。
(Additional remark 8) At every fixed time interval, the temporary moving direction of each moving body is calculated, respectively, and the straight line from the position of each moving body to the moving direction overlaps each other or from the position of each moving body. The moving body detection device according to
(付記9)移動体検出装置が、
移動体の位置を示す位置情報と該移動体が前記位置に存在した時間を示す時間情報とを対応づけて記憶部に記憶する記憶ステップと、
前記位置情報および前記時間情報に基づいて、複数の移動体の移動軌跡を移動体毎に算出する移動軌跡算出ステップと、
前記移動軌跡算出ステップにより算出された複数の移動軌跡のうち、移動軌跡の長さが他の移動軌跡の長さと比較して長い移動軌跡を示す基準移動軌跡を特定する移動軌跡特定ステップと、
前記基準移動軌跡の特徴に類似する他の移動軌跡を統合することで、複数の移動体の移動推移を検出する移動推移検出ステップと
を含んだことを特徴とする移動体検出方法。
(Supplementary note 9) The mobile object detection device is
A storage step of associating the position information indicating the position of the moving object with the time information indicating the time when the moving object was present at the position;
Based on the position information and the time information, a movement trajectory calculating step for calculating a movement trajectory of a plurality of moving bodies for each moving body;
A movement trajectory specifying step for specifying a reference movement trajectory that indicates a movement trajectory that is longer than the length of the other movement trajectories among the plurality of movement trajectories calculated in the movement trajectory calculation step;
A moving body detection method comprising: a movement transition detection step of detecting movement transitions of a plurality of moving bodies by integrating other movement paths similar to the characteristics of the reference movement path.
(付記10)前記記憶部に記憶された前記位置情報および前記時間情報に基づいて、移動体の加速度を算出し、該加速度が減少した時点での前記移動体の位置を検出する位置検出ステップを更に含んだことを特徴とする付記9に記載の移動体検出方法。 (Additional remark 10) The position detection step which calculates the acceleration of a moving body based on the position information and the time information stored in the storage unit, and detects the position of the moving body when the acceleration is reduced. The moving object detection method according to appendix 9, further comprising:
(付記11)前記移動推移検出ステップにおいて検出された複数の移動体の移動軌跡と、前記位置検出ステップにおいて検出された移動体の位置とが重なる位置を検出する重なり位置検出ステップを更に含んだことを特徴とする付記10に記載の移動体検出方法。 (Additional remark 11) It further included the overlap position detection step which detects the position where the movement locus | trajectory of the some mobile body detected in the said movement transition detection step and the position of the mobile body detected in the said position detection step overlap. The moving body detection method according to appendix 10, characterized by:
(付記12)一定の時間間隔毎に、一時的な各移動体の移動方向をそれぞれ算出し、各移動体の位置から前記移動方向への直線がそれぞれ重複する領域または各移動体の位置から前記移動方向とは正反対の方向への直線がそれぞれ重複する領域を検出する重複領域検出ステップを更に含んだことを特徴とする付記9、10または11に記載の移動体検出方法。 (Additional remark 12) At every fixed time interval, the movement direction of each temporary moving body is calculated, respectively, and the straight line from the position of each moving body to the moving direction respectively overlaps or the position of each moving body 12. The moving object detection method according to appendix 9, 10 or 11, further comprising an overlapping area detecting step for detecting an area where straight lines in directions opposite to the moving direction overlap each other.
50 移動体検出装置
51 記憶部
52 移動軌跡算出部
53 移動軌跡特定部
54 移動推移検出部
DESCRIPTION OF SYMBOLS 50 Moving
Claims (6)
移動体の位置を示す位置情報と該移動体が前記位置に存在した時間を示す時間情報とを対応づけて記憶部に記憶する記憶手順と、
前記位置情報および前記時間情報に基づいて、複数の移動体の移動軌跡を移動体毎に算出する移動軌跡算出手順と、
前記移動軌跡算出手順により算出された複数の移動軌跡のうち、移動軌跡の長さが他の移動軌跡の長さと比較して長い移動軌跡を示す基準移動軌跡を特定する移動軌跡特定手順と、
前記基準移動軌跡の特徴に類似する他の移動軌跡を統合することで、複数の移動体の移動推移を検出する移動推移検出手順と
を実行させることを特徴とする移動体検出プログラム。 On the computer,
A storage procedure for storing, in the storage unit, position information indicating the position of the moving body and time information indicating the time when the moving body has existed at the position;
Based on the position information and the time information, a movement trajectory calculation procedure for calculating a movement trajectory of a plurality of moving bodies for each moving body;
A movement trajectory identification procedure for identifying a reference movement trajectory that indicates a movement trajectory that is longer than a length of other movement trajectories among a plurality of movement trajectories calculated by the movement trajectory calculation procedure;
A moving body detection program for executing a movement transition detection procedure for detecting movement transitions of a plurality of moving bodies by integrating other movement paths similar to the characteristics of the reference movement path.
前記位置情報および前記時間情報に基づいて、複数の移動体の移動軌跡を移動体毎に算出する移動軌跡算出部と、
前記移動軌跡算出部により算出された複数の移動軌跡のうち、移動軌跡の長さが他の移動軌跡の長さと比較して長い移動軌跡を示す基準移動軌跡を特定する移動軌跡特定部と、
前記基準移動軌跡の特徴に類似する他の移動軌跡を統合することで、複数の移動体の移動推移を検出する移動推移検出部と
を備えたことを特徴とする移動体検出装置。 A storage unit that associates and stores position information indicating the position of the moving object and time information indicating the time when the moving object has existed at the position;
Based on the position information and the time information, a movement trajectory calculation unit that calculates a movement trajectory of a plurality of moving bodies for each moving body;
Among the plurality of movement trajectories calculated by the movement trajectory calculation unit, a movement trajectory specifying unit that specifies a reference movement trajectory indicating a movement trajectory that is longer than the length of the other movement trajectories,
A moving body detection apparatus comprising: a movement transition detection unit that detects movement transitions of a plurality of moving bodies by integrating other movement paths similar to the characteristics of the reference movement path.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010110586A JP5445319B2 (en) | 2010-05-12 | 2010-05-12 | Moving object detection program and moving object detection apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010110586A JP5445319B2 (en) | 2010-05-12 | 2010-05-12 | Moving object detection program and moving object detection apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011238139A true JP2011238139A (en) | 2011-11-24 |
JP5445319B2 JP5445319B2 (en) | 2014-03-19 |
Family
ID=45326027
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010110586A Expired - Fee Related JP5445319B2 (en) | 2010-05-12 | 2010-05-12 | Moving object detection program and moving object detection apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5445319B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020091859A (en) * | 2018-12-03 | 2020-06-11 | 株式会社リコー | User interest estimation method and device |
CN116010816A (en) * | 2022-12-28 | 2023-04-25 | 南京大学 | LRF large-kernel attention convolution network activity identification method based on large receptive field |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6461606A (en) * | 1987-09-01 | 1989-03-08 | Aisin Seiki | On-vehicle distance detector |
JP2003101994A (en) * | 2001-09-20 | 2003-04-04 | Toshiba Lighting & Technology Corp | Monitoring camera system |
JP2007271602A (en) * | 2006-03-10 | 2007-10-18 | Mitsubishi Electric Corp | Navigation system |
WO2010050110A1 (en) * | 2008-10-27 | 2010-05-06 | パナソニック株式会社 | Moving body detection method and moving body detection device |
-
2010
- 2010-05-12 JP JP2010110586A patent/JP5445319B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6461606A (en) * | 1987-09-01 | 1989-03-08 | Aisin Seiki | On-vehicle distance detector |
JP2003101994A (en) * | 2001-09-20 | 2003-04-04 | Toshiba Lighting & Technology Corp | Monitoring camera system |
JP2007271602A (en) * | 2006-03-10 | 2007-10-18 | Mitsubishi Electric Corp | Navigation system |
WO2010050110A1 (en) * | 2008-10-27 | 2010-05-06 | パナソニック株式会社 | Moving body detection method and moving body detection device |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020091859A (en) * | 2018-12-03 | 2020-06-11 | 株式会社リコー | User interest estimation method and device |
CN116010816A (en) * | 2022-12-28 | 2023-04-25 | 南京大学 | LRF large-kernel attention convolution network activity identification method based on large receptive field |
CN116010816B (en) * | 2022-12-28 | 2023-09-08 | 南京大学 | LRF large-kernel attention convolution network activity identification method based on large receptive field |
Also Published As
Publication number | Publication date |
---|---|
JP5445319B2 (en) | 2014-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5475138B2 (en) | Moving object prediction apparatus, virtual movable object prediction apparatus, program, moving object prediction method, and virtual movable object prediction method | |
JP6571545B2 (en) | Object detection apparatus and object detection method | |
JP4576445B2 (en) | Autonomous mobile device and program for autonomous mobile device | |
JP6588592B2 (en) | Collision prediction and airbag pre-deployment system used for autonomous vehicles | |
Batavia et al. | Overtaking vehicle detection using implicit optical flow | |
JP5535816B2 (en) | Moving object prediction apparatus and program | |
CN109686031B (en) | Identification following method based on security | |
CN110286389B (en) | Grid management method for obstacle identification | |
CN110576847A (en) | Focus-based tagging of sensor data | |
JP2017067756A (en) | Object detection device and object detection method | |
WO2008032673A1 (en) | Moving device | |
JP2013225295A (en) | Collision warning system taking azimuth information into consideration | |
CN112363494A (en) | Method and device for planning advancing path of robot and storage medium | |
CN113034579B (en) | Dynamic obstacle track prediction method of mobile robot based on laser data | |
CN111897335A (en) | Obstacle avoidance control method and control system for robot walking in Chinese character' gong | |
JP2001229488A (en) | Vehicle tracking method and traffic state tracking device | |
CN111368650A (en) | Crowd crowding behavior identification method based on track data | |
JP5445319B2 (en) | Moving object detection program and moving object detection apparatus | |
US11210952B2 (en) | Systems and methods for controlling vehicle traffic | |
JP2012164159A (en) | Risk determination device, risk determination program, and risk determination method | |
KR101951525B1 (en) | Collision avoidance system on highway joining section based on v2i communication | |
JP6851111B2 (en) | Railroad crossing obstacle detection device | |
JP2011198266A (en) | Risk determining device and program | |
JPH07225612A (en) | Method and device for path search having time base put in search space | |
CN117523914A (en) | Collision early warning method, device, equipment, readable storage medium and program product |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130403 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131106 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131126 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20131209 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5445319 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |