JP2011238139A - Moving object detecting program and moving object detecting device - Google Patents

Moving object detecting program and moving object detecting device Download PDF

Info

Publication number
JP2011238139A
JP2011238139A JP2010110586A JP2010110586A JP2011238139A JP 2011238139 A JP2011238139 A JP 2011238139A JP 2010110586 A JP2010110586 A JP 2010110586A JP 2010110586 A JP2010110586 A JP 2010110586A JP 2011238139 A JP2011238139 A JP 2011238139A
Authority
JP
Japan
Prior art keywords
movement
moving
movement trajectory
unit
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010110586A
Other languages
Japanese (ja)
Other versions
JP5445319B2 (en
Inventor
Sang Jiang
山 姜
Keiju Okabayashi
桂樹 岡林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2010110586A priority Critical patent/JP5445319B2/en
Publication of JP2011238139A publication Critical patent/JP2011238139A/en
Application granted granted Critical
Publication of JP5445319B2 publication Critical patent/JP5445319B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To detect a flow of movement of plural persons.SOLUTION: A mobile object detecting device 50 comprises a storage unit 51, a moving locus calculating unit 52, a moving locus specifying unit 53, and a moving transition detecting unit 54. The moving locus calculating unit 52 calculates a moving locus of plural moving objects for each moving object based on position information and time information. In plural moving locus calculated by the moving locus calculating unit 52, the moving locus specifying unit 53 specifies a reference moving locus which shows a longer length of moving locus compared to lengths of other moving locus. The moving transition detecting unit 54 detects a moving transition of plural moving objects by integrating other moving objects similar to features of the reference moving locus specified by the moving locus specifying unit 53.

Description

本発明は、移動体検出プログラムおよび移動体検出装置に関する。   The present invention relates to a moving object detection program and a moving object detection device.

サービスロボットは、サービスエリア内で各種の案内や荷物の運搬作業などを行う。例えば、このサービスエリアは、商業施設、博物館、駅等の公共の空間に対応する。近年では、サービスロボットの行動を効率化させるために、サービスエリア内の人の密度や、一定時間内の人の移動の流れを検知し、サービスロボットがサービスを行う場合の最適な場所や向きを調整するための技術が求められている。また、一時的に発生するサービスエリア内のイベントの場所を検知する技術も求められている。   The service robot performs various types of guidance and luggage transport operations in the service area. For example, this service area corresponds to a public space such as a commercial facility, a museum, or a station. In recent years, in order to improve the efficiency of service robot behavior, the density of people in the service area and the flow of people moving within a certain period of time can be detected to determine the optimal location and orientation for service robots to perform services. There is a need for technology to make adjustments. There is also a need for a technique for detecting the location of an event within a service area that occurs temporarily.

なお、人の移動を検知する技術としては、人の移動情報を含む画像データを所定のサイズに分割し、所定のサイズに分割された領域毎に移動速度を集計して表示することで、対象物に対する人の移動特性を容易に把握することを可能にするというものがある。   In addition, as a technique for detecting the movement of a person, image data including movement information of a person is divided into a predetermined size, and the movement speed is aggregated and displayed for each area divided into the predetermined size. There is one that makes it possible to easily grasp the movement characteristics of a person relative to an object.

特開2006−85366号公報JP 2006-85366 A

一般的に、サービスロボットがサービスを行う場合には、個人の移動の流れを検知するよりも複数人の移動の流れを統合して検知したほうが都合がよい。しかし、人の移動を個別に追跡する技術は存在していたが、複数人の移動の流れを統合して検知する技術は存在していない。   In general, when a service robot performs a service, it is more convenient to detect the flow of movement of a plurality of people in an integrated manner than to detect the flow of movement of an individual. However, there has been a technique for individually tracking a person's movement, but there is no technique for integrating and detecting the flow of movement of a plurality of persons.

また、上記従来技術のように、所定のサイズに分割された領域毎に移動速度を集計する場合には、正確に人の移動特性を検知することができないという問題がある。図24〜図27は、従来技術の問題を説明するための図である。   Further, when the movement speed is totaled for each area divided into a predetermined size as in the above-described prior art, there is a problem that it is impossible to accurately detect the movement characteristics of a person. 24-27 is a figure for demonstrating the problem of a prior art.

図24に示すように、分割された領域が大きすぎる場合には、複数の速度ベクトルが同一の領域内に含まれてしまう。図24に示す例では、領域1に速度ベクトル1a〜1cが含まれている。このように、同一の領域に複数の速度ベクトルが含まれている場合には、各速度ベクトル1a〜1cは平均化されて、速度ベクトル1dとなる。このように、速度ベクトルを平均化すると、領域に対応する移動速度の精度が低下してしまう。   As shown in FIG. 24, when the divided area is too large, a plurality of velocity vectors are included in the same area. In the example shown in FIG. 24, the region 1 includes velocity vectors 1a to 1c. Thus, when a plurality of velocity vectors are included in the same region, the velocity vectors 1a to 1c are averaged to become a velocity vector 1d. As described above, when the speed vectors are averaged, the accuracy of the moving speed corresponding to the region is lowered.

また、同一の領域の各速度ベクトルの方向が真逆の場合には、速度ベクトルを平均化することで、移動速度の精度が著しく低下する。図25に示すように、同じ領域1に2人の人が逆方向に移動している場合の速度ベクトルは、それぞれ速度ベクトル1e、1fとなる。各人物の移動速度は速く、一方の人の移動速度はもう一方の人の移動速度よりも若干速いものとする。この速度ベクトル1e、1fを平均化すると、速度ベクトル1gとなる。この場合には、速度ベクトル1e、1fが大きなものであるにもかかわらず、平均した速度ベクトル1gが小さなものとなってしまうため、領域1内の人の移動速度は遅いと判定されていまい、移動速度の精度が著しく低下する。   In addition, when the direction of each speed vector in the same region is the opposite direction, the accuracy of the moving speed is significantly lowered by averaging the speed vectors. As shown in FIG. 25, the velocity vectors when two people are moving in the opposite direction in the same region 1 are velocity vectors 1e and 1f, respectively. It is assumed that the moving speed of each person is high, and the moving speed of one person is slightly faster than the moving speed of the other person. When the velocity vectors 1e and 1f are averaged, the velocity vector 1g is obtained. In this case, although the speed vectors 1e and 1f are large, the average speed vector 1g is small, so it is determined that the movement speed of the person in the region 1 is slow. The accuracy of the moving speed is significantly reduced.

これに対して、分割された領域が小さすぎる場合には、速度ベクトルが含まれない領域が発生してしまい、連続性が失われてしまう。図26に示す例では、領域2b、2d〜2iに速度ベクトルが存在しておらず、連続性が失われている。   On the other hand, if the divided area is too small, an area that does not include the velocity vector is generated, and continuity is lost. In the example shown in FIG. 26, the velocity vectors do not exist in the regions 2b, 2d to 2i, and continuity is lost.

上記のように、正確に人の移動を検知するためには、人の移動速度を考慮して、分割するサイズを調整しなければならないが、そのような対応策は講じられていない。なお、仮に人の移動速度を考慮して、分割するサイズを調整しても、人の移動軌跡を推定することは困難な場合がある。   As described above, in order to accurately detect a person's movement, the size to be divided must be adjusted in consideration of the movement speed of the person, but no such countermeasure has been taken. Note that it may be difficult to estimate the movement locus of a person even if the size to be divided is adjusted in consideration of the movement speed of the person.

図27に示すように、各領域に速度ベクトル3a〜3dがそれぞれ含まれている場合には、隣接領域の速度ベクトルのつながりのパターンが複数パターン存在し、一意に移動軌跡を特定することができない。例えば、速度ベクトル3aと3bとがつながり、速度ベクトル3cと3dとがつながるとした場合には、人の移動軌跡はそれぞれ移動軌跡3e、3fとなる。これに対して、速度ベクトル3aと3dとがつながり、速度ベクトル3bと3cとがつながるとした場合には、人の移動軌跡はそれぞれ移動軌跡3g、3hとなる。どちらの移動軌跡が正しいのかを判断するには、経験則等に頼るほかなく、精度よく移動軌跡を検出できているとは言い難かった。   As shown in FIG. 27, when each region includes velocity vectors 3a to 3d, there are a plurality of patterns of connection of velocity vectors in adjacent regions, and it is not possible to uniquely identify the movement locus. . For example, when the speed vectors 3a and 3b are connected and the speed vectors 3c and 3d are connected, the movement trajectory of the person becomes the movement trajectories 3e and 3f, respectively. On the other hand, when the speed vectors 3a and 3d are connected and the speed vectors 3b and 3c are connected, the human movement trajectories are the movement trajectories 3g and 3h, respectively. In order to determine which movement trajectory is correct, it is difficult to say that the movement trajectory can be detected with high accuracy without relying on empirical rules.

開示の技術は、上記に鑑みてなされたものであって、複数人の移動推移を検出することができる移動体検出プログラムおよび移動体検出装置を提供することを目的とする。なお、上記課題は、サービスロボットだけではなく、公共の空間を監視する監視システムなどにも同様に生ずる課題である。   The disclosed technology has been made in view of the above, and an object thereof is to provide a moving body detection program and a moving body detection apparatus capable of detecting a movement transition of a plurality of persons. Note that the above-mentioned problem is a problem that occurs not only in service robots but also in monitoring systems that monitor public spaces.

本願の開示する移動体検出プログラムは、コンピュータに、移動体の位置を示す位置情報と該移動体が前記位置に存在した時間を示す時間情報とを対応づけて記憶部に記憶する記憶手順と、前記位置情報および前記時間情報に基づいて、複数の移動体の移動軌跡を移動体毎に算出する移動軌跡算出手順と、前記移動軌跡算出手順により算出された複数の移動軌跡のうち、移動軌跡の長さが他の移動軌跡の長さと比較して長い移動軌跡を示す基準移動軌跡を特定する移動軌跡特定手順と、前記基準移動軌跡の特徴に類似する他の移動軌跡を統合することで、複数の移動体の移動推移を検出する移動推移検出手順とを実行させることを要件とする。   A moving object detection program disclosed in the present application stores in a storage unit, in a computer, position information indicating a position of a moving object and time information indicating a time when the moving object is present at the position, in association with each other. Based on the position information and the time information, a movement trajectory calculation procedure for calculating a movement trajectory of a plurality of moving bodies for each moving body, and among the plurality of movement trajectories calculated by the movement trajectory calculation procedure, By integrating a movement trajectory identification procedure for identifying a reference movement trajectory that indicates a movement trajectory that is longer than the length of other movement trajectories, and other movement trajectories similar to the characteristics of the reference movement trajectory, It is a requirement to execute a movement transition detection procedure for detecting a movement transition of a moving body.

本願の開示する移動体検出プログラムの一つの態様によれば、複数人の移動推移を検出することができるという効果を奏する。   According to one aspect of the moving body detection program disclosed in the present application, it is possible to detect the movement transition of a plurality of persons.

図1は、本実施例1にかかる移動体検出装置の構成を示す図である。FIG. 1 is a diagram illustrating the configuration of the moving object detection device according to the first embodiment. 図2は、本実施例2にかかるサービスロボットの構成を示す図である。FIG. 2 is a diagram illustrating the configuration of the service robot according to the second embodiment. 図3は、LRFの処理を説明するための図である。FIG. 3 is a diagram for explaining LRF processing. 図4は、記憶部および制御部の構成を示す機能ブロック図である。FIG. 4 is a functional block diagram illustrating configurations of the storage unit and the control unit. 図5は、原始データのデータ構造を示す図である。FIG. 5 shows the data structure of the source data. 図6は、移動軌跡統合部の処理を説明するための図である。FIG. 6 is a diagram for explaining the processing of the movement trajectory integration unit. 図7は、移動軌跡スプラインの一例を示す図である。FIG. 7 is a diagram illustrating an example of a movement trajectory spline. 図8は、移動軌跡スプラインリストのデータ構造を示す図である。FIG. 8 is a diagram illustrating a data structure of the movement trajectory spline list. 図9は、最短距離の平均値を説明するための図である。FIG. 9 is a diagram for explaining the average value of the shortest distances. 図10は、流れリストのデータ構造を示す図である。FIG. 10 is a diagram illustrating a data structure of the flow list. 図11は、全体の流れの算出を説明するための図である。FIG. 11 is a diagram for explaining calculation of the entire flow. 図12は、移動軌跡統合部が算出した全体の流れを示す図である。FIG. 12 is a diagram illustrating an overall flow calculated by the movement trajectory integration unit. 図13は、注目場所検出部の処理を説明するための図である。FIG. 13 is a diagram for explaining processing of the attention location detection unit. 図14は、減速座標点リストのデータ構造を示す図である。FIG. 14 is a diagram illustrating a data structure of the deceleration coordinate point list. 図15は、注目度の高い場所を説明するための図である。FIG. 15 is a diagram for explaining a place with a high degree of attention. 図16は、注目場所検出部のその他の処理を説明するための図である。FIG. 16 is a diagram for explaining other processing of the attention location detection unit. 図17は、リアルタイム行動認識部の処理を説明するための図(1)である。FIG. 17 is a diagram (1) for explaining the processing of the real-time action recognition unit. 図18は、リアルタイム行動認識部の処理を説明するための図(2)である。FIG. 18 is a diagram (2) for explaining the processing of the real-time action recognition unit. 図19は、本実施例2にかかる制御部の処理手順を示すフローチャートである。FIG. 19 is a flowchart of the process procedure of the control unit according to the second embodiment. 図20は、移動軌跡統合部の処理手順を示すフローチャートである。FIG. 20 is a flowchart illustrating a processing procedure of the movement trajectory integration unit. 図21は、注目場所検出部の処理手順を示すフローチャートである。FIG. 21 is a flowchart illustrating a processing procedure of the attention location detection unit. 図22は、リアルタイム行動認識部の処理手順を示すフローチャートである。FIG. 22 is a flowchart illustrating the processing procedure of the real-time action recognition unit. 図23は、本実施例にかかる制御部を構成するコンピュータのハードウェア構成を示す図である。FIG. 23 is a diagram illustrating a hardware configuration of a computer constituting the control unit according to the present embodiment. 図24は、従来技術の問題を説明するための図(1)である。FIG. 24 is a diagram (1) for explaining the problems of the prior art. 図25は、従来技術の問題を説明するための図(2)である。FIG. 25 is a diagram (2) for explaining the problem of the prior art. 図26は、従来技術の問題を説明するための図(3)である。FIG. 26 is a diagram (3) for explaining the problem of the prior art. 図27は、従来技術の問題を説明するための図(4)である。FIG. 27 is a diagram (4) for explaining the problem of the prior art.

以下に、本願の開示する移動体検出プログラムおよび移動体検出装置の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。   Embodiments of a moving object detection program and a moving object detection device disclosed in the present application will be described below in detail with reference to the drawings. Note that the present invention is not limited to the embodiments.

図1は、本実施例1にかかる移動体検出装置の構成を示す図である。図1に示すように、この移動体検出装置50は、記憶部51、移動軌跡算出部52、移動軌跡特定部53、移動推移検出部54を有する。   FIG. 1 is a diagram illustrating the configuration of the moving object detection device according to the first embodiment. As illustrated in FIG. 1, the moving body detection device 50 includes a storage unit 51, a movement locus calculation unit 52, a movement locus identification unit 53, and a movement transition detection unit 54.

記憶部51は、移動体の位置を示す位置情報と該移動体が前記位置に存在した時間を示す時間情報とを対応づけて記憶する。移動軌跡算出部52は、位置情報および時間情報に基づいて、複数の移動体の移動軌跡を移動体毎に算出する。   The storage unit 51 stores position information indicating the position of the moving object and time information indicating the time when the moving object has existed at the position in association with each other. The movement trajectory calculation unit 52 calculates the movement trajectories of the plurality of moving bodies for each moving body based on the position information and the time information.

移動軌跡特定部53は、移動軌跡算出部52により算出された複数の移動軌跡のうち、移動軌跡の長さが他の移動軌跡の長さと比較して長い移動軌跡を示す基準移動軌跡を特定する。移動推移検出部54は、移動軌跡特定部53が特定した基準移動軌跡の特徴に類似する他の移動軌跡を統合することで、複数の移動体の移動推移を検出する。   The movement trajectory identification unit 53 identifies a reference movement trajectory that indicates a movement trajectory that is longer than the length of other movement trajectories among the plurality of movement trajectories calculated by the movement trajectory calculation unit 52. . The movement transition detection unit 54 detects movement transitions of a plurality of moving bodies by integrating other movement tracks similar to the characteristics of the reference movement track specified by the movement track specifying unit 53.

上記の移動体検出装置50は、複数の移動体の移動軌跡のうち、各移動軌跡の長さに基づいて基準移動軌跡を特定し、基準移動軌跡の特徴に類似する他の移動軌跡を統合する。このため、本実施例1にかかる移動体検出装置50は、移動体全体の移動の移動推移を検出することができる。   The moving body detection device 50 identifies a reference movement locus based on the length of each movement locus among movement loci of a plurality of moving bodies, and integrates other movement loci similar to the characteristics of the reference movement locus. . For this reason, the moving body detection apparatus 50 according to the first embodiment can detect the movement transition of the movement of the entire moving body.

なお、図1に示した移動軌跡算出部52、移動軌跡特定部53、移動推移検出部54は、後述する図4の移動軌跡統合部172に対応する。また、記憶部51は、後述する図4の記憶部160に対応する。   Note that the movement trajectory calculation unit 52, the movement trajectory identification unit 53, and the movement transition detection unit 54 illustrated in FIG. 1 correspond to the movement trajectory integration unit 172 of FIG. 4 described later. The storage unit 51 corresponds to a storage unit 160 of FIG.

図2は、本実施例2にかかるサービスロボットの構成を示す図である。図2に示すように、このサービスロボットは、リアルタイムクロック110、カメラ120a、LRF120b、人検知部130、駆動部140、通知部150、記憶部160、制御部170を有する。   FIG. 2 is a diagram illustrating the configuration of the service robot according to the second embodiment. As shown in FIG. 2, the service robot includes a real-time clock 110, a camera 120a, an LRF 120b, a human detection unit 130, a drive unit 140, a notification unit 150, a storage unit 160, and a control unit 170.

リアルタイムクロック110は、現在の時間データを順次生成し、生成した時間データを人検知部130、制御部170に出力する装置である。カメラ120aは、画像を順次撮影し、撮影した画像データを人検知部130に出力する装置である。   The real time clock 110 is a device that sequentially generates current time data and outputs the generated time data to the human detection unit 130 and the control unit 170. The camera 120 a is a device that sequentially captures images and outputs the captured image data to the human detection unit 130.

LRF(Laser Range Finder)120bは、検索範囲内の物体の座標を検出する装置である。LRF120bは、検出した物体の座標データを人検知部130に出力する。以下において、LRF120bが、物体の座標を検出する処理の一例について説明する。図3は、LRFの処理を説明するための図である。   An LRF (Laser Range Finder) 120b is a device that detects the coordinates of an object within a search range. The LRF 120b outputs the coordinate data of the detected object to the human detection unit 130. Hereinafter, an example of processing in which the LRF 120b detects the coordinates of an object will be described. FIG. 3 is a diagram for explaining LRF processing.

図3のXg軸およびYg軸は、所定の位置を基準とした座標軸であり、この座標軸系をグローバル座標軸系とする。図3のXr軸およびYr軸は、サービスロボット100を基準とした座標軸であり、この座標軸をローカル座標軸系とする。図3の検索範囲5は、LRF120bのレーザーの照射範囲に対応する。   The Xg axis and the Yg axis in FIG. 3 are coordinate axes with a predetermined position as a reference, and this coordinate axis system is a global coordinate axis system. The Xr axis and the Yr axis in FIG. 3 are coordinate axes based on the service robot 100, and this coordinate axis is a local coordinate axis system. The search range 5 in FIG. 3 corresponds to the laser irradiation range of the LRF 120b.

LRF120bは、水平方向にレーザーを照射し、照射したレーザーが物体に当たって反射してくる時間を測定することにより、サービスロボット100と物体との距離およびサービスロボット100と物体との角度を計測する。LRF120bは、計測した距離および角度から、ローカル座標軸上の物体の座標を算出する。そして、LRF120bは、グローバル座標軸上のサービスロボット100の座標と、ローカル座標軸上の物体の座標とを加算することで、グローバル座標軸上の物体の座標を算出する。LRF120bは、グローバル座標軸上の物体の座標データを人検知部130に出力する。   The LRF 120b measures the distance between the service robot 100 and the object and the angle between the service robot 100 and the object by irradiating the laser in the horizontal direction and measuring the time that the irradiated laser hits and reflects the object. The LRF 120b calculates the coordinates of the object on the local coordinate axis from the measured distance and angle. Then, the LRF 120b calculates the coordinates of the object on the global coordinate axis by adding the coordinates of the service robot 100 on the global coordinate axis and the coordinates of the object on the local coordinate axis. The LRF 120b outputs the coordinate data of the object on the global coordinate axis to the human detection unit 130.

人検知部130は、LRF120bから各物体の座標データを取得し、取得した座標データのうち、人の座標データを検出する処理部である。例えば、人検知部130は、人の画像の特徴を含むテンプレートを保持しており、かかるテンプレートとカメラ120aからの画像データとを比較することで、サービスロボット100の前方に人が存在するか否かを判定する。   The human detection unit 130 is a processing unit that acquires coordinate data of each object from the LRF 120b and detects human coordinate data among the acquired coordinate data. For example, the person detection unit 130 holds a template including the characteristics of a person's image, and compares the template with image data from the camera 120a to determine whether a person is present in front of the service robot 100. Determine whether.

例えば、人検知部130は、サービスロボット100の前方に人が存在していると判定している間に、LRF120bから取得した物体の座標データを、人の座標データとして検出し、ID(Identification)を付与する。そして、人検知部130は、IDと、座標データと、この座標データを取得した時間データとを対応づけたデータを制御部170に出力する。   For example, the human detection unit 130 detects the coordinate data of the object acquired from the LRF 120b as the human coordinate data while determining that there is a person in front of the service robot 100, and ID (Identification) Is granted. Then, the human detection unit 130 outputs data that associates the ID, the coordinate data, and the time data obtained from the coordinate data to the control unit 170.

駆動部140は、制御部170からの制御命令に応答して、サービスロボット100を駆動する装置である。例えば、駆動部140には、図示しない車輪などが取り付けられており、駆動部140はこの車輪を駆動させることで、サービスロボット100を移動させる。通知部150は、制御部170から出力される各種のデータを上位アプリケーションに通知する処理部である。   The drive unit 140 is a device that drives the service robot 100 in response to a control command from the control unit 170. For example, wheels or the like (not shown) are attached to the drive unit 140, and the drive unit 140 moves the service robot 100 by driving the wheels. The notification unit 150 is a processing unit that notifies various applications output from the control unit 170 to the upper application.

記憶部160は、制御部170が各種の処理を実行するために利用するデータを記憶する記憶装置である。この記憶部160は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子、またはハードディスク、光ディスクなどの記憶装置に対応する。   The storage unit 160 is a storage device that stores data used by the control unit 170 to execute various processes. The storage unit 160 corresponds to, for example, a semiconductor memory device such as a random access memory (RAM), a read only memory (ROM), or a flash memory, or a storage device such as a hard disk or an optical disk.

制御部170は、サービスエリア内の複数人の移動の流れ、複数人に注目される位置、一時的に複数人に影響を与えるイベントの位置を検知する制御装置である。この制御部170は、ASIC(Application Specific Integrated Circuit)や、FPGA(Field Programmable Gate Array)などの集積装置に対応する。または、この制御部170は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等の電子回路に対応する。   The control unit 170 is a control device that detects a flow of movement of a plurality of persons in a service area, a position that is noticed by the plurality of persons, and a position of an event that temporarily affects the plurality of persons. The control unit 170 corresponds to an integrated device such as an application specific integrated circuit (ASIC) or a field programmable gate array (FPGA). Or this control part 170 respond | corresponds to electronic circuits, such as CPU (Central Processing Unit) and MPU (Micro Processing Unit).

次に、図2に示した記憶部160および制御部170の具体的な構成について説明する。図4は、記憶部および制御部の構成を示す機能ブロック図である。図4に示すように、記憶部160は、原始データ161、移動軌跡スプラインリスト162、流れリスト163、減速座標点リスト164、交点リスト165を記憶する。制御部170は、原始データ登録部171、移動軌跡統合部172、注目場所検出部173、リアルタイム行動認識部174、駆動制御部175を有する。   Next, specific configurations of the storage unit 160 and the control unit 170 illustrated in FIG. 2 will be described. FIG. 4 is a functional block diagram illustrating configurations of the storage unit and the control unit. As shown in FIG. 4, the storage unit 160 stores original data 161, a movement trajectory spline list 162, a flow list 163, a deceleration coordinate point list 164, and an intersection point list 165. The control unit 170 includes a source data registration unit 171, a movement locus integration unit 172, an attention place detection unit 173, a real-time action recognition unit 174, and a drive control unit 175.

原始データ登録部171は、人検知部130から人のIDと人の座標データと時間データとを取得し、取得した情報を基にして原始データ161を生成する処理部である。図5は、原始データのデータ構造を示す図である。図5に示すように、この原始データ161は、タイムスタンプ、ID(Identification)、x座標、y座標、x方向の速度、y方向の速度を有する。   The source data registration unit 171 is a processing unit that acquires a person ID, person coordinate data, and time data from the person detection unit 130 and generates the source data 161 based on the acquired information. FIG. 5 shows the data structure of the source data. As shown in FIG. 5, the original data 161 includes a time stamp, ID (Identification), x coordinate, y coordinate, speed in the x direction, and speed in the y direction.

このうち、IDは人を一意に識別する情報である。x座標は、グローバル座標軸上の人のx座標を示す。y座標は、グローバル座標軸上の人のy座標を示す。タイムスタンプは、x座標、y座標に人が存在した時点での時間を示す。x方向の速度は、タイムスタンプの示す時間において、人のx方向の速度を示す。y方向の速度は、タイムスタンプの示す時間において、人のy方向の速度を示す。   Among these, ID is information that uniquely identifies a person. The x coordinate indicates a person's x coordinate on the global coordinate axis. The y coordinate indicates the y coordinate of the person on the global coordinate axis. The time stamp indicates the time when a person is present at the x and y coordinates. The speed in the x direction indicates the speed of the person in the x direction at the time indicated by the time stamp. The speed in the y direction indicates the speed of the person in the y direction at the time indicated by the time stamp.

例えば、原始データ登録部171は、前後のx座標の差分値を、前後のタイムスタンプの差分値で除算することで、x方向の速度を算出する。原始データ登録部171は、前後のy座標の差分値を、前後のタイムスタンプの差分値で除算することで、y方向の速度を算出する。   For example, the source data registration unit 171 calculates the velocity in the x direction by dividing the difference value between the preceding and following x coordinates by the difference value between the preceding and succeeding time stamps. The source data registration unit 171 calculates the speed in the y direction by dividing the difference value between the preceding and following y coordinates by the difference value between the preceding and succeeding time stamps.

移動軌跡統合部172は、複数人の移動軌跡を統合することで、複数人全体の移動の流れを抽出する処理部である。複数人の全体の移動の流れは、複数人の全体の移動推移と同様の意味である。図6は、移動軌跡統合部の処理を説明するための図である。図6に示すように、移動軌跡統合部172は、原始データ161のx座標、y座標を基にして、ID毎に移動軌跡スプラインを算出する(ステップS10)。ここで、移動軌跡スプラインは、人の移動軌跡に対応する。   The movement trajectory integration unit 172 is a processing unit that extracts a movement flow of the plurality of persons by integrating the movement trajectories of the plurality of persons. The overall movement flow of a plurality of people has the same meaning as the movement movement of the whole of the plurality of people. FIG. 6 is a diagram for explaining the processing of the movement trajectory integration unit. As shown in FIG. 6, the movement trajectory integration unit 172 calculates a movement trajectory spline for each ID based on the x-coordinate and y-coordinate of the original data 161 (step S10). Here, the movement trajectory spline corresponds to a human movement trajectory.

移動軌跡統合部172は、移動軌跡スプラインを算出した後に、類似する移動軌跡スプライン毎に移動軌跡スプラインを分類する(ステップS11)。そして、移動軌跡統合部172は、分類した移動軌跡スプライン毎に平均化を行い、平均化を行った後の軌跡を複数人の流れとして検出する(ステップS12)。   After calculating the movement locus spline, the movement locus integration unit 172 classifies the movement locus spline for each similar movement locus spline (step S11). Then, the movement trajectory integration unit 172 performs averaging for each classified movement trajectory spline, and detects the trajectory after the averaging as a flow of a plurality of persons (step S12).

ここで、図6のステップS10に示した移動軌跡統合部172の処理について説明する。移動軌跡統合部172は、最小二乗法を利用して、x、y座標の近似曲線を算出することで、移動軌跡スプラインデータを算出する。図7は、移動軌跡スプラインの一例を示す図である。図7の曲線1Aは、ID「○○」に対応する移動軌跡スプラインであり、曲線2Aは、ID「××」に対応する移動軌跡スプラインである。   Here, the process of the movement trajectory integration unit 172 shown in step S10 of FIG. 6 will be described. The movement trajectory integration unit 172 calculates the movement trajectory spline data by calculating an approximate curve of the x and y coordinates using the least square method. FIG. 7 is a diagram illustrating an example of a movement trajectory spline. Curve 1A in FIG. 7 is a movement trajectory spline corresponding to ID “XXX”, and curve 2A is a movement trajectory spline corresponding to ID “XX”.

移動軌跡統合部172は、原始データ161に記憶された全てのIDに対する移動軌跡スプラインを算出した後に、各移動軌跡スプラインを移動軌跡スプラインリスト162に登録する。図8は、移動軌跡スプラインリストのデータ構造を示す図である。図8に示すように、この移動軌跡スプラインリスト162は、人のID毎に移動軌跡スプラインを記憶している。また、移動軌跡スプラインリスト162は、始点の座標、終点の座標もあわせて記憶している。なお、移動軌跡スプラインリスト162に記憶された移動軌跡スプラインは、連続するx、y座標のデータでもよいし、上記最小二乗法で求めた近似式であってもよい。   The movement locus integration unit 172 registers the movement locus splines in the movement locus spline list 162 after calculating the movement locus splines for all the IDs stored in the original data 161. FIG. 8 is a diagram illustrating a data structure of the movement trajectory spline list. As illustrated in FIG. 8, the movement trajectory spline list 162 stores a movement trajectory spline for each person ID. The movement trajectory spline list 162 also stores the coordinates of the start point and the end point. Note that the movement trajectory spline stored in the movement trajectory spline list 162 may be continuous x and y coordinate data, or may be an approximate expression obtained by the least square method.

次に、図6のステップS11に示した移動軌跡統合部172の処理について説明する。まず、移動軌跡統合部172は、移動軌跡スプラインリスト162に記憶された各移動軌跡スプラインを、長いものから順に並べ替え、一番長い移動軌跡スプラインを取り出す。移動軌跡統合部172は、取り出した移動軌跡スプラインを、移動軌跡スプラインリスト162から削除する。以下の説明において、移動軌跡スプラインリスト162に記憶された複数の移動軌跡スプラインのうち、最も長い移動軌跡スプラインを参照スプラインと表記する。   Next, the process of the movement locus integration unit 172 shown in step S11 of FIG. 6 will be described. First, the movement trajectory integration unit 172 sorts the movement trajectory splines stored in the movement trajectory spline list 162 in order from the longest one, and takes out the longest movement trajectory spline. The movement locus integration unit 172 deletes the extracted movement locus spline from the movement locus spline list 162. In the following description, the longest movement locus spline among the plurality of movement locus splines stored in the movement locus spline list 162 is referred to as a reference spline.

移動軌跡統合部172は、参照スプラインと移動軌跡スプラインリスト162に記憶された残りの移動軌跡スプラインとを順次比較して、方向差、最短距離の平均値、分散を求め、参照スプラインに類似する移動軌跡スプラインを判定する。   The movement trajectory integration unit 172 sequentially compares the reference spline and the remaining movement trajectory splines stored in the movement trajectory spline list 162 to obtain the direction difference, the average value of the shortest distance, and the variance, and moves similar to the reference spline. Determine the trajectory spline.

まず、方向差について説明する。移動軌跡統合部172は、参照スプラインの始点から終点への方向と、移動軌跡スプラインの始点から終点への方向との差分を求めることで、方向差を算出する。   First, the direction difference will be described. The movement trajectory integration unit 172 calculates the direction difference by obtaining a difference between the direction from the start point to the end point of the reference spline and the direction from the start point to the end point of the movement trajectory spline.

続いて、最短距離の平均値について説明する。移動軌跡統合部172は、移動軌跡スプラインを所定のサンプル数だけサンプリングする。そして、移動軌跡統合部172は、サンプリングした移動軌跡スプラインのn番目の座標から参照スプラインまでの最短距離を算出する。例えば、サンプル数をSiとすると、nは、1〜Siまでの整数となる。移動軌跡統合部172は、各最短距離の合計値をSiで除算することで、最短距離の平均値を算出する。   Next, the average value of the shortest distance will be described. The movement trajectory integration unit 172 samples the movement trajectory spline by a predetermined number of samples. Then, the movement trajectory integration unit 172 calculates the shortest distance from the nth coordinate of the sampled movement trajectory spline to the reference spline. For example, when the number of samples is Si, n is an integer from 1 to Si. The movement locus integration unit 172 calculates the average value of the shortest distances by dividing the total value of the shortest distances by Si.

図9は、最短距離の平均値を説明するための図である。図9では、参照スプライン1B、移動軌跡スプライン2B、3Bを用いて説明する。また、サンプル数を3とする。移動軌跡統合部172は、参照スプライン1Bと移動軌跡スプライン2Bとの最短距離の平均値を求める場合には、距離1C、2C、3Cを加算した値を3で除算する。移動軌跡統合部172は、参照スプライン1Bと、移動軌跡スプライン3Bとの最短距離の平均値を求める場合には、距離1D、2D、3Dを加算した値を3で除算する。   FIG. 9 is a diagram for explaining the average value of the shortest distances. In FIG. 9, description will be made using the reference spline 1B and the movement trajectory splines 2B and 3B. The number of samples is 3. The movement trajectory integration unit 172 divides the value obtained by adding the distances 1C, 2C, and 3C by 3 when obtaining the average value of the shortest distances between the reference spline 1B and the movement trajectory spline 2B. The movement trajectory integration unit 172 divides the value obtained by adding the distances 1D, 2D, and 3D by 3 when determining the average value of the shortest distances between the reference spline 1B and the movement trajectory spline 3B.

続いて、分散について説明する。まず、移動軌跡統合部172は、上記最短距離の平均値を算出する手法と同様にして、平均値を算出する。そして、移動軌跡統合部172は、各最短距離から平均値を除算した値をそれぞれ二乗し、二乗した値を合計する。移動軌跡統合部172は、合計した値を平均値の二乗で除算することで、分散を算出する。   Subsequently, dispersion will be described. First, the movement trajectory integration unit 172 calculates the average value in the same manner as the method for calculating the average value of the shortest distances. Then, the movement trajectory integration unit 172 squares the values obtained by dividing the average value from each shortest distance, and sums the squared values. The movement trajectory integration unit 172 calculates the variance by dividing the total value by the square of the average value.

移動軌跡統合部172は、参照スプライン毎に方向差が第1閾値未満、かつ、最短距離の平均値が第2閾値未満、かつ、分散が第3閾値未満となる移動軌跡スプラインを検出する。上記条件を満たす移動軌跡スプラインは、参照スプラインに類似するものとなる。移動軌跡統合部172は、参照スプラインと該参照スプラインに類似する移動軌跡スプラインとを対応づけて、流れリスト163に記憶する。   The movement trajectory integration unit 172 detects a movement trajectory spline in which the direction difference is less than the first threshold, the average value of the shortest distances is less than the second threshold, and the variance is less than the third threshold for each reference spline. The movement trajectory spline that satisfies the above conditions is similar to the reference spline. The movement trajectory integration unit 172 stores the reference spline and the movement trajectory spline similar to the reference spline in association with each other in the flow list 163.

図10は、流れリストのデータ構造を示す図である。図10に示すように、この流れリスト163は、参照スプラインを一意に識別する参照スプラインID、参照スプライン、移動軌跡スプラインを有する。   FIG. 10 is a diagram illustrating a data structure of the flow list. As shown in FIG. 10, the flow list 163 includes a reference spline ID, a reference spline, and a movement trajectory spline that uniquely identify the reference spline.

次に、図6のステップS12に示した移動軌跡統合部172の処理について説明する。移動軌跡統合部172は、流れリスト163を参照し、参照スプラインID毎に、参照スプラインと各移動軌跡スプラインとを平均化することで、全体の流れを算出する。図11は、全体の流れの算出を説明するための図である。例えば、ある参照スプラインIDには、参照スプライン4Aと、移動軌跡スプライン4Bとが存在したとする。この場合には、移動軌跡統合部172は、各スプライン4A、4Bの各座標x、yの値に対して最小二乗法を適用することで、全体の流れ4Cを算出する。   Next, the process of the movement trajectory integration unit 172 shown in step S12 of FIG. 6 will be described. The movement trajectory integration unit 172 refers to the flow list 163 and calculates the overall flow by averaging the reference spline and each movement trajectory spline for each reference spline ID. FIG. 11 is a diagram for explaining calculation of the entire flow. For example, assume that a reference spline ID includes a reference spline 4A and a movement trajectory spline 4B. In this case, the movement trajectory integration unit 172 calculates the entire flow 4C by applying the least square method to the values of the coordinates x and y of the splines 4A and 4B.

図12は、移動軌跡統合部が算出した全体の流れを示す図である。図12に示す例では、移動軌跡スプライン5B、5C、参照スプライン5Aが平均化されることで、全体の流れ5Dが得られる。また、移動軌跡スプライン6A、参照スプライン6Bが平均化されることで、全体の流れ6Cが得られる。移動軌跡統合部172は、全体の流れのデータを駆動制御部175に出力する。   FIG. 12 is a diagram illustrating an overall flow calculated by the movement trajectory integration unit. In the example shown in FIG. 12, the movement trajectory splines 5B and 5C and the reference spline 5A are averaged to obtain the entire flow 5D. In addition, the movement trajectory spline 6A and the reference spline 6B are averaged to obtain the entire flow 6C. The movement locus integration unit 172 outputs the entire flow data to the drive control unit 175.

なお、移動軌跡統合部172は、平均化を行う場合に、参照スプラインの長さとその他の移動軌跡スプラインの長さに基づいて、サンプル数を調整してもよい。例えば、移動軌跡統合部172は、参照スプラインのサンプル数Smaxを決める。そして、移動軌跡統合部172は、他の移動軌跡スプラインの長さをSPi、参照スプラインの長さをSPmaxとした場合、他の移動軌跡スプラインのサンプル数Siを、式(1)により算出する。   Note that the movement trajectory integration unit 172 may adjust the number of samples based on the length of the reference spline and the length of other movement trajectory splines when performing averaging. For example, the movement trajectory integration unit 172 determines the sample number Smax of the reference spline. Then, the movement trajectory integration unit 172 calculates the number of samples Si of the other movement trajectory splines by the formula (1), where SPi is the length of the other movement trajectory spline and SPmax is the length of the reference spline.

Si=SPmax/SPi×Smax・・・(1)
式(1)に示すように、参照スプラインが長いほど他の移動軌跡スプラインのサンプル数が多くなり、全体の流れを算出する場合の計算に大きく影響する。
Si = SPmax / SPi × Smax (1)
As shown in equation (1), the longer the reference spline, the greater the number of samples of other movement trajectory splines, which greatly affects the calculation when calculating the overall flow.

図4の説明に戻る。注目場所検出部173は、注目度の高い場所を人が通過する際に、人の移動速度が減速することを利用して、注目度の高い場所を検出する処理部である。図13は、注目場所検出部の処理を説明するための図である。図13の縦軸は速度を示し、横軸は時間を示す。曲線7Aは、人物aの時間と速度との関係を示すものであり、曲線7Bは、人物bの時間と速度との関係を示すものであり、曲線7Cは、人物cの時間と速度との関係を示すものである。各曲線7A〜7Cは、原始データ161のタイムスタンプと、x、y方向の速度から求めることができる。各人物a〜cには所定のIDが割り振られているものとする。   Returning to the description of FIG. The attention location detection unit 173 is a processing unit that detects a location with a high degree of attention by utilizing the fact that the movement speed of the person is reduced when a person passes through a location with a high degree of attention. FIG. 13 is a diagram for explaining processing of the attention location detection unit. In FIG. 13, the vertical axis indicates speed, and the horizontal axis indicates time. A curve 7A shows the relationship between the time and speed of the person a, a curve 7B shows a relationship between the time and speed of the person b, and a curve 7C shows the time and speed of the person c. It shows the relationship. Each of the curves 7A to 7C can be obtained from the time stamp of the original data 161 and the velocities in the x and y directions. It is assumed that a predetermined ID is assigned to each person ac.

まず、注目場所検出部173は、各人の減速する時間帯を抽出する。人が減速することは、人の加速度がマイナスになることに等しい。このため、注目場所検出部173は、原始データ161に基づいて、人毎の加速度を算出し、算出した加速度がマイナスとなる時間帯を抽出する。図13に示す例では、人物aが減速する時間帯は8Aとなり、人物bが減速する時間帯は8Bとなり、人物cが減速する時間帯は8Cとなる。   First, the attention location detection unit 173 extracts a time zone during which each person decelerates. A person's deceleration is equivalent to a negative person's acceleration. For this reason, the attention location detection unit 173 calculates the acceleration for each person based on the original data 161, and extracts the time zone in which the calculated acceleration is negative. In the example shown in FIG. 13, the time zone in which the person a decelerates is 8A, the time zone in which the person b decelerates is 8B, and the time zone in which the person c decelerates is 8C.

注目場所検出部173は、各人が減速した時間帯を抽出した後に、この減速した時間帯に対応する各人の移動軌跡を移動軌跡スプラインリスト162から取得する。そして、注目場所検出部173は、減速した時間帯の移動軌跡を等間隔にサンプリングし、サンプリングしたx、y座標点および移動方向を対応づけて減速座標点リスト164に登録する。なお、注目場所検出部173は、移動軌跡の始点および終点の関係から移動方向を算出するものとする。   The attention location detection unit 173 acquires a movement locus of each person corresponding to the decelerated time zone from the movement locus spline list 162 after extracting the time zone in which each person decelerated. Then, the attention location detection unit 173 samples the movement trajectory of the decelerated time zone at equal intervals, and registers the sampled x, y coordinate points and movement directions in the deceleration coordinate point list 164 in association with each other. Note that the attention location detection unit 173 calculates the movement direction from the relationship between the start point and the end point of the movement locus.

図14は、減速座標点リストのデータ構造を示す図である。図14に示すように、この減速座標点リスト164は、ID、移動方向、減速座標点とを対応づけて記憶する。IDは、人を一意に識別するものであり、減速座標点は、減速した時間帯の移動軌跡を等間隔にサンプリングした場合のx、y座標に対応する。   FIG. 14 is a diagram illustrating a data structure of the deceleration coordinate point list. As shown in FIG. 14, the deceleration coordinate point list 164 stores IDs, movement directions, and deceleration coordinate points in association with each other. The ID uniquely identifies a person, and the deceleration coordinate point corresponds to the x and y coordinates when the movement trajectory of the decelerated time zone is sampled at equal intervals.

注目場所検出部173は、ID毎の減速座標点を利用して、階級DX、DYで2Dヒストグラムを作成する。そして、注目場所検出部173は、ヒストグラムの度数が高い順で場所を抽出し、度数が所定の度数以上となる領域を注目度の高い場所として抽出する。図15は、注目度の高い場所を説明するための図である。   The attention location detection unit 173 creates a 2D histogram with the classes DX and DY using the deceleration coordinate point for each ID. Then, the attention location detection unit 173 extracts locations in descending order of the frequency of the histogram, and extracts a region where the frequency is equal to or higher than the predetermined frequency as a location with a high attention level. FIG. 15 is a diagram for explaining a place with a high degree of attention.

図15において、場所9Aは、人物aが減速した時間帯8Aに移動した領域であり、場所9Bは、人物bが減速した時間帯8Bに移動した領域であり、場所9Cは、人物cが減速した時間帯8Cに移動した領域である。例えば、各人物a〜cが移動したx、y座標を基にヒストグラムを作成すると、場所9Dに対応する領域の度数が所定の度数以上となる。この場合には、注目場所検出部173は、場所9Dを注目度の高い場所として判定する。例えば、興味深い展示品9Eが場所9D付近に存在している可能性が高い。   In FIG. 15, a place 9A is an area where the person a has moved to a time zone 8A where the person a has decelerated, a place 9B is an area where the person b has moved to a time zone 8B where the person b has decelerated, and a place 9C This is the area moved to the time zone 8C. For example, if a histogram is created based on the x and y coordinates that each person a to c has moved, the frequency of the area corresponding to the place 9D becomes equal to or greater than a predetermined frequency. In this case, the attention place detection unit 173 determines the place 9D as a place with a high degree of attention. For example, there is a high possibility that an interesting exhibit 9E exists near the place 9D.

また、注目場所検出部173は、ID毎の移動方向を利用して、階級DAでヒストグラムを作成する。そして、注目場所検出部173は、ヒストグラムの度数が一番高い移動方向を、注目度の高い場所に対する移動方向として判定する。注目場所検出部173は、注目度の高い場所と、注目度の高い場所に対する移動方向のデータを、駆動制御部175に出力する。   Further, the attention location detection unit 173 creates a histogram with the class DA using the moving direction for each ID. And the attention location detection part 173 determines the moving direction with the highest frequency of a histogram as a moving direction with respect to a location with high attention degree. The attention location detection unit 173 outputs, to the drive control unit 175, a location with a high degree of attention and data on the movement direction for the location with a high degree of attention.

なお、注目度が高くなくても、障害物が存在する場合には、人の移動速度が減少するものと考えられる。このため、注目場所検出部173は、障害物の存在する場所情報を保持しておき、この場所情報に含まれる注目度の高い場所を除いた後に、残りの注目度の高い場所のデータを駆動制御部175に出力してもよい。   Even if the degree of attention is not high, it is considered that the moving speed of a person decreases when an obstacle is present. For this reason, the attention location detection unit 173 holds the location information where the obstacle exists, removes the location with high attention included in the location information, and then drives the data of the remaining locations with high attention. You may output to the control part 175. FIG.

ところで、上記の注目場所検出部173の処理では、ヒストグラムを利用して、注目度の高い場所を検出していたが、これに限定されるものではない。注目場所検出部173は、カーネル密度推定方法を用いることで、注目度の高い場所を検出してもよい。図16は、注目場所検出部のその他の処理を説明するための図である。   By the way, in the processing of the attention location detection unit 173 described above, a location with a high degree of attention is detected using a histogram, but is not limited thereto. The attention location detection unit 173 may detect a location with a high degree of attention by using a kernel density estimation method. FIG. 16 is a diagram for explaining other processing of the attention location detection unit.

図16の横軸は時間を示す。縦軸は、各曲線に応じて異なる値を示す。具体的には、曲線10Aに対しては、縦軸は位置に対応する。曲線10Bに対しては、縦軸は速度に対応する。曲線10Cに対しては、縦軸は加速度に対応する。注目場所検出部173は、曲線10A、10Bは、原始データ161を基に作成する。また、注目場所検出部173は、前後の速度と前後の時間差に基づいて、時間毎の加速度を算出し、曲線10Cを作成する。   The horizontal axis in FIG. 16 indicates time. The vertical axis indicates different values depending on each curve. Specifically, for the curve 10A, the vertical axis corresponds to the position. For curve 10B, the vertical axis corresponds to speed. For curve 10C, the vertical axis corresponds to acceleration. The attention location detection unit 173 creates the curves 10A and 10B based on the original data 161. In addition, the attention location detection unit 173 calculates the acceleration for each hour based on the front-rear speed and the time difference between the front-rear and creates the curve 10C.

注目場所検出部173は、曲線10Cの加速度の推移に着目し、加速度が減少する時間を減速開始時間Tniとして特定する。また、注目場所検出部173は、曲線10Cの加速度の推移に着目し、加速度が減少した後に、加速度が増加する時間を減速完了時間Tnjとして特定する。   The location-of-interest detection unit 173 focuses on the transition of the acceleration of the curve 10C, and specifies the time when the acceleration decreases as the deceleration start time Tni. The attention location detection unit 173 focuses on the transition of the acceleration of the curve 10C, and specifies the time during which the acceleration increases after the acceleration decreases as the deceleration completion time Tnj.

そして、注目場所検出部173は、減速開始時間Tniおよび減速完了時間Tnjの間の位置を特定する。図16に示す例では、減速開始時間Tniおよび減速完了時間Tnjの間の位置範囲は、位置範囲10Dとなる。注目場所検出部173は、位置範囲10Dを間隔DTでサンプリングを行い、サンプリング結果となるx、y座標を減速座標点リスト164に登録する。注目場所検出部173は、その他の人についても上記処理を実行することで、人が減速した位置範囲をそれぞれ算出する。そして、注目場所検出部173は、各位置範囲をサンプリングして、サンプリング結果を減速座標点リスト164に登録する。   Then, the attention location detection unit 173 specifies a position between the deceleration start time Tni and the deceleration completion time Tnj. In the example shown in FIG. 16, the position range between the deceleration start time Tni and the deceleration completion time Tnj is the position range 10D. The location-of-interest detection unit 173 samples the position range 10D at the interval DT, and registers the x and y coordinates that are the sampling results in the deceleration coordinate point list 164. The attention location detection unit 173 calculates the position range where the person has decelerated by executing the above-described process for other people as well. Then, the attention location detection unit 173 samples each position range and registers the sampling result in the deceleration coordinate point list 164.

なお、注目場所検出部173が減速開始時間Tni、減速完了時間Tnjを特定する方法は下記のとおりとなる。注目場所検出部173は、曲線10Cの開示時間をTn0とし、dtの時間間隔で、曲線10Cを微分する。微分した値をJerkとする。そして、注目場所検出部173は、Jerkがマイナスとなる時間帯を減速時間帯とし、この減速時間帯の開始時間を減速開始時間Tni、減速時間帯の終了時間を減速完了時間Tnjとする。   Note that the method of specifying the deceleration start time Tni and the deceleration completion time Tnj by the attention location detection unit 173 is as follows. The attention location detection unit 173 differentiates the curve 10C at a time interval of dt, where Tn0 is the disclosure time of the curve 10C. The differentiated value is Jerk. The attention location detection unit 173 sets the time zone in which Jerk is negative as the deceleration time zone, sets the start time of this deceleration time zone as the deceleration start time Tni, and sets the end time of the deceleration time zone as the deceleration completion time Tnj.

注目場所検出部173がサンプリングを行う場合の分解能は、運用によって適宜切り替えられる。例えば、注目場所の検出に高い精度が求められる場合には、サンプリング間隔は短い間隔に設定される。このように、サンプリング間隔を短くすることで、注目場所の検出精度が向上する。これに対して、注目場所の検出に高い精度が求められない場合には、サンプリング間隔は長い間隔に設定される。このように、サンプリング間隔を長くすることで、計算コストを削減することができる。   The resolution when the attention location detection unit 173 performs sampling is appropriately switched depending on the operation. For example, when high accuracy is required for detection of a target location, the sampling interval is set to a short interval. Thus, the detection accuracy of the attention place is improved by shortening the sampling interval. On the other hand, when high accuracy is not required for detecting the location of interest, the sampling interval is set to a long interval. Thus, the calculation cost can be reduced by increasing the sampling interval.

図4の説明に戻る。リアルタイム行動認識部174は、ある時間Tnにおいて瞬間的に発生するイベントの位置を検出する処理部である。リアルタイム行動認識部174は、人検知部130から人のIDと人の座標データと時間データとを取得し、ID毎に人の移動速度を算出する。例えば、リアルタイム行動認識部174は、前後の座標の差を前後の時間の差で除算することで、移動速度を順次算出する。   Returning to the description of FIG. The real-time action recognition unit 174 is a processing unit that detects the position of an event that occurs instantaneously at a certain time Tn. The real-time action recognition unit 174 acquires the person ID, the person coordinate data, and the time data from the person detection unit 130, and calculates the movement speed of the person for each ID. For example, the real-time action recognition unit 174 sequentially calculates the movement speed by dividing the difference between the preceding and following coordinates by the difference between the preceding and following times.

リアルタイム行動認識部174は、時間Tnの人の位置を通り、移動速度の向きと同方向の直線を算出する。リアルタイム行動認識部174は、人毎に上記直線をそれぞれ算出する。そして、リアルタイム行動認識部174は、各直線の交点を算出し、算出した交点の座標を、瞬間的に発生するイベントの位置として検出する。リアルタイム行動認識部174は、各直線の交点を交点リスト165に登録する。また、リアルタイム行動認識部174は、イベントの位置のデータを駆動制御部175に出力する。   The real-time action recognition unit 174 calculates a straight line that passes through the position of the person at time Tn and has the same direction as the direction of the moving speed. The real-time action recognition unit 174 calculates the straight line for each person. Then, the real-time action recognition unit 174 calculates the intersection of each straight line, and detects the coordinates of the calculated intersection as the position of the event that occurs instantaneously. The real-time action recognition unit 174 registers the intersection of each straight line in the intersection list 165. Further, the real-time action recognition unit 174 outputs event position data to the drive control unit 175.

図17は、リアルタイム行動認識部の処理を説明するための図(1)である。図17において、11A、11B、11Cは、時間Tnにおける人物a、b、cの位置を示す。12A、12B、12Cは、時間Tnにおける人物a、b、cの移動速度の向きを示す。直線13Aは、位置11Aを通り、向き12Aと同方向の直線であり、直線13Bは、位置11Bを通り、向き12Bと同方向の直線であり、直線13Cは、位置11Cを通り、向き12Cと同方向の直線である。直線13A、13B、13Cの交点は交点14Aとなる。この場合には、リアルタイム行動認識部174は、交点14Aを、瞬間的に発生するイベントの位置として検出する。   FIG. 17 is a diagram (1) for explaining the processing of the real-time action recognition unit. In FIG. 17, 11A, 11B, and 11C indicate the positions of the persons a, b, and c at time Tn. 12A, 12B, and 12C indicate the directions of the moving speeds of the persons a, b, and c at time Tn. The straight line 13A passes through the position 11A and has the same direction as the direction 12A. The straight line 13B passes through the position 11B and has the same direction as the direction 12B. The straight line 13C passes through the position 11C and has the direction 12C. It is a straight line in the same direction. The intersection of the straight lines 13A, 13B, and 13C becomes the intersection 14A. In this case, the real-time action recognition unit 174 detects the intersection 14A as the position of the event that occurs instantaneously.

図17に示す例では、各人が交点に向かっている場合について説明したが、交点から人が離れる場合にも、交点に対応する位置に何かしらのイベントが発生したものと考えられる。図18は、リアルタイム行動認識部の処理を説明するための図(2)である。図18において、11D、11E、11Fは、時間Tnにおける人物d、e、fの位置を示す。12D、12E、12Fは、時間Tnにおける人物d、e、fの移動速度の向きを示す。直線13Dは、位置11Dを通り、向き12Dと同方向の直線であり、直線13Eは、位置11Eを通り、向き12Eと同方向の直線であり、直線13Fは、位置11Fを通り、向き12Fと同方向の直線である。直線13D、13B、13Cの交点は交点14Bとなる。この場合には、リアルタイム行動認識部174は、交点14Bを、瞬間的に発生するイベントの位置として検出する。   In the example illustrated in FIG. 17, the case where each person is approaching the intersection has been described. However, even when the person leaves the intersection, it is considered that some event has occurred at a position corresponding to the intersection. FIG. 18 is a diagram (2) for explaining the processing of the real-time action recognition unit. In FIG. 18, 11D, 11E, and 11F indicate the positions of the persons d, e, and f at the time Tn. 12D, 12E, and 12F indicate the directions of the moving speeds of the persons d, e, and f at time Tn. The straight line 13D passes through the position 11D and has the same direction as the direction 12D. The straight line 13E passes through the position 11E and has the same direction as the direction 12E. The straight line 13F passes through the position 11F and passes through the position 12F. It is a straight line in the same direction. The intersection of the straight lines 13D, 13B, and 13C is the intersection 14B. In this case, the real-time action recognition unit 174 detects the intersection 14B as the position of the event that occurs instantaneously.

なお、リアルタイム行動認識部174は、各直線の交点を算出した後に、一定範囲内に存在する交点の数が閾値以上となる場合に、この一定範囲内の位置を、瞬間的に発生するイベントの位置として検出してもよい。上記交点は、2本の直線の交点でもよいし、3本以上の直線の交点でもよい。   In addition, after calculating the intersection of each straight line, the real-time action recognition unit 174 determines the position within the certain range of the event that occurs instantaneously when the number of intersections existing within the certain range is equal to or greater than the threshold. You may detect as a position. The intersection may be an intersection of two straight lines or an intersection of three or more straight lines.

図4の説明に戻る。駆動制御部175は、移動軌跡統合部172から取得する複数人の流れ、注目場所検出部173から取得する注目度の高い場所、リアルタイム行動認識部174から取得する瞬間的に発生するイベントの位置を基にして、駆動部140を駆動させる処理部である。例えば、駆動制御部175は、複数人の流れに添うようにサービスロボット100が移動するように、制御命令を駆動部140に出力する。また、駆動制御部175は、サービスロボット100が注目度の高い位置に移動するように、制御命令を駆動部140に出力する。また、駆動制御部175は、サービスロボット100が、瞬間的に発生するイベントの位置に移動するように、制御命令を駆動部140に出力する。   Returning to the description of FIG. The drive control unit 175 indicates the flow of a plurality of people acquired from the movement trajectory integration unit 172, the location with a high degree of attention acquired from the attention location detection unit 173, and the position of the event that occurs instantaneously acquired from the real-time action recognition unit 174. Based on this, the processing unit drives the driving unit 140. For example, the drive control unit 175 outputs a control command to the drive unit 140 so that the service robot 100 moves so as to follow the flow of a plurality of people. Further, the drive control unit 175 outputs a control command to the drive unit 140 so that the service robot 100 moves to a position with a high degree of attention. Further, the drive control unit 175 outputs a control command to the drive unit 140 so that the service robot 100 moves to the position of the event that occurs instantaneously.

次に、図2に示した制御部170の処理手順について説明する。図19は、本実施例2にかかる制御部の処理手順を示すフローチャートである。図19に示す処理は、例えば、サービスロボット100が起動したことを契機として実行される。図19に示すように、制御部170は、検知サイクルをCiに設定する(ステップS101)。Ciの値は例えば100msである。   Next, a processing procedure of the control unit 170 illustrated in FIG. 2 will be described. FIG. 19 is a flowchart of the process procedure of the control unit according to the second embodiment. The process illustrated in FIG. 19 is executed, for example, when the service robot 100 is activated. As shown in FIG. 19, the control unit 170 sets the detection cycle to Ci (step S101). The value of Ci is, for example, 100 ms.

制御部170は、人のID、座標、速度をタイムスタンプ付きで記憶部160に保存する(ステップS102)。また、制御部170は、移動軌跡スプラインを作成し、記憶部160に保存する(ステップS103)。   The control unit 170 stores the person's ID, coordinates, and speed in the storage unit 160 with a time stamp (step S102). In addition, the control unit 170 creates a movement trajectory spline and stores it in the storage unit 160 (step S103).

制御部170は、一定時間内のデータを統計する場合には(ステップS104,Yes)、一定時間内の複数人の流れ、注目度の高い場所を検出し、検出結果を出力し(ステップS105)、ステップS106に移行する。ここで一定時間は、例えば、10分程度の時間である。   When the data within a certain period of time is statistically determined (step S104, Yes), the control unit 170 detects a flow of a plurality of people within a certain period of time and a place with a high degree of attention, and outputs a detection result (step S105). The process proceeds to step S106. Here, the fixed time is, for example, about 10 minutes.

一方、制御部170は、一定時間内のデータを統計しない場合には(ステップS104,No)、リアルタイム行動認識を行うか否かを判定する(ステップS106)。制御部170は、リアルタイム行動認識を行う場合には(ステップS106,Yes)、リアルタイム行動認識を実行し、実行結果を出力し(ステップS107)、ステップS108に移行する。   On the other hand, the control unit 170 determines whether or not to perform real-time action recognition (step S106) when the data within a certain period of time is not statistics (step S104, No). When performing real-time action recognition (step S106, Yes), the controller 170 executes real-time action recognition, outputs the execution result (step S107), and proceeds to step S108.

一方、制御部170は、リアルタイム行動認識を行わない場合には(ステップS106,No)、処理を終了するか否かを判定する(ステップS108)。制御部170は、処理を終了する場合には(ステップS108,Yes)、処理を終了する。制御部170は、処理を継続する場合には(ステップS108,No)、Ciに1を加算し(ステップS109)、ステップS101に再度移行する。   On the other hand, when the real time action recognition is not performed (No at Step S106), the control unit 170 determines whether to end the process (Step S108). If the control unit 170 ends the process (step S108, Yes), the control unit 170 ends the process. When the process is continued (No at Step S108), the control unit 170 adds 1 to Ci (Step S109), and proceeds to Step S101 again.

次に、図4に示した移動軌跡統合部172の処理手順について説明する。図20は、移動軌跡統合部の処理手順を示すフローチャートである。図20に示す処理は、例えば、原始データ登録部171により、原始データ161が生成されたことを契機に実行される。   Next, the processing procedure of the movement trajectory integration unit 172 shown in FIG. 4 will be described. FIG. 20 is a flowchart illustrating a processing procedure of the movement trajectory integration unit. The process illustrated in FIG. 20 is executed by the source data registration unit 171 when the source data 161 is generated, for example.

図20に示すように、移動軌跡統合部172は、移動軌跡スプラインリスト162を作成し、この移動軌跡スプラインリスト162を空に設定する(ステップS201)。また、移動軌跡統合部172は、所定時間内の全ての人の移動軌跡スプラインを移動軌跡スプラインリスト162に追加する(ステップS202)。   As illustrated in FIG. 20, the movement trajectory integration unit 172 creates a movement trajectory spline list 162, and sets the movement trajectory spline list 162 to be empty (step S201). Further, the movement trajectory integration unit 172 adds the movement trajectory splines of all persons within a predetermined time to the movement trajectory spline list 162 (step S202).

移動軌跡統合部172は、移動軌跡スプラインの長さに基づいて移動軌跡スプラインリスト162をソートする(ステップS203)。移動軌跡統合部172は、各移動軌跡スプラインの始点、終点の位置で方向を計算し、計算結果を保存する(ステップS204)。   The movement trajectory integration unit 172 sorts the movement trajectory spline list 162 based on the length of the movement trajectory spline (step S203). The movement trajectory integration unit 172 calculates a direction at the start point and end point of each movement trajectory spline, and stores the calculation result (step S204).

移動軌跡統合部172は、移動軌跡スプラインリスト162に含まれる移動軌跡スプラインのうち、一番長い移動軌跡スプラインiを取得する(ステップS205)。そして、移動軌跡統合部172は、移動軌跡スプラインiを参照スプラインとし、流れリスト163を作成する(ステップS206)。   The movement locus integration unit 172 acquires the longest movement locus spline i among the movement locus splines included in the movement locus spline list 162 (step S205). Then, the movement trajectory integration unit 172 creates a flow list 163 using the movement trajectory spline i as a reference spline (step S206).

移動軌跡統合部172は、移動軌跡スプラインiとの方位差が第1閾値未満となる移動軌跡スプラインjを取得する(ステップS207)。移動軌跡統合部172は、移動軌跡スプラインjを等間隔にN点サンプリングし、移動軌跡スプラインiとの最短距離を計算する(ステップS208)。   The movement trajectory integration unit 172 acquires a movement trajectory spline j whose azimuth difference from the movement trajectory spline i is less than the first threshold (step S207). The movement trajectory integration unit 172 samples the movement trajectory spline j at N points at equal intervals, and calculates the shortest distance from the movement trajectory spline i (step S208).

移動軌跡統合部172は、最短距離の平均値および分散が閾値以上の場合には(ステップS209,No)、jに1を加算し(ステップS210)、ステップS207に移行する。一方、移動軌跡統合部172は、最短距離の平均値および分散が閾値未満の場合には(ステップS209,Yes)、移動軌跡スプラインiの流れリスト163に移動軌跡スプラインjを追加する。また、移動軌跡統合部172は、移動軌跡スプラインiを移動軌跡スプラインリスト162から削除する(ステップS211)。なお、上記のように、最短距離の平均値と比較される閾値は、第2閾値であり、分散と比較される閾値は第3閾値である。   When the average value and variance of the shortest distances are equal to or greater than the threshold (No at Step S209), the movement trajectory integration unit 172 adds 1 to j (Step S210), and proceeds to Step S207. On the other hand, when the average value and the variance of the shortest distances are less than the threshold (Yes in step S209), the movement trajectory integration unit 172 adds the movement trajectory spline j to the flow list 163 of the movement trajectory spline i. In addition, the movement locus integration unit 172 deletes the movement locus spline i from the movement locus spline list 162 (step S211). As described above, the threshold value compared with the average value of the shortest distance is the second threshold value, and the threshold value compared with the variance is the third threshold value.

移動軌跡統合部172は、移動軌跡スプラインiとの方位差が第1閾値未満となる移動軌跡スプラインが存在する場合には(ステップS212,Yes)、ステップS210に移行する。一方、移動軌跡統合部172は、移動軌跡スプラインiとの方位差が第1閾値未満となる移動軌跡スプラインが存在しない場合には(ステップS212,No)、移動軌跡スプラインリスト162が空であるか否かを判定する(ステップS213)。   If there is a movement trajectory spline whose azimuth difference from the movement trajectory spline i is less than the first threshold (Yes in step S212), the movement trajectory integration unit 172 proceeds to step S210. On the other hand, if there is no movement locus spline whose azimuth difference from the movement locus spline i is less than the first threshold (No in step S212), the movement locus integration unit 172 determines whether the movement locus spline list 162 is empty. It is determined whether or not (step S213).

移動軌跡統合部172は、移動軌跡スプラインリスト162が空ではない場合には(ステップS213,No)、iに1を加算し(ステップS214)、ステップS205に移動する。   If the movement trajectory spline list 162 is not empty (step S213, No), the movement trajectory integration unit 172 adds 1 to i (step S214), and moves to step S205.

一方、移動軌跡統合部172は、移動軌跡スプラインリスト162が空の場合には(ステップS213,Yes)、流れリスト163に含まれる全ての移動軌跡スプラインを、重みを考慮して平均化する(ステップS215)。そして、移動軌跡統合部172は、平均化した移動軌跡スプラインを該当流れモデルに設定し、駆動制御部175に出力する(ステップS216)。   On the other hand, when the movement trajectory spline list 162 is empty (step S213, Yes), the movement trajectory integration unit 172 averages all the movement trajectory splines included in the flow list 163 in consideration of the weight (step). S215). Then, the movement trajectory integration unit 172 sets the averaged movement trajectory spline as a corresponding flow model and outputs it to the drive control unit 175 (step S216).

次に、図4に示した注目場所検出部173の処理手順について説明する。図21は、注目場所検出部の処理手順を示すフローチャートである。図21に示す処理は、例えば、原始データ登録部171により、原始データ161が生成されたことを契機に実行される。   Next, a processing procedure of the attention location detection unit 173 illustrated in FIG. 4 will be described. FIG. 21 is a flowchart illustrating a processing procedure of the attention location detection unit. The process illustrated in FIG. 21 is executed by the source data registration unit 171 when the source data 161 is generated, for example.

注目場所検出部173は、所定時間内の全ての人の移動位置の軌跡、速度の軌跡、加速度の軌跡を取得する(ステップS301)。また、注目場所検出部173は、減速座標点リスト164を生成する(ステップS302)。   The attention location detection unit 173 acquires the trajectory of the movement position, the trajectory of the speed, and the trajectory of the acceleration of all persons within a predetermined time (step S301). Further, the attention location detection unit 173 generates the deceleration coordinate point list 164 (step S302).

注目場所検出部173は、N番目の人が減速する時間帯[Tni、Tnj]を抽出し(ステップS303)、時間帯[Tni、Tnj]内の移動軌跡を取得し、間隔DTにて移動軌跡をリサンプリングする(ステップS304)。   The attention location detection unit 173 extracts a time zone [Tni, Tnj] in which the Nth person decelerates (step S303), acquires a movement trajectory in the time zone [Tni, Tnj], and moves at a distance DT. Is resampled (step S304).

注目場所検出部173は、リサンプリングしたX、Y座標点および移動方向を減速座標点リスト164に追加する(ステップS305)。注目場所検出部173は、登録が完了してない場合には(ステップS306,No)、再度ステップS303に移行する。   The attention location detection unit 173 adds the resampled X and Y coordinate points and the movement direction to the deceleration coordinate point list 164 (step S305). When the registration is not completed (No at Step S306), the attention location detection unit 173 proceeds to Step S303 again.

一方、注目場所検出部173は、登録が完了した場合には(ステップS306,Yes)、減速座標点リスト164のX、Y座標点を利用して、階級DX、DYで2Dヒストグラムを作成する(ステップS307)。   On the other hand, when the registration is completed (Yes in step S306), the attention location detection unit 173 creates a 2D histogram with classes DX and DY using the X and Y coordinate points of the deceleration coordinate point list 164 ( Step S307).

注目場所検出部173は、ヒストグラムの度数がN以上となる場所を判定し(ステップS308)、判定した場所において、移動方向のヒストグラムを作成する(ステップS309)。そして、注目場所検出部173は、ヒストグラムの最も高い度数の角度を該当場所の移動方向として判定する(ステップS310)。   The attention location detection unit 173 determines a location where the frequency of the histogram is N or more (step S308), and creates a moving direction histogram at the determined location (step S309). And the attention place detection part 173 determines the angle of the highest frequency of a histogram as a moving direction of an applicable place (step S310).

次に、図4に示したリアルタイム行動認識部174の処理手順について説明する。図22は、リアルタイム行動認識部の処理手順を示すフローチャートである。図22に示す処理は、例えば、人検知部130から、人のID、座標データ、時間データを取得したことを契機に実行される。   Next, the processing procedure of the real-time action recognition unit 174 shown in FIG. 4 will be described. FIG. 22 is a flowchart illustrating the processing procedure of the real-time action recognition unit. The process illustrated in FIG. 22 is executed, for example, when the person ID, coordinate data, and time data are acquired from the person detection unit 130.

リアルタイム行動認識部174は、検知サイクルで検知した全ての人の位置、速度を取得し(ステップS401)、各人の位置を通り、速度と同方向の直線を作成する(ステップS402)。   The real-time action recognition unit 174 acquires the positions and velocities of all persons detected in the detection cycle (step S401), and creates a straight line that passes through each person's position and has the same direction as the speed (step S402).

リアルタイム行動認識部174は、直線iと直線i以外の直線との交点のX,Y座標を算出し(ステップS403)、交点リスト165に登録する(ステップS404)。リアルタイム行動認識部174は、登録が完了していない場合には(ステップS405,No)、iに1を加算し(ステップS406)、ステップS403に移行する。   The real-time action recognition unit 174 calculates the X and Y coordinates of the intersection between the straight line i and a straight line other than the straight line i (step S403) and registers it in the intersection list 165 (step S404). If the registration is not completed (step S405, No), the real-time action recognition unit 174 adds 1 to i (step S406), and proceeds to step S403.

一方、リアルタイム行動認識部174は、登録が完了した場合には(ステップS405,Yes)、交点リスト165のX,Y座標を利用し、階級DRで2Dヒストグラムを作成する(ステップS407)。リアルタイム行動認識部174は、ヒストグラムの度数が閾値Nを超えた場合に、その階級の平均値をイベントの発生位置として検出する(ステップS408)。   On the other hand, when the registration is completed (Yes in step S405), the real-time action recognition unit 174 creates a 2D histogram with the class DR using the X and Y coordinates of the intersection list 165 (step S407). When the frequency of the histogram exceeds the threshold value N, the real-time action recognition unit 174 detects the average value of the class as the event occurrence position (step S408).

上述してきたように、サービスロボット100に含まれる制御部170は、複数の人の移動軌跡スプラインのうち、最も長い移動軌跡スプラインを参照スプラインとして特定する。そして、制御部170は、参照スプラインの特徴に類似する他の移動スプラインを統合することで複数人の流れを検出する。このように、複数人の流れを検出することができるので、例えば、サービスロボット100は、単一の人の動きに影響されず、サービスを行う場合の最適な位置に移動することができる。   As described above, the control unit 170 included in the service robot 100 identifies the longest movement trajectory spline among a plurality of human movement trajectory splines as a reference spline. And the control part 170 detects the flow of several persons by integrating the other movement spline similar to the characteristic of a reference spline. As described above, since the flow of a plurality of people can be detected, for example, the service robot 100 can move to an optimal position when performing a service without being influenced by the movement of a single person.

また、制御部170は、人の速度を算出し、速度が減速した時点での人の位置を検出する。一般的に、人は注目度の高い場所にさしかかると、移動する速度が減速するものと考えられる。このため、制御部170は、注目度の高い場所を検出することができるので、サービスロボット100は、注目度の高い場所に移動して、サービスを提供することができる。   In addition, the control unit 170 calculates the speed of the person and detects the position of the person when the speed is reduced. Generally, when a person approaches a place with a high degree of attention, it is considered that the moving speed is reduced. For this reason, since the control part 170 can detect a place with a high degree of attention, the service robot 100 can move to a place with a high degree of attention and provide a service.

また、制御部170は、人が移動するたびに、一時的な各人の移動方向をそれぞれ算出し、算出した各移動方向と同方向の直線に基づいて、各人の移動に影響を与える位置を検出する。このため、制御部170は、リアルタイムに各人に注目される場所を検出することができ、サービスロボット100は、注目される場所に移動することで、サービスを適切に実行することができる。   Further, each time a person moves, the control unit 170 calculates a temporary movement direction of each person, and a position that affects the movement of each person based on a straight line in the same direction as each calculated movement direction. Is detected. For this reason, the control unit 170 can detect a place that is noticed by each person in real time, and the service robot 100 can appropriately execute the service by moving to the place that is noticed.

ところで、上記実施例2では、制御部170がサービスエリア内の複数人の移動の流れ、複数人に注目される位置、一時的に複数人に与えるイベントの位置を検出し、該当場所にサービスロボット100を移動させる場合について説明した。しかし、制御部170の機能をサービスロボット100以外の装置に適用することも可能である。例えば、制御部170の機能をカメラを制御する監視システムに適用し、複数人の移動の流れ、複数人に注目される位置、一時的に複数人に与えるイベントの位置を検出した場合に、該当場所の方向にカメラを向けて監視を行うようにしてもよい。   By the way, in the second embodiment, the control unit 170 detects a flow of movement of a plurality of persons in the service area, a position that is noticed by a plurality of persons, and a position of an event that is temporarily given to the plurality of persons. The case where 100 is moved was demonstrated. However, the function of the control unit 170 can be applied to devices other than the service robot 100. For example, when the function of the control unit 170 is applied to a monitoring system that controls a camera and a flow of movement of a plurality of people, a position that is noticed by a plurality of persons, and a position of an event that is temporarily given to a plurality of persons are detected. You may make it monitor by directing a camera in the direction of a place.

また、上記実施例2では、LRF120bをサービスロボット100に搭載する場合について説明したが、これに限定されるものではない。例えば、LRF120bをサービスロボット100以外の所定の位置に設置してもよい。   In the second embodiment, the case where the LRF 120b is mounted on the service robot 100 has been described. However, the present invention is not limited to this. For example, the LRF 120b may be installed at a predetermined position other than the service robot 100.

また、駆動制御部175は、移動軌跡統合部172から取得する複数人の移動推移と、注目場所検出部173から取得する注目度の高い場所とを比較し、複数人の移動推移と注目度の高い場所とが重なる領域を検出してもよい。例えば、駆動制御部175は、検出した領域に向けてサービスロボット100が移動するように、制御命令を駆動部140に出力する。   In addition, the drive control unit 175 compares the movement transition of the plurality of persons acquired from the movement trajectory integration unit 172 with the place of high attention acquired from the attention place detection unit 173, and the movement transition of the plurality of persons and the degree of attention are compared. A region overlapping with a high place may be detected. For example, the drive control unit 175 outputs a control command to the drive unit 140 so that the service robot 100 moves toward the detected area.

なお、上記の制御部170は、既知のパーソナルコンピュータ、ワークステーション等の情報処理装置に、制御部170等の各機能を搭載することによって実現することもできる。   The control unit 170 described above can be realized by mounting each function of the control unit 170 or the like on an information processing apparatus such as a known personal computer or workstation.

図23は、本実施例にかかる制御部を構成するコンピュータのハードウェア構成を示す図である。このコンピュータ200は、各種演算処理を実行するCPU201と、ユーザからのデータの入力を受け付ける入力装置202と、ネットワークを介して他のコンピュータとの間でデータの授受を行うネットワークインターフェース装置203とを有する。また、コンピュータ200は、カメラ204と、LRF205と、リアルタイムクロック206とを有する。また、コンピュータ200は、各種情報を一時記憶するRAM(Random Access Memory)207と、ハードディスク装置208とを有する。各装置201〜208は、バス209に接続される。   FIG. 23 is a diagram illustrating a hardware configuration of a computer constituting the control unit according to the present embodiment. The computer 200 includes a CPU 201 that executes various arithmetic processes, an input device 202 that receives data input from a user, and a network interface device 203 that exchanges data with other computers via a network. . The computer 200 also includes a camera 204, an LRF 205, and a real time clock 206. The computer 200 also includes a RAM (Random Access Memory) 207 that temporarily stores various types of information and a hard disk device 208. Each device 201 to 208 is connected to a bus 209.

そして、ハードディスク装置208は、図2に示した人検知部130、制御部170と同様の機能を有する検出プログラム208aを記憶する。また、ハードディスク装置208は、図2の記憶部160に記憶されたデータに対応する各種データ208bを記憶する。   The hard disk device 208 stores a detection program 208a having functions similar to those of the human detection unit 130 and the control unit 170 shown in FIG. Also, the hard disk device 208 stores various data 208b corresponding to the data stored in the storage unit 160 of FIG.

CPU201は、検出プログラム208aを読み出してRAM207に展開する。そうすると、検出プログラム208aは、検出プロセス207aとして機能するようになる。この検出プロセス207aは、図2の人検知部130、制御部170に対応する。なお、CPU201は、ハードディスク装置208に記憶された各種データ208bを読み出して、RAM207に記憶させる。   The CPU 201 reads the detection program 208 a and develops it in the RAM 207. Then, the detection program 208a functions as the detection process 207a. The detection process 207a corresponds to the human detection unit 130 and the control unit 170 in FIG. The CPU 201 reads various data 208 b stored in the hard disk device 208 and stores it in the RAM 207.

検出プロセス207aは、各種データ207b、および、カメラ204、LRF205、リアルタイムクロック206からのデータを利用して、複数人の移動の流れ、注目度の高い場所、一時的に発生するイベントの位置を検出する。   The detection process 207a uses various data 207b and data from the camera 204, the LRF 205, and the real-time clock 206 to detect the flow of movement of multiple people, a place of high attention, and the position of an event that occurs temporarily. To do.

なお、検出プログラム208aは、必ずしもハードディスク装置208に格納されている必要はない。コンピュータ200は、CD−ROM等の記憶媒体に記憶された検出プログラム208aを読み出して実行するようにしてもよい。また、公衆回線、インターネット、LAN(Local Area Network)、WAN(Wide Area Network)等にこの検出プログラム208aを記憶させておき、コンピュータ200が検出プログラム208aを読み出して実行するようにしてもよい。   Note that the detection program 208 a is not necessarily stored in the hard disk device 208. The computer 200 may read and execute the detection program 208a stored in a storage medium such as a CD-ROM. Alternatively, the detection program 208a may be stored in a public line, the Internet, a LAN (Local Area Network), a WAN (Wide Area Network), or the like, and the computer 200 may read and execute the detection program 208a.

以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。   The following supplementary notes are further disclosed with respect to the embodiments including the above examples.

(付記1)コンピュータに、
移動体の位置を示す位置情報と該移動体が前記位置に存在した時間を示す時間情報とを対応づけて記憶部に記憶する記憶手順と、
前記位置情報および前記時間情報に基づいて、複数の移動体の移動軌跡を移動体毎に算出する移動軌跡算出手順と、
前記移動軌跡算出手順により算出された複数の移動軌跡のうち、移動軌跡の長さが他の移動軌跡の長さと比較して長い移動軌跡を示す基準移動軌跡を特定する移動軌跡特定手順と、
前記基準移動軌跡の特徴に類似する他の移動軌跡を統合することで、複数の移動体の移動推移を検出する移動推移検出手順と
を実行させることを特徴とする移動体検出プログラム。
(Supplementary note 1)
A storage procedure for storing, in the storage unit, position information indicating the position of the moving body and time information indicating the time when the moving body has existed at the position;
Based on the position information and the time information, a movement trajectory calculation procedure for calculating a movement trajectory of a plurality of moving bodies for each moving body;
A movement trajectory identification procedure for identifying a reference movement trajectory that indicates a movement trajectory that is longer than a length of other movement trajectories among a plurality of movement trajectories calculated by the movement trajectory calculation procedure;
A moving body detection program for executing a movement transition detection procedure for detecting movement transitions of a plurality of moving bodies by integrating other movement paths similar to the characteristics of the reference movement path.

(付記2)前記記憶部に記憶された前記位置情報および前記時間情報に基づいて、移動体の加速度を算出し、該加速度が減少した時点での前記移動体の位置を検出する位置検出手順を更にコンピュータに実行させることを特徴とする付記1に記載の移動体検出プログラム。 (Supplementary Note 2) A position detection procedure for calculating the acceleration of the moving body based on the position information and the time information stored in the storage unit and detecting the position of the moving body when the acceleration decreases. The moving object detection program according to appendix 1, which is further executed by a computer.

(付記3)前記移動推移検出手順において検出された複数の移動体の移動軌跡と、前記位置検出手順において検出された移動体の位置とが重なる位置を検出する重なり位置検出手順を更にコンピュータに実行させることを特徴とする付記2に記載の移動体検出プログラム。 (Additional remark 3) The overlapping position detection procedure which detects the position where the movement locus | trajectory of the several mobile body detected in the said movement transition detection procedure and the position of the mobile body detected in the said position detection procedure overlap is further performed to a computer The moving body detection program according to appendix 2, characterized in that:

(付記4)一定の時間間隔毎に、一時的な各移動体の移動方向をそれぞれ算出し、各移動体の位置から前記移動方向への直線がそれぞれ重複する領域または各移動体の位置から前記移動方向とは正反対の方向への直線がそれぞれ重複する領域を検出する重複領域検出手順を更にコンピュータに実行させることを特徴とする付記1、2または3に記載の移動体検出プログラム。 (Additional remark 4) At every fixed time interval, the temporary moving direction of each moving body is calculated, respectively, and the straight line from the position of each moving body to the moving direction overlaps each other or from the position of each moving body. 4. The moving body detection program according to appendix 1, 2, or 3, further causing a computer to execute an overlapping area detection procedure for detecting an area in which straight lines in directions opposite to the moving direction overlap each other.

(付記5)移動体の位置を示す位置情報と該移動体が前記位置に存在した時間を示す時間情報とを対応づけて記憶する記憶部と、
前記位置情報および前記時間情報に基づいて、複数の移動体の移動軌跡を移動体毎に算出する移動軌跡算出部と、
前記移動軌跡算出部により算出された複数の移動軌跡のうち、移動軌跡の長さが他の移動軌跡の長さと比較して長い移動軌跡を示す基準移動軌跡を特定する移動軌跡特定部と、
前記基準移動軌跡の特徴に類似する他の移動軌跡を統合することで、複数の移動体の移動推移を検出する移動推移検出部と
を備えたことを特徴とする移動体検出装置。
(Additional remark 5) The memory | storage part which matches and memorize | stores the positional information which shows the position of a mobile body, and the time information which shows the time when this mobile body existed in the said position,
Based on the position information and the time information, a movement trajectory calculation unit that calculates a movement trajectory of a plurality of moving bodies for each moving body;
Among the plurality of movement trajectories calculated by the movement trajectory calculation unit, a movement trajectory specifying unit that specifies a reference movement trajectory indicating a movement trajectory that is longer than the length of the other movement trajectories,
A moving body detection apparatus comprising: a movement transition detection unit that detects movement transitions of a plurality of moving bodies by integrating other movement paths similar to the characteristics of the reference movement path.

(付記6)前記記憶部に記憶された前記位置情報および前記時間情報に基づいて、移動体の加速度を算出し、該加速度が減少した時点での前記移動体の位置を検出する位置検出部を更に備えたことを特徴とする付記5に記載の移動体検出装置。 (Supplementary Note 6) A position detection unit that calculates the acceleration of the moving body based on the position information and the time information stored in the storage unit, and detects the position of the moving body when the acceleration decreases. The moving body detection device according to appendix 5, further comprising:

(付記7)前記移動推移検出部において検出された複数の移動体の移動軌跡と、前記位置検出部において検出された移動体の位置とが重なる位置を検出する重なり位置検出部を更に備えたことを特徴とする付記6に記載の移動体検出装置。 (Additional remark 7) It further provided the overlap position detection part which detects the position where the movement locus | trajectory of the several mobile body detected in the said movement transition detection part and the position of the mobile body detected in the said position detection part overlap. The moving body detection device according to appendix 6, characterized by:

(付記8)一定の時間間隔毎に、一時的な各移動体の移動方向をそれぞれ算出し、各移動体の位置から前記移動方向への直線がそれぞれ重複する領域または各移動体の位置から前記移動方向とは正反対の方向への直線がそれぞれ重複する領域を検出する重複領域検出部を更に備えたことを特徴とする付記5、6または7に記載の移動体検出装置。 (Additional remark 8) At every fixed time interval, the temporary moving direction of each moving body is calculated, respectively, and the straight line from the position of each moving body to the moving direction overlaps each other or from the position of each moving body. The moving body detection device according to appendix 5, 6 or 7, further comprising an overlapping area detection unit for detecting an area where straight lines in directions opposite to the moving direction overlap each other.

(付記9)移動体検出装置が、
移動体の位置を示す位置情報と該移動体が前記位置に存在した時間を示す時間情報とを対応づけて記憶部に記憶する記憶ステップと、
前記位置情報および前記時間情報に基づいて、複数の移動体の移動軌跡を移動体毎に算出する移動軌跡算出ステップと、
前記移動軌跡算出ステップにより算出された複数の移動軌跡のうち、移動軌跡の長さが他の移動軌跡の長さと比較して長い移動軌跡を示す基準移動軌跡を特定する移動軌跡特定ステップと、
前記基準移動軌跡の特徴に類似する他の移動軌跡を統合することで、複数の移動体の移動推移を検出する移動推移検出ステップと
を含んだことを特徴とする移動体検出方法。
(Supplementary note 9) The mobile object detection device is
A storage step of associating the position information indicating the position of the moving object with the time information indicating the time when the moving object was present at the position;
Based on the position information and the time information, a movement trajectory calculating step for calculating a movement trajectory of a plurality of moving bodies for each moving body;
A movement trajectory specifying step for specifying a reference movement trajectory that indicates a movement trajectory that is longer than the length of the other movement trajectories among the plurality of movement trajectories calculated in the movement trajectory calculation step;
A moving body detection method comprising: a movement transition detection step of detecting movement transitions of a plurality of moving bodies by integrating other movement paths similar to the characteristics of the reference movement path.

(付記10)前記記憶部に記憶された前記位置情報および前記時間情報に基づいて、移動体の加速度を算出し、該加速度が減少した時点での前記移動体の位置を検出する位置検出ステップを更に含んだことを特徴とする付記9に記載の移動体検出方法。 (Additional remark 10) The position detection step which calculates the acceleration of a moving body based on the position information and the time information stored in the storage unit, and detects the position of the moving body when the acceleration is reduced. The moving object detection method according to appendix 9, further comprising:

(付記11)前記移動推移検出ステップにおいて検出された複数の移動体の移動軌跡と、前記位置検出ステップにおいて検出された移動体の位置とが重なる位置を検出する重なり位置検出ステップを更に含んだことを特徴とする付記10に記載の移動体検出方法。 (Additional remark 11) It further included the overlap position detection step which detects the position where the movement locus | trajectory of the some mobile body detected in the said movement transition detection step and the position of the mobile body detected in the said position detection step overlap. The moving body detection method according to appendix 10, characterized by:

(付記12)一定の時間間隔毎に、一時的な各移動体の移動方向をそれぞれ算出し、各移動体の位置から前記移動方向への直線がそれぞれ重複する領域または各移動体の位置から前記移動方向とは正反対の方向への直線がそれぞれ重複する領域を検出する重複領域検出ステップを更に含んだことを特徴とする付記9、10または11に記載の移動体検出方法。 (Additional remark 12) At every fixed time interval, the movement direction of each temporary moving body is calculated, respectively, and the straight line from the position of each moving body to the moving direction respectively overlaps or the position of each moving body 12. The moving object detection method according to appendix 9, 10 or 11, further comprising an overlapping area detecting step for detecting an area where straight lines in directions opposite to the moving direction overlap each other.

50 移動体検出装置
51 記憶部
52 移動軌跡算出部
53 移動軌跡特定部
54 移動推移検出部
DESCRIPTION OF SYMBOLS 50 Moving body detection apparatus 51 Memory | storage part 52 Movement locus calculation part 53 Movement locus identification part 54 Movement transition detection part

Claims (6)

コンピュータに、
移動体の位置を示す位置情報と該移動体が前記位置に存在した時間を示す時間情報とを対応づけて記憶部に記憶する記憶手順と、
前記位置情報および前記時間情報に基づいて、複数の移動体の移動軌跡を移動体毎に算出する移動軌跡算出手順と、
前記移動軌跡算出手順により算出された複数の移動軌跡のうち、移動軌跡の長さが他の移動軌跡の長さと比較して長い移動軌跡を示す基準移動軌跡を特定する移動軌跡特定手順と、
前記基準移動軌跡の特徴に類似する他の移動軌跡を統合することで、複数の移動体の移動推移を検出する移動推移検出手順と
を実行させることを特徴とする移動体検出プログラム。
On the computer,
A storage procedure for storing, in the storage unit, position information indicating the position of the moving body and time information indicating the time when the moving body has existed at the position;
Based on the position information and the time information, a movement trajectory calculation procedure for calculating a movement trajectory of a plurality of moving bodies for each moving body;
A movement trajectory identification procedure for identifying a reference movement trajectory that indicates a movement trajectory that is longer than a length of other movement trajectories among a plurality of movement trajectories calculated by the movement trajectory calculation procedure;
A moving body detection program for executing a movement transition detection procedure for detecting movement transitions of a plurality of moving bodies by integrating other movement paths similar to the characteristics of the reference movement path.
前記記憶部に記憶された前記位置情報および前記時間情報に基づいて、移動体の加速度を算出し、該加速度が減少した時点での前記移動体の位置を検出する位置検出手順を更にコンピュータに実行させることを特徴とする請求項1に記載の移動体検出プログラム。   Based on the position information and the time information stored in the storage unit, an acceleration of the moving body is calculated, and a position detection procedure for detecting the position of the moving body at the time when the acceleration decreases is further executed on the computer. The moving body detection program according to claim 1, wherein: 前記移動推移検出手順において検出された複数の移動体の移動軌跡と、前記位置検出手順において検出された移動体の位置とが重なる位置を検出する重なり位置検出手順を更にコンピュータに実行させることを特徴とする請求項2に記載の移動体検出プログラム。   The computer further executes an overlapping position detection procedure for detecting a position where the movement trajectories of the plurality of moving bodies detected in the movement transition detection procedure overlap with the positions of the moving bodies detected in the position detection procedure. The moving body detection program according to claim 2. 一定の時間間隔毎に、一時的な各移動体の移動方向をそれぞれ算出し、各移動体の位置から前記移動方向への直線がそれぞれ重複する領域または各移動体の位置から前記移動方向とは正反対の方向への直線がそれぞれ重複する領域を検出する重複領域検出手順を更にコンピュータに実行させることを特徴とする請求項1、2または3に記載の移動体検出プログラム。   At each fixed time interval, the temporary movement direction of each moving body is calculated, and the region where the straight line from the position of each moving body to the moving direction overlaps or the position of each moving body is the moving direction. 4. The moving object detection program according to claim 1, further comprising causing the computer to execute an overlapping area detection procedure for detecting an area where straight lines in opposite directions overlap each other. 移動体の位置を示す位置情報と該移動体が前記位置に存在した時間を示す時間情報とを対応づけて記憶する記憶部と、
前記位置情報および前記時間情報に基づいて、複数の移動体の移動軌跡を移動体毎に算出する移動軌跡算出部と、
前記移動軌跡算出部により算出された複数の移動軌跡のうち、移動軌跡の長さが他の移動軌跡の長さと比較して長い移動軌跡を示す基準移動軌跡を特定する移動軌跡特定部と、
前記基準移動軌跡の特徴に類似する他の移動軌跡を統合することで、複数の移動体の移動推移を検出する移動推移検出部と
を備えたことを特徴とする移動体検出装置。
A storage unit that associates and stores position information indicating the position of the moving object and time information indicating the time when the moving object has existed at the position;
Based on the position information and the time information, a movement trajectory calculation unit that calculates a movement trajectory of a plurality of moving bodies for each moving body;
Among the plurality of movement trajectories calculated by the movement trajectory calculation unit, a movement trajectory specifying unit that specifies a reference movement trajectory indicating a movement trajectory that is longer than the length of the other movement trajectories,
A moving body detection apparatus comprising: a movement transition detection unit that detects movement transitions of a plurality of moving bodies by integrating other movement paths similar to the characteristics of the reference movement path.
前記記憶部に記憶された前記位置情報および前記時間情報に基づいて、移動体の加速度を算出し、該加速度が減少した時点での前記移動体の位置を検出する位置検出部を更に備えたことを特徴とする請求項5に記載の移動体検出装置。   The apparatus further includes a position detection unit that calculates the acceleration of the moving body based on the position information and the time information stored in the storage unit and detects the position of the moving body when the acceleration decreases. The moving body detection apparatus according to claim 5.
JP2010110586A 2010-05-12 2010-05-12 Moving object detection program and moving object detection apparatus Expired - Fee Related JP5445319B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010110586A JP5445319B2 (en) 2010-05-12 2010-05-12 Moving object detection program and moving object detection apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010110586A JP5445319B2 (en) 2010-05-12 2010-05-12 Moving object detection program and moving object detection apparatus

Publications (2)

Publication Number Publication Date
JP2011238139A true JP2011238139A (en) 2011-11-24
JP5445319B2 JP5445319B2 (en) 2014-03-19

Family

ID=45326027

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010110586A Expired - Fee Related JP5445319B2 (en) 2010-05-12 2010-05-12 Moving object detection program and moving object detection apparatus

Country Status (1)

Country Link
JP (1) JP5445319B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020091859A (en) * 2018-12-03 2020-06-11 株式会社リコー User interest estimation method and device
CN116010816A (en) * 2022-12-28 2023-04-25 南京大学 LRF large-kernel attention convolution network activity identification method based on large receptive field

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6461606A (en) * 1987-09-01 1989-03-08 Aisin Seiki On-vehicle distance detector
JP2003101994A (en) * 2001-09-20 2003-04-04 Toshiba Lighting & Technology Corp Monitoring camera system
JP2007271602A (en) * 2006-03-10 2007-10-18 Mitsubishi Electric Corp Navigation system
WO2010050110A1 (en) * 2008-10-27 2010-05-06 パナソニック株式会社 Moving body detection method and moving body detection device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6461606A (en) * 1987-09-01 1989-03-08 Aisin Seiki On-vehicle distance detector
JP2003101994A (en) * 2001-09-20 2003-04-04 Toshiba Lighting & Technology Corp Monitoring camera system
JP2007271602A (en) * 2006-03-10 2007-10-18 Mitsubishi Electric Corp Navigation system
WO2010050110A1 (en) * 2008-10-27 2010-05-06 パナソニック株式会社 Moving body detection method and moving body detection device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020091859A (en) * 2018-12-03 2020-06-11 株式会社リコー User interest estimation method and device
CN116010816A (en) * 2022-12-28 2023-04-25 南京大学 LRF large-kernel attention convolution network activity identification method based on large receptive field
CN116010816B (en) * 2022-12-28 2023-09-08 南京大学 LRF large-kernel attention convolution network activity identification method based on large receptive field

Also Published As

Publication number Publication date
JP5445319B2 (en) 2014-03-19

Similar Documents

Publication Publication Date Title
JP5475138B2 (en) Moving object prediction apparatus, virtual movable object prediction apparatus, program, moving object prediction method, and virtual movable object prediction method
JP6571545B2 (en) Object detection apparatus and object detection method
JP4576445B2 (en) Autonomous mobile device and program for autonomous mobile device
JP6588592B2 (en) Collision prediction and airbag pre-deployment system used for autonomous vehicles
Batavia et al. Overtaking vehicle detection using implicit optical flow
JP5535816B2 (en) Moving object prediction apparatus and program
CN109686031B (en) Identification following method based on security
CN110286389B (en) Grid management method for obstacle identification
CN110576847A (en) Focus-based tagging of sensor data
JP2017067756A (en) Object detection device and object detection method
WO2008032673A1 (en) Moving device
JP2013225295A (en) Collision warning system taking azimuth information into consideration
CN112363494A (en) Method and device for planning advancing path of robot and storage medium
CN113034579B (en) Dynamic obstacle track prediction method of mobile robot based on laser data
CN111897335A (en) Obstacle avoidance control method and control system for robot walking in Chinese character' gong
JP2001229488A (en) Vehicle tracking method and traffic state tracking device
CN111368650A (en) Crowd crowding behavior identification method based on track data
JP5445319B2 (en) Moving object detection program and moving object detection apparatus
US11210952B2 (en) Systems and methods for controlling vehicle traffic
JP2012164159A (en) Risk determination device, risk determination program, and risk determination method
KR101951525B1 (en) Collision avoidance system on highway joining section based on v2i communication
JP6851111B2 (en) Railroad crossing obstacle detection device
JP2011198266A (en) Risk determining device and program
JPH07225612A (en) Method and device for path search having time base put in search space
CN117523914A (en) Collision early warning method, device, equipment, readable storage medium and program product

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130403

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131209

R150 Certificate of patent or registration of utility model

Ref document number: 5445319

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees