JP6299957B2 - MOBILE BODY CONTROL DEVICE, MOBILE BODY CONTROL PROGRAM, AND MOBILE BODY CONTROL METHOD - Google Patents

MOBILE BODY CONTROL DEVICE, MOBILE BODY CONTROL PROGRAM, AND MOBILE BODY CONTROL METHOD Download PDF

Info

Publication number
JP6299957B2
JP6299957B2 JP2014004009A JP2014004009A JP6299957B2 JP 6299957 B2 JP6299957 B2 JP 6299957B2 JP 2014004009 A JP2014004009 A JP 2014004009A JP 2014004009 A JP2014004009 A JP 2014004009A JP 6299957 B2 JP6299957 B2 JP 6299957B2
Authority
JP
Japan
Prior art keywords
moving body
passing
moving
distance
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014004009A
Other languages
Japanese (ja)
Other versions
JP2015132980A (en
Inventor
勇記 田中
勇記 田中
徹志 池田
徹志 池田
浮田 宗伯
宗伯 浮田
一彦 篠沢
一彦 篠沢
公久 近藤
公久 近藤
敬宏 宮下
敬宏 宮下
萩田 紀博
紀博 萩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2014004009A priority Critical patent/JP6299957B2/en
Publication of JP2015132980A publication Critical patent/JP2015132980A/en
Application granted granted Critical
Publication of JP6299957B2 publication Critical patent/JP6299957B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

この発明は移動体制御装置、移動体制御プログラムおよび移動体制御方法に関し、特にたとえば、自律走行する移動体の移動を制御する、移動体制御装置、移動体制御プログラムおよび移動体制御方法に関する。   The present invention relates to a moving body control device, a moving body control program, and a moving body control method, and more particularly to, for example, a moving body control device, a moving body control program, and a moving body control method that control movement of a moving body that travels autonomously.

この発明の背景技術の一例が特許文献1に開示される。この特許文献1のロボットは、自己とすれ違う歩行者の軌跡を示す歩行者モデルを記憶しており、自己および歩行者の位置を検出して、検出結果および歩行者モデルに基づいて自己とすれ違う歩行者の軌跡を予測し、予測結果に応じて自己の回避行動を決定する。具体的には、所定時間後にロボットが歩行者とすれ違うか否かを判断し、すれ違う場合に、ロボットの位置を中心とする判定円内に歩行者が入るかどうかを判断する。そして、歩行者が判定円内に入る場合に、歩行者と一定以上の距離を保つように、ロボットを移動させる。   An example of background art of the present invention is disclosed in Patent Document 1. The robot of Patent Document 1 stores a pedestrian model indicating the trajectory of a pedestrian that passes by itself, detects the position of the pedestrian and the pedestrian, and walks passing by himself based on the detection result and the pedestrian model. The person's trajectory is predicted, and self-avoidance behavior is determined according to the prediction result. Specifically, it is determined whether or not the robot passes the pedestrian after a predetermined time. If the robot passes, it is determined whether or not the pedestrian falls within a determination circle centered on the position of the robot. Then, when the pedestrian enters the determination circle, the robot is moved so as to keep a certain distance from the pedestrian.

特開2012−200818[B25J 13/08, G05D 1/02]JP2012-200081 [B25J 13/08, G05D 1/02]

この背景技術では、歩行者が判定円内に入る場合には、歩行者と一定以上の距離を保つように、ロボットを移動させるようにしてある。しかし、歩行者によってロボットとのすれ違いの仕方が異なるため、一律に一定以上の距離を保つように移動させるのは、適切な移動制御とは言えない。たとえば、歩行者にとって一定の距離が十分な距離でない場合には、当該歩行者に危険な印象を与えてしまう虞がある。また、歩行者にとって一定の距離が十分過ぎる場合には、ロボットを過度に大回りさせていることとなり、移動時間をいたずらに長くしてしまう。つまり、移動効率が悪い。   In this background art, when a pedestrian enters the determination circle, the robot is moved so as to maintain a certain distance from the pedestrian. However, since the way of passing with the robot differs depending on the pedestrian, it is not appropriate movement control to move the robot uniformly so as to keep a certain distance. For example, when a certain distance is not sufficient for a pedestrian, there is a risk of giving a dangerous impression to the pedestrian. In addition, when a certain distance is sufficient for the pedestrian, the robot is excessively turned, and the movement time is unnecessarily long. That is, the movement efficiency is poor.

それゆえに、この発明の主たる目的は、新規な、移動体制御装置、移動体制御プログラムおよび移動体制御方法を提供することである。   Therefore, a main object of the present invention is to provide a novel mobile control device, mobile control program, and mobile control method.

この発明の他の目的は、適切な移動制御を行うことができる、移動体制御装置、移動体制御プログラムおよび移動体制御方法を提供することである。   Another object of the present invention is to provide a moving body control device, a moving body control program, and a moving body control method capable of performing appropriate movement control.

第1の発明は、自律走行する移動体を移動制御する移動体制御装置であって、記憶手段、位置予測手段、目標位置算出手段、および制御手段を備える。記憶手段は、移動体とすれ違う不特定多数のすれ違い対象の各々の回避行動についての特徴ベクトルを、当該移動体と当該不特定多数のすれ違い対象との相対距離毎に生成された特徴ベクトルの集合にクラスタリングし、当該相対距離毎に、クラスタリングした各クラスの複数の特徴ベクトルおよび当該複数の特徴ベクトルの平均ベクトルのデータベースを予め記憶する。位置予測手段は、記憶手段から移動体と今回のすれ違い対象との相対距離に応じたデータベースを選択し、当該データベースから、今回のすれ違い対象の現在までの特徴ベクトルに近似する特徴ベクトルを含むクラスを求め、当該クラスの平均ベクトルを用いて、所定時間後の予測位置の移動体に対する今回のすれ違い対象の当該所定時間後の相対位置を予測する。目標位置算出手段は、位置予測手段によって予測された相対位置と移動体の目的地に基づいて当該移動体の目標位置を算出する。そして、制御手段は、目標位置算出手段によって算出された目標位置に移動体を移動させる A first aspect of the invention is a moving body control device that controls movement of a moving body that travels autonomously, and includes a storage unit, a position prediction unit, a target position calculation unit, and a control unit. Storage means, a set of feature vectors, feature vectors generated for each relative distance between the mobile body and the unspecified number of passing object for each of the avoidance behavior of the unspecified number of passing objects pass each other with a mobile And for each relative distance, a database of a plurality of feature vectors of each clustered class and an average vector of the plurality of feature vectors is stored in advance. The position prediction means selects a database corresponding to the relative distance between the moving object and the current passing object from the storage means, and selects a class including a feature vector that approximates the current feature vector of the current passing object from the database. Then, using the average vector of the class, the relative position after the predetermined time of the current passing object with respect to the moving body at the predicted position after the predetermined time is predicted. The target position calculation means calculates the target position of the moving body based on the relative position predicted by the position prediction means and the destination of the moving body. Then, the control means moves the moving body to the target position calculated by the target position calculation means .

第1の発明によれば、予め記憶されたすれ違い対象の回避行動についての特徴ベクトルから今回のすれ違い対象の移動後の移動体に対する相対位置を予測し、予測した相対位置と移動体の目的地に基づいて、移動体が次に移動するべき目標位置を算出するので、すれ違い対象に通常の回避行動をさせるように、移動体を移動させることができる。したがって、移動体が、すれ違い対象に近づき過ぎたり、すれ違い対象を回避し過ぎたりすることがない。つまり、適切な移動制御を行うことができる。したがって、すれ違い対象としての歩行者に危険な印象を与えることが無く、また、効率的に移動体を移動させることができる。
また、第1の発明によれば、回避行動の種類のみならず、移動体とすれ違い対象との相対距離を考慮して、今回のすれ違い対象の回避行動に応じた平均ベクトルを用いて予測することができる。したがって、より正確に、すれ違い対象に通常の回避行動をさせるように、移動体を移動制御することができる。
According to the first invention, the relative position of the current passing target with respect to the moving object is predicted from the feature vector regarding the avoiding behavior of the passing object stored in advance, and the predicted relative position and the destination of the moving object are determined. Based on this, since the target position to which the mobile body should move next is calculated, the mobile body can be moved so that the passing target performs a normal avoidance action. Therefore, the moving object does not get too close to the passing object or avoid the passing object too much. That is, appropriate movement control can be performed. Therefore, a dangerous impression is not given to a pedestrian as a passing object, and the moving body can be moved efficiently.
According to the first invention, the prediction is performed using the average vector corresponding to the current avoidance action of the passing object in consideration of the relative distance between the moving object and the passing object as well as the type of avoidance action. Can do. Therefore, it is possible to control the movement of the moving body so that the passing object is caused to perform a normal avoidance action more accurately.

の発明は、自律走行する移動体とすれ違う不特定多数のすれ違い対象の各々の回避行動についての特徴ベクトルを、当該移動体と当該不特定多数のすれ違い対象との相対距離毎に生成された特徴ベクトルの集合にクラスタリングし、当該相対距離毎に、クラスタリングした各クラスの複数の特徴ベクトルおよび当該複数の特徴ベクトルの平均ベクトルのデータベースを予め記憶した記憶手段を備え、移動体を移動制御する移動体制御装置のコンピュータによって実行される移動体制御プログラムであって、コンピュータのプロセッサに、記憶手段から移動体と今回のすれ違い対象との相対距離に応じたデータベースを選択し、当該データベースから、今回のすれ違い対象の現在までの特徴ベクトルに近似する特徴ベクトルを含むクラスを求め、当該クラスの平均ベクトルを用いて、所定時間後の予測位置の移動体に対する今回のすれ違い対象の当該所定時間後の相対位置を予測する位置予測ステップ、位置予測ステップにおいて予測した相対位置と移動体の目的地に基づいて当該移動体の目標位置を算出する目標位置算出ステップ、および目標位置算出ステップにおいて算出した目標位置に移動体を移動させる制御ステップを実行させる、移動体制御プログラムである The second invention, the feature vector for each of the avoidance behavior of the unspecified number of passing objects moving body and passing each other to autonomous, generated for each relative distance between the mobile body and the unspecified number of passing object Clustered into a set of feature vectors , and for each relative distance, a storage unit that stores in advance a database of a plurality of feature vectors of each clustered class and an average vector of the plurality of feature vectors is provided to control movement of the moving object A moving body control program executed by a computer of a moving body control device, wherein a database corresponding to a relative distance between a moving body and a current passing object is selected from a storage unit in a processor of the computer, A class containing a feature vector that approximates the current feature vector Therefore, using the average vector of the class, the position prediction step for predicting the relative position of the current passing target with respect to the moving body of the predicted position after the predetermined time after the predetermined time, and the relative position and movement predicted at the position prediction step body target position calculating step of calculating a target position of the moving object based on the destination, and to perform the control step of moving the moving body to the calculated target position at the target position calculation step, is a mobile control program .

の発明は、自律走行する移動体とすれ違う不特定多数のすれ違い対象の各々の回避行動についての特徴ベクトルを、当該移動体と当該不特定多数のすれ違い対象との相対距離毎に生成された特徴ベクトルの集合にクラスタリングし、当該相対距離毎に、クラスタリングした各クラスの複数の特徴ベクトルおよび当該複数の特徴ベクトルの平均ベクトルのデータベースを予め記憶した記憶手段を備え、移動体を移動制御する移動体制御装置の移動体制御方法であって、移動体制御装置のコンピュータは、(a)記憶手段から移動体と今回のすれ違い対象との相対距離に応じたデータベースを選択し、当該データベースから、今回のすれ違い対象の現在までの特徴ベクトルに近似する特徴ベクトルを含むクラスを求め、当該クラスの平均ベクトルを用いて、所定時間後の予測位置の移動体に対する今回のすれ違い対象の当該所定時間後の相対位置を予測するステップ、(b)ステップ(a)において予測した相対位置と移動体の目的地に基づいて当該移動体の目標位置を算出するステップ、および(c)ステップ(b)において算出した目標位置に移動体を移動させるステップを含む、移動体制御方法である A third invention is the feature vector for each of the avoidance behavior of the unspecified number of passing objects moving body and passing each other to autonomous, generated for each relative distance between the mobile body and the unspecified number of passing object Clustered into a set of feature vectors , and for each relative distance, a storage unit that stores in advance a database of a plurality of feature vectors of each clustered class and an average vector of the plurality of feature vectors is provided to control movement of the moving object In the moving body control method of the moving body control device, the computer of the moving body control device selects (a) a database corresponding to the relative distance between the moving body and the current passing object from the storage means, and from the database, Find the class that contains the feature vector that approximates the current feature vector of the current passing target, and calculate the average vector of that class. (B) predicting the relative position of the current passing target with respect to the mobile object at the predicted position after a predetermined time using the threshold, and (b) the relative position predicted at step (a) and the destination of the mobile object And (c) a step of moving the moving body to the target position calculated in step (b) .

2およびの発明においても、第1の発明と同様に、適切な移動制御を行うことができる。 Also in the second and third inventions, appropriate movement control can be performed as in the first invention.

この発明によれば、予め記憶されたすれ違い対象の回避行動についての全特徴ベクトルから今回のすれ違い対象の移動後の当該移動体に対する相対位置を予測し、予測した相対位置と移動体の目的地に基づいて、移動体が次に移動するべき目標位置を算出するので、すれ違い対象に通常の回避行動をさせるように、移動体を移動させることができる。したがって、移動体が、すれ違い対象に近づき過ぎたり、すれ違い対象を回避し過ぎたりすることがない。つまり、適切な移動制御を行うことができる。したがって、すれ違い対象としての歩行者に危険な印象を与えることが無く、また、効率的に移動体を移動させることができる。   According to the present invention, the relative position of the current moving object after the movement of the passing object is predicted from all the feature vectors regarding the avoiding action of the passing object stored in advance, and the predicted relative position and the destination of the moving object are determined. Based on this, since the target position to which the mobile body should move next is calculated, the mobile body can be moved so that the passing target performs a normal avoidance action. Therefore, the moving object does not get too close to the passing object or avoid the passing object too much. That is, appropriate movement control can be performed. Therefore, a dangerous impression is not given to a pedestrian as a passing object, and the moving body can be moved efficiently.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1は移動体制御システムの一例を示す図解図である。FIG. 1 is an illustrative view showing an example of a mobile control system. 図2は移動体の電気的な構成の一例を示すブロック図である。FIG. 2 is a block diagram showing an example of the electrical configuration of the moving body. 図3は図2に示す移動体の外観構成の一例を示す図解図である。FIG. 3 is an illustrative view showing one example of an external configuration of the moving body shown in FIG. 2. 図4は図2および図3に示す距離センサの検出範囲を説明するための図解図である。FIG. 4 is an illustrative view for explaining a detection range of the distance sensor shown in FIGS. 2 and 3. 図5は図1に示した計測装置の電気的な構成の一例を示すブロック図である。FIG. 5 is a block diagram showing an example of the electrical configuration of the measuring apparatus shown in FIG. 図6は図1−図3に示される移動体の位置および向きを算出するためのパラメータを説明するための図解図である。FIG. 6 is an illustrative view for explaining parameters for calculating the position and orientation of the moving body shown in FIGS. 図7は移動体とすれ違い対象がすれ違う場合の特徴量を説明するための図解図である。FIG. 7 is an illustrative view for explaining a feature amount when a passing object passes by a moving object. 図8は或る相対距離におけるすれ違い対象の特徴ベクトルを模式的に示す図である。FIG. 8 is a diagram schematically showing a feature vector to be passed at a certain relative distance. 図9は或る相対距離におけるすべての特徴ベクトルをクラスタリングした場合の各クラスの特徴ベクトルおよびクラス毎の平均ベクトルを示す図解図である。FIG. 9 is an illustrative view showing a feature vector of each class and an average vector for each class when all feature vectors at a certain relative distance are clustered. 図10はすれ違い対象とすれ違う場合の移動体の移動制御の方法を説明するための図解図である。FIG. 10 is an illustrative view for explaining a method of movement control of a moving body when passing a passing object. 図11は移動体の目標位置を算出する方法を説明するための図解図である。FIG. 11 is an illustrative view for explaining a method of calculating a target position of a moving body. 図12は移動体の目標位置を算出する方法を説明するための他の図解図である。FIG. 12 is another illustrative view for explaining a method of calculating the target position of the moving body. 図13は図2に示すRAMのメモリマップの一例を示す図解図である。FIG. 13 is an illustrative view showing one example of a memory map of the RAM shown in FIG. 図14は図13に示す平均ベクトルデータの具体的な内容を示す図解図である。FIG. 14 is an illustrative view showing specific contents of the average vector data shown in FIG. 図15は図2に示すCPUの移動制御処理の一部を示すフロー図である。FIG. 15 is a flowchart showing a part of the movement control process of the CPU shown in FIG. 図16は図2に示すCPUの移動制御処理の他の一部であって、図15に後続するフロー図である。16 is another part of the movement control process of the CPU shown in FIG. 2, and is a flowchart subsequent to FIG. 図17は図2に示すCPUの移動後位置算出処理を示すフロー図である。FIG. 17 is a flowchart showing post-movement position calculation processing of the CPU shown in FIG. 図18は見通しの悪い環境に距離センサを配置した場合の例を示す図解図である。FIG. 18 is an illustrative view showing an example in which a distance sensor is arranged in an environment with poor visibility. 図19は図18に示したような環境における移動体の移動制御の方法を説明するための図解図である。FIG. 19 is an illustrative view for describing a method of controlling movement of a moving object in the environment as shown in FIG.

図1はこの実施例の移動体制御システム1であり、移動体10および計測装置100を含み、移動体10および計測装置100はネットワーク2を介して通信可能に接続される。ただし、実際に通信するのは、移動体10に含まれるコンピュータ12(図2参照)と、計測装置100に含まれるコンピュータ102(図5参照)である。   FIG. 1 shows a mobile body control system 1 according to this embodiment, which includes a mobile body 10 and a measurement device 100, and the mobile body 10 and the measurement device 100 are communicably connected via a network 2. However, what actually communicates is a computer 12 (see FIG. 2) included in the moving body 10 and a computer 102 (see FIG. 5) included in the measurement apparatus 100.

図2は図1に示す移動体10の電気的な構成を示すブロック図である。この移動体10は、移動制御装置および経路算出装置としても機能するコンピュータ12を含む。コンピュータ12は、汎用のパーソナルコンピュータやワークステーションなどのコンピュータであり、CPU12a、RAM12bおよびHDD12c、通信装置(図示せず)などのコンポーネントを備える。このようなコンポーネントを備えることは、後述するコンピュータ102も同様である。   FIG. 2 is a block diagram showing an electrical configuration of the moving body 10 shown in FIG. The moving body 10 includes a computer 12 that also functions as a movement control device and a route calculation device. The computer 12 is a computer such as a general-purpose personal computer or workstation, and includes components such as a CPU 12a, a RAM 12b and an HDD 12c, and a communication device (not shown). The computer 102 to be described later is also provided with such components.

また、コンピュータ12には、入出力インターフェイス(以下、単に「インターフェイス」という。)14、操作レバー16および距離センサ18a、18bが接続される。インターフェイス14には、モータドライバ20aを介してモータ22aが接続されるとともに、モータドライバ20bを介してモータ22bが接続される。さらに、インターフェイス14には、エンコーダ24aおよび24bが接続される。   Further, an input / output interface (hereinafter simply referred to as “interface”) 14, an operation lever 16, and distance sensors 18 a and 18 b are connected to the computer 12. A motor 22a is connected to the interface 14 via a motor driver 20a, and a motor 22b is connected via a motor driver 20b. Furthermore, encoders 24 a and 24 b are connected to the interface 14.

なお、モータ22aの回転軸と左の後輪34a(図3参照)の回転軸がギアを用いて連結され、モータ22bの回転軸と右の後輪34b(図3参照)の回転軸がギアを用いて連結される。   The rotating shaft of the motor 22a and the rotating shaft of the left rear wheel 34a (see FIG. 3) are connected using a gear, and the rotating shaft of the motor 22b and the rotating shaft of the right rear wheel 34b (see FIG. 3) are the gears. Are connected using

ここで、図3(A)を参照して、この実施例の移動体10は、電気車椅子のような移動体であり、その下部に、左右の前輪(キャスター)32a、32bおよび左右の後輪34a、34bを備えている。また、移動体10の左側の枠の上部に、上述した操作レバー16が設けられる。さらに、移動体10の左側の枠であり、ユーザが左足を置くステップ36aの左側に、上述した距離センサ18aが取り付けられる。ただし、距離センサ18aは、移動体10の右側の枠であり、ユーザが右足を置くステップ36bの右側に取り付けてもよい。また、移動体10を上方から見た模式図である図3(B)に示すように、移動体10の後方に、上述した距離センサ18bが設けられる。   Here, with reference to FIG. 3 (A), the moving body 10 of this embodiment is a moving body such as an electric wheelchair, and the left and right front wheels (casters) 32a and 32b and the left and right rear wheels are provided below the moving body. 34a and 34b are provided. Further, the above-described operation lever 16 is provided on the upper part of the left frame of the moving body 10. Furthermore, the distance sensor 18a described above is attached to the left side of the moving body 10 and on the left side of the step 36a where the user places his left foot. However, the distance sensor 18a is a frame on the right side of the moving body 10 and may be attached to the right side of the step 36b where the user puts the right foot. Further, as shown in FIG. 3B, which is a schematic view of the moving body 10 as viewed from above, the distance sensor 18 b described above is provided behind the moving body 10.

なお、この実施例では、距離センサ18aおよび18bを移動体10の前後に取り付けるようにしてあるが、移動体10の左右に取り付けるようにしてもよい。このように2つの距離センサ18a、18bを移動体10の前後または左右に設けるのは、移動体10の周りを全周(360°)に渡って、距離を検出(計測)するためである。ただし、これは単なる一例であり、距離センサは1つでもよく、または、3つ以上設けてもよい。   In this embodiment, the distance sensors 18 a and 18 b are attached to the front and rear of the moving body 10, but may be attached to the left and right of the moving body 10. The reason why the two distance sensors 18a and 18b are provided on the front and rear or the left and right of the moving body 10 is to detect (measure) the distance around the moving body 10 over the entire circumference (360 °). However, this is merely an example, and there may be one distance sensor or three or more distance sensors.

また、この実施例では、距離センサ18aおよび18bは、或る環境内の壁、柱のような固定された対象物(静的な障害物)のみならず、人間(歩行者)のような移動する対象物(動的な障害物)との距離を計測(検出)する。   In this embodiment, the distance sensors 18a and 18b are not only fixed objects (static obstacles) such as walls and pillars in a certain environment, but are also moved like humans (pedestrians). Measure (detect) the distance to the target object (dynamic obstacle).

図3(A)に戻って、移動体10の座席シートの下側であり、左の後輪34aと右の後輪34bの間には、ボックス40が設けられる。この中に、上述したコンピュータ12、インターフェイス14、モータドライバ20a、20b、モータ22a、22bおよびエンコーダ24a、24bが設けられる。ただし、コンピュータ12およびインターフェイス14は、ボックス40の外に設けるようにしてもよい。   Returning to FIG. 3A, a box 40 is provided below the seat of the moving body 10 and between the left rear wheel 34 a and the right rear wheel 34 b. In this, the above-described computer 12, interface 14, motor drivers 20a and 20b, motors 22a and 22b, and encoders 24a and 24b are provided. However, the computer 12 and the interface 14 may be provided outside the box 40.

コンピュータ12(CPU12a)は、この実施例の移動体10の全体的な制御を司る。この実施例では、CPU12aは、移動体10の移動経路を算出する。また、CPU12aは、自動的に、または、操作レバー16からの操作入力に応じてモータ22a、22bの駆動を制御する。つまり、CPU12aは、移動体10の移動を制御する。さらに、CPU12aは、距離センサ18a、18bおよびエンコーダ24a、24bで検出された距離データや回転数データを取得および記憶する。そして、CPU12aは、検出したデータに基づいて、障害物までの距離を計測したり、移動体10の位置を予測(決定)したりする。   The computer 12 (CPU 12a) governs overall control of the moving body 10 of this embodiment. In this embodiment, the CPU 12a calculates the moving path of the moving body 10. The CPU 12a controls driving of the motors 22a and 22b automatically or in response to an operation input from the operation lever 16. That is, the CPU 12a controls the movement of the moving body 10. Further, the CPU 12a acquires and stores distance data and rotation speed data detected by the distance sensors 18a and 18b and the encoders 24a and 24b. Then, the CPU 12a measures the distance to the obstacle and predicts (determines) the position of the moving body 10 based on the detected data.

操作レバー16は、移動体10に乗っているユーザによって操作され、操作に応じた信号(操作入力)がコンピュータ12に与えられる。たとえば、前進、後退、停止、左折、右折および旋回などの操作を行うことができる。   The operation lever 16 is operated by a user on the moving body 10, and a signal (operation input) corresponding to the operation is given to the computer 12. For example, operations such as forward, backward, stop, left turn, right turn, and turn can be performed.

ただし、リモートコントローラ(図示せず)を用いて、遠隔操作により、操作入力をコンピュータ12に与えることもできる。また、この実施例では、移動体10を自律走行させるため、操作レバー16は設けなくてもよい。   However, an operation input can be given to the computer 12 by remote control using a remote controller (not shown). Further, in this embodiment, the operation lever 16 may not be provided in order to make the moving body 10 autonomously travel.

距離センサ18a、18bは、たとえば、汎用のレーザレンジファインダ(LRF)であり、レーザーを照射し、物体に反射して戻ってくるまでの時間から当該物体との距離を計測するものである。たとえば、LRFは、トランスミッタ(図示せず)から照射したレーザーを回転ミラー(図示せず)で反射させて、扇状に一定角度(たとえば、0.25度)ずつスキャンする。また、この実施例では、検出範囲(図4参照)の全体をスキャンする周期は、25msecである。   The distance sensors 18a and 18b are, for example, general-purpose laser range finders (LRF), and measure the distance to the object from the time it takes to irradiate the laser and reflect it back to the object. For example, in the LRF, a laser beam emitted from a transmitter (not shown) is reflected by a rotating mirror (not shown), and scanned in a fan shape at a certain angle (for example, 0.25 degrees). In this embodiment, the period for scanning the entire detection range (see FIG. 4) is 25 msec.

図4は、距離センサ18a、18bの検出範囲(計測範囲)を説明するための図解図である。この実施例の距離センサ18a、18bの計測範囲は、半径R(R≒10〜15m)の扇形状で示される。扇の角度は、正面方向を中心として左側および右側のそれぞれに135°である。つまり、正面を中心とする270°の範囲について距離を検出することができる。   FIG. 4 is an illustrative view for explaining detection ranges (measurement ranges) of the distance sensors 18a and 18b. The measurement ranges of the distance sensors 18a and 18b of this embodiment are shown in a fan shape with a radius R (R≈10 to 15 m). The angle of the fan is 135 ° on each of the left side and the right side with respect to the front direction. That is, the distance can be detected for a range of 270 ° centered on the front.

図2に戻って、モータドライバ20a、20bは、コンピュータ12からの指示に基づいて、モータ22a、22bを駆動する。エンコーダ24aは、モータ22aの回転数(rps)を検出し、回転数についてのデータ(回転数データ)を、インターフェイス14を介してコンピュータ12に入力する。同様に、エンコーダ24bは、モータ22bの回転数を検出し、回転数についての回転数データを、インターフェイス14を介してコンピュータ12に入力する。   Returning to FIG. 2, the motor drivers 20 a and 20 b drive the motors 22 a and 22 b based on an instruction from the computer 12. The encoder 24 a detects the rotation speed (rps) of the motor 22 a and inputs data about the rotation speed (rotation speed data) to the computer 12 via the interface 14. Similarly, the encoder 24b detects the rotational speed of the motor 22b, and inputs rotational speed data regarding the rotational speed to the computer 12 via the interface 14.

コンピュータ12は、距離センサ18a、18bで検出される距離データと、エンコーダ24a、24bで検出される回転数データを取得して、RAM12b(HDD12cでもよい。)に記憶する。ただし、距離センサ18aで検出される距離データと距離センサ18bで検出される距離データは区別されるとともに、同じ時点において検出された距離データと回転数データは互いに関連付けられる。   The computer 12 acquires distance data detected by the distance sensors 18a and 18b and rotation speed data detected by the encoders 24a and 24b, and stores them in the RAM 12b (or the HDD 12c). However, the distance data detected by the distance sensor 18a and the distance data detected by the distance sensor 18b are distinguished, and the distance data detected at the same time point and the rotation speed data are associated with each other.

図5に示すように、計測装置100は、コンピュータ102を含み、このコンピュータ102には、複数の距離センサ104が接続される。図示は省略するが、複数の距離センサ104は、移動体10が自律走行する環境内に設置される。この距離センサ104は、上述した距離センサ18a、18bと同じものを用いることができる。したがって、各距離センサ104は、他の距離センサ104の検出範囲と一部が重複するように配置され、移動体10が自律走行する環境の全範囲で距離を計測可能とされる。   As shown in FIG. 5, the measuring apparatus 100 includes a computer 102, and a plurality of distance sensors 104 are connected to the computer 102. Although not shown, the plurality of distance sensors 104 are installed in an environment in which the mobile body 10 travels autonomously. The distance sensor 104 may be the same as the distance sensors 18a and 18b described above. Therefore, each distance sensor 104 is disposed so as to partially overlap the detection range of the other distance sensor 104, and the distance can be measured over the entire range of the environment in which the moving body 10 autonomously travels.

ただし、距離センサ18a、18b、104としては、LRFに代えて超音波距離センサやミリ波レーダなどを用いてもよい。   However, as the distance sensors 18a, 18b, and 104, an ultrasonic distance sensor or a millimeter wave radar may be used instead of the LRF.

この実施例では、計測装置100は、移動体10の位置を追跡するとともに、移動体10が自律走行する環境内に存在する1または複数のすれ違い対象の候補(以下、「すれ違い候補」という。)を検出し、各々のすれ違い候補も追跡する。計測装置100は、移動体10に対向するように移動するすれ違い候補のうち、時間的に最も早く移動体10とすれ違うと予測される1のすれ違い候補をすれ違い対象として決定する。すれ違い対象を決定すると、計測装置100は、すれ違い対象の情報(以下、「すれ違い対象情報」という。)を移動体10に送信する。   In this embodiment, the measuring apparatus 100 tracks the position of the moving body 10 and also includes one or more passing target candidates (hereinafter referred to as “passing candidates”) that exist in an environment in which the moving body 10 travels autonomously. And each passing candidate is also tracked. The measuring apparatus 100 determines one passing candidate predicted to pass the moving body 10 earliest in time among passing candidates moving so as to face the moving body 10 as a passing target. When the passing object is determined, the measuring apparatus 100 transmits the passing object information (hereinafter, referred to as “passing object information”) to the moving body 10.

ここで、すれ違い対象情報は、移動体10とすれ違い対象との距離(相対距離Dである。図7参照)、すれ違い対象の現在位置、すれ違い対象の現在時刻における移動速度、すれ違い対象の現在時刻までの移動方向、およびすれ違い対象について算出した特徴ベクトルを含む。特徴ベクトルおよびその算出方法については、後で詳細に説明する。   Here, the passing object information is the distance between the moving object 10 and the passing object (the relative distance D. See FIG. 7), the current position of the passing object, the moving speed at the current time of the passing object, and the current time of the passing object. And the feature vector calculated for the passing object. The feature vector and its calculation method will be described later in detail.

ただし、すれ違い対象の現在位置およびすれ違い対象の現在時刻までの移動方向は、計測装置100で、当該すれ違い対象(すれ違い候補)を追跡しているため、容易に知ることができる。また、すれ違い対象情報は、移動体10とすれ違い対象がすれ違うまで、相対距離Dが所定距離(たとえば、1m)変化する度に、移動体10に送信される。また、その都度、すれ違い対象についての特徴ベクトルが算出(再計算)される。   However, since the passing position (passing candidate) is tracked by the measuring apparatus 100, the current position of the passing target and the moving direction of the passing target up to the current time can be easily known. The passing object information is transmitted to the moving body 10 every time the relative distance D changes by a predetermined distance (for example, 1 m) until the passing object passes the moving object 10. In addition, each time, a feature vector for a passing object is calculated (recalculated).

ここで、すれ違い対象とは、移動体10とすれ違う歩行者等を意味し、歩行器等の補助具を使用しない歩行者のみならず、歩行器や杖を使用する歩行者、台車やショッピングカートを押す歩行者(台車やショッピングカートを含む場合もある。)および移動体10とは異なる他の車椅子などが該当する。   Here, the passing object means a pedestrian who passes the moving body 10 and includes not only a pedestrian who does not use an auxiliary device such as a walker but also a pedestrian, a cart or a shopping cart which uses a walker or a cane. Pedestrians to be pushed (may include carts and shopping carts) and other wheelchairs different from the moving body 10 are applicable.

このように、すれ違い対象としては、歩行者や車椅子などを含むため、これらを検出するため、上記の各距離センサ104は床面からの高さが約70cm〜100cmの位置に設置される。   As described above, since the passing objects include pedestrians and wheelchairs, the distance sensors 104 described above are installed at a height of about 70 cm to 100 cm from the floor in order to detect them.

また、計測装置100は、移動体10が自律走行する環境を真上から俯瞰的に見た2次元のマップ(世界座標系のマップ)についてのデータを記憶している。   In addition, the measuring apparatus 100 stores data on a two-dimensional map (world coordinate system map) in which the environment in which the moving body 10 autonomously travels is viewed from above.

したがって、計測装置100は、距離センサ104で検出された距離データに基づいて、上記のマップに表れていない物体を検出すると、まず、すれ違い候補であるかどうかを判断する。ただし、移動体10については、スタート位置が計測装置100に入力されるため、計測装置100は移動体10であることを認識して、これを追跡する。したがって、移動体10については、すれ違い候補であるかどうかを判断することは無い。   Therefore, when the measuring apparatus 100 detects an object that does not appear on the map based on the distance data detected by the distance sensor 104, the measuring apparatus 100 first determines whether it is a passing candidate. However, since the start position of the moving body 10 is input to the measuring apparatus 100, the measuring apparatus 100 recognizes that it is the moving body 10 and tracks it. Therefore, it is not determined whether or not the moving body 10 is a passing candidate.

この実施例では、計測装置100は、検出した物体の大きさおよび移動の有無を検出し、物体の大きさが所定の大きさの範囲内であり(第1の条件)であり、かつ、当該物体が移動している(第2の条件)場合に、当該物体をすれ違い候補として決定する。   In this embodiment, the measuring apparatus 100 detects the size of the detected object and the presence or absence of movement, the size of the object is within a predetermined size range (first condition), and When the object is moving (second condition), the object is determined as a passing candidate.

たとえば、物体の大きさは、距離センサ104から出力される距離データに基づいて特定された当該物体の形状を円で近似し、近似した円の直径が70cm〜150cm程度であれば、歩行者や車椅子などであると判断する。つまり、すれ違い候補としての第1の条件を満たすことが判断される。ただし、物体の大きさが上記の範囲から外れる場合には、当該物体はすれ違い対象ではない何らかの障害物として判断される。   For example, the size of the object approximates the shape of the object specified based on the distance data output from the distance sensor 104 with a circle, and if the approximate circle has a diameter of about 70 cm to 150 cm, Judge that it is a wheelchair. That is, it is determined that the first condition as a passing candidate is satisfied. However, when the size of the object is out of the above range, the object is determined as some obstacle that is not a passing object.

また、第1の条件を満たした物体の位置を所定時間(たとえば、数百ミリsec)毎に検出することにより、当該物体の移動の有無が検出される。そして、或る一定期間(たとえば、数秒)を超えても、物体の位置が変化しない場合には、当該物体は移動していないため、第2の条件を満たさず、当該物体は何らかの障害物として判断される。一方、一定期間を超えないで物体の位置が変化する場合には、当該物体は移動しており、第2の条件を満たし、当該物体はすれ違い候補として決定される。すれ違い候補として決定された物体には、識別情報が付され、その位置が追跡される。つまり、すれ違い候補の現在位置が所定時間(たとえば、数百ミリsec)毎に検出され、その軌跡が取得される。   Further, by detecting the position of the object that satisfies the first condition every predetermined time (for example, several hundred milliseconds), the presence or absence of the movement of the object is detected. If the position of the object does not change even after a certain period of time (for example, several seconds), the object does not move, so the second condition is not satisfied, and the object is regarded as an obstacle. To be judged. On the other hand, when the position of the object changes without exceeding a certain period, the object has moved, the second condition is satisfied, and the object is determined as a passing candidate. Identification information is attached to an object determined as a passing candidate, and its position is tracked. That is, the current position of the passing candidate is detected every predetermined time (for example, several hundred milliseconds), and the locus is acquired.

計測装置100では、コンピュータ102が距離センサ104からの出力(距離データ)に基づいて、パーティクルフィルタを用いて、移動体10や各すれ違い候補の現在位置の変化を推定する。ここで、パーティクルフィルタとは、多数の粒子を用いて、前時刻の状態からの予測と現在の観測情報から現在の状態を推定する手法である。パーティクルフィルタでは、予測、観測、リサンプリングを繰り返すことによって移動体10やすれ違い候補を追跡する。   In the measuring apparatus 100, the computer 102 estimates changes in the current position of the moving object 10 and each passing candidate using a particle filter based on the output (distance data) from the distance sensor 104. Here, the particle filter is a technique for estimating the current state from the prediction at the previous time and the current observation information using a large number of particles. The particle filter tracks the moving object 10 passing candidate by repeating prediction, observation, and resampling.

たとえば、距離センサ104によってスキャンされると、移動体10やすれ違い候補が存在しない可視区域、移動体10やすれ違い候補が存在する陰区域、および移動体10やすれ違い候補のエッジが検出される。また、実空間(移動体10が自律走行する環境)に対応する仮想空間に対してパーティクルを均等にばら撒き、距離センサ104毎に尤度を求める。さらに、距離センサ104毎の尤度を統合することで、各パーティクルが更新される。そして、更新された各パーティクルによって、移動体10やすれ違い候補の現在位置の変化が推定される。なお、尤度は、可視区域では一定値とし、陰区域では一定値とエッジの尤度との和となる。このようにして推定された現在位置の変化に基づいて、移動体10やすれ違い候補の位置を求め、その位置の平面座標を示す数値(位置データ)を、時系列に従って記憶することにより、移動体10やすれ違い候補についての軌跡データが生成される。   For example, when scanned by the distance sensor 104, a visible area where the moving object 10 passing candidate does not exist, a shadow area where the moving object 10 passing candidate exists, and an edge of the moving object 10 passing candidate are detected. Further, particles are evenly distributed in a virtual space corresponding to the real space (environment in which the moving body 10 autonomously travels), and the likelihood is obtained for each distance sensor 104. Furthermore, each particle is updated by integrating the likelihood for each distance sensor 104. Then, a change in the current position of the moving object 10 passing candidate is estimated by each updated particle. The likelihood is a constant value in the visible area, and is the sum of the constant value and the likelihood of the edge in the shadow area. Based on the change in the current position estimated in this way, the position of the moving object 10 passing candidate is obtained, and numerical values (position data) indicating the plane coordinates of the position are stored in time series, thereby moving the moving object. Trajectory data is generated for 10 passing candidates.

ただし、移動体10を追跡するためのパーティクルフィルタと、すれ違い候補を追跡するためのパーティクルフィルタはそれぞれ独立しており、各すれ違い候補を追跡するためのパーティクルフィルタもそれぞれ独立している。   However, the particle filter for tracking the moving object 10 and the particle filter for tracking the passing candidate are independent, and the particle filter for tracking each passing candidate is also independent.

また、この実施例では、移動体10は、スタート地点とゴール地点(目的地)を入力(設定)することにより、移動経路を算出して(移動経路計画を行って)、自動走行(自律移動)することができる。   In this embodiment, the moving body 10 inputs (sets) a start point and a goal point (destination) to calculate a movement route (performs a movement route plan) and performs automatic traveling (autonomous movement). )can do.

通常の移動経路計画は、最短距離や最短時間経路を算出する手法であり、この実施例では、最短距離となる移動経路が算出される。移動経路が算出されると、算出された移動経路に従って移動体10が移動される。   The normal travel route plan is a method for calculating the shortest distance and the shortest time route. In this embodiment, the travel route that is the shortest distance is calculated. When the movement route is calculated, the moving body 10 is moved according to the calculated movement route.

移動体10は、算出された移動経路に従って自律走行するが、このとき、モータドライバ20a、20bは、コンピュータ12からの指示に基づいて、モータ22a、22bを駆動する。エンコーダ24aは、モータ22aの回転数(rps)を検出し、回転数についてのデータ(回転数データ)を、インターフェイス14を介してコンピュータ12に入力する。同様に、エンコーダ248bは、モータ22bの回転数を検出し、回転数についての回転数データを、インターフェイス14を介してコンピュータ12に入力する。   The mobile body 10 autonomously travels according to the calculated travel route. At this time, the motor drivers 20a and 20b drive the motors 22a and 22b based on an instruction from the computer 12. The encoder 24 a detects the rotation speed (rps) of the motor 22 a and inputs data about the rotation speed (rotation speed data) to the computer 12 via the interface 14. Similarly, the encoder 248 b detects the rotational speed of the motor 22 b and inputs rotational speed data regarding the rotational speed to the computer 12 via the interface 14.

コンピュータ12は、距離センサ18a、18bで検出される距離データと、エンコーダ24a、24bで検出される回転数データを取得して、RAM12b(HDD12cでもよい。)に記憶する。ただし、距離センサ18aで検出される距離データと距離センサ18bで検出される距離データは区別されるとともに、同じ時点において検出された距離データと回転数データは互いに関連付けられる。   The computer 12 acquires distance data detected by the distance sensors 18a and 18b and rotation speed data detected by the encoders 24a and 24b, and stores them in the RAM 12b (or the HDD 12c). However, the distance data detected by the distance sensor 18a and the distance data detected by the distance sensor 18b are distinguished, and the distance data detected at the same time point and the rotation speed data are associated with each other.

移動体10に搭載された距離センサ18a、18bのそれぞれで計測された距離データが、当該距離データを検出したときの移動体10の位置および向きを基準とする2次元の座標系(移動体座標系)の位置(点)データに変換される。このとき、2つの距離センサ18a、18bの取り付け位置が考慮される。つまり、移動体10の位置と、距離センサ18a、18bの取り付け位置のずれが調整される。当然のことではあるが、距離データを検出したときの距離センサ18a、18bの計測範囲における角度も考慮される。さらに、この実施例では、移動体座標系における位置データが、2次元の世界座標系の位置データに変換される。つまり、移動体座標系では、距離センサ18a、18bのそれぞれで計測された距離データの検出(移動体10の移動)を開始したときの移動体10の位置および向きを基準とするため、それを現実空間についての世界座標系に変換するようにしてある。   The distance data measured by each of the distance sensors 18a and 18b mounted on the moving body 10 is a two-dimensional coordinate system (moving body coordinates based on the position and orientation of the moving body 10 when the distance data is detected. System) position (point) data. At this time, the mounting positions of the two distance sensors 18a and 18b are considered. That is, the displacement between the position of the moving body 10 and the attachment positions of the distance sensors 18a and 18b is adjusted. Of course, the angle in the measurement range of the distance sensors 18a and 18b when the distance data is detected is also taken into consideration. Furthermore, in this embodiment, position data in the moving body coordinate system is converted into position data in a two-dimensional world coordinate system. In other words, in the moving body coordinate system, since the position and orientation of the moving body 10 when the detection of the distance data (movement of the moving body 10) measured by the distance sensors 18a and 18b is started is used as a reference. It converts to the world coordinate system about the real space.

ここで、この実施例では、移動体10の位置および向きは、オドメトリによる計測値に基づいて求められる。図6に示すように、移動体10の位置および向きは、左右の車輪(34a、34b)の移動速度VL、VRおよび車輪間距離DTを用いて算出される移動体10の動作[vm,ω]Tを追跡することにより、求められる。 Here, in this embodiment, the position and orientation of the moving body 10 are obtained based on the measured values by odometry. As shown in FIG. 6, the position and orientation of the moving body 10 are determined based on the movement [vm of the moving body 10 calculated using the moving speeds V L and V R of the left and right wheels (34a, 34b) and the wheel distance DT. , ω] T is obtained by tracking T.

具体的には、移動体10の動作[vm,ω]Tは数1に従って算出される。ただし、vmは移動体10の速度であり、ωは車輪34aおよび34bの車軸の中心(図6参照)であり、車軸と垂直な軸周りの角度速である。 Specifically, the operation [vm, ω] T of the moving body 10 is calculated according to Equation 1. However, vm is the speed of the moving body 10, and ω is the center of the axle of the wheels 34a and 34b (see FIG. 6), and is the angular speed around the axis perpendicular to the axle.

[数1]

Figure 0006299957
[Equation 1]
Figure 0006299957

ただし、左右の車輪(34a、34b)の移動速度VL、VRは、左右の車輪(34a、34b)の回転数から算出することができ、また、車輪間隔DTは予め知ることができる。ただし、回転数に応じた移動速度VL、VRのテーブルを用意しておき、計算せずに、テーブルを参照することにより移動速度VL、VRを取得してもよい。 However, the moving speeds V L and V R of the left and right wheels (34a, 34b) can be calculated from the rotational speeds of the left and right wheels (34a, 34b), and the wheel interval DT can be known in advance. However, the moving velocity V L corresponding to the rotational speed, is prepared a table of V R, without computing, it may acquire the moving speed V L, V R by referring to the table.

そして、算出された動作[vm,ω]Tを積分することにより、前回算出した移動体10の位置および向きからの移動距離dmと回転角度θを求めることができる。したがって、移動体10の初期位置(スタート地点)および初期の向き(角度θ=0とする。)に、時系列に従って算出される移動距離dmと回転角度θを累積的に加算することにより、マップ上における、時間毎の移動体10の位置および向きを知ることができる。つまり、移動体10が算出された移動経路に従って移動しているかどうかを知ることができ、移動経路からずれている場合には、移動経路上を移動するように、移動制御される。 Then, by integrating the calculated operation [vm, ω] T , the previously calculated movement distance dm and rotation angle θ from the position and orientation of the moving body 10 can be obtained. Accordingly, the map is obtained by cumulatively adding the movement distance dm and the rotation angle θ calculated according to the time series to the initial position (start point) and the initial direction (angle θ = 0) of the moving body 10. It is possible to know the position and orientation of the moving body 10 over time. That is, it is possible to know whether or not the moving body 10 is moving according to the calculated movement route. When the moving object 10 is deviated from the movement route, the movement is controlled so as to move on the movement route.

なお、上述したように、計測装置100は、移動体10を追跡しているため、計測装置100から移動体10の現在位置の座標データを取得してもよい。   As described above, since the measuring device 100 tracks the moving body 10, the coordinate data of the current position of the moving body 10 may be acquired from the measuring device 100.

このようにして、移動体10は、算出された移動経路に従って目的地に向かって移動する。しかし、歩行者等のすれ違い対象とすれ違う場合には、先に算出された移動経路に拘わらず、当該すれ違い対象と衝突しないように、すれ違い対象を避けて移動体10を移動させる必要がある。   In this way, the moving body 10 moves toward the destination according to the calculated movement route. However, when passing a passing object such as a pedestrian or the like, it is necessary to move the moving body 10 while avoiding the passing object so as not to collide with the passing object, regardless of the previously calculated movement route.

たとえば、移動体10がすれ違い対象を避けて移動する方法としては、所定時間後のすれ違い対象の位置が、所定時間後の移動体10の位置から一定以上の距離を保つように、移動体10の移動を制御することが考えられる。   For example, as a method of moving the moving body 10 while avoiding the passing object, the position of the passing object after a predetermined time is set such that the moving object 10 maintains a certain distance from the position of the moving body 10 after the predetermined time. It is conceivable to control the movement.

しかし、歩行者等のすれ違い対象が移動体10を回避する行動は様々であり、一定の距離が或る歩行者等にとっては適切であるかも知れないが他の歩行者等にとっては適切であるとは限らない。したがって、一定の距離が近すぎると感じる歩行者には、恐怖心を与えてしまう可能性がある。また、一定の距離が遠すぎると感じる歩行者には、必要以上に移動体10を大回りさせてしまうこととなり、移動体10を効率的に移動させることができない。   However, there are various actions that a passing object such as a pedestrian avoids the moving body 10, and a certain distance may be appropriate for a pedestrian or the like, but is appropriate for another pedestrian or the like. Is not limited. Therefore, a pedestrian who feels that a certain distance is too close may give fear. Moreover, the pedestrian who feels that a certain distance is too far turns the moving body 10 more than necessary, and the moving body 10 cannot be moved efficiently.

そこで、この実施例では、すれ違いの初期の段階からすれ違い対象に少しずつ通常の回避行動をさせるように移動体10の移動を制御して、安全なすれ違いを実現するとともに、適切な移動制御を行うようにしてある。   Therefore, in this embodiment, the movement of the moving body 10 is controlled so that the normal avoidance action is gradually performed on the passing target from the initial stage of passing, thereby realizing safe passing and performing appropriate movement control. It is like that.

簡単に説明すると、移動体10がすれ違った複数(不特定多数)のすれ違い対象のそれぞれについて、当該移動体10を回避する行動(回避行動)についての特徴量を取得し、取得した特徴量に基づくデータベースを予め生成する。そして、そのデータベースを用いて、今回のすれ違い対象の所定時間後(移動後)の位置が予測され、この予測結果に基づいて移動体10が移動制御される。   Briefly, for each of a plurality of (unspecified many) passing objects in which the moving body 10 has passed, a feature amount for an action (avoidance action) that avoids the moving body 10 is acquired, and based on the acquired feature amount Create a database in advance. Then, using the database, the position of the current passing target after a predetermined time (after movement) is predicted, and the moving body 10 is controlled to move based on the prediction result.

ただし、今回のすれ違い対象の所定時間後の位置(予測位置)は、予測される移動体10の位置に対して後述する側方距離d(t+1)で決まる相対的な位置(相対位置)である。以下、この明細書において同じである。   However, the position (predicted position) after the predetermined time of the passing object this time is a relative position (relative position) determined by a lateral distance d (t + 1) described later with respect to the predicted position of the moving body 10. . The same applies hereinafter.

続いて、特徴量に基づくデータベースを生成する方法およびデータベースを用いて、移動体10を移動制御する方法について順に説明する。   Next, a method for generating a database based on feature values and a method for controlling movement of the moving object 10 using the database will be described in order.

図7には、時刻tにおいて、移動体10が或るすれ違い対象としての歩行者とすれ違う様子を記述した場合の特徴量が示される。図7に示す例では、すれ違い対象は、左から右に移動し、移動体10は、右から左に移動する。また、図7に示すように、時刻tにおいて、移動体10とすれ違い対象の相対距離はD(t)で表される。また、時刻tにおいて、移動体10の現在位置および移動体10の目的地を通る線とすれ違い対象との直線距離(以下、「側方距離」ということにする。)はd(t)で表される。そして、時刻tにおいて、すれ違い対象の移動速度はv(t)で表される。   FIG. 7 shows a feature amount when a state in which the moving body 10 passes by a pedestrian as a passing target at time t is described. In the example illustrated in FIG. 7, the passing object moves from left to right, and the moving body 10 moves from right to left. Further, as shown in FIG. 7, at time t, the relative distance between the moving object 10 and the passing object is represented by D (t). Further, at time t, the straight line distance (hereinafter referred to as “side distance”) between the line passing through the current position of the moving body 10 and the destination of the moving body 10 and the passing object is represented by d (t). Is done. At time t, the moving speed of the passing object is represented by v (t).

この実施例では、計測装置100は、様々なすれ違い対象について上記の特徴量を取得する。ただし、特徴量は、計測装置100ですれ違い対象(すれ違い対象)が検出されてから、当該すれ違い対象とすれ違うまで検出される。つまり、計測装置100は、各すれ違い候補について、所定時間毎に、相対距離D(t)、移動速度v(t)および側方距離d(t)が計測(算出)される。   In this embodiment, the measurement apparatus 100 acquires the above-described feature amount for various passing objects. However, the feature amount is detected after the passing target (passing target) is detected by the measurement apparatus 100 until the passing target is passed. That is, the measuring apparatus 100 measures (calculates) the relative distance D (t), the moving speed v (t), and the lateral distance d (t) for each passing candidate at predetermined time intervals.

複数のすれ違い対象についての特徴量が取得され、各特徴量の時間変化から特徴ベクトルが生成される。すれ違いの様子(仕方)は、すれ違い対象と移動体10の相対距離D(t)に応じて大きく異なる。したがって、相対距離D(t)毎にデータベースを生成する。この実施例では、相対距離D(t)が7、6、5、4、3、2(m)のそれぞれに対して、直前の所定時間(この実施例では、3秒)のすれ違いの仕方を、側方距離d(t)と移動速度v(t)の時系列で表現することが考えらえる。相対距離D(t)が或る値になった時点で、或るすれ違いの仕方は、数2に示す特徴ベクトルF(t)で表すことができる。   Feature quantities for a plurality of passing objects are acquired, and feature vectors are generated from temporal changes of the feature quantities. The state (how to) of passing differs greatly depending on the relative distance D (t) between the passing object and the moving body 10. Therefore, a database is generated for each relative distance D (t). In this embodiment, for each of the relative distances D (t) of 7, 6, 5, 4, 3, 2 (m), the method of passing the previous predetermined time (3 seconds in this embodiment) is described. It is conceivable to express in a time series of the lateral distance d (t) and the moving speed v (t). When the relative distance D (t) reaches a certain value, a certain passing method can be expressed by a feature vector F (t) shown in Formula 2.

[数2]
F(t) = [d(t), d(t-Δ), … ,d(t-(N-1)Δ),
v(t), v(t-Δ), … ,v(t-(N-1)Δ)]
なお、Δは、時系列を表現する際の間隔(単位時間)であり、たとえば、500msecに設定される。そして、Nは、Δで所定時間を割った値に決定される。したがって、この実施例では、所定時間は3秒であるため、N=6である。
[Equation 2]
F (t) = (d (t), d (t-Δ),…, d (t- (N-1) Δ),
v (t), v (t-Δ),…, v (t- (N-1) Δ)]
Note that Δ is an interval (unit time) for expressing the time series, and is set to 500 msec, for example. N is determined to be a value obtained by dividing a predetermined time by Δ. Therefore, in this embodiment, since the predetermined time is 3 seconds, N = 6.

このように、この実施例では、特徴ベクトルFは、側方距離d(t)および移動速度v(t)で表される。図8(A)には、或る相対距離Dにおける、或るすれ違い対象についての特徴ベクトルが表される。ただし、図8(A)では、簡単のため、側方距離dの時間変化のみが示され、移動速度v(t)については省略してある。このことは、図8(B)、図9(A)−(C)についても同じである。   Thus, in this embodiment, the feature vector F is represented by the lateral distance d (t) and the moving speed v (t). FIG. 8A shows a feature vector for a certain passing object at a certain relative distance D. FIG. However, in FIG. 8A, for the sake of simplicity, only a temporal change in the lateral distance d is shown, and the moving speed v (t) is omitted. The same applies to FIGS. 8B and 9A to 9C.

このような特徴ベクトルが、すべての計測結果について生成され、全特徴ベクトルがクラスタリングされる。この実施例では、相対距離D(t)毎に、特徴ベクトルの集合が生成される。たとえば、図8(B)に示すように、或る相対距離D(t)における、特徴ベクトルの集合が生成される。このような特徴ベクトルの集合がクラスタリングされる。   Such feature vectors are generated for all measurement results, and all feature vectors are clustered. In this embodiment, a set of feature vectors is generated for each relative distance D (t). For example, as shown in FIG. 8B, a set of feature vectors at a certain relative distance D (t) is generated. A set of such feature vectors is clustered.

すれ違いの仕方を分類するため、2つのすれ違いの仕方の距離関数を定義して、クラスタリングを行う。2つのすれ違いの仕方の特徴ベクトルFa,Fbの距離関数distance(Fa,Fb) は、たとえば、数3および数4のように定義することができる。   In order to classify the ways of passing, clustering is performed by defining a distance function of two ways of passing. The distance function distance (Fa, Fb) of the feature vectors Fa and Fb of the two passing methods can be defined as, for example, Equation 3 and Equation 4.

Figure 0006299957
Figure 0006299957

Figure 0006299957
Figure 0006299957

ここで、d’(t), v’(t) は、d(t), v(t) をそれぞれ正規化した量を表す。また、N−iは重みであり、現在時刻に近い要素の重要度が高くされる。   Here, d '(t) and v' (t) represent amounts obtained by normalizing d (t) and v (t), respectively. Ni is a weight, and the importance of an element close to the current time is increased.

クラスタリングの方法としては,たとえば、k平均法やクラスタ数を自動的に決定するx平均法などの利用が有効である。このようにして,各相対距離D(t)に対してデータベースを作成する。   As a clustering method, for example, a k-average method or an x-average method for automatically determining the number of clusters is effective. In this way, a database is created for each relative distance D (t).

したがって、たとえば、図8(B)に示した特徴ベクトルの集合をクラスタリングすることにより、図9(A)、図9(B)および図9(C)に示すように、3つのクラス(回避行動の種類)に分類されたと仮定する。   Therefore, for example, by clustering the set of feature vectors shown in FIG. 8B, as shown in FIG. 9A, FIG. 9B, and FIG. Categorized as a category).

たとえば、図9(A)に示すクラスは、すれ違い対象が大きな回避行動をとった場合の特徴ベクトルのクラスである。図9(B)に示すクラスは、すれ違い対象が中程度の回避行動をとった場合の特徴ベクトルのクラスである。図9(C)に示すクラスは、すれ違い対象が小さな回避行動をとった場合の特徴ベクトルのクラスである。   For example, the class shown in FIG. 9A is a class of feature vectors when the passing target takes a large avoidance action. The class shown in FIG. 9B is a class of feature vectors when the passing object takes a moderate avoidance action. The class shown in FIG. 9C is a class of feature vectors when the passing object takes a small avoidance action.

なお、クラス(回避行動の種類)の数はこれに限定される必要はない。たとえば、歩行器等を使用しない歩行者と、歩行器等を使用する歩行者や車椅子では回避行動は異なると考えられる。また、歩行者の年齢によっても回避行動は異なると考えられる。   Note that the number of classes (types of avoidance actions) need not be limited to this. For example, it is considered that the avoidance behavior differs between a pedestrian who does not use a walker or the like, and a pedestrian or wheelchair who uses a walker or the like. In addition, the avoidance behavior is considered to vary depending on the age of the pedestrian.

また、回避行動の種類を特定する必要は無く、異なる回避行動を分類できれば良い点に注意されたい。   It should be noted that it is not necessary to specify the type of avoidance action, and it is only necessary to classify different avoidance actions.

上述したように、或る相対距離D(t)における、特徴ベクトルの集合がクラスタリングされ、さらに、各クラスの複数の特徴ベクトルについての平均ベクトルが算出される。図示等は省略するが、他の相対距離D(t)についても同様に特徴ベクトルが生成され、クラスタリングされた後に、各クラスの平均ベクトルが算出される。そして、複数の特徴ベクトルおよび平均ベクトルは、相対距離D(t)毎に、クラス(回避行動の種類)を識別可能にして、コンピュータ12(移動体10)に登録される。   As described above, a set of feature vectors at a certain relative distance D (t) is clustered, and an average vector for a plurality of feature vectors of each class is calculated. Although illustration is omitted, feature vectors are similarly generated for other relative distances D (t), and after being clustered, an average vector of each class is calculated. The plurality of feature vectors and the average vector are registered in the computer 12 (the moving body 10) so that the class (type of avoidance action) can be identified for each relative distance D (t).

したがって、移動体10は、すれ違い対象とすれ違う際に、移動体10とすれ違い対象との距離から相対距離D(t)を決定し、決定した相対距離D(t)における各クラスからすれ違い対象の特徴ベクトルと近似する特徴ベクトルを求める。そして、求められた特徴ベクトルを含むクラスの平均ベクトルを用いて、すれ違い対象の移動が予測されるのである。つまり、相対距離D(t)毎に、取得された特徴量に基づくデータベースが生成され、生成されたデータベースを用いて移動体10が移動制御されるのである。   Therefore, when the moving body 10 passes the passing object, the relative distance D (t) is determined from the distance between the moving body 10 and the passing object, and the characteristics of the passing object from each class at the determined relative distance D (t). Find a feature vector that approximates the vector. Then, the movement of the passing object is predicted using the average vector of the class including the obtained feature vector. That is, for each relative distance D (t), a database based on the acquired feature amount is generated, and movement of the moving body 10 is controlled using the generated database.

新たにすれ違い対象の移動が計測された場合には、計測装置100は、すれ違い対象について計測された位置と移動速度v(t)から特徴ベクトルFを数2に従って計算(生成)する。そして、計測装置100は、すれ違い対象情報を移動体10に送信する。   When the movement of the passing object is newly measured, the measuring apparatus 100 calculates (generates) the feature vector F according to Equation 2 from the position measured for the passing object and the moving speed v (t). Then, the measuring apparatus 100 transmits the passing target information to the moving body 10.

これに応じて、移動体10は、相対距離D(t)の値に対応したデータベースを選択し、選択したデータベースの中から特徴ベクトルFに最も類似する(近似する)特徴ベクトルを求め、求めた特徴ベクトルを含む回避行動の種類(クラス)を選択する。選択されたクラスの平均ベクトルを取り出し、平均ベクトルを将来の予測結果として用いる。   In response to this, the moving body 10 selects a database corresponding to the value of the relative distance D (t), and obtains a feature vector that is most similar (approximated) to the feature vector F from the selected database. A type (class) of avoidance action including a feature vector is selected. The average vector of the selected class is extracted and the average vector is used as a future prediction result.

この実施例では、選択したデータベースの中から特徴ベクトルFに最も類似する(近似する)特徴ベクトルを求める際には、特徴ベクトルFと選択されたデータベースに含まれるすべての特徴ベクトルのそれぞれとの距離が算出され、距離が最も短い特徴ベクトルが近似する特徴ベクトルとして求められる。ただし、この距離は、上記の数3および数4に従って算出することができる。また、最も近似する特徴ベクトルが2以上有る場合には、いずれか1つの特徴ベクトルが任意に選択される。つまり、特徴ベクトルFに近似する1つの特徴ベクトルが選択されればよい。   In this embodiment, when obtaining a feature vector that is most similar (approximate) to the feature vector F from the selected database, the distance between the feature vector F and each of all the feature vectors included in the selected database. And the feature vector with the shortest distance is obtained as an approximate feature vector. However, this distance can be calculated according to the above equations 3 and 4. In addition, when there are two or more closest feature vectors, any one feature vector is arbitrarily selected. That is, it is only necessary to select one feature vector that approximates the feature vector F.

予測結果としては、移動体10の目的地の方向を基準とした側方距離d(t)の時系列が得られる。ただし、現時点での側方距離d(t)と、平均ベクトルは異なる値であるため、平均ベクトルを将来の予測結果として直接用いると、移動が不連続になってしまう。そこで、両者が同じになるように平均ベクトルを平行移動したものが用いられる。つまり、算出した特徴ベクトルFの現時点の側方距離d(t)と、平均ベクトルの側方距離d(t)を合わせるように、平均ベクトルを平行移動させる。そして、平均ベクトルから時刻t+1における側方距離d(t+1)を取得する。   As a prediction result, a time series of the lateral distance d (t) with reference to the direction of the destination of the moving body 10 is obtained. However, since the current lateral distance d (t) is different from the average vector, if the average vector is directly used as a future prediction result, the movement becomes discontinuous. Therefore, the average vector translated so that both are the same is used. That is, the average vector is translated so that the calculated side distance d (t) of the feature vector F at the present time matches the side distance d (t) of the average vector. Then, the lateral distance d (t + 1) at time t + 1 is acquired from the average vector.

上述したように、予測結果は、移動体10の目的地の方向を基準とした側方距離d(t)の時系列であり、両者の相対的な位置関係であるため、実際のすれ違いでの側方距離d(t)の系列は、移動体10の動き(移動)に応じて変化する。そこで、移動体10は、すれ違い対象が予測通りの側方距離d(t)を実現できるように移動制御される。図10に示すように、すれ違い対象が位置x(t+1)に移動したときに、予測された側方距離d(t+1)を実現するように、移動体10が位置y(t+1)へ移動する経路計画が立てられる。これは、すれ違い対象の意図した通りのすれ違いを実現することになり、移動体10の移動に対してすれ違い対象としての歩行者等に与える違和感が少なく、危険な印象を与えない利点がある。   As described above, the prediction result is a time series of the lateral distance d (t) with reference to the direction of the destination of the moving body 10 and is a relative positional relationship between the two, so that the actual passing The series of the lateral distance d (t) changes according to the movement (movement) of the moving body 10. Therefore, the moving body 10 is controlled to move so that the passing object can realize the predicted lateral distance d (t). As shown in FIG. 10, when the passing object moves to the position x (t + 1), a path along which the moving body 10 moves to the position y (t + 1) so as to realize the predicted lateral distance d (t + 1). A plan is made. This realizes the passing as intended of the passing object, and there is an advantage that there is little uncomfortable feeling given to a pedestrian or the like as the passing object with respect to the movement of the moving body 10, and a dangerous impression is not given.

しかし、予測された側方距離d(t)に追従して移動体10を移動制御すると、移動体10は急な速度変化や方向転換など、実現できない移動計画を立てられる可能性がある。   However, if the moving body 10 is controlled to follow the predicted lateral distance d (t), there is a possibility that the moving body 10 can make a movement plan that cannot be realized, such as a sudden speed change or direction change.

そこで、この実施例では、時刻t+1で移動体10が実現できる位置の中で、当該移動体10は、予測された側方距離d(t+1)に最も近い移動を行わせるように移動制御する。つまり、移動体10の移動の最大加速度、最大回転角速度等の制約の中で、実現可能な移動計画が立てられる。したがって、移動体10もまた、計測装置100に記憶されるマップのデータと同じデータを記憶してある。   Therefore, in this embodiment, among the positions where the moving body 10 can be realized at the time t + 1, the moving body 10 performs movement control so as to perform the movement closest to the predicted lateral distance d (t + 1). That is, a feasible movement plan is made within the constraints such as the maximum acceleration and maximum rotational angular velocity of movement of the moving body 10. Therefore, the moving body 10 also stores the same data as the map data stored in the measuring apparatus 100.

このような、移動体10の移動制御の方法の一例として、次の手法が挙げられる。現在時刻をtとしたときに、時刻t+1の移動体10の移動後の位置(目標位置)を次の3つの段階で求める。   The following method is mentioned as an example of such a method of movement control of the moving body 10. When the current time is t, the position (target position) after movement of the moving body 10 at time t + 1 is obtained in the following three stages.

<第1段階>
移動体10が現在の移動速度vmを維持して移動すると仮定すると、すれ違い対象は予測された側方距離d(t+1)に対して距離LD=d(t+1)×αの距離を保つように移動すると予測される。ここで、αはパラメータであり、0≦α≦1とする。パラメータαは、結果的に側方距離d(t+1)になるために、すれ違い対象が移動体10を回避する割合を示す。
<First stage>
Assuming that the moving body 10 moves while maintaining the current moving speed vm, the passing object moves so as to maintain a distance LD = d (t + 1) × α with respect to the predicted lateral distance d (t + 1). That is expected. Here, α is a parameter, and 0 ≦ α ≦ 1. The parameter α indicates the rate at which the passing object avoids the moving body 10 because the side distance d (t + 1) results.

図11に示すように、移動体10の時刻t+1における予測位置を点(位置)Eとし、当該移動体10の目的地を点Gとする。また、移動体10の目的地の方向から距離LD離れた直線を直線L1とする。ただし、移動体10の目的地の方向は、移動体10の予測位置の点Eと目的地の点Gを結ぶ直線L2の延びる方向である。また、直線L1は、点Eに最も近い点として点Aを通ると仮定する。同様に、点Gに最も近い直線L1上の点を点Bとする。すれ違い対象が現在時刻tで点Mに相当する位置に存在し、時刻t+1までに距離wだけ移動できるとすると、すれ違い対象の到達可能な位置は点Mから距離wを半径とする円C1上の点に相当する位置である。したがって、直線L1と円C1の交点を求めることにより、すれ違い対象の予測位置として点Nが求められる。ただし、距離wは、現在のすれ違い対象の移動速度v(t)から予測される。この移動速度v(t)は、すれ違い対象情報に含まれている。   As shown in FIG. 11, the predicted position of the moving body 10 at time t + 1 is a point (position) E, and the destination of the moving body 10 is a point G. A straight line that is a distance LD away from the direction of the destination of the moving body 10 is defined as a straight line L1. However, the direction of the destination of the moving body 10 is a direction in which a straight line L2 connecting the point E of the predicted position of the moving body 10 and the point G of the destination extends. Further, it is assumed that the straight line L1 passes through the point A as the point closest to the point E. Similarly, a point on the straight line L1 closest to the point G is defined as a point B. If the passing object exists at a position corresponding to the point M at the current time t and can be moved by the distance w by the time t + 1, the reachable position of the passing object is on the circle C1 with the radius from the point M as the distance w. A position corresponding to a point. Therefore, by obtaining the intersection of the straight line L1 and the circle C1, the point N is obtained as the predicted position of the passing object. However, the distance w is predicted from the current moving speed v (t) of the passing object. This moving speed v (t) is included in the passing object information.

具体的には、点Aおよび点Bは、それぞれ数5および数6で表される。ただし、(dx,dy)は点Eから点Aに向かうベクトルであり、点Eと点Gを結ぶ直線L2に垂直方向であり、長さが距離LDであることから求めることができる。   Specifically, the point A and the point B are expressed by Equation 5 and Equation 6, respectively. However, (dx, dy) is a vector from the point E to the point A, which is perpendicular to the straight line L2 connecting the point E and the point G, and can be obtained because the length is the distance LD.

[数5]

Figure 0006299957
[Equation 5]

Figure 0006299957

[数6]

Figure 0006299957
[Equation 6]

Figure 0006299957

したがって、直線L1および円C1は、それぞれ数7および数8で表される。数7および数8を満たす解は、図11の直線L1と円C1の交点に対応し、一般的には2つ求められる。したがって、この実施例では、すれ違い対象は、現在時刻tまでの移動方向の延長線上に近い位置に移動すると考え、その延長線上に近い位置に相当する点(解)を1つ選ぶようにしてある。その点(解)がすれ違い対象の時刻t+1における予測位置(ここでは、点N)である。ただし、すれ違い対象の現在時刻tまでの移動方向は、すれ違い対象情報に含まれている。   Therefore, the straight line L1 and the circle C1 are expressed by Equation 7 and Equation 8, respectively. The solutions satisfying Expressions 7 and 8 correspond to the intersection of the straight line L1 and the circle C1 in FIG. 11, and generally two are obtained. Therefore, in this embodiment, the passing object is considered to move to a position close to the extension line in the moving direction up to the current time t, and one point (solution) corresponding to the position close to the extension line is selected. . The point (solution) is the predicted position (here, point N) at the time t + 1 to be passed. However, the moving direction of the passing target up to the current time t is included in the passing target information.

[数7]

Figure 0006299957
[Equation 7]

Figure 0006299957

[数8]
( x - pt )2 + ( y - qt )2 = w2
<第2段階>
次に、すれ違い対象の予測位置(点N)に対して、移動体10を側方距離d(t+1)を保った位置に移動させるためには、図12に示すように、予測位置の点Nを中心とする半径d(t+1)の円C2を考え、移動体10の目的地である点Gから円C2に引いた接線(直線L3)上に移動体10を移動させればよい。図12において、円C2と直線L3の接点を点Hとする。この場合において、円C2は数9で表され、点Hが接点である条件は数10で表される。数9および数10の解として接点としての点Hが求められる。
[Equation 8]
(x-p t ) 2 + (y-q t ) 2 = w 2
<Second stage>
Next, in order to move the moving body 10 to the position where the lateral distance d (t + 1) is maintained with respect to the predicted position (point N) to be passed, as shown in FIG. The moving body 10 may be moved on a tangent line (straight line L3) drawn from the point G, which is the destination of the moving body 10, to the circle C2, considering a circle C2 having a radius d (t + 1) centered on. In FIG. 12, a point of contact between a circle C2 and a straight line L3 is a point H. In this case, the circle C2 is expressed by Equation 9, and the condition that the point H is a contact is expressed by Equation 10. A point H as a contact point is obtained as a solution of Equations 9 and 10.

[数9]

Figure 0006299957
[Equation 9]

Figure 0006299957

[数10]
( x - pt+1 )( x - xg ) + ( y - qt+1 )( y - yg ) = 0
<第3段階>
また、移動体10が時刻t+1までに移動できる距離をrとすると、移動体10の時刻t+1の到達可能位置は、現在時刻tでの点Jから距離rを半径とする円C3上の点に対応する位置である。ただし、距離rは、移動体10の現在時刻tにおける移動速度vmから予測される。直線L3と円C3の交点を求め、これを移動体10の時刻t+1の点Kを目標位置とする。ただし、直線L3は数11で表され、円C3は数12で表さ、交点は数11および数12の解として求められる。ここでも、一般的に2つの解が求められるが、移動体10の目的地の点Gに近い方の解が目標位置として採用される。
[Equation 10]
(x-p t + 1 ) (x-x g ) + (y-q t + 1 ) (y-y g ) = 0
<Third stage>
Also, assuming that the distance that the moving body 10 can move to time t + 1 is r, the reachable position of the moving body 10 at time t + 1 is a point on the circle C3 having a radius from the point J at the current time t. Corresponding position. However, the distance r is predicted from the moving speed vm of the moving body 10 at the current time t. An intersection of the straight line L3 and the circle C3 is obtained, and this is set as a target position at a point K of the moving body 10 at time t + 1. However, the straight line L3 is represented by Equation 11, the circle C3 is represented by Equation 12, and the intersection is obtained as a solution of Equations 11 and 12. Here, two solutions are generally obtained, but the solution closer to the point G of the destination of the moving body 10 is adopted as the target position.

[数11]

Figure 0006299957
[Equation 11]

Figure 0006299957

[数12]
( x - xt )2 + ( y - yt )2 = r2
この予測は定期的に更新する。すなわち、移動体10とすれ違い対象が接近したり、離れたりすることにより、変化した相対距離D(t)に対してデータベースを変更し、改めて予測を行うことにより、さらに正確な予測を行うことができる。この実施例では、相対距離D(t)を1m間隔で変化させてデータベースを作成しているため、したがって、相対距離D(t)が1m変化する毎に予測が更新される。
[Equation 12]
(x-x t ) 2 + (y-y t ) 2 = r 2
This forecast is updated regularly. That is, when the moving object 10 approaches or separates from the passing object, the database is changed with respect to the changed relative distance D (t), and the prediction is performed again, thereby making a more accurate prediction. it can. In this embodiment, since the database is created by changing the relative distance D (t) at 1 m intervals, the prediction is updated every time the relative distance D (t) changes by 1 m.

なお、移動体10とすれ違い対象とはすれ違うため、基本的には、相対距離D(t)は次第に短くなると考えられるが、すれ違い対象の移動の仕方によって相対距離D(t)が長くなる場合もあるため、相対距離D(t)が所定距離(1m)変化する毎にデータベースを変更し、改めて予測するようにしてある。   Since the moving object 10 and the passing object pass each other, the relative distance D (t) is considered to be gradually shortened. However, the relative distance D (t) may be increased depending on how the passing object moves. For this reason, every time the relative distance D (t) changes by a predetermined distance (1 m), the database is changed and predicted again.

また、移動体10は、すれ違い対象とすれ違うと、現在位置と目的地から移動経路を算出し直す。そして、算出し直した移動経路に沿って目的地に向けて移動する。   Further, when the moving object 10 passes by the passing object, it recalculates the moving route from the current position and the destination. And it moves toward the destination along the recalculated movement route.

ただし、移動体10がすれ違い対象とすれ違ったかどうかは、計測装置100で判断され、すれ違ったと判断されたときにそのことが移動体10に通知される。計測装置100は、すれ違い対象が移動体10の左右の側方よりも後ろ寄りに存在するかどうかを判断する。   However, whether or not the moving body 10 has passed the passing object is determined by the measuring apparatus 100, and when it is determined that the moving body 10 has passed, this is notified to the moving body 10. The measuring apparatus 100 determines whether or not the passing object exists behind the left and right sides of the moving body 10.

なお、この実施例では、最初に算出した移動経路に沿って移動体10を移動させるように、移動体10を現在位置から移動経路上の最も近い点(位置)に移動させるようにしてもよい。   In this embodiment, the moving body 10 may be moved from the current position to the closest point (position) on the moving path so that the moving body 10 is moved along the moving path calculated first. .

図13は図2に示したRAM12bのメモリマップ300の一例を示す。図13に示すように、RAM12bは、プログラム記憶領域302およびデータ記憶領域304を含む。プログラム記憶領域302には、移動体10を移動制御するための移動制御プログラムが記憶される。移動制御プログラムは、移動経路算出プログラム302a、側方距離取得プログラム302b、目標位置算出プログラム302c、駆動制御プログラム302dおよび状態算出プログラム302eなどによって構成される。   FIG. 13 shows an example of the memory map 300 of the RAM 12b shown in FIG. As shown in FIG. 13, the RAM 12 b includes a program storage area 302 and a data storage area 304. The program storage area 302 stores a movement control program for controlling movement of the moving body 10. The movement control program includes a movement route calculation program 302a, a lateral distance acquisition program 302b, a target position calculation program 302c, a drive control program 302d, a state calculation program 302e, and the like.

移動経路算出プログラム302aは、移動経路を算出するためのプログラムであって、移動制御の開始時に、スタート地点と目的地から移動経路を算出したり、すれ違い対象とすれ違った場合に、すれ違った後の現在位置と目的地から移動経路を算出し直したりする。   The movement route calculation program 302a is a program for calculating a movement route. When the movement control is started, the movement route is calculated from the start point and the destination, or when the passing target is passed, Recalculate the travel route from the current position and destination.

側方距離取得プログラム302bは、計測装置100から取得したすれ違い対象情報に含まれる特徴ベクトルFと最も近似する特徴ベクトルを求め、求めた特徴ベクトルを含むクラスの平均ベクトルを選択(検出)し、選択した平均ベクトルを用いて予測される側方距離d(t+1)を取得するためのプログラムである。   The lateral distance acquisition program 302b obtains a feature vector that is closest to the feature vector F included in the passing target information obtained from the measurement apparatus 100, selects (detects) the average vector of the class including the obtained feature vector, and selects This is a program for obtaining the predicted lateral distance d (t + 1) using the average vector.

目標位置算出プログラム302cは、側方距離取得プログラム302bに従って取得された側方距離d(t+1)を用いて、時刻t+1における移動体10が移動するべき目標位置を算出するためのプログラムである。   The target position calculation program 302c is a program for calculating a target position at which the moving body 10 should move at time t + 1 using the side distance d (t + 1) acquired according to the side distance acquisition program 302b.

駆動制御プログラム302dは、移動経路算出プログラム302aに従って算出された移動経路に従って移動体10を移動させたり、目標位置算出プログラム302cに従って算出された目標位置に向けて移動体10を移動させたりするために、モータ22a、22bの駆動を制御するためのプログラムである。   The drive control program 302d moves the moving body 10 according to the movement path calculated according to the movement path calculation program 302a, or moves the moving body 10 toward the target position calculated according to the target position calculation program 302c. This is a program for controlling the driving of the motors 22a and 22b.

状態算出プログラム302eは、オドメトリによる計測値に基づいて、移動体10の位置および方向を算出し、後述する状態データ304fを記憶(更新)するためのプログラムである。   The state calculation program 302e is a program for calculating the position and direction of the moving body 10 based on the measurement values obtained by odometry and storing (updating) state data 304f described later.

なお、図示および詳細な説明は省略するが、プログラム記憶領域302には、他のコンピュータと通信するためのプログラムなども記憶される。   Although illustration and detailed description are omitted, the program storage area 302 also stores programs for communicating with other computers.

データ記憶領域304には、マップデータ304a、全特徴ベクトルデータ304b、スタート位置データ304c、目的地データ304d、移動経路データ304e、状態データ304f、すれ違い対象情報データ304g、側方距離データ304h、予測位置データ304i、直線データ304jおよび目標位置データ304kなどを記憶する。   The data storage area 304 includes map data 304a, all feature vector data 304b, start position data 304c, destination data 304d, movement route data 304e, state data 304f, passing target information data 304g, side distance data 304h, predicted position. Data 304i, straight line data 304j, target position data 304k, and the like are stored.

マップデータ304aは、移動体10を走行させる環境を真上から俯瞰的に見た2次元のマップについてのデータである。このマップは、世界座標系のマップである。たとえば、マップデータ304aは、予め生成されてコンピュータ12に入力されたり、コンピュータ12内部のHDD12cに予め記憶されたりして、移動制御処理を実行する際にRAM12bに記憶される。   The map data 304a is data about a two-dimensional map in which the environment in which the mobile object 10 is traveled is viewed from above. This map is a map in the world coordinate system. For example, the map data 304a is generated in advance and input to the computer 12, or stored in advance in the HDD 12c in the computer 12, and stored in the RAM 12b when executing the movement control process.

全特徴ベクトルデータ304bは、予め登録されたすべての特徴ベクトルについてのデータであって、相対距離D毎に、生成およびクラス分けされた複数の特徴ベクトルおよび当該複数の特徴ベクトルの平均ベクトルのデータを含む。図14に示すように、この全特徴ベクトルデータ304bは、相対距離D毎のデータベースを含む。具体的には、全特徴ベクトルデータ304bは、相対距離D=7(m)についての第1距離データベース310、相対距離D=6(m)についての第2距離データベース320、相対距離D=5(m)についての第3距離データベース330、相対距離D=4(m)についての第4距離データベース340、相対距離D=3(m)についての第5距離データベース350および相対距離D=2(m)についての第6距離データベース360を含む。   The total feature vector data 304b is data about all the feature vectors registered in advance, and data of a plurality of feature vectors generated and classified for each relative distance D and an average vector data of the plurality of feature vectors. Including. As shown in FIG. 14, the total feature vector data 304b includes a database for each relative distance D. Specifically, the total feature vector data 304b includes a first distance database 310 for the relative distance D = 7 (m), a second distance database 320 for the relative distance D = 6 (m), and a relative distance D = 5 ( a third distance database 330 for m), a fourth distance database 340 for relative distance D = 4 (m), a fifth distance database 350 for relative distance D = 3 (m), and a relative distance D = 2 (m) A sixth distance database 360 for.

第1距離データベース310は、さらに、第1種類特徴ベクトルデータ310a、第2種類特徴ベクトルデータ310b、…を含む。つまり、回避行動の種類(クラス)毎の複数の特徴ベクトルおよびその平均ベクトルについてのデータを含む。   The first distance database 310 further includes first type feature vector data 310a, second type feature vector data 310b,. That is, it includes data on a plurality of feature vectors and their average vectors for each type (class) of avoidance action.

図示等は省略するが、他の距離データベース(320−360)についても同様である。   Although illustration is omitted, the same applies to the other distance databases (320-360).

図13に戻って、スタート位置データ304cは、移動体10のスタート位置についてのデータ(2次元座標データ)である。目的地データ304dは、移動体10の最終的な目標位置である目的地についての2次元座標データである。たとえば、スタート位置および目的地は、他のコンピュータ(ホストコンピュータ)からコンピュータ12に入力される。   Returning to FIG. 13, the start position data 304 c is data (two-dimensional coordinate data) regarding the start position of the moving body 10. The destination data 304d is two-dimensional coordinate data regarding the destination which is the final target position of the mobile object 10. For example, the start position and the destination are input to the computer 12 from another computer (host computer).

移動経路データ304eは、移動経路算出プログラム302aに従って算出された移動経路についてのデータであって、たとえば、スタート位置または移動体10の現在位置から目的地に向けて順に並べられた複数の点(位置)の各々の2次元座標データ(データ群)である。   The movement route data 304e is data about a movement route calculated according to the movement route calculation program 302a, and includes, for example, a plurality of points (positions) arranged in order from the start position or the current position of the moving body 10 toward the destination. ) Of each two-dimensional coordinate data (data group).

状態データ304fは、状態算出プログラム302eに従って算出された移動体10の現在位置についての2次元座標データおよび移動体10の現在の向きについてのデータ(向きデータ)である。ただし、状態データ304fに含まれる2次元座標データおよび向きデータは、いずれも世界座標系に変換されたデータである。   The state data 304f is two-dimensional coordinate data about the current position of the moving body 10 calculated according to the state calculation program 302e and data about the current direction of the moving body 10 (orientation data). However, the two-dimensional coordinate data and the orientation data included in the state data 304f are both data converted into the world coordinate system.

すれ違い対象情報データ304gは、計測装置100から取得したすれ違い対象情報についてのデータである。側方距離データ304hは、側方距離取得プログラム302bに従って取得された側方距離d(t+1)についてのデータである。   The passing object information data 304g is data on passing object information acquired from the measuring apparatus 100. The side distance data 304h is data on the side distance d (t + 1) acquired according to the side distance acquisition program 302b.

予測位置データ304iは、時刻t+1において予測されるすれ違い対象の位置についての2次元座標データである。直線データ304jは、時刻t+1において移動体10が移動するべき点(位置)を含む直線(図12では、L3)についてのデータである。目標位置データ304kは、時刻t+1において移動体10が存在するべき移動後の位置(目標位置)の2次元座標データである。   The predicted position data 304i is two-dimensional coordinate data regarding the position of the passing target predicted at time t + 1. The straight line data 304j is data about a straight line (L3 in FIG. 12) including a point (position) to which the moving body 10 should move at time t + 1. The target position data 304k is two-dimensional coordinate data of a position after movement (target position) where the moving body 10 should exist at time t + 1.

なお、図示は省略するが、データ記憶領域304には、移動制御プログラムの実行に必要な他のデータが記憶されたり、カウンタ(タイマ)やフラグが設けられたりする。   Although not shown, the data storage area 304 stores other data necessary for executing the movement control program, and is provided with a counter (timer) and a flag.

図15および図16は、図2に示したCPU12aの移動制御処理のフロー図である。スタート位置および目的地が入力されると、図15に示すように、CPU12aは移動制御処理を開始し、ステップS1で、移動経路を算出する。ここでは、CPU12aは、マップデータ304aを参照し、一般的な経路計画に従って、入力されたスタート位置および目的地を結ぶ移動経路を算出し、対応する移動経路データ304eをRAM12bに記憶する。   15 and 16 are flowcharts of the movement control process of the CPU 12a shown in FIG. When the start position and the destination are input, as shown in FIG. 15, the CPU 12a starts the movement control process, and calculates the movement route in step S1. Here, the CPU 12a refers to the map data 304a, calculates a travel route connecting the input start position and destination according to a general route plan, and stores the corresponding travel route data 304e in the RAM 12b.

次のステップS3では、ステップS1で算出した移動経路に従って移動するように、移動体10の移動を開始する。つまり、CPU12aは、移動体10を移動経路に従って移動させるように、モータ22a、22bの駆動を制御する。以下、移動体10を移動させる場合について同様である。   In the next step S3, the movement of the moving body 10 is started so as to move according to the movement route calculated in step S1. That is, the CPU 12a controls the driving of the motors 22a and 22b so as to move the moving body 10 along the movement path. The same applies to the case where the moving body 10 is moved.

なお、詳細な説明は省略するが、移動体10の位置および向きは移動制御処理とは別のフローで追跡されており、移動体10が移動される度に、状態データ304fが更新される。   Although detailed description is omitted, the position and orientation of the moving body 10 are tracked by a flow different from the movement control process, and the state data 304f is updated each time the moving body 10 is moved.

続いて、ステップS5では、計測装置100からすれ違い対象情報を取得したかどうかを判断する。ステップS5で“NO”であれば、つまりすれ違い対象情報を取得していなければ、ステップS7で目的地に到達したかどうかを判断する。ここでは、CPU12aは、目的地データ304dと状態データ304fに含まれる移動体10の現在位置の2次元座標データが一致するまたはほぼ一致するかどうかを判断する。   Subsequently, in step S <b> 5, it is determined whether or not passing target information has been acquired from the measurement apparatus 100. If “NO” in the step S5, that is, if the passing target information is not acquired, it is determined whether or not the destination is reached in a step S7. Here, the CPU 12a determines whether or not the two-dimensional coordinate data of the current position of the moving object 10 included in the destination data 304d and the state data 304f match or substantially match.

ステップS7で“NO”であれば、つまり目的地に到達していなければ、そのままステップS5に戻る。したがって、移動体10は移動経路に沿って移動される。一方、ステップS7で“YES”であれば、つまり目的地に到達していれば、ステップS9で、移動を終了して、移動制御処理を終了する。ステップS9では、CPU12aは、たとえば、減速および停止するように、モータ22a、22bの駆動を制御する。   If “NO” in the step S7, that is, if the destination is not reached, the process returns to the step S5 as it is. Accordingly, the moving body 10 is moved along the moving path. On the other hand, if “YES” in the step S7, that is, if the destination has been reached, the movement is terminated in a step S9, and the movement control process is ended. In step S9, the CPU 12a controls the driving of the motors 22a and 22b so as to decelerate and stop, for example.

また、ステップS5で“YES”であれば、つまりすれ違い対象情報を取得すれば、ステップS11で、すれ違い対象情報に含まれる相対距離Dに応じて、データベースを選択する。つまり、全特徴ベクトルデータ304bに含まれる複数のデータベース(310−360)から相対距離Dに応じた1つのデータベースを選択する。   If “YES” in the step S5, that is, if the passing object information is acquired, the database is selected in a step S11 according to the relative distance D included in the passing object information. That is, one database corresponding to the relative distance D is selected from a plurality of databases (310-360) included in all feature vector data 304b.

続くステップS13では、選択したデータベースから、すれ違い対象情報に含まれるすれ違い対象の特徴ベクトルFに最も近似する特徴ベクトルを求める。そして、ステップS14で、ステップS13で求めた特徴ベクトルを含むクラスを求める。   In the subsequent step S13, a feature vector that most closely approximates the feature vector F of the passing target included in the passing target information is obtained from the selected database. In step S14, a class including the feature vector obtained in step S13 is obtained.

続いて、図16に示すように、ステップS15で、後述する目標位置算出処理(図17参照)を実行する。次のステップS17では、算出された目標位置に向けて移動体10を移動させる。そして、ステップS19で、目的地に到達したかどうかを判断する。この判断処理は、上述したステップS7と同じである。   Subsequently, as shown in FIG. 16, a target position calculation process (see FIG. 17) described later is executed in step S15. In the next step S17, the moving body 10 is moved toward the calculated target position. In step S19, it is determined whether or not the destination has been reached. This determination process is the same as step S7 described above.

このステップS19で“YES”であれば、図15に示したステップS9に進むが、“NO”であれば、ステップS21で、すれ違い対象とすれ違ったかどうかを判断する。ここでは、CPU12aは、計測装置100からすれ違い対象とすれ違ったことの通知を受けたかどうかを判断する。   If “YES” in this step S19, the process proceeds to the step S9 shown in FIG. 15, but if “NO”, it is determined whether or not a passing object is passed in a step S21. Here, the CPU 12a determines whether or not it has been notified from the measuring apparatus 100 that it has passed as a passing target.

ステップS21で“NO”であれば、つまりすれ違い対象とすれ違っていなければ、ステップS23で、計測装置100からすれ違い対象情報を取得したかどうかを判断する。つまり、ここでは、CPU12aは、相対距離Dが所定距離変化したことにより、更新されたすれ違い対象情報を計測装置100から取得したどうかを判断するのである。   If “NO” in the step S21, that is, if the passing object is not passed, it is determined whether or not the passing object information is acquired from the measuring apparatus 100 in a step S23. That is, here, the CPU 12a determines whether or not the updated passing target information has been acquired from the measuring device 100 because the relative distance D has changed by a predetermined distance.

ステップS23で“NO”であれば、ステップS15に戻る。一方、ステップS23で“YES”であれば、図15に示したステップS11に戻る。したがって、所定距離変化した相対距離Dに応じたデータベースから、更新された特徴ベクトルFに最も近似する特徴ベクトルが求められ、当該特徴ベクトルを含むクラスが選択されるのである。   If “NO” in the step S23, the process returns to the step S15. On the other hand, if “YES” in the step S23, the process returns to the step S11 shown in FIG. Therefore, a feature vector that is closest to the updated feature vector F is obtained from the database corresponding to the relative distance D that has changed by a predetermined distance, and a class that includes the feature vector is selected.

また、ステップS21で“YES”であれば、つまりすれ違い対象とすれ違っていれば、ステップS25で、移動経路を算出し直す。つまり、CPU12aは、マップデータ304aを参照して、移動体10の現在位置から目的地までの移動経路を算出する。そして、ステップS27で、ステップS25で算出し直した移動経路に沿って目的地に向けて移動を継続し、図15に示したステップS5に戻る。   If “YES” in the step S21, that is, if a passing object is passed, the moving route is recalculated in a step S25. That is, the CPU 12a refers to the map data 304a and calculates a movement route from the current position of the moving body 10 to the destination. In step S27, the movement is continued toward the destination along the movement route recalculated in step S25, and the process returns to step S5 shown in FIG.

図17は、図16のステップS15に示した目標位置算出処理を示すフロー図である。図17に示すように、CPU12aは、目標位置算出処理を開始すると、ステップS51で、ステップS14で求めたクラスの平均ベクトルを用いて、上述したように、側方距離(t+1)を取得する。   FIG. 17 is a flowchart showing the target position calculation process shown in step S15 of FIG. As shown in FIG. 17, when starting the target position calculation process, the CPU 12a acquires the side distance (t + 1) in step S51 using the class average vector obtained in step S14 as described above.

次のステップS53では、すれ違い対象の時刻t+1の予測位置(図11および図12では、点N)を算出する。算出された予測位置についての予測位置データ304iはデータ記憶領域304に記憶される。ただし、現在時刻はtである。この予測位置の算出は、上記の第1段階において説明したとおりである。   In the next step S53, the predicted position (point N in FIGS. 11 and 12) of the passing time t + 1 is calculated. Predicted position data 304 i for the calculated predicted position is stored in the data storage area 304. However, the current time is t. The calculation of the predicted position is as described in the first stage.

続くステップS55では、すれ違い対象の予測位置から移動体10が移動するべき位置を含む直線(図12では、L3)を算出する。この直線L3の算出は、上記の第2段階において説明したとおりである。   In the subsequent step S55, a straight line (L3 in FIG. 12) including the position where the moving body 10 should move is calculated from the predicted position to be passed. The calculation of the straight line L3 is as described in the second stage.

そして、ステップS57で、移動体10が時刻t+1に到達可能な直線上の位置を目標位置(図12では、点K)として算出し、移動制御処理にリターンする。このステップS57における目標位置の算出は、上記の第3段階において説明したとおりである。   In step S57, the position on the straight line where the moving body 10 can reach time t + 1 is calculated as the target position (point K in FIG. 12), and the process returns to the movement control process. The calculation of the target position in step S57 is as described in the third stage.

この実施例によれば、すれ違い対象の回避行動の特徴ベクトルを予め取得し、特徴ベクトルに基づいてすれ違い対象の移動後の相対位置を予測し、予測した相対位置と目的地から移動体の目標位置を算出するので、すれ違い対象に通常の回避行動を行わせるように移動体を移動させることができる。つまり、適切な移動制御を行うことができる。したがって、安全であり、すれ違い対象の人間に安心感を与えることができる。また、必要以上に移動体を大回りさせることが無いため、効率良く移動体を移動させることができる。   According to this embodiment, the feature vector of the avoidance action of the passing object is acquired in advance, the relative position after the movement of the passing object is predicted based on the feature vector, and the target position of the moving object is calculated from the predicted relative position and the destination. Therefore, the moving body can be moved so as to cause the passing object to perform a normal avoidance action. That is, appropriate movement control can be performed. Therefore, it is safe and can give a sense of security to the person who is passing. Moreover, since the moving body is not rotated more than necessary, the moving body can be moved efficiently.

また、この実施例で説明したように、自律的に移動する移動体が適用される環境には、様々なすれ違い対象が存在する。上述したように、すれ違い対象には、他の車椅子や歩行者等が含まれるため、これらのすれ違い対象と移動体がすれ違う際のすれ違いの仕方は様々である。このように様々なすれ違い対象に対しても、それぞれの回避行動に応じた特徴ベクトルのクラスタが生成されるため、すれ違い時の移動を正確に予測することができる。このため、様々なすれ違い対象が存在する環境では特に有効である。   In addition, as described in this embodiment, there are various passing objects in an environment to which a moving body that moves autonomously is applied. As described above, since the passing object includes other wheelchairs and pedestrians, there are various ways of passing when the passing object and the moving object pass. As described above, since a cluster of feature vectors corresponding to each avoidance action is generated for various passing objects, movement at the time of passing can be accurately predicted. For this reason, it is particularly effective in an environment where various passing objects exist.

なお、この実施例では、移動体に対して対向するように移動するすれ違い対象とすれ違う場合について説明したが、これに限定される必要はない。上述したように、計測装置では、環境に設置された距離センサで計測された結果からすれ違い候補を検出し、すれ違い対象を決定する。このため、曲がり角のように、すれ違い対象(すれ違い候補)としての歩行者が移動体を視認(認識)できない場合であっても、計測装置では、当該歩行者と移動体がすれ違うことを予測することができる。したがって、移動体がすれ違い対象と対向する前段階から、歩行者を避けるように移動体を移動制御することにより、安全なすれ違いを実現することができるのである。   In this embodiment, the case has been described where the object is a passing object that moves so as to face the moving body. However, the present invention is not limited to this. As described above, the measurement device detects a passing candidate from a result measured by a distance sensor installed in the environment, and determines a passing target. For this reason, even if a pedestrian as a passing target (passing candidate) cannot visually recognize (recognize) a moving body, such as a corner, the measurement device predicts that the pedestrian and the moving body pass each other. Can do. Therefore, a safe passing can be realized by controlling the moving body so as to avoid a pedestrian from the previous stage where the moving body faces the passing object.

たとえば、図18には、見通しの悪いT字路において、移動体10が下方向(Yの方向)から直進し、歩行者のようなすれ違い対象がT字路の右方向(Zの方向)から直進する場合について説明する。なお、図18(図19(A)および(B)も同じ)では、環境に設けたセンサ(距離センサ104)は丸印で示してある。   For example, in FIG. 18, in a T-shaped road with poor visibility, the moving body 10 goes straight from the lower direction (Y direction), and a passing object such as a pedestrian is from the right direction (Z direction) of the T-shaped road. The case of going straight will be described. In FIG. 18 (FIGS. 19A and 19B are the same), the sensor (distance sensor 104) provided in the environment is indicated by a circle.

このような曲がり角がある場所では、すれ違い対象としての歩行者は、移動の初期の段階では、壁によって視界を遮られるため、移動体10の存在を認識することができない。したがって、移動体10とすれ違い候補の距離(相対距離)が或る程度短くなっても、すれ違い候補としての歩行者が移動体10を認識できないため、すれ違い対象が決定されず、側方距離に基づく移動制御は実行されない。   In a place where there is such a corner, a pedestrian as a passing object cannot recognize the presence of the moving object 10 because the field of view is blocked by the wall at an early stage of movement. Therefore, even if the distance (relative distance) between the moving object 10 and the passing candidate is shortened to some extent, the pedestrian as the passing candidate cannot recognize the moving object 10, so the passing object is not determined and is based on the lateral distance. Movement control is not executed.

しかしながら、移動体10が自律走行する環境には複数の距離センサ104が配置され、環境に存在する歩行者等は検出可能である。つまり、計測装置100で、すれ違い候補を検出したり、すれ違い対象を決定したりすることは可能である。   However, a plurality of distance sensors 104 are arranged in an environment where the moving body 10 autonomously travels, and a pedestrian or the like existing in the environment can be detected. That is, the measurement apparatus 100 can detect a passing candidate or determine a passing object.

したがって、かかる場合には、歩行者等のすれ違い対象が移動体10を認識できなくても、側方距離に基づく移動制御を行うことにより、歩行者等のすれ違い対象との衝突をさけ、安全にすれ違うことができるようにしてもよい。   Therefore, in such a case, even if a passing object such as a pedestrian cannot recognize the moving body 10, by performing movement control based on the lateral distance, a collision with a passing object such as a pedestrian can be avoided safely. You may be able to pass each other.

たとえば、図18におけるようなT字路において、移動体10がZ方向に向けて移動する場合には、すれ違い対象としての歩行者はその移動方向に応じて大きく2種類の異なる回避行動を取ると考えられる。   For example, when the moving body 10 moves in the Z direction on a T-shaped road as shown in FIG. 18, if the pedestrian as a passing target takes two different types of avoidance actions depending on the moving direction, Conceivable.

図19(A)に示すように、すれ違い対象としての歩行者がX方向に移動する場合には、歩行者は移動体10を避けるように右寄りに進路を取ることが予測される。これは同様の状況で左側に避ける事例が少ないため、それを反映した予測結果が得られるためである。したがって、上述の実施例の移動制御に基づいて、移動体10は互いに認識する前の段階から、右寄りに進路を取りつつ、Z方向に移動することができる。   As shown in FIG. 19A, when a pedestrian as a passing object moves in the X direction, it is predicted that the pedestrian takes a course to the right so as to avoid the moving body 10. This is because there are few cases to avoid on the left side in the same situation, and a prediction result reflecting it is obtained. Therefore, based on the movement control of the above-described embodiment, the moving body 10 can move in the Z direction while taking a course toward the right from the stage before recognizing each other.

また、すれ違い対象としての歩行者がY方向に移動する場合いは、歩行者は移動体10を避けるために、右寄りまたは左寄りに進路を取ることが予測される。ここでは、図19(B)では、左寄りに進路を取る場合について示してある。このような場合であっても、事前に特徴ベクトルを取得することにより、上述の実施例の移動制御に従って、右寄りまたは左寄りに進路を取るすれ違い対象に対して適切に移動体10を移動させることができる。   Further, when a pedestrian as a passing object moves in the Y direction, it is predicted that the pedestrian takes a course toward the right side or the left side in order to avoid the moving body 10. Here, FIG. 19B shows a case where the path is taken to the left. Even in such a case, by acquiring the feature vector in advance, it is possible to appropriately move the moving body 10 with respect to the passing target that takes a course to the right or left according to the movement control of the above-described embodiment. it can.

なお、この実施例では、移動制御装置としても機能するコンピュータを移動体に搭載するようにしたが、これに限定される必要はない。当該コンピュータを移動体の外部に設けて、移動制御のための制御データのみを移動体に送信するようにしてもよい。ただし、制御データは、算出した移動経路のデータ、移動開始および停止の指示、およびすれ違い対象とすれ違う場合の目標位置のデータを意味する。   In this embodiment, a computer that also functions as a movement control device is mounted on the moving body. However, the present invention is not limited to this. The computer may be provided outside the moving body, and only control data for movement control may be transmitted to the moving body. However, the control data means the calculated movement route data, the movement start and stop instructions, and the target position data in the case of passing each other.

また、この実施例では、移動体の一例として電気車椅子を示したが、自律走行するロボットを用いることもできる。この自律走行するロボットの例としては、本件の出願人が開発したロボビー(登録商標)を用いることができる。   In this embodiment, an electric wheelchair is shown as an example of a moving body, but an autonomously traveling robot can also be used. As an example of this autonomously traveling robot, Robbie (registered trademark) developed by the present applicant can be used.

さらに、この実施例では、環境に設けられた距離センサを含む計測装置を設けて、計測装置で、すれ違い候補およびすれ違い対象を検出および追跡するようにするとともに、すれ違い対象情報を生成して移動体に送信するようにしたが、これに限定される必要はない。計測装置から距離データを取得して、移動体側で、すれ違い候補およびすれ違い対象を検出および追跡するとともに、すれ違い対象情報を生成するようにしてもよい。   Furthermore, in this embodiment, a measurement device including a distance sensor provided in the environment is provided so that the measurement device can detect and track a passing candidate and a passing target, and generate a passing target information to generate a moving object. However, the present invention is not limited to this. The distance data may be acquired from the measurement device, and the passing candidate and the passing target may be detected and tracked on the moving body side, and the passing target information may be generated.

さらにまた、この実施例では、移動体のコンピュータ(CPU)で、図15−図17に示した移動制御処理および目標位置算出処理を実行するようにしたが、これに限定される必要はない。これらの処理を計測装置のコンピュータで実行し、移動体の移動制御のための制御データを移動体に送信するようにしてもよい。この場合、計測装置のコンピュータが移動体の移動制御装置および経路算出装置として機能する。ただし、移動データは、上述したように、算出した移動経路のデータ、移動開始および停止の指示、およびすれ違い対象とすれ違う場合の目標位置のデータを意味する。したがって、移動体は、計測装置のコンピュータからの移動の開始指示に従って移動を開始し、取得した移動経路に沿って移動し、計測装置のコンピュータから目標位置が与えられると、移動経路に拘わらず目標位置に向けて移動し、計測装置のコンピュータからの移動の停止指示に従って移動を終了する。また、移動体は、移動中に、更新された(計算し直された)移動経路のデータを計測装置のコンピュータから取得すると、新たに取得した移動経路に沿って移動する。   Furthermore, in this embodiment, the movement control process and the target position calculation process shown in FIGS. 15 to 17 are executed by the computer (CPU) of the moving body, but the present invention is not limited to this. These processes may be executed by a computer of the measuring device, and control data for movement control of the moving body may be transmitted to the moving body. In this case, the computer of the measuring device functions as a movement control device and a route calculation device for the moving body. However, as described above, the movement data means calculated movement route data, movement start and stop instructions, and target position data when passing each other. Accordingly, the moving body starts moving according to the movement start instruction from the computer of the measuring device, moves along the acquired moving route, and when the target position is given from the computer of the measuring device, the target moves regardless of the moving route. It moves toward the position and ends the movement according to the movement stop instruction from the computer of the measuring device. In addition, when the moving body acquires updated (recalculated) movement path data from the computer of the measuring device during movement, the moving body moves along the newly acquired movement path.

なお、この実施例では、クラス分けした複数の特徴ベクトルおよびそれらの平均ベクトルを記憶しておき、今回のすれ違い対象の特徴ベクトルに近似する特徴ベクトルを求めて、求めた特徴ベクトルを含むクラスの平均ベクトルを用いて、当該すれ違い対象の予測位置を求めるようにしたが、これに限定される必要はない。たとえば、クラス分けして複数の特徴ベクトルの平均ベクトルのみを記憶しておき、今回のすれ違い対象の特徴ベクトルに近似する平均ベクトルを用いて、当該すれ違い対象の予測位置を求めるようにしてもよい。   In this embodiment, a plurality of classified feature vectors and their average vectors are stored, a feature vector that approximates the current feature vector of the passing object is obtained, and an average of the classes including the obtained feature vectors is obtained. Although the vector is used to determine the predicted position of the passing object, it is not necessary to be limited to this. For example, only the average vector of a plurality of feature vectors may be stored by classification, and the predicted position of the passing target may be obtained using an average vector that approximates the current passing target feature vector.

なお、この実施例で示した具体的な数値は単なる一例であり、限定されるべきではなく、実施される製品等に応じて適宜変更可能である。   It should be noted that the specific numerical values shown in this embodiment are merely examples, and should not be limited, and can be appropriately changed according to the product to be implemented.

1 …移動体制御システム
10 …移動体
12、102 …コンピュータ
12a …CPU
12b …RAM
12c …HDD
16 …操作レバー
18a、18b、104 …距離センサ
20a、20b …モータドライバ
22a、22b …モータ
24a、24b …エンコーダ
32a、32b …前輪
34a、34b …後輪
100 …計測装置
DESCRIPTION OF SYMBOLS 1 ... Mobile body control system 10 ... Mobile body 12, 102 ... Computer 12a ... CPU
12b RAM
12c HDD
16 ... Operation levers 18a, 18b, 104 ... Distance sensors 20a and 20b ... Motor drivers 22a and 22b ... Motors 24a and 24b ... Encoders 32a and 32b ... Front wheels 34a and 34b ... Rear wheels 100 ... Measuring devices

Claims (3)

自律走行する移動体を移動制御する移動体制御装置であって、
前記移動体とすれ違う不特定多数のすれ違い対象の各々の回避行動についての特徴ベクトルを、当該移動体と当該不特定多数のすれ違い対象との相対距離毎に生成された特徴ベクトルの集合にクラスタリングし、当該相対距離毎に、クラスタリングした各クラスの複数の特徴ベクトルおよび当該複数の特徴ベクトルの平均ベクトルのデータベースを予め記憶した記憶手段、
前記記憶手段から前記移動体と今回のすれ違い対象との相対距離に応じたデータベースを選択し、当該データベースから、前記今回のすれ違い対象の現在までの特徴ベクトルに近似する特徴ベクトルを含むクラスを求め、当該クラスの平均ベクトルを用いて、所定時間後の予測位置の前記移動体に対する前記今回のすれ違い対象の当該所定時間後の相対位置を予測する位置予測手段、
前記位置予測手段によって予測された相対位置と前記移動体の目的地に基づいて当該移動体の目標位置を算出する目標位置算出手段、および
前記目標位置算出手段によって算出された目標位置に前記移動体を移動させる制御手段を備える、移動体制御装置。
A mobile control device that controls the movement of a mobile that travels autonomously,
Wherein the feature vector for the moving object and passing each other each of avoidance behavior of an unspecified number of passing interest, clustering a set of relative distance feature vectors generated for each of the the mobile body and the unspecified number of passing object Storage means for storing in advance a database of a plurality of feature vectors of each class clustered and an average vector of the plurality of feature vectors for each relative distance;
Select a database corresponding to the relative distance between the moving object and the current passing object from the storage means, and obtain a class including a feature vector that approximates the current feature vector of the current passing object from the database, Position predicting means for predicting a relative position after the predetermined time of the current passing target with respect to the moving body at the predicted position after the predetermined time, using an average vector of the class;
Target position calculating means for calculating a target position of the moving body based on the relative position predicted by the position predicting means and the destination of the moving body; and the moving body at the target position calculated by the target position calculating means. Bei El control means for moving the mobile control unit.
自律走行する移動体とすれ違う不特定多数のすれ違い対象の各々の回避行動についての特徴ベクトルを、当該移動体と当該不特定多数のすれ違い対象との相対距離毎に生成された特徴ベクトルの集合にクラスタリングし、当該相対距離毎に、クラスタリングした各クラスの複数の特徴ベクトルおよび当該複数の特徴ベクトルの平均ベクトルのデータベースを予め記憶した記憶手段を備え、前記移動体を移動制御する移動体制御装置のコンピュータによって実行される移動体制御プログラムであって、
前記コンピュータのプロセッサに、
前記記憶手段から前記移動体と今回のすれ違い対象との相対距離に応じたデータベースを選択し、当該データベースから、前記今回のすれ違い対象の現在までの特徴ベクトルに近似する特徴ベクトルを含むクラスを求め、当該クラスの平均ベクトルを用いて、所定時間後の予測位置の前記移動体に対する前記今回のすれ違い対象の当該所定時間後の相対位置を予測する位置予測ステップ、
前記位置予測ステップにおいて予測した相対位置と前記移動体の目的地に基づいて当該移動体の目標位置を算出する目標位置算出ステップ、および
前記目標位置算出ステップにおいて算出した目標位置に前記移動体を移動させる制御ステップを実行させる、移動体制御プログラム。
The feature vector for each of the avoidance behavior of the unspecified number of passing objects moving body and passing each other to autonomous, the set of feature vectors generated for each relative distance between the mobile body and the unspecified number of passing object A moving body control apparatus comprising a storage unit that performs clustering and stores in advance a database of a plurality of feature vectors of each class and an average vector of the plurality of feature vectors for each relative distance, and controls movement of the moving body A mobile control program executed by a computer,
In the processor of the computer,
Select a database corresponding to the relative distance between the moving object and the current passing object from the storage means, and obtain a class including a feature vector that approximates the current feature vector of the current passing object from the database, A position prediction step of predicting a relative position after the predetermined time of the current passing target with respect to the moving body of the predicted position after a predetermined time, using an average vector of the class;
A target position calculating step of calculating a target position of the moving body based on the relative position predicted in the position predicting step and a destination of the moving body; and moving the moving body to the target position calculated in the target position calculating step to perform the control step of the mobile control program.
自律走行する移動体とすれ違う不特定多数のすれ違い対象の各々の回避行動についての特徴ベクトルを、当該移動体と当該不特定多数のすれ違い対象との相対距離毎に生成された特徴ベクトルの集合にクラスタリングし、当該相対距離毎に、クラスタリングした各クラスの複数の特徴ベクトルおよび当該複数の特徴ベクトルの平均ベクトルのデータベースを予め記憶した記憶手段を備え、前記移動体を移動制御する移動体制御装置の移動体制御方法であって、
前記移動体制御装置のコンピュータは、
(a)前記記憶手段から前記移動体と今回のすれ違い対象との相対距離に応じたデータベースを選択し、当該データベースから、前記今回のすれ違い対象の現在までの特徴ベクトルに近似する特徴ベクトルを含むクラスを求め、当該クラスの平均ベクトルを用いて、所定時間後の予測位置の前記移動体に対する前記今回のすれ違い対象の当該所定時間後の相対位置を予測するステップ、
(b)前記ステップ(a)において予測した相対位置と前記移動体の目的地に基づいて当該移動体の目標位置を算出するステップ、および
(c)前記ステップ(b)において算出した目標位置に前記移動体を移動させるステップを含む、移動体制御方法。
The feature vector for each of the avoidance behavior of the unspecified number of passing objects moving body and passing each other to autonomous, the set of feature vectors generated for each relative distance between the mobile body and the unspecified number of passing object A moving body control apparatus comprising a storage unit that performs clustering and stores in advance a database of a plurality of feature vectors of each class and an average vector of the plurality of feature vectors for each relative distance, and controls movement of the moving body A moving body control method comprising:
The computer of the mobile control device is:
(A) A class including a feature vector that approximates the current feature vector of the current passing target from the database by selecting a database corresponding to the relative distance between the moving object and the current passing target from the storage unit. And using the average vector of the class, predicting the relative position after the predetermined time of the current passing target with respect to the moving body of the predicted position after the predetermined time,
(B) calculating a target position of the moving body based on the relative position predicted in the step (a) and the destination of the moving body, and (c) adding the target position calculated in the step (b) to the target position A moving body control method including a step of moving a moving body.
JP2014004009A 2014-01-14 2014-01-14 MOBILE BODY CONTROL DEVICE, MOBILE BODY CONTROL PROGRAM, AND MOBILE BODY CONTROL METHOD Active JP6299957B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014004009A JP6299957B2 (en) 2014-01-14 2014-01-14 MOBILE BODY CONTROL DEVICE, MOBILE BODY CONTROL PROGRAM, AND MOBILE BODY CONTROL METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014004009A JP6299957B2 (en) 2014-01-14 2014-01-14 MOBILE BODY CONTROL DEVICE, MOBILE BODY CONTROL PROGRAM, AND MOBILE BODY CONTROL METHOD

Publications (2)

Publication Number Publication Date
JP2015132980A JP2015132980A (en) 2015-07-23
JP6299957B2 true JP6299957B2 (en) 2018-03-28

Family

ID=53900127

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014004009A Active JP6299957B2 (en) 2014-01-14 2014-01-14 MOBILE BODY CONTROL DEVICE, MOBILE BODY CONTROL PROGRAM, AND MOBILE BODY CONTROL METHOD

Country Status (1)

Country Link
JP (1) JP6299957B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018198870A (en) * 2017-05-29 2018-12-20 国立研究開発法人理化学研究所 Evaluation device, evaluation method, program, and information recording media
JP2019079247A (en) * 2017-10-24 2019-05-23 日本電信電話株式会社 Mobile body control device, mobile body control method and mobile body control system
JP7480698B2 (en) 2020-12-24 2024-05-10 トヨタ自動車株式会社 AUTONOMOUS MOBILITY SYSTEM, AUTONOMOUS MOBILITY METHOD, AND AUTONOMOUS MOBILITY PROGRAM
CN114104006A (en) * 2022-01-28 2022-03-01 阿里巴巴达摩院(杭州)科技有限公司 Method and device for automatically driving vehicle to realize vehicle crossing by mistake

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4978494B2 (en) * 2008-02-07 2012-07-18 トヨタ自動車株式会社 Autonomous mobile body and control method thereof
JP2009223632A (en) * 2008-03-17 2009-10-01 Hitachi Ltd Autonomous mobile device and autonomous mobile device system
JP5318623B2 (en) * 2009-03-26 2013-10-16 株式会社国際電気通信基礎技術研究所 Remote control device and remote control program
JP2011220904A (en) * 2010-04-13 2011-11-04 Advanced Telecommunication Research Institute International Position detection system
JP5768273B2 (en) * 2011-03-25 2015-08-26 株式会社国際電気通信基礎技術研究所 A robot that predicts a pedestrian's trajectory and determines its avoidance behavior

Also Published As

Publication number Publication date
JP2015132980A (en) 2015-07-23

Similar Documents

Publication Publication Date Title
JP6882296B2 (en) Autonomous visual navigation
US20200307561A1 (en) System and method for radar cross traffic tracking and maneuver risk estimation
JP5112666B2 (en) Mobile device
EP3927588A1 (en) Motion prediction based on appearance
US9020682B2 (en) Autonomous mobile body
JP2021524410A (en) Determining the drive envelope
US20220169245A1 (en) Information processing apparatus, information processing method, computer program, and mobile body device
US11661084B2 (en) Information processing apparatus, information processing method, and mobile object
JP6202517B2 (en) Map creation device, map creation program, and map creation method
JP6094279B2 (en) TRACKING DEVICE, TRACKING PROGRAM, AND TRACKING METHOD
JP6299957B2 (en) MOBILE BODY CONTROL DEVICE, MOBILE BODY CONTROL PROGRAM, AND MOBILE BODY CONTROL METHOD
US20220253065A1 (en) Information processing apparatus, information processing method, and information processing program
US11904906B2 (en) Systems and methods for prediction of a jaywalker trajectory through an intersection
CN116249644A (en) Method and system for performing out-of-path inference by autonomous vehicles to determine viable paths through an intersection
US20230290153A1 (en) End-to-end systems and methods for streaming 3d detection and forecasting from lidar point clouds
KR20220107344A (en) Control system and method of mobile robots by obstacle
WO2023129890A1 (en) Integrated trajectory forecasting, error estimation, and vehicle handling when detecting an observed scenario
JP7256812B2 (en) How to Realize a Dynamic Cost Function for Autonomous Vehicles
US20230415739A1 (en) Systems and methods for controlling longitudinal acceleration based on lateral objects
US20230415736A1 (en) Systems and methods for controlling longitudinal acceleration based on lateral objects
JP2020055490A (en) Travel control device, travel control method, and automatic traveling vehicle
US20230386326A1 (en) Systems and methods for detecting pedestrians with crosswalking or jaywalking intent
JP7278740B2 (en) Mobile control device
JP6156793B2 (en) POSITION ESTIMATION DEVICE, POSITION ESTIMATION PROGRAM, AND POSITION ESTIMATION METHOD
US20230415781A1 (en) Systems and methods for controlling longitudinal acceleration based on lateral objects

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170919

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180213

R150 Certificate of patent or registration of utility model

Ref document number: 6299957

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250