JP2017129909A - Moving body - Google Patents
Moving body Download PDFInfo
- Publication number
- JP2017129909A JP2017129909A JP2016006972A JP2016006972A JP2017129909A JP 2017129909 A JP2017129909 A JP 2017129909A JP 2016006972 A JP2016006972 A JP 2016006972A JP 2016006972 A JP2016006972 A JP 2016006972A JP 2017129909 A JP2017129909 A JP 2017129909A
- Authority
- JP
- Japan
- Prior art keywords
- user
- moving body
- memory
- obstacle
- avoidance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 claims description 9
- 230000002093 peripheral effect Effects 0.000 abstract description 24
- 230000015654 memory Effects 0.000 description 196
- 238000000034 method Methods 0.000 description 24
- 230000008569 process Effects 0.000 description 22
- 230000000694 effects Effects 0.000 description 20
- 238000010586 diagram Methods 0.000 description 8
- 238000013459 approach Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000000605 extraction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Abstract
Description
本発明は、移動体に関し、特に、障害物に遭遇した場合にも、ユーザの前方にて、ユーザの邪魔にならないように、ユーザに追従できる移動体に関するものである。 The present invention relates to a moving body, and more particularly to a moving body that can follow a user so as not to obstruct the user in front of the user even when an obstacle is encountered.
特許文献1には、周囲環境に基づいて、ユーザとの位置関係を決定し、その決定した位置関係に基づいて、ユーザのそばについて自律的に移動する自律移動装置が開示されている。この自律移動装置によれば、ユーザの追尾に加えて、追尾以外の移動形態をとることが可能となるので、ユーザの前方にて、ユーザに追従しつつ移動することができる。
しかしながら、特許文献1の自律移動装置では、ユーザの前方にてユーザに追従する場合、例えば、ユーザが行き止まり等の障害物に近づいていくと、当該移動装置は、ユーザに先駆けて障害物に近づくので、ユーザと障害物との間に挟まって、却ってユーザの動きを邪魔してしまうという問題点があった。
However, in the autonomous mobile device of
本発明は、上述した問題点を解決するためになされたものであり、障害物に遭遇した場合にも、ユーザの前方にて、ユーザの邪魔にならないように、ユーザに追従できる移動体を提供することを目的としている。 The present invention has been made in order to solve the above-described problems, and provides a moving body that can follow a user so as not to obstruct the user in front of the user even when an obstacle is encountered. The purpose is to do.
この目的を達成するために本発明の移動体は、ユーザの前方において、ユーザに追従するものであって、当該移動体を移動させる移動手段と、ユーザを検知するユーザ検知手段と、前記ユーザ検知手段により検知されたユーザの情報に基づいて、前記移動手段を制御して、当該移動体を移動させる移動制御手段と、周辺の環境を認識する周辺環境認識手段とを備え、前記移動制御手段は、前記ユーザ検知手段により検知されたユーザの情報に基づくユーザの進路に前記周辺環境認識手段により認識された障害物があると判断した場合、その障害物を回避したユーザの回避経路を空けるように当該移動体を移動させるものである。 In order to achieve this object, the moving body of the present invention follows the user in front of the user, and includes a moving means for moving the moving body, a user detecting means for detecting the user, and the user detection. A movement control means for controlling the movement means based on user information detected by the means to move the moving body; and a surrounding environment recognition means for recognizing the surrounding environment, the movement control means comprising: When it is determined that there is an obstacle recognized by the surrounding environment recognition means on the user's path based on the user information detected by the user detection means, the avoidance route of the user who avoids the obstacle is made free The moving body is moved.
請求項1の移動体によれば、移動制御手段は、ユーザ検知手段により検知されたユーザの情報に基づくユーザの進路に、周辺環境認識手段により認識された障害物があると判断した場合、その障害物を回避した回避経路を空けるように当該移動体を移動させる。即ち、当該移動体は回避経路を塞がないように移動する。よって、ユーザが、例えば行き止まり等の障害物に近づいた後、その障害物を回避した回避経路を進もうとした場合、当該移動体はかかる回避経路を塞がないように移動する。従って、当該移動体は、障害物に遭遇した場合にも、ユーザの前方にて、ユーザの邪魔にならないように、ユーザに追従できるという効果がある。
According to the mobile body of
請求項2の移動体によれば、請求項1の奏する効果に加え、次の効果を奏する。移動制御手段は、障害物の回避経路を空けるように当該移動体を移動させる場合に、当該移動体を障害物から第1所定値以上離れた位置に停止させる。よって、ユーザが、例えば行き止まり等の障害物に遭遇した場合にも、障害物と当該移動体との間には第1所定値以上の間隔が保たれるので、障害物の回避経路を、ユーザにとって十分に確保できるという効果がある。なお、第1所定値としては、ユーザの通過に支障を来さない長さであり、例えばユーザの肩幅または胴体の厚さに若干のマージン(例えば50cm)を加えた長さを例示できる。
According to the moving body of
請求項3の移動体によれば、請求項1又は2の奏する効果に加え、次の効果を奏する。移動制御手段は、ユーザ検知手段により検知されたユーザの情報に基づくユーザの進路に、周辺環境認識手段により認識された障害物があると判断した場合、ユーザの動きから、障害物の回避経路を算出する。よって、動作中のユーザにとって、自然で且つスムーズな回避経路を算出できるという効果がある。
According to the moving body of claim 3, in addition to the effect of
請求項4の移動体によれば、請求項3の奏する効果に加え、次の効果を奏する。移動制御手段は、障害物の回避経路を円弧状のものとして算出する。よって、該回避経路を、複雑な曲線や直線の組合せで構成する場合に比べて、容易に算出できるという効果がある。 According to the moving body of claim 4, in addition to the effect of claim 3, the following effect is obtained. The movement control means calculates the obstacle avoidance route as an arc. Therefore, there is an effect that the avoidance path can be easily calculated as compared with a case where the avoidance path is configured by a combination of complicated curves and straight lines.
請求項5の移動体によれば、請求項4の奏する効果に加え、次の効果を奏する。移動制御手段は、円弧状のものとして算出された経路のうち、その半径が最も大きいものを、障害物の回避経路とする。よって、ユーザにとって移動方向の変化が最も緩やかな経路を回避経路とできるので、その分、ユーザによる障害物の回避動作に伴う動作負担を軽減できるという効果がある。
According to the moving body of
請求項6の移動体によれば、請求項4又は5の奏する効果に加え、次の効果を奏する。円弧状のものとして算出された回避経路の半径が第2所定値以下である場合には、回避経路は当該移動体の位置を中心とした円弧に形成される。よって、移動制御手段は、その回避経路をユーザが移動する場合、ユーザの移動に合わせて当該移動体を回転させることで、当該移動体をユーザに追従させる。これにより、周囲に障害物が迫った状況下においても、回避経路を塞ぐことなく、当該移動体をユーザに追従させることができるという効果がある。なお、第2所定値としては、例えば1.0mを例示できる。或いは、第2所定値として、例えばユーザの肩幅または胴体の厚さに若干のマージン(例えば50cm)を加えた長さを例示することもできる。
According to the moving body of claim 6, in addition to the effect of
請求項7の移動体によれば、請求項4から6のいずれかの奏する効果に加え、次の効果を奏する。移動制御手段は、当該移動体と周辺環境認識手段により認識された障害物との間隔が第3所定値未満である場合には、当該移動体によるユーザの追従制御を停止する。当該移動体と障害物との間隔が第3所定値未満であれば、その間をユーザが通過しようとすると、ユーザが当該移動体や障害物に接触したり、或いはユーザに追従しようとする当該移動体がユーザや障害物に衝突したりして支障を来す。よって、かかる場合に、移動制御手段は、当該移動体によるユーザの追従制御を停止するので、当該移動体による無理なユーザ追従を防止できるという効果がある。なお、第3所定値としては、ユーザが移動する場合に最低限必要となる間隔を例示できる。具体的には、ユーザの肩幅や胴体の厚さを例示できる。 According to the moving body of claim 7, in addition to the effect of any one of claims 4 to 6, the following effect is achieved. When the distance between the moving body and the obstacle recognized by the surrounding environment recognition means is less than the third predetermined value, the movement control means stops the user's follow-up control by the moving body. If the distance between the moving body and the obstacle is less than a third predetermined value, the user will contact the moving body or the obstacle or follow the user if the user tries to pass between them. The body collides with a user or an obstacle, causing trouble. Therefore, in such a case, the movement control unit stops the user's follow-up control by the moving body, so that it is possible to prevent unreasonable user following by the moving body. An example of the third predetermined value is an interval that is minimum required when the user moves. Specifically, the shoulder width of the user and the thickness of the trunk can be exemplified.
請求項8の移動体によれば、請求項1から7のいずれかの奏する効果に加え、次の効果を奏する。一般に、人が移動する場合、その経路には、肩幅または胴体の厚み等の一定の幅が必要となる。ここで、移動制御手段は、ユーザの進路および回避経路が所定幅を有するものとして当該移動体の移動制御を行うので、ユーザが障害物や当該移動体と接触することなく移動できる進路や回避経路を確保できるという効果がある。なお、所定幅としては、例えばユーザの肩幅または胴体の厚さに若干のマージン(例えば50cm)を加えた長さを例示できる。 According to the moving body of the eighth aspect, in addition to the effect of any one of the first to seventh aspects, the following effect is achieved. Generally, when a person moves, a certain width such as a shoulder width or a trunk thickness is required for the path. Here, since the movement control means performs the movement control of the moving body assuming that the user's course and the avoidance path have a predetermined width, the path and the avoidance path that the user can move without contacting the obstacle or the moving body. There is an effect that can be secured. Examples of the predetermined width include a length obtained by adding a slight margin (for example, 50 cm) to the shoulder width of the user or the thickness of the trunk.
以下、本発明の好ましい実施形態について、添付図面を参照して説明する。まず、図1を参照して、本実施形態における移動体1の構成について説明する。図1は、移動体1およびユーザ2の外観図である。移動体1は、ユーザ2の前方にて、ユーザ2に対し適切な位置に移動して、ユーザ2に追従できる装置として機能する。なお、移動体1の移動範囲である「ユーザ2の前方」とは、例えばユーザ2の前方であって、ユーザ2を中心とする180度の範囲である。或いは、ユーザ2の視界の範囲内としてもよい。
Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. First, with reference to FIG. 1, the structure of the
図1に示すように、移動体1は、本体部11と、制御部12と、ユーザ認識センサ13と、周辺認識センサ14と、車輪15と、表示部16とを有して構成されている。本体部11は、略直方体状に形成され、本体部11内には制御部12が格納される。
As shown in FIG. 1, the moving
制御部12は、移動体1の各部を制御するための装置であり、ユーザ認識センサ13と、周辺認識センサ14とから取得した情報をもとに、移動体1の移動速度および移動方向を決定し、それに基づく移動指示を駆動部25(図2参照)を介して、各車輪15に対して行うものである。
The
ユーザ認識センサ13は、ユーザ2の画像を取得するカメラで構成され、本体部11の側面に設けられる。図1における2点鎖線で描いた三角形のエリアが、ユーザ認識センサ13の検出範囲である。なお、ユーザ認識センサ13の上下位置は、必ずしも固定ではなく、例えば、表示部16と本体部11との間で変更可能に構成して、ユーザ2の身長によらず、ユーザ2全体の画像が適切に取得できるようにしてもよい。
The
ユーザ認識センサ13は、ユーザ2の画像を取得すると、これを制御部12へ送信する。制御部12は、ユーザ認識センサ13で取得された画像を解析し、ユーザ2の位置とユーザ2が向いている方向とを算出する。このユーザ2の位置およびユーザ2が向いている方向は、移動体1の中心Cを原点(0,0)とした座標系で示す値とされる(以下「移動体座標系」と称す)。なお、ユーザ認識センサ13の水平方向の位置は、移動体1の中心Cからズレているので、制御部12は、その距離差を補正した上でユーザ2の位置を算出する。また、制御部12は、ユーザ認識センサ13で取得された画像を解析してユーザ2の両肩を検出し、その両肩間の距離、即ち肩幅を算出する。
When the
周辺認識センサ14は、移動体1の周辺画像を取得するものであり、複数のカメラで構成され(本実施形態では16個のカメラ)、本体部11の周囲に等間隔に設置される。制御部12は、周辺認識センサ14により取得された移動体1の周辺画像から、ユーザ2の進行経路up(図4参照)上に存在する障害物を検出し、その位置を算出する。
The
車輪15は、全方位への移動が可能な全方位車輪で構成され、移動体1の下部に設置される。これにより、移動体1は、全方位への移動をスムーズに行うことができる。車輪15は、駆動部25のモータ(図示せず)によって回転し、移動体1を移動させる。本実施形態では、3つの車輪15が設けられるが、車輪15の数は、必ずしも3つに限られず、適宜の数を採用できる。
The
表示部16は、LCDなどのディスプレイを有し、ディスプレイへの表示によって情報をユーザ2に伝達する装置であり、移動体1の上部に設けられる。図1に示す通り、表示部16のディスプレイは、ユーザ2に対向する面に設けられる。即ち、表示部16のディスプレイは、ユーザ認識センサ13と同方向に向けて配設される。また表示部16のディスプレイは、タッチパネルとして構成され、ユーザ2による操作を入力可能に構成される。表示部16は、HMI部26(図2参照)を介して、ユーザ2からの指示を移動体1に入力し、また移動体1の状態や移動経路などをディスプレイに表示する。
The
図2を参照して、移動体1の電気的構成について説明する。図2は、移動体1の電気的構成を示すブロック図である。制御部12は、移動体1の各部を制御するための装置であり、図2に示す通り、CPU20、ROM21及びRAM22を備え、これらがバスライン23を介して入出力ポート24にそれぞれ接続されている。また、入出力ポート24には、ユーザ認識センサ13、周辺認識センサ14、駆動部25、HMI部26がそれぞれ接続されている。
With reference to FIG. 2, the electrical configuration of the moving
CPU20は、バスライン23により接続された各部を制御する演算装置である。ROM21は、CPU20により実行される制御プログラム(例えば、図3のメイン処理)や固定値データ等を格納した書き換え不能な不揮発性メモリである。
The
RAM22は、CPU20が制御プログラム実行時に各種のワークデータやフラグ等を書き換え可能に記憶するためのメモリであり、ユーザ位置情報メモリ22aと、移動体位置情報メモリ22bと、障害物位置情報メモリ22cと、ユーザ幅メモリ22dと、ユーザ進行経路メモリ22eと、回避経路半径メモリ22fと、制御モードメモリ22gと、周辺環境情報メモリ22hとがそれぞれ設けられる。
The RAM 22 is a memory for the
ユーザ位置情報メモリ22aは、移動体1の移動制御で用いられるユーザ2の位置を記憶するメモリであり、X座標メモリ22a1とY座標メモリ22a2と方向メモリ22a3とを有する。X座標メモリ22a1、Y座標メモリ22a2、方向メモリ22a3の座標系は、いずれも前述した移動体座標系である。制御部12の電源投入時には、X座標メモリ22a1、Y座標メモリ22a2、方向メモリ22a3の値は、それぞれ「0」クリアされる。
The user
ユーザ認識センサ13によってユーザ2の画像の取得が行われると、制御部12によってその画像が解析され、ユーザ2の位置およびユーザの向いている向きが算出される。X座標メモリ22a1にはユーザ2の位置のX座標が格納され、Y座標メモリ22a2にはユーザ2の位置のY座標が格納される。方向メモリ22a3には、ユーザ2が向いている方向(単位:ラジアン)が格納される。その後、X座標メモリ22a1、Y座標メモリ22a2及び方向メモリ22a3の各値は、必要に応じてユーザ2の位置を原点(0,0)とした座標系(以下「ユーザ座標系」と称す)に変換され(図3のS10)、移動体1の移動制御に用いられる。
When the image of the
移動体位置情報メモリ22bは、移動体1の移動制御で用いられる移動体1の位置を記憶するメモリであり、X座標メモリ22b1とY座標メモリ22b2とを有する。X座標メモリ22b1、Y座標メモリ22b2の座標系は、いずれも前述した移動体座標系である。制御部12の電源投入時には、X座標メモリ22b1、Y座標メモリ22b2の値は、それぞれ「0」クリアされる。また、後述する図3のメイン処理の開始時(S1)に、X座標メモリ22b1とY座標メモリ22b2の値とに、それぞれ「0」が格納される。その後、X座標メモリ22b1及びY座標メモリ22b2の値は、必要に応じてユーザ2の位置を原点(0,0)としたユーザ座標系に変換され(図3のS10)、移動体1の移動制御に用いられる。
The moving body
障害物位置情報メモリ22cは、ユーザ進行経路メモリ22eに記憶される4つの頂点で示される帯状の領域(進行経路up(図4参照))に存在する、障害物の位置を記憶するメモリであり、X座標メモリ22c1とY座標メモリ22c2とを有する。X座標メモリ22c1、Y座標メモリ22c2の座標系は、いずれも前述した移動体座標系である。制御部12の電源投入時には、X座標メモリ22c1、Y座標メモリ22c2の値は、それぞれ「0」クリアされる。
The obstacle
周辺認識センサ14により移動体1の周辺画像の取得が行われると、制御部12はその移動体1の周辺画像から、ユーザ進行経路メモリ22eに記憶される4つの頂点で示される帯状の領域(進行経路up)に存在する障害物の位置を算出する。障害物が複数検出された場合は、それら障害物の位置と、ユーザ位置情報メモリ22aの値との距離が最も小さな障害物を選択する。X座標メモリ22c1には、その障害物の位置のX座標が格納され、Y座標メモリ22c2には、その障害物の位置のY座標が格納される。
When the peripheral image of the moving
本実施形態においては、障害物の検出を行う前にX座標メモリ22c1、Y座標メモリ22c2の値に、それぞれ「0」が設定される(メイン処理(図3)のS2)。これにより障害物位置情報メモリ22cの各値は、移動体1の位置を記憶する移動体位置情報メモリ22bの各値と同じ値となる。よって、障害物の検出が行われた後に、X座標メモリ22c1、Y座標メモリ22c2の値が共に「0」である場合は、制御部12は、障害物が検出されていないと判断する。なお、X座標メモリ22c1及びY座標メモリ22c2の値は、その後、必要に応じてユーザ2の位置を原点(0,0)としたユーザ座標系に変換され(図3のS10)、移動体1の移動制御に用いられる。
In the present embodiment, “0” is set to the values of the X coordinate memory 22c1 and the Y coordinate memory 22c2 before the obstacle is detected (S2 of the main process (FIG. 3)). Thereby, each value of the obstacle
ユーザ幅メモリ22dは、ユーザ2の肩幅を記憶するメモリである。制御部12の電源投入時には、ユーザ幅メモリ22dの値は「0」クリアされる。ユーザ認識センサ13によってユーザ2の画像が取得されると、制御部12によって、その画像が解析され、ユーザ2の両肩が検出される。そして、両肩間の長さが算出され、その値がユーザ幅メモリ22dに格納される。ユーザ幅メモリ22dの値は、ユーザ2の進行経路upや回避経路apの幅wpとして使用される(図4参照)。
The
ユーザ進行経路メモリ22eは、ユーザ2の進行経路upの帯状の領域を示す4つの頂点(Uplu,Upru,Upfl,Upfr)の座標(図4参照)を記憶するメモリである。制御部12の電源投入時に、ユーザ進行経路メモリ22eの4つの頂点の座標には「0」が設定され、ユーザ2の進行経路upの領域が未だ算出されていないことを示す。ユーザ認識センサ13より、ユーザ2の位置がユーザ位置情報メモリ22aに格納され、ユーザ2の肩幅がユーザ幅メモリ22dに格納された後、制御部12によって、ユーザ位置情報メモリ22aの値とユーザ幅メモリ22dの値とから、ユーザ2の進行経路upの領域が算出される。その算出されたユーザ2の進行経路upの帯状の領域を示す4つの頂点の座標(Uplu,Upru,Upfl,Upfr)が、ユーザ進行経路メモリ22eに格納される。
The user
回避経路半径メモリ22fは、ユーザ2の進行経路up上に存在する、障害物を回避するための回避経路apの半径を記憶するメモリである。本実施形態では、回避経路apは円弧状の経路して算出される。制御部12の電源投入時には、回避経路半径メモリ22fの値は「0」クリアされる。障害物位置情報メモリ22cの値から、ユーザ2の進行経路up上に障害物が存在すると判断された場合、制御部12は、その障害物位置情報メモリ22cの値と、ユーザ位置情報メモリ22aの値と、ユーザ幅メモリ22dの値とから、円弧状の回避経路apを算出する。その円弧の半径が回避経路半径メモリ22fへ格納される。なお、回避経路apの半径は、回避経路apが右回転の円弧状の場合に正の値として記憶され、左回転の円弧状の場合に負の値として記憶される。
The avoidance
制御モードメモリ22gは、移動体1の制御モードを記憶するためのメモリである。移動体1の制御モードには「前方追従モード」、「ターンモード」、「被補助モード」が設けられている。制御部12の電源投入時には、制御モードメモリ22gの値に「被補助モード」が設定される。
The
「前方追従モード」は、移動体1がユーザ2の前方にて、ユーザ2に対して適切な位置に移動して、ユーザ2に追従するモードである。ユーザ2の進行経路up上に障害物が存在しない場合や、回避経路半径メモリ22fの値が第2所定値より大きい場合は、制御モードメモリ22gに「前方追従モード」が設定される。
The “front tracking mode” is a mode in which the moving
「ターンモード」は、移動体1とユーザ2との相対角度を保ったまま、移動体1をその場で回転移動させて、ユーザ2に追従させるモードである。回避経路半径メモリ22fの値が第2所定値以下で、かつ移動体位置情報メモリ22bの値と、障害物位置情報メモリ22cとの距離の値が第3所定値以上の場合、制御モードメモリ22gに「ターンモード」が設定される。
The “turn mode” is a mode in which the moving
「被補助モード」は、移動体1を停止させた後に、ユーザ2の手動操作などによって、移動体1を移動させるモードである。移動体位置情報メモリ22bの値と、障害物位置情報メモリ22cの値との距離が第3所定値未満である場合、即ち、移動体1と障害物とが余りに接近した状態である場合に、制御モードメモリ22gに「被補助モード」が設定される。
“Assisted mode” is a mode in which the moving
なお、第2所定値および第3所定値としては、例えばいずれも1.0mを例示できる。かかる場合、回避経路apの半径(回避経路半径メモリ22fの値)が、1.0mより大きければ「前方追従モード」とされ、回避経路apの半径が1.0mであれば「ターンモード」とされ、更に回避経路apの半径が1.0m未満であれば「被補助モード」とされる。
As the second predetermined value and the third predetermined value, for example, 1.0 m can be exemplified. In such a case, if the radius of the avoidance route ap (value of the avoidance
また、これら第2所定値、第3所定値の各値は、必ずしもこれに限られるものではなく、例えばユーザ2の肩幅(ユーザ幅メモリ22dの値)に応じて変化する値としても良い。具体的には、ユーザ2の肩幅に、ある程度のマージン(例えば40〜50cm)を加えたものを第2所定値とし、ユーザ2の肩幅に小さめのマージン(例えば20〜50cm)を加えたものを第3所定値とするようにしても良い。更に、第2所定値と第3所定値とは、「第2所定値≧第3所定値」の関係を維持していれば、本実施例のように同じ値であっても良いし、異なる値であっても良い。第2所定値と第3所定値とが異なる値で構成されれば、「ターンモード」へ移行する範囲が大きくなる。
In addition, the values of the second predetermined value and the third predetermined value are not necessarily limited to this, and may be values that change according to, for example, the shoulder width of the user 2 (value of the
周辺環境情報メモリ22hは、周辺認識センサ14によって取得された、移動体1の周辺画像を記憶するメモリ領域である。制御部12の電源投入時には、周辺環境情報メモリ22hの全領域に「無効画像(具体的には「0」)」が設定される。周辺認識センサ14によって移動体1の周辺画像が取得されると、その周辺画像が周辺環境情報メモリ22hに記憶される。
The peripheral
駆動部25は、移動体1を移動させるための装置であり、車輪15および車輪15の駆動源となるモータ(図示せず)などから構成される。制御部12から移動信号が駆動部25へ入力されると、入力された信号に基づいてモータが回転し、当該モータの回転が動力となって車輪15が駆動し、移動体1を動作させる。
The
HMI部26は、ユーザ2へ情報を出力すると共に、ユーザ2による移動体1への指示を入力するためのインタフェイスである。前述した通り、ディスプレイとタッチパネルとを有した表示部16で構成される。HMI部26は、制御部12から入力された制御信号に応じて表示部16のディスプレイに情報を出力して表示する。一方、ユーザ2から表示部16のタッチパネルを経由してHMI部26に指示が入力されると、HMI部26は、当該入力に応じた制御信号を制御部12に出力する。移動体1が「被補助モード」にある場合に、ユーザ2はタッチパネルを介して移動体1を所望の位置に移動させる。
The
なお、ディスプレイ及びタッチパネルと共に、或いはこれらに代えて、音声を出力するスピーカや音声を入力するマイクをHMI部26に設けるようにしてもよい。この場合には、ディスプレイへの表示と共に或いはディスプレイへの表示に代えて、スピーカから出力される音声によって移動体1の情報がユーザ2に出力され、またタッチパネルへの入力と共に或いはタッチパネルへの入力に代えて、ユーザ2が発する音声をマイクから入力することによって移動体1への指示を行うことができる。
Note that a speaker for outputting sound and a microphone for inputting sound may be provided in the
次に、図3から図7を参照して、制御部12のCPU20で実行される処理について説明する。図3は、メイン処理のフローチャートである。メイン処理により、移動体1は、ユーザ2の進行経路upや、移動体1と障害物との距離、ユーザ2の回避経路apなどを算出し、それらに基づいて制御モードを設定する。制御モードが設定されると、移動体1は、その設定された制御モードに基づいて、移動体1の移動制御を行う。なお、メイン処理は100ms毎のインターバル割り込み処理により繰り返し実行される。
Next, processing executed by the
メイン処理では、まず移動体位置情報メモリ22bのX座標メモリ22b1と、Y座標メモリ22b2とにそれぞれ「0」を設定し(S1)、障害物位置情報メモリ22cのX座標メモリ22c1と、Y座標メモリ22c2とにそれぞれ「0」を設定する(S2)。
In the main process, first, “0” is set in each of the X coordinate memory 22b1 and the Y coordinate memory 22b2 of the moving body
次に、ユーザ認識センサ13からユーザ2の位置を取得し、そのX座標をユーザ位置情報メモリ22aのX座標メモリ22a1に、Y座標をY座標メモリ22a2に、ユーザ2が向いている方向を方向メモリ22a3に、それぞれ保存する(S3)。具体的には、ユーザ認識センサ13から、ユーザ2を含む画像を取得する。制御部12は、その画像をエッジ抽出およびパターン認識によってユーザ2を認識し、その位置と、ユーザ2が向いている方向とを取得する。このように取得されたユーザ2の位置をユーザ位置情報メモリ22aのX座標メモリ22a1、Y座標メモリ22a2に、ユーザ2が向いている方向を方向メモリ22a3にそれぞれ保存する。
Next, the position of the
次に、ユーザ認識センサ13からユーザ2の肩幅を取得し、ユーザ幅メモリ22dへ保存する(S4)。具体的には、ユーザ認識センサ13から、ユーザ2を含む画像を取得する。制御部12は、その画像をエッジ抽出およびパターン認識によって、ユーザ2の両肩を認識し、その両肩間の距離、即ちユーザ2の肩幅を算出する。算出された肩幅をユーザ幅メモリ22dへ保存する。なお、肩幅は、ユーザ位置情報メモリ22aの方向メモリ22a3の値に応じて、適宜補正した上で、ユーザ幅メモリ22dへ保存するようにしてもよい。
Next, the shoulder width of the
その後、周辺認識センサ14から移動体1の周辺画像を取得し、周辺環境情報メモリ22hへ保存する(S5)。また、ユーザ位置情報メモリ22aの値とユーザ幅メモリ22dの値とから、ユーザ2の進行経路upを算出し、ユーザ進行経路メモリ22eへ保存する(S6)。
Thereafter, a peripheral image of the moving
ここで、図4(a)を参照して、ユーザ2の進行経路upの算出およびユーザ進行経路メモリ22eへの値の保存(4座標の保存)について説明する。図4(a)は、ユーザ2の進行経路upと回避経路apとを示す図である。図4(a)において、ユーザ2の位置をPu(Xu,Yu)と表し、移動体1の位置をPm(Xm,Ym)と表す。図4(a)は、移動体1と、ユーザ2とが、三方を壁に囲まれた領域を移動している状態である。
Here, with reference to FIG. 4A, calculation of the travel route up of the
進行経路upは、経路の始点が位置Puで、幅wp、長さlpの矩形の領域として算出される。進行経路upの幅wpは、ユーザ幅メモリ22dに記憶されるユーザ2の肩幅とされる。この幅は、位置Puを中心に左右それぞれwp/2ずつ設けられる。進行経路upの方向は、ユーザ2が向いている方向、即ちユーザ位置情報メモリ22aの方向メモリ22a3の値の方向とされる。更に、進行経路upの長さlpとしては第4所定値が設定される。
The travel route up is calculated as a rectangular area having a width Pu and a length lp at the start point of the route Pu. The width wp of the travel path up is the shoulder width of the
なお、本実施形態において、第4所定値としては例えば2.0mを例示できる。しかし、必ずしもこれに限られるものではなく、第4所定値をユーザ2の歩行速度に応じて変化する値としても良い。具体的には、ユーザ2の歩行速度が速い場合には第4所定値を大きく、歩行速度が遅い場合には第4所定値を小さくしても良い。また、ユーザ2の歩行速度にある係数を乗じた値を第4所定値としても良い。更に、HMI部26を介して任意に設定した値を、第4所定値としてもよい。
In the present embodiment, the fourth predetermined value may be 2.0 m, for example. However, the present invention is not necessarily limited to this, and the fourth predetermined value may be a value that changes according to the walking speed of the
このように進行経路upは、位置Pu(ユーザ位置情報メモリ22aのX座標メモリ22a1、Y座標メモリ22a2の値)と、幅wp(ユーザ幅メモリ22dの値)と、ユーザ2が向いている方向(ユーザ位置情報メモリ22aの方向メモリ22a3)とによって算出される。これは、ユーザ2が、現在のユーザ2の向いている方向のまま移動した場合の、ユーザ2の進行経路upである。このように算出された、進行経路upの帯状の領域の4つの頂点(Uplu,Upru,Upfl,Upfr)の座標(4座標)が、ユーザ進行経路メモリ22eに保存される。
In this way, the travel path up includes the position Pu (the values of the X coordinate memory 22a1 and the Y coordinate memory 22a2 of the user
図3に戻る。S6の処理後、ユーザ位置情報メモリ22aの値とユーザ進行経路メモリ22eの値と周辺環境情報メモリ22hの値とから、ユーザ2の進行経路up上に存在する、ユーザ2に最も近い障害物を検索し、その障害物の位置を障害物位置情報メモリ22cへ保存する(S7)。
Returning to FIG. After the process of S6, the obstacle closest to the
ここで、図4(a)を参照して、障害物の位置の取得について説明する。図4(a)においては、ユーザ2の進行方向に壁が存在する。この壁の一部は、ユーザ2の進行経路upの領域内に存在している。そのため、ユーザ2が、現在のユーザ2の向いている方向のまま歩行すると、やがてこの壁に衝突する。即ち、この壁がユーザ2の歩行に対する障害物となる。従って、この場合、進行経路upの領域内に含まれている、壁の面に存在する全ての座標が障害物の位置の候補となる。
Here, the acquisition of the position of the obstacle will be described with reference to FIG. In FIG. 4A, there is a wall in the traveling direction of the
このように障害物の位置の候補が複数存在する場合は、障害物の位置とユーザ2の位置Puとの距離が最も小さいものが、障害物の位置とされる。即ち、現在のユーザ2の向いている方向のまま歩行して、最も早くユーザ2と接触する位置の座標が、障害物の位置とされる。図4(a)においては、進行経路upの領域内に存在する壁の面のうち、右端の位置Po(Xo,Yo)が障害物の位置となる。この障害物の位置のX座標が障害物位置情報メモリ22cのX座標メモリ22c1に、Y座標が障害物位置情報メモリ22cのY座標メモリ22c2にそれぞれ保存される。
When there are a plurality of obstacle position candidates as described above, the obstacle having the smallest distance between the obstacle position and the position Pu of the
一方、進行経路upの領域内に障害物が存在しない場合は、障害物位置情報メモリ22cのX座標メモリ22c1及びY座標メモリ22c2には座標が保存されないため、X座標メモリ22c1、Y座標メモリ22c2の値はそれぞれ、図3のS2の処理で設定された「0」のままとなる。
On the other hand, when there is no obstacle in the area of the traveling path up, the coordinates are not stored in the X coordinate memory 22c1 and the Y coordinate memory 22c2 of the obstacle
このように本実施形態では、ユーザ2の進行経路upの領域内でのみ、障害物の検索を行う。よって、ユーザ2の移動に対して、不要な領域への障害物の検索を行うことがないので、障害物検索の制御部12の処理負荷を小さくできる。
As described above, in the present embodiment, the obstacle search is performed only in the area of the travel route up of the
図3に戻る。S7の処理後、障害物位置情報メモリ22cの値が有効かを確認する(S8)。本実施形態において、制御部12は、障害物位置情報メモリ22cのX座標メモリ22c1、Y座標メモリ22c2のいずれかの値が「0」以外である場合、即ち障害物の位置が取得された場合には、有効であると判断する。
Returning to FIG. After the process of S7, it is confirmed whether the value of the obstacle
S8において、障害物位置情報メモリ22cの値が無効であると判断された場合(S8:No)、即ち障害物位置情報メモリ22cのX座標メモリ22c1、Y座標メモリ22c2の双方の値が「0」である場合には、ユーザ2の進行経路up上には何ら障害物が無いので、ユーザ2および移動体1の移動に支障はない。よって、かかる場合には、制御モードメモリ22gに「前方追従モード」を設定する(S9)。
When it is determined in S8 that the value in the obstacle
一方、障害物位置情報メモリ22cの値が有効と判断された場合は(S8:Yes)、ユーザ位置情報メモリ22a、移動体位置情報メモリ22b、障害物位置情報メモリ22c、ユーザ進行経路メモリ22eの各値をそれぞれユーザ座標系に変換する(S10)。ユーザ座標系は、前述した通り、ユーザ2の位置Pu(Xu,Yu)を原点(0,0)とした座標系である。ユーザ座標系に変換するのは、後のS12の処理で行うユーザ2の回避経路apの算出を、ユーザ2の位置を中心として行うためである。
On the other hand, when it is determined that the value of the obstacle
S10の処理後、移動体位置情報メモリ22bの値と、障害物位置情報メモリ22cの値との距離が、前述した第3所定値以上か確認する(S11)。かかる距離が第3所定値以上の場合は(S11:Yes)、ユーザ位置情報メモリ22aの値と、障害物位置情報メモリ22cの値と、ユーザ幅メモリ22dの値とから、円弧状のユーザ2の回避経路apを複数算出する。そして、算出された円弧の半径が最も大きな回避経路apの半径を、回避経路半径メモリ22fへ保存する(S12)。
After the process of S10, it is confirmed whether the distance between the value of the moving object
ここで、図4を参照して、S12の処理における、ユーザ2の回避経路apの算出について説明する。図4(a)の回避経路apは、ユーザ2が進行経路upに存在する障害物Poを回避して移動するための経路である。回避経路apは、経路の始点が位置Puで、幅wp、経路の中心部の円弧の長さがlp、円弧の中心が位置Oap、半径Rの円弧状に形成される。幅wpの大きさは、進行経路upと同じく、ユーザ幅メモリ22dの値、即ちユーザ2の肩幅である。この幅wpは、位置Puを中心に左右それぞれwp/2ずつ設けられる。また、長さlpの大きさも、進行経路upと同じく、前述の第4所定値とされる。制御部12は、回避経路apの半径Rを、障害物位置情報メモリ22cの値と、ユーザ位置情報メモリ22aの値と、ユーザ幅メモリ22dの値とから算出し、回避経路半径メモリ22fへ保存する。
Here, the calculation of the avoidance route ap of the
回避経路apの半径Rの算出方法について説明する。まず、回避経路apの円弧の中心位置Oapを、位置Puから経路の中心部の円弧の長さがlp、かつ幅がwpの回避経路apが作成できる位置まで、ユーザ座標系のX軸上を正の方向(図4(a)では右方向)へ移動させ、その位置で回避経路apの領域を暫定的に作成する。 A method for calculating the radius R of the avoidance route ap will be described. First, the center position Oap of the arc of the avoidance path ap is set on the X axis of the user coordinate system from the position Pu to a position where an arc avoidance path ap having a length of lp at the center of the path and a width of wp can be created. It moves in the positive direction (right direction in FIG. 4A), and the area of the avoidance route ap is provisionally created at that position.
暫定的に作成された回避経路apの中心部の円弧と、障害物の位置Poとの最短距離dpを算出する。算出された最短距離dpが、ユーザ幅メモリ22dの値の1/2以上、即ちユーザ2の肩幅の1/2以上である場合は、その暫定的な回避経路apは障害物から十分に離れているので、もっと障害物に近づけた回避経路apを作成できる。即ち、かかる場合には、もっと半径の大きな、もっと進行方向の変化が緩やかな回避経路apを作成できる。回避経路apの半径が大きいほど、ユーザ2の進行方向の変化を小さくできるので、ユーザ2の移動負担を軽減できる。よって、かかる場合には、円弧の中心位置Oapをユーザ座標系のX軸上に更に正方向に移動させた上で、再び回避経路apの領域を暫定的に作成する。
The shortest distance dp between the tentatively created arc at the center of the avoidance path ap and the position Po of the obstacle is calculated. When the calculated shortest distance dp is ½ or more of the value of the
再度、暫定的に作成された回避経路apの中心部の円弧と、障害物の位置Poとの最短距離dpを算出し、その最短距離dpがユーザ2の肩幅の1/2以上である場合は、更に円弧の中心位置Oapをユーザ座標系のX軸上に正方向に移動させる。以下、この処理を繰り返す。
When the shortest distance dp between the arc at the center of the avoidance route ap created temporarily and the position Po of the obstacle is calculated again, and the shortest distance dp is ½ or more of the shoulder width of the
最短距離dpがユーザ2の肩幅の1/2となった場合は、それを正規の回避経路apとする。よって、その時点の円弧の中心位置Oapと位置Puとの距離を、回避経路apの半径Rとして、回避経路半径メモリ22fへ保存する。図4(a)の回避経路apは、円弧の中心位置Oapがユーザ座標系のX軸上の正方向にあり、回避経路apが右回転の円弧状に形成されるので、その半径Rは、回避経路半径メモリ22fへ正の値として保存される。
When the shortest distance dp is ½ of the shoulder width of the
一方、再度、暫定的に作成された回避経路apの最短距離dpがユーザ2の肩幅の1/2以下となった場合は、一つ前の処理で求めた回避経路apを、正規の回避経路apとする。よって、その場合には、一つ前の処理で求めた円弧の中心位置Oapと位置Puとの距離を、半径Rとして、回避経路半径メモリ22fへ保存する。これにより、円弧状の回避経路apのうち、最も大きな半径の回避経路apを算出できる。
On the other hand, if the shortest distance dp of the tentatively created avoidance route ap is ½ or less of the shoulder width of the
図4(a)では、ユーザ2の右側の回避経路apを算出する例を挙げたが、ユーザ2の左側に対しても同様に回避経路apの半径Rを算出する。これについて、図4(b)を参照して説明する。図4(b)は、ユーザ2の進行経路upと左右の回避経路apl,aprとを示す図である。ユーザ2の前方の障害物の位置Poに対して、ユーザ2の右側の回避経路aprは、円弧の中心位置Oapr、半径Rrであり、回避経路aprの中心部の円弧と位置Poとの最短距離がdprである。同様に、ユーザ2の左側の回避経路aplは、円弧の中心位置Oapl、半径Rlであり、回避経路aplの中心部の円弧と位置Poとの最短距離がdplである。
In FIG. 4A, the example of calculating the avoidance route ap on the right side of the
半径Rr,Rlの算出方法は、前述した通りであるが、右側の回避経路aprを再計算する場合には、円弧の中心位置Oaprをユーザ座標系のX軸上の正方向(図4(b)の右方向)に移動していく。一方、左側の回避経路aplを再計算する場合には、円弧の中心位置Oaplをユーザ座標系のX軸上の負方向(図4(b)の左方向)に移動していく。なお、左側の回避経路aplは、円弧の中心位置Oaplがユーザ座標系のX軸上の負方向にあり、左回転の円弧状に形成されるので、その半径Rlは、回避経路半径メモリ22fへ負の値として保存される。また半径Rrの算出処理と、半径Rlの算出処理とは、同時に行ってもよいし、どちらか一方を先に行い、他方を後に行ってもよい。
The method of calculating the radii Rr and Rl is as described above. However, when the right avoidance path apr is recalculated, the center position Oapr of the arc is set in the positive direction on the X axis of the user coordinate system (FIG. 4 (b ) To the right). On the other hand, when recalculating the left avoidance path apl, the center position Oapl of the arc is moved in the negative direction on the X axis of the user coordinate system (the left direction in FIG. 4B). Note that the left avoidance path apl is formed in a left-turned arc shape with the arc center position Oapl in the negative direction on the X axis of the user coordinate system, so that the radius Rl is transferred to the avoidance
最終的に算出された、半径Rrと、半径Rlとの大きさを比較し、大きい方を半径Rとし、回避経路半径メモリ22fへ保存する。即ち、算出され得る半径Rのうち、最も大きな半径が回避経路半径メモリ22fへ保存される。半径Rrと、半径Rlとの大きさが同じであった場合は、右側または左側の回避経路apのうち、どちらを選択するかを、制御部12にあらかじめ設定しておいてもよい。また、その回避経路apに至るまでの進行状況から、右側または左側の回避経路apのいずれかを選択するようにしても良い。
The finally calculated sizes of the radius Rr and the radius Rl are compared, and the larger one is set as the radius R, which is stored in the avoidance
このように回避経路apの算出に当たっては、回避経路apの円弧の中心位置Oapを、ユーザ2の位置Puから遠ざけながら、回避経路apの領域を暫定的に作成していく。よって、最終的に算出された、回避経路apにおける中心部の半径Rは、回避経路apの中で最も大きな半径となる。これにより、ユーザ2にとって移動方向の変化が最も緩やかな経路を回避経路apとできるので、その分、ユーザ2による障害物の回避動作に伴う動作負担を軽減できる。
Thus, in calculating the avoidance path ap, the area of the avoidance path ap is provisionally created while keeping the center position Oap of the arc of the avoidance path ap away from the position Pu of the
図3に戻る。S12の処理後、回避経路半径メモリ22fの値が第2所定値以下か確認する(S13)。回避経路半径メモリ22fの値が第2所定値以下の場合には(S13:Yes)、移動体1と障害物との距離が狭く「前方追従モード」を維持できないので、制御モードメモリ22gに「ターンモード」を設定する(S14)。一方、回避経路半径メモリ22fの値が第2所定値より大きい場合には(S13:No)、回避経路apを算出したものの、移動体1と障害物との間の距離は十分に確保されており、「前方追従モード」を維持できる。よって、かかる場合には制御モードメモリ22gに「前方追従モード」を設定する(S9)。
Returning to FIG. After the process of S12, it is confirmed whether the value of the avoidance
また、S11の処理において、移動体位置情報メモリ22bの値と、障害物位置情報メモリ22cの値との距離が、第3所定値未満の場合は(S11:No)、移動体1と障害物との距離は極めて狭く、移動体1の追従移動(自律移動)を継続していては、移動体1が障害物やユーザ2に接触したり衝突しかねない。よって、かかる場合には、制御モードメモリ22gに「被補助モード」を設定して(S15)、移動体1の追従移動(自律移動)を停止する。S9、S14及びS15の処理後、制御モードメモリ22gの値に応じた移動体1に移動制御を行う(S16)。
In the process of S11, when the distance between the value of the mobile object
なお、S15の処理で、移動体1の制御モードとして「被補助モード」を設定する場合には、移動体1をその位置で停止させて「被補助モード」とするものの他、移動体1を障害物から十分に離れた位置まで移動させた後に停止させて「被補助モード」とするようにしても良い。なお、障害物から十分に離れた位置としては、移動体1と障害物との間をユーザ2が余裕をもって通過できる位置(距離)であり、ユーザ2の肩幅または胴体の厚さに若干のマージン(例えば50cm)を加えた距離を例示できる。
In the process of S15, when the “assisted mode” is set as the control mode of the moving
次に、図5から図7を参照して、制御モードメモリ22gの値に応じた移動体1の移動制御について説明する。図5(a)は、移動体1の制御モードが「前方追従モード」における、ユーザ2の回避経路apと移動体1の動きとを示す図であり、図5(b)は、移動体1の制御モードが「ターンモード」における、ユーザ2の回避経路apと移動体1の動きとを示す図である。
Next, with reference to FIGS. 5 to 7, the movement control of the moving
図5(a)において、回避経路apは、半径R1、中心位置Oap1の円弧で形成され、障害物の位置Poと移動体1との距離はdomである。ここで、距離domは前述した第3所定値以上で、半径R1は前述した第2所定値よりも大きい。即ち、移動体1と障害物との距離がユーザ2の通過に十分なだけ確保され(第3所定値以上)、回避経路apの半径が大きい(第2所定値以上)と判断される場合は(図3中、S11:Yes、S13:No)、制御部12は制御モードメモリ22gに「前方追従モード」を設定する(図3中、S9)。制御モードメモリ22gの値が「前方追従モード」の場合は、移動体1はユーザ2の前方にて、ユーザ2に対し適切な位置に移動して、ユーザ2の追従移動を行う(図3中、S16)。
In FIG. 5A, the avoidance path ap is formed by an arc having a radius R1 and a center position Oap1, and the distance between the obstacle position Po and the moving
勿論、ユーザ2の進行経路up上に障害物が存在しない場合、即ち、図3のS8において障害物位置情報メモリ22cの値が有効でない場合も(図3中、S8:No)、制御部12は制御モードメモリ22gに「前方追従モード」を設定し(図3中、S9)、ユーザ2の前方において、ユーザ2の追従移動を行う。
Of course, also when there is no obstacle on the travel path up of the
図5(b)において、回避経路apは、半径R2、中心位置Oap2の円弧で形成される。ここで、距離domは第3所定値以上で、半径R2は第2所定値以下である。即ち、移動体1と障害物との距離はユーザ2の通過に十分なだけ確保される一方、回避経路apの半径R2が小さいと判断される。よって、その場合は(図3中、S11:Yes、S13:Yes)、制御部12は制御モードメモリ22gに「ターンモード」を設定する(図3中、S14)。
In FIG. 5B, the avoidance path ap is formed by an arc having a radius R2 and a center position Oap2. Here, the distance dom is not less than the third predetermined value, and the radius R2 is not more than the second predetermined value. That is, it is determined that the distance between the moving
制御モードメモリ22gの値が「ターンモード」の場合は、移動体1は、その位置で回転移動を行う(図3中、S16)。即ち、移動体の位置Pmと、円弧の中心位置Oap2とが同じ位置になる。これにより、制御モードが「ターンモード」に設定された移動体1は、ユーザ2の回避経路apの移動に伴って、その場で回転しつつ、ユーザ2に対する追従移動を行う。
When the value of the
図6を参照して、移動体1の制御モードが「ターンモード」に設定された場合の、移動体1の回転移動について説明する。図6(a)は、移動体1の制御モードが「ターンモード」に設定された直後における、移動体1とユーザ2との位置関係を示す図であり、図6(b)は、移動体1の制御モードが「ターンモード」で、ユーザ2が移動体1の周囲を歩行している場合における、移動体1とユーザ2との位置関係を示す図である。制御モードが「ターンモード」の移動体1は、移動体1とユーザ2との相対角度を保つように、回転移動を行う。図6(a)において、移動体1とユーザ2との相対角度は、θumである。ここで、θumは、前述のユーザ座標系で算出された値である。
With reference to FIG. 6, the rotational movement of the moving
図6(b)において、位置Pu’は、図6(a)の時点におけるユーザ2の位置であり、位置Puは、位置Pu’から移動したある時点のユーザ2の位置である。ユーザ2の位置Pu’から位置Puへの移動に合わせて、移動体1は回転移動を行う。その結果、位置Puとユーザ2との相対角度は、図6(a)の時点と同じθumを維持する。つまり、制御モードが「ターンモード」に設定された場合、移動体1は、ユーザ2との相対角度θumを保ったまま、回転移動を行う。これにより、ユーザ2に対し移動体1の一部が常に対面するように回転移動することとなり、移動体1がX,Y座標に移動しなくても、ユーザ2は、移動体1が自身に対し追従移動していることを確認できる。
In FIG. 6B, the position Pu ′ is the position of the
次に、図7を参照して、制御モードメモリ22gの値が「被補助モード」に設定された場合の移動体1の移動制御について説明する。図7は、移動体1の制御モードが「被補助モード」における、移動体1とユーザ2との位置関係を示す図である。
Next, with reference to FIG. 7, the movement control of the moving
図7においては、移動体1と障害物との距離domは第3所定値未満である。即ち、移動体1と障害物との間隔が極めて狭く、ユーザ2がその間を通過できないと判断される。かかる場合は(図3中、S11:No)、制御部12は制御モードメモリ22gに「被補助モード」を設定する(図3中、S15)。すると、移動体1はユーザ2との追従移動(回転移動を含む)を停止し(図3中、S16)、ユーザ2による手動操作を受け付ける状態となる。かかる状態において、ユーザ2からHMI部26を介して、移動体1の移動指示が行われると、移動体1はその指示に応じて動作(移動)する。移動体1が障害物と極めて近い位置にある場合などは、かかるユーザ2による手動操作によって、移動体1を周囲に障害物のない、ユーザ2に対する追従制御が可能な位置まで移動することにより、再度、移動体1の追従移動(自律移動)が可能となる。
In FIG. 7, the distance dom between the moving
以上説明した通り、本実施形態の移動体1によれば、ユーザ認識センサ13により取得した、移動中のユーザ2の位置およびユーザ2が向いている方向から、ユーザ2の進行経路upを算出する。そして、周辺認識センサ14により取得した移動体1の周辺画像から、ユーザ2の進行経路up上に存在する障害物を検知した場合は、ユーザ2の位置を始点とした円弧状の、障害物を回避した回避経路apを算出する。回避経路apを円弧状に形成することにより、ユーザ2にとって自然で且つスムーズな移動経路となるので、回避経路apを進行するユーザ2の負担を軽減できる。また、回避経路apは円弧状に形成されるので、その円弧の中央部の半径を求めることで回避経路apを算出できる。よって、回避経路apを複雑な曲線や直線の組合せで構成する場合に比べ、容易に算出でき、制御部12の処理負荷を低くすることができる。
As described above, according to the moving
回避経路apの中央部の円弧と、ユーザ2の進行経路up上の障害物との最短距離は、ユーザ2の肩幅の1/2以上とされる。これにより、ユーザ2が回避経路apを移動する際、ユーザ2は障害物に接触することがない。
The shortest distance between the arc at the center of the avoidance path ap and the obstacle on the travel path up of the
移動体と障害物との距離が、第3所定値未満の場合(即ちユーザ2の歩行スペースがない場合)は、移動体1によるユーザ2の追従移動を停止し、ユーザ2が移動体1の移動を指示する「被補助モード」に移行する。「被補助モード」において、ユーザ2が移動体1を障害物から離れた位置へ移動させることにより、移動体1と障害物との狭い間をユーザ2が移動する必要がなくなる。また「被補助モード」に移行することによって、移動体1による無理なユーザ追従を防止できる。よって、ユーザ2が移動体1や障害物に近づくことで起きうる、接触あるいは転倒を防ぐことができる。
When the distance between the moving body and the obstacle is less than the third predetermined value (that is, when there is no walking space for the user 2), the following movement of the
以上、実施形態に基づき本発明を説明したが、本発明は上述した実施形態に何ら限定されるものではなく、本発明の趣旨を逸脱しない範囲内で種々の改良変更が可能であることは容易に推察できるものである。 Although the present invention has been described based on the embodiments, the present invention is not limited to the above-described embodiments, and various improvements and modifications can be easily made without departing from the spirit of the present invention. Can be inferred.
本実施形態におけるユーザ2の幅は肩幅とした。しかし、必ずしもこれに限られるものではなく、例えば、ユーザ2の胴体の厚さや、そのほかの値を用いても良い。また、これを、どんなユーザ2に対しても適応される固定値(例えば120cm)としてもよい。固定値とした場合には、制御部12の制御負担を大幅に軽減できる。
The width of the
ユーザ2の進行経路upの帯状の領域を示す値(ユーザ進行経路メモリ22eに記憶される値)としては、帯状の領域の4つの頂点座標とした。しかし、必ずしもこれに限られるものではなく、例えば、ユーザ2の進行経路upの領域の境界線を表す関数のパラメータを格納してもよい。
The value indicating the band-like area of the
また移動体1と障害物との間隔が狭い場合に、必ずしも「被補助モード」や「ターンモード」とする必要は無く、かかる場合に、移動体1を障害物から十分に離れた位置まで移動させるように構成しても良い。なお、障害物から十分に離れた位置(距離)としては、移動体1と障害物との間をユーザ2が余裕をもって通過できる距離であり、ユーザ2の肩幅または胴体の厚さに若干のマージン(例えば50cm)を加えた距離を例示できる。
Further, when the distance between the moving
1 移動体
2 ユーザ
13 ユーザ認識センサ(ユーザ検知手段)
14 周辺認識センサ(周辺環境認識手段)
20 CPU(移動制御手段)
25 駆動部(移動手段)
ap 回避経路
up 進行経路
DESCRIPTION OF
14 Perimeter recognition sensor (peripheral environment recognition means)
20 CPU (movement control means)
25 Drive unit (moving means)
ap avoidance route up progress route
Claims (8)
当該移動体を移動させる移動手段と、
ユーザを検知するユーザ検知手段と、
前記ユーザ検知手段により検知されたユーザの情報に基づいて、前記移動手段を制御して、当該移動体を移動させる移動制御手段と、
周辺の環境を認識する周辺環境認識手段とを備え、
前記移動制御手段は、前記ユーザ検知手段により検知されたユーザの情報に基づくユーザの進路に前記周辺環境認識手段により認識された障害物があると判断した場合、その障害物を回避した回避経路を空けるように当該移動体を移動させるものであることを特徴とする移動体。 A moving body that follows the user in front of the user,
Moving means for moving the moving body;
User detection means for detecting a user;
A movement control means for controlling the moving means based on the user information detected by the user detecting means to move the moving body;
A surrounding environment recognition means for recognizing the surrounding environment,
When the movement control unit determines that there is an obstacle recognized by the surrounding environment recognition unit in the user's path based on the user information detected by the user detection unit, the movement control unit determines an avoidance route that avoids the obstacle. A moving body that moves the moving body so as to be free.
The moving body according to any one of claims 1 to 7, wherein the movement control means performs movement control of the moving body on the assumption that the route of the user and the avoidance path have a predetermined width. .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016006972A JP6836100B2 (en) | 2016-01-18 | 2016-01-18 | Mobile |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016006972A JP6836100B2 (en) | 2016-01-18 | 2016-01-18 | Mobile |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017129909A true JP2017129909A (en) | 2017-07-27 |
JP6836100B2 JP6836100B2 (en) | 2021-02-24 |
Family
ID=59394792
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016006972A Active JP6836100B2 (en) | 2016-01-18 | 2016-01-18 | Mobile |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6836100B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020201570A (en) * | 2019-06-06 | 2020-12-17 | パナソニックIpマネジメント株式会社 | Autonomous mobile device and control method of the same |
JP2021536064A (en) * | 2018-09-06 | 2021-12-23 | エルジー エレクトロニクス インコーポレイティドLg Electronics Inc. | Mobile robots and their control methods |
US11409308B2 (en) | 2018-09-06 | 2022-08-09 | Lg Electronics Inc. | Robot cleaner and a controlling method for the same |
US11432697B2 (en) | 2018-09-06 | 2022-09-06 | Lg Electronics Inc. | Robot cleaner and a controlling method for the same |
JP7450481B2 (en) | 2020-07-14 | 2024-03-15 | 本田技研工業株式会社 | Mobile object control device, mobile object, mobile object control method, and program |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006048666A (en) * | 2004-07-07 | 2006-02-16 | Matsushita Electric Ind Co Ltd | Method and device for accompanying object person of mobile object |
JP2008152600A (en) * | 2006-12-19 | 2008-07-03 | Toyota Motor Corp | Moving route generation method, autonomous moving object, and autonomous moving object control system |
JP2008234400A (en) * | 2007-03-22 | 2008-10-02 | Toyota Motor Corp | Mobile robot and robot movement control method |
JP2008234404A (en) * | 2007-03-22 | 2008-10-02 | Toyota Motor Corp | Mobile robot and robot movement control method |
JP2009151382A (en) * | 2007-12-18 | 2009-07-09 | Toyota Motor Corp | Traveling object |
JP2010055498A (en) * | 2008-08-29 | 2010-03-11 | Hitachi Ltd | Autonomous mobile robot device and method of avoiding collision due to sudden appearance in the device |
JP2011059905A (en) * | 2009-09-08 | 2011-03-24 | Hiroshima Univ | Robot, control program, and recording medium |
JP2011194539A (en) * | 2010-03-23 | 2011-10-06 | Toyota Motor Corp | Robot and method of controlling the same |
-
2016
- 2016-01-18 JP JP2016006972A patent/JP6836100B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006048666A (en) * | 2004-07-07 | 2006-02-16 | Matsushita Electric Ind Co Ltd | Method and device for accompanying object person of mobile object |
JP2008152600A (en) * | 2006-12-19 | 2008-07-03 | Toyota Motor Corp | Moving route generation method, autonomous moving object, and autonomous moving object control system |
JP2008234400A (en) * | 2007-03-22 | 2008-10-02 | Toyota Motor Corp | Mobile robot and robot movement control method |
JP2008234404A (en) * | 2007-03-22 | 2008-10-02 | Toyota Motor Corp | Mobile robot and robot movement control method |
JP2009151382A (en) * | 2007-12-18 | 2009-07-09 | Toyota Motor Corp | Traveling object |
JP2010055498A (en) * | 2008-08-29 | 2010-03-11 | Hitachi Ltd | Autonomous mobile robot device and method of avoiding collision due to sudden appearance in the device |
JP2011059905A (en) * | 2009-09-08 | 2011-03-24 | Hiroshima Univ | Robot, control program, and recording medium |
JP2011194539A (en) * | 2010-03-23 | 2011-10-06 | Toyota Motor Corp | Robot and method of controlling the same |
Non-Patent Citations (2)
Title |
---|
山本 健次郎 KENJIRO YAMAMOTO: "人間共生ロボット"EMIEW"の衝突回避ナビゲーション Collision-Avoidance Navigation of a Human-Sy", 第24回日本ロボット学会学術講演会予稿集CD−ROM 2006年 THE 24TH ANNUAL CONFERENCE OF THE, JPN6019036441, ISSN: 0004119555 * |
田淵 信吾 SHINGO TABUCHI: "知的環境における自律走行型ロボットの動的障害物の回避走行支援 Robot's action support for moving obst", 第24回日本ロボット学会学術講演会予稿集CD−ROM 2006年 THE 24TH ANNUAL CONFERENCE OF THE, JPN6019036440, ISSN: 0004305319 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021536064A (en) * | 2018-09-06 | 2021-12-23 | エルジー エレクトロニクス インコーポレイティドLg Electronics Inc. | Mobile robots and their control methods |
JP2021536637A (en) * | 2018-09-06 | 2021-12-27 | エルジー エレクトロニクス インコーポレイティドLg Electronics Inc. | Multiple autonomous mobile robots |
JP2022501704A (en) * | 2018-09-06 | 2022-01-06 | エルジー エレクトロニクス インコーポレイティドLg Electronics Inc. | Mobile robots and their control methods |
US11409308B2 (en) | 2018-09-06 | 2022-08-09 | Lg Electronics Inc. | Robot cleaner and a controlling method for the same |
US11432697B2 (en) | 2018-09-06 | 2022-09-06 | Lg Electronics Inc. | Robot cleaner and a controlling method for the same |
JP7165259B2 (en) | 2018-09-06 | 2022-11-02 | エルジー エレクトロニクス インコーポレイティド | Multiple autonomous mobile robots |
JP7240485B2 (en) | 2018-09-06 | 2023-03-15 | エルジー エレクトロニクス インコーポレイティド | Mobile robot and its control method |
JP7259015B2 (en) | 2018-09-06 | 2023-04-17 | エルジー エレクトロニクス インコーポレイティド | Mobile robot and its control method |
US11906979B2 (en) | 2018-09-06 | 2024-02-20 | Lg Electronics Inc. | Plurality of autonomous mobile robots and controlling method for the same |
JP2020201570A (en) * | 2019-06-06 | 2020-12-17 | パナソニックIpマネジメント株式会社 | Autonomous mobile device and control method of the same |
JP7281720B2 (en) | 2019-06-06 | 2023-05-26 | パナソニックIpマネジメント株式会社 | Autonomous mobile device and its control method |
JP7450481B2 (en) | 2020-07-14 | 2024-03-15 | 本田技研工業株式会社 | Mobile object control device, mobile object, mobile object control method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP6836100B2 (en) | 2021-02-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6836100B2 (en) | Mobile | |
JP4852753B2 (en) | Autonomous mobile robot with learning function | |
JP6604546B2 (en) | Moving body | |
CN107111317B (en) | Moving body | |
WO2017115548A1 (en) | Moving body | |
JP2008152600A (en) | Moving route generation method, autonomous moving object, and autonomous moving object control system | |
US11642791B2 (en) | Autonomous mobile robot and control program for autonomous mobile robot | |
JP4670807B2 (en) | Travel route creation method, autonomous mobile body, and autonomous mobile body control system | |
JP2006293975A (en) | Autonomous moving device | |
JP2011224679A (en) | Reaction robot, reaction control method, and reaction control program | |
JP2007328486A (en) | Moving robot | |
JPH064133A (en) | Obstacle evading method for moving body | |
JP5314788B2 (en) | Autonomous mobile device | |
JP4697164B2 (en) | Mobile robot and robot movement control method | |
JP6540917B1 (en) | Self-propelled device, travel control method of self-propelled device and travel control program | |
JP5321214B2 (en) | Mobile body and control method thereof | |
JP2009151382A (en) | Traveling object | |
JP5540888B2 (en) | Narrow road driving support device and narrow road driving support method | |
US20240069553A1 (en) | Mobile body control system, mobile body, and mobile body control method | |
JP2020166707A (en) | Moving body | |
WO2023127337A1 (en) | Information processing device, information processing method, and program | |
JP7036419B2 (en) | Mobile control device | |
US11474542B2 (en) | Moving body | |
JP2010277236A (en) | Autonomously traveling robot, follow-up system using the same, and follow-up method | |
JP2006326746A (en) | Simulation system of autonomously traveling mobile body |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180315 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190225 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190305 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190924 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200212 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200413 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200714 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201014 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20201014 |
|
C11 | Written invitation by the commissioner to file amendments |
Free format text: JAPANESE INTERMEDIATE CODE: C11 Effective date: 20201027 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20201201 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20201208 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210106 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210119 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6836100 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |