JP2017129909A - Moving body - Google Patents

Moving body Download PDF

Info

Publication number
JP2017129909A
JP2017129909A JP2016006972A JP2016006972A JP2017129909A JP 2017129909 A JP2017129909 A JP 2017129909A JP 2016006972 A JP2016006972 A JP 2016006972A JP 2016006972 A JP2016006972 A JP 2016006972A JP 2017129909 A JP2017129909 A JP 2017129909A
Authority
JP
Japan
Prior art keywords
user
moving body
memory
obstacle
avoidance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016006972A
Other languages
Japanese (ja)
Other versions
JP6836100B2 (en
Inventor
和宏 久野
Kazuhiro Kuno
和宏 久野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Equos Research Co Ltd
Original Assignee
Equos Research Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Equos Research Co Ltd filed Critical Equos Research Co Ltd
Priority to JP2016006972A priority Critical patent/JP6836100B2/en
Publication of JP2017129909A publication Critical patent/JP2017129909A/en
Application granted granted Critical
Publication of JP6836100B2 publication Critical patent/JP6836100B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a moving body that can follow users so as not to interfere with the user in front of the user even when coming across obstacles.SOLUTION: A moving body 1 is configured to: calculate an advancing route up of a user 2 from a location of a user 2 during moving and a direction at which the user 2 directs which are acquired by a user recognition sensor 13; and when detecting an obstacle existing on the advancing route up of the user 2 from a peripheral image of the moving body 1 acquired by a peripheral recognition sensor 14, calculate an arc-like avoidance route ap avoiding the obstacle with the location of the user 2 as a start point. The avoidance route ap is formed into the arc, and thereby serves as a natural and smooth movement route for the user 2, which in turn a load of the user 2 travelling the avoidance route ap can be lessened.SELECTED DRAWING: Figure 4

Description

本発明は、移動体に関し、特に、障害物に遭遇した場合にも、ユーザの前方にて、ユーザの邪魔にならないように、ユーザに追従できる移動体に関するものである。   The present invention relates to a moving body, and more particularly to a moving body that can follow a user so as not to obstruct the user in front of the user even when an obstacle is encountered.

特許文献1には、周囲環境に基づいて、ユーザとの位置関係を決定し、その決定した位置関係に基づいて、ユーザのそばについて自律的に移動する自律移動装置が開示されている。この自律移動装置によれば、ユーザの追尾に加えて、追尾以外の移動形態をとることが可能となるので、ユーザの前方にて、ユーザに追従しつつ移動することができる。   Patent Document 1 discloses an autonomous mobile device that determines a positional relationship with a user based on the surrounding environment and moves autonomously around the user based on the determined positional relationship. According to this autonomous mobile device, in addition to the tracking of the user, it is possible to take a movement form other than the tracking, and thus it is possible to move while following the user in front of the user.

特開2007−316924号公報JP 2007-316924 A

しかしながら、特許文献1の自律移動装置では、ユーザの前方にてユーザに追従する場合、例えば、ユーザが行き止まり等の障害物に近づいていくと、当該移動装置は、ユーザに先駆けて障害物に近づくので、ユーザと障害物との間に挟まって、却ってユーザの動きを邪魔してしまうという問題点があった。   However, in the autonomous mobile device of Patent Document 1, when following the user in front of the user, for example, when the user approaches an obstacle such as a dead end, the mobile device approaches the obstacle ahead of the user. Therefore, there is a problem that the user's movement is disturbed by being caught between the user and the obstacle.

本発明は、上述した問題点を解決するためになされたものであり、障害物に遭遇した場合にも、ユーザの前方にて、ユーザの邪魔にならないように、ユーザに追従できる移動体を提供することを目的としている。   The present invention has been made in order to solve the above-described problems, and provides a moving body that can follow a user so as not to obstruct the user in front of the user even when an obstacle is encountered. The purpose is to do.

この目的を達成するために本発明の移動体は、ユーザの前方において、ユーザに追従するものであって、当該移動体を移動させる移動手段と、ユーザを検知するユーザ検知手段と、前記ユーザ検知手段により検知されたユーザの情報に基づいて、前記移動手段を制御して、当該移動体を移動させる移動制御手段と、周辺の環境を認識する周辺環境認識手段とを備え、前記移動制御手段は、前記ユーザ検知手段により検知されたユーザの情報に基づくユーザの進路に前記周辺環境認識手段により認識された障害物があると判断した場合、その障害物を回避したユーザの回避経路を空けるように当該移動体を移動させるものである。   In order to achieve this object, the moving body of the present invention follows the user in front of the user, and includes a moving means for moving the moving body, a user detecting means for detecting the user, and the user detection. A movement control means for controlling the movement means based on user information detected by the means to move the moving body; and a surrounding environment recognition means for recognizing the surrounding environment, the movement control means comprising: When it is determined that there is an obstacle recognized by the surrounding environment recognition means on the user's path based on the user information detected by the user detection means, the avoidance route of the user who avoids the obstacle is made free The moving body is moved.

請求項1の移動体によれば、移動制御手段は、ユーザ検知手段により検知されたユーザの情報に基づくユーザの進路に、周辺環境認識手段により認識された障害物があると判断した場合、その障害物を回避した回避経路を空けるように当該移動体を移動させる。即ち、当該移動体は回避経路を塞がないように移動する。よって、ユーザが、例えば行き止まり等の障害物に近づいた後、その障害物を回避した回避経路を進もうとした場合、当該移動体はかかる回避経路を塞がないように移動する。従って、当該移動体は、障害物に遭遇した場合にも、ユーザの前方にて、ユーザの邪魔にならないように、ユーザに追従できるという効果がある。   According to the mobile body of claim 1, when the movement control means determines that there is an obstacle recognized by the surrounding environment recognition means in the user's course based on the user information detected by the user detection means, The moving body is moved so as to make an avoidance route avoiding the obstacle. That is, the moving body moves so as not to block the avoidance path. Therefore, when a user approaches an obstacle such as a dead end and then proceeds on an avoidance route that avoids the obstacle, the moving body moves so as not to block the avoidance route. Therefore, even when the moving body encounters an obstacle, there is an effect that it can follow the user so as not to disturb the user in front of the user.

請求項2の移動体によれば、請求項1の奏する効果に加え、次の効果を奏する。移動制御手段は、障害物の回避経路を空けるように当該移動体を移動させる場合に、当該移動体を障害物から第1所定値以上離れた位置に停止させる。よって、ユーザが、例えば行き止まり等の障害物に遭遇した場合にも、障害物と当該移動体との間には第1所定値以上の間隔が保たれるので、障害物の回避経路を、ユーザにとって十分に確保できるという効果がある。なお、第1所定値としては、ユーザの通過に支障を来さない長さであり、例えばユーザの肩幅または胴体の厚さに若干のマージン(例えば50cm)を加えた長さを例示できる。   According to the moving body of claim 2, in addition to the effect of claim 1, the following effect is obtained. The movement control means stops the moving body at a position away from the obstacle by a first predetermined value or more when moving the moving body so as to make an obstacle avoidance route. Therefore, even when the user encounters an obstacle such as a dead end, for example, an interval greater than the first predetermined value is maintained between the obstacle and the moving object. For this, there is an effect that it can be secured sufficiently. The first predetermined value is a length that does not hinder the user's passage, and can be exemplified by a length obtained by adding a slight margin (for example, 50 cm) to the user's shoulder width or trunk thickness.

請求項3の移動体によれば、請求項1又は2の奏する効果に加え、次の効果を奏する。移動制御手段は、ユーザ検知手段により検知されたユーザの情報に基づくユーザの進路に、周辺環境認識手段により認識された障害物があると判断した場合、ユーザの動きから、障害物の回避経路を算出する。よって、動作中のユーザにとって、自然で且つスムーズな回避経路を算出できるという効果がある。   According to the moving body of claim 3, in addition to the effect of claim 1 or 2, the following effect is produced. When the movement control means determines that there is an obstacle recognized by the surrounding environment recognition means in the user's path based on the user information detected by the user detection means, the movement control means determines an obstacle avoidance route from the user's movement. calculate. Therefore, there is an effect that a natural and smooth avoidance route can be calculated for the user who is operating.

請求項4の移動体によれば、請求項3の奏する効果に加え、次の効果を奏する。移動制御手段は、障害物の回避経路を円弧状のものとして算出する。よって、該回避経路を、複雑な曲線や直線の組合せで構成する場合に比べて、容易に算出できるという効果がある。   According to the moving body of claim 4, in addition to the effect of claim 3, the following effect is obtained. The movement control means calculates the obstacle avoidance route as an arc. Therefore, there is an effect that the avoidance path can be easily calculated as compared with a case where the avoidance path is configured by a combination of complicated curves and straight lines.

請求項5の移動体によれば、請求項4の奏する効果に加え、次の効果を奏する。移動制御手段は、円弧状のものとして算出された経路のうち、その半径が最も大きいものを、障害物の回避経路とする。よって、ユーザにとって移動方向の変化が最も緩やかな経路を回避経路とできるので、その分、ユーザによる障害物の回避動作に伴う動作負担を軽減できるという効果がある。   According to the moving body of claim 5, in addition to the effect of claim 4, the following effect is obtained. The movement control means sets a path having the largest radius among paths calculated as arcuate ones as an obstacle avoidance path. Therefore, since the route having the slowest change in the moving direction for the user can be used as the avoidance route, the operation burden associated with the obstacle avoidance operation by the user can be reduced accordingly.

請求項6の移動体によれば、請求項4又は5の奏する効果に加え、次の効果を奏する。円弧状のものとして算出された回避経路の半径が第2所定値以下である場合には、回避経路は当該移動体の位置を中心とした円弧に形成される。よって、移動制御手段は、その回避経路をユーザが移動する場合、ユーザの移動に合わせて当該移動体を回転させることで、当該移動体をユーザに追従させる。これにより、周囲に障害物が迫った状況下においても、回避経路を塞ぐことなく、当該移動体をユーザに追従させることができるという効果がある。なお、第2所定値としては、例えば1.0mを例示できる。或いは、第2所定値として、例えばユーザの肩幅または胴体の厚さに若干のマージン(例えば50cm)を加えた長さを例示することもできる。   According to the moving body of claim 6, in addition to the effect of claim 4 or 5, the following effect is obtained. When the radius of the avoidance path calculated as an arc is equal to or smaller than the second predetermined value, the avoidance path is formed in an arc centered on the position of the moving body. Therefore, when the user moves along the avoidance path, the movement control means causes the user to follow the moving body by rotating the moving body in accordance with the movement of the user. Accordingly, there is an effect that the user can follow the moving body without blocking the avoidance path even in a situation where an obstacle approaches the surrounding area. An example of the second predetermined value is 1.0 m. Alternatively, as the second predetermined value, for example, a length obtained by adding a slight margin (for example, 50 cm) to the shoulder width of the user or the thickness of the trunk can be exemplified.

請求項7の移動体によれば、請求項4から6のいずれかの奏する効果に加え、次の効果を奏する。移動制御手段は、当該移動体と周辺環境認識手段により認識された障害物との間隔が第3所定値未満である場合には、当該移動体によるユーザの追従制御を停止する。当該移動体と障害物との間隔が第3所定値未満であれば、その間をユーザが通過しようとすると、ユーザが当該移動体や障害物に接触したり、或いはユーザに追従しようとする当該移動体がユーザや障害物に衝突したりして支障を来す。よって、かかる場合に、移動制御手段は、当該移動体によるユーザの追従制御を停止するので、当該移動体による無理なユーザ追従を防止できるという効果がある。なお、第3所定値としては、ユーザが移動する場合に最低限必要となる間隔を例示できる。具体的には、ユーザの肩幅や胴体の厚さを例示できる。   According to the moving body of claim 7, in addition to the effect of any one of claims 4 to 6, the following effect is achieved. When the distance between the moving body and the obstacle recognized by the surrounding environment recognition means is less than the third predetermined value, the movement control means stops the user's follow-up control by the moving body. If the distance between the moving body and the obstacle is less than a third predetermined value, the user will contact the moving body or the obstacle or follow the user if the user tries to pass between them. The body collides with a user or an obstacle, causing trouble. Therefore, in such a case, the movement control unit stops the user's follow-up control by the moving body, so that it is possible to prevent unreasonable user following by the moving body. An example of the third predetermined value is an interval that is minimum required when the user moves. Specifically, the shoulder width of the user and the thickness of the trunk can be exemplified.

請求項8の移動体によれば、請求項1から7のいずれかの奏する効果に加え、次の効果を奏する。一般に、人が移動する場合、その経路には、肩幅または胴体の厚み等の一定の幅が必要となる。ここで、移動制御手段は、ユーザの進路および回避経路が所定幅を有するものとして当該移動体の移動制御を行うので、ユーザが障害物や当該移動体と接触することなく移動できる進路や回避経路を確保できるという効果がある。なお、所定幅としては、例えばユーザの肩幅または胴体の厚さに若干のマージン(例えば50cm)を加えた長さを例示できる。   According to the moving body of the eighth aspect, in addition to the effect of any one of the first to seventh aspects, the following effect is achieved. Generally, when a person moves, a certain width such as a shoulder width or a trunk thickness is required for the path. Here, since the movement control means performs the movement control of the moving body assuming that the user's course and the avoidance path have a predetermined width, the path and the avoidance path that the user can move without contacting the obstacle or the moving body. There is an effect that can be secured. Examples of the predetermined width include a length obtained by adding a slight margin (for example, 50 cm) to the shoulder width of the user or the thickness of the trunk.

本発明の一実施形態における移動体およびユーザの外観図である。1 is an external view of a moving body and a user in an embodiment of the present invention. 移動体の電気的構成を示すブロック図である。It is a block diagram which shows the electric constitution of a moving body. メイン処理のフローチャートである。It is a flowchart of a main process. (a)はユーザの進行経路と回避経路とを示す図であり、(b)はユーザの進行経路と左右の回避経路とを示す図である。(A) is a figure which shows a user's advancing path | route and an avoidance path | route, (b) is a figure which shows a user's advancing path | route and a right and left avoidance path | route. (a)は移動体の制御モードが「前方追従モード」における、ユーザの回避経路と移動体の動きとを示す図であり、(b)は移動体の制御モードが「ターンモード」における、ユーザの回避経路と移動体の動きとを示す図である。(A) is a figure which shows a user's avoidance path | route and a movement of a moving body in the control mode of a moving body in "front tracking mode", (b) is a user in which the control mode of a moving body is "turn mode" It is a figure which shows the avoidance path | route and movement of a mobile body. (a)は移動体の制御モードが「ターンモード」に設定された直後における、移動体とユーザとの位置関係を示す図であり、(b)は移動体の制御モードが「ターンモード」に移行し、ユーザが移動体の周囲を歩行している場合における、移動体とユーザとの位置関係を示す図である。(A) is a figure which shows the positional relationship of a mobile body and a user immediately after the control mode of a mobile body is set to "turn mode", (b) is a control mode of a mobile body to "turn mode". It is a figure which shows the positional relationship of a moving body and a user in case it transfers and the user is walking around the moving body. 移動体の制御モードが「被補助モード」における、移動体とユーザとの位置関係を示す図である。It is a figure which shows the positional relationship of a moving body and a user in the control mode of a moving body being a "assisted mode".

以下、本発明の好ましい実施形態について、添付図面を参照して説明する。まず、図1を参照して、本実施形態における移動体1の構成について説明する。図1は、移動体1およびユーザ2の外観図である。移動体1は、ユーザ2の前方にて、ユーザ2に対し適切な位置に移動して、ユーザ2に追従できる装置として機能する。なお、移動体1の移動範囲である「ユーザ2の前方」とは、例えばユーザ2の前方であって、ユーザ2を中心とする180度の範囲である。或いは、ユーザ2の視界の範囲内としてもよい。   Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. First, with reference to FIG. 1, the structure of the moving body 1 in this embodiment is demonstrated. FIG. 1 is an external view of the moving body 1 and the user 2. The moving body 1 functions as a device that can move to an appropriate position with respect to the user 2 and follow the user 2 in front of the user 2. Note that “the front of the user 2”, which is the movement range of the mobile body 1, is, for example, a range of 180 degrees in front of the user 2 and centering on the user 2. Alternatively, it may be within the range of the field of view of the user 2.

図1に示すように、移動体1は、本体部11と、制御部12と、ユーザ認識センサ13と、周辺認識センサ14と、車輪15と、表示部16とを有して構成されている。本体部11は、略直方体状に形成され、本体部11内には制御部12が格納される。   As shown in FIG. 1, the moving body 1 includes a main body unit 11, a control unit 12, a user recognition sensor 13, a periphery recognition sensor 14, wheels 15, and a display unit 16. . The main body 11 is formed in a substantially rectangular parallelepiped shape, and a control unit 12 is stored in the main body 11.

制御部12は、移動体1の各部を制御するための装置であり、ユーザ認識センサ13と、周辺認識センサ14とから取得した情報をもとに、移動体1の移動速度および移動方向を決定し、それに基づく移動指示を駆動部25(図2参照)を介して、各車輪15に対して行うものである。   The control unit 12 is a device for controlling each unit of the moving body 1 and determines the moving speed and moving direction of the moving body 1 based on information acquired from the user recognition sensor 13 and the peripheral recognition sensor 14. And the movement instruction | indication based on it is performed with respect to each wheel 15 via the drive part 25 (refer FIG. 2).

ユーザ認識センサ13は、ユーザ2の画像を取得するカメラで構成され、本体部11の側面に設けられる。図1における2点鎖線で描いた三角形のエリアが、ユーザ認識センサ13の検出範囲である。なお、ユーザ認識センサ13の上下位置は、必ずしも固定ではなく、例えば、表示部16と本体部11との間で変更可能に構成して、ユーザ2の身長によらず、ユーザ2全体の画像が適切に取得できるようにしてもよい。   The user recognition sensor 13 includes a camera that acquires an image of the user 2 and is provided on the side surface of the main body 11. A triangular area drawn by a two-dot chain line in FIG. 1 is a detection range of the user recognition sensor 13. Note that the vertical position of the user recognition sensor 13 is not necessarily fixed. For example, the user recognition sensor 13 can be changed between the display unit 16 and the main body unit 11 so that the image of the entire user 2 can be displayed regardless of the height of the user 2. It may be possible to obtain appropriately.

ユーザ認識センサ13は、ユーザ2の画像を取得すると、これを制御部12へ送信する。制御部12は、ユーザ認識センサ13で取得された画像を解析し、ユーザ2の位置とユーザ2が向いている方向とを算出する。このユーザ2の位置およびユーザ2が向いている方向は、移動体1の中心Cを原点(0,0)とした座標系で示す値とされる(以下「移動体座標系」と称す)。なお、ユーザ認識センサ13の水平方向の位置は、移動体1の中心Cからズレているので、制御部12は、その距離差を補正した上でユーザ2の位置を算出する。また、制御部12は、ユーザ認識センサ13で取得された画像を解析してユーザ2の両肩を検出し、その両肩間の距離、即ち肩幅を算出する。   When the user recognition sensor 13 acquires the image of the user 2, the user recognition sensor 13 transmits the image to the control unit 12. The control unit 12 analyzes the image acquired by the user recognition sensor 13 and calculates the position of the user 2 and the direction in which the user 2 is facing. The position of the user 2 and the direction in which the user 2 faces are values indicated by a coordinate system with the center C of the moving body 1 as the origin (0, 0) (hereinafter referred to as “moving body coordinate system”). Since the horizontal position of the user recognition sensor 13 is shifted from the center C of the moving body 1, the control unit 12 calculates the position of the user 2 after correcting the distance difference. Further, the control unit 12 analyzes the image acquired by the user recognition sensor 13 to detect both shoulders of the user 2 and calculates the distance between the shoulders, that is, the shoulder width.

周辺認識センサ14は、移動体1の周辺画像を取得するものであり、複数のカメラで構成され(本実施形態では16個のカメラ)、本体部11の周囲に等間隔に設置される。制御部12は、周辺認識センサ14により取得された移動体1の周辺画像から、ユーザ2の進行経路up(図4参照)上に存在する障害物を検出し、その位置を算出する。   The peripheral recognition sensor 14 acquires a peripheral image of the moving body 1 and includes a plurality of cameras (16 cameras in the present embodiment) and is installed around the main body 11 at equal intervals. The control unit 12 detects an obstacle existing on the travel route up (see FIG. 4) of the user 2 from the peripheral image of the moving body 1 acquired by the peripheral recognition sensor 14, and calculates the position thereof.

車輪15は、全方位への移動が可能な全方位車輪で構成され、移動体1の下部に設置される。これにより、移動体1は、全方位への移動をスムーズに行うことができる。車輪15は、駆動部25のモータ(図示せず)によって回転し、移動体1を移動させる。本実施形態では、3つの車輪15が設けられるが、車輪15の数は、必ずしも3つに限られず、適宜の数を採用できる。   The wheel 15 is composed of an omnidirectional wheel that can move in all directions, and is installed in the lower part of the moving body 1. Thereby, the mobile body 1 can smoothly move in all directions. The wheel 15 is rotated by a motor (not shown) of the drive unit 25 to move the moving body 1. In the present embodiment, three wheels 15 are provided, but the number of wheels 15 is not necessarily limited to three, and an appropriate number can be adopted.

表示部16は、LCDなどのディスプレイを有し、ディスプレイへの表示によって情報をユーザ2に伝達する装置であり、移動体1の上部に設けられる。図1に示す通り、表示部16のディスプレイは、ユーザ2に対向する面に設けられる。即ち、表示部16のディスプレイは、ユーザ認識センサ13と同方向に向けて配設される。また表示部16のディスプレイは、タッチパネルとして構成され、ユーザ2による操作を入力可能に構成される。表示部16は、HMI部26(図2参照)を介して、ユーザ2からの指示を移動体1に入力し、また移動体1の状態や移動経路などをディスプレイに表示する。   The display unit 16 has a display such as an LCD, and is a device that transmits information to the user 2 by display on the display. The display unit 16 is provided on the moving body 1. As shown in FIG. 1, the display of the display unit 16 is provided on the surface facing the user 2. That is, the display of the display unit 16 is arranged in the same direction as the user recognition sensor 13. Further, the display of the display unit 16 is configured as a touch panel, and is configured so that an operation by the user 2 can be input. The display unit 16 inputs an instruction from the user 2 to the moving body 1 via the HMI unit 26 (see FIG. 2), and displays the state of the moving body 1 and the moving path on the display.

図2を参照して、移動体1の電気的構成について説明する。図2は、移動体1の電気的構成を示すブロック図である。制御部12は、移動体1の各部を制御するための装置であり、図2に示す通り、CPU20、ROM21及びRAM22を備え、これらがバスライン23を介して入出力ポート24にそれぞれ接続されている。また、入出力ポート24には、ユーザ認識センサ13、周辺認識センサ14、駆動部25、HMI部26がそれぞれ接続されている。   With reference to FIG. 2, the electrical configuration of the moving body 1 will be described. FIG. 2 is a block diagram showing an electrical configuration of the moving body 1. The control unit 12 is a device for controlling each part of the moving body 1 and includes a CPU 20, a ROM 21 and a RAM 22 as shown in FIG. 2, and these are connected to the input / output port 24 via the bus line 23. Yes. In addition, the user recognition sensor 13, the periphery recognition sensor 14, the drive unit 25, and the HMI unit 26 are connected to the input / output port 24.

CPU20は、バスライン23により接続された各部を制御する演算装置である。ROM21は、CPU20により実行される制御プログラム(例えば、図3のメイン処理)や固定値データ等を格納した書き換え不能な不揮発性メモリである。   The CPU 20 is an arithmetic unit that controls each unit connected by the bus line 23. The ROM 21 is a non-rewritable nonvolatile memory that stores a control program (for example, the main process of FIG. 3) executed by the CPU 20, fixed value data, and the like.

RAM22は、CPU20が制御プログラム実行時に各種のワークデータやフラグ等を書き換え可能に記憶するためのメモリであり、ユーザ位置情報メモリ22aと、移動体位置情報メモリ22bと、障害物位置情報メモリ22cと、ユーザ幅メモリ22dと、ユーザ進行経路メモリ22eと、回避経路半径メモリ22fと、制御モードメモリ22gと、周辺環境情報メモリ22hとがそれぞれ設けられる。   The RAM 22 is a memory for the CPU 20 to rewrite various work data, flags and the like when the control program is executed, and includes a user position information memory 22a, a moving body position information memory 22b, and an obstacle position information memory 22c. A user width memory 22d, a user progress path memory 22e, an avoidance path radius memory 22f, a control mode memory 22g, and a peripheral environment information memory 22h are provided.

ユーザ位置情報メモリ22aは、移動体1の移動制御で用いられるユーザ2の位置を記憶するメモリであり、X座標メモリ22a1とY座標メモリ22a2と方向メモリ22a3とを有する。X座標メモリ22a1、Y座標メモリ22a2、方向メモリ22a3の座標系は、いずれも前述した移動体座標系である。制御部12の電源投入時には、X座標メモリ22a1、Y座標メモリ22a2、方向メモリ22a3の値は、それぞれ「0」クリアされる。   The user position information memory 22a is a memory that stores the position of the user 2 used in the movement control of the moving body 1, and includes an X coordinate memory 22a1, a Y coordinate memory 22a2, and a direction memory 22a3. The coordinate systems of the X coordinate memory 22a1, the Y coordinate memory 22a2, and the direction memory 22a3 are all the moving body coordinate systems described above. When the control unit 12 is turned on, the values of the X coordinate memory 22a1, the Y coordinate memory 22a2, and the direction memory 22a3 are each cleared to “0”.

ユーザ認識センサ13によってユーザ2の画像の取得が行われると、制御部12によってその画像が解析され、ユーザ2の位置およびユーザの向いている向きが算出される。X座標メモリ22a1にはユーザ2の位置のX座標が格納され、Y座標メモリ22a2にはユーザ2の位置のY座標が格納される。方向メモリ22a3には、ユーザ2が向いている方向(単位:ラジアン)が格納される。その後、X座標メモリ22a1、Y座標メモリ22a2及び方向メモリ22a3の各値は、必要に応じてユーザ2の位置を原点(0,0)とした座標系(以下「ユーザ座標系」と称す)に変換され(図3のS10)、移動体1の移動制御に用いられる。   When the image of the user 2 is acquired by the user recognition sensor 13, the control unit 12 analyzes the image, and calculates the position of the user 2 and the direction in which the user is facing. The X coordinate memory 22a1 stores the X coordinate of the position of the user 2, and the Y coordinate memory 22a2 stores the Y coordinate of the position of the user 2. The direction memory 22a3 stores the direction (unit: radians) that the user 2 is facing. Thereafter, the values in the X coordinate memory 22a1, the Y coordinate memory 22a2, and the direction memory 22a3 are set in a coordinate system (hereinafter referred to as “user coordinate system”) with the position of the user 2 as the origin (0, 0) as necessary. It is converted (S10 in FIG. 3) and used for movement control of the moving body 1.

移動体位置情報メモリ22bは、移動体1の移動制御で用いられる移動体1の位置を記憶するメモリであり、X座標メモリ22b1とY座標メモリ22b2とを有する。X座標メモリ22b1、Y座標メモリ22b2の座標系は、いずれも前述した移動体座標系である。制御部12の電源投入時には、X座標メモリ22b1、Y座標メモリ22b2の値は、それぞれ「0」クリアされる。また、後述する図3のメイン処理の開始時(S1)に、X座標メモリ22b1とY座標メモリ22b2の値とに、それぞれ「0」が格納される。その後、X座標メモリ22b1及びY座標メモリ22b2の値は、必要に応じてユーザ2の位置を原点(0,0)としたユーザ座標系に変換され(図3のS10)、移動体1の移動制御に用いられる。   The moving body position information memory 22b is a memory that stores the position of the moving body 1 used in the movement control of the moving body 1, and includes an X coordinate memory 22b1 and a Y coordinate memory 22b2. The coordinate systems of the X coordinate memory 22b1 and the Y coordinate memory 22b2 are both the above-described moving body coordinate systems. When the control unit 12 is turned on, the values of the X coordinate memory 22b1 and the Y coordinate memory 22b2 are cleared to “0”. Further, at the start of the main process of FIG. 3 described later (S1), “0” is stored in the values of the X coordinate memory 22b1 and the Y coordinate memory 22b2, respectively. Thereafter, the values in the X coordinate memory 22b1 and the Y coordinate memory 22b2 are converted into a user coordinate system with the position of the user 2 as the origin (0, 0) as necessary (S10 in FIG. 3), and the movement of the moving body 1 Used for control.

障害物位置情報メモリ22cは、ユーザ進行経路メモリ22eに記憶される4つの頂点で示される帯状の領域(進行経路up(図4参照))に存在する、障害物の位置を記憶するメモリであり、X座標メモリ22c1とY座標メモリ22c2とを有する。X座標メモリ22c1、Y座標メモリ22c2の座標系は、いずれも前述した移動体座標系である。制御部12の電源投入時には、X座標メモリ22c1、Y座標メモリ22c2の値は、それぞれ「0」クリアされる。   The obstacle position information memory 22c is a memory for storing the position of an obstacle existing in a belt-like area (travel path up (see FIG. 4)) indicated by four vertices stored in the user travel path memory 22e. X coordinate memory 22c1 and Y coordinate memory 22c2. The coordinate systems of the X coordinate memory 22c1 and the Y coordinate memory 22c2 are both the above-described moving body coordinate systems. When the control unit 12 is turned on, the values of the X coordinate memory 22c1 and the Y coordinate memory 22c2 are each cleared to “0”.

周辺認識センサ14により移動体1の周辺画像の取得が行われると、制御部12はその移動体1の周辺画像から、ユーザ進行経路メモリ22eに記憶される4つの頂点で示される帯状の領域(進行経路up)に存在する障害物の位置を算出する。障害物が複数検出された場合は、それら障害物の位置と、ユーザ位置情報メモリ22aの値との距離が最も小さな障害物を選択する。X座標メモリ22c1には、その障害物の位置のX座標が格納され、Y座標メモリ22c2には、その障害物の位置のY座標が格納される。   When the peripheral image of the moving body 1 is acquired by the peripheral recognition sensor 14, the control unit 12 determines from the peripheral image of the moving body 1 a belt-like area indicated by four vertices stored in the user travel path memory 22 e ( The position of the obstacle present in the travel path up) is calculated. When a plurality of obstacles are detected, the obstacle having the smallest distance between the positions of the obstacles and the value in the user position information memory 22a is selected. The X coordinate memory 22c1 stores the X coordinate of the position of the obstacle, and the Y coordinate memory 22c2 stores the Y coordinate of the position of the obstacle.

本実施形態においては、障害物の検出を行う前にX座標メモリ22c1、Y座標メモリ22c2の値に、それぞれ「0」が設定される(メイン処理(図3)のS2)。これにより障害物位置情報メモリ22cの各値は、移動体1の位置を記憶する移動体位置情報メモリ22bの各値と同じ値となる。よって、障害物の検出が行われた後に、X座標メモリ22c1、Y座標メモリ22c2の値が共に「0」である場合は、制御部12は、障害物が検出されていないと判断する。なお、X座標メモリ22c1及びY座標メモリ22c2の値は、その後、必要に応じてユーザ2の位置を原点(0,0)としたユーザ座標系に変換され(図3のS10)、移動体1の移動制御に用いられる。   In the present embodiment, “0” is set to the values of the X coordinate memory 22c1 and the Y coordinate memory 22c2 before the obstacle is detected (S2 of the main process (FIG. 3)). Thereby, each value of the obstacle position information memory 22c becomes the same value as each value of the moving object position information memory 22b that stores the position of the moving object 1. Therefore, after the obstacle is detected, when both the values of the X coordinate memory 22c1 and the Y coordinate memory 22c2 are “0”, the control unit 12 determines that no obstacle is detected. The values in the X coordinate memory 22c1 and the Y coordinate memory 22c2 are then converted into a user coordinate system with the position of the user 2 as the origin (0, 0) as necessary (S10 in FIG. 3), and the moving object 1 It is used for movement control.

ユーザ幅メモリ22dは、ユーザ2の肩幅を記憶するメモリである。制御部12の電源投入時には、ユーザ幅メモリ22dの値は「0」クリアされる。ユーザ認識センサ13によってユーザ2の画像が取得されると、制御部12によって、その画像が解析され、ユーザ2の両肩が検出される。そして、両肩間の長さが算出され、その値がユーザ幅メモリ22dに格納される。ユーザ幅メモリ22dの値は、ユーザ2の進行経路upや回避経路apの幅wpとして使用される(図4参照)。   The user width memory 22d is a memory that stores the shoulder width of the user 2. When the control unit 12 is turned on, the value of the user width memory 22d is cleared to “0”. When an image of the user 2 is acquired by the user recognition sensor 13, the control unit 12 analyzes the image and detects both shoulders of the user 2. Then, the length between both shoulders is calculated, and the value is stored in the user width memory 22d. The value of the user width memory 22d is used as the width wp of the travel path up and the avoidance path ap of the user 2 (see FIG. 4).

ユーザ進行経路メモリ22eは、ユーザ2の進行経路upの帯状の領域を示す4つの頂点(Uplu,Upru,Upfl,Upfr)の座標(図4参照)を記憶するメモリである。制御部12の電源投入時に、ユーザ進行経路メモリ22eの4つの頂点の座標には「0」が設定され、ユーザ2の進行経路upの領域が未だ算出されていないことを示す。ユーザ認識センサ13より、ユーザ2の位置がユーザ位置情報メモリ22aに格納され、ユーザ2の肩幅がユーザ幅メモリ22dに格納された後、制御部12によって、ユーザ位置情報メモリ22aの値とユーザ幅メモリ22dの値とから、ユーザ2の進行経路upの領域が算出される。その算出されたユーザ2の進行経路upの帯状の領域を示す4つの頂点の座標(Uplu,Upru,Upfl,Upfr)が、ユーザ進行経路メモリ22eに格納される。   The user progress path memory 22e is a memory for storing the coordinates (see FIG. 4) of four vertices (Uplu, Upru, Upfl, Upfr) indicating the band-like area of the user 2 travel path up. When the control unit 12 is turned on, the coordinates of the four vertices in the user progress path memory 22e are set to “0”, indicating that the area of the user 2 progress path up has not yet been calculated. After the position of the user 2 is stored in the user position information memory 22a and the shoulder width of the user 2 is stored in the user width memory 22d by the user recognition sensor 13, the value and the user width of the user position information memory 22a are controlled by the control unit 12. From the value of the memory 22d, the area of the travel path up of the user 2 is calculated. The calculated coordinates (Uplu, Upru, Upfl, Upfr) of the four vertices indicating the band-like area of the travel path up of the user 2 are stored in the user travel path memory 22e.

回避経路半径メモリ22fは、ユーザ2の進行経路up上に存在する、障害物を回避するための回避経路apの半径を記憶するメモリである。本実施形態では、回避経路apは円弧状の経路して算出される。制御部12の電源投入時には、回避経路半径メモリ22fの値は「0」クリアされる。障害物位置情報メモリ22cの値から、ユーザ2の進行経路up上に障害物が存在すると判断された場合、制御部12は、その障害物位置情報メモリ22cの値と、ユーザ位置情報メモリ22aの値と、ユーザ幅メモリ22dの値とから、円弧状の回避経路apを算出する。その円弧の半径が回避経路半径メモリ22fへ格納される。なお、回避経路apの半径は、回避経路apが右回転の円弧状の場合に正の値として記憶され、左回転の円弧状の場合に負の値として記憶される。   The avoidance path radius memory 22f is a memory that stores the radius of the avoidance path ap for avoiding an obstacle that exists on the travel path up of the user 2. In the present embodiment, the avoidance path ap is calculated as an arc-shaped path. When the control unit 12 is turned on, the value of the avoidance path radius memory 22f is cleared to “0”. When it is determined from the value in the obstacle position information memory 22c that an obstacle exists on the travel path up of the user 2, the control unit 12 determines the value in the obstacle position information memory 22c and the value in the user position information memory 22a. The arc-shaped avoidance path ap is calculated from the value and the value of the user width memory 22d. The radius of the arc is stored in the avoidance path radius memory 22f. The radius of the avoidance path ap is stored as a positive value when the avoidance path ap is a right-turn arc, and is stored as a negative value when the avoidance path ap is a left-turn arc.

制御モードメモリ22gは、移動体1の制御モードを記憶するためのメモリである。移動体1の制御モードには「前方追従モード」、「ターンモード」、「被補助モード」が設けられている。制御部12の電源投入時には、制御モードメモリ22gの値に「被補助モード」が設定される。   The control mode memory 22g is a memory for storing the control mode of the moving body 1. The control mode of the moving body 1 is provided with a “front tracking mode”, a “turn mode”, and an “auxiliary mode”. When the control unit 12 is turned on, the “assisted mode” is set to the value of the control mode memory 22g.

「前方追従モード」は、移動体1がユーザ2の前方にて、ユーザ2に対して適切な位置に移動して、ユーザ2に追従するモードである。ユーザ2の進行経路up上に障害物が存在しない場合や、回避経路半径メモリ22fの値が第2所定値より大きい場合は、制御モードメモリ22gに「前方追従モード」が設定される。   The “front tracking mode” is a mode in which the moving body 1 moves to an appropriate position with respect to the user 2 in front of the user 2 and follows the user 2. When there is no obstacle on the travel path up of the user 2 or when the value of the avoidance path radius memory 22f is larger than the second predetermined value, the “front tracking mode” is set in the control mode memory 22g.

「ターンモード」は、移動体1とユーザ2との相対角度を保ったまま、移動体1をその場で回転移動させて、ユーザ2に追従させるモードである。回避経路半径メモリ22fの値が第2所定値以下で、かつ移動体位置情報メモリ22bの値と、障害物位置情報メモリ22cとの距離の値が第3所定値以上の場合、制御モードメモリ22gに「ターンモード」が設定される。   The “turn mode” is a mode in which the moving body 1 is rotated and moved on the spot while keeping the relative angle between the moving body 1 and the user 2 to follow the user 2. When the value of the avoidance path radius memory 22f is equal to or smaller than the second predetermined value and the distance between the moving object position information memory 22b and the obstacle position information memory 22c is equal to or larger than the third predetermined value, the control mode memory 22g “Turn mode” is set to.

「被補助モード」は、移動体1を停止させた後に、ユーザ2の手動操作などによって、移動体1を移動させるモードである。移動体位置情報メモリ22bの値と、障害物位置情報メモリ22cの値との距離が第3所定値未満である場合、即ち、移動体1と障害物とが余りに接近した状態である場合に、制御モードメモリ22gに「被補助モード」が設定される。   “Assisted mode” is a mode in which the moving body 1 is moved by the manual operation of the user 2 after the moving body 1 is stopped. When the distance between the value of the moving object position information memory 22b and the value of the obstacle position information memory 22c is less than the third predetermined value, that is, when the moving object 1 and the obstacle are too close to each other, “Assisted mode” is set in the control mode memory 22g.

なお、第2所定値および第3所定値としては、例えばいずれも1.0mを例示できる。かかる場合、回避経路apの半径(回避経路半径メモリ22fの値)が、1.0mより大きければ「前方追従モード」とされ、回避経路apの半径が1.0mであれば「ターンモード」とされ、更に回避経路apの半径が1.0m未満であれば「被補助モード」とされる。   As the second predetermined value and the third predetermined value, for example, 1.0 m can be exemplified. In such a case, if the radius of the avoidance route ap (value of the avoidance route radius memory 22f) is larger than 1.0 m, the “front follow mode” is set, and if the avoidance route ap has a radius of 1.0 m, the “turn mode” is set. If the radius of the avoidance route ap is less than 1.0 m, the “assisted mode” is set.

また、これら第2所定値、第3所定値の各値は、必ずしもこれに限られるものではなく、例えばユーザ2の肩幅(ユーザ幅メモリ22dの値)に応じて変化する値としても良い。具体的には、ユーザ2の肩幅に、ある程度のマージン(例えば40〜50cm)を加えたものを第2所定値とし、ユーザ2の肩幅に小さめのマージン(例えば20〜50cm)を加えたものを第3所定値とするようにしても良い。更に、第2所定値と第3所定値とは、「第2所定値≧第3所定値」の関係を維持していれば、本実施例のように同じ値であっても良いし、異なる値であっても良い。第2所定値と第3所定値とが異なる値で構成されれば、「ターンモード」へ移行する範囲が大きくなる。   In addition, the values of the second predetermined value and the third predetermined value are not necessarily limited to this, and may be values that change according to, for example, the shoulder width of the user 2 (value of the user width memory 22d). Specifically, a value obtained by adding a certain margin (for example, 40 to 50 cm) to the shoulder width of the user 2 is set as a second predetermined value, and a value obtained by adding a small margin (for example, 20 to 50 cm) to the shoulder width of the user 2 You may make it be the 3rd predetermined value. Further, the second predetermined value and the third predetermined value may be the same value as in the present embodiment or different as long as the relationship of “second predetermined value ≧ third predetermined value” is maintained. It may be a value. If the second predetermined value and the third predetermined value are different from each other, the range for shifting to the “turn mode” becomes large.

周辺環境情報メモリ22hは、周辺認識センサ14によって取得された、移動体1の周辺画像を記憶するメモリ領域である。制御部12の電源投入時には、周辺環境情報メモリ22hの全領域に「無効画像(具体的には「0」)」が設定される。周辺認識センサ14によって移動体1の周辺画像が取得されると、その周辺画像が周辺環境情報メモリ22hに記憶される。   The peripheral environment information memory 22h is a memory area for storing a peripheral image of the moving body 1 acquired by the peripheral recognition sensor 14. When the control unit 12 is turned on, “invalid image (specifically“ 0 ”)” is set in the entire area of the peripheral environment information memory 22h. When the peripheral image of the moving body 1 is acquired by the peripheral recognition sensor 14, the peripheral image is stored in the peripheral environment information memory 22h.

駆動部25は、移動体1を移動させるための装置であり、車輪15および車輪15の駆動源となるモータ(図示せず)などから構成される。制御部12から移動信号が駆動部25へ入力されると、入力された信号に基づいてモータが回転し、当該モータの回転が動力となって車輪15が駆動し、移動体1を動作させる。   The drive unit 25 is a device for moving the mobile body 1 and includes a wheel 15 and a motor (not shown) serving as a drive source for the wheel 15. When a movement signal is input from the control unit 12 to the drive unit 25, the motor rotates based on the input signal, and the rotation of the motor is used as power to drive the wheel 15 to operate the moving body 1.

HMI部26は、ユーザ2へ情報を出力すると共に、ユーザ2による移動体1への指示を入力するためのインタフェイスである。前述した通り、ディスプレイとタッチパネルとを有した表示部16で構成される。HMI部26は、制御部12から入力された制御信号に応じて表示部16のディスプレイに情報を出力して表示する。一方、ユーザ2から表示部16のタッチパネルを経由してHMI部26に指示が入力されると、HMI部26は、当該入力に応じた制御信号を制御部12に出力する。移動体1が「被補助モード」にある場合に、ユーザ2はタッチパネルを介して移動体1を所望の位置に移動させる。   The HMI unit 26 is an interface for outputting information to the user 2 and inputting instructions to the moving body 1 by the user 2. As described above, the display unit 16 includes a display and a touch panel. The HMI unit 26 outputs and displays information on the display of the display unit 16 according to the control signal input from the control unit 12. On the other hand, when an instruction is input from the user 2 to the HMI unit 26 via the touch panel of the display unit 16, the HMI unit 26 outputs a control signal corresponding to the input to the control unit 12. When the moving body 1 is in the “assisted mode”, the user 2 moves the moving body 1 to a desired position via the touch panel.

なお、ディスプレイ及びタッチパネルと共に、或いはこれらに代えて、音声を出力するスピーカや音声を入力するマイクをHMI部26に設けるようにしてもよい。この場合には、ディスプレイへの表示と共に或いはディスプレイへの表示に代えて、スピーカから出力される音声によって移動体1の情報がユーザ2に出力され、またタッチパネルへの入力と共に或いはタッチパネルへの入力に代えて、ユーザ2が発する音声をマイクから入力することによって移動体1への指示を行うことができる。   Note that a speaker for outputting sound and a microphone for inputting sound may be provided in the HMI unit 26 together with or in place of the display and the touch panel. In this case, the information of the moving body 1 is output to the user 2 by the sound output from the speaker together with the display on the display or instead of the display on the display, and the input to the touch panel or the input to the touch panel. Instead, it is possible to give an instruction to the moving body 1 by inputting the voice uttered by the user 2 from the microphone.

次に、図3から図7を参照して、制御部12のCPU20で実行される処理について説明する。図3は、メイン処理のフローチャートである。メイン処理により、移動体1は、ユーザ2の進行経路upや、移動体1と障害物との距離、ユーザ2の回避経路apなどを算出し、それらに基づいて制御モードを設定する。制御モードが設定されると、移動体1は、その設定された制御モードに基づいて、移動体1の移動制御を行う。なお、メイン処理は100ms毎のインターバル割り込み処理により繰り返し実行される。   Next, processing executed by the CPU 20 of the control unit 12 will be described with reference to FIGS. FIG. 3 is a flowchart of the main process. By the main processing, the mobile body 1 calculates the travel path up of the user 2, the distance between the mobile body 1 and the obstacle, the avoidance path ap of the user 2, and the like, and sets the control mode based on these. When the control mode is set, the moving body 1 performs movement control of the moving body 1 based on the set control mode. The main process is repeatedly executed by an interval interrupt process every 100 ms.

メイン処理では、まず移動体位置情報メモリ22bのX座標メモリ22b1と、Y座標メモリ22b2とにそれぞれ「0」を設定し(S1)、障害物位置情報メモリ22cのX座標メモリ22c1と、Y座標メモリ22c2とにそれぞれ「0」を設定する(S2)。   In the main process, first, “0” is set in each of the X coordinate memory 22b1 and the Y coordinate memory 22b2 of the moving body location information memory 22b (S1), and the X coordinate memory 22c1 and the Y coordinate of the obstacle location information memory 22c are set. “0” is set in each of the memories 22c2 (S2).

次に、ユーザ認識センサ13からユーザ2の位置を取得し、そのX座標をユーザ位置情報メモリ22aのX座標メモリ22a1に、Y座標をY座標メモリ22a2に、ユーザ2が向いている方向を方向メモリ22a3に、それぞれ保存する(S3)。具体的には、ユーザ認識センサ13から、ユーザ2を含む画像を取得する。制御部12は、その画像をエッジ抽出およびパターン認識によってユーザ2を認識し、その位置と、ユーザ2が向いている方向とを取得する。このように取得されたユーザ2の位置をユーザ位置情報メモリ22aのX座標メモリ22a1、Y座標メモリ22a2に、ユーザ2が向いている方向を方向メモリ22a3にそれぞれ保存する。   Next, the position of the user 2 is acquired from the user recognition sensor 13, the X coordinate is set to the X coordinate memory 22 a 1 of the user position information memory 22 a, the Y coordinate is set to the Y coordinate memory 22 a 2, and the direction in which the user 2 is facing is set as the direction. Each is stored in the memory 22a3 (S3). Specifically, an image including the user 2 is acquired from the user recognition sensor 13. The control unit 12 recognizes the user 2 by performing edge extraction and pattern recognition on the image, and acquires the position and the direction in which the user 2 is facing. The position of the user 2 thus acquired is stored in the X coordinate memory 22a1 and the Y coordinate memory 22a2 of the user position information memory 22a, and the direction in which the user 2 is facing is stored in the direction memory 22a3.

次に、ユーザ認識センサ13からユーザ2の肩幅を取得し、ユーザ幅メモリ22dへ保存する(S4)。具体的には、ユーザ認識センサ13から、ユーザ2を含む画像を取得する。制御部12は、その画像をエッジ抽出およびパターン認識によって、ユーザ2の両肩を認識し、その両肩間の距離、即ちユーザ2の肩幅を算出する。算出された肩幅をユーザ幅メモリ22dへ保存する。なお、肩幅は、ユーザ位置情報メモリ22aの方向メモリ22a3の値に応じて、適宜補正した上で、ユーザ幅メモリ22dへ保存するようにしてもよい。   Next, the shoulder width of the user 2 is acquired from the user recognition sensor 13 and stored in the user width memory 22d (S4). Specifically, an image including the user 2 is acquired from the user recognition sensor 13. The control unit 12 recognizes both shoulders of the user 2 by edge extraction and pattern recognition of the image, and calculates a distance between the shoulders, that is, a shoulder width of the user 2. The calculated shoulder width is stored in the user width memory 22d. The shoulder width may be appropriately corrected according to the value of the direction memory 22a3 of the user position information memory 22a and then stored in the user width memory 22d.

その後、周辺認識センサ14から移動体1の周辺画像を取得し、周辺環境情報メモリ22hへ保存する(S5)。また、ユーザ位置情報メモリ22aの値とユーザ幅メモリ22dの値とから、ユーザ2の進行経路upを算出し、ユーザ進行経路メモリ22eへ保存する(S6)。   Thereafter, a peripheral image of the moving body 1 is acquired from the peripheral recognition sensor 14 and stored in the peripheral environment information memory 22h (S5). Further, the travel path up of the user 2 is calculated from the value of the user position information memory 22a and the value of the user width memory 22d, and stored in the user travel path memory 22e (S6).

ここで、図4(a)を参照して、ユーザ2の進行経路upの算出およびユーザ進行経路メモリ22eへの値の保存(4座標の保存)について説明する。図4(a)は、ユーザ2の進行経路upと回避経路apとを示す図である。図4(a)において、ユーザ2の位置をPu(Xu,Yu)と表し、移動体1の位置をPm(Xm,Ym)と表す。図4(a)は、移動体1と、ユーザ2とが、三方を壁に囲まれた領域を移動している状態である。   Here, with reference to FIG. 4A, calculation of the travel route up of the user 2 and storage of values in the user travel route memory 22e (storage of four coordinates) will be described. FIG. 4A is a diagram showing the travel route up and the avoidance route ap of the user 2. In FIG. 4A, the position of the user 2 is represented as Pu (Xu, Yu), and the position of the moving body 1 is represented as Pm (Xm, Ym). FIG. 4A shows a state in which the moving body 1 and the user 2 are moving in an area surrounded by walls on three sides.

進行経路upは、経路の始点が位置Puで、幅wp、長さlpの矩形の領域として算出される。進行経路upの幅wpは、ユーザ幅メモリ22dに記憶されるユーザ2の肩幅とされる。この幅は、位置Puを中心に左右それぞれwp/2ずつ設けられる。進行経路upの方向は、ユーザ2が向いている方向、即ちユーザ位置情報メモリ22aの方向メモリ22a3の値の方向とされる。更に、進行経路upの長さlpとしては第4所定値が設定される。   The travel route up is calculated as a rectangular area having a width Pu and a length lp at the start point of the route Pu. The width wp of the travel path up is the shoulder width of the user 2 stored in the user width memory 22d. This width is provided by wp / 2 on the left and right sides around the position Pu. The direction of the travel path up is the direction in which the user 2 is facing, that is, the direction of the value in the direction memory 22a3 of the user position information memory 22a. Further, a fourth predetermined value is set as the length lp of the traveling route up.

なお、本実施形態において、第4所定値としては例えば2.0mを例示できる。しかし、必ずしもこれに限られるものではなく、第4所定値をユーザ2の歩行速度に応じて変化する値としても良い。具体的には、ユーザ2の歩行速度が速い場合には第4所定値を大きく、歩行速度が遅い場合には第4所定値を小さくしても良い。また、ユーザ2の歩行速度にある係数を乗じた値を第4所定値としても良い。更に、HMI部26を介して任意に設定した値を、第4所定値としてもよい。   In the present embodiment, the fourth predetermined value may be 2.0 m, for example. However, the present invention is not necessarily limited to this, and the fourth predetermined value may be a value that changes according to the walking speed of the user 2. Specifically, the fourth predetermined value may be increased when the walking speed of the user 2 is fast, and may be decreased when the walking speed is slow. Further, a value obtained by multiplying the walking speed of the user 2 by a certain coefficient may be set as the fourth predetermined value. Further, a value arbitrarily set via the HMI unit 26 may be set as the fourth predetermined value.

このように進行経路upは、位置Pu(ユーザ位置情報メモリ22aのX座標メモリ22a1、Y座標メモリ22a2の値)と、幅wp(ユーザ幅メモリ22dの値)と、ユーザ2が向いている方向(ユーザ位置情報メモリ22aの方向メモリ22a3)とによって算出される。これは、ユーザ2が、現在のユーザ2の向いている方向のまま移動した場合の、ユーザ2の進行経路upである。このように算出された、進行経路upの帯状の領域の4つの頂点(Uplu,Upru,Upfl,Upfr)の座標(4座標)が、ユーザ進行経路メモリ22eに保存される。   In this way, the travel path up includes the position Pu (the values of the X coordinate memory 22a1 and the Y coordinate memory 22a2 of the user position information memory 22a), the width wp (the value of the user width memory 22d), and the direction in which the user 2 is facing. (Direction memory 22a3 of user position information memory 22a). This is the travel path up of the user 2 when the user 2 moves in the direction that the current user 2 is facing. The coordinates (four coordinates) of the four vertices (Uplu, Upru, Upfl, Upfr) of the belt-like area of the travel route up calculated in this way are stored in the user travel route memory 22e.

図3に戻る。S6の処理後、ユーザ位置情報メモリ22aの値とユーザ進行経路メモリ22eの値と周辺環境情報メモリ22hの値とから、ユーザ2の進行経路up上に存在する、ユーザ2に最も近い障害物を検索し、その障害物の位置を障害物位置情報メモリ22cへ保存する(S7)。   Returning to FIG. After the process of S6, the obstacle closest to the user 2 existing on the travel path up of the user 2 is determined from the value of the user position information memory 22a, the value of the user travel path memory 22e, and the value of the surrounding environment information memory 22h. The position of the obstacle is searched and stored in the obstacle position information memory 22c (S7).

ここで、図4(a)を参照して、障害物の位置の取得について説明する。図4(a)においては、ユーザ2の進行方向に壁が存在する。この壁の一部は、ユーザ2の進行経路upの領域内に存在している。そのため、ユーザ2が、現在のユーザ2の向いている方向のまま歩行すると、やがてこの壁に衝突する。即ち、この壁がユーザ2の歩行に対する障害物となる。従って、この場合、進行経路upの領域内に含まれている、壁の面に存在する全ての座標が障害物の位置の候補となる。   Here, the acquisition of the position of the obstacle will be described with reference to FIG. In FIG. 4A, there is a wall in the traveling direction of the user 2. A part of this wall exists in the area of the travel path up of the user 2. Therefore, when the user 2 walks in the direction that the current user 2 is facing, it eventually collides with this wall. That is, this wall becomes an obstacle to the walking of the user 2. Accordingly, in this case, all the coordinates existing on the wall surface included in the area of the traveling path up are candidates for the position of the obstacle.

このように障害物の位置の候補が複数存在する場合は、障害物の位置とユーザ2の位置Puとの距離が最も小さいものが、障害物の位置とされる。即ち、現在のユーザ2の向いている方向のまま歩行して、最も早くユーザ2と接触する位置の座標が、障害物の位置とされる。図4(a)においては、進行経路upの領域内に存在する壁の面のうち、右端の位置Po(Xo,Yo)が障害物の位置となる。この障害物の位置のX座標が障害物位置情報メモリ22cのX座標メモリ22c1に、Y座標が障害物位置情報メモリ22cのY座標メモリ22c2にそれぞれ保存される。   When there are a plurality of obstacle position candidates as described above, the obstacle having the smallest distance between the obstacle position and the position Pu of the user 2 is set as the obstacle position. That is, the coordinates of the position where the user 2 walks in the direction in which the current user 2 is facing and contacts the user 2 earliest are set as the position of the obstacle. In FIG. 4A, the position Po (Xo, Yo) at the right end of the wall surface existing in the region of the traveling path up is the position of the obstacle. The X coordinate of the obstacle position is stored in the X coordinate memory 22c1 of the obstacle position information memory 22c, and the Y coordinate is stored in the Y coordinate memory 22c2 of the obstacle position information memory 22c.

一方、進行経路upの領域内に障害物が存在しない場合は、障害物位置情報メモリ22cのX座標メモリ22c1及びY座標メモリ22c2には座標が保存されないため、X座標メモリ22c1、Y座標メモリ22c2の値はそれぞれ、図3のS2の処理で設定された「0」のままとなる。   On the other hand, when there is no obstacle in the area of the traveling path up, the coordinates are not stored in the X coordinate memory 22c1 and the Y coordinate memory 22c2 of the obstacle position information memory 22c, and thus the X coordinate memory 22c1 and the Y coordinate memory 22c2 are stored. The values of “0” remain “0” set in the process of S2 of FIG.

このように本実施形態では、ユーザ2の進行経路upの領域内でのみ、障害物の検索を行う。よって、ユーザ2の移動に対して、不要な領域への障害物の検索を行うことがないので、障害物検索の制御部12の処理負荷を小さくできる。   As described above, in the present embodiment, the obstacle search is performed only in the area of the travel route up of the user 2. Therefore, since there is no need to search for an obstacle in an unnecessary area with respect to the movement of the user 2, the processing load of the obstacle search control unit 12 can be reduced.

図3に戻る。S7の処理後、障害物位置情報メモリ22cの値が有効かを確認する(S8)。本実施形態において、制御部12は、障害物位置情報メモリ22cのX座標メモリ22c1、Y座標メモリ22c2のいずれかの値が「0」以外である場合、即ち障害物の位置が取得された場合には、有効であると判断する。   Returning to FIG. After the process of S7, it is confirmed whether the value of the obstacle position information memory 22c is valid (S8). In the present embodiment, the control unit 12 determines that the value of either the X coordinate memory 22c1 or the Y coordinate memory 22c2 of the obstacle position information memory 22c is other than “0”, that is, the position of the obstacle is acquired. Is determined to be effective.

S8において、障害物位置情報メモリ22cの値が無効であると判断された場合(S8:No)、即ち障害物位置情報メモリ22cのX座標メモリ22c1、Y座標メモリ22c2の双方の値が「0」である場合には、ユーザ2の進行経路up上には何ら障害物が無いので、ユーザ2および移動体1の移動に支障はない。よって、かかる場合には、制御モードメモリ22gに「前方追従モード」を設定する(S9)。   When it is determined in S8 that the value in the obstacle position information memory 22c is invalid (S8: No), that is, the values in both the X coordinate memory 22c1 and the Y coordinate memory 22c2 in the obstacle position information memory 22c are “0”. ", There is no obstacle on the travel route up of the user 2, so there is no problem in the movement of the user 2 and the moving body 1. Therefore, in such a case, the “front tracking mode” is set in the control mode memory 22g (S9).

一方、障害物位置情報メモリ22cの値が有効と判断された場合は(S8:Yes)、ユーザ位置情報メモリ22a、移動体位置情報メモリ22b、障害物位置情報メモリ22c、ユーザ進行経路メモリ22eの各値をそれぞれユーザ座標系に変換する(S10)。ユーザ座標系は、前述した通り、ユーザ2の位置Pu(Xu,Yu)を原点(0,0)とした座標系である。ユーザ座標系に変換するのは、後のS12の処理で行うユーザ2の回避経路apの算出を、ユーザ2の位置を中心として行うためである。   On the other hand, when it is determined that the value of the obstacle position information memory 22c is valid (S8: Yes), the user position information memory 22a, the moving object position information memory 22b, the obstacle position information memory 22c, and the user travel path memory 22e Each value is converted into the user coordinate system (S10). As described above, the user coordinate system is a coordinate system in which the position Pu (Xu, Yu) of the user 2 is the origin (0, 0). The reason for converting to the user coordinate system is that the calculation of the avoidance route ap of the user 2 performed in the subsequent processing of S12 is performed around the position of the user 2.

S10の処理後、移動体位置情報メモリ22bの値と、障害物位置情報メモリ22cの値との距離が、前述した第3所定値以上か確認する(S11)。かかる距離が第3所定値以上の場合は(S11:Yes)、ユーザ位置情報メモリ22aの値と、障害物位置情報メモリ22cの値と、ユーザ幅メモリ22dの値とから、円弧状のユーザ2の回避経路apを複数算出する。そして、算出された円弧の半径が最も大きな回避経路apの半径を、回避経路半径メモリ22fへ保存する(S12)。   After the process of S10, it is confirmed whether the distance between the value of the moving object position information memory 22b and the value of the obstacle position information memory 22c is equal to or more than the third predetermined value described above (S11). When the distance is equal to or greater than the third predetermined value (S11: Yes), the arc-shaped user 2 is calculated from the value in the user position information memory 22a, the value in the obstacle position information memory 22c, and the value in the user width memory 22d. A plurality of avoidance routes ap are calculated. Then, the radius of the avoidance path ap having the largest calculated arc radius is stored in the avoidance path radius memory 22f (S12).

ここで、図4を参照して、S12の処理における、ユーザ2の回避経路apの算出について説明する。図4(a)の回避経路apは、ユーザ2が進行経路upに存在する障害物Poを回避して移動するための経路である。回避経路apは、経路の始点が位置Puで、幅wp、経路の中心部の円弧の長さがlp、円弧の中心が位置Oap、半径Rの円弧状に形成される。幅wpの大きさは、進行経路upと同じく、ユーザ幅メモリ22dの値、即ちユーザ2の肩幅である。この幅wpは、位置Puを中心に左右それぞれwp/2ずつ設けられる。また、長さlpの大きさも、進行経路upと同じく、前述の第4所定値とされる。制御部12は、回避経路apの半径Rを、障害物位置情報メモリ22cの値と、ユーザ位置情報メモリ22aの値と、ユーザ幅メモリ22dの値とから算出し、回避経路半径メモリ22fへ保存する。   Here, the calculation of the avoidance route ap of the user 2 in the process of S12 will be described with reference to FIG. The avoidance route ap in FIG. 4A is a route for the user 2 to move while avoiding the obstacle Po existing in the travel route up. The avoidance path ap is formed in a circular arc shape with the starting point of the path at the position Pu, the width wp, the length of the arc at the center of the path is lp, the center of the arc is the position Oap, and the radius R. The size of the width wp is the value of the user width memory 22d, that is, the shoulder width of the user 2, like the travel path up. This width wp is provided by wp / 2 on the left and right sides around the position Pu. The size of the length lp is also set to the above-described fourth predetermined value, like the traveling path up. The control unit 12 calculates the radius R of the avoidance path ap from the value of the obstacle position information memory 22c, the value of the user position information memory 22a, and the value of the user width memory 22d, and saves it in the avoidance path radius memory 22f. To do.

回避経路apの半径Rの算出方法について説明する。まず、回避経路apの円弧の中心位置Oapを、位置Puから経路の中心部の円弧の長さがlp、かつ幅がwpの回避経路apが作成できる位置まで、ユーザ座標系のX軸上を正の方向(図4(a)では右方向)へ移動させ、その位置で回避経路apの領域を暫定的に作成する。   A method for calculating the radius R of the avoidance route ap will be described. First, the center position Oap of the arc of the avoidance path ap is set on the X axis of the user coordinate system from the position Pu to a position where an arc avoidance path ap having a length of lp at the center of the path and a width of wp can be created. It moves in the positive direction (right direction in FIG. 4A), and the area of the avoidance route ap is provisionally created at that position.

暫定的に作成された回避経路apの中心部の円弧と、障害物の位置Poとの最短距離dpを算出する。算出された最短距離dpが、ユーザ幅メモリ22dの値の1/2以上、即ちユーザ2の肩幅の1/2以上である場合は、その暫定的な回避経路apは障害物から十分に離れているので、もっと障害物に近づけた回避経路apを作成できる。即ち、かかる場合には、もっと半径の大きな、もっと進行方向の変化が緩やかな回避経路apを作成できる。回避経路apの半径が大きいほど、ユーザ2の進行方向の変化を小さくできるので、ユーザ2の移動負担を軽減できる。よって、かかる場合には、円弧の中心位置Oapをユーザ座標系のX軸上に更に正方向に移動させた上で、再び回避経路apの領域を暫定的に作成する。   The shortest distance dp between the tentatively created arc at the center of the avoidance path ap and the position Po of the obstacle is calculated. When the calculated shortest distance dp is ½ or more of the value of the user width memory 22d, that is, ½ or more of the shoulder width of the user 2, the temporary avoidance path ap is sufficiently separated from the obstacle. Therefore, an avoidance route ap that is closer to the obstacle can be created. That is, in such a case, it is possible to create an avoidance path ap having a larger radius and a gentler change in the traveling direction. As the radius of the avoidance route ap is larger, the change in the traveling direction of the user 2 can be reduced, so that the movement burden on the user 2 can be reduced. Therefore, in such a case, after the center position Oap of the arc is further moved in the positive direction on the X axis of the user coordinate system, the area of the avoidance path ap is provisionally created again.

再度、暫定的に作成された回避経路apの中心部の円弧と、障害物の位置Poとの最短距離dpを算出し、その最短距離dpがユーザ2の肩幅の1/2以上である場合は、更に円弧の中心位置Oapをユーザ座標系のX軸上に正方向に移動させる。以下、この処理を繰り返す。   When the shortest distance dp between the arc at the center of the avoidance route ap created temporarily and the position Po of the obstacle is calculated again, and the shortest distance dp is ½ or more of the shoulder width of the user 2 Further, the center position Oap of the arc is moved in the positive direction on the X axis of the user coordinate system. Thereafter, this process is repeated.

最短距離dpがユーザ2の肩幅の1/2となった場合は、それを正規の回避経路apとする。よって、その時点の円弧の中心位置Oapと位置Puとの距離を、回避経路apの半径Rとして、回避経路半径メモリ22fへ保存する。図4(a)の回避経路apは、円弧の中心位置Oapがユーザ座標系のX軸上の正方向にあり、回避経路apが右回転の円弧状に形成されるので、その半径Rは、回避経路半径メモリ22fへ正の値として保存される。   When the shortest distance dp is ½ of the shoulder width of the user 2, it is set as a regular avoidance route ap. Therefore, the distance between the center position Oap and the position Pu of the arc at that time is stored in the avoidance path radius memory 22f as the radius R of the avoidance path ap. In the avoidance path ap of FIG. 4A, the center position Oap of the arc is in the positive direction on the X axis of the user coordinate system, and the avoidance path ap is formed in a right-turn arc shape. It is stored as a positive value in the avoidance path radius memory 22f.

一方、再度、暫定的に作成された回避経路apの最短距離dpがユーザ2の肩幅の1/2以下となった場合は、一つ前の処理で求めた回避経路apを、正規の回避経路apとする。よって、その場合には、一つ前の処理で求めた円弧の中心位置Oapと位置Puとの距離を、半径Rとして、回避経路半径メモリ22fへ保存する。これにより、円弧状の回避経路apのうち、最も大きな半径の回避経路apを算出できる。   On the other hand, if the shortest distance dp of the tentatively created avoidance route ap is ½ or less of the shoulder width of the user 2, the avoidance route ap obtained in the previous process is replaced with the regular avoidance route. Ap. Therefore, in that case, the distance between the arc center position Oap and the position Pu obtained in the previous process is stored in the avoidance path radius memory 22f as the radius R. Thereby, the avoidance route ap having the largest radius among the arc-shaped avoidance routes ap can be calculated.

図4(a)では、ユーザ2の右側の回避経路apを算出する例を挙げたが、ユーザ2の左側に対しても同様に回避経路apの半径Rを算出する。これについて、図4(b)を参照して説明する。図4(b)は、ユーザ2の進行経路upと左右の回避経路apl,aprとを示す図である。ユーザ2の前方の障害物の位置Poに対して、ユーザ2の右側の回避経路aprは、円弧の中心位置Oapr、半径Rrであり、回避経路aprの中心部の円弧と位置Poとの最短距離がdprである。同様に、ユーザ2の左側の回避経路aplは、円弧の中心位置Oapl、半径Rlであり、回避経路aplの中心部の円弧と位置Poとの最短距離がdplである。   In FIG. 4A, the example of calculating the avoidance route ap on the right side of the user 2 has been described. However, the radius R of the avoidance route ap is similarly calculated for the left side of the user 2. This will be described with reference to FIG. FIG. 4B is a diagram showing the travel path up of the user 2 and the left and right avoidance paths apl and apr. The avoidance path apr on the right side of the user 2 with respect to the position Po of the obstacle ahead of the user 2 is the center position Oap and the radius Rr of the arc, and the shortest distance between the arc at the center of the avoidance path apr and the position Po. Is dpr. Similarly, the avoidance path apl on the left side of the user 2 has an arc center position Oap1 and a radius Rl, and the shortest distance between the arc at the center of the avoidance path ap1 and the position Po is dpl.

半径Rr,Rlの算出方法は、前述した通りであるが、右側の回避経路aprを再計算する場合には、円弧の中心位置Oaprをユーザ座標系のX軸上の正方向(図4(b)の右方向)に移動していく。一方、左側の回避経路aplを再計算する場合には、円弧の中心位置Oaplをユーザ座標系のX軸上の負方向(図4(b)の左方向)に移動していく。なお、左側の回避経路aplは、円弧の中心位置Oaplがユーザ座標系のX軸上の負方向にあり、左回転の円弧状に形成されるので、その半径Rlは、回避経路半径メモリ22fへ負の値として保存される。また半径Rrの算出処理と、半径Rlの算出処理とは、同時に行ってもよいし、どちらか一方を先に行い、他方を後に行ってもよい。   The method of calculating the radii Rr and Rl is as described above. However, when the right avoidance path apr is recalculated, the center position Oapr of the arc is set in the positive direction on the X axis of the user coordinate system (FIG. 4 (b ) To the right). On the other hand, when recalculating the left avoidance path apl, the center position Oapl of the arc is moved in the negative direction on the X axis of the user coordinate system (the left direction in FIG. 4B). Note that the left avoidance path apl is formed in a left-turned arc shape with the arc center position Oapl in the negative direction on the X axis of the user coordinate system, so that the radius Rl is transferred to the avoidance path radius memory 22f. Stored as a negative value. The calculation process of the radius Rr and the calculation process of the radius Rl may be performed at the same time, or either one may be performed first and the other may be performed later.

最終的に算出された、半径Rrと、半径Rlとの大きさを比較し、大きい方を半径Rとし、回避経路半径メモリ22fへ保存する。即ち、算出され得る半径Rのうち、最も大きな半径が回避経路半径メモリ22fへ保存される。半径Rrと、半径Rlとの大きさが同じであった場合は、右側または左側の回避経路apのうち、どちらを選択するかを、制御部12にあらかじめ設定しておいてもよい。また、その回避経路apに至るまでの進行状況から、右側または左側の回避経路apのいずれかを選択するようにしても良い。   The finally calculated sizes of the radius Rr and the radius Rl are compared, and the larger one is set as the radius R, which is stored in the avoidance path radius memory 22f. That is, of the radii R that can be calculated, the largest radius is stored in the avoidance path radius memory 22f. If the sizes of the radius Rr and the radius Rl are the same, it may be set in the control unit 12 in advance which one of the right side or left side avoidance route ap is selected. Moreover, you may make it select either the right side or the left side avoidance path ap from the progress condition until it reaches the avoidance path ap.

このように回避経路apの算出に当たっては、回避経路apの円弧の中心位置Oapを、ユーザ2の位置Puから遠ざけながら、回避経路apの領域を暫定的に作成していく。よって、最終的に算出された、回避経路apにおける中心部の半径Rは、回避経路apの中で最も大きな半径となる。これにより、ユーザ2にとって移動方向の変化が最も緩やかな経路を回避経路apとできるので、その分、ユーザ2による障害物の回避動作に伴う動作負担を軽減できる。   Thus, in calculating the avoidance path ap, the area of the avoidance path ap is provisionally created while keeping the center position Oap of the arc of the avoidance path ap away from the position Pu of the user 2. Therefore, the radius R of the center part in the avoidance route ap finally calculated is the largest radius in the avoidance route ap. Thereby, since the route with the slowest change in the moving direction for the user 2 can be the avoidance route ap, the operation burden associated with the obstacle avoidance operation by the user 2 can be reduced accordingly.

図3に戻る。S12の処理後、回避経路半径メモリ22fの値が第2所定値以下か確認する(S13)。回避経路半径メモリ22fの値が第2所定値以下の場合には(S13:Yes)、移動体1と障害物との距離が狭く「前方追従モード」を維持できないので、制御モードメモリ22gに「ターンモード」を設定する(S14)。一方、回避経路半径メモリ22fの値が第2所定値より大きい場合には(S13:No)、回避経路apを算出したものの、移動体1と障害物との間の距離は十分に確保されており、「前方追従モード」を維持できる。よって、かかる場合には制御モードメモリ22gに「前方追従モード」を設定する(S9)。   Returning to FIG. After the process of S12, it is confirmed whether the value of the avoidance path radius memory 22f is equal to or smaller than a second predetermined value (S13). When the value of the avoidance path radius memory 22f is equal to or smaller than the second predetermined value (S13: Yes), the distance between the moving body 1 and the obstacle is small and the “front tracking mode” cannot be maintained. "Turn mode" is set (S14). On the other hand, when the value of the avoidance path radius memory 22f is larger than the second predetermined value (S13: No), the avoidance path ap is calculated, but the distance between the moving body 1 and the obstacle is sufficiently secured. Therefore, the “front tracking mode” can be maintained. Therefore, in this case, the “front tracking mode” is set in the control mode memory 22g (S9).

また、S11の処理において、移動体位置情報メモリ22bの値と、障害物位置情報メモリ22cの値との距離が、第3所定値未満の場合は(S11:No)、移動体1と障害物との距離は極めて狭く、移動体1の追従移動(自律移動)を継続していては、移動体1が障害物やユーザ2に接触したり衝突しかねない。よって、かかる場合には、制御モードメモリ22gに「被補助モード」を設定して(S15)、移動体1の追従移動(自律移動)を停止する。S9、S14及びS15の処理後、制御モードメモリ22gの値に応じた移動体1に移動制御を行う(S16)。   In the process of S11, when the distance between the value of the mobile object position information memory 22b and the value of the obstacle position information memory 22c is less than the third predetermined value (S11: No), the mobile object 1 and the obstacle The distance between the moving body 1 and the user 2 may come into contact with or collide with the obstacle 1 if the following movement (autonomous movement) of the moving body 1 is continued. Therefore, in such a case, the “assisted mode” is set in the control mode memory 22g (S15), and the follow-up movement (autonomous movement) of the moving body 1 is stopped. After the processes of S9, S14, and S15, movement control is performed on the moving body 1 according to the value of the control mode memory 22g (S16).

なお、S15の処理で、移動体1の制御モードとして「被補助モード」を設定する場合には、移動体1をその位置で停止させて「被補助モード」とするものの他、移動体1を障害物から十分に離れた位置まで移動させた後に停止させて「被補助モード」とするようにしても良い。なお、障害物から十分に離れた位置としては、移動体1と障害物との間をユーザ2が余裕をもって通過できる位置(距離)であり、ユーザ2の肩幅または胴体の厚さに若干のマージン(例えば50cm)を加えた距離を例示できる。   In the process of S15, when the “assisted mode” is set as the control mode of the moving body 1, the moving body 1 is stopped at that position to set the “assisted mode”. After moving to a position sufficiently away from the obstacle, it may be stopped to enter the “assisted mode”. The position sufficiently away from the obstacle is a position (distance) at which the user 2 can pass between the moving body 1 and the obstacle with a margin, and there is a slight margin in the shoulder width of the user 2 or the thickness of the trunk. A distance including (for example, 50 cm) can be exemplified.

次に、図5から図7を参照して、制御モードメモリ22gの値に応じた移動体1の移動制御について説明する。図5(a)は、移動体1の制御モードが「前方追従モード」における、ユーザ2の回避経路apと移動体1の動きとを示す図であり、図5(b)は、移動体1の制御モードが「ターンモード」における、ユーザ2の回避経路apと移動体1の動きとを示す図である。   Next, with reference to FIGS. 5 to 7, the movement control of the moving body 1 according to the value of the control mode memory 22g will be described. FIG. 5A is a diagram illustrating the avoidance path ap of the user 2 and the movement of the moving body 1 when the control mode of the moving body 1 is the “front tracking mode”, and FIG. It is a figure which shows the avoidance path | route ap of the user 2, and the motion of the mobile body 1 in the control mode of "Turn mode".

図5(a)において、回避経路apは、半径R1、中心位置Oap1の円弧で形成され、障害物の位置Poと移動体1との距離はdomである。ここで、距離domは前述した第3所定値以上で、半径R1は前述した第2所定値よりも大きい。即ち、移動体1と障害物との距離がユーザ2の通過に十分なだけ確保され(第3所定値以上)、回避経路apの半径が大きい(第2所定値以上)と判断される場合は(図3中、S11:Yes、S13:No)、制御部12は制御モードメモリ22gに「前方追従モード」を設定する(図3中、S9)。制御モードメモリ22gの値が「前方追従モード」の場合は、移動体1はユーザ2の前方にて、ユーザ2に対し適切な位置に移動して、ユーザ2の追従移動を行う(図3中、S16)。   In FIG. 5A, the avoidance path ap is formed by an arc having a radius R1 and a center position Oap1, and the distance between the obstacle position Po and the moving body 1 is dom. Here, the distance dom is not less than the third predetermined value described above, and the radius R1 is larger than the second predetermined value described above. That is, when it is determined that the distance between the moving body 1 and the obstacle is sufficient for the passage of the user 2 (greater than a third predetermined value) and the radius of the avoidance path ap is large (greater than the second predetermined value). (S11: Yes, S13: No in FIG. 3), the control unit 12 sets the “front tracking mode” in the control mode memory 22g (S9 in FIG. 3). When the value of the control mode memory 22g is “front tracking mode”, the moving body 1 moves to the appropriate position with respect to the user 2 in front of the user 2 and performs the tracking movement of the user 2 (in FIG. 3). , S16).

勿論、ユーザ2の進行経路up上に障害物が存在しない場合、即ち、図3のS8において障害物位置情報メモリ22cの値が有効でない場合も(図3中、S8:No)、制御部12は制御モードメモリ22gに「前方追従モード」を設定し(図3中、S9)、ユーザ2の前方において、ユーザ2の追従移動を行う。   Of course, also when there is no obstacle on the travel path up of the user 2, that is, when the value of the obstacle position information memory 22c is not valid in S8 of FIG. 3 (S8: No in FIG. 3), the control unit 12 Sets the “front tracking mode” in the control mode memory 22g (S9 in FIG. 3), and performs the tracking movement of the user 2 in front of the user 2.

図5(b)において、回避経路apは、半径R2、中心位置Oap2の円弧で形成される。ここで、距離domは第3所定値以上で、半径R2は第2所定値以下である。即ち、移動体1と障害物との距離はユーザ2の通過に十分なだけ確保される一方、回避経路apの半径R2が小さいと判断される。よって、その場合は(図3中、S11:Yes、S13:Yes)、制御部12は制御モードメモリ22gに「ターンモード」を設定する(図3中、S14)。   In FIG. 5B, the avoidance path ap is formed by an arc having a radius R2 and a center position Oap2. Here, the distance dom is not less than the third predetermined value, and the radius R2 is not more than the second predetermined value. That is, it is determined that the distance between the moving body 1 and the obstacle is sufficiently large for the user 2 to pass, while the radius R2 of the avoidance path ap is small. Therefore, in that case (S11: Yes, S13: Yes in FIG. 3), the control unit 12 sets “turn mode” in the control mode memory 22g (S14 in FIG. 3).

制御モードメモリ22gの値が「ターンモード」の場合は、移動体1は、その位置で回転移動を行う(図3中、S16)。即ち、移動体の位置Pmと、円弧の中心位置Oap2とが同じ位置になる。これにより、制御モードが「ターンモード」に設定された移動体1は、ユーザ2の回避経路apの移動に伴って、その場で回転しつつ、ユーザ2に対する追従移動を行う。   When the value of the control mode memory 22g is “turn mode”, the moving body 1 rotates at that position (S16 in FIG. 3). That is, the position Pm of the moving body and the center position Oap2 of the arc are the same position. Accordingly, the moving body 1 whose control mode is set to “turn mode” performs a follow-up movement with respect to the user 2 while rotating on the spot as the user 2 moves along the avoidance path ap.

図6を参照して、移動体1の制御モードが「ターンモード」に設定された場合の、移動体1の回転移動について説明する。図6(a)は、移動体1の制御モードが「ターンモード」に設定された直後における、移動体1とユーザ2との位置関係を示す図であり、図6(b)は、移動体1の制御モードが「ターンモード」で、ユーザ2が移動体1の周囲を歩行している場合における、移動体1とユーザ2との位置関係を示す図である。制御モードが「ターンモード」の移動体1は、移動体1とユーザ2との相対角度を保つように、回転移動を行う。図6(a)において、移動体1とユーザ2との相対角度は、θumである。ここで、θumは、前述のユーザ座標系で算出された値である。   With reference to FIG. 6, the rotational movement of the moving body 1 when the control mode of the moving body 1 is set to the “turn mode” will be described. FIG. 6A is a diagram showing the positional relationship between the mobile body 1 and the user 2 immediately after the control mode of the mobile body 1 is set to “turn mode”, and FIG. FIG. 3 is a diagram illustrating a positional relationship between the moving body 1 and the user 2 when the control mode 1 is “turn mode” and the user 2 is walking around the moving body 1. The moving body 1 whose control mode is “turn mode” performs rotational movement so that the relative angle between the moving body 1 and the user 2 is maintained. In FIG. 6A, the relative angle between the moving body 1 and the user 2 is θum. Here, θum is a value calculated in the above-described user coordinate system.

図6(b)において、位置Pu’は、図6(a)の時点におけるユーザ2の位置であり、位置Puは、位置Pu’から移動したある時点のユーザ2の位置である。ユーザ2の位置Pu’から位置Puへの移動に合わせて、移動体1は回転移動を行う。その結果、位置Puとユーザ2との相対角度は、図6(a)の時点と同じθumを維持する。つまり、制御モードが「ターンモード」に設定された場合、移動体1は、ユーザ2との相対角度θumを保ったまま、回転移動を行う。これにより、ユーザ2に対し移動体1の一部が常に対面するように回転移動することとなり、移動体1がX,Y座標に移動しなくても、ユーザ2は、移動体1が自身に対し追従移動していることを確認できる。   In FIG. 6B, the position Pu ′ is the position of the user 2 at the time point of FIG. 6A, and the position Pu is the position of the user 2 at a certain time point moved from the position Pu ′. As the user 2 moves from the position Pu ′ to the position Pu, the moving body 1 rotates. As a result, the relative angle between the position Pu and the user 2 maintains the same θum as in FIG. That is, when the control mode is set to “turn mode”, the moving body 1 rotates and moves while maintaining the relative angle θum with the user 2. As a result, the moving body 1 is rotated and moved so that a part of the moving body 1 always faces the user 2. Even if the moving body 1 does not move to the X and Y coordinates, the user 2 can move the moving body 1 to itself. It can be confirmed that the robot is moving following.

次に、図7を参照して、制御モードメモリ22gの値が「被補助モード」に設定された場合の移動体1の移動制御について説明する。図7は、移動体1の制御モードが「被補助モード」における、移動体1とユーザ2との位置関係を示す図である。   Next, with reference to FIG. 7, the movement control of the moving body 1 when the value of the control mode memory 22g is set to the “assisted mode” will be described. FIG. 7 is a diagram illustrating a positional relationship between the moving body 1 and the user 2 when the control mode of the moving body 1 is the “assisted mode”.

図7においては、移動体1と障害物との距離domは第3所定値未満である。即ち、移動体1と障害物との間隔が極めて狭く、ユーザ2がその間を通過できないと判断される。かかる場合は(図3中、S11:No)、制御部12は制御モードメモリ22gに「被補助モード」を設定する(図3中、S15)。すると、移動体1はユーザ2との追従移動(回転移動を含む)を停止し(図3中、S16)、ユーザ2による手動操作を受け付ける状態となる。かかる状態において、ユーザ2からHMI部26を介して、移動体1の移動指示が行われると、移動体1はその指示に応じて動作(移動)する。移動体1が障害物と極めて近い位置にある場合などは、かかるユーザ2による手動操作によって、移動体1を周囲に障害物のない、ユーザ2に対する追従制御が可能な位置まで移動することにより、再度、移動体1の追従移動(自律移動)が可能となる。   In FIG. 7, the distance dom between the moving body 1 and the obstacle is less than the third predetermined value. That is, it is determined that the distance between the moving body 1 and the obstacle is extremely narrow, and the user 2 cannot pass between them. In such a case (S11: No in FIG. 3), the control unit 12 sets the “assisted mode” in the control mode memory 22g (S15 in FIG. 3). Then, the moving body 1 stops following movement (including rotational movement) with the user 2 (S16 in FIG. 3), and enters a state of accepting manual operation by the user 2. In this state, when an instruction to move the mobile body 1 is issued from the user 2 via the HMI unit 26, the mobile body 1 operates (moves) in accordance with the instruction. When the moving body 1 is in a position very close to the obstacle, the user 2 moves the moving body 1 to a position where there is no obstacle in the surroundings and the tracking control for the user 2 is possible. Again, the following movement (autonomous movement) of the moving body 1 becomes possible.

以上説明した通り、本実施形態の移動体1によれば、ユーザ認識センサ13により取得した、移動中のユーザ2の位置およびユーザ2が向いている方向から、ユーザ2の進行経路upを算出する。そして、周辺認識センサ14により取得した移動体1の周辺画像から、ユーザ2の進行経路up上に存在する障害物を検知した場合は、ユーザ2の位置を始点とした円弧状の、障害物を回避した回避経路apを算出する。回避経路apを円弧状に形成することにより、ユーザ2にとって自然で且つスムーズな移動経路となるので、回避経路apを進行するユーザ2の負担を軽減できる。また、回避経路apは円弧状に形成されるので、その円弧の中央部の半径を求めることで回避経路apを算出できる。よって、回避経路apを複雑な曲線や直線の組合せで構成する場合に比べ、容易に算出でき、制御部12の処理負荷を低くすることができる。   As described above, according to the moving body 1 of the present embodiment, the travel path up of the user 2 is calculated from the position of the moving user 2 and the direction in which the user 2 faces, acquired by the user recognition sensor 13. . Then, when an obstacle present on the travel path up of the user 2 is detected from the peripheral image of the moving body 1 acquired by the periphery recognition sensor 14, an arc-shaped obstacle starting from the position of the user 2 is detected. The avoided avoidance route ap is calculated. By forming the avoidance path ap in an arc shape, a natural and smooth movement path for the user 2 can be achieved, so that the burden on the user 2 traveling on the avoidance path ap can be reduced. In addition, since the avoidance path ap is formed in an arc shape, the avoidance path ap can be calculated by obtaining the radius of the central portion of the arc. Therefore, it can be easily calculated and the processing load on the control unit 12 can be reduced as compared with the case where the avoidance path ap is configured by a combination of complicated curves and straight lines.

回避経路apの中央部の円弧と、ユーザ2の進行経路up上の障害物との最短距離は、ユーザ2の肩幅の1/2以上とされる。これにより、ユーザ2が回避経路apを移動する際、ユーザ2は障害物に接触することがない。   The shortest distance between the arc at the center of the avoidance path ap and the obstacle on the travel path up of the user 2 is set to 1/2 or more of the shoulder width of the user 2. Thereby, when the user 2 moves along the avoidance route ap, the user 2 does not touch the obstacle.

移動体と障害物との距離が、第3所定値未満の場合(即ちユーザ2の歩行スペースがない場合)は、移動体1によるユーザ2の追従移動を停止し、ユーザ2が移動体1の移動を指示する「被補助モード」に移行する。「被補助モード」において、ユーザ2が移動体1を障害物から離れた位置へ移動させることにより、移動体1と障害物との狭い間をユーザ2が移動する必要がなくなる。また「被補助モード」に移行することによって、移動体1による無理なユーザ追従を防止できる。よって、ユーザ2が移動体1や障害物に近づくことで起きうる、接触あるいは転倒を防ぐことができる。   When the distance between the moving body and the obstacle is less than the third predetermined value (that is, when there is no walking space for the user 2), the following movement of the user 2 by the moving body 1 is stopped. Transition to “Assisted Mode” instructing movement. In the “assisted mode”, the user 2 moves the moving body 1 to a position away from the obstacle, thereby eliminating the need for the user 2 to move between the moving body 1 and the obstacle. In addition, by shifting to the “assisted mode”, it is possible to prevent unreasonable user following by the moving body 1. Therefore, it is possible to prevent a contact or a fall that may occur when the user 2 approaches the moving body 1 or an obstacle.

以上、実施形態に基づき本発明を説明したが、本発明は上述した実施形態に何ら限定されるものではなく、本発明の趣旨を逸脱しない範囲内で種々の改良変更が可能であることは容易に推察できるものである。   Although the present invention has been described based on the embodiments, the present invention is not limited to the above-described embodiments, and various improvements and modifications can be easily made without departing from the spirit of the present invention. Can be inferred.

本実施形態におけるユーザ2の幅は肩幅とした。しかし、必ずしもこれに限られるものではなく、例えば、ユーザ2の胴体の厚さや、そのほかの値を用いても良い。また、これを、どんなユーザ2に対しても適応される固定値(例えば120cm)としてもよい。固定値とした場合には、制御部12の制御負担を大幅に軽減できる。   The width of the user 2 in this embodiment is the shoulder width. However, the present invention is not necessarily limited to this. For example, the thickness of the body of the user 2 or other values may be used. Further, this may be a fixed value (for example, 120 cm) adapted to any user 2. When a fixed value is used, the control burden on the control unit 12 can be greatly reduced.

ユーザ2の進行経路upの帯状の領域を示す値(ユーザ進行経路メモリ22eに記憶される値)としては、帯状の領域の4つの頂点座標とした。しかし、必ずしもこれに限られるものではなく、例えば、ユーザ2の進行経路upの領域の境界線を表す関数のパラメータを格納してもよい。   The value indicating the band-like area of the user 2 travel path up (value stored in the user progress path memory 22e) is the four vertex coordinates of the band-shaped area. However, the present invention is not necessarily limited to this, and for example, a parameter of a function representing a boundary line of the area of the user 2 travel path up may be stored.

また移動体1と障害物との間隔が狭い場合に、必ずしも「被補助モード」や「ターンモード」とする必要は無く、かかる場合に、移動体1を障害物から十分に離れた位置まで移動させるように構成しても良い。なお、障害物から十分に離れた位置(距離)としては、移動体1と障害物との間をユーザ2が余裕をもって通過できる距離であり、ユーザ2の肩幅または胴体の厚さに若干のマージン(例えば50cm)を加えた距離を例示できる。   Further, when the distance between the moving body 1 and the obstacle is narrow, it is not always necessary to set the “assisted mode” or “turn mode”. In such a case, the moving body 1 is moved to a position sufficiently away from the obstacle. You may comprise so that it may be made. The position (distance) sufficiently away from the obstacle is a distance that allows the user 2 to pass between the moving body 1 and the obstacle with a margin, and there is a slight margin in the shoulder width of the user 2 or the thickness of the trunk. A distance including (for example, 50 cm) can be exemplified.

1 移動体
2 ユーザ
13 ユーザ認識センサ(ユーザ検知手段)
14 周辺認識センサ(周辺環境認識手段)
20 CPU(移動制御手段)
25 駆動部(移動手段)
ap 回避経路
up 進行経路

DESCRIPTION OF SYMBOLS 1 Mobile body 2 User 13 User recognition sensor (user detection means)
14 Perimeter recognition sensor (peripheral environment recognition means)
20 CPU (movement control means)
25 Drive unit (moving means)
ap avoidance route up progress route

Claims (8)

ユーザの前方において、ユーザに追従する移動体であって、
当該移動体を移動させる移動手段と、
ユーザを検知するユーザ検知手段と、
前記ユーザ検知手段により検知されたユーザの情報に基づいて、前記移動手段を制御して、当該移動体を移動させる移動制御手段と、
周辺の環境を認識する周辺環境認識手段とを備え、
前記移動制御手段は、前記ユーザ検知手段により検知されたユーザの情報に基づくユーザの進路に前記周辺環境認識手段により認識された障害物があると判断した場合、その障害物を回避した回避経路を空けるように当該移動体を移動させるものであることを特徴とする移動体。
A moving body that follows the user in front of the user,
Moving means for moving the moving body;
User detection means for detecting a user;
A movement control means for controlling the moving means based on the user information detected by the user detecting means to move the moving body;
A surrounding environment recognition means for recognizing the surrounding environment,
When the movement control unit determines that there is an obstacle recognized by the surrounding environment recognition unit in the user's path based on the user information detected by the user detection unit, the movement control unit determines an avoidance route that avoids the obstacle. A moving body that moves the moving body so as to be free.
前記移動制御手段は、前記回避経路を空けるように当該移動体を移動させる場合に、当該移動体を前記障害物から第1所定値以上離れた位置に停止させるものであることを特徴とする請求項1記載の移動体。   The movement control means is configured to stop the moving body at a position separated from the obstacle by a first predetermined value or more when moving the moving body so as to clear the avoidance path. Item 4. A moving object according to item 1. 前記移動制御手段は、前記ユーザ検知手段により検知されたユーザの情報に基づくユーザの進路に前記周辺環境認識手段により認識された障害物があると判断した場合、前記ユーザの動きから、前記回避経路を算出するものであることを特徴とする請求項1又は2に記載の移動体。   When the movement control means determines that there is an obstacle recognized by the surrounding environment recognition means in the user's path based on the user information detected by the user detection means, the movement control means The moving body according to claim 1, wherein the moving body is calculated. 前記移動制御手段は、前記回避経路を円弧状のものとして算出するものであることを特徴とする請求項3記載の移動体。   The moving body according to claim 3, wherein the movement control means calculates the avoidance path as an arc. 前記移動制御手段は、円弧状のものとして算出された経路のうち、その半径が最も大きいものを、前記回避経路とするものであることを特徴とする請求項4記載の移動体。   The moving body according to claim 4, wherein the movement control means uses a route having the largest radius among the routes calculated as an arcuate shape as the avoidance route. 前記移動制御手段は、円弧状のものとして算出された前記回避経路の半径が第2所定値以下である場合であって、その回避経路をユーザが移動する場合には、ユーザの移動に合わせて当該移動体を回転させることで、当該移動体をユーザに追従させるものであることを特徴とする請求項4又は5に記載の移動体。   In the case where the radius of the avoidance route calculated as an arcuate shape is equal to or less than a second predetermined value, and the user moves along the avoidance route, the movement control means adjusts to the user's movement. The mobile body according to claim 4 or 5, wherein the mobile body is caused to follow the user by rotating the mobile body. 前記移動制御手段は、当該移動体と前記周辺環境認識手段により認識された障害物との間隔が第3所定値未満である場合には、当該移動体による前記ユーザの追従制御を停止するものであることを特徴とする請求項1から6のいずれかに記載の移動体。   The movement control means stops the follow-up control of the user by the moving body when the distance between the moving body and the obstacle recognized by the surrounding environment recognition means is less than a third predetermined value. The moving body according to claim 1, wherein the moving body is provided. 前記移動制御手段は、前記ユーザの進路および前記回避経路が所定幅を有するものとして当該移動体の移動制御を行うものであることを特徴とする請求項1から7のいずれかに記載の移動体。

The moving body according to any one of claims 1 to 7, wherein the movement control means performs movement control of the moving body on the assumption that the route of the user and the avoidance path have a predetermined width. .

JP2016006972A 2016-01-18 2016-01-18 Mobile Active JP6836100B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016006972A JP6836100B2 (en) 2016-01-18 2016-01-18 Mobile

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016006972A JP6836100B2 (en) 2016-01-18 2016-01-18 Mobile

Publications (2)

Publication Number Publication Date
JP2017129909A true JP2017129909A (en) 2017-07-27
JP6836100B2 JP6836100B2 (en) 2021-02-24

Family

ID=59394792

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016006972A Active JP6836100B2 (en) 2016-01-18 2016-01-18 Mobile

Country Status (1)

Country Link
JP (1) JP6836100B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020201570A (en) * 2019-06-06 2020-12-17 パナソニックIpマネジメント株式会社 Autonomous mobile device and control method of the same
JP2021536064A (en) * 2018-09-06 2021-12-23 エルジー エレクトロニクス インコーポレイティドLg Electronics Inc. Mobile robots and their control methods
US11409308B2 (en) 2018-09-06 2022-08-09 Lg Electronics Inc. Robot cleaner and a controlling method for the same
US11432697B2 (en) 2018-09-06 2022-09-06 Lg Electronics Inc. Robot cleaner and a controlling method for the same
JP7450481B2 (en) 2020-07-14 2024-03-15 本田技研工業株式会社 Mobile object control device, mobile object, mobile object control method, and program

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006048666A (en) * 2004-07-07 2006-02-16 Matsushita Electric Ind Co Ltd Method and device for accompanying object person of mobile object
JP2008152600A (en) * 2006-12-19 2008-07-03 Toyota Motor Corp Moving route generation method, autonomous moving object, and autonomous moving object control system
JP2008234400A (en) * 2007-03-22 2008-10-02 Toyota Motor Corp Mobile robot and robot movement control method
JP2008234404A (en) * 2007-03-22 2008-10-02 Toyota Motor Corp Mobile robot and robot movement control method
JP2009151382A (en) * 2007-12-18 2009-07-09 Toyota Motor Corp Traveling object
JP2010055498A (en) * 2008-08-29 2010-03-11 Hitachi Ltd Autonomous mobile robot device and method of avoiding collision due to sudden appearance in the device
JP2011059905A (en) * 2009-09-08 2011-03-24 Hiroshima Univ Robot, control program, and recording medium
JP2011194539A (en) * 2010-03-23 2011-10-06 Toyota Motor Corp Robot and method of controlling the same

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006048666A (en) * 2004-07-07 2006-02-16 Matsushita Electric Ind Co Ltd Method and device for accompanying object person of mobile object
JP2008152600A (en) * 2006-12-19 2008-07-03 Toyota Motor Corp Moving route generation method, autonomous moving object, and autonomous moving object control system
JP2008234400A (en) * 2007-03-22 2008-10-02 Toyota Motor Corp Mobile robot and robot movement control method
JP2008234404A (en) * 2007-03-22 2008-10-02 Toyota Motor Corp Mobile robot and robot movement control method
JP2009151382A (en) * 2007-12-18 2009-07-09 Toyota Motor Corp Traveling object
JP2010055498A (en) * 2008-08-29 2010-03-11 Hitachi Ltd Autonomous mobile robot device and method of avoiding collision due to sudden appearance in the device
JP2011059905A (en) * 2009-09-08 2011-03-24 Hiroshima Univ Robot, control program, and recording medium
JP2011194539A (en) * 2010-03-23 2011-10-06 Toyota Motor Corp Robot and method of controlling the same

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
山本 健次郎 KENJIRO YAMAMOTO: "人間共生ロボット"EMIEW"の衝突回避ナビゲーション Collision-Avoidance Navigation of a Human-Sy", 第24回日本ロボット学会学術講演会予稿集CD−ROM 2006年 THE 24TH ANNUAL CONFERENCE OF THE, JPN6019036441, ISSN: 0004119555 *
田淵 信吾 SHINGO TABUCHI: "知的環境における自律走行型ロボットの動的障害物の回避走行支援 Robot's action support for moving obst", 第24回日本ロボット学会学術講演会予稿集CD−ROM 2006年 THE 24TH ANNUAL CONFERENCE OF THE, JPN6019036440, ISSN: 0004305319 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021536064A (en) * 2018-09-06 2021-12-23 エルジー エレクトロニクス インコーポレイティドLg Electronics Inc. Mobile robots and their control methods
JP2021536637A (en) * 2018-09-06 2021-12-27 エルジー エレクトロニクス インコーポレイティドLg Electronics Inc. Multiple autonomous mobile robots
JP2022501704A (en) * 2018-09-06 2022-01-06 エルジー エレクトロニクス インコーポレイティドLg Electronics Inc. Mobile robots and their control methods
US11409308B2 (en) 2018-09-06 2022-08-09 Lg Electronics Inc. Robot cleaner and a controlling method for the same
US11432697B2 (en) 2018-09-06 2022-09-06 Lg Electronics Inc. Robot cleaner and a controlling method for the same
JP7165259B2 (en) 2018-09-06 2022-11-02 エルジー エレクトロニクス インコーポレイティド Multiple autonomous mobile robots
JP7240485B2 (en) 2018-09-06 2023-03-15 エルジー エレクトロニクス インコーポレイティド Mobile robot and its control method
JP7259015B2 (en) 2018-09-06 2023-04-17 エルジー エレクトロニクス インコーポレイティド Mobile robot and its control method
US11906979B2 (en) 2018-09-06 2024-02-20 Lg Electronics Inc. Plurality of autonomous mobile robots and controlling method for the same
JP2020201570A (en) * 2019-06-06 2020-12-17 パナソニックIpマネジメント株式会社 Autonomous mobile device and control method of the same
JP7281720B2 (en) 2019-06-06 2023-05-26 パナソニックIpマネジメント株式会社 Autonomous mobile device and its control method
JP7450481B2 (en) 2020-07-14 2024-03-15 本田技研工業株式会社 Mobile object control device, mobile object, mobile object control method, and program

Also Published As

Publication number Publication date
JP6836100B2 (en) 2021-02-24

Similar Documents

Publication Publication Date Title
JP6836100B2 (en) Mobile
JP4852753B2 (en) Autonomous mobile robot with learning function
JP6604546B2 (en) Moving body
CN107111317B (en) Moving body
WO2017115548A1 (en) Moving body
JP2008152600A (en) Moving route generation method, autonomous moving object, and autonomous moving object control system
US11642791B2 (en) Autonomous mobile robot and control program for autonomous mobile robot
JP4670807B2 (en) Travel route creation method, autonomous mobile body, and autonomous mobile body control system
JP2006293975A (en) Autonomous moving device
JP2011224679A (en) Reaction robot, reaction control method, and reaction control program
JP2007328486A (en) Moving robot
JPH064133A (en) Obstacle evading method for moving body
JP5314788B2 (en) Autonomous mobile device
JP4697164B2 (en) Mobile robot and robot movement control method
JP6540917B1 (en) Self-propelled device, travel control method of self-propelled device and travel control program
JP5321214B2 (en) Mobile body and control method thereof
JP2009151382A (en) Traveling object
JP5540888B2 (en) Narrow road driving support device and narrow road driving support method
US20240069553A1 (en) Mobile body control system, mobile body, and mobile body control method
JP2020166707A (en) Moving body
WO2023127337A1 (en) Information processing device, information processing method, and program
JP7036419B2 (en) Mobile control device
US11474542B2 (en) Moving body
JP2010277236A (en) Autonomously traveling robot, follow-up system using the same, and follow-up method
JP2006326746A (en) Simulation system of autonomously traveling mobile body

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180315

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190924

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200413

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200714

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201014

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20201014

C11 Written invitation by the commissioner to file amendments

Free format text: JAPANESE INTERMEDIATE CODE: C11

Effective date: 20201027

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20201201

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20201208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210119

R150 Certificate of patent or registration of utility model

Ref document number: 6836100

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150