JP2013237125A - Method for controlling movement of movable body - Google Patents

Method for controlling movement of movable body Download PDF

Info

Publication number
JP2013237125A
JP2013237125A JP2012111817A JP2012111817A JP2013237125A JP 2013237125 A JP2013237125 A JP 2013237125A JP 2012111817 A JP2012111817 A JP 2012111817A JP 2012111817 A JP2012111817 A JP 2012111817A JP 2013237125 A JP2013237125 A JP 2013237125A
Authority
JP
Japan
Prior art keywords
moving body
route
area
unit
gripping
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012111817A
Other languages
Japanese (ja)
Inventor
Kazuhito Tanaka
和仁 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2012111817A priority Critical patent/JP2013237125A/en
Publication of JP2013237125A publication Critical patent/JP2013237125A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

PROBLEM TO BE SOLVED: To make a movable body reliably grip an object.SOLUTION: A method for controlling the movement of a movable body includes: a step of setting an object grip region where a robotic arm is capable of gripping an object to be gripped, on the basis of an object detectable region where a gripping object detecting unit installed in a movable body is capable of detecting the object to be gripped, and an object reachable region where the robotic arm mounted to the movable body is capable of reaching the object to be gripped; a step of determining a possibility of reaching the object grip region on the basis of self position variations and following gaps of the movable body; and a step of generating a route plan for allowing the movable body to reach the object grip region.

Description

本発明は、移動体の移動制御方法に関する。   The present invention relates to a movement control method for a moving object.

近年、自動制御によって目標走行経路を走行させ、目標とする位置に到達した後に、対象物体の把持等の作業を行う移動体の開発が進められている。   2. Description of the Related Art In recent years, development of a moving body that travels a target travel route by automatic control and performs operations such as gripping of a target object after reaching a target position has been advanced.

特許文献1には、目標位置を通る分割線をあらかじめ設定しておき、移動体は、自己位置推定により第1の分割領域から第2の分割領域に遷移した場合に、目標位置に到達したと判断して移動を停止する、移動体の制御方法が開示されている。   In Patent Document 1, a dividing line passing through the target position is set in advance, and the mobile body has reached the target position when the mobile body transitions from the first divided area to the second divided area by self-position estimation. A control method for a moving body is disclosed that determines and stops the movement.

特許文献2には、無人搬送車の現在位置と操舵角により定まる目標停止線が、終点上にのるか、終点を超えたときに無人搬送車を停止させるよう制御する、移動体の制御方法が開示されている。   Patent Document 2 discloses a control method for a moving body that controls to stop an automatic guided vehicle when a target stop line determined by a current position and a steering angle of the automatic guided vehicle is on the end point or exceeds the end point. Is disclosed.

特許文献3には、ロボットアームの稼働作業空間内の領域を作業判定領域とするとともに、各作業判定領域内に格子点を配置するステップと、格子点において移動ロボットによる作業が遂行可能であるか否かを判断して、複数の作業に対応する作業可能領域を設定するステップとを有する移動体の制御方法が開示されている。   In Patent Document 3, a region in the working work space of the robot arm is used as a work determination region, and a step of arranging grid points in each work determination region, and whether a work by a mobile robot can be performed at the lattice points. A method for controlling a moving body is disclosed which includes a step of determining whether or not to determine a workable area corresponding to a plurality of work.

特開2007−257195号公報JP 2007-257195 A 特開2011−141665号公報JP2011-141665A 特開2005−088164号公報Japanese Patent Laid-Open No. 2005-088164

しかしながら、目的地を通る分割線をあらかじめ設定しておき、移動体が分割線に到達した場合に移動を停止させる場合であって、分割線と経路とが略並行となる経路が生成された場合には、移動体が分割線に到達せず移動体が停止しない可能性がある。また、自走する移動体がロボットアームを用いて作業することを仮定する場合に、自己位置推定結果がばらつく場合があり、経路追従の誤差と組み合わせると、目的地とのずれが大きくなる場合がある。すなわち、移動体が作業を行うことが可能な領域に、到達できない場合があった。   However, when a dividing line that passes through the destination is set in advance and the movement is stopped when the moving body reaches the dividing line, a route in which the dividing line and the route are substantially parallel is generated. There is a possibility that the moving body does not reach the dividing line and the moving body does not stop. Also, when it is assumed that the mobile body that runs on its own uses a robot arm, the self-position estimation results may vary, and when combined with the path tracking error, the deviation from the destination may become large. is there. That is, there is a case where it is not possible to reach an area where the moving body can perform work.

本発明にかかる移動体の移動制御方法は、移動体に設置された把持物体検出部が把持対象物体を検出することが可能な領域である物体検出可能領域と、前記移動体に設置されたロボットアームが前記把持対象物体に到達することが可能な領域である物体到達可能領域と、に基づいて、前記ロボットアームにより把持対象物体を把持可能な領域である物体把持可能領域を設定するステップと、前記移動体の自己位置ばらつきと、追従ずれと、に基づいて前記物体把持可能領域への到達可能性を判定するステップと、前記移動体を前記物体把持可能領域内に到達させる経路計画を生成するステップと、を備える。
これにより、自己位置ばらつきや追従ずれがある場合にも、移動体は物体把持可能領域に入ることが保証される。
The movement control method for a moving body according to the present invention includes an object detectable area in which a gripping object detection unit installed on the moving body can detect a gripping target object, and a robot installed on the moving body. Setting an object grippable area that is an area in which the robot arm can grip a gripping target object based on an object reachable area that is an area where the arm can reach the gripping target object; Determining the reachability to the object grippable area based on the self-position variation of the mobile body and the tracking error, and generating a path plan for causing the mobile body to reach the object grippable area Steps.
Thereby, even when there is a self-position variation or a follow-up deviation, it is guaranteed that the moving body enters the object grippable region.

移動体が、確実に物体を把持することができる。   The moving body can reliably hold the object.

実施の形態1にかかる移動体の構成を示した図である。1 is a diagram illustrating a configuration of a moving object according to a first embodiment. 実施の形態1にかかる移動体の外観を示した図である。It is the figure which showed the external appearance of the mobile body concerning Embodiment 1. FIG. 実施の形態1にかかる移動体の動作のフローチャートである。3 is a flowchart of the operation of the moving body according to the first exemplary embodiment. 実施の形態1にかかる把持可能領域の計算の詳細なフローチャートである。4 is a detailed flowchart of calculation of a grippable area according to the first embodiment. 実施の形態1にかかる検出範囲を示す図である。FIG. 3 is a diagram illustrating a detection range according to the first embodiment. 実施の形態1にかかる検出可能領域の算出を示す図であるFIG. 6 is a diagram illustrating calculation of a detectable area according to the first embodiment. 実施の形態1にかかるロボットアームの手先点の集合を示す図である。FIG. 3 is a diagram illustrating a set of hand points of the robot arm according to the first embodiment. 実施の形態1にかかる到達可能領域の算出を示す図である。It is a figure which shows calculation of the reachable area | region concerning Embodiment 1. FIG. 実施の形態1にかかる到達可能領域と検出可能領域を示す図である。It is a figure which shows the reachable area | region and detectable area | region concerning Embodiment 1. FIG. 実施の形態1にかかる把持可能領域の算出を示す図である。FIG. 6 is a diagram illustrating calculation of a grippable area according to the first embodiment. 実施の形態1にかかる信頼楕円の算出を示す図である。FIG. 6 is a diagram illustrating calculation of a confidence ellipse according to the first embodiment. 実施の形態1にかかる判定処理のフローチャートである。3 is a flowchart of determination processing according to the first exemplary embodiment; 実施の形態1にかかる移動体と信頼楕円との関係を示した図である。It is the figure which showed the relationship between the mobile body concerning Embodiment 1, and a reliability ellipse. 実施の形態1にかかる把持対象物体から目的地を結ぶ直線と直線mの関係を示した図である。FIG. 5 is a diagram showing a relationship between a straight line and a straight line connecting a destination from a gripping target object according to the first exemplary embodiment. 実施の形態1にかかる把持可能範囲に収まりやすい経路生成のフローチャートである。6 is a flowchart for generating a route that easily falls within the grippable range according to the first embodiment; 実施の形態1にかかる複数の経路点を設置した状態を示した図である。It is the figure which showed the state which installed the some route point concerning Embodiment 1. FIG. 実施の形態1にかかる複数の経路点を設置して経路を決定した状態を示した図である。It is the figure which showed the state which installed the some path | route point concerning Embodiment 1 and determined the path | route. 実施の形態1にかかる検出範囲に確実に入る経路生成を行うフローチャートである。3 is a flowchart for generating a route that surely enters a detection range according to the first embodiment; 実施の形態1にかかる検出可能領域の端点を目的地に設定した状態を示した図である。It is the figure which showed the state which set the end point of the detectable area | region concerning Embodiment 1 to the destination. 実施の形態1にかかる目的地から数点の経路点を配置した状態を示した図である。It is the figure which showed the state which has arrange | positioned several route points from the destination concerning Embodiment 1. FIG. 実施の形態1にかかる目的地から数点の経路点を配置した後に経路を生成した状態を示した図である。It is the figure which showed the state which produced | generated the route after arrange | positioning several route points from the destination concerning Embodiment 1. FIG. 実施の形態1にかかる移動体が検出可能領域に入る直前の状態を示した図である。It is the figure which showed the state immediately before the mobile body concerning Embodiment 1 enters into a detectable region. 実施の形態1にかかる移動体が検出可能領域に入るまで前進させた状態を示した図である。It is the figure which showed the state advanced until the mobile body concerning Embodiment 1 entered into a detectable region. 実施の形態1にかかる既知である相対位置関係から移動体を移動させる状態を示した図である。FIG. 3 is a diagram illustrating a state in which a moving body is moved from a known relative positional relationship according to the first embodiment.

実施の形態1
以下、図面を参照して本発明の実施の形態について説明する。図1は、本発明に係る移動体の構成を示した図である。図2は、本発明に係る移動体の外観を示した図である。図2における破線の矢印は、移動体1の移動経路を示している。
Embodiment 1
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a diagram showing a configuration of a moving body according to the present invention. FIG. 2 is a view showing the appearance of the moving body according to the present invention. A broken arrow in FIG. 2 indicates a moving path of the moving body 1.

移動体1は、ロボットアーム11と、距離センサ12と、環境地図データ記憶部13と、自己位置推定部14と、把持物体検出部15、経路計画部16と、駆動制御部17と、演算部18と、を備える。   The moving body 1 includes a robot arm 11, a distance sensor 12, an environment map data storage unit 13, a self-position estimation unit 14, a gripping object detection unit 15, a route plan unit 16, a drive control unit 17, and a calculation unit. 18.

ロボットアーム11は、移動体1に設けられているアームである。典型的にはロボットアーム11は、関節を有する腕部と、対象物体を把持する把持部を有する。ここでロボットアーム11は、稼働範囲が狭く、指向性が高いものとする。すなわちロボットアーム11は、自由度が低く、特定方向(前後・左右・斜め)にしか動かせないようなものとする。ロボットアーム11の稼働範囲に関する情報は、経路計画部16に出力される。   The robot arm 11 is an arm provided on the moving body 1. Typically, the robot arm 11 includes an arm portion having a joint and a grip portion for gripping a target object. Here, it is assumed that the robot arm 11 has a narrow operating range and high directivity. That is, the robot arm 11 has a low degree of freedom and can only be moved in a specific direction (front / rear / left / right / oblique). Information regarding the operating range of the robot arm 11 is output to the route planning unit 16.

距離センサ12は、移動体1から周囲の物体までの距離を測定するセンサである。例えば距離センサ12は、超音波を発生させ、周囲の物体からの反射波に基づいて距離測定を行う超音波距離計である。距離センサ12は、取得したデータを自己位置推定部14に出力する。   The distance sensor 12 is a sensor that measures the distance from the moving body 1 to surrounding objects. For example, the distance sensor 12 is an ultrasonic rangefinder that generates ultrasonic waves and measures distances based on reflected waves from surrounding objects. The distance sensor 12 outputs the acquired data to the self-position estimation unit 14.

環境地図データ記憶部13は、環境地図データを記憶する。ここで環境地図データとは、移動体1が走行する環境内に設置された、種々の物体の位置情報が記憶されている。環境地図データ記憶部13は、記憶された環境データを、自己位置推定部14に出力する。   The environmental map data storage unit 13 stores environmental map data. Here, the environmental map data stores position information of various objects installed in the environment where the mobile body 1 travels. The environmental map data storage unit 13 outputs the stored environmental data to the self-position estimation unit 14.

自己位置推定部14は、距離センサ12で取得した移動体1から周囲の物体までの距離のデータと、環境地図データ記憶部13が記憶している環境地図データに基づいて、移動体1の自己位置を推定する。自己位置推定部14は、推定した自己位置を経路計画部16に出力する。   The self-position estimation unit 14 is based on the distance data from the moving body 1 acquired by the distance sensor 12 to surrounding objects and the environmental map data stored in the environmental map data storage unit 13. Estimate the position. The self-position estimating unit 14 outputs the estimated self-position to the route planning unit 16.

把持物体検出部15は、カメラ等の撮像手段である。把持物体検出部15は、検出範囲に関する情報を経路計画部16に出力する。   The gripping object detection unit 15 is an imaging unit such as a camera. The gripping object detection unit 15 outputs information related to the detection range to the route planning unit 16.

経路計画部16は、移動体1の移動経路を計画する。より具体的には、経路計画部16は、自己位置推定部14で推定した移動体1の自己位置と、ロボットアーム11の稼働範囲等の情報に基づいて、移動体1がロボットアーム11を用いて把持対象物体を把持可能な位置に移動するための経路を計画する。このとき経路計画部16は、移動体1が把持対象物体に対して、正面に位置して物体を把持するタスクを仮定する。経路計画部16は、計画した経路を、駆動制御部17に出力する。   The route planning unit 16 plans a moving route of the moving body 1. More specifically, the path planning unit 16 uses the robot arm 11 by the mobile body 1 based on information such as the self-position of the mobile body 1 estimated by the self-position estimation unit 14 and the operating range of the robot arm 11. Planning a path for moving the object to be gripped to a position where it can be gripped. At this time, the path planning unit 16 assumes a task in which the moving body 1 is positioned in front of the object to be grasped and grasps the object. The route planning unit 16 outputs the planned route to the drive control unit 17.

駆動制御部17は、移動体1が経路計画部16により計画された経路上を走行するよう、駆動部の動作を制御する。駆動部とは、例えば移動体1の下部に複数設けられている車輪を動作させるモータである。   The drive control unit 17 controls the operation of the drive unit so that the moving body 1 travels on the route planned by the route planning unit 16. A drive part is a motor which operates the wheel provided in the lower part of the mobile body 1, for example.

演算部18は、種々の演算を行う。例えば演算部18は、把持物体検出部15が把持対象物体を検出するために必要な、移動体1の移動先となる検出可能領域を演算により求める。また演算部18は、ロボットアーム11の稼働範囲等の情報に基づいて、ロボットアーム11が把持対象物体に届くために必要な、移動体1の移動先となる到達可能点を算出する。さらに演算部18は、検出可能領域及び到達可能点の情報に基づいて、把持対象物体を把持するために、移動体1の移動先となる把持可能領域の算出を行う。   The calculation unit 18 performs various calculations. For example, the calculation unit 18 obtains a detectable region that is a destination of the moving body 1 and is necessary for the gripping object detection unit 15 to detect the gripping target object. In addition, based on information such as the operating range of the robot arm 11, the calculation unit 18 calculates reachable points that are necessary for the robot arm 11 to reach the object to be grasped and become the destination of the moving body 1. Further, the calculation unit 18 calculates a grippable region that is the destination of the moving body 1 in order to grip the gripping target object based on the information of the detectable region and the reachable point.

次に、移動体1が自律移動を行い、把持対象物体を行う動作について説明する。図3は、移動体1の動作のフローチャートである。   Next, an operation in which the moving body 1 performs autonomous movement and performs a gripping target object will be described. FIG. 3 is a flowchart of the operation of the moving body 1.

把持物体検出部15に、把持対象物体を設定する(ステップS11)。例えば、把持物体検出部15に把持対象物体が何であるかを登録する。   A gripping target object is set in the gripping object detection unit 15 (step S11). For example, what the gripping target object is is registered in the gripping object detection unit 15.

移動体1は、物体把持可能領域の計算を行う(ステップS12)。図4は、物体把持可能領域の計算の詳細なフローチャートである。   The moving body 1 calculates the object grippable area (step S12). FIG. 4 is a detailed flowchart of the calculation of the object grippable area.

演算部18は、把持対象物体の検出可能領域を計算する(ステップS121)。図5A及び図5Bは、把持物体検出部15が有する検出範囲に基づいて、把持対象物体を検出可能な領域を幾何的に逆算して求めた図である。図5Aの破線部は、把持物体検出部15の検出範囲を示している。図5Bの破線部は、演算部18の演算により求められた、把持物体検出部15が把持対象物体を検出するために移動体1が到達すべき領域である検出可能領域を示している。   The calculation unit 18 calculates a detectable area of the gripping target object (step S121). FIG. 5A and FIG. 5B are diagrams obtained by geometrically calculating back a region where the gripping target object can be detected based on the detection range of the gripping object detection unit 15. A broken line portion in FIG. 5A indicates a detection range of the gripping object detection unit 15. The broken line portion in FIG. 5B indicates a detectable region that is the region that the moving object 1 should reach in order for the gripping object detection unit 15 to detect the gripping target object, which is obtained by the calculation of the calculation unit 18.

演算部18は、物体到達可能領域の計算を行う(ステップS122)。具体的には演算部18は、ロボットアーム11の各関節の稼働範囲を離散点の集合として表し、全ての関節角の組み合わせにおいて手先座標r=f(θ)を計算する。図6Aは、演算部18によるロボットアーム11の手先座標の算出例であり、算出された手先座標を黒丸で示している。
さらに演算部18は、把持対象物体の座標に基づいて手先座標の逆算を行うことにより、幾何的に移動体1の到達可能領域を算出する。すなわち演算部18は、ロボットアーム11の手先が把持対象物体に到達するための、移動体1の位置を演算する。図6Bの黒丸は、ロボットアーム11の手先が把持対象物体に到達するために移動体1が到達すべき位置座標である到達可能点を示している。なお、到達可能点の集合した領域を到達可能領域とする。
The calculation unit 18 calculates the object reachable region (step S122). Specifically, the calculation unit 18 represents the operating range of each joint of the robot arm 11 as a set of discrete points, and calculates hand coordinates r = f (θ) in all combinations of joint angles. FIG. 6A is an example of calculating the hand coordinates of the robot arm 11 by the calculation unit 18, and the calculated hand coordinates are indicated by black circles.
Further, the calculation unit 18 calculates the reachable area of the moving body 1 geometrically by performing a reverse calculation of the hand coordinates based on the coordinates of the object to be grasped. That is, the calculation unit 18 calculates the position of the moving body 1 for the hand of the robot arm 11 to reach the object to be grasped. Black circles in FIG. 6B indicate reachable points that are position coordinates that the moving body 1 should reach in order for the hand of the robot arm 11 to reach the object to be grasped. Note that an area where reachable points are gathered is defined as a reachable area.

演算部18は、物体把持可能領域を計算する(ステップS123)。具体的には、ステップS121において演算部18が算出した検出可能領域と、ステップS122において演算部18が算出した到達可能点とを組み合わせ、検出可能領域にある到達可能点のみを残し、把持可能領域とする。図7Aは、検出可能領域と到達可能点を組み合わせた状態を示している。図7Bは、検出可能領域と到達可能点との共通部である、把持可能領域を示している。   The calculation unit 18 calculates an object grippable area (step S123). Specifically, the detectable region calculated by the calculation unit 18 in step S121 and the reachable point calculated by the calculation unit 18 in step S122 are combined, leaving only the reachable point in the detectable region, and the grippable region And FIG. 7A shows a state where the detectable area and the reachable point are combined. FIG. 7B shows a grippable area that is a common part of the detectable area and the reachable point.

演算部18は、把持可能領域を表す点の集合のn%信頼楕円を計算する(ステップS124)。n=100とすると信頼楕円が無限大となるので、nは100以外の値とし、例えばn=99とする。図8は、把持可能領域に対して99%信頼楕円を生成した図である。この信頼楕円の内部を、把持可能領域とする。   The computing unit 18 calculates an n% confidence ellipse of the set of points representing the grippable area (step S124). When n = 100, the confidence ellipse becomes infinite, so n is a value other than 100, for example, n = 99. FIG. 8 is a diagram in which a 99% confidence ellipse is generated for the grippable region. The inside of this trust ellipse is defined as a grippable area.

移動体1は、目的地を信頼楕円の中心点に設定する(ステップS13)。   The moving body 1 sets the destination as the center point of the confidence ellipse (step S13).

経路計画部16は、目的地に向かう経路を生成する(ステップS14)。なお、経路計画部16による経路の生成において、距離センサ12を用いて測定した距離データと、環境地図データ記憶部13に記憶された環境データに基づいて、自己位置推定部14が自己位置推定を行う。   The route planning unit 16 generates a route toward the destination (step S14). In the route generation by the route planning unit 16, the self-position estimation unit 14 performs self-position estimation based on the distance data measured using the distance sensor 12 and the environment data stored in the environment map data storage unit 13. Do.

演算部18は、自己位置ばらつき、追従ずれを考慮した到達判定を行う(ステップS15)。図9は、詳細な判定処理のフローである。図10は、移動体1と信頼楕円との関係を示した図である。   The calculation unit 18 performs arrival determination in consideration of self-position variation and follow-up deviation (step S15). FIG. 9 is a flow of detailed determination processing. FIG. 10 is a diagram illustrating the relationship between the moving object 1 and the confidence ellipse.

演算部18は、生成された経路が目的地に入射する方向に対して垂直であり、目的地を通る直性mを設定する(ステップS151)。   The calculation unit 18 sets the straightness m that is perpendicular to the direction in which the generated path is incident on the destination and passes through the destination (step S151).

演算部18は、直線mと把持可能領域の信頼楕円の間の交点を求め、交点間の距離Lを算出する(ステップS152)。ここで、信頼楕円の長軸方向をx軸、単軸方向をy軸とする座標系を考え、mをx軸、y軸の座標系に変換した場合、Lは(1)式のように求めることができる。

Figure 2013237125
ここで、信頼楕円の長径を2a、短径を2bとする。 The computing unit 18 obtains an intersection between the straight line m and the reliable ellipse of the grippable region, and calculates a distance L between the intersections (step S152). Here, considering a coordinate system in which the long axis direction of the confidence ellipse is the x axis and the single axis direction is the y axis, and m is converted to the coordinate system of the x axis and the y axis, L is expressed by the following equation (1). Can be sought.
Figure 2013237125
Here, the major axis of the confidence ellipse is 2a and the minor axis is 2b.

演算部18は、移動体1の自己位置のばらつきの範囲の半径をΔpと追従ずれの範囲Δlは既知であるものとし、判定を行う(ステップS153)。

Figure 2013237125
の場合には(ステップS153でYes)、経路計画部16は、移動体1が把持可能領域に到達可能であるものとして、直線mを用いて把持可能範囲に収まりやすい経路を生成する(ステップS16)。ステップS16の手順については、後に詳述する。
Figure 2013237125
の場合には(ステップS153でNo)、ステップS155に進む。 The calculation unit 18 determines that the radius of the variation range of the self position of the moving body 1 is known and the tracking deviation range Δl is already known (step S153).
Figure 2013237125
In this case (Yes in step S153), the route planning unit 16 assumes that the mobile body 1 can reach the grippable region, and generates a route that easily fits in the grippable range using the straight line m (step S16). ). The procedure of step S16 will be described in detail later.
Figure 2013237125
In the case of (No in step S153), the process proceeds to step S155.

演算部18は、移動体1の自己位置のばらつきの範囲の半径をΔpと追従ずれの範囲Δlの合計値と、信頼楕円の長辺方向の長さとの比較を行う(ステップS154)。

Figure 2013237125
の場合には(ステップS154でYes)、ステップS155に進む。
Figure 2013237125
の場合には(ステップS154でNo)、経路計画部16は、移動体1が検出範囲に確実に入る経路生成を行う(ステップS17)。ステップS17の手順については後に詳述する。 The computing unit 18 compares the radius of the variation range of the self-position of the moving body 1 with the total value of Δp and the tracking deviation range Δl with the length of the long side of the confidence ellipse (step S154).
Figure 2013237125
In the case of (Yes in step S154), the process proceeds to step S155.
Figure 2013237125
In the case of (No in step S154), the route planning unit 16 generates a route in which the moving body 1 surely enters the detection range (step S17). The procedure of step S17 will be described in detail later.

演算部18は、

Figure 2013237125
となるcを計算し、目的地と把持対象物体とを結んだ直線と、直線mがなす角θの値を算出する(ステップS155)。図11は、把持対象物体から目的地までを結んだ直線と、直線mとの関係を示した図である。 The calculation unit 18
Figure 2013237125
C is calculated, and the value of the angle θ formed by the straight line m connecting the destination and the object to be grasped and the straight line m is calculated (step S155). FIG. 11 is a diagram illustrating a relationship between a straight line connecting the target object to the destination and the straight line m.

演算部18は、角θがあらかじめ定めた閾値θTHより小さいか否かを求める(ステップS156)。

Figure 2013237125
である場合には(ステップS156でNo)、直線mを用いて把持可能範囲に収まりやすい経路生成(ステップS16)に進む。
Figure 2013237125
である場合には(ステップS156でYes)、移動体1の把持対象物体に対するアプローチが見た目上不自然となってしまうため、検出範囲確実に入る経路生成(ステップS17)を行う。 The computing unit 18 determines whether or not the angle θ is smaller than a predetermined threshold θ TH (step S156).
Figure 2013237125
If it is (No in step S156), the process proceeds to a path generation (step S16) that easily falls within the grippable range using the straight line m.
Figure 2013237125
If this is the case (Yes in step S156), the approach of the moving object 1 to the object to be grasped will be visually unnatural, and therefore a path that enters the detection range is generated (step S17).

ステップS15において、移動体1が把持可能領域に到達可能であると判定されると、経路計画部16は、把持可能範囲に収まりやすい経路生成を行う(ステップS16)。経路計画部16は以下の手順により経路を生成し、移動体1は経路に沿って移動する。図12は、経路計画部16が把持可能範囲に収まりやすい経路生成を行う詳細なフローチャートである。   If it is determined in step S15 that the moving body 1 can reach the grippable region, the route planning unit 16 generates a route that easily falls within the grippable range (step S16). The route planning unit 16 generates a route according to the following procedure, and the moving body 1 moves along the route. FIG. 12 is a detailed flowchart for generating a route that the route planning unit 16 easily fits in the grippable range.

経路計画部16は、到達判定結果に応じた経路を作成する(ステップS161)。具体的には、経路計画部16は、直線mに対して垂直な方向に経路点を数点配置し、これらの点と移動体1とを結ぶ経路を作成する。図13Aは、目的地から、直線mに対して垂直な方向に複数の経路点を配置した例であり、図13Bは、複数の経路点を通り、移動体1と目的地を結ぶ経路計画を行った例である。   The route planning unit 16 creates a route according to the arrival determination result (step S161). Specifically, the route planning unit 16 arranges several route points in a direction perpendicular to the straight line m, and creates a route connecting these points and the moving body 1. FIG. 13A is an example in which a plurality of route points are arranged in a direction perpendicular to the straight line m from the destination, and FIG. 13B shows a route plan connecting the mobile body 1 and the destination through the plurality of route points. This is an example.

駆動制御部17は、移動体1が目的地に到着するまで経路追従制御を行う(ステップS162)。   The drive control unit 17 performs path following control until the moving body 1 arrives at the destination (step S162).

駆動制御部17は、移動体1が把持対象物体に対して正面を向くように、目的地において旋回する(ステップS163)。その後、ステップS18に進む。   The drive control unit 17 turns at the destination so that the moving body 1 faces the front with respect to the object to be grasped (step S163). Thereafter, the process proceeds to step S18.

移動体1は、自律移動を終了する(ステップS18)。   The moving body 1 ends autonomous movement (step S18).

ステップS15において、移動体1が把持可能領域に到達可能でないと判定されると、経路計画部16は、検出範囲に確実に入る経路生成を行う(ステップS17)。経路計画部16は以下の手順により経路を生成し、移動体1は経路に沿って移動する。図14は、経路計画部16が、検出範囲に確実に入る経路生成を行う、詳細なフローチャートである。   If it is determined in step S15 that the moving body 1 cannot reach the grippable area, the route planning unit 16 generates a route that reliably enters the detection range (step S17). The route planning unit 16 generates a route according to the following procedure, and the moving body 1 moves along the route. FIG. 14 is a detailed flowchart in which the route planning unit 16 generates a route that reliably enters the detection range.

経路計画部16は、目的地を検出可能領域の端に設定する(ステップS171)。具体的には、演算部18は、把持可能領域の重心点を算出する。次に、経路計画部16は、把持対象物体と重心点を結んだ直線と、検出可能領域の端線との交点のうち、把持対象物体から最も遠い点を目的地として設定する。図15は、目的地の設定例である。   The route planning unit 16 sets the destination at the end of the detectable area (step S171). Specifically, the calculation unit 18 calculates the barycentric point of the grippable area. Next, the path planning unit 16 sets the point farthest from the gripping target object as the destination among the intersections of the straight line connecting the gripping target object and the barycentric point and the end line of the detectable region. FIG. 15 is an example of setting a destination.

経路計画部16は、移動体1の現在地から目的地に向かう経路を生成する(ステップS172)。具体的には、経路計画部16は、把持対象物体と目的地とをつなぐ直線と平行方向に、目的地から数点の経路点を配置した後に、移動体1からの経路を生成する。図16Aは、目的地から数点の経路点を配置した状態であり、図16Bは、目的地から数点の経路点を配置した後に、移動体1からの経路を生成した状態である。   The route planning unit 16 generates a route from the current location of the moving body 1 to the destination (step S172). Specifically, the route planning unit 16 generates a route from the moving body 1 after arranging several route points from the destination in a direction parallel to a straight line connecting the gripping target object and the destination. FIG. 16A shows a state in which several route points are arranged from the destination, and FIG. 16B shows a state in which a route from the moving body 1 is generated after several route points are arranged from the destination.

駆動制御部17は、目的地に移動するよう移動体1の移動を制御する(ステップS173)。   The drive control unit 17 controls the movement of the moving body 1 so as to move to the destination (step S173).

演算部18は、目的地付近に移動体1が到着したときに、把持物体検出部15により把持対象物体が検出できるか否かの判定を行う(ステップS174)。把持物体検出部15により、把持対象物体が検出できない場合には(ステップS174でNo)、駆動制御部17は、把持物体検出部15が把持対象物体を検出するまで、移動体1を前進させる(ステップS175)。なお、移動体1が目的地に到着したときに物体が検出できない場合とは、自己位置ばらつきや追従ずれの影響により、検出可能領域に自律移動体が入らない場合である。図17Aは、検出可能領域に移動体1が入らない場合の例であり、図17Bは、移動体1が完全に検出可能領域に入るまで前進させた状態を示している。
把持物体検出部15が、把持対象物体を検出した場合には(ステップS174でYes)、ステップS176に進む。
The calculation unit 18 determines whether or not the gripping object detection unit 15 can detect the gripping target object when the moving body 1 arrives near the destination (step S174). When the gripping object detection unit 15 cannot detect the gripping target object (No in step S174), the drive control unit 17 advances the moving body 1 until the gripping object detection unit 15 detects the gripping target object ( Step S175). The case where the object cannot be detected when the moving body 1 arrives at the destination is a case where the autonomous moving body does not enter the detectable region due to the influence of the self-position variation and the tracking error. FIG. 17A is an example of a case where the moving body 1 does not enter the detectable area, and FIG. 17B shows a state where the moving body 1 is advanced until it completely enters the detectable area.
When the gripping object detection unit 15 detects a gripping target object (Yes in step S174), the process proceeds to step S176.

駆動制御部17は、把持対象物体と移動体1の相対位置関係に基づいて、移動体1の位置合わせを行う(ステップS176)。このとき移動体1の位置は、把持対象物体に対して、把持可能領域の重心よりも遠方となる。したがって駆動制御部17は、移動体1を把持可能領域の重心に移動させる場合であっても、移動体1を把持対象物体と略反対方向に向けることは無い。図18は、移動体1と把持可能領域重心と把持対象物体の位置関係、及び移動体1の移動方向を示した図である。その後、移動体1は移動を停止する(ステップS18)。   The drive control unit 17 aligns the moving body 1 based on the relative positional relationship between the gripping target object and the moving body 1 (step S176). At this time, the position of the moving body 1 is farther from the center of gravity of the grippable region with respect to the gripping target object. Therefore, even when the drive control unit 17 moves the movable body 1 to the center of gravity of the grippable area, the drive control unit 17 does not direct the movable body 1 in a direction substantially opposite to the gripping target object. FIG. 18 is a diagram illustrating the positional relationship between the movable body 1, the grippable region center of gravity, and the gripping target object, and the moving direction of the movable body 1. Thereafter, the moving body 1 stops moving (step S18).

したがって、把持可能範囲に収まりやすいと判定した場合には、移動体1の到達ラインとなる直線mを設けることにより、自己位置推定の精度が悪く移動体1の自己位置がばらつくことや、駆動制御部17による経路追従の精度が悪く経路が外れることがあっても、移動体1が把持可能範囲の中に入ることを、ある程度保障することができる。
また、把持可能領域に収まりにくいと判定して経路生成を行う場合には、把持対象物体と把持可能領域重心を結んだ直線と、検出可能領域の端線との交点のうち、把持対象物体から遠い点を目的地とし、さらに把持対象物体と目的地を繋ぐ直線と平行方向に数点の経路点を配置することで、移動体1を確実に検出可能領域の中に入れることができる。
Therefore, when it is determined that the mobile body 1 is likely to be within the grippable range, the straight line m serving as the reaching line of the mobile body 1 is provided, so that the self-position estimation accuracy is poor and the mobile body 1 has a self-position variation or drive control. Even if the path tracking accuracy by the unit 17 is poor and the path may be off, it can be ensured to some extent that the moving body 1 enters the grippable range.
Also, when path generation is performed by determining that it is difficult to fit in the grippable area, from the intersection of the straight line connecting the gripping target object and the grippable area centroid and the end line of the detectable area, from the gripping target object By disposing several path points in the direction parallel to the straight line connecting the object to be grasped and the destination, the moving body 1 can be surely placed in the detectable region.

なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、距離センサ12として超音波距離計を用いることとしたが、レーザーを用いた距離センサなどの他の距離計測手法であっても良い。   Note that the present invention is not limited to the above-described embodiment, and can be changed as appropriate without departing from the spirit of the present invention. For example, although an ultrasonic distance meter is used as the distance sensor 12, other distance measurement methods such as a distance sensor using a laser may be used.

1 移動体
11 ロボットアーム
12 距離センサ
13 環境地図データ記憶部
14 自己位置推定部
15 把持物体検出部
16 経路計画部
17 駆動制御部
18 演算部
DESCRIPTION OF SYMBOLS 1 Mobile body 11 Robot arm 12 Distance sensor 13 Environmental map data storage part 14 Self-position estimation part 15 Grasping object detection part 16 Path planning part 17 Drive control part 18 Calculation part

Claims (1)

移動体に設置された把持物体検出部が把持対象物体を検出することが可能な領域である物体検出可能領域と、前記移動体に設置されたロボットアームが前記把持対象物体に到達することが可能な領域である物体到達可能領域と、に基づいて、前記ロボットアームにより把持対象物体を把持可能な領域である物体把持可能領域を設定するステップと、
前記移動体の自己位置ばらつきと、追従ずれと、に基づいて前記物体把持可能領域への到達可能性を判定するステップと、
前記移動体を前記物体把持可能領域内に到達させる経路計画を生成するステップと、を備える、移動体の移動制御方法。
An object detectable area, which is an area in which a gripping object detection unit installed on a moving body can detect a gripping target object, and a robot arm installed on the moving body can reach the gripping target object Setting an object grippable area, which is an area where the robot arm can grip a gripping target object, based on the object reachable area that is
Determining reachability to the object grippable area based on self-position variation of the moving body and tracking deviation;
Generating a route plan for causing the moving body to reach the object grippable region, and a moving control method for the moving body.
JP2012111817A 2012-05-15 2012-05-15 Method for controlling movement of movable body Pending JP2013237125A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012111817A JP2013237125A (en) 2012-05-15 2012-05-15 Method for controlling movement of movable body

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012111817A JP2013237125A (en) 2012-05-15 2012-05-15 Method for controlling movement of movable body

Publications (1)

Publication Number Publication Date
JP2013237125A true JP2013237125A (en) 2013-11-28

Family

ID=49762632

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012111817A Pending JP2013237125A (en) 2012-05-15 2012-05-15 Method for controlling movement of movable body

Country Status (1)

Country Link
JP (1) JP2013237125A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015172878A (en) * 2014-03-12 2015-10-01 株式会社豊田自動織機 Linkage system for unmanned carrier and inventory management system
JP2016049616A (en) * 2014-09-02 2016-04-11 トヨタ自動車株式会社 Travel robot, operation plan method therefor and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015172878A (en) * 2014-03-12 2015-10-01 株式会社豊田自動織機 Linkage system for unmanned carrier and inventory management system
JP2016049616A (en) * 2014-09-02 2016-04-11 トヨタ自動車株式会社 Travel robot, operation plan method therefor and program

Similar Documents

Publication Publication Date Title
JP5586967B2 (en) Robot and robot system
KR20170088228A (en) Map building system and its method based on multi-robot localization
JP2014197294A (en) Position identification device and mobile robot having the same
JP2007310866A (en) Robot using absolute azimuth and map creation method using it
JP6617482B2 (en) Autonomous vehicle system
US9126338B2 (en) Robot system and method for driving the same
JP5553220B2 (en) Moving body
JP2009217333A (en) Mobile robot and operation control method thereof
WO2019124343A1 (en) Moving body
JP2015146091A (en) Position estimation method of mobile robot
JP7036399B2 (en) Autonomous mobile robots, their control devices and motion control programs
JP5983506B2 (en) Gripping pattern detection method and robot for gripping object
JP2013237125A (en) Method for controlling movement of movable body
WO2018179960A1 (en) Mobile body and local position estimation device
JPWO2016009585A1 (en) Autonomous mobile object and its control method
JP6751469B2 (en) Map creation system
JP7121489B2 (en) moving body
JP6412207B2 (en) Position identification device
JP2020119214A (en) Driving control device
WO2013014965A1 (en) Work unit action control device, work unit action control method, and work unit action control program
JP7275973B2 (en) position estimator
JP5463628B2 (en) Position estimation device
Sefat et al. Design and implementation of a vision based intelligent object follower robot
Yuan et al. A Efficient and Dynamic Algorithm for Accurate Mobile Robot Navigation
JP7283085B2 (en) travel control device