JP2006159399A - Working mobile robot - Google Patents

Working mobile robot Download PDF

Info

Publication number
JP2006159399A
JP2006159399A JP2005197013A JP2005197013A JP2006159399A JP 2006159399 A JP2006159399 A JP 2006159399A JP 2005197013 A JP2005197013 A JP 2005197013A JP 2005197013 A JP2005197013 A JP 2005197013A JP 2006159399 A JP2006159399 A JP 2006159399A
Authority
JP
Japan
Prior art keywords
unit
mobile robot
moving
manipulator
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005197013A
Other languages
Japanese (ja)
Inventor
Hiroyuki Handa
博幸 半田
Zenta Nakamoto
善太 中元
Kenji Matsukuma
研司 松熊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yaskawa Electric Corp
Original Assignee
Yaskawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yaskawa Electric Corp filed Critical Yaskawa Electric Corp
Priority to JP2005197013A priority Critical patent/JP2006159399A/en
Publication of JP2006159399A publication Critical patent/JP2006159399A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To obtain a working mobile robot capable of approaching a holding object by itself without requiring high-precision positioning accuracy of a moving part, and surely holding the object by correcting the position attitude of the holding object. <P>SOLUTION: The working mobile robot 1 is equipped with an object position attitude acquisition part 11, the moving part 12, a manipulation part 13, and a control part. The working mobile robot is composed of an external information detection part 14 acquiring the external information changing accompanied with the movement of the manipulation part 13, an object searching part 15 searching a body of working object, a holding range determination part 16 determining the movable range for holding using the manipulation part 13, a moving procedure generation part 17 generating the moving procedure of the moving part 12, and a holding operation generation part 18 generating the holding operation procedure of the manipulation part 13. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、移動体が自律的に自在に移動し、搭載したマニピュレータによって作業を実行する作業用移動ロボットに関する。   The present invention relates to a mobile robot for work in which a moving body moves autonomously and freely and performs work with a mounted manipulator.

従来の作業用移動ロボットとして、作業対象の物体にマーカを備えることで、ビジョンによる物体の位置姿勢を高精度に計測する技術を利用したものが提案されている(例えば、特許文献1参照)。
図11は、従来の作業用移動ロボットを示す側面図である。図11において、1101は移動ロボット1110の無人車、1102は無人車1101に搭載されたハンドリングロボットである。1103はロボット1102のアーム、1104はロボット1102のハンドリング駆動部、1105は視覚センサであって、ハンドリング駆動部1104に固定されており、視覚センサ1105が送出する画像信号は画像処理装置1106に入力される。Wは作業対象の四角形のワークであり、その角隅部にマークM1とM2を付している。移動ロボット1110は行き先(作業位置)を指定され、作業位置に向かって走行する。移動ロボット1110が作業位置へ停止すると、視覚センサ1105の撮像を開始させ、先ず、マークM1を撮像させる。移動ロボット1110の停止位置がずれていない場合は、マークM1は視覚センサ1105の視野中心に映るが、移動ロボット1110の停止位置がずれている場合には、マークM1は視覚センサ1105の視野中心からずれた位置に映ることになる。次に、ロボット制御装置1112はロボットアーム1103を所定距離だけ所定向きに移動させる。この所定距離はマークM1とM2間の距離であって、ロボット制御装置1112に予め設定されており、ワークWの搬入姿勢と位置も一定であるので、移動する向きもロボット制御装置1112に予め設定されている。この位置決めが終わると、視覚センサ1105によるマークM2の撮像が開始され、画像処理装置1106によってM1およびM2の重心位置情報からワークの位置を特定する。移動ロボット1110の停止位置がずれている場合は、ロボット制御装置1112はこのワークの位置を用いて位置修正を行ったのちハンドリング作業を行う。
このようにワークの表面に少なくとも2ヶ所にマークを付し、それぞれのマークを視覚センサで撮像し、2つのマークの重心位置を画像処理で求めることでワークの位置を検出している。
特開平3−166072号公報(第3頁、図1)
As a conventional working mobile robot, a robot using a technique for measuring the position and orientation of an object by vision with high accuracy by providing a marker on an object to be worked has been proposed (for example, see Patent Document 1).
FIG. 11 is a side view showing a conventional mobile robot for work. In FIG. 11, reference numeral 1101 denotes an unmanned vehicle of the mobile robot 1110, and 1102 denotes a handling robot mounted on the unmanned vehicle 1101. Reference numeral 1103 denotes an arm of the robot 1102, 1104 denotes a handling drive unit of the robot 1102, and 1105 denotes a visual sensor, which is fixed to the handling drive unit 1104, and an image signal sent from the visual sensor 1105 is input to the image processing apparatus 1106. The W is a rectangular work to be worked, and marks M1 and M2 are attached to the corners of the work. The mobile robot 1110 is designated a destination (working position) and travels toward the working position. When the mobile robot 1110 stops at the work position, imaging of the visual sensor 1105 is started, and first, the mark M1 is imaged. When the stop position of the mobile robot 1110 is not shifted, the mark M1 appears in the center of the visual field of the visual sensor 1105, but when the stop position of the mobile robot 1110 is shifted, the mark M1 is shifted from the center of the visual field of the visual sensor 1105. It will be reflected in the shifted position. Next, the robot controller 1112 moves the robot arm 1103 in a predetermined direction by a predetermined distance. The predetermined distance is a distance between the marks M1 and M2, and is set in advance in the robot control device 1112. Since the loading position and position of the workpiece W are also constant, the moving direction is also set in the robot control device 1112 in advance. Has been. When this positioning is completed, imaging of the mark M2 by the visual sensor 1105 is started, and the position of the workpiece is specified by the image processing apparatus 1106 from the gravity center position information of M1 and M2. If the stop position of the mobile robot 1110 is deviated, the robot controller 1112 performs the handling operation after correcting the position using the position of the workpiece.
In this way, marks are attached to at least two places on the surface of the workpiece, each of the marks is imaged by a visual sensor, and the position of the workpiece is detected by obtaining the center of gravity of the two marks by image processing.
Japanese Patent Laid-Open No. 3-166072 (page 3, FIG. 1)

従来の作業用移動ロボットは、無人車(移動部)が行き先(作業位置)へ高精度で位置決めできなければ視覚センサがマークを撮像することができないため、作業対象のワーク位置姿勢情報が得られず、ワークをハンドリングできないという問題があった。また、ワークの位置姿勢情報が得られた場合においても対象ワークがアーム(マニピュレータ)の可動範囲外に位置する場合もワークをハンドリングできないという問題や、更に、視覚センサが撮像する際に外乱光も同時に撮像するなどの場合、ワークの位置姿勢情報に誤差を生じることがあるが、このような誤差を含んだ位置姿勢情報を用いてワークを把持するとアームがワークと接触し、ハンドリングが不能になるばかりではなく、対象物またはアーム自体を破損するといった問題があった。
本発明はこのような問題点に鑑みてなされたものであり、高精度の移動部の位置決め精度を必要としないとともに、把持対象物がマニピュレータの可動範囲外に存在した場合でも移動部を移動することによって対象物をマニピュレータの可動範囲内に位置するようにし、把持対象物の位置姿勢情報に誤差があった場合でも、他のセンサ情報を利用することで位置姿勢を修正することができる作業用移動ロボットを提供することを目的とする。
In conventional mobile robots for work, since the visual sensor cannot capture the mark unless the unmanned vehicle (moving part) can be positioned with high precision at the destination (working position), the work position / posture information of the work target can be obtained. Therefore, there was a problem that the workpiece could not be handled. In addition, even when the position and orientation information of the workpiece is obtained, there is a problem that the workpiece cannot be handled even when the target workpiece is located outside the movable range of the arm (manipulator). An error may occur in the position / orientation information of the workpiece when imaging at the same time, but if the workpiece is gripped using the position / orientation information including such an error, the arm contacts the workpiece and handling becomes impossible. In addition, there is a problem that the object or the arm itself is damaged.
The present invention has been made in view of such problems, and does not require high-precision positioning accuracy of the moving unit, and moves the moving unit even when the object to be grasped is outside the movable range of the manipulator. This makes it possible to correct the position and orientation by using other sensor information even if there is an error in the position and orientation information of the gripping object so that the object is positioned within the movable range of the manipulator An object is to provide a mobile robot.

上記問題を解決するため、本発明は、次のように構成したものである。
請求項1に記載の発明は、空間を自在に移動して作業を実行可能な移動ロボットにおいて、作業対象の物体を識別し、前記物体の位置姿勢を取得する対象物位置姿勢取得部と、少なくとも1つのアクチュエータを備えた移動部と、少なくとも1つのアクチュエータを備えたマニピュレーション部と、前記マニピュレータの動作に伴って変化する外界情報を取得する外界情報検出部と、前記作業対象の物体を探索する対象物探索部と、前記マニピュレータを用いて把持動作可能な範囲を判断する把持範囲判断部と、前記移動部の移動手順を生成する移動手順生成部と、前記マニピュレーション部の把持動作手順を生成する把持動作生成部を備えたものである。
また、請求項2に記載の発明は、前記対象物位置姿勢取得部は、ビジョンセンサの情報を基に画像処理によって対象物の位置姿勢座標を求めるものである。
また、請求項3に記載の発明は、前記移動部は、2つのアクチュエータを備え、2つの駆動輪の差動によって回転と前進および後退可能な機構を有するものである。
また、請求項4に記載の発明は、前記移動部は、3つ以上のアクチュエータを備え、平面の並進移動および回転移動が自在な全方向移動機構を有するものである。
また、請求項5に記載の発明は、前記マニピュレーション部は、6つ以上のアクチュエータを有したマニピュレータから成り、前記マニピュレータの手先が空間の任意の位置姿勢に移動可能であるものである。
また、請求項6に記載の発明は、前記マニピュレーション部は、3つ以上のアクチュエータを有した2つ以上のマニピュレータから成り、前記マニピュレータによって把持された物体が空間の任意の位置姿勢に移動可能であるものである。
また、請求項7に記載の発明は、前記外界情報検出部は、前記マニピュレータの先端部に取り付けられた力センサであり、前記マニピュレータの動作による外界との接触力を計測するものである。
また、請求項8に記載の発明は、前記外界情報検出部は、前記マニピュレータの先端部に取り付けられた2つ以上のマイクロスイッチであり、前記マニピュレータの動作による外界との接触箇所を検出するものである。
また、請求項9に記載の発明は、前記対象物探索部は、前記対象物位置姿勢取得部にて物体の位置姿勢を取得できない場合、予め決められた手順で移動部を移動することで物体を探索するようにしたものである。
また、請求項10に記載の発明は、前記移動手順生成部は、前記対象物位置姿勢取得部によって計測する物体の位置姿勢データの誤差が最小になるように前記移動部を移動させるようにしたものである。
また、請求項11に記載の発明は、前記把持動作生成部は、前記外界情報検出部によって予め決められた値以上の情報を検出した場合、前記マニピュレータが移動していた方向とは逆方向にマニピュレータを移動させるようにしたものである。
また、請求項12に記載の発明は、前記把持動作生成部は、前記外界情報検出部によって予め決められた値以上の情報を検出した場合、前記マニピュレータを予め決められた動作パターンで移動するようにしたものである。
また、請求項13に記載の発明は、前記把持動作生成部は、前記外界情報検出部によって予め決められた値以上の情報を検出するまで、前記マニピュレータの動きを保持するようにしたものである。
また、請求項14に記載の発明は、前記把持動作生成部は、前記外界情報検出部によって予め決められた値以上の情報を検出するまでの時間を任意に設定でき、その設定時間時間内に予め決められた値以上の情報が検出されなかった場合、前記マニピュレータの動きを保持する事を解除するようにしたものである。
In order to solve the above problems, the present invention is configured as follows.
The invention according to claim 1 is a mobile robot capable of performing a work by freely moving in a space. The target object position / posture acquisition unit for identifying a target object and acquiring the position / posture of the object, A moving unit including one actuator, a manipulation unit including at least one actuator, an external information detecting unit that acquires external information that changes in accordance with the operation of the manipulator, and an object to search for the object to be worked An object search unit; a gripping range determination unit that determines a range in which a gripping operation can be performed using the manipulator; a movement procedure generation unit that generates a moving procedure of the moving unit; and a grip that generates a gripping operation procedure of the manipulation unit An operation generation unit is provided.
According to a second aspect of the present invention, the object position and orientation acquisition unit obtains the position and orientation coordinates of the object by image processing based on information of a vision sensor.
According to a third aspect of the present invention, the moving unit includes two actuators and has a mechanism capable of rotating, moving forward and backward by differential of two drive wheels.
According to a fourth aspect of the present invention, the moving section includes three or more actuators, and has an omnidirectional moving mechanism that can freely translate and rotate a plane.
According to a fifth aspect of the present invention, the manipulator includes a manipulator having six or more actuators, and a hand of the manipulator can be moved to an arbitrary position and orientation in the space.
According to a sixth aspect of the present invention, the manipulation unit includes two or more manipulators having three or more actuators, and an object gripped by the manipulator can move to an arbitrary position and orientation in space. There is something.
According to a seventh aspect of the present invention, the external world information detection unit is a force sensor attached to the tip of the manipulator, and measures a contact force with the external world due to the operation of the manipulator.
Further, in the invention described in claim 8, the outside world information detection unit is two or more micro switches attached to the tip of the manipulator, and detects a contact point with the outside world by the operation of the manipulator. It is.
In the invention according to claim 9, the object search unit moves the moving unit according to a predetermined procedure when the object position and orientation acquisition unit cannot acquire the position and orientation of the object. Is to search.
Further, in the invention according to claim 10, the moving procedure generating unit moves the moving unit so that an error in the position / posture data of the object measured by the object position / posture acquisition unit is minimized. Is.
Further, in the invention described in claim 11, when the gripping motion generation unit detects information greater than a predetermined value by the external world information detection unit, the direction in which the manipulator is moving is reversed. The manipulator is moved.
According to a twelfth aspect of the present invention, the gripping motion generation unit moves the manipulator in a predetermined motion pattern when the information outside the predetermined value is detected by the outside world information detection unit. It is a thing.
According to a thirteenth aspect of the present invention, the gripping motion generation unit holds the movement of the manipulator until information of a predetermined value or more is detected by the outside world information detection unit. .
Further, in the invention described in claim 14, the gripping motion generation unit can arbitrarily set a time until information outside a predetermined value is detected by the outside world information detection unit, and within the set time time. When no information exceeding a predetermined value is detected, the holding of the movement of the manipulator is canceled.

請求項1および6に記載の発明によると、作業対象の物体の位置姿勢を取得することができ、移動部およびマニピュレーション部を移動させて、前記物体をハンドリングすることができる。
また、請求項7および8に記載の発明によると、作業対象の物体位置姿勢情報に誤差がある場合でも外界情報検出部にて検出した情報を基に誤差を修正することができるため、作業対象の物体を正確にハンドリングすることができる。
また、請求項9および10に記載の発明によると、前記対象物位置姿勢取得部にて物体の位置姿勢を取得できない場合でも移動部を移動させて物体を探索できるため、移動部の移動による位置決め精度に大きな誤差を生じても作業対象物体の位置姿勢を取得することができる。
請求項11および12に記載の発明によると、マニピュレータによる把持動作中に予期せぬ接触あるいは接近を検出することができるため、マニピュレータ自体または作業対象の物体や外界物などの破損を回避することができる。
請求項13および14に記載の発明によると、前記外界情報検出部によって予め決められた値以上の情報を検出するまで、前記マニピュレータの動きを保持するため、外界との接触のある動作を安全に行うことができる。
According to the first and sixth aspects of the invention, the position and orientation of the work target object can be acquired, and the moving part and the manipulation part can be moved to handle the object.
According to the seventh and eighth aspects of the present invention, the error can be corrected based on the information detected by the external information detecting unit even when there is an error in the object position and orientation information of the work target. The object can be handled accurately.
According to the ninth and tenth aspects of the present invention, since the object can be searched by moving the moving unit even when the object position and orientation acquisition unit cannot acquire the position and orientation of the object, the positioning by moving the moving unit is possible. Even if a large error occurs in accuracy, the position and orientation of the work target object can be acquired.
According to the invention described in claims 11 and 12, since it is possible to detect an unexpected contact or approach during a gripping operation by the manipulator, it is possible to avoid damage to the manipulator itself, an object to be worked, or an external object. it can.
According to the invention described in claims 13 and 14, in order to maintain the movement of the manipulator until the information of a predetermined value or more is detected by the outside world information detecting unit, the operation with contact with the outside world can be safely performed. It can be carried out.

以下、本発明の実施の形態について図を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の実施例1を示したブロック図であり、作業用移動ロボットの機能要素を示している。
図において、11は対象物位置姿勢取得部、12は移動部、13はマニピュレーション部、14は外界情報検出部、15は対象物探索部、16は把持範囲判定部、17は移動手順生成部、18は把持動作生成部である。
対象物位置姿勢取得部11は、作業対象物体(以下、対象物と略す)の位置姿勢を取得するために作業用移動ロボット本体10に取り付けられていて、予め記憶した対象物の位置姿勢を取得できるようになっている。移動部12は、モータによって駆動される2つの車輪の回転差で旋回および直進可能な構成となっている。マニピュレーション部13は、6自由度を有し空間の任意の位置姿勢をとることができる垂直多関節型マニピュレータであり、本移動用作業ロボット本体10の左右に2つ搭載されている。また、外界情報検出部14は、前記マニピュレータ13の手首部に配置された6軸力センサで構成されており、手先効果器が外界と接触した場合に接触した方向および力の大きさを検出することができるようになっている。対象物探索部15は、対象物位置姿勢取得部11にて対象物が見つからなかった場合、即ち、対象物の位置姿勢情報を取得できなかった場合に、対象物が対象物位置姿勢取得部11の検出範囲内に位置するように移動部12を動作させるようになっている。把持範囲判断部16は、対象物判断部にて対象物が検出できる範囲に位置する場合、マニピュレーション部13にて対象物が把持可能であるかどうかを対象物の位置姿勢から演算によって求めるようになっている。また、移動手順生成部17は、把持範囲判断部16にて対象物が把持範囲に無いと判断された場合に、移動部12の旋回や直進を組み合わせた移動手順を生成するようになっている。対象物が把持範囲内に位置した場合は、把持動作生成部18は、対象物位置姿勢取得部11にて取得した対象物の位置姿勢情報をもとにマニピュレーション部13の動作パターンを生成し、マニピュレーション部13は生成した動作パターンに従って動作することで対象物を把持できるようになっている。この把持動作の際に、対象物位置姿勢取得部11が取得した対象物の位置姿勢情報に誤差が含まれる場合、マニピュレーション部13が把持動作を行っている途中で対象物と接触する場合がある。このような場合は、外界情報検出部14にて接触方向と接触力を検出し、把持動作生成部18は接触方向とは反対の方向にマニピュレータ部13の動作パターンを修正することで対象物を確実に把持することができるようになっている。
FIG. 1 is a block diagram showing a first embodiment of the present invention, showing functional elements of a working mobile robot.
In the figure, 11 is an object position and orientation acquisition unit, 12 is a movement unit, 13 is a manipulation unit, 14 is an external world information detection unit, 15 is an object search unit, 16 is a gripping range determination unit, 17 is a movement procedure generation unit, Reference numeral 18 denotes a gripping motion generation unit.
The object position / posture acquisition unit 11 is attached to the work mobile robot body 10 to acquire the position / posture of a work target object (hereinafter, abbreviated as a target object), and acquires a pre-stored position / posture of the target object. It can be done. The moving unit 12 is configured to be able to turn and go straight by the rotation difference between two wheels driven by a motor. The manipulation unit 13 is a vertical articulated manipulator that has six degrees of freedom and can take any position and orientation in space, and is mounted on the left and right sides of the main work robot body 10 for movement. The external world information detection unit 14 is composed of a six-axis force sensor disposed on the wrist of the manipulator 13, and detects the contact direction and the magnitude of the force when the hand effector comes into contact with the external world. Be able to. When the object is not found by the object position / orientation acquisition unit 11, that is, when the position / orientation information of the object cannot be acquired, the object search unit 15 detects the object position / orientation acquisition unit 11. The moving unit 12 is operated so as to be within the detection range. The gripping range determination unit 16 obtains, by calculation, from the position and orientation of the target object whether or not the target object can be gripped by the manipulation unit 13 when the target object determination unit is located in a range where the target object can be detected. It has become. In addition, when the gripping range determination unit 16 determines that the object is not in the gripping range, the moving procedure generation unit 17 generates a moving procedure that combines turning and straight movement of the moving unit 12. . When the object is located within the gripping range, the gripping motion generation unit 18 generates an operation pattern of the manipulation unit 13 based on the position and orientation information of the target acquired by the target object position and orientation acquisition unit 11. The manipulation unit 13 can grasp the object by operating according to the generated operation pattern. In the case of this gripping operation, if an error is included in the position / posture information of the target object acquired by the target object position / posture acquisition unit 11, the manipulation unit 13 may come into contact with the target object during the gripping operation. . In such a case, the external environment information detection unit 14 detects the contact direction and the contact force, and the gripping operation generation unit 18 corrects the operation pattern of the manipulator unit 13 in the direction opposite to the contact direction. It can be securely gripped.

また、対象物が机の上に置かれた紙などの薄板の場合、把持動作生成部18は薄板を掴むのに十分な量を机から出させるようにマニピュレーション部13の先端を薄板の上から机に押さえつけながら引寄せる。この時、机に押さえつける力を外界情報検出部14により検出し、薄板を引寄せるのに適した力を検出するまで押さえつける方向にマニピュレーション部13を移動させ、薄板を引寄せるのに適した力を外界情報検出部14が検出した後は、薄板を引寄せる方向へマニピュレーション部13を移動させ、薄板を掴むのに十分な量が机から出るようにする。そして、薄板の端部を掴んだ後は、マニピュレーション部13の先端に設けた突起部82によって薄板は凹状になる。その薄板の他端を机の端部で持ち上げるようにマニピュレーション部13を移動させることにより、把持時の薄板の垂れ下がりが少なくなり、安定して薄板を把持することができるようになっている。また、この机にマニピュレーション部13の先端を押さえつける動作の時に、一定距離を移動させても机との接触を外界情報検出部が検出しなかった場合には、対象物の置いてある机が本移動用作業ロボット本体10の把持範囲にないという事であるため、再び対象物探索部15と移動部12を用いて机を探索するなど、把持できる状態にする。そして、対象物を把持した場合には、移動部12により対象物を渡す位置へ移動し、マニピュレーション部13によって対象物渡し姿勢になり、外界情報検出部14によって対象物の有無による力の変化を検出した場合、把持姿勢を解放して把持物を離す。この対象物渡し姿勢になって一定時間を経過しても外界情報検出部14に力の変化が検出されなかった場合は、対象物を把持した状態を保持することができるようになっている。
本発明が特許文献1と異なる部分は、対象物が見つからなかった場合に対象物を探索する対象物探索部15と、対象物がマニピュレータ部の把持範囲内にあるかどうかを判断する把持範囲判断部16と、対象物の位置姿勢情報に誤差が含まれていてもエラーリカバーするための外界情報検出部14および把持動作生成部18を備えた部分である。
When the object is a thin plate such as paper placed on a desk, the gripping motion generation unit 18 moves the tip of the manipulation unit 13 from the top of the thin plate so that a sufficient amount can be taken out of the desk. Pull it while pressing it against the desk. At this time, the force that presses against the desk is detected by the external information detection unit 14, and the manipulation unit 13 is moved in the direction to press until a force suitable for pulling the thin plate is detected, and the force suitable for pulling the thin plate is applied. After the outside information detection unit 14 detects, the manipulation unit 13 is moved in the direction in which the thin plate is attracted so that an amount sufficient to grasp the thin plate comes out of the desk. Then, after gripping the end of the thin plate, the thin plate becomes concave due to the protrusion 82 provided at the tip of the manipulation unit 13. By moving the manipulation unit 13 so that the other end of the thin plate is lifted by the end of the desk, the thin plate hangs down during gripping, and the thin plate can be gripped stably. In addition, when the outside world information detection unit does not detect contact with the desk even when it is moved a certain distance during the operation of pressing the tip of the manipulation unit 13 against the desk, the desk on which the object is placed is the book. Since it is not within the gripping range of the mobile work robot body 10 for movement, the object search unit 15 and the moving unit 12 are used to search for a desk again, so that the gripping state can be obtained. When the object is gripped, the object is moved to the position where the object is transferred by the moving unit 12, the object passing posture is set by the manipulation unit 13, and the change in force due to the presence or absence of the object is detected by the external information detecting unit 14. If detected, release the gripping posture and release the gripping object. If no change in force is detected by the external information detection unit 14 even after a certain time has passed since this object passing posture, the state in which the object is gripped can be held.
The difference between the present invention and Patent Literature 1 is that the object search unit 15 searches for an object when the object is not found, and the gripping range determination that determines whether the object is within the gripping range of the manipulator unit. And a part 16 and an external information detecting unit 14 and a gripping motion generating unit 18 for recovering an error even if the position and orientation information of the object includes an error.

つぎに、本発明の作業用移動ロボットの動作について述べる。
図2は本発明の作業用移動ロボットの概略動作を示すフロー図である。作業用移動ロボットに対象物の把持要求がくると、まずStep201では対象物位置姿勢取得部にて対象物の位置姿勢情報を取得する。Step201にて対象物の位置姿勢情報が取得できなかった場合、Step202で対象物探索部にて対象物を取得するまで、または、予め設定された対象物の再取得回数の上限に達するまで移動体動作と位置姿勢取得を繰り返す。対象物の位置姿勢情報が取得できた場合、Step211に進み、取得した対象物の位置姿勢情報をもとに対象物が把持可能であるかどうかを把持範囲判断部にて判定する。Step211にて把持範囲に無いと判断された場合、Step212に進み移動手順生成部にて対象物の位置姿勢情報をもとに移動体の位置姿勢を調整し、再度対象物位置姿勢取得部にて対象物の位置姿勢を取得する。このように対象物の位置姿勢が把持範囲に位置するようになるまで、または、予め設定された移動体の位置調整回数の上限に達するまで移動体の位置調整および対象物の位置姿勢情報取得を繰り返す。次に、対象物が把持範囲に位置している場合、Step221に進み把持動作生成部にて把持動作パターンを生成する。ここで生成した把持動作パターンに基づいてマニピュレータ部は各関節を動作させ対象物を把持する。しかしながら、この把持動作パターンを生成するためには対象物の位置姿勢情報が基準となるため、この位置姿勢情報に誤差が含まれた場合、把持する対象物に接触し把持できない場合がある。このような場合、Step222により外界情報検出部にて接触を検出し、接触した際の移動方向とは逆の方向にマニピュレータ部を移動させ、予め設定された距離だけオフセット移動させて再度把持動作を行うことで、対象物の位置し姿勢情報に誤差を含んだ場合においても、確実に対象物を把持することができるようになっている。
Next, the operation of the working mobile robot of the present invention will be described.
FIG. 2 is a flowchart showing a schematic operation of the working mobile robot of the present invention. When a request for gripping an object comes to the work mobile robot, first, in Step 201, the object position and orientation acquisition unit acquires the position and orientation information of the object. If the position and orientation information of the target cannot be acquired in Step 201, the mobile object is acquired until the target is acquired by the target search unit in Step 202 or until the preset upper limit of the number of re-acquisition of the target is reached. Repeat movement and position and orientation acquisition. When the position / orientation information of the object can be acquired, the process proceeds to Step 211, and the holding range determination unit determines whether or not the object can be held based on the acquired position / orientation information of the object. If it is determined in Step 211 that the object is not in the gripping range, the process proceeds to Step 212 and the moving procedure generation unit adjusts the position and orientation of the moving object based on the position and orientation information of the object, and the object position and orientation acquisition unit again. Get the position and orientation of the object. In this way, the position adjustment of the moving object and the acquisition of the position / orientation information of the object are performed until the position / orientation of the object is positioned within the gripping range or until the preset upper limit of the number of times of position adjustment of the moving object is reached. repeat. Next, when the object is located in the gripping range, the process proceeds to Step 221 and the gripping motion generation unit generates a gripping motion pattern. Based on the gripping motion pattern generated here, the manipulator unit moves each joint to grip the object. However, since the position / orientation information of the object is used as a reference in order to generate the grasping motion pattern, if the position / orientation information includes an error, the object may not be in contact with the object to be grasped. In such a case, contact is detected by the external information detection unit in Step 222, the manipulator unit is moved in the direction opposite to the moving direction at the time of contact, and the gripping operation is performed again by offset movement by a preset distance. By doing so, the object can be reliably gripped even when the position and orientation information of the object includes an error.

図3は図2の対象物探索の詳細を示すフロー図である。
図において、対象物の探索要求を受けるとStep301にて探索回数Nをゼロに初期化する。次に、Step302にて位置姿勢情報を取得(N=0の場合は、図2のStep201にて取得した位置姿勢情報が設定される)し、Step303にて位置姿勢情報が取得できたかどうか判定される。Step303にて位置姿勢情報が取得されていれば、図2のStep211へ移行する。もし、Step303にて位置姿勢情報が取得されなかった、即ち、対象物が対象物位置姿勢取得部の検出範囲になかった場合、Step304に移行し探索回数Nに1を加える。Step305では、探索回数Nが予め設定された探索回数の上限(Nmax)を超えているかどうか判断され、上限を超えている場合、Step306にて位置姿勢情報取得失敗通知を発行した後、一連の動作を停止する。Step305にて探索回数Nが上限を超えていない場合は、Step307へ移行し探索回数Nが偶数であるかどうかを判定する。探索回数Nが偶数の場合、Step308にて数式(1)で移動体の旋回角度θを求め、Step307にて探索回数Nが奇数の場合はStep309にて数式(2)で移動体の旋回角度θを求める。ここで、Δθは予め決められた微小角(例えば10deg)である。 Step310では、Step308またはStep309にて求めた旋回角θだけ移動体を旋回させ、Step302にて対象物の位置姿勢情報を取得する。本発明の作業用移動ロボットはStep302からStep310を繰り返すことによって対象物の位置姿勢情報を取得できるようになっている。
FIG. 3 is a flowchart showing details of the object search of FIG.
In the figure, when a search request for an object is received, the number of searches N is initialized to zero in Step 301. Next, position and orientation information is acquired in Step 302 (when N = 0, the position and orientation information acquired in Step 201 of FIG. 2 is set), and it is determined whether or not the position and orientation information can be acquired in Step 303. The If the position and orientation information has been acquired in Step 303, the process proceeds to Step 211 in FIG. If the position / orientation information is not acquired in Step 303, that is, if the object is not in the detection range of the object position / orientation acquisition unit, the process proceeds to Step 304 and 1 is added to the number N of searches. In Step 305, it is determined whether or not the number of searches N exceeds a preset upper limit (Nmax) of the number of searches, and if it exceeds the upper limit, a series of operations is performed after issuing a position and orientation information acquisition failure notification in Step 306. To stop. If the number of searches N does not exceed the upper limit in Step 305, the process proceeds to Step 307 to determine whether the number of searches N is an even number. When the number of searches N is an even number, the turning angle θ of the moving body is obtained by Equation (1) in Step 308. When the number of searches N is an odd number in Step 307, the turning angle θ of the moving body is obtained by Step (309). Ask for. Here, Δθ is a predetermined minute angle (for example, 10 deg). In Step 310, the moving body is turned by the turning angle θ obtained in Step 308 or Step 309, and the position and orientation information of the object is acquired in Step 302. The work mobile robot of the present invention can acquire the position and orientation information of the object by repeating Step 302 to Step 310.

このように、移動体を旋回させることによって対象物を探索するような構成をしているので、対象物が対象物位置姿勢取得部の検出範囲にない場合でも移動体を旋回させて対象物を検出範囲内に位置させ、位置姿勢を取得することができる。
図4は、取得した対象物の位置姿勢情報が把持範囲内であるかどうかを判定し、把持範囲にない場合でも対象物が把持範囲に入るように移動体の位置を調整する移動体位置調整フロー図である。
図4(a)において、対象物の位置姿勢情報をもとにマニピュレータ部の把持範囲にあるかどうかといった把持範囲判定要求を受けると、Step401にて位置調整回数Naをゼロに初期化する。次に、Step402にて位置姿勢情報取得部によって取得した情報を記憶する。ここでは、説明を簡単化するために位置姿勢情報はX、Y、Zの並進成分のみを考えることとする。Step403では記憶したZ方向の位置姿勢情報が予め設定した値Zmax以下であるかどうかを判定する。ZがZmax以下であればStep404へ移行し、今度はZがZmin以上であるかどうかを判定する。即ち、Step403およびStep404にて対象物の高さが把持可能範囲の高さ以内にあるかどうかを判定するのである。次に、Step405およびStep406にて対象物がXY平面の把持可能範囲内にあるかどうかを判定する。このときのXmin、Xmax、Ymin、Ymaxは予め設定した値である。Step403からStep406にて対象物が把持範囲に存在することが判定されると、図2のStep221の把持動作へと移行する。Step403またはStep404にて対象物が把持範囲の高さ方向以内にない場合、Step414にて対象物が把持範囲外にあることを通知する。Step403の条件を満たさなかった場合は、本発明の作業用移動ロボットは本体の高さ方向(Z方向)に移動できないため、例えば「高すぎます」や、Step404の条件を満たさなかった場合は、「低すぎます」というような内容を音声にて人間に呈示するようになっている。次に、Step405またはStep406にて対象物が把持範囲のXY平面内にない場合、Step407に移行して位置調整回数Naに1を加える。Step408では、位置調整回数Naが予め設定された位置調整回数の上限Namaxを超えているかどうかを判定し、超えている場合はStep415にて把持不能通知を発行する。この把持不能通知とは、例えば「把持することができません」という内容を発話することで状態を人間に呈示することである。Step408にて位置調整回数Naが上限Namaxに達していない場合は、Step409にて対象物がロボットのどの方向に位置しているかを数式(3)の計算によって求める。Step410では、ロボット中心から見た対象物の方向(角度)の絶対値が予め設定した角度θmaxよりも小さいかどうかを判定する。θmaxよりも小さい場合は、Step411にて記憶した位置姿勢情報をもとに移動体をX方向のみに移動させる。Step410にてθmaxよりも大きい場合は、Step412にてStep409で計算した対象物の方向に移動体を旋回させる。Step411またはStep412にて移動体の位置調整を行った後、Step413にて再度対象物の位置姿勢情報を取得し、Step402へと移行する。
このようにStep402からStep413を繰り返すことによってロボットは対象物が把持可能な相対位置になるように位置を調整するため、移動体の移動による誤差を生じても確実にマニピュレータ部の把持可能領域内に対象物が位置するようにできる。
また、移動体が平面の任意の方向の並進および旋回可能な全方向移動機構を備えている場合、XY方向に同時に移動可能であるため、図のStep409からStep412(図の点線で囲んだ部分)は、図4(b)に置き換えることができる。
As described above, the object is searched by turning the moving body, so even if the object is not within the detection range of the object position / posture acquisition unit, the moving object is turned to move the object. The position and orientation can be acquired by positioning within the detection range.
FIG. 4 determines whether or not the acquired position and orientation information of the target object is within the gripping range, and adjusts the position of the mobile body so that the target object enters the gripping range even when it is not within the gripping range. FIG.
In FIG. 4A, upon receiving a gripping range determination request such as whether or not the gripper is within the gripping range of the manipulator unit based on the position and orientation information of the object, in step 401, the position adjustment count Na is initialized to zero. Next, the information acquired by the position / orientation information acquisition unit in Step 402 is stored. Here, in order to simplify the explanation, only the translational components of X, Y, and Z are considered in the position and orientation information. In Step 403, it is determined whether or not the stored position / orientation information in the Z direction is equal to or less than a preset value Zmax. If Z is equal to or less than Zmax, the process proceeds to Step 404, and it is determined whether Z is equal to or greater than Zmin. That is, in Step 403 and Step 404, it is determined whether or not the height of the object is within the height of the grippable range. Next, in Step 405 and Step 406, it is determined whether or not the object is within the grippable range of the XY plane. Xmin, Xmax, Ymin, and Ymax at this time are preset values. If it is determined in Step 403 to Step 406 that the object exists in the gripping range, the process proceeds to the gripping operation in Step 221 in FIG. If the target is not within the height direction of the gripping range in Step 403 or Step 404, it is notified in Step 414 that the target is outside the gripping range. If the condition of Step 403 is not satisfied, the work mobile robot of the present invention cannot move in the height direction (Z direction) of the main body.For example, if it is `` too high '' or if the condition of Step 404 is not satisfied, Content such as “too low” is presented to humans by voice. Next, when the target is not in the XY plane of the gripping range in Step 405 or Step 406, the process proceeds to Step 407 and 1 is added to the position adjustment count Na. In Step 408, it is determined whether or not the position adjustment frequency Na exceeds a preset upper limit Namax of the position adjustment frequency, and if it exceeds, a grip impossibility notification is issued in Step 415. This grip failure notification is, for example, presenting the state to a person by speaking the content “cannot be gripped”. If the number of position adjustments Na does not reach the upper limit Namax in Step 408, the direction in which the object is located in the robot is determined in Step 409 by calculation of Equation (3). In Step 410, it is determined whether or not the absolute value of the direction (angle) of the object viewed from the robot center is smaller than a preset angle θmax. If it is smaller than θmax, the moving body is moved only in the X direction based on the position and orientation information stored in Step 411. If it is larger than θmax in Step 410, the moving body is turned in the direction of the object calculated in Step 409 in Step 412. After adjusting the position of the moving body in Step 411 or Step 412, the position / orientation information of the object is acquired again in Step 413, and the process proceeds to Step 402.
By repeating Step 402 to Step 413 in this way, the robot adjusts the position so that the target object can be held in a relative position. Therefore, even if an error due to movement of the moving body occurs, it is surely within the grippable area of the manipulator unit. The object can be located.
Also, if the moving body has an omnidirectional moving mechanism that can translate and turn in any direction on the plane, it can move simultaneously in the XY directions, so Step 409 to Step 412 in the figure (the part enclosed by the dotted line in the figure) Can be replaced with FIG.

次に、位置姿勢情報に誤差が含まれている場合においても確実に対象物を把持できる探り動作について図5および図6を用いて説明する。図5は外界情報検出部を用いた探り動作を示した図であり、図6は把持動作および探り動作のフロー図である。
図5において、50は対象物、51は手先効果器であるハンド、52は外界情報検出部である力センサ、53は基準位置である。
把持動作要求を受けるとマニピュレータ部を動作させることによって周囲と干渉しない基準位置53へハンド51を移動させる(Step601)。基準位置53へ移動後、位置姿勢情報取得部によって取得した位置情報をもとに、先ずXY方向のみハンド51を移動させ、(Step602)。次に、Step603にて探り動作回数Nfをゼロに初期化し、Z方向に位置姿勢情報のZtrgまで移動させる(Step604)。この移動中に力センサ52の情報を監視することで対象物50との接触検出を行う(Step605)。接触を検出することなく目標位置(Ztrg)に到達した場合(Step606)、対象物50をハンド51で把持し(Step607)、持ち上げる(Steo608)ように構成されている。図5(a)では、この対象物50との接触を検出しない場合を図示している。次に、位置姿勢情報に誤差が含まれ、位置情報をもとにXY移動させた場合の説明を行う。図5(b)は、基準位置53から位置姿勢情報をもとにXY方向へハンド51を移動させた場合を示している。この状態から目標位置(Ztrg)へハンド51を移動(Step604)させていくと、ハンド51は対象物50とZtchの位置で接触する。この際、Step605にて接触を検出し、マニピュレータ部の動作を一時停止する(図5(c))。Step605にて接触を検出すると、Step609にて探り動作回数に1を加え、先ず図5(d)のように接触位置ZtchからΔZa上方にハンド51を移動させる(Step610)。次に、図(e)に示すようにハンド51をΔYaだけY方向に移動させる(Step611)。このときのΔZaおよびΔYaは予め決められた距離であるが、力センサ52(6軸の力を検出)の力およびモーメントからハンド51の接触位置を推定することができるため、Y方向に回避する正負の符合を決定することができる。Step612では探り動作回数Nfがあらかじめ設定された上限値Nfmaxを超えているかどうかを判定し、上限を超えている場合はStep613に移行してハンド51を基準位置53へ移動させ、Step614にてマニピュレータ部を基本姿勢に動作した後、図2のStep201へ移行する。Step612にて探り動作回数が上限に達していない場合は、図5(f)のように目標位置Ztrgへ移動する(Step604)。このようにStep604からStep612を繰り返すことで、位置姿勢情報に誤差を含んでいても外界情報検出部である力センサ52を利用することで確実に対象物50を把持できるようになる。
ここでは、マニピュレータの手首部に力センサを設置した場合を示したが、ハンド表面に複数のマイクロスイッチやテープスイッチあるいは近接スイッチなどのスイッチ類を配置し、接触または接近を検出する構成としても同様の効果を得られる。
Next, a search operation that can reliably hold an object even when the position and orientation information includes an error will be described with reference to FIGS. FIG. 5 is a diagram showing a search operation using the external information detector, and FIG. 6 is a flowchart of the gripping operation and the search operation.
In FIG. 5, 50 is an object, 51 is a hand effector, 52 is a force sensor as an external information detector, and 53 is a reference position.
When the gripping operation request is received, the hand 51 is moved to the reference position 53 that does not interfere with the surroundings by operating the manipulator unit (Step 601). After moving to the reference position 53, the hand 51 is first moved only in the XY directions based on the position information acquired by the position / orientation information acquisition unit (Step 602). Next, in step 603, the number of times Nf of search motions is initialized to zero and moved in the Z direction to Ztrg in the position and orientation information (step 604). By detecting the information of the force sensor 52 during the movement, contact detection with the object 50 is performed (Step 605). When the target position (Ztrg) is reached without detecting contact (Step 606), the object 50 is grasped by the hand 51 (Step 607) and lifted (Steo 608). FIG. 5A illustrates a case where contact with the object 50 is not detected. Next, a description will be given of a case where an error is included in the position and orientation information and the XY movement is performed based on the position information. FIG. 5B shows a case where the hand 51 is moved in the XY direction from the reference position 53 based on the position and orientation information. When the hand 51 is moved from this state to the target position (Ztrg) (Step 604), the hand 51 comes into contact with the object 50 at the position of Ztch. At this time, contact is detected in Step 605, and the operation of the manipulator unit is temporarily stopped (FIG. 5 (c)). When contact is detected in Step 605, 1 is added to the number of search operations in Step 609. First, as shown in FIG. 5D, the hand 51 is moved upward from the contact position Ztch by ΔZa (Step 610). Next, as shown in FIG. 4E, the hand 51 is moved in the Y direction by ΔYa (Step 611). At this time, ΔZa and ΔYa are predetermined distances, but since the contact position of the hand 51 can be estimated from the force and moment of the force sensor 52 (detecting six-axis force), it is avoided in the Y direction. The sign of positive or negative can be determined. In Step 612, it is determined whether or not the number of search operations Nf exceeds the preset upper limit value Nfmax. If the upper limit value is exceeded, the process moves to Step 613 to move the hand 51 to the reference position 53, and in Step 614 the manipulator unit After moving to the basic posture, the process proceeds to Step 201 in FIG. If the number of search operations has not reached the upper limit in Step 612, the movement to the target position Ztrg is performed as shown in FIG. 5 (f) (Step 604). By repeating Step 604 to Step 612 in this way, the object 50 can be reliably grasped by using the force sensor 52 that is an external information detection unit even if the position and orientation information includes an error.
Here, the case where a force sensor is installed on the wrist of the manipulator is shown, but a configuration in which switches such as a plurality of microswitches, tape switches or proximity switches are arranged on the surface of the hand to detect contact or approach is also the same. The effect of.

図7は本発明の実施例2を示すフロー図であり、作業用移動ロボットの薄板把持を含めた概略動作を示している。作業用移動ロボットに対象物の把持要求がくると、まずStep701では対象物位置姿勢取得部にて対象物の位置姿勢情報を取得する。Step701にて対象物の位置姿勢情報が取得できなかった場合、Step702で対象物探索部にて対象物を取得するまで、または、予め設定された対象物の再取得回数の上限に達するまで移動体動作と位置姿勢取得を繰り返す。対象物の位置姿勢情報が取得できた場合、Step711に進む。このように対象物の位置姿勢が把持範囲に位置するようになるまで、または、予め設定された移動体の位置調整回数の上限に達するまで移動体の位置調整および対象物の位置姿勢情報取得を繰り返す。次に、対象物が把持範囲に位置している場合、Step711に進み対象物が薄板であるか判断する。対象物が薄板である場合はStep721に進み、把持動作生成部にて把持動作パターンを生成する。ここで生成した把持動作パターンに基づいてマニピュレータ部は各関節を動作させ対象物を把持する。Step711で薄板でないと判断した場合は、Step731に進み取得した対象物の位置姿勢情報をもとに対象物が把持可能であるかどうかを把持範囲判断部にて判定する。Step731にて把持範囲に無いと判断された場合、Step732に進み移動手順生成部にて対象物の位置姿勢情報をもとに移動体の位置姿勢を調整し、再度対象物位置姿勢取得部にて対象物の位置姿勢を取得する。そしてStep731にて把持範囲にあると判断された場合はStep741に進み把持動作生成部にて把持動作パターンを生成する。ここで生成した把持動作パターンに基づいてマニピュレータ部は各関節を動作させ対象物を把持する。しかしながら、このStep741の把持動作パターンを生成するためには対象物の位置姿勢情報が基準となるため、この位置姿勢情報に誤差が含まれた場合、把持する対象物に接触し把持できない場合がある。このような場合、Step742により外界情報検出部にて接触を検出し、接触した際の移動方向とは逆の方向にマニピュレータ部を移動させ、予め設定された距離だけオフセット移動させて再度把持動作を行うことで、対象物の位置し姿勢情報に誤差を含んだ場合においても、確実に対象物を把持することができるようになっている。そして、対象物を掴んだ後には、Step751に進み対象物を渡す動作を行う。
なお、本発明では、Step731把持範囲判定およびStep732移動体位置調整を行い、対象物の位置を判断するための情報の精度を向上させても良い。
FIG. 7 is a flowchart showing the second embodiment of the present invention, and shows a schematic operation including the thin plate gripping of the working mobile robot. When an object gripping request is received by the work mobile robot, first, in Step 701, the object position and orientation information is acquired by the object position and orientation acquisition unit. If the position and orientation information of the target cannot be acquired in Step 701, the mobile object is acquired until the target search unit acquires the target in Step 702 or the preset number of times of re-acquisition of the target is reached. Repeat movement and position and orientation acquisition. If the position / orientation information of the object has been acquired, the process proceeds to Step 711. In this way, the position adjustment of the moving object and the acquisition of the position / orientation information of the object are performed until the position / orientation of the object is positioned within the gripping range or until the preset upper limit of the number of times of position adjustment of the moving object is reached. repeat. Next, when the object is located in the gripping range, the process proceeds to Step 711 to determine whether the object is a thin plate. When the object is a thin plate, the process proceeds to Step 721, and the gripping motion generation unit generates a gripping motion pattern. Based on the gripping motion pattern generated here, the manipulator unit moves each joint to grip the object. If it is determined in step 711 that the object is not a thin plate, the process proceeds to step 731, and the gripping range determination unit determines whether or not the object can be gripped based on the acquired position and orientation information of the object. If it is determined in Step 731 that it is not in the gripping range, the process proceeds to Step 732 and the moving procedure generation unit adjusts the position and orientation of the moving object based on the position and orientation information of the object, and again in the object position and orientation acquisition unit. Get the position and orientation of the object. If it is determined in Step 731 that the gripping range is present, the process proceeds to Step 741 to generate a gripping motion pattern by the gripping motion generation unit. Based on the gripping motion pattern generated here, the manipulator unit moves each joint to grip the object. However, since the position / orientation information of the object is used as a reference for generating the gripping motion pattern in Step 741, if the position / orientation information includes an error, the object may not be in contact with the object to be grasped. . In such a case, the contact information is detected by the external information detection unit in Step 742, the manipulator unit is moved in the direction opposite to the moving direction at the time of contact, and the gripping operation is performed again by moving the offset by a preset distance. By doing so, the object can be reliably gripped even when the position and orientation information of the object includes an error. Then, after grabbing the object, the process proceeds to Step 751 to perform an operation of passing the object.
In the present invention, Step 731 gripping range determination and Step 732 moving body position adjustment may be performed to improve the accuracy of information for determining the position of the object.

次に、机上に置かれた薄板を把持する動作について図8および図9を用いて説明する。図8は外界情報検出部を用いた薄板把持動作を示した図であり、図9は薄板把持動作のフロー図である。
図8において、50は対象物、51は手先効果器であるハンド、52は外界情報検出部である力センサ、53は基準位置、81は机、82はハンドに設ける突起部である。
薄板把持動作要求を受けるとマニピュレータ部を動作させることによって周囲と干渉しない基準位置53へ手先に突起部82を設けたハンド51を移動させる(Step901, 図8(a))。基準位置53へ移動後、位置姿勢情報取得部によって取得した位置情報をもとに、先ずXY方向のみハンド51を移動させ、(Step902)。次に、Step903にて探り動作回数Nbをゼロに初期化し、Z方向に位置姿勢情報のZepまで移動させる(Step904, 図8(b))。この移動中に力センサ52の情報を監視することで対象物50との接触検出を行う(Step905)。この時に目標とする位置Zepは、机81の高さよりも十分に低い位置に設定する。机への接触を検出した高さZfpを固定して薄板を把持するのに十分な量が机81からでると共にハンド51を離しても薄板が机81から落ちないようにΔXb1だけマニピュレータ部を移動させ(Step906, 図8(c))、周囲と干渉しないようにしながらハンド51の姿勢を薄板を把持する姿勢に変化させ、対象物50をハンド51で把持し(Step907, 図8(d))、把持後には薄板の把持した端部と逆側を持ち上げるように、ΔzbおよびΔXb2だけマニピュレータ部を移動させる(Step908, 図8(e))。その後、把持した薄板が周囲と干渉しないような位置へ移動する(Step909)ように構成されている。図8(a)では、この対象物50および机81と接触を検出する場合を図示している。次に、位置姿勢情報に誤差が含まれ、対象物50および机81が検出されなかった場合の説明を行う。図8(b)は、机81の高さよりも十分に低い対象物50との接触検出動作時の目標位置Zepへハンド51を移動させた場合を示している。この状態は、対象物50および机81が検出されなかった場合である。Step911では薄板把持動作回数Nbがあらかじめ設定された上限値Nbmaxを超えているかどうかを判定し、上限を超えている場合はStep912に移行してハンド51を基準位置53へ移動させ、Step913にてマニピュレータ部を基本姿勢に動作した後、図2のStep201へ移行する。Step911にて薄板把持動作回数が上限に達していない場合は、図8(a)のように基準位置53へ移動する(Step904)。このようにStep604からStep611を繰り返すことで、位置姿勢情報に誤差を含んでいても外界情報検出部である力センサ52を利用することで確実に対象物50を把持できるようになる。なお、対象物50との接触検出を行う時(Step905)のハンド51の姿勢は図示されたような姿勢に限定されず、対象物50の検出(Step905)および薄板を把持するのに十分は量を机から出す動作(Step906)を効果的に行う姿勢であれば良い。
ここでは、マニピュレータの手首部に力センサを設置した場合を示したが、ハンド表面に複数のマイクロスイッチやテープスイッチあるいは近接スイッチなどのスイッチ類を配置し、接触または接近を検出する構成としても同様の効果を得られる。
Next, the operation | movement which hold | grips the thin plate placed on the desk is demonstrated using FIG. 8 and FIG. FIG. 8 is a diagram showing a thin plate gripping operation using the external information detection unit, and FIG. 9 is a flowchart of the thin plate gripping operation.
In FIG. 8, 50 is an object, 51 is a hand that is a hand effector, 52 is a force sensor that is an external information detection unit, 53 is a reference position, 81 is a desk, and 82 is a protrusion provided on the hand.
When the thin plate gripping operation request is received, the hand 51 provided with the protruding portion 82 is moved to the reference position 53 that does not interfere with the surroundings by operating the manipulator unit (Step 901, FIG. 8 (a)). After moving to the reference position 53, the hand 51 is first moved only in the XY directions based on the position information acquired by the position / orientation information acquisition unit (Step 902). Next, in Step 903, the number of search operations Nb is initialized to zero and moved to Z in the position and orientation information in the Z direction (Step 904, FIG. 8B). The contact with the object 50 is detected by monitoring the information of the force sensor 52 during the movement (Step 905). At this time, the target position Zep is set to a position sufficiently lower than the height of the desk 81. Move the manipulator section by ΔXb1 so that a sufficient amount of gripping the thin plate is secured from the desk 81 and the thin plate does not fall off the desk 81 even if the hand 51 is released. (Step 906, FIG. 8 (c)), the posture of the hand 51 is changed to the posture for gripping the thin plate without interfering with the surroundings, and the object 50 is gripped by the hand 51 (Step 907, FIG. 8 (d)). Then, after gripping, the manipulator is moved by Δzb and ΔXb2 so as to lift the opposite side of the gripped end of the thin plate (Step 908, FIG. 8 (e)). Thereafter, the gripped thin plate is moved to a position where it does not interfere with the surroundings (Step 909). FIG. 8A illustrates a case where contact with the object 50 and the desk 81 is detected. Next, a description will be given of a case where the position and orientation information includes an error and the object 50 and the desk 81 are not detected. FIG. 8B shows a case where the hand 51 is moved to the target position Zep during the contact detection operation with the object 50 that is sufficiently lower than the height of the desk 81. This state is a case where the object 50 and the desk 81 are not detected. In Step 911, it is determined whether or not the number of thin plate gripping operations Nb exceeds the preset upper limit value Nbmax. If the upper limit value Nbmax is exceeded, the process moves to Step 912 to move the hand 51 to the reference position 53, and in Step 913 the manipulator After moving the unit to the basic posture, the process proceeds to Step 201 in FIG. When the number of thin plate gripping operations has not reached the upper limit in Step 911, the sheet moves to the reference position 53 as shown in FIG. 8 (a) (Step 904). By repeating Step 604 to Step 611 in this way, the object 50 can be reliably grasped by using the force sensor 52 that is an external information detection unit even if the position and orientation information includes an error. Note that the posture of the hand 51 at the time of detecting contact with the object 50 (Step 905) is not limited to the posture shown in the figure, but is sufficient to detect the object 50 (Step 905) and hold the thin plate. Any posture may be used as long as it effectively performs the operation (Step 906) of taking out the table from the desk.
Here, the case where a force sensor is installed on the wrist of the manipulator is shown, but a configuration in which switches such as a plurality of microswitches, tape switches or proximity switches are arranged on the surface of the hand to detect contact or approach is also the same. The effect of.

図10は渡し動作の詳細を示すフロー図である。
図において、対象物把持を受けるとStep1001にて探索回数Npをゼロに初期化する。次に、Step1002にて移動部12およびマニピュレーション部13を動かして対象物を渡す位置に対象物を移動しStep1003での渡し検出の判定を待ち、姿勢保持を継続する。Step1003では外界情報検出部14に対象物を渡す力(受け取る力)がかかっているかどうか判定される。Step1003にて外界情報検出部14に対象物を渡す力がかかっていれば、Step1004へ移行し、対象物の渡し動作(対象物解放動作)を行う。もし、Step1003にて外界情報検出部14に対象物を渡す力がかかってなかった、即ち、対象物を渡す相手がなかった場合、Step1005に移行し探索回数Npに1を加える。Step1006では、探索回数Npが予め設定された探索回数の上限(Npmax)を超えているかどうか判断され、上限を超えている場合、Step1007にて対象物渡し失敗通知を発行し、Step1008で移動部12およびマニピュレーション部13を動かして対象物を渡す位置での姿勢保持を解除して対象物を安定して把持できる位置へ移り、渡し動作を終了する。Step1006にて探索回数Npが上限を超えていない場合は、Step1002へ戻り、渡し検出動作を再実行する。本発明の作業用移動ロボットはStep1002からStep1006を繰り返すことによって対象物の渡し失敗を防ぎ、対象物の落下を防ぐようになっている。
FIG. 10 is a flowchart showing details of the delivery operation.
In the figure, when receiving an object, Step 1001 initializes the number of searches Np to zero. Next, in Step 1002, the moving unit 12 and the manipulation unit 13 are moved to move the target to a position where the target is to be transferred, wait for determination of detection of passing in Step 1003, and the posture holding is continued. In Step 1003, it is determined whether or not a force for passing the object (receiving force) is applied to the external information detecting unit 14. If the force to pass the object is applied to the external information detection unit 14 in Step 1003, the process proceeds to Step 1004, and the object passing operation (object releasing operation) is performed. If there is no force to transfer the object to the external information detection unit 14 in Step 1003, that is, there is no partner to which the object is transferred, the process proceeds to Step 1005 and 1 is added to the number of searches Np. In Step 1006, it is determined whether or not the number of searches Np exceeds a preset upper limit (Npmax) of the number of searches. If the number exceeds the upper limit, an object passing failure notification is issued in Step 1007, and the moving unit 12 in Step 1008 Then, the posture holding at the position where the object is transferred by moving the manipulation unit 13 is released to move to a position where the object can be stably held, and the transfer operation is completed. If the number of searches Np does not exceed the upper limit in Step 1006, the process returns to Step 1002, and the pass detection operation is re-executed. The mobile robot for work according to the present invention prevents the object from failing by repeating Step 1002 to Step 1006 and prevents the object from falling.

視覚センサの誤差を位置調整を繰り返すことで小さくするとともに、外乱光などの影響で視覚センサ情報に誤差を含んだ場合でも力センサ情報を利用することで修正することができるので、産業用ロボットのハンドリング用途にも適用できる。   The error of the visual sensor can be reduced by repeating the position adjustment, and even if the visual sensor information includes an error due to the influence of ambient light, it can be corrected by using the force sensor information. It can also be applied to handling applications.

本発明の作業用移動ロボットの機能要素を示すブロック図The block diagram which shows the functional element of the mobile robot for work of this invention 本発明の作業用移動ロボットの概略動作を示すフロー図The flowchart which shows schematic operation | movement of the working mobile robot of this invention. 本発明の対象物探索の詳細を示すフロー図Flow chart showing details of object search of the present invention 本発明の移動体位置調整の詳細を示すフロー図The flowchart which shows the detail of the mobile body position adjustment of this invention 本発明の探り動作を示す模式図Schematic diagram showing the search operation of the present invention 本発明の探り動作の詳細を示すフロー図Flow chart showing details of search operation of the present invention 本発明の作業用移動ロボットの薄板把持概略動作を示すフロー図FIG. 3 is a flowchart showing a thin plate gripping outline operation of the working mobile robot of the present invention. 本発明の薄板把持動作を示す模式図Schematic diagram showing the thin plate gripping operation of the present invention 本発明の薄板把持動作も詳細を示すフロー図Flow diagram showing details of thin plate gripping operation of the present invention 本発明の渡し動作の詳細を示すフロー図The flowchart which shows the detail of the delivery operation | movement of this invention 従来の移動ロボットの例を示すブロック図Block diagram showing an example of a conventional mobile robot

符号の説明Explanation of symbols

10 作業用移動ロボット
11 対象物位置姿勢取得部
12 移動部
13 マニピュレーション部
14 外界情報検出部
15 対象物探索部
16 把持範囲判定部
17 移動手順生成部
18 把持動作生成部
50 作業対象物
51 ハンド
52 力センサ
53 基準位置
81 机
82 突起部
DESCRIPTION OF SYMBOLS 10 Mobile robot for work 11 Object position and orientation acquisition part 12 Movement part 13 Manipulation part 14 External world information detection part 15 Object search part 16 Gripping range determination part 17 Movement procedure production | generation part 18 Gripping movement production | generation part 50 Work object 51 Hand 52 Force sensor 53 Reference position 81 Desk 82 Projection

Claims (14)

作業対象の物体を識別し前記物体の位置姿勢を取得する対象物位置姿勢取得部と、少なくとも1つのアクチュエータを備え本体を移動させる移動部と、少なくとも1つのアクチュエータを有するマニピュレーション部と、全体の動作を制御する制御部とを備え、目的の位置に移動して前記マニピュレーション部により作業を実行する作業用移動ロボットにおいて、
前記マニピュレーション部の動作に伴って変化する外界情報を取得する外界情報検出部と、前記作業対象の物体を探索する対象物探索部と、前記マニピュレーション部を用いて把持動作可能な範囲を判断する把持範囲判断部と、前記移動部の移動手順を生成する移動手順生成部と、前記マニピュレーション部の把持動作手順を生成する把持動作生成部とを備えたことを特徴とする作業用移動ロボット。
An object position and orientation acquisition unit that identifies an object to be worked and acquires the position and orientation of the object, a moving unit that includes at least one actuator and moves the main body, a manipulation unit that includes at least one actuator, and the overall operation A mobile robot for work that includes a control unit that controls the robot, moves to a target position, and performs work by the manipulation unit.
An outside world information detection unit that acquires outside world information that changes in accordance with the operation of the manipulation unit, a target object search unit that searches for the object to be worked, and a grip that determines a range in which a gripping operation can be performed using the manipulation unit A working mobile robot comprising: a range determining unit; a moving procedure generating unit that generates a moving procedure of the moving unit; and a gripping operation generating unit that generates a gripping operation procedure of the manipulation unit.
前記対象物位置姿勢取得部は、ビジョンセンサの情報を基に画像処理によって対象物の位置姿勢座標を求めることを特徴とする請求項1記載の作業用移動ロボット。   The work mobile robot according to claim 1, wherein the object position and orientation acquisition unit obtains position and orientation coordinates of the object by image processing based on information of a vision sensor. 前記移動部は、2個のアクチュエータを備え、2個の駆動輪の差動によって回転と前進および後退可能な機構を有することを特徴とする請求項1記載の作業用移動ロボット。   The working mobile robot according to claim 1, wherein the moving unit includes two actuators and has a mechanism capable of rotating, moving forward and backward by differential of two drive wheels. 前記移動部は、少なくとも3個のアクチュエータを備え、平面の並進移動および回転移動が自在な全方向移動機構を有することを特徴とする請求項1記載の作業用移動ロボット。   The working mobile robot according to claim 1, wherein the moving unit includes at least three actuators and has an omnidirectional moving mechanism that can freely translate and rotate in a plane. 前記マニピュレーション部は、少なくとも6個のアクチュエータを有したマニピュレータから成り、前記マニピュレータの手先が空間の任意の位置姿勢に移動可能であることを特徴とする請求項1記載の作業用移動ロボット。   The work mobile robot according to claim 1, wherein the manipulation unit includes a manipulator having at least six actuators, and a hand of the manipulator is movable to an arbitrary position and orientation in space. 前記マニピュレーション部は、少なくとも3個のアクチュエータを有した少なくとも2個のマニピュレータから成り、前記マニピュレータによって把持された物体が空間の任意の位置姿勢に移動可能であることを特徴とする請求項1記載の作業用移動ロボット。   The said manipulation part consists of at least two manipulators having at least three actuators, and an object gripped by the manipulator can move to any position and orientation in space. Mobile robot for work. 前記外界情報検出部は、前記マニピュレータの先端部に取り付けられた力センサであり、前記マニピュレータの動作による外界との接触力を計測することを特徴とする請求項1記載の作業用移動ロボット。   The work mobile robot according to claim 1, wherein the outside world information detection unit is a force sensor attached to a tip of the manipulator, and measures a contact force with the outside world due to an operation of the manipulator. 前記外界情報検出部は、前記マニピュレータの先端部に取り付けられた2つ以上のマイクロスイッチであり、前記マニピュレータの動作による外界との接触箇所を検出することを特徴とする請求項1記載の作業用移動ロボット。   The work environment according to claim 1, wherein the outside world information detection unit is two or more microswitches attached to a distal end portion of the manipulator, and detects a contact point with the outside world by the operation of the manipulator. Mobile robot. 前記対象物探索部は、前記対象物位置姿勢取得部にて物体の位置姿勢を取得できない場合、予め決められた手順で移動部を移動することで物体を探索するようにしたことを特徴とする請求項1記載の作業用移動ロボット。   When the object position and orientation acquisition unit cannot acquire the position and orientation of the object, the object search unit searches for the object by moving the moving unit according to a predetermined procedure. The working mobile robot according to claim 1. 前記移動手順生成部は、前記対象物位置姿勢取得部によって計測する物体の位置姿勢データの誤差が最小になるように前記移動部を移動させるようにしたことを特徴とする請求項1記載の作業用移動ロボット。   2. The operation according to claim 1, wherein the moving procedure generating unit moves the moving unit so that an error in the position and orientation data of the object measured by the object position and orientation acquisition unit is minimized. Mobile robot. 前記把持動作生成部は、前記外界情報検出部によって予め決められた値以上の情報を検出した場合、前記マニピュレータが移動していた方向とは逆方向にマニピュレータを移動させることを特徴とする請求項1記載の作業用移動ロボット。   The gripping motion generation unit moves the manipulator in a direction opposite to a direction in which the manipulator has moved when detecting information greater than a predetermined value by the outside world information detection unit. The work mobile robot according to 1. 前記把持動作生成部は、前記外界情報検出部によって予め決められた値以上の情報を検出した場合、前記マニピュレータを予め決められた動作パターンで移動することを特徴とする請求項1記載の作業用移動ロボット。   The work operation according to claim 1, wherein the gripping motion generation unit moves the manipulator in a predetermined motion pattern when detecting information greater than or equal to a predetermined value by the outside world information detection unit. Mobile robot. 前記把持動作生成部は、前記外界情報検出部によって予め決められた値以上の情報を検出するまで、前記マニピュレータの動作を継続することを特徴とする請求項1記載の作業用移動ロボット。   2. The work mobile robot according to claim 1, wherein the gripping motion generation unit continues the operation of the manipulator until detecting information greater than or equal to a predetermined value by the outside world information detection unit. 前記把持動作生成部は、前記外界情報検出部によって予め決められた値以上の情報を検出するまでの時間を任意に設定でき、その設定時間内に予め決められた値以上の情報が検出されなかった場合、前記マニピュレータの動作を解除することを特徴とする請求項1記載の作業用移動ロボット。   The gripping motion generation unit can arbitrarily set a time until information greater than a predetermined value is detected by the outside world information detection unit, and no information greater than a predetermined value is detected within the set time. The work mobile robot according to claim 1, wherein the operation of the manipulator is canceled in the event of a failure.
JP2005197013A 2004-11-12 2005-07-06 Working mobile robot Pending JP2006159399A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005197013A JP2006159399A (en) 2004-11-12 2005-07-06 Working mobile robot

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004328427 2004-11-12
JP2005197013A JP2006159399A (en) 2004-11-12 2005-07-06 Working mobile robot

Publications (1)

Publication Number Publication Date
JP2006159399A true JP2006159399A (en) 2006-06-22

Family

ID=36661944

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005197013A Pending JP2006159399A (en) 2004-11-12 2005-07-06 Working mobile robot

Country Status (1)

Country Link
JP (1) JP2006159399A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008246607A (en) * 2007-03-29 2008-10-16 Honda Motor Co Ltd Robot, control method of robot and control program of robot
JP2010094768A (en) * 2008-10-15 2010-04-30 Ihi Corp Manipulator system
JP2014237199A (en) * 2013-06-10 2014-12-18 セイコーエプソン株式会社 Robot and operation method for robot
JP2015085500A (en) * 2013-11-01 2015-05-07 セイコーエプソン株式会社 Robot, robot system, and control device
CN111152235A (en) * 2020-01-17 2020-05-15 深圳信息职业技术学院 Mobile multi-arm cooperative detection robot
WO2022118704A1 (en) * 2020-12-01 2022-06-09 ファナック株式会社 Production system
DE102022127511A1 (en) 2021-11-05 2023-05-11 Hitachi High-Tech Corporation MOBILE ROBOT SYSTEM

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60238290A (en) * 1984-05-14 1985-11-27 株式会社アマダ Method and device for controlling robot
JPS621009A (en) * 1985-06-26 1987-01-07 Toshiba Corp Carrier device
JPS63256383A (en) * 1987-04-13 1988-10-24 富士通株式会社 Method of controlling robot
JPH05168333A (en) * 1991-12-19 1993-07-02 Iseki & Co Ltd Fruit harvesting robot
JPH06278081A (en) * 1993-03-26 1994-10-04 Nec Corp Robot arm provided with collision prevention function
JPH1052145A (en) * 1996-08-08 1998-02-24 Iseki & Co Ltd Harvesting device of robot for agriculture
JP2001125641A (en) * 1999-10-29 2001-05-11 Sony Corp Charging system for moving robot, method for searching for charging station, moving robot, connector, and electric connection structure
JP2001191278A (en) * 2000-01-06 2001-07-17 Komatsu Ltd Position controlling method for conveying robot
JP2003071778A (en) * 2001-09-05 2003-03-12 National Institute Of Advanced Industrial & Technology Tactile sensor for robot arm
JP2004167674A (en) * 2002-10-29 2004-06-17 Matsushita Electric Ind Co Ltd Robot gripping control unit and robot gripping control technique
WO2004052598A1 (en) * 2002-12-12 2004-06-24 Matsushita Electric Industrial Co., Ltd. Robot control device
WO2004065073A2 (en) * 2003-01-15 2004-08-05 Intouch-Health, Inc. Five degrees of freedom mobile robot

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60238290A (en) * 1984-05-14 1985-11-27 株式会社アマダ Method and device for controlling robot
JPS621009A (en) * 1985-06-26 1987-01-07 Toshiba Corp Carrier device
JPS63256383A (en) * 1987-04-13 1988-10-24 富士通株式会社 Method of controlling robot
JPH05168333A (en) * 1991-12-19 1993-07-02 Iseki & Co Ltd Fruit harvesting robot
JPH06278081A (en) * 1993-03-26 1994-10-04 Nec Corp Robot arm provided with collision prevention function
JPH1052145A (en) * 1996-08-08 1998-02-24 Iseki & Co Ltd Harvesting device of robot for agriculture
JP2001125641A (en) * 1999-10-29 2001-05-11 Sony Corp Charging system for moving robot, method for searching for charging station, moving robot, connector, and electric connection structure
JP2001191278A (en) * 2000-01-06 2001-07-17 Komatsu Ltd Position controlling method for conveying robot
JP2003071778A (en) * 2001-09-05 2003-03-12 National Institute Of Advanced Industrial & Technology Tactile sensor for robot arm
JP2004167674A (en) * 2002-10-29 2004-06-17 Matsushita Electric Ind Co Ltd Robot gripping control unit and robot gripping control technique
WO2004052598A1 (en) * 2002-12-12 2004-06-24 Matsushita Electric Industrial Co., Ltd. Robot control device
WO2004065073A2 (en) * 2003-01-15 2004-08-05 Intouch-Health, Inc. Five degrees of freedom mobile robot

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008246607A (en) * 2007-03-29 2008-10-16 Honda Motor Co Ltd Robot, control method of robot and control program of robot
US8260457B2 (en) 2007-03-29 2012-09-04 Honda Motor Co., Ltd. Robot, control method of robot and control program of robot
JP2010094768A (en) * 2008-10-15 2010-04-30 Ihi Corp Manipulator system
JP2014237199A (en) * 2013-06-10 2014-12-18 セイコーエプソン株式会社 Robot and operation method for robot
JP2015085500A (en) * 2013-11-01 2015-05-07 セイコーエプソン株式会社 Robot, robot system, and control device
CN111152235A (en) * 2020-01-17 2020-05-15 深圳信息职业技术学院 Mobile multi-arm cooperative detection robot
WO2022118704A1 (en) * 2020-12-01 2022-06-09 ファナック株式会社 Production system
DE102022127511A1 (en) 2021-11-05 2023-05-11 Hitachi High-Tech Corporation MOBILE ROBOT SYSTEM
DE102022127511B4 (en) 2021-11-05 2024-04-18 Hitachi High-Tech Corporation MOBILE ROBOT SYSTEM

Similar Documents

Publication Publication Date Title
US10456917B2 (en) Robot system including a plurality of robots, robot controller and robot control method
JP6511715B2 (en) Robot control device, robot system, and robot
JP6450960B2 (en) Robot, robot system and teaching method
JP5105147B2 (en) Robot and control method
JP2006159399A (en) Working mobile robot
CN106493711B (en) Control device, robot, and robot system
JP6322959B2 (en) Robot, robot system, and robot controller
JP2013078825A (en) Robot apparatus, robot system, and method for manufacturing workpiece
US20170182665A1 (en) Robot, robot control device, and robot system
JP2011115877A (en) Double arm robot
US11958187B2 (en) Robot hand, robot and robot system
JP2009202251A (en) Power assisting device and its control method
JP2009255191A (en) Robot manipulator
JP6252597B2 (en) Robot system
JP5535884B2 (en) Work removal method
WO2018139574A1 (en) Conveyance system and operation method thereof
US20170203434A1 (en) Robot and robot system
JP5618067B2 (en) Bulk picking apparatus and method
CN110636924A (en) Gripping system
JP6665450B2 (en) Robot, control device, and robot system
JP2015085481A (en) Robot, robot system, robot control device and gripping method
KR20190085979A (en) Component mounting apparatus and control method thereof
JP6314429B2 (en) Robot, robot system, and robot controller
JP2015085499A (en) Robot, robot system, control device and control method
WO2020004572A1 (en) Substrate-conveying device and method for operating same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080612

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100223

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100420

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101203