JP6409605B2 - Robot system - Google Patents
Robot system Download PDFInfo
- Publication number
- JP6409605B2 JP6409605B2 JP2015023465A JP2015023465A JP6409605B2 JP 6409605 B2 JP6409605 B2 JP 6409605B2 JP 2015023465 A JP2015023465 A JP 2015023465A JP 2015023465 A JP2015023465 A JP 2015023465A JP 6409605 B2 JP6409605 B2 JP 6409605B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- marker
- plane
- robot system
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Manipulator (AREA)
Description
本発明は、ロボットシステムに関する。 The present invention relates to a robot system.
特許文献1に開示されるロボットシステムは、ロボットと、ロボット及び作業空間を撮影する撮像部と、撮影された映像を表示する表示端末とを備える。このロボットは、ユーザにより教示された対象物の向き情報に基づいて、対象物の位置姿勢を推定して、対象物を把持する方向を決定する。
The robot system disclosed in
ところで、対象物を把持した後で、所定の方向に動かす作業がある。このような作業として、例えば、エンドエフェクタを用いてカーテンを把持した後で、エンドエフェクタを移動させることでカーテンを開閉させる作業がある。ロボットが対象物を把持した後で、ユーザがエンドエフェクタの動作方向を指示することがある。ここで、ユーザによって指示される方向は、複数考えられ、ユーザの操作が複雑であった。 By the way, there is an operation of moving the object in a predetermined direction after holding the object. As such an operation, for example, there is an operation of opening and closing the curtain by moving the end effector after gripping the curtain using the end effector. After the robot holds the object, the user may instruct the movement direction of the end effector. Here, a plurality of directions indicated by the user are considered, and the user's operation is complicated.
本発明は、単純な操作方法でロボットを操作することのできるロボットシステムを提供する。 The present invention provides a robot system capable of operating a robot by a simple operation method.
本発明にかかるロボットシステムは、
対象物を把持した後で、前記対象物を所定の方向に動かすロボットと、
前記対象物及び前記ロボットを含む作業空間と、前記ロボットが前記対象物を動かす動作方向を示すマーカと、を表示する表示部と、
ユーザによる前記マーカへの入力によって、前記ロボットを操作する操作入力部と、を有するロボットシステムであって、
前記ロボットは、
前記対象物までの距離を計測する距離センサと、
前記距離センサにより計測された距離点群に基づいて、前記対象物における前記動作方向と平行な平面、及び、前記平面の法線方向を検出する検出部と、
検出した前記動作方向と平行な平面、及び、前記平面の法線方向に沿う平面マーカの位置及び姿勢を計算するマーカ位置姿勢計算部と、を備え、
前記表示部は、計算した前記平面マーカの位置及び姿勢を示すマーカを表示する。
The robot system according to the present invention includes:
A robot that moves the object in a predetermined direction after gripping the object;
A display unit for displaying a work space including the object and the robot, and a marker indicating an operation direction in which the robot moves the object;
An operation input unit for operating the robot by an input to the marker by a user,
The robot is
A distance sensor for measuring the distance to the object;
Based on the distance point group measured by the distance sensor, a plane that is parallel to the movement direction of the object, and a detection unit that detects a normal direction of the plane;
A plane parallel to the detected motion direction, and a marker position and orientation calculator that calculates the position and orientation of a planar marker along the normal direction of the plane,
The display unit displays a marker indicating the calculated position and orientation of the planar marker.
このような構成によれば、対象物における動作方向と平行な平面、及び、平面の法線方向に沿うマーカをユーザに示して、対象物における平面に沿う方向の中から動作をユーザに指示させる。したがって、単純な操作方法でロボットを操作することができる。 According to such a configuration, a marker is shown to the user along a plane parallel to the movement direction of the object and the normal direction of the plane, and the user is instructed to move from the direction along the plane of the object. . Therefore, the robot can be operated by a simple operation method.
本発明によれば、単純な操作方法でロボットを操作することができるロボットシステムを提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the robot system which can operate a robot with a simple operation method can be provided.
実施の形態1.
図1〜図3を用いて、実施の形態1にかかるロボットシステムについて説明する。図1は、実施の形態1にかかるロボットシステムの構成図である。図2は、端末画面の一例を示す図である。図3は、端末画面の要部の一例を示す図である。
The robot system according to the first embodiment will be described with reference to FIGS. FIG. 1 is a configuration diagram of the robot system according to the first embodiment. FIG. 2 is a diagram illustrating an example of a terminal screen. FIG. 3 is a diagram illustrating an example of a main part of the terminal screen.
(システム構成)
図1に示すように、ロボットシステム100は、ロボット2と、ユーザがロボット2を操縦するための操作入力を受け付ける操作端末3と、撮像装置4とを含む。
(System configuration)
As illustrated in FIG. 1, the
ロボット2は、回動可能なロボットアーム2aと、ロボットアーム2aの先端に支持されるエンドエフェクタ2bと、操縦用マーカ追従制御部2cと、距離センサ2dと、検出部2eと、操縦用マーカ位置姿勢計算部2fと、操縦用マーカ描画処理部2gとを含む。
The
図3に示すように、ロボットアーム2aは、互いに連結する複数のリンク2a1と、リンク2a1同士の間に設置されて、リンク2a1同士の関節角度を変化させる複数のモータ2a2とを備える。リンク2a1同士の関節角度は、リンク2a1同士が交差する角度である。モータ2a2は、電源(図示略)から電流を供給されて、この関節角度が変化するように、リンク2a1の少なくとも一方を回動させる。このようなリンク2a1の回動等によって、ロボットアーム2aは、エンドエフェクタ2bを3次元空間内において、最大自由度6、つまり、並進3自由度及び回転3自由度で、移動又は回転させることができる。ロボットアーム2aは、必要に応じて、リンク2a1同士の関節角度を計測するエンコーダ(図示略)や、モータ2a2を駆動させるための電流を制御するモータドライバ(図示略)を備える。
As shown in FIG. 3, the
図1に示すように、エンドエフェクタ2bは、対象物を把持するものであればよく、例えば、ロボットハンドやツールである。
As shown in FIG. 1, the
距離センサ2dは、対象物までの距離を取得するセンサであればよく、例えば、ステレオカメラ、LRF(レーザレンジファインダ)、赤外線を用いた深度センサが挙げられる。
The
検出部2eは、例えば、距離点群からRANSAC(Random Sample Consensus)と呼ばれる方法を用いて、対象物の平面検出を行う。
The
操縦用マーカ位置姿勢計算部2fは、検出した対象物の平面の平面方向と法線方向に沿う操縦用マーカの位置姿勢を計算する。
The control marker position and
操縦用マーカ描画処理部2gは、3次元CG(コンピュータグラフィックス)の描画処理を行う。操縦用マーカ描画処理部2gは、描画処理して形成した画像データを操作端末3に送る。
The steering marker
操作端末3は、画像を表示する表示部30と、ユーザによる操作入力を受け付ける操作入力部31とを有する。ユーザによる操作は、例えば、マウス、タッチパネルを用いて行われる。操作端末3は、例えば、タブレット端末、スマートフォン、PC(パーソナルコンピュータ)などである。
The
操作端末3は、タッチパネルを有してもよく、このタッチパネルは、表示部30と操作入力部31との機能を有する。具体的には、図2に示すように、操作端末3では、表示部30の一例として、タッチパネル30を有する。タッチパネル30は、ユーザによる操作入力を受け付ける入力受付領域3aと、作業表示領域3b1と、全体表示領域3b2とを含む。入力受付領域3aは、ユーザによる操作入力を受け付ける。作業表示領域3b1は、ロボット2及び対象物としての家具8の実画像又はCG(コンピュータグラフィックス)画像を表示する。全体表示領域3b2は、ロボット2及び対象物が配置された作業空間を表示する。図3に示すように、作業表示領域3b1には、ユーザによる操作入力を受け付ける操縦用マーカ1を実画像又はCG画像に重畳して表示する。操縦用マーカ1は、矢印1bと、リング1cと、指差マーク1dとを含む。
The
撮像装置4は、対象物及びロボット2を含む作業空間を撮影し、撮影した映像を操作端末3及びロボット2に出力する。撮像装置4は、CCD(Charge Coupled device)やCMOS(Complementary Metal Oxide Semiconductor)などの画像検出素子を備える。
The
(ロボットシステムの処理)
次に、図4を参照しつつ、図3及び図5〜図9を用いて、ロボットシステム100の処理について説明する。図4は、実施の形態1にかかるロボットシステムの処理を示すフローチャートである。図5〜図9は、実施の形態1にかかるロボットシステムの処理における作業表示領域の一例を示す図である。
(Robot system processing)
Next, the processing of the
まず、エンドエフェクタ2bの位置・姿勢を指示する操作入力を、操作端末3が受け付ける(エンドエフェクタ指示ステップS1)。具体的には、図3に示すように、エンドエフェクタ2bの位置を指示する操作入力は、例えば、ユーザが、指差マーク1dを矢印1bに沿うようにドラッグして動かすことによって、行なわれる。図5及び図6に示すように、この操作入力によって、エンドエフェクタ2bを家具8の取っ手8aに向かって前進させるように、ロボット2は指示される。また、エンドエフェクタ2bの姿勢を指示する操作入力は、例えば、ユーザが、指差マーク1dをリング1cに沿うようにドラッグして回転させることによって、行なわれる。この操作入力によって、操縦用マーカ1の位置・姿勢が決定する。
First, the
続いて、エンドエフェクタ2bの位置・姿勢が操縦用マーカ1の位置・姿勢に一致するように、ロボットアーム2aを制御する(ロボットアーム制御ステップS2)。具体的には、操縦用マーカ追従制御部2cは、エンドエフェクタ2bの位置・姿勢を指示する操作入力を操作端末3から受ける。操縦用マーカ追従制御部2cは、エンドエフェクタ2bの位置・姿勢が、操縦用マーカ1の位置・姿勢に一致するように、ロボットアーム2aの関節角度を算出する。操縦用マーカ追従制御部2cは、算出したロボットアーム2aの関節角度を、指令関節角度として各モータ2a2に送る。操縦用マーカ追従制御部2cは、エンドエフェクタ2bの位置・姿勢が操縦用マーカ1の位置・姿勢に一致するように、ロボットアーム2aを制御する。
Subsequently, the
続いて、操縦用マーカ1周辺に距離センサ2dによって計測した距離点群が閾値以上存在するかを確認する(距離点群確認ステップS3)。このような距離点群が閾値以上存在することを確認した場合(YES:距離点群確認ステップS3)、操縦用マーカ周辺の距離点群から平面検出部によって、対象物の平面情報を検出する(平面情報検出ステップS4)。
Subsequently, it is confirmed whether or not the distance point group measured by the
距離点群確認ステップS3および平面情報検出ステップS4では、図7に示す作業を例として説明する。図7に示す作業は、対象物としてのカーテン9を把持した後で、所定の方向(ここでは、X軸方向)に動かすことによって、開ける作業である。図8に示すように、操作端末3(図2参照)の作業表示領域3b1では、操縦用マーカ1が表示される。距離センサ2d(図1参照)によってカーテン9の位置情報を検出し、操縦用マーカ1周辺の距離点群に変換する。検出部2eが、変換した距離点群から平面を検出し、カーテン9の平面方向D1と平面法線方向D2とを取得することができる。
In the distance point group confirmation step S3 and the plane information detection step S4, the operation shown in FIG. 7 will be described as an example. The work shown in FIG. 7 is a work that opens by gripping the
続いて、操縦用マーカの最適な位置・姿勢を計算する(最適位置姿勢計算ステップS5)。例えば、図9に示すように、操縦用マーカ位置姿勢計算部2f(図1参照)によって、平面方向D1と平面法線方向D2に沿う操縦用マーカ1の位置・姿勢を算出する。
Subsequently, the optimum position / orientation of the steering marker is calculated (optimum position / orientation calculation step S5). For example, as shown in FIG. 9, the position / posture of the
最後に、算出した結果の通りに、操縦用マーカ1を作業表示領域3b1に表示する(操縦用マーカ表示ステップS6)。例えば、3次元CGの描画処理を用いて、操縦用マーカ1を描画処理して表示する。
Finally, according to the calculated result, the
以上、実施の形態1にかかるロボットシステムによれば、対象物における動作方向と平行な平面、及び、平面の法線方向に沿うマーカをユーザに示すことができる。対象物における平面に沿う方向の中から動作をユーザに指示させるため、単純な操作方法でロボットを操作することができる。 As described above, according to the robot system according to the first embodiment, it is possible to show the user a plane parallel to the movement direction of the object and a marker along the normal direction of the plane. Since the user is instructed to perform an action from the direction along the plane of the object, the robot can be operated by a simple operation method.
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、ロボットシステム100に自由度制限処理部を加えてもよい。図9及び図10に示すように、カーテン9の主面と平行な方向、つまり、カーテン9の鉛直上下方向(ここでは、Z軸方向(図7参照))、及び、カーテン9の開閉方向(ここでは、X軸方向)のみに、自由度を制限する。つまり、カーテン9の主面に垂直な方向(ここでは、Y軸方向)の動きは、制限される。したがって、カーテン9の主面に垂直な方向に動かすことが無いので、カーテン9を窓に衝突させることが抑制される。ユーザが操作を誤ることなく効率的に操作を行うことができる。なお、図10は、実施の形態1にかかるロボットシステムの処理における作業表示領域の別の一例を示す図である。また、ここでは、カーテン9の主面は、X軸方向及びZ軸方向に平行な面である。
Note that the present invention is not limited to the above-described embodiment, and can be changed as appropriate without departing from the spirit of the present invention. For example, a freedom degree restriction processing unit may be added to the
100 ロボットシステム
1 操縦用マーカ
2 ロボット
2e 検出部 2f 操縦用マーカ位置姿勢計算部
3 操作端末
30 表示部
D1 平面方向 D2 平面法線方向
DESCRIPTION OF
Claims (1)
前記対象物及び前記ロボットを含む作業空間と、前記ロボットが前記対象物を動かす動作方向を示すマーカと、を表示する表示部と、
ユーザによる前記マーカへの入力によって、前記ロボットが前記対象物を前記動作方向に動かすよう、前記ロボットを操作する操作入力部と、を有するロボットシステムであって、
前記ロボットは、
前記対象物までの距離を計測する距離センサと、
前記距離センサにより計測された距離点群に基づいて、前記ロボットと前記対象物とが位置する前記作業空間上の平面における、前記対象物における平面の平面方向、及び、前記平面の法線方向を検出する検出部と、
検出した前記平面方向、及び、前記平面の法線方向に沿う平面マーカの位置及び姿勢を計算するマーカ位置姿勢計算部と、を備え、
前記表示部は、計算した前記平面マーカの位置及び姿勢を示す前記マーカを表示するロボットシステム。 A robot that moves the object in a predetermined direction after gripping the object;
A display unit for displaying a work space including the object and the robot, and a marker indicating an operation direction in which the robot moves the object;
An operation input unit for operating the robot so that the robot moves the object in the movement direction by an input to the marker by a user,
The robot is
A distance sensor for measuring the distance to the object;
Said distance based on the distance point group that has been measured by the sensor, in the plane on the working space between the robot and the object is located, the plane direction of put that flat surface on the object, and the law of the plane A detection unit for detecting a line direction;
Detected before Kitaira surface direction, and, and a marker position and orientation calculation unit to calculate the position and orientation of the plane marker along the normal direction of the plane,
The said display part is a robot system which displays the said marker which shows the position and attitude | position of the calculated said planar marker.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015023465A JP6409605B2 (en) | 2015-02-09 | 2015-02-09 | Robot system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015023465A JP6409605B2 (en) | 2015-02-09 | 2015-02-09 | Robot system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016144852A JP2016144852A (en) | 2016-08-12 |
JP6409605B2 true JP6409605B2 (en) | 2018-10-24 |
Family
ID=56685754
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015023465A Active JP6409605B2 (en) | 2015-02-09 | 2015-02-09 | Robot system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6409605B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7400217B2 (en) * | 2019-05-30 | 2023-12-19 | セイコーエプソン株式会社 | Robot system and portable teaching device |
JP7403423B2 (en) | 2020-09-29 | 2023-12-22 | 日立グローバルライフソリューションズ株式会社 | robot vacuum cleaner |
EP4316747A1 (en) * | 2021-03-31 | 2024-02-07 | Honda Motor Co., Ltd. | Robot remote operation control device, robot remote operation control system, robot remote operation control method, and program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4949799B2 (en) * | 2006-10-16 | 2012-06-13 | 株式会社山武 | Work support apparatus and method |
JP5246672B2 (en) * | 2011-02-17 | 2013-07-24 | 独立行政法人科学技術振興機構 | Robot system |
JP5716769B2 (en) * | 2013-02-21 | 2015-05-13 | 株式会社安川電機 | Robot simulator, robot teaching apparatus, and robot teaching method |
-
2015
- 2015-02-09 JP JP2015023465A patent/JP6409605B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016144852A (en) | 2016-08-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6788593B2 (en) | Manipulator system | |
CN109313417B (en) | Aiding in robot positioning | |
US11090814B2 (en) | Robot control method | |
US11420330B2 (en) | Robot control device, robot, and simulation device | |
JP6420229B2 (en) | A robot system including a video display device that superimposes and displays an image of a virtual object on a video of a robot | |
JP6450960B2 (en) | Robot, robot system and teaching method | |
US9981380B2 (en) | Teaching apparatus and robot system | |
JP6361213B2 (en) | Robot control apparatus, robot, robot system, teaching method, and program | |
US10807240B2 (en) | Robot control device for setting jog coordinate system | |
US10427298B2 (en) | Robot system displaying information for teaching robot | |
JP2020075354A (en) | External input device, robot system, control method for robot system, control program, and recording medium | |
JP2013184257A (en) | Robot apparatus, method for controlling robot apparatus, and computer program | |
JP2018111155A (en) | Robot control device, robot and robot system | |
JP6409605B2 (en) | Robot system | |
JP2017019068A (en) | Teaching device, robot, and robot system | |
CN111941392A (en) | Robot operating device, robot, and robot operating method | |
JP2015074061A (en) | Robot control device, robot system, robot, robot control method and robot control program | |
JP6488571B2 (en) | Teaching apparatus and robot system | |
JP6379902B2 (en) | Robot operation device, robot system, and robot operation program | |
Wu et al. | Kinect-based robotic manipulation: From human hand to end-effector | |
JP6455869B2 (en) | Robot, robot system, control device, and control method | |
JP2016078142A (en) | Method for control of robot device, and robot device | |
CN111699077B (en) | Vision-based operation for robots | |
JP5862382B2 (en) | Work support device | |
JP6939003B2 (en) | Robot system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170222 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180131 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180206 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180405 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180828 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180910 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6409605 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |