JP6361153B2 - Robot teaching device - Google Patents

Robot teaching device Download PDF

Info

Publication number
JP6361153B2
JP6361153B2 JP2014020252A JP2014020252A JP6361153B2 JP 6361153 B2 JP6361153 B2 JP 6361153B2 JP 2014020252 A JP2014020252 A JP 2014020252A JP 2014020252 A JP2014020252 A JP 2014020252A JP 6361153 B2 JP6361153 B2 JP 6361153B2
Authority
JP
Japan
Prior art keywords
plane
dimensional image
robot
unit
depth position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014020252A
Other languages
Japanese (ja)
Other versions
JP2015147260A (en
Inventor
貴史 桝山
貴史 桝山
博太 當眞
博太 當眞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Wave Inc
Original Assignee
Denso Wave Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Wave Inc filed Critical Denso Wave Inc
Priority to JP2014020252A priority Critical patent/JP6361153B2/en
Publication of JP2015147260A publication Critical patent/JP2015147260A/en
Application granted granted Critical
Publication of JP6361153B2 publication Critical patent/JP6361153B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Numerical Control (AREA)

Description

本発明は、ロボットの動作点を教示する装置に関する。   The present invention relates to an apparatus for teaching an operating point of a robot.

従来、CAD等を用いたロボットの三次元シミュレーションモデルにおいて、XY平面に表示を切り替えてXY平面での位置をマウスの操作により決定した後に、YZ平面に表示を切り替えてYZ平面での位置をマウスの操作により決定するものがある(特許文献1参照)。   Conventionally, in a three-dimensional simulation model of a robot using CAD or the like, after switching the display to the XY plane and determining the position on the XY plane by operating the mouse, the display is switched to the YZ plane and the position on the YZ plane is set to the mouse. Is determined by the operation (see Patent Document 1).

特許第5120290号公報Japanese Patent No. 5120290

ところで、特許文献1に記載のものでは、三次元画像から2つの二次元画像に順次切り替えて位置(動作点)を指示する必要がある。このため、三次元画像から二次元画像へ切り替える操作が必須であり、現在の視点における三次元画像から直感的に動作点を教示することができない。   By the way, in the thing of patent document 1, it is necessary to switch from a three-dimensional image to two two-dimensional images sequentially, and to indicate a position (operation point). For this reason, an operation for switching from a three-dimensional image to a two-dimensional image is essential, and the operating point cannot be taught intuitively from the three-dimensional image at the current viewpoint.

本発明は、こうした実情に鑑みてなされたものであり、その主たる目的は、操作が簡易であり、且つ直感的に動作点を教示することのできるロボットの教示装置を提供することにある。   The present invention has been made in view of such circumstances, and a main object of the present invention is to provide a robot teaching apparatus that is easy to operate and can intuitively teach operating points.

本発明は、上記課題を解決するために、以下の手段を採用した。   The present invention employs the following means in order to solve the above problems.

第1の手段は、ロボットの教示装置であって、画像を表示する表示部と、前記表示部に表示させるロボットの三次元画像を制御する画像制御部と、前記三次元画像の奥行き方向の位置である奥行位置を指示する操作、及び前記三次元画像の面内の位置である面内位置を指示する操作を受け付ける操作部と、前記ロボットの動作点を取得する取得部と、を備え、前記画像制御部は、前記操作部に対する操作により指示された奥行位置に対応する前記三次元画像を前記表示部に表示させ、前記取得部は、前記指示された奥行位置、及び前記対応する前記三次元画像において前記操作部に対する操作により指示された面内位置に基づいて、前記ロボットの動作点を取得することを特徴とする。   The first means is a robot teaching apparatus, and includes a display unit that displays an image, an image control unit that controls a three-dimensional image of the robot displayed on the display unit, and a position in the depth direction of the three-dimensional image. An operation unit that receives an operation for instructing a depth position, and an operation for instructing an in-plane position that is a position in a plane of the three-dimensional image, and an acquisition unit that acquires an operating point of the robot, The image control unit causes the display unit to display the three-dimensional image corresponding to the depth position instructed by an operation on the operation unit, and the acquisition unit includes the instructed depth position and the corresponding three-dimensional image. The operating point of the robot is acquired based on an in-plane position designated by an operation on the operation unit in the image.

上記構成によれば、表示部により画像が表示され、表示部に表示させるロボットの三次元画像は、画像制御部により制御される。操作部により、三次元画像の奥行き方向の位置である奥行位置を指示する操作、及び三次元画像の面内の位置である面内位置を指示する操作が受け付けられる。   According to the above configuration, an image is displayed on the display unit, and the three-dimensional image of the robot displayed on the display unit is controlled by the image control unit. The operation unit accepts an operation for designating a depth position that is a position in the depth direction of the 3D image and an operation for designating an in-plane position that is a position in the plane of the 3D image.

ここで、画像制御部は、操作部に対する操作により指示された奥行位置に対応する三次元画像を表示部に表示させる。このため、ロボットの三次元画像において奥行位置を指示する操作を行うことにより、現在の視点における三次元画像から奥行位置に対応する三次元画像を表示させることができる。そして、取得部により、指示された奥行位置、及び対応する三次元画像において操作部に対する操作により指示された面内位置に基づいて、ロボットの動作点が取得される。したがって、三次元画像における奥行位置の指示及び面内位置の指示だけで、動作点を教示することができる。その結果、操作が簡易であり、且つ直感的に動作点を教示することができる。   Here, the image control unit causes the display unit to display a three-dimensional image corresponding to the depth position designated by the operation on the operation unit. Therefore, by performing an operation for designating the depth position in the three-dimensional image of the robot, a three-dimensional image corresponding to the depth position can be displayed from the three-dimensional image at the current viewpoint. Then, the operation point of the robot is acquired by the acquisition unit based on the instructed depth position and the in-plane position instructed by the operation on the operation unit in the corresponding three-dimensional image. Therefore, the operating point can be taught only by the instruction of the depth position and the in-plane position in the three-dimensional image. As a result, the operation is simple and the operating point can be taught intuitively.

第2の手段では、前記画像制御部は、前記操作部により前記奥行位置を指示する操作を受け付ける際に、前記操作により指示される奥行位置を示す指示平面を前記三次元画像中に表示させる。   In the second means, the image control unit displays an instruction plane indicating the depth position indicated by the operation in the three-dimensional image when receiving an operation for indicating the depth position by the operation unit.

上記構成によれば、操作部により奥行位置を指示する操作を受け付ける際に、操作により指示される奥行位置を示す指示平面が三次元画像中に表示される。このため、ユーザは、操作により指示される奥行位置を目視で確認しながら、奥行位置を正確に指示することができる。   According to the above configuration, when receiving an operation for instructing the depth position by the operation unit, the instruction plane indicating the depth position instructed by the operation is displayed in the three-dimensional image. For this reason, the user can correctly specify the depth position while visually confirming the depth position specified by the operation.

第3の手段では、前記指示平面は、前記三次元画像の奥行き方向に所定間隔で配置された複数の指示平面により構成されている。   In the third means, the indication plane is constituted by a plurality of indication planes arranged at predetermined intervals in the depth direction of the three-dimensional image.

上記構成によれば、三次元画像の奥行位置を指示する際に表示される指示平面を、簡易な構成により準備しておくことができる。   According to the said structure, the instruction | indication plane displayed when instruct | indicating the depth position of a three-dimensional image can be prepared with a simple structure.

第4の手段では、前記画像制御部は、前記操作部に対する操作により指示された奥行位置に対応する前記三次元画像、及び前記指示平面を前記表示部に表示させ、前記操作部は、前記三次元画像中の前記指示平面の面内の位置である面内位置を指示する操作を受け付ける。   In the fourth means, the image control unit causes the display unit to display the three-dimensional image corresponding to the depth position instructed by an operation on the operation unit, and the indication plane, and the operation unit includes the tertiary An operation for designating an in-plane position that is a position within the plane of the designated plane in the original image is accepted.

上記構成によれば、ユーザが奥行位置を指示する際に表示された指示平面が、指示された奥行位置に対応する三次元画像が表示される場合にも表示される。そして、操作部により、三次元画像中の指示平面の面内の位置である面内位置を指示する操作が受け付けられる。このため、ユーザは、指示した奥行位置を指示平面により明確に認識しつつ、指示平面内の面内位置を指示することができる。したがって、ユーザは意図した動作点を適切に教示することができる。   According to the above configuration, the indication plane displayed when the user indicates the depth position is also displayed when a three-dimensional image corresponding to the indicated depth position is displayed. Then, an operation for instructing an in-plane position that is a position within the plane of the instruction plane in the three-dimensional image is received by the operation unit. For this reason, the user can instruct the in-plane position in the instruction plane while clearly recognizing the instructed depth position by the instruction plane. Therefore, the user can appropriately teach the intended operating point.

第5の手段では、前記画像制御部は、前記指示平面を半透明で表示させる。   In the fifth means, the image control unit displays the instruction plane in a translucent manner.

上記構成によれば、指示平面が半透明で表示されるため、指示平面によりロボットが見えなくなることを抑制することができる。したがって、指示平面が表示された場合でも、ユーザはロボットの位置を確認しながら動作点を教示することができる。   According to the above configuration, since the instruction plane is displayed in a translucent manner, the robot can be prevented from being invisible by the instruction plane. Therefore, even when the instruction plane is displayed, the user can teach the operating point while confirming the position of the robot.

第6の手段では、前記操作部は、前記ロボットの動作範囲を含む前記奥行位置を指示する操作のみを受け付ける。   In a sixth means, the operation unit accepts only an operation for instructing the depth position including the movement range of the robot.

上記構成によれば、操作部により、ロボットの動作範囲を含む奥行位置を指示する操作のみが受け付けられる。このため、ユーザがロボットの動作範囲外の位置を誤って教示することを防ぐことができ、動作点を教示する効率を向上させることができる。   According to the above configuration, only an operation for instructing the depth position including the movement range of the robot is accepted by the operation unit. For this reason, it is possible to prevent the user from erroneously teaching a position outside the operation range of the robot, and it is possible to improve the efficiency of teaching the operation point.

第7の手段では、前記操作部は、前記表示部に表示された前記三次元画像の倍率が高いほど、前記奥行位置を指示する操作の精度を高くする。   In the seventh means, the operation unit increases the accuracy of the operation of indicating the depth position as the magnification of the three-dimensional image displayed on the display unit is higher.

表示部に表示された三次元画像の倍率が高いほど、ユーザは奥行位置を正確に指示し易くなる。   The higher the magnification of the three-dimensional image displayed on the display unit, the easier it is for the user to correctly indicate the depth position.

この点、上記構成によれば、操作部により、表示部に表示されたロボットの三次元画像の倍率が高いほど、奥行位置を指示する操作の精度が高くされる。このため、表示されたロボットの三次元画像の倍率に応じて、ユーザが奥行位置を適切に指示することができる。   In this regard, according to the above configuration, the accuracy of the operation for indicating the depth position is increased by the operation unit as the magnification of the three-dimensional image of the robot displayed on the display unit is higher. Therefore, the user can appropriately specify the depth position according to the magnification of the displayed three-dimensional image of the robot.

ロボットの教示装置を示すブロック図。The block diagram which shows the teaching apparatus of a robot. 教示の開始画像を示す図。The figure which shows the start image of teaching. 奥行位置を指示する指示部と指示平面との関係を示す図。The figure which shows the relationship between the instruction | indication part which instruct | indicates a depth position, and an instruction | indication plane. 奥行位置を指示する態様を示す図。The figure which shows the aspect which instruct | indicates a depth position. 指示平面の面内位置を指示する態様を示す図。The figure which shows the aspect which designates the in-plane position of an instruction | indication plane. 教示点が指示された状態を示す図。The figure which shows the state in which the teaching point was instruct | indicated. 奥行位置を指示する指示部と指示平面との関係の変更例を示す図。The figure which shows the example of a change of the relationship between the instruction | indication part which instruct | indicates a depth position, and an instruction | indication plane. ロボットの教示装置の変更例を示すブロック図。The block diagram which shows the example of a change of the teaching apparatus of a robot. 教示の開始画像の変更例を示す図。The figure which shows the example of a change of the start image of teaching. 指示平面の面内位置を指示する態様の変更例を示す図。The figure which shows the example of a change of the aspect which designates the in-plane position of an instruction | indication plane.

以下、一実施形態について、図面を参照しつつ説明する。本実施形態は、PC(Personal Computer)等を用いて実行される三次元シミュレーションモデルにより、ロボットの動作点を教示する教示装置として具体化している。図1に示すように、ロボットの教示装置10は、PC20、ディスプレイ30、キーボード40、及びタッチパネル50を備えている。   Hereinafter, an embodiment will be described with reference to the drawings. This embodiment is embodied as a teaching device that teaches the operating point of a robot by a three-dimensional simulation model executed using a PC (Personal Computer) or the like. As shown in FIG. 1, the robot teaching apparatus 10 includes a PC 20, a display 30, a keyboard 40, and a touch panel 50.

PC20は、CPU21、ROM22、RAM23、大容量記憶装置としてのハードディスクドライブ(HDD:Hard Disk Drive)24、入出力インタフェイス(I/F)25等を備えている。CPU21はROM22に記憶された各種プログラムを実行し、RAM23はプログラムを実行する際にパラメータの値等を記憶する。HDD24は、動作シミュレーション用のシミュレーションプログラムや、ティーチング用のティーチングプログラム、ロボット設計用の3次元CADプログラム等を記憶している。CPU21(画像制御部)は、これらのプログラムを実行することにより、タッチパネル50の画面に表示させるロボットの三次元画像を制御する。さらに、CPU21(取得部)は、これらのプログラムを実行することにより、ロボットの動作点を取得する。I/F25には、ディスプレイ30、キーボード40、及びタッチパネル50が接続されている。   The PC 20 includes a CPU 21, a ROM 22, a RAM 23, a hard disk drive (HDD) 24 as a mass storage device, an input / output interface (I / F) 25, and the like. The CPU 21 executes various programs stored in the ROM 22, and the RAM 23 stores parameter values and the like when executing the programs. The HDD 24 stores a simulation program for operation simulation, a teaching program for teaching, a three-dimensional CAD program for robot design, and the like. CPU21 (image control part) controls the three-dimensional image of the robot displayed on the screen of the touch panel 50 by executing these programs. Further, the CPU 21 (acquisition unit) acquires the operating point of the robot by executing these programs. A display 30, a keyboard 40, and a touch panel 50 are connected to the I / F 25.

ディスプレイ30は、CPU21の処理によりPC20から出力される画像信号に基づいて、画面に各種の画像を表示する。キーボード40は、ユーザによるキー操作を入力して、キー操作に対応する信号をPC20へ出力する。タッチパネル50(表示部)は、CPU21の処理によりPC20から出力される画像信号に基づいて、画面に画像を表示する。さらに、タッチパネル50(操作部)は、ユーザが画面に接触した位置を検出する。タッチパネル50は、後述するように、三次元画像の奥行き方向の位置である奥行位置を指示する操作、及び三次元画像の面内の位置である面内位置を指示する操作を受け付ける。そして、タッチパネル50は、ユーザが画面に接触した位置に対応する信号をPC20へ出力する。   The display 30 displays various images on the screen based on the image signal output from the PC 20 by the processing of the CPU 21. The keyboard 40 inputs a key operation by the user and outputs a signal corresponding to the key operation to the PC 20. The touch panel 50 (display unit) displays an image on the screen based on the image signal output from the PC 20 by the processing of the CPU 21. Further, the touch panel 50 (operation unit) detects a position where the user touches the screen. As will be described later, the touch panel 50 receives an operation for instructing a depth position that is a position in the depth direction of a 3D image and an operation for instructing an in-plane position that is a position in the plane of the 3D image. Then, the touch panel 50 outputs a signal corresponding to the position where the user touches the screen to the PC 20.

次に、ロボットの教示装置10を用いて、ユーザがロボットの動作点を教示する手順について説明する。   Next, a procedure for the user to teach the operating point of the robot using the robot teaching apparatus 10 will be described.

図2は、タッチパネル50に表示された教示を開始する時の開始画像(三次元画像)を示す図である。この開始画像は、ユーザが任意に設定することができ、予め登録しておくことができる。   FIG. 2 is a diagram illustrating a start image (three-dimensional image) when starting teaching displayed on the touch panel 50. The start image can be arbitrarily set by the user and can be registered in advance.

開始画像には、奥行方向の位置である奥行位置を指示するための指示部51が表示されている。指示部51(操作部)は、目盛52及びカーソル53を備えている。目盛52は複数の目盛線52aを備えている。カーソル53は、ユーザの操作により、目盛52のいずれかの目盛線52aの位置に移動させられる。   In the start image, an instruction unit 51 for instructing a depth position that is a position in the depth direction is displayed. The instruction unit 51 (operation unit) includes a scale 52 and a cursor 53. The scale 52 includes a plurality of scale lines 52a. The cursor 53 is moved to the position of one of the scale lines 52a of the scale 52 by a user operation.

図3に示すように、各目盛線52aは、開始画像の奥行位置を示す各指示平面Fに対応している。指示平面Fは、ロボットRが固定された床面に垂直であり、開始画像の奥行方向に垂直である。目盛52において、左側の目盛線52aほど手前側の指示平面Fを示しており、右側の目盛線52aほど奥側の指示平面Fを示している。カーソル53が移動させられることにより、カーソル53が位置する目盛線52aに対応する指示平面Fが選択(指示)される。目盛52により示される奥行方向の範囲は、ロボットRの動作範囲のみとなっている。このため、指示部51(タッチパネル50)は、ロボットRの動作範囲に対応する指示平面Fを選択する操作のみ、すなわちロボットRの動作範囲を含む奥行位置を指示する操作のみを受け付ける。なお、ロボットRの動作点を教示する際には、カーソル53が位置する目盛線52aに対応する指示平面F1のみが、タッチパネル50の画面に半透明で表示される。   As shown in FIG. 3, each scale line 52a corresponds to each indicating plane F indicating the depth position of the start image. The instruction plane F is perpendicular to the floor surface to which the robot R is fixed and is perpendicular to the depth direction of the start image. In the scale 52, the left scale line 52a indicates the near side indicating plane F, and the right scale line 52a indicates the far side indicating plane F. By moving the cursor 53, the instruction plane F corresponding to the scale line 52a where the cursor 53 is located is selected (instructed). The range in the depth direction indicated by the scale 52 is only the operation range of the robot R. Therefore, the instruction unit 51 (touch panel 50) accepts only an operation for selecting the instruction plane F corresponding to the movement range of the robot R, that is, only an operation for instructing a depth position including the movement range of the robot R. When teaching the operating point of the robot R, only the instruction plane F1 corresponding to the scale line 52a where the cursor 53 is located is displayed on the screen of the touch panel 50 in a translucent manner.

図4に示すように、ユーザは、カーソル53に指で接触し、接触状態を維持したまま目盛52に沿って指を移動させる。タッチパネル50により、接触している位置が検出され、その位置に対応する信号がPC20のCPU21へ出力される。そして、CPU21は、接触している位置の移動に合わせて、カーソル53の表示位置を変更させる。このとき、CPU21は、カーソル53の位置する目盛線52aに対応する指示平面F1を、開始画像中に半透明で表示させる。すなわち、カーソル53の移動に伴って、表示される指示平面F1が奥行方向に移動する。   As shown in FIG. 4, the user touches the cursor 53 with a finger and moves the finger along the scale 52 while maintaining the contact state. The touched position is detected by the touch panel 50 and a signal corresponding to the position is output to the CPU 21 of the PC 20. And CPU21 changes the display position of the cursor 53 according to the movement of the position which is contacting. At this time, the CPU 21 displays the instruction plane F1 corresponding to the scale line 52a where the cursor 53 is located in the start image in a translucent manner. That is, as the cursor 53 moves, the displayed instruction plane F1 moves in the depth direction.

ユーザは、カーソル53を移動させて、教示する動作点(教示点)の奥行位置に一致する指示平面F1を表示させる。そして、ユーザは、タッチパネル50の画面から指を離すことにより、指示平面F1の奥行位置、すなわち教示点の奥行位置を決定(指示)する。CPU21は、タッチパネル50により指が離れたことが検出された場合(教示点の奥行位置が指示された場合)に、表示されている指示平面F1の奥行位置(カーソル53が位置する目盛線52aが示す奥行位置)を、教示点の奥行位置として取得する。CPU21は、教示点の奥行位置が指示された場合に、図5に示すように、指示された奥行位置に対応する三次元画像及び指示された指示平面F1を、タッチパネル50の画面に表示させる。   The user moves the cursor 53 to display the instruction plane F1 that matches the depth position of the operation point to be taught (teaching point). The user then determines (instructs) the depth position of the instruction plane F1, that is, the depth position of the teaching point, by releasing the finger from the screen of the touch panel 50. When it is detected by the touch panel 50 that the finger has been released (when the depth position of the teaching point is instructed), the CPU 21 displays the depth position of the displayed instruction plane F1 (the scale line 52a where the cursor 53 is positioned). The depth position shown) is acquired as the depth position of the teaching point. When the depth position of the teaching point is instructed, the CPU 21 displays a 3D image corresponding to the instructed depth position and the instructed instruction plane F1 on the screen of the touch panel 50, as shown in FIG.

同図に示すように、ユーザは次に、三次元画像中の指示平面F1の面内において、教示する動作点の位置に指で接触する。タッチパネル50は、指示平面F1の面内において接触された位置を検出する、すなわち指示平面F1の面内の位置である面内位置を指示する操作を受け付ける。このとき、タッチパネル50は、指示平面F1の面内を指示する操作のみを受け付け、指示平面F1から外れた位置を指示する操作は受け付けない。タッチパネル50により、検出された接触位置に対応する信号がPC20のCPU21へ出力される。また、CPU21は、図6に示すように、指示平面F1を消去するとともに、指示された面内位置に教示点を示す点Pを表示させる。   As shown in the figure, the user then touches the position of the operating point to be taught with a finger within the designated plane F1 in the three-dimensional image. The touch panel 50 receives an operation of detecting a position touched in the plane of the indication plane F1, that is, indicating an in-plane position that is a position in the plane of the indication plane F1. At this time, the touch panel 50 accepts only an operation that designates the in-plane of the instruction plane F1, and does not accept an operation that designates a position outside the instruction plane F1. The touch panel 50 outputs a signal corresponding to the detected contact position to the CPU 21 of the PC 20. Further, as shown in FIG. 6, the CPU 21 deletes the designated plane F1 and displays a point P indicating a teaching point at the designated in-plane position.

これにより、その時の点Pの位置が、教示点の位置として指示される。そして、CPU21は、取得した奥行位置(指示された奥行位置)、及び対応する三次元画像において指示された教示点の面内位置に基づいて、ロボットRの動作点を取得する。詳しくは、指示された指示平面F1の奥行位置、及び指示平面F1における点Pの面内位置に基づき算出される点Pの三次元位置を、ロボットRの動作点として取得する。なお、指示平面F1の面内において接触された位置が検出された時に、その時の点Pの位置を動作点として取得するか否かユーザに確認してもよい。   Thereby, the position of the point P at that time is instruct | indicated as a position of a teaching point. Then, the CPU 21 acquires the operating point of the robot R based on the acquired depth position (instructed depth position) and the in-plane position of the teaching point specified in the corresponding three-dimensional image. Specifically, the three-dimensional position of the point P calculated based on the instructed depth position of the instruction plane F1 and the in-plane position of the point P in the instruction plane F1 is acquired as the operating point of the robot R. When the position touched in the plane of the indication plane F1 is detected, it may be confirmed to the user whether or not the position of the point P at that time is acquired as an operating point.

そして、指示平面F1の面内の動作点を続けて教示する場合は、指示平面F1の面内において次に教示する動作点に対応する位置に指で接触する。また、指示平面F1と異なる奥行位置の動作点を続けて教示する場合は、指示部51のカーソル53を移動させて動作点の奥行位置に対応する指示平面Fを選択する。その後、上述した操作と同様の操作を行う。   When the operation point in the plane of the indication plane F1 is continuously taught, the finger contacts the position corresponding to the next operation point to be taught in the plane of the indication plane F1. When the operating point at the depth position different from the instruction plane F1 is continuously taught, the instruction plane 51 corresponding to the depth position of the operation point is selected by moving the cursor 53 of the instruction unit 51. Thereafter, the same operation as described above is performed.

以上詳述した本実施形態は、以下の利点を有する。   The embodiment described in detail above has the following advantages.

・CPU21は、指示部51に対する操作により指示された奥行位置に対応する三次元画像をタッチパネル50の画面に表示させる。このため、教示を開始する時の開始画像(ロボットRの三次元画像)において奥行位置を指示する操作を行うことにより、現在の視点における三次元画像から奥行位置に対応する三次元画像を表示させることができる。そして、CPU21により、指示された奥行位置、及び対応する三次元画像においてタッチパネル50に対する操作により指示された面内位置に基づいて、ロボットRの動作点が取得される。したがって、三次元画像における奥行位置の指示及び面内位置の指示だけで、動作点を教示することができる。その結果、操作が簡易であり、且つ直感的に動作点を教示することができる。   The CPU 21 displays on the screen of the touch panel 50 a three-dimensional image corresponding to the depth position instructed by an operation on the instruction unit 51. For this reason, a 3D image corresponding to the depth position is displayed from the 3D image at the current viewpoint by performing an operation for designating the depth position in the start image (3D image of the robot R) when starting teaching. be able to. Then, the CPU 21 acquires the operating point of the robot R based on the instructed depth position and the in-plane position instructed by the operation on the touch panel 50 in the corresponding three-dimensional image. Therefore, the operating point can be taught only by the instruction of the depth position and the in-plane position in the three-dimensional image. As a result, the operation is simple and the operating point can be taught intuitively.

・指示部51により奥行位置を指示する操作を受け付ける際に、操作により指示される奥行位置を示す指示平面F1が三次元画像中に表示される。このため、ユーザは、操作により指示される奥行位置を目視で確認しながら、奥行位置を正確に指示することができる。   When receiving an operation for instructing the depth position by the instruction unit 51, an instruction plane F1 indicating the depth position indicated by the operation is displayed in the three-dimensional image. For this reason, the user can correctly specify the depth position while visually confirming the depth position specified by the operation.

・指示平面Fは、三次元画像の奥行き方向に所定間隔で配置された複数の指示平面Fにより構成されている。このため、三次元画像の奥行位置を指示する際に表示される指示平面F1を、簡易な構成により準備しておくことができる。   The instruction plane F is composed of a plurality of instruction planes F arranged at predetermined intervals in the depth direction of the three-dimensional image. For this reason, the indication plane F1 displayed when instructing the depth position of the three-dimensional image can be prepared with a simple configuration.

・ユーザが奥行位置を指示する際に表示された指示平面F1が、指示された奥行位置に対応する三次元画像が表示される場合にも表示される。そして、タッチパネル50により、三次元画像中の指示平面F1の面内の位置である面内位置を指示する操作が受け付けられる。このため、ユーザは、指示した奥行位置を指示平面F1により明確に認識しつつ、指示平面F1内の面内位置を指示することができる。したがって、ユーザは意図した動作点を適切に教示することができる。   The indication plane F1 displayed when the user indicates the depth position is also displayed when a three-dimensional image corresponding to the indicated depth position is displayed. Then, the touch panel 50 accepts an operation for designating an in-plane position that is a position within the plane of the designated plane F1 in the three-dimensional image. For this reason, the user can instruct the in-plane position in the instruction plane F1 while clearly recognizing the instructed depth position by the instruction plane F1. Therefore, the user can appropriately teach the intended operating point.

・タッチパネル50は、指示平面F1の面内を指示する操作のみを受け付け、指示平面F1から外れた位置を指示する操作は受け付けない。このため、指示した奥行位置から外れた位置を、ユーザが誤って指示することを抑制することができる。   The touch panel 50 accepts only an operation that designates the in-plane of the indication plane F1, and does not accept an operation that designates a position outside the indication plane F1. For this reason, it can suppress that a user instruct | indicates the position remove | deviated from the instruct | indicated depth position accidentally.

・指示平面F1が半透明で表示されるため、指示平面F1によりロボットRが見えなくなることを抑制することができる。したがって、指示平面F1が表示された場合でも、ユーザはロボットRの位置を確認しながら動作点を教示することができる。   Since the instruction plane F1 is displayed in a translucent manner, it is possible to suppress the robot R from being invisible by the instruction plane F1. Therefore, even when the instruction plane F1 is displayed, the user can teach the operating point while confirming the position of the robot R.

・指示部51により、ロボットRの動作範囲を含む奥行位置を指示する操作のみが受け付けられる。このため、ユーザがロボットRの動作範囲外の位置を誤って教示することを防ぐことができ、動作点を教示する効率を向上させることができる。   -Only the operation of instructing the depth position including the operation range of the robot R is accepted by the instruction unit 51. For this reason, it is possible to prevent the user from erroneously teaching a position outside the operation range of the robot R, and it is possible to improve the efficiency of teaching the operation point.

なお、上記実施形態を、以下のように変形して実施することもできる。   In addition, the said embodiment can also be deform | transformed and implemented as follows.

・指示平面Fを不透明で表示することもできる。   The indication plane F can be displayed opaque.

・タッチパネル50の画面に表示されたロボットRの三次元画像の倍率が高いほど、ユーザは奥行位置を正確に指示し易くなる。この点、図7に示すように、CPU21は、タッチパネル50の画面に表示されたロボットRの三次元画像の倍率が高いほど、目盛52の目盛線52aにより区切られる奥行方向の間隔を狭く、すなわち奥行位置を指示する操作の精度を高くしてもよい。こうした構成によれば、表示されたロボットRの三次元画像の倍率に応じて、ユーザが奥行位置を適切に指示することができる。   -The higher the magnification of the three-dimensional image of the robot R displayed on the screen of the touch panel 50, the easier it is for the user to correctly indicate the depth position. In this regard, as shown in FIG. 7, the CPU 21 narrows the interval in the depth direction divided by the scale line 52 a of the scale 52 as the magnification of the three-dimensional image of the robot R displayed on the screen of the touch panel 50 increases. You may raise the precision of operation which instruct | indicates a depth position. According to such a configuration, the user can appropriately designate the depth position according to the magnification of the displayed three-dimensional image of the robot R.

ここで、教示を開始する時の開始画像の倍率に応じて、目盛線52aにより区切られる奥行方向の間隔を変更してもよい。また、図4においてユーザにより奥行位置が指示された後に、図5のように表示される指示された奥行位置に対応する三次元画像の倍率に応じて、目盛線52aにより区切られる奥行方向の間隔を変更してもよい。この場合は、図5において、ユーザは変更された目盛52により再度奥行位置を精密に指示してもよい。   Here, the interval in the depth direction divided by the scale line 52a may be changed according to the magnification of the starting image when teaching is started. In addition, after the depth position is instructed by the user in FIG. 4, the distance in the depth direction is divided by the scale line 52a according to the magnification of the three-dimensional image corresponding to the instructed depth position displayed as shown in FIG. May be changed. In this case, in FIG. 5, the user may correctly indicate the depth position again with the changed scale 52.

・図8に示すように、タッチパネル50に代えてマウス150をI/F25に接続し、CPU21はディスプレイ30(表示部)にロボットRの三次元画像を表示させてもよい。そして、マウス150(操作部)により、三次元画像の奥行き方向の位置である奥行位置を指示する操作、及び三次元画像の面内の位置である面内位置を指示する操作を受け付ける。この場合は、図9に示すように、ディスプレイ30に表示させた開始画像(三次元画像)において、マウス150の操作により移動するポインタPtを表示させる。そして、CPU21は、カーソル53がポインタPtによりドラッグされて移動された場合に、指示された奥行位置に対応する三次元画像をディスプレイ30に表示させる。また、図10に示すように、CPU21は、指示平面F1の面内位置がポインタPtによりクリックされた場合に、クリックされた位置を教示点として取得する。こうした構成によっても、上記実施形態と同様の作用効果を奏することができる。   As shown in FIG. 8, instead of the touch panel 50, a mouse 150 may be connected to the I / F 25, and the CPU 21 may display a three-dimensional image of the robot R on the display 30 (display unit). Then, an operation for instructing a depth position that is a position in the depth direction of the 3D image and an operation for instructing an in-plane position that is a position in the plane of the 3D image are received by the mouse 150 (operation unit). In this case, as shown in FIG. 9, the pointer Pt that is moved by the operation of the mouse 150 is displayed in the start image (three-dimensional image) displayed on the display 30. Then, when the cursor 53 is dragged and moved by the pointer Pt, the CPU 21 causes the display 30 to display a three-dimensional image corresponding to the instructed depth position. As shown in FIG. 10, when the in-plane position of the instruction plane F1 is clicked with the pointer Pt, the CPU 21 acquires the clicked position as a teaching point. Even with such a configuration, the same operational effects as those of the above-described embodiment can be obtained.

・図4においてユーザにより奥行位置が指示された場合に、指示された奥行位置に対応する三次元画像として、図6に示す画像を表示してもよい。この場合は、指示平面F1の表示を省略し、図6の画像における最も手前側の平面を指示平面F1とみなす。そして、図6の画像において、ユーザは、タッチパネル50の画面に指で接触して、三次元画像における教示点の面内位置を指示する。こうした構成によっても、上記実施形態に準じた作用効果を奏することができる。   -When the depth position is instruct | indicated by the user in FIG. 4, you may display the image shown in FIG. 6 as a three-dimensional image corresponding to the instruct | indicated depth position. In this case, the indication plane F1 is not displayed, and the foremost plane in the image of FIG. 6 is regarded as the indication plane F1. In the image of FIG. 6, the user touches the screen of the touch panel 50 with a finger and designates the in-plane position of the teaching point in the three-dimensional image. Even with such a configuration, it is possible to achieve the operational effects according to the above-described embodiment.

10…ロボットの教示装置、21…CPU(画像制御部、取得部)、30…ディスプレイ(表示部)、50…タッチパネル(表示部、操作部)、51…指示部(操作部)、150…マウス(操作部)。   DESCRIPTION OF SYMBOLS 10 ... Robot teaching apparatus, 21 ... CPU (image control part, acquisition part), 30 ... Display (display part), 50 ... Touch panel (display part, operation part), 51 ... Instruction part (operation part), 150 ... Mouse (Operation part).

Claims (8)

画像を表示する表示部と、
前記表示部に表示させるロボットの三次元画像を制御する画像制御部と、
前記三次元画像の奥行き方向の位置である奥行位置を指示する操作、及び前記三次元画像の面内の位置である面内位置を指示する操作を受け付ける操作部と、
前記ロボットの動作点を取得する取得部と、
を備え、
前記画像制御部は、前記操作部に対する操作により指示された奥行位置に対応する前記三次元画像を前記表示部に表示させ、
前記取得部は、前記指示された奥行位置、及び前記対応する前記三次元画像において前記操作部に対する操作により指示された面内位置に基づいて、前記ロボットの動作点を取得し、
前記画像制御部は、前記操作部により前記奥行位置を指示する操作を受け付ける際に、前記操作により指示される奥行位置を示す指示平面を前記三次元画像中に表示させることを特徴とするロボットの教示装置。
A display for displaying an image;
An image control unit for controlling a three-dimensional image of the robot to be displayed on the display unit;
An operation unit that receives an operation for instructing a depth position that is a position in the depth direction of the three-dimensional image, and an operation for instructing an in-plane position that is a position in the plane of the three-dimensional image;
An acquisition unit for acquiring an operating point of the robot;
With
The image control unit causes the display unit to display the three-dimensional image corresponding to the depth position instructed by an operation on the operation unit;
The acquisition unit acquires an operating point of the robot based on the instructed depth position and an in-plane position instructed by an operation on the operation unit in the corresponding three-dimensional image ,
The image control unit displays an instruction plane indicating a depth position instructed by the operation in the three-dimensional image when receiving an operation instructing the depth position by the operation unit . Teaching device.
前記指示平面は、前記三次元画像の奥行き方向に所定間隔で配置された複数の指示平面により構成されている請求項に記載のロボットの教示装置。 The robot instruction device according to claim 1 , wherein the instruction plane includes a plurality of instruction planes arranged at predetermined intervals in a depth direction of the three-dimensional image. 前記画像制御部は、前記操作部に対する操作により指示された奥行位置に対応する前記三次元画像、及び前記指示平面を前記表示部に表示させ、
前記操作部は、前記三次元画像中の前記指示平面の面内の位置である面内位置を指示する操作を受け付ける請求項又はに記載のロボットの教示装置。
The image control unit causes the display unit to display the three-dimensional image corresponding to the depth position instructed by an operation on the operation unit, and the indication plane.
The operating unit, teaching apparatus of a robot according to claim 1 or 2 accepts an operation for indicating the position at which plane position in the plane of the indication plane in the three-dimensional image.
前記画像制御部は、前記指示平面を半透明で表示させる請求項1〜3のいずれか1項に記載のロボットの教示装置。 The image control unit, teaching apparatus of a robot according to claim 1, in which the instruction plane appear translucent. 前記操作部は、前記ロボットの動作範囲を含む前記奥行位置を指示する操作のみを受け付ける請求項1〜のいずれか1項に記載のロボットの教示装置。 The operating unit, teaching apparatus of a robot according to any one of claims 1-4 for receiving an operation only to instruct the depth position including the movement range of the robot. 画像を表示する表示部と、A display for displaying an image;
前記表示部に表示させるロボットの三次元画像を制御する画像制御部と、An image control unit for controlling a three-dimensional image of the robot to be displayed on the display unit;
前記三次元画像の奥行き方向の位置である奥行位置を指示する操作、及び前記三次元画像の面内の位置である面内位置を指示する操作を受け付ける操作部と、An operation unit that receives an operation for instructing a depth position that is a position in the depth direction of the three-dimensional image, and an operation for instructing an in-plane position that is a position in the plane of the three-dimensional image;
前記ロボットの動作点を取得する取得部と、An acquisition unit for acquiring an operating point of the robot;
を備え、With
前記画像制御部は、前記操作部に対する操作により指示された奥行位置に対応する前記三次元画像を前記表示部に表示させ、The image control unit causes the display unit to display the three-dimensional image corresponding to the depth position instructed by an operation on the operation unit;
前記取得部は、前記指示された奥行位置、及び前記対応する前記三次元画像において前記操作部に対する操作により指示された面内位置に基づいて、前記ロボットの動作点を取得し、The acquisition unit acquires an operating point of the robot based on the instructed depth position and an in-plane position instructed by an operation on the operation unit in the corresponding three-dimensional image,
前記操作部は、前記ロボットの動作範囲を含む前記奥行位置を指示する操作のみを受け付けることを特徴とするロボットの教示装置。The robot teaching apparatus, wherein the operation unit accepts only an operation for instructing the depth position including an operation range of the robot.
前記操作部は、前記表示部に表示された前記三次元画像の倍率が高いほど、前記奥行位置を指示する操作の精度を高くする請求項1〜6のいずれか1項に記載のロボットの教示装置。   The robot operation according to any one of claims 1 to 6, wherein the operation unit increases the accuracy of an operation for indicating the depth position as the magnification of the three-dimensional image displayed on the display unit is higher. apparatus. 画像を表示する表示部と、A display for displaying an image;
前記表示部に表示させるロボットの三次元画像を制御する画像制御部と、An image control unit for controlling a three-dimensional image of the robot to be displayed on the display unit;
前記三次元画像の奥行き方向の位置である奥行位置を指示する操作、及び前記三次元画像の面内の位置である面内位置を指示する操作を受け付ける操作部と、An operation unit that receives an operation for instructing a depth position that is a position in the depth direction of the three-dimensional image, and an operation for instructing an in-plane position that is a position in the plane of the three-dimensional image;
前記ロボットの動作点を取得する取得部と、An acquisition unit for acquiring an operating point of the robot;
を備え、With
前記画像制御部は、前記操作部に対する操作により指示された奥行位置に対応する前記三次元画像を前記表示部に表示させ、The image control unit causes the display unit to display the three-dimensional image corresponding to the depth position instructed by an operation on the operation unit;
前記取得部は、前記指示された奥行位置、及び前記対応する前記三次元画像において前記操作部に対する操作により指示された面内位置に基づいて、前記ロボットの動作点を取得し、The acquisition unit acquires an operating point of the robot based on the instructed depth position and an in-plane position instructed by an operation on the operation unit in the corresponding three-dimensional image,
前記操作部は、前記表示部に表示された前記三次元画像の倍率が高いほど、前記奥行位置を指示する操作の精度を高くすることを特徴とするロボットの教示装置。The robot teaching apparatus according to claim 1, wherein the operation unit increases the accuracy of an operation for indicating the depth position as the magnification of the three-dimensional image displayed on the display unit is higher.
JP2014020252A 2014-02-05 2014-02-05 Robot teaching device Active JP6361153B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014020252A JP6361153B2 (en) 2014-02-05 2014-02-05 Robot teaching device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014020252A JP6361153B2 (en) 2014-02-05 2014-02-05 Robot teaching device

Publications (2)

Publication Number Publication Date
JP2015147260A JP2015147260A (en) 2015-08-20
JP6361153B2 true JP6361153B2 (en) 2018-07-25

Family

ID=53891085

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014020252A Active JP6361153B2 (en) 2014-02-05 2014-02-05 Robot teaching device

Country Status (1)

Country Link
JP (1) JP6361153B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019092792A1 (en) * 2017-11-07 2019-05-16 三菱電機株式会社 Display control device, display control method, and display control program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998003314A1 (en) * 1996-07-24 1998-01-29 Fanuc Ltd Jog feeding method for robots
JP2006350602A (en) * 2005-06-15 2006-12-28 Yushin Precision Equipment Co Ltd Operation terminal equipment
JP2007286976A (en) * 2006-04-18 2007-11-01 Fanuc Ltd Robot simulation apparatus
JP4835616B2 (en) * 2008-03-10 2011-12-14 トヨタ自動車株式会社 Motion teaching system and motion teaching method
JP5246672B2 (en) * 2011-02-17 2013-07-24 独立行政法人科学技術振興機構 Robot system

Also Published As

Publication number Publication date
JP2015147260A (en) 2015-08-20

Similar Documents

Publication Publication Date Title
JP6379501B2 (en) Robot teaching device
JP6132644B2 (en) Information processing apparatus, display control method, computer program, and storage medium
CN202433853U (en) Information processing equipment
JP5781213B1 (en) GAME CONTROL PROGRAM, GAME CONTROL METHOD, AND GAME CONTROL DEVICE
WO2013018480A1 (en) User interface device comprising touch pad for shrinking and displaying source image within screen capable of touch input, input processing method and program
JP2010224764A (en) Portable game machine with touch panel display
JPWO2012157272A1 (en) Display device, display control method and display control program, and input device, input support method and program
JP2013228948A5 (en) Input receiving method, input receiving program, and input device
KR20180136480A (en) A controller with electrostatic sensing
JP2011145779A5 (en)
CN105934739A (en) Virtual mouse for a touch screen device
JP2011034216A (en) Selection object decision method, decision method for anteroposterior relation of object, and apparatus therefor
JP5737380B1 (en) Information processing apparatus and program
JP6361153B2 (en) Robot teaching device
JP2013156685A5 (en)
US10180756B2 (en) Input apparatus
JP5769841B2 (en) Portable game device with touch panel display
JP2018023792A (en) Game device and program
JP2009223532A (en) Operation control method for icon interface
JP6126639B2 (en) A portable game device having a touch panel display and a game program.
JP2013114323A (en) Three dimensional space coordinate input device
JP2015163218A5 (en)
JP5523381B2 (en) Portable game device with touch panel display
JP6248723B2 (en) Coordinate detection system, coordinate detection method, information processing apparatus, and program
US10921978B2 (en) Shaft feeder

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180529

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180611

R150 Certificate of patent or registration of utility model

Ref document number: 6361153

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250