JP6361153B2 - Robot teaching device - Google Patents
Robot teaching device Download PDFInfo
- Publication number
- JP6361153B2 JP6361153B2 JP2014020252A JP2014020252A JP6361153B2 JP 6361153 B2 JP6361153 B2 JP 6361153B2 JP 2014020252 A JP2014020252 A JP 2014020252A JP 2014020252 A JP2014020252 A JP 2014020252A JP 6361153 B2 JP6361153 B2 JP 6361153B2
- Authority
- JP
- Japan
- Prior art keywords
- plane
- dimensional image
- robot
- unit
- depth position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000010586 diagram Methods 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000000034 method Methods 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
- Numerical Control (AREA)
Description
本発明は、ロボットの動作点を教示する装置に関する。 The present invention relates to an apparatus for teaching an operating point of a robot.
従来、CAD等を用いたロボットの三次元シミュレーションモデルにおいて、XY平面に表示を切り替えてXY平面での位置をマウスの操作により決定した後に、YZ平面に表示を切り替えてYZ平面での位置をマウスの操作により決定するものがある(特許文献1参照)。 Conventionally, in a three-dimensional simulation model of a robot using CAD or the like, after switching the display to the XY plane and determining the position on the XY plane by operating the mouse, the display is switched to the YZ plane and the position on the YZ plane is set to the mouse. Is determined by the operation (see Patent Document 1).
ところで、特許文献1に記載のものでは、三次元画像から2つの二次元画像に順次切り替えて位置(動作点)を指示する必要がある。このため、三次元画像から二次元画像へ切り替える操作が必須であり、現在の視点における三次元画像から直感的に動作点を教示することができない。
By the way, in the thing of
本発明は、こうした実情に鑑みてなされたものであり、その主たる目的は、操作が簡易であり、且つ直感的に動作点を教示することのできるロボットの教示装置を提供することにある。 The present invention has been made in view of such circumstances, and a main object of the present invention is to provide a robot teaching apparatus that is easy to operate and can intuitively teach operating points.
本発明は、上記課題を解決するために、以下の手段を採用した。 The present invention employs the following means in order to solve the above problems.
第1の手段は、ロボットの教示装置であって、画像を表示する表示部と、前記表示部に表示させるロボットの三次元画像を制御する画像制御部と、前記三次元画像の奥行き方向の位置である奥行位置を指示する操作、及び前記三次元画像の面内の位置である面内位置を指示する操作を受け付ける操作部と、前記ロボットの動作点を取得する取得部と、を備え、前記画像制御部は、前記操作部に対する操作により指示された奥行位置に対応する前記三次元画像を前記表示部に表示させ、前記取得部は、前記指示された奥行位置、及び前記対応する前記三次元画像において前記操作部に対する操作により指示された面内位置に基づいて、前記ロボットの動作点を取得することを特徴とする。 The first means is a robot teaching apparatus, and includes a display unit that displays an image, an image control unit that controls a three-dimensional image of the robot displayed on the display unit, and a position in the depth direction of the three-dimensional image. An operation unit that receives an operation for instructing a depth position, and an operation for instructing an in-plane position that is a position in a plane of the three-dimensional image, and an acquisition unit that acquires an operating point of the robot, The image control unit causes the display unit to display the three-dimensional image corresponding to the depth position instructed by an operation on the operation unit, and the acquisition unit includes the instructed depth position and the corresponding three-dimensional image. The operating point of the robot is acquired based on an in-plane position designated by an operation on the operation unit in the image.
上記構成によれば、表示部により画像が表示され、表示部に表示させるロボットの三次元画像は、画像制御部により制御される。操作部により、三次元画像の奥行き方向の位置である奥行位置を指示する操作、及び三次元画像の面内の位置である面内位置を指示する操作が受け付けられる。 According to the above configuration, an image is displayed on the display unit, and the three-dimensional image of the robot displayed on the display unit is controlled by the image control unit. The operation unit accepts an operation for designating a depth position that is a position in the depth direction of the 3D image and an operation for designating an in-plane position that is a position in the plane of the 3D image.
ここで、画像制御部は、操作部に対する操作により指示された奥行位置に対応する三次元画像を表示部に表示させる。このため、ロボットの三次元画像において奥行位置を指示する操作を行うことにより、現在の視点における三次元画像から奥行位置に対応する三次元画像を表示させることができる。そして、取得部により、指示された奥行位置、及び対応する三次元画像において操作部に対する操作により指示された面内位置に基づいて、ロボットの動作点が取得される。したがって、三次元画像における奥行位置の指示及び面内位置の指示だけで、動作点を教示することができる。その結果、操作が簡易であり、且つ直感的に動作点を教示することができる。 Here, the image control unit causes the display unit to display a three-dimensional image corresponding to the depth position designated by the operation on the operation unit. Therefore, by performing an operation for designating the depth position in the three-dimensional image of the robot, a three-dimensional image corresponding to the depth position can be displayed from the three-dimensional image at the current viewpoint. Then, the operation point of the robot is acquired by the acquisition unit based on the instructed depth position and the in-plane position instructed by the operation on the operation unit in the corresponding three-dimensional image. Therefore, the operating point can be taught only by the instruction of the depth position and the in-plane position in the three-dimensional image. As a result, the operation is simple and the operating point can be taught intuitively.
第2の手段では、前記画像制御部は、前記操作部により前記奥行位置を指示する操作を受け付ける際に、前記操作により指示される奥行位置を示す指示平面を前記三次元画像中に表示させる。 In the second means, the image control unit displays an instruction plane indicating the depth position indicated by the operation in the three-dimensional image when receiving an operation for indicating the depth position by the operation unit.
上記構成によれば、操作部により奥行位置を指示する操作を受け付ける際に、操作により指示される奥行位置を示す指示平面が三次元画像中に表示される。このため、ユーザは、操作により指示される奥行位置を目視で確認しながら、奥行位置を正確に指示することができる。 According to the above configuration, when receiving an operation for instructing the depth position by the operation unit, the instruction plane indicating the depth position instructed by the operation is displayed in the three-dimensional image. For this reason, the user can correctly specify the depth position while visually confirming the depth position specified by the operation.
第3の手段では、前記指示平面は、前記三次元画像の奥行き方向に所定間隔で配置された複数の指示平面により構成されている。 In the third means, the indication plane is constituted by a plurality of indication planes arranged at predetermined intervals in the depth direction of the three-dimensional image.
上記構成によれば、三次元画像の奥行位置を指示する際に表示される指示平面を、簡易な構成により準備しておくことができる。 According to the said structure, the instruction | indication plane displayed when instruct | indicating the depth position of a three-dimensional image can be prepared with a simple structure.
第4の手段では、前記画像制御部は、前記操作部に対する操作により指示された奥行位置に対応する前記三次元画像、及び前記指示平面を前記表示部に表示させ、前記操作部は、前記三次元画像中の前記指示平面の面内の位置である面内位置を指示する操作を受け付ける。 In the fourth means, the image control unit causes the display unit to display the three-dimensional image corresponding to the depth position instructed by an operation on the operation unit, and the indication plane, and the operation unit includes the tertiary An operation for designating an in-plane position that is a position within the plane of the designated plane in the original image is accepted.
上記構成によれば、ユーザが奥行位置を指示する際に表示された指示平面が、指示された奥行位置に対応する三次元画像が表示される場合にも表示される。そして、操作部により、三次元画像中の指示平面の面内の位置である面内位置を指示する操作が受け付けられる。このため、ユーザは、指示した奥行位置を指示平面により明確に認識しつつ、指示平面内の面内位置を指示することができる。したがって、ユーザは意図した動作点を適切に教示することができる。 According to the above configuration, the indication plane displayed when the user indicates the depth position is also displayed when a three-dimensional image corresponding to the indicated depth position is displayed. Then, an operation for instructing an in-plane position that is a position within the plane of the instruction plane in the three-dimensional image is received by the operation unit. For this reason, the user can instruct the in-plane position in the instruction plane while clearly recognizing the instructed depth position by the instruction plane. Therefore, the user can appropriately teach the intended operating point.
第5の手段では、前記画像制御部は、前記指示平面を半透明で表示させる。 In the fifth means, the image control unit displays the instruction plane in a translucent manner.
上記構成によれば、指示平面が半透明で表示されるため、指示平面によりロボットが見えなくなることを抑制することができる。したがって、指示平面が表示された場合でも、ユーザはロボットの位置を確認しながら動作点を教示することができる。 According to the above configuration, since the instruction plane is displayed in a translucent manner, the robot can be prevented from being invisible by the instruction plane. Therefore, even when the instruction plane is displayed, the user can teach the operating point while confirming the position of the robot.
第6の手段では、前記操作部は、前記ロボットの動作範囲を含む前記奥行位置を指示する操作のみを受け付ける。 In a sixth means, the operation unit accepts only an operation for instructing the depth position including the movement range of the robot.
上記構成によれば、操作部により、ロボットの動作範囲を含む奥行位置を指示する操作のみが受け付けられる。このため、ユーザがロボットの動作範囲外の位置を誤って教示することを防ぐことができ、動作点を教示する効率を向上させることができる。 According to the above configuration, only an operation for instructing the depth position including the movement range of the robot is accepted by the operation unit. For this reason, it is possible to prevent the user from erroneously teaching a position outside the operation range of the robot, and it is possible to improve the efficiency of teaching the operation point.
第7の手段では、前記操作部は、前記表示部に表示された前記三次元画像の倍率が高いほど、前記奥行位置を指示する操作の精度を高くする。 In the seventh means, the operation unit increases the accuracy of the operation of indicating the depth position as the magnification of the three-dimensional image displayed on the display unit is higher.
表示部に表示された三次元画像の倍率が高いほど、ユーザは奥行位置を正確に指示し易くなる。 The higher the magnification of the three-dimensional image displayed on the display unit, the easier it is for the user to correctly indicate the depth position.
この点、上記構成によれば、操作部により、表示部に表示されたロボットの三次元画像の倍率が高いほど、奥行位置を指示する操作の精度が高くされる。このため、表示されたロボットの三次元画像の倍率に応じて、ユーザが奥行位置を適切に指示することができる。 In this regard, according to the above configuration, the accuracy of the operation for indicating the depth position is increased by the operation unit as the magnification of the three-dimensional image of the robot displayed on the display unit is higher. Therefore, the user can appropriately specify the depth position according to the magnification of the displayed three-dimensional image of the robot.
以下、一実施形態について、図面を参照しつつ説明する。本実施形態は、PC(Personal Computer)等を用いて実行される三次元シミュレーションモデルにより、ロボットの動作点を教示する教示装置として具体化している。図1に示すように、ロボットの教示装置10は、PC20、ディスプレイ30、キーボード40、及びタッチパネル50を備えている。
Hereinafter, an embodiment will be described with reference to the drawings. This embodiment is embodied as a teaching device that teaches the operating point of a robot by a three-dimensional simulation model executed using a PC (Personal Computer) or the like. As shown in FIG. 1, the
PC20は、CPU21、ROM22、RAM23、大容量記憶装置としてのハードディスクドライブ(HDD:Hard Disk Drive)24、入出力インタフェイス(I/F)25等を備えている。CPU21はROM22に記憶された各種プログラムを実行し、RAM23はプログラムを実行する際にパラメータの値等を記憶する。HDD24は、動作シミュレーション用のシミュレーションプログラムや、ティーチング用のティーチングプログラム、ロボット設計用の3次元CADプログラム等を記憶している。CPU21(画像制御部)は、これらのプログラムを実行することにより、タッチパネル50の画面に表示させるロボットの三次元画像を制御する。さらに、CPU21(取得部)は、これらのプログラムを実行することにより、ロボットの動作点を取得する。I/F25には、ディスプレイ30、キーボード40、及びタッチパネル50が接続されている。
The PC 20 includes a CPU 21, a
ディスプレイ30は、CPU21の処理によりPC20から出力される画像信号に基づいて、画面に各種の画像を表示する。キーボード40は、ユーザによるキー操作を入力して、キー操作に対応する信号をPC20へ出力する。タッチパネル50(表示部)は、CPU21の処理によりPC20から出力される画像信号に基づいて、画面に画像を表示する。さらに、タッチパネル50(操作部)は、ユーザが画面に接触した位置を検出する。タッチパネル50は、後述するように、三次元画像の奥行き方向の位置である奥行位置を指示する操作、及び三次元画像の面内の位置である面内位置を指示する操作を受け付ける。そして、タッチパネル50は、ユーザが画面に接触した位置に対応する信号をPC20へ出力する。
The display 30 displays various images on the screen based on the image signal output from the PC 20 by the processing of the CPU 21. The
次に、ロボットの教示装置10を用いて、ユーザがロボットの動作点を教示する手順について説明する。
Next, a procedure for the user to teach the operating point of the robot using the
図2は、タッチパネル50に表示された教示を開始する時の開始画像(三次元画像)を示す図である。この開始画像は、ユーザが任意に設定することができ、予め登録しておくことができる。 FIG. 2 is a diagram illustrating a start image (three-dimensional image) when starting teaching displayed on the touch panel 50. The start image can be arbitrarily set by the user and can be registered in advance.
開始画像には、奥行方向の位置である奥行位置を指示するための指示部51が表示されている。指示部51(操作部)は、目盛52及びカーソル53を備えている。目盛52は複数の目盛線52aを備えている。カーソル53は、ユーザの操作により、目盛52のいずれかの目盛線52aの位置に移動させられる。
In the start image, an
図3に示すように、各目盛線52aは、開始画像の奥行位置を示す各指示平面Fに対応している。指示平面Fは、ロボットRが固定された床面に垂直であり、開始画像の奥行方向に垂直である。目盛52において、左側の目盛線52aほど手前側の指示平面Fを示しており、右側の目盛線52aほど奥側の指示平面Fを示している。カーソル53が移動させられることにより、カーソル53が位置する目盛線52aに対応する指示平面Fが選択(指示)される。目盛52により示される奥行方向の範囲は、ロボットRの動作範囲のみとなっている。このため、指示部51(タッチパネル50)は、ロボットRの動作範囲に対応する指示平面Fを選択する操作のみ、すなわちロボットRの動作範囲を含む奥行位置を指示する操作のみを受け付ける。なお、ロボットRの動作点を教示する際には、カーソル53が位置する目盛線52aに対応する指示平面F1のみが、タッチパネル50の画面に半透明で表示される。
As shown in FIG. 3, each
図4に示すように、ユーザは、カーソル53に指で接触し、接触状態を維持したまま目盛52に沿って指を移動させる。タッチパネル50により、接触している位置が検出され、その位置に対応する信号がPC20のCPU21へ出力される。そして、CPU21は、接触している位置の移動に合わせて、カーソル53の表示位置を変更させる。このとき、CPU21は、カーソル53の位置する目盛線52aに対応する指示平面F1を、開始画像中に半透明で表示させる。すなわち、カーソル53の移動に伴って、表示される指示平面F1が奥行方向に移動する。
As shown in FIG. 4, the user touches the
ユーザは、カーソル53を移動させて、教示する動作点(教示点)の奥行位置に一致する指示平面F1を表示させる。そして、ユーザは、タッチパネル50の画面から指を離すことにより、指示平面F1の奥行位置、すなわち教示点の奥行位置を決定(指示)する。CPU21は、タッチパネル50により指が離れたことが検出された場合(教示点の奥行位置が指示された場合)に、表示されている指示平面F1の奥行位置(カーソル53が位置する目盛線52aが示す奥行位置)を、教示点の奥行位置として取得する。CPU21は、教示点の奥行位置が指示された場合に、図5に示すように、指示された奥行位置に対応する三次元画像及び指示された指示平面F1を、タッチパネル50の画面に表示させる。
The user moves the
同図に示すように、ユーザは次に、三次元画像中の指示平面F1の面内において、教示する動作点の位置に指で接触する。タッチパネル50は、指示平面F1の面内において接触された位置を検出する、すなわち指示平面F1の面内の位置である面内位置を指示する操作を受け付ける。このとき、タッチパネル50は、指示平面F1の面内を指示する操作のみを受け付け、指示平面F1から外れた位置を指示する操作は受け付けない。タッチパネル50により、検出された接触位置に対応する信号がPC20のCPU21へ出力される。また、CPU21は、図6に示すように、指示平面F1を消去するとともに、指示された面内位置に教示点を示す点Pを表示させる。
As shown in the figure, the user then touches the position of the operating point to be taught with a finger within the designated plane F1 in the three-dimensional image. The touch panel 50 receives an operation of detecting a position touched in the plane of the indication plane F1, that is, indicating an in-plane position that is a position in the plane of the indication plane F1. At this time, the touch panel 50 accepts only an operation that designates the in-plane of the instruction plane F1, and does not accept an operation that designates a position outside the instruction plane F1. The touch panel 50 outputs a signal corresponding to the detected contact position to the CPU 21 of the
これにより、その時の点Pの位置が、教示点の位置として指示される。そして、CPU21は、取得した奥行位置(指示された奥行位置)、及び対応する三次元画像において指示された教示点の面内位置に基づいて、ロボットRの動作点を取得する。詳しくは、指示された指示平面F1の奥行位置、及び指示平面F1における点Pの面内位置に基づき算出される点Pの三次元位置を、ロボットRの動作点として取得する。なお、指示平面F1の面内において接触された位置が検出された時に、その時の点Pの位置を動作点として取得するか否かユーザに確認してもよい。 Thereby, the position of the point P at that time is instruct | indicated as a position of a teaching point. Then, the CPU 21 acquires the operating point of the robot R based on the acquired depth position (instructed depth position) and the in-plane position of the teaching point specified in the corresponding three-dimensional image. Specifically, the three-dimensional position of the point P calculated based on the instructed depth position of the instruction plane F1 and the in-plane position of the point P in the instruction plane F1 is acquired as the operating point of the robot R. When the position touched in the plane of the indication plane F1 is detected, it may be confirmed to the user whether or not the position of the point P at that time is acquired as an operating point.
そして、指示平面F1の面内の動作点を続けて教示する場合は、指示平面F1の面内において次に教示する動作点に対応する位置に指で接触する。また、指示平面F1と異なる奥行位置の動作点を続けて教示する場合は、指示部51のカーソル53を移動させて動作点の奥行位置に対応する指示平面Fを選択する。その後、上述した操作と同様の操作を行う。
When the operation point in the plane of the indication plane F1 is continuously taught, the finger contacts the position corresponding to the next operation point to be taught in the plane of the indication plane F1. When the operating point at the depth position different from the instruction plane F1 is continuously taught, the
以上詳述した本実施形態は、以下の利点を有する。 The embodiment described in detail above has the following advantages.
・CPU21は、指示部51に対する操作により指示された奥行位置に対応する三次元画像をタッチパネル50の画面に表示させる。このため、教示を開始する時の開始画像(ロボットRの三次元画像)において奥行位置を指示する操作を行うことにより、現在の視点における三次元画像から奥行位置に対応する三次元画像を表示させることができる。そして、CPU21により、指示された奥行位置、及び対応する三次元画像においてタッチパネル50に対する操作により指示された面内位置に基づいて、ロボットRの動作点が取得される。したがって、三次元画像における奥行位置の指示及び面内位置の指示だけで、動作点を教示することができる。その結果、操作が簡易であり、且つ直感的に動作点を教示することができる。
The CPU 21 displays on the screen of the touch panel 50 a three-dimensional image corresponding to the depth position instructed by an operation on the
・指示部51により奥行位置を指示する操作を受け付ける際に、操作により指示される奥行位置を示す指示平面F1が三次元画像中に表示される。このため、ユーザは、操作により指示される奥行位置を目視で確認しながら、奥行位置を正確に指示することができる。
When receiving an operation for instructing the depth position by the
・指示平面Fは、三次元画像の奥行き方向に所定間隔で配置された複数の指示平面Fにより構成されている。このため、三次元画像の奥行位置を指示する際に表示される指示平面F1を、簡易な構成により準備しておくことができる。 The instruction plane F is composed of a plurality of instruction planes F arranged at predetermined intervals in the depth direction of the three-dimensional image. For this reason, the indication plane F1 displayed when instructing the depth position of the three-dimensional image can be prepared with a simple configuration.
・ユーザが奥行位置を指示する際に表示された指示平面F1が、指示された奥行位置に対応する三次元画像が表示される場合にも表示される。そして、タッチパネル50により、三次元画像中の指示平面F1の面内の位置である面内位置を指示する操作が受け付けられる。このため、ユーザは、指示した奥行位置を指示平面F1により明確に認識しつつ、指示平面F1内の面内位置を指示することができる。したがって、ユーザは意図した動作点を適切に教示することができる。 The indication plane F1 displayed when the user indicates the depth position is also displayed when a three-dimensional image corresponding to the indicated depth position is displayed. Then, the touch panel 50 accepts an operation for designating an in-plane position that is a position within the plane of the designated plane F1 in the three-dimensional image. For this reason, the user can instruct the in-plane position in the instruction plane F1 while clearly recognizing the instructed depth position by the instruction plane F1. Therefore, the user can appropriately teach the intended operating point.
・タッチパネル50は、指示平面F1の面内を指示する操作のみを受け付け、指示平面F1から外れた位置を指示する操作は受け付けない。このため、指示した奥行位置から外れた位置を、ユーザが誤って指示することを抑制することができる。 The touch panel 50 accepts only an operation that designates the in-plane of the indication plane F1, and does not accept an operation that designates a position outside the indication plane F1. For this reason, it can suppress that a user instruct | indicates the position remove | deviated from the instruct | indicated depth position accidentally.
・指示平面F1が半透明で表示されるため、指示平面F1によりロボットRが見えなくなることを抑制することができる。したがって、指示平面F1が表示された場合でも、ユーザはロボットRの位置を確認しながら動作点を教示することができる。 Since the instruction plane F1 is displayed in a translucent manner, it is possible to suppress the robot R from being invisible by the instruction plane F1. Therefore, even when the instruction plane F1 is displayed, the user can teach the operating point while confirming the position of the robot R.
・指示部51により、ロボットRの動作範囲を含む奥行位置を指示する操作のみが受け付けられる。このため、ユーザがロボットRの動作範囲外の位置を誤って教示することを防ぐことができ、動作点を教示する効率を向上させることができる。
-Only the operation of instructing the depth position including the operation range of the robot R is accepted by the
なお、上記実施形態を、以下のように変形して実施することもできる。 In addition, the said embodiment can also be deform | transformed and implemented as follows.
・指示平面Fを不透明で表示することもできる。 The indication plane F can be displayed opaque.
・タッチパネル50の画面に表示されたロボットRの三次元画像の倍率が高いほど、ユーザは奥行位置を正確に指示し易くなる。この点、図7に示すように、CPU21は、タッチパネル50の画面に表示されたロボットRの三次元画像の倍率が高いほど、目盛52の目盛線52aにより区切られる奥行方向の間隔を狭く、すなわち奥行位置を指示する操作の精度を高くしてもよい。こうした構成によれば、表示されたロボットRの三次元画像の倍率に応じて、ユーザが奥行位置を適切に指示することができる。
-The higher the magnification of the three-dimensional image of the robot R displayed on the screen of the touch panel 50, the easier it is for the user to correctly indicate the depth position. In this regard, as shown in FIG. 7, the CPU 21 narrows the interval in the depth direction divided by the
ここで、教示を開始する時の開始画像の倍率に応じて、目盛線52aにより区切られる奥行方向の間隔を変更してもよい。また、図4においてユーザにより奥行位置が指示された後に、図5のように表示される指示された奥行位置に対応する三次元画像の倍率に応じて、目盛線52aにより区切られる奥行方向の間隔を変更してもよい。この場合は、図5において、ユーザは変更された目盛52により再度奥行位置を精密に指示してもよい。
Here, the interval in the depth direction divided by the
・図8に示すように、タッチパネル50に代えてマウス150をI/F25に接続し、CPU21はディスプレイ30(表示部)にロボットRの三次元画像を表示させてもよい。そして、マウス150(操作部)により、三次元画像の奥行き方向の位置である奥行位置を指示する操作、及び三次元画像の面内の位置である面内位置を指示する操作を受け付ける。この場合は、図9に示すように、ディスプレイ30に表示させた開始画像(三次元画像)において、マウス150の操作により移動するポインタPtを表示させる。そして、CPU21は、カーソル53がポインタPtによりドラッグされて移動された場合に、指示された奥行位置に対応する三次元画像をディスプレイ30に表示させる。また、図10に示すように、CPU21は、指示平面F1の面内位置がポインタPtによりクリックされた場合に、クリックされた位置を教示点として取得する。こうした構成によっても、上記実施形態と同様の作用効果を奏することができる。
As shown in FIG. 8, instead of the touch panel 50, a
・図4においてユーザにより奥行位置が指示された場合に、指示された奥行位置に対応する三次元画像として、図6に示す画像を表示してもよい。この場合は、指示平面F1の表示を省略し、図6の画像における最も手前側の平面を指示平面F1とみなす。そして、図6の画像において、ユーザは、タッチパネル50の画面に指で接触して、三次元画像における教示点の面内位置を指示する。こうした構成によっても、上記実施形態に準じた作用効果を奏することができる。 -When the depth position is instruct | indicated by the user in FIG. 4, you may display the image shown in FIG. 6 as a three-dimensional image corresponding to the instruct | indicated depth position. In this case, the indication plane F1 is not displayed, and the foremost plane in the image of FIG. 6 is regarded as the indication plane F1. In the image of FIG. 6, the user touches the screen of the touch panel 50 with a finger and designates the in-plane position of the teaching point in the three-dimensional image. Even with such a configuration, it is possible to achieve the operational effects according to the above-described embodiment.
10…ロボットの教示装置、21…CPU(画像制御部、取得部)、30…ディスプレイ(表示部)、50…タッチパネル(表示部、操作部)、51…指示部(操作部)、150…マウス(操作部)。
DESCRIPTION OF
Claims (8)
前記表示部に表示させるロボットの三次元画像を制御する画像制御部と、
前記三次元画像の奥行き方向の位置である奥行位置を指示する操作、及び前記三次元画像の面内の位置である面内位置を指示する操作を受け付ける操作部と、
前記ロボットの動作点を取得する取得部と、
を備え、
前記画像制御部は、前記操作部に対する操作により指示された奥行位置に対応する前記三次元画像を前記表示部に表示させ、
前記取得部は、前記指示された奥行位置、及び前記対応する前記三次元画像において前記操作部に対する操作により指示された面内位置に基づいて、前記ロボットの動作点を取得し、
前記画像制御部は、前記操作部により前記奥行位置を指示する操作を受け付ける際に、前記操作により指示される奥行位置を示す指示平面を前記三次元画像中に表示させることを特徴とするロボットの教示装置。 A display for displaying an image;
An image control unit for controlling a three-dimensional image of the robot to be displayed on the display unit;
An operation unit that receives an operation for instructing a depth position that is a position in the depth direction of the three-dimensional image, and an operation for instructing an in-plane position that is a position in the plane of the three-dimensional image;
An acquisition unit for acquiring an operating point of the robot;
With
The image control unit causes the display unit to display the three-dimensional image corresponding to the depth position instructed by an operation on the operation unit;
The acquisition unit acquires an operating point of the robot based on the instructed depth position and an in-plane position instructed by an operation on the operation unit in the corresponding three-dimensional image ,
The image control unit displays an instruction plane indicating a depth position instructed by the operation in the three-dimensional image when receiving an operation instructing the depth position by the operation unit . Teaching device.
前記操作部は、前記三次元画像中の前記指示平面の面内の位置である面内位置を指示する操作を受け付ける請求項1又は2に記載のロボットの教示装置。 The image control unit causes the display unit to display the three-dimensional image corresponding to the depth position instructed by an operation on the operation unit, and the indication plane.
The operating unit, teaching apparatus of a robot according to claim 1 or 2 accepts an operation for indicating the position at which plane position in the plane of the indication plane in the three-dimensional image.
前記表示部に表示させるロボットの三次元画像を制御する画像制御部と、An image control unit for controlling a three-dimensional image of the robot to be displayed on the display unit;
前記三次元画像の奥行き方向の位置である奥行位置を指示する操作、及び前記三次元画像の面内の位置である面内位置を指示する操作を受け付ける操作部と、An operation unit that receives an operation for instructing a depth position that is a position in the depth direction of the three-dimensional image, and an operation for instructing an in-plane position that is a position in the plane of the three-dimensional image;
前記ロボットの動作点を取得する取得部と、An acquisition unit for acquiring an operating point of the robot;
を備え、With
前記画像制御部は、前記操作部に対する操作により指示された奥行位置に対応する前記三次元画像を前記表示部に表示させ、The image control unit causes the display unit to display the three-dimensional image corresponding to the depth position instructed by an operation on the operation unit;
前記取得部は、前記指示された奥行位置、及び前記対応する前記三次元画像において前記操作部に対する操作により指示された面内位置に基づいて、前記ロボットの動作点を取得し、The acquisition unit acquires an operating point of the robot based on the instructed depth position and an in-plane position instructed by an operation on the operation unit in the corresponding three-dimensional image,
前記操作部は、前記ロボットの動作範囲を含む前記奥行位置を指示する操作のみを受け付けることを特徴とするロボットの教示装置。The robot teaching apparatus, wherein the operation unit accepts only an operation for instructing the depth position including an operation range of the robot.
前記表示部に表示させるロボットの三次元画像を制御する画像制御部と、An image control unit for controlling a three-dimensional image of the robot to be displayed on the display unit;
前記三次元画像の奥行き方向の位置である奥行位置を指示する操作、及び前記三次元画像の面内の位置である面内位置を指示する操作を受け付ける操作部と、An operation unit that receives an operation for instructing a depth position that is a position in the depth direction of the three-dimensional image, and an operation for instructing an in-plane position that is a position in the plane of the three-dimensional image;
前記ロボットの動作点を取得する取得部と、An acquisition unit for acquiring an operating point of the robot;
を備え、With
前記画像制御部は、前記操作部に対する操作により指示された奥行位置に対応する前記三次元画像を前記表示部に表示させ、The image control unit causes the display unit to display the three-dimensional image corresponding to the depth position instructed by an operation on the operation unit;
前記取得部は、前記指示された奥行位置、及び前記対応する前記三次元画像において前記操作部に対する操作により指示された面内位置に基づいて、前記ロボットの動作点を取得し、The acquisition unit acquires an operating point of the robot based on the instructed depth position and an in-plane position instructed by an operation on the operation unit in the corresponding three-dimensional image,
前記操作部は、前記表示部に表示された前記三次元画像の倍率が高いほど、前記奥行位置を指示する操作の精度を高くすることを特徴とするロボットの教示装置。The robot teaching apparatus according to claim 1, wherein the operation unit increases the accuracy of an operation for indicating the depth position as the magnification of the three-dimensional image displayed on the display unit is higher.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014020252A JP6361153B2 (en) | 2014-02-05 | 2014-02-05 | Robot teaching device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014020252A JP6361153B2 (en) | 2014-02-05 | 2014-02-05 | Robot teaching device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015147260A JP2015147260A (en) | 2015-08-20 |
JP6361153B2 true JP6361153B2 (en) | 2018-07-25 |
Family
ID=53891085
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014020252A Active JP6361153B2 (en) | 2014-02-05 | 2014-02-05 | Robot teaching device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6361153B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019092792A1 (en) * | 2017-11-07 | 2019-05-16 | 三菱電機株式会社 | Display control device, display control method, and display control program |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1998003314A1 (en) * | 1996-07-24 | 1998-01-29 | Fanuc Ltd | Jog feeding method for robots |
JP2006350602A (en) * | 2005-06-15 | 2006-12-28 | Yushin Precision Equipment Co Ltd | Operation terminal equipment |
JP2007286976A (en) * | 2006-04-18 | 2007-11-01 | Fanuc Ltd | Robot simulation apparatus |
JP4835616B2 (en) * | 2008-03-10 | 2011-12-14 | トヨタ自動車株式会社 | Motion teaching system and motion teaching method |
JP5246672B2 (en) * | 2011-02-17 | 2013-07-24 | 独立行政法人科学技術振興機構 | Robot system |
-
2014
- 2014-02-05 JP JP2014020252A patent/JP6361153B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015147260A (en) | 2015-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6379501B2 (en) | Robot teaching device | |
JP6132644B2 (en) | Information processing apparatus, display control method, computer program, and storage medium | |
CN202433853U (en) | Information processing equipment | |
JP5781213B1 (en) | GAME CONTROL PROGRAM, GAME CONTROL METHOD, AND GAME CONTROL DEVICE | |
WO2013018480A1 (en) | User interface device comprising touch pad for shrinking and displaying source image within screen capable of touch input, input processing method and program | |
JP2010224764A (en) | Portable game machine with touch panel display | |
JPWO2012157272A1 (en) | Display device, display control method and display control program, and input device, input support method and program | |
JP2013228948A5 (en) | Input receiving method, input receiving program, and input device | |
KR20180136480A (en) | A controller with electrostatic sensing | |
JP2011145779A5 (en) | ||
CN105934739A (en) | Virtual mouse for a touch screen device | |
JP2011034216A (en) | Selection object decision method, decision method for anteroposterior relation of object, and apparatus therefor | |
JP5737380B1 (en) | Information processing apparatus and program | |
JP6361153B2 (en) | Robot teaching device | |
JP2013156685A5 (en) | ||
US10180756B2 (en) | Input apparatus | |
JP5769841B2 (en) | Portable game device with touch panel display | |
JP2018023792A (en) | Game device and program | |
JP2009223532A (en) | Operation control method for icon interface | |
JP6126639B2 (en) | A portable game device having a touch panel display and a game program. | |
JP2013114323A (en) | Three dimensional space coordinate input device | |
JP2015163218A5 (en) | ||
JP5523381B2 (en) | Portable game device with touch panel display | |
JP6248723B2 (en) | Coordinate detection system, coordinate detection method, information processing apparatus, and program | |
US10921978B2 (en) | Shaft feeder |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170116 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171031 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171221 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180529 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180611 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6361153 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |