JP6379501B2 - ロボットの教示装置 - Google Patents

ロボットの教示装置 Download PDF

Info

Publication number
JP6379501B2
JP6379501B2 JP2014020251A JP2014020251A JP6379501B2 JP 6379501 B2 JP6379501 B2 JP 6379501B2 JP 2014020251 A JP2014020251 A JP 2014020251A JP 2014020251 A JP2014020251 A JP 2014020251A JP 6379501 B2 JP6379501 B2 JP 6379501B2
Authority
JP
Japan
Prior art keywords
dimensional image
robot
image
viewpoint
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014020251A
Other languages
English (en)
Other versions
JP2015147259A (ja
Inventor
博太 當眞
博太 當眞
貴史 桝山
貴史 桝山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Wave Inc
Original Assignee
Denso Wave Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Wave Inc filed Critical Denso Wave Inc
Priority to JP2014020251A priority Critical patent/JP6379501B2/ja
Publication of JP2015147259A publication Critical patent/JP2015147259A/ja
Application granted granted Critical
Publication of JP6379501B2 publication Critical patent/JP6379501B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)

Description

本発明は、ロボットの動作点を教示する装置に関する。
従来、CAD等を用いたロボットの三次元シミュレーションモデルにおいて、XY平面に表示を切り替えてXY平面での位置をマウスの操作により決定した後に、YZ平面に表示を切り替えてYZ平面での位置をマウスの操作により決定するものがある(特許文献1参照)。
特許第5120290号公報
ところで、特許文献1に記載のものでは、三次元画像から2つの二次元画像に順次切り替えて位置(動作点)を指示する必要がある。このため、三次元画像から二次元画像へ切り替える操作が必須であり、現在の視点における三次元画像から直感的に動作点を教示することができない。
本発明は、こうした実情に鑑みてなされたものであり、その主たる目的は、操作が簡易であり、且つ直感的に動作点を教示することのできるロボットの教示装置を提供することにある。
本発明は、上記課題を解決するために、以下の手段を採用した。
第1の手段は、ロボットの教示装置であって、画像を表示する表示部と、前記画像の面内の位置である面内位置を指示する操作を受け付ける操作部と、前記表示部に表示させるロボットの三次元画像を制御する画像制御部と、前記ロボットの動作点を取得する取得部と、を備え、前記画像制御部は、前記操作部により前記操作を受け付けた場合に、前記三次元画像の奥行き方向に視点を移動させた移動後の三次元画像を前記表示部に表示させ、前記取得部は、前記移動後の三次元画像に対応する奥行位置、及び前記移動後の三次元画像において前記操作部に対する操作により指示された面内位置に基づいて、前記ロボットの動作点を取得することを特徴とする。
上記構成によれば、表示部により画像が表示され、操作部により画像の面内の位置である面内位置を指示する操作が受け付けられる。表示部に表示させるロボットの三次元画像は、画像制御部により制御される。
ここで、画像制御部は、操作部により上記操作を受け付けた場合に、三次元画像の奥行き方向に視点を移動させた移動後の三次元画像を表示部に表示させる。このため、ロボットの三次元画像において面内位置を指示する操作を行うことにより、三次元画像のまま奥行き方向に視点を移動させることができる。そして、取得部により、移動後の三次元画像に対応する奥行位置、及び移動後の三次元画像において操作部に対する操作により指示された面内位置に基づいて、ロボットの動作点が取得される。したがって、三次元画像における面内位置の指示及び奥行方向への視点の移動だけで、動作点を教示することができる。その結果、操作が簡易であり、且つ直感的に動作点を教示することができる。
第2の手段では、前記画像制御部は、前記操作部により前記操作を受け付けた状態が継続している時間を、前記三次元画像の奥行き方向に視点を移動させる距離に対応付ける。
上記構成によれば、操作部により操作を受け付けた状態が継続している時間が、三次元画像の奥行き方向に視点を移動させる距離に対応付けられる。このため、奥行き方向に視点を移動させる距離を操作時間の長さにより指示することができ、視点を移動させる距離を指示するためのアイコン等を省略することができる。すなわち、操作時間を空間距離に置き換えているため、動作点を教示する際に三次元画像のまま、平面方向の位置だけでなく奥行方向の位置も指示することができる。その結果、熟練者だけでなく初心者であっても、容易に直感的に指示することができ、ユーザの熟練度にかかわらず動作点の教示を適切に行うことができる。
第3の手段では、前記画像制御部は、前記操作部により前記操作を受け付けた状態が継続している場合に、前記三次元画像の奥行き方向に視点を連続的に移動させつつ前記移動後の三次元画像を表示させる。
上記構成によれば、操作部により操作を受け付けた状態が継続している場合に、三次元画像の奥行き方向に視点を連続的に移動させつつ移動後の三次元画像が表示される。このため、ユーザは、視点が移動する過程を目視で確認することができ、より直感的に動作点を教示することができる。
第4の手段では、前記画像制御部は、前記奥行位置が前記ロボットの動作範囲外である場合に、前記奥行位置が動作範囲内である場合よりも前記視点を速く移動させつつ前記移動後の三次元画像を表示させる。
上記構成によれば、奥行位置がロボットの動作範囲外である場合に、奥行位置が動作範囲内である場合よりも視点を速く移動させつつ移動後の三次元画像が表示される。このため、奥行位置がロボットの動作範囲外である場合に、視点を素早く移動させることができ、動作点を教示する効率を向上させることができる。
第5の手段では、前記画像制御部は、前記奥行位置が前記ロボットの動作範囲から離れるほど、前記視点を速く移動させつつ前記移動後の三次元画像を表示させる。
上記構成によれば、奥行位置がロボットの動作範囲から離れるほど、視点を速く移動させつつ移動後の三次元画像が表示される。このため、視点が移動する過程を目視で確認することを可能としつつ、動作点の教示に重要でない三次元画像が表示される時間を短縮することができる。
第6の手段では、前記画像制御部は、前記奥行位置が前記ロボットの動作範囲内である場合に、前記視点を一定の速さで移動させつつ前記移動後の三次元画像を表示させる。
上記構成によれば、奥行位置がロボットの動作範囲内である場合に、視点を一定の速さで移動させつつ移動後の三次元画像が表示される。このため、奥行位置がロボットの動作範囲内である場合に、視点を規則的に移動させることができ、動作点を安定して教示することができる。
第7の手段では、前記画像制御部は、前記操作部により前記操作を受け付けた場合に、前記三次元画像の上方向に視点を切り替えた切替後の三次元画像を表示させた後に、前記切替後の三次元画像の奥行き方向に視点を移動させた移動後の三次元画像を表示させる。
上記構成によれば、操作部により操作を受け付けた場合に、三次元画像の上方向に視点を切り替えた切替後の三次元画像が表示される。このため、ユーザは、三次元画像の奥行方向の位置を確認し易くなり、切替後の三次元画像に基づいて移動後の三次元画像に対応する奥行位置を正確に指示することができる。
第8の手段では、前記画像制御部は、前記操作部により前記操作を受け付けた場合に、前記移動後の三次元画像において前記指示された面内位置の奥行き方向を示す直線を表示させる。
上記構成によれば、操作部により操作を受け付けた場合に、移動後の三次元画像において、指示された面内位置の奥行き方向を示す直線が表示される。このため、ユーザは、移動後の三次元画像において、指示された面内位置の奥行き方向を認識し易くなり、移動後の三次元画像に対応する奥行位置を正確に指示することができる。
第9の手段では、前記画像制御部は、前記ロボットの動作範囲内と動作範囲外とで前記直線の表示態様を異ならせる。
上記構成によれば、ロボットの動作範囲内と動作範囲外とで直線の表示態様が異ならせられるため、ユーザは動作範囲内と動作範囲外とを容易に認識することができる。
ロボットの教示装置を示すブロック図。 教示の開始画像を示す図。 俯瞰視点に切替後の三次元画像を示す図。 奥行方向に視点を移動させる態様を示す図。 奥行位置と奥行移動速度との関係を示すグラフ。 教示点が指示された状態を示す図。 奥行位置と奥行移動速度との関係の変更例を示すグラフ。 奥行位置と奥行移動速度との関係の他の変更例を示すグラフ。 ロボットの教示装置の変更例を示すブロック図。 教示の開始画像の変更例を示す図。
以下、一実施形態について、図面を参照しつつ説明する。本実施形態は、PC(Personal Computer)等を用いて実行される三次元シミュレーションモデルにより、ロボットの動作点を教示する教示装置として具体化している。図1に示すように、ロボットの教示装置10は、PC20、ディスプレイ30、キーボード40、及びタッチパネル50を備えている。
PC20は、CPU21、ROM22、RAM23、大容量記憶装置としてのハードディスクドライブ(HDD:Hard Disk Drive)24、入出力インタフェイス(I/F)25等を備えている。CPU21はROM22に記憶された各種プログラムを実行し、RAM23はプログラムを実行する際にパラメータの値等を記憶する。HDD24は、動作シミュレーション用のシミュレーションプログラムや、ティーチング用のティーチングプログラム、ロボット設計用の3次元CADプログラム等を記憶している。CPU21(画像制御部)は、これらのプログラムを実行することにより、タッチパネル50の画面に表示させるロボットの三次元画像を制御する。さらに、CPU21(取得部)は、これらのプログラムを実行することにより、ロボットの動作点を取得する。I/F25には、ディスプレイ30、キーボード40、及びタッチパネル50が接続されている。
ディスプレイ30は、CPU21の処理によりPC20から出力される画像信号に基づいて、画面に各種の画像を表示する。キーボード40は、ユーザによるキー操作を入力して、キー操作に対応する信号をPC20へ出力する。タッチパネル50(表示部)は、CPU21の処理によりPC20から出力される画像信号に基づいて、画面に画像を表示する。さらに、タッチパネル50(操作部)は、ユーザが画面に接触した位置を検出する、すなわち画面に表示された画像の面内の位置である面内位置をユーザが指示する操作を受け付ける。そして、タッチパネル50は、ユーザが画面に接触した位置に対応する信号をPC20へ出力する。
次に、ロボットの教示装置10を用いて、ユーザがロボットの動作点を教示する手順について説明する。
図2は、タッチパネル50に表示された教示を開始する時の開始画像(三次元画像)を示す図である。この開始画像は、ユーザが任意に設定することができ、予め登録しておくことができる。同図では、略水平方向からロボットRを見た画像となっている。ユーザは、この画像の面内において教示する動作点(教示点)に対応する位置に指で接触する、すなわち教示点に対応する面内位置を指示する。そして、タッチパネル50により、接触した位置が検出され、その位置に対応する信号がPC20のCPU21へ出力される。CPU21は、タッチパネル50により接触した位置が検出された場合(ユーザの操作が受け付けられた場合)に、開始画像の上方向に視点を切り替えた切替後の三次元画像(俯瞰視点による三次元画像)を表示させる。
図3は、俯瞰視点に切替後の三次元画像を示す図である。同図に示すように、CPU21は、俯瞰視点に切り替えた時に、ユーザにより指示された面内位置の奥行方向を示す直線Lを表示させる。直線Lは、XY平面に水平(平行)であり、指示された面内位置から三次元画像の奥行方向に延びている。直線Lは、ロボットRの動作範囲内において実線で表示され、動作範囲外において破線で表示されている。すなわち、ロボットRの動作範囲内と動作範囲外とで直線Lの表示態様が異なっている。また、CPU21は、直線L上において、指示された面内位置から奥行方向へ所定距離の位置に教示点を示す点Pを表示させる。CPU21は、ユーザがタッチパネル50の画面に指を接触させ続けている場合(タッチパネル50により面内位置の指示を受け付けた状態が継続している場合)に、三次元画像の奥行き方向に視点を連続的に移動させつつ移動後の三次元画像を表示させる。すなわち、CPU21は、ユーザがタッチパネル50の画面に指を接触させ続けている時間を、三次元画像の奥行き方向に視点を移動させる距離に対応付ける。これにより、図4に示すように、ロボットRを徐々に拡大した三次元画像が、タッチパネル50の画面に連続的に表示される。
このとき、教示点の奥行位置と視点の奥行方向への移動速度とは、図5のグラフに示す関係を有している。すなわち、CPU21は、教示点の奥行位置(視点を移動後の三次元画像に対応する奥行位置)がロボットRの動作範囲外である場合に、教示点の奥行位置が動作範囲内である場合よりも視点を速く移動させる。さらに、CPU21は、教示点の奥行位置がロボットRの動作範囲から離れるほど、視点を速く移動させる。そして、CPU21は、教示点の奥行位置がロボットRの動作範囲内である場合に、視点を一定の速さで移動させる。
ユーザは、奥行方向に視点を移動させつつ表示される三次元画像を目視で確認しながら、点Pが教示する動作点(教示点)の位置に到達した時に、タッチパネル50の画面から指を離す。これにより、その時の点Pの位置が、教示点の位置として指示される。図6は、教示点が指示された状態を示す図である。そして、CPU21は、視点を移動後の三次元画像に対応する奥行位置、及び移動後の三次元画像において指示された教示点の面内位置に基づいて、ロボットRの動作点を取得する。詳しくは、視点を移動後の三次元画像において、点Pの奥行位置及び点Pの面内位置に基づき算出される点Pの三次元位置を、ロボットRの動作点として取得する。なお、ユーザは、タッチパネル50の画面から指を離す前に、画面に指を接触させたまま指の位置を移動させて教示点の面内位置を変更してもよい。
そして、さらに奥側の動作点を続けて教示する場合は、この画像の面内において次に教示する動作点に対応する位置に指で接触して、同様の操作を行う。また、手前側の動作点を続けて教示する場合は、タッチパネル50の画面に指を接触させて奥行方向へ動作範囲外まで視点を移動させることにより、図2に示す開始画面に表示を切り替える。その後、上述した操作と同様の操作を行う。なお、タッチパネル50の画面に、視点を移動させる方向を反対(手前側)に切り替えるアイコン等を設けてもよい。そして、タッチパネル50により面内位置を指示するユーザの操作を受け付けた場合に、手前側に視点を連続的に移動させつつ、移動後の三次元画像を表示させてもよい。
以上詳述した本実施形態は、以下の利点を有する。
・CPU21は、タッチパネル50により面内位置を指示するユーザの操作を受け付けた場合に、三次元画像の奥行き方向に視点を移動させた移動後の三次元画像をタッチパネル50の画面に表示させる。このため、ロボットRの三次元画像においてユーザが面内位置を指示する操作を行うことにより、三次元画像のまま奥行き方向に視点を移動させることができる。そして、CPU21により、視点を移動後の三次元画像に対応する奥行位置、及び視点を移動後の三次元画像においてタッチパネル50に対する操作により指示された面内位置に基づいて、ロボットRの動作点が取得される。したがって、三次元画像における面内位置の指示及び奥行方向への視点の移動だけで、動作点を教示することができる。その結果、操作が簡易であり、且つ直感的に動作点を教示することができる。
・タッチパネル50により面内位置を指示するユーザの操作を受け付けた状態が継続している時間が、三次元画像の奥行き方向に視点を移動させる距離に対応付けられる。このため、奥行き方向に視点を移動させる距離を操作時間の長さにより指示することができ、視点を移動させる距離を指示するためのアイコン等を省略することができる。すなわち、操作時間を空間距離に置き換えているため、動作点を教示する際に三次元画像のまま、平面方向の位置だけでなく奥行方向の位置も指示することができる。その結果、熟練者だけでなく初心者であっても、容易に直感的に指示することができ、ユーザの熟練度にかかわらず動作点の教示を適切に行うことができる。
・タッチパネル50によりユーザの操作を受け付けた状態が継続している場合に、三次元画像の奥行き方向に視点を連続的に移動させつつ移動後の三次元画像が表示される。このため、ユーザは、視点が移動する過程を目視で確認することができ、より直感的に動作点を教示することができる。
・教示点の奥行位置がロボットRの動作範囲外である場合に、教示点の奥行位置が動作範囲内である場合よりも視点を速く移動させつつ移動後の三次元画像が表示される。このため、教示点の奥行位置がロボットRの動作範囲外である場合に、視点を素早く移動させることができ、動作点を教示する効率を向上させることができる。
・教示点の奥行位置がロボットRの動作範囲から離れるほど、視点を速く移動させつつ移動後の三次元画像が表示される。このため、視点が移動する過程を目視で確認することを可能としつつ、動作点の教示に重要でない三次元画像が表示される時間を短縮することができる。
・教示点の奥行位置がロボットRの動作範囲内である場合に、視点を一定の速さで移動させつつ移動後の三次元画像が表示される。このため、教示点の奥行位置がロボットRの動作範囲内である場合に、視点を規則的に移動させることができ、動作点を安定して教示することができる。
・タッチパネル50によりユーザの操作を受け付けた場合に、三次元画像の上方向に視点を切り替えた切替後の三次元画像(俯瞰視点による三次元画像)が表示される。このため、ユーザは、三次元画像の奥行方向の位置を確認し易くなり、俯瞰視点に切替後の三次元画像に基づいて、視点を移動後の三次元画像に対応する奥行位置を正確に指示することができる。
・タッチパネル50によりユーザの操作を受け付けた場合に、視点を移動後の三次元画像において、指示された面内位置の奥行き方向を示す直線Lが表示される。このため、ユーザは、指示された面内位置の奥行き方向を認識し易くなり、視点を移動後の三次元画像に対応する奥行位置を正確に指示することができる。
・ロボットRの動作範囲内と動作範囲外とで直線Lの表示態様が異ならせられるため、ユーザは動作範囲内と動作範囲外とを容易に認識することができる。
なお、上記実施形態を、以下のように変形して実施することもできる。
・図3において、ロボットRの動作範囲内と動作範囲外とで、直線Lの表示態様を同じにすることもできる。
・視点を移動後の三次元画像において、指示された面内位置の奥行方向を示す直線Lを省略することもできる。
・教示を開始する時の開始画像が俯瞰視点によるロボットRの三次元画像(ロボットRを見下ろす三次元画像)である場合は、タッチパネル50によりユーザの操作を受け付けた時に三次元画像の上方向に視点を切り替える処理を省略することもできる。こうした構成によれば、画像の切替回数を減らすことができる。
・図7に示すように、教示点の奥行位置が動作範囲の中心に近いほど、視点を遅く移動させるようにしてもよい。こうした構成によれば、ロボットRを動作させる頻度の高い位置において、教示点の奥行方向の位置を正確に指示することができる。
・図8に示すように、教示点の奥行位置が動作範囲外である場合に、視点を一定の速さで移動させることもできる。また、教示点の奥行位置がロボットRの動作範囲外である場合と、教示点の奥行位置が動作範囲内である場合とで、視点を同じ速さで移動させることもできる。
・上記実施形態では、タッチパネル50によりユーザの操作を受け付けた状態が継続している場合に、三次元画像の奥行き方向に視点を連続的に移動させつつ移動後の三次元画像を表示した。しかしながら、ユーザがタッチパネル50の画面に一瞬接触する毎に(タッチパネル50によりユーザの操作を1回受け付ける毎に)、三次元画像の奥行き方向に視点を所定距離移動させて移動後の三次元画像を表示することもできる。この場合には、ユーザがタッチパネル50の画面に所定時間よりも長く接触した場合に、教示する動作点の位置を確定(取得)すればよい。要するに、タッチパネル50によりユーザの操作を受け付けた場合に、三次元画像の奥行き方向に視点を移動させた移動後の三次元画像を表示させればよい。
・図9に示すように、タッチパネル50に代えてマウス150をI/F25に接続し、CPU21はディスプレイ30(表示部)にロボットRの三次元画像を表示させてもよい。そして、マウス150(操作部)により、ロボットRの三次元画像の面内位置を指示する操作を受け付ける。この場合は、図10に示すように、ディスプレイ30に表示させた開始画像(三次元画像)において、マウス150の操作により移動するポインタPtを表示させる。そして、CPU21は、ユーザによりマウス150のボタンがクリックされた場合に、三次元画像の奥行き方向に視点を移動させた移動後の三次元画像をディスプレイ30に表示させる。こうした構成によっても、上記実施形態と同様の作用効果を奏することができる。
10…ロボットの教示装置、21…CPU(画像制御部、取得部)、30…ディスプレイ(表示部)、50…タッチパネル(表示部、操作部)、150…マウス(操作部)。

Claims (12)

  1. 画像を表示する表示部と、
    前記画像の面内の位置である面内位置を指示する操作を受け付ける操作部と、
    前記表示部に表示させるロボットの三次元画像を制御する画像制御部と、
    前記ロボットの動作点を取得する取得部と、
    を備え、
    前記画像制御部は、前記操作部により前記操作を受け付けた場合に、俯瞰視点による前記三次元画像の奥行き方向に視点を移動させた俯瞰視点による移動後の三次元画像を前記表示部に表示させ、
    前記取得部は、前記移動後の三次元画像に対応する奥行位置、及び前記移動後の三次元画像において前記操作部に対する操作により指示された面内位置に基づいて、前記ロボットの動作点を取得することを特徴とするロボットの教示装置。
  2. 前記画像制御部は、前記操作部により前記操作を受け付けた状態が継続している時間を、俯瞰視点による前記三次元画像の奥行き方向に視点を移動させる距離に対応付ける請求項1に記載のロボットの教示装置。
  3. 前記画像制御部は、前記操作部により前記操作を受け付けた状態が継続している場合に、俯瞰視点による前記三次元画像の奥行き方向に視点を連続的に移動させつつ前記移動後の三次元画像を表示させる請求項1又は2に記載のロボットの教示装置。
  4. 前記画像制御部は、前記奥行位置が前記ロボットの動作範囲外である場合に、前記奥行位置が動作範囲内である場合よりも前記視点を速く移動させつつ前記移動後の三次元画像を表示させる請求項3に記載のロボットの教示装置。
  5. 画像を表示する表示部と、
    前記画像の面内の位置である面内位置を指示する操作を受け付ける操作部と、
    前記表示部に表示させるロボットの三次元画像を制御する画像制御部と、
    前記ロボットの動作点を取得する取得部と、
    を備え、
    前記画像制御部は、前記操作部により前記操作を受け付けた場合に、前記三次元画像の奥行き方向に視点を移動させた移動後の三次元画像を前記表示部に表示させ、
    前記取得部は、前記移動後の三次元画像に対応する奥行位置、及び前記移動後の三次元画像において前記操作部に対する操作により指示された面内位置に基づいて、前記ロボットの動作点を取得し、
    前記画像制御部は、前記操作部により前記操作を受け付けた状態が継続している場合に、前記三次元画像の奥行き方向に視点を連続的に移動させつつ前記移動後の三次元画像を表示させ、前記奥行位置が前記ロボットの動作範囲外である場合に、前記奥行位置が動作範囲内である場合よりも前記視点を速く移動させつつ前記移動後の三次元画像を表示させることを特徴とするロボットの教示装置。
  6. 前記画像制御部は、前記奥行位置が前記ロボットの動作範囲から離れるほど、前記視点を速く移動させつつ前記移動後の三次元画像を表示させる請求項3〜5のいずれか1項に記載のロボットの教示装置。
  7. 画像を表示する表示部と、
    前記画像の面内の位置である面内位置を指示する操作を受け付ける操作部と、
    前記表示部に表示させるロボットの三次元画像を制御する画像制御部と、
    前記ロボットの動作点を取得する取得部と、
    を備え、
    前記画像制御部は、前記操作部により前記操作を受け付けた場合に、前記三次元画像の奥行き方向に視点を移動させた移動後の三次元画像を前記表示部に表示させ、
    前記取得部は、前記移動後の三次元画像に対応する奥行位置、及び前記移動後の三次元画像において前記操作部に対する操作により指示された面内位置に基づいて、前記ロボットの動作点を取得し、
    前記画像制御部は、前記操作部により前記操作を受け付けた状態が継続している場合に、前記三次元画像の奥行き方向に視点を連続的に移動させつつ前記移動後の三次元画像を表示させ、前記奥行位置が前記ロボットの動作範囲から離れるほど、前記視点を速く移動させつつ前記移動後の三次元画像を表示させることを特徴とするロボットの教示装置。
  8. 前記画像制御部は、前記奥行位置が前記ロボットの動作範囲内である場合に、前記視点を一定の速さで移動させつつ前記移動後の三次元画像を表示させる請求項2〜のいずれか1項に記載のロボットの教示装置。
  9. 前記画像制御部は、前記操作部により前記操作を受け付けた場合に、前記三次元画像の視点を俯瞰視点に切り替えた切替後の三次元画像を表示させた後に、前記切替後の三次元画像の奥行き方向に視点を移動させた前記俯瞰視点による移動後の三次元画像を表示させる請求項1〜のいずれか1項に記載のロボットの教示装置。
  10. 前記画像制御部は、前記操作部により前記操作を受け付けた場合に、前記移動後の三次元画像において前記指示された面内位置の奥行き方向を示す直線を表示させる請求項1〜のいずれか1項に記載のロボットの教示装置。
  11. 画像を表示する表示部と、
    前記画像の面内の位置である面内位置を指示する操作を受け付ける操作部と、
    前記表示部に表示させるロボットの三次元画像を制御する画像制御部と、
    前記ロボットの動作点を取得する取得部と、
    を備え、
    前記画像制御部は、前記操作部により前記操作を受け付けた場合に、前記三次元画像の奥行き方向に視点を移動させた移動後の三次元画像を前記表示部に表示させ、
    前記取得部は、前記移動後の三次元画像に対応する奥行位置、及び前記移動後の三次元画像において前記操作部に対する操作により指示された面内位置に基づいて、前記ロボットの動作点を取得し、
    前記画像制御部は、前記操作部により前記操作を受け付けた場合に、前記移動後の三次元画像において前記指示された面内位置の奥行き方向を示す直線を表示させることを特徴とするロボットの教示装置。
  12. 前記画像制御部は、前記ロボットの動作範囲内と動作範囲外とで前記直線の表示態様を異ならせる請求項10又は11に記載のロボットの教示装置。
JP2014020251A 2014-02-05 2014-02-05 ロボットの教示装置 Active JP6379501B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014020251A JP6379501B2 (ja) 2014-02-05 2014-02-05 ロボットの教示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014020251A JP6379501B2 (ja) 2014-02-05 2014-02-05 ロボットの教示装置

Publications (2)

Publication Number Publication Date
JP2015147259A JP2015147259A (ja) 2015-08-20
JP6379501B2 true JP6379501B2 (ja) 2018-08-29

Family

ID=53891084

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014020251A Active JP6379501B2 (ja) 2014-02-05 2014-02-05 ロボットの教示装置

Country Status (1)

Country Link
JP (1) JP6379501B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6526098B2 (ja) 2017-04-26 2019-06-05 ファナック株式会社 ロボットを操作するための操作装置、ロボットシステム、および操作方法
JP6860529B2 (ja) 2018-07-20 2021-04-14 ファナック株式会社 数値制御装置及びデータ編集方法
JP6823018B2 (ja) 2018-08-03 2021-01-27 ファナック株式会社 協調動作支援装置
DE202018105721U1 (de) * 2018-10-05 2020-01-20 Fruitcore Gmbh Roboter mit Antriebselement auf der Hauptwelle und Bedienvorrichtung für einen Roboter
DE102019211270B3 (de) * 2019-07-30 2020-11-26 Kuka Deutschland Gmbh Steuern eines Roboters
CN111113414B (zh) * 2019-12-19 2022-08-30 长安大学 一种基于屏幕标识的机器人三维空间尺度提示方法及系统

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6088628A (en) * 1996-07-24 2000-07-11 Fanuc, Ltd. Jog feeding method for robots
JP2000113213A (ja) * 1998-10-09 2000-04-21 Sekisui House Ltd Cg画像による建築物の建具及び家具類の開閉表示方法
JP4473849B2 (ja) * 2003-06-02 2010-06-02 パナソニック株式会社 物品取扱いシステムおよび物品取扱いサーバ
JP4902236B2 (ja) * 2006-03-22 2012-03-21 株式会社日立製作所 三次元地図表示装置、三次元地図表示プログラム及び三次元地図表示プログラムを記録した記録媒体
JP5246186B2 (ja) * 2010-03-15 2013-07-24 オムロン株式会社 コントローラサポート装置、制御プログラムのシミュレーション方法、コントローラのサポートプログラムおよびコントローラのサポートプログラムを格納したコンピュータ読み取り可能な記憶媒体
EP2875914A1 (en) * 2012-07-20 2015-05-27 Kabushiki Kaisha Yaskawa Denki Robot simulator, robot teaching device and robot teaching method

Also Published As

Publication number Publication date
JP2015147259A (ja) 2015-08-20

Similar Documents

Publication Publication Date Title
JP6379501B2 (ja) ロボットの教示装置
JP5781213B1 (ja) ゲーム制御プログラム、ゲーム制御方法及びゲーム制御装置
JP6073782B2 (ja) 表示装置、表示制御方法及び表示制御プログラム、並びに、入力装置、入力支援方法及びプログラム
JP5333397B2 (ja) 情報処理端末およびその制御方法
JP2013045217A (ja) 入力装置
JP2014241145A5 (ja)
JP2013257762A5 (ja)
JP2014186361A5 (ja)
JP6018265B2 (ja) ゲーム制御プログラム、ゲーム制御方法及びゲーム制御装置
JP2011145779A5 (ja)
JP2014241026A5 (ja)
JP2016115337A5 (ja)
JP6041742B2 (ja) タッチパネル表示制御装置
JP2011034216A (ja) 選択オブジェクト決定方法、オブジェクトの前後関係の決定方法及びその装置
JP5737380B1 (ja) 情報処理装置、及びプログラム
JP2015135572A (ja) 情報処理装置とその制御方法
US10180756B2 (en) Input apparatus
JP6361153B2 (ja) ロボットの教示装置
JP4856136B2 (ja) 移動制御プログラム
JP2015153197A (ja) ポインティング位置決定システム
JP5769841B2 (ja) タッチパネル式ディスプレイを持った携帯型ゲーム装置
JP6289655B2 (ja) 画面操作装置及び画面操作方法
JP2015228260A (ja) 接触度合いによるスクロール制御が可能なユーザインタフェース装置、画像スクロール方法及びプログラム
JP2015163218A5 (ja)
JP2021060724A5 (ja)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180703

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180716

R150 Certificate of patent or registration of utility model

Ref document number: 6379501

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250