JP2024017119A - 表示装置、表示方法、およびプログラム - Google Patents
表示装置、表示方法、およびプログラム Download PDFInfo
- Publication number
- JP2024017119A JP2024017119A JP2022119557A JP2022119557A JP2024017119A JP 2024017119 A JP2024017119 A JP 2024017119A JP 2022119557 A JP2022119557 A JP 2022119557A JP 2022119557 A JP2022119557 A JP 2022119557A JP 2024017119 A JP2024017119 A JP 2024017119A
- Authority
- JP
- Japan
- Prior art keywords
- display
- specific coordinates
- viewpoint position
- display device
- coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 23
- 238000010586 diagram Methods 0.000 description 14
- 230000005484 gravity Effects 0.000 description 7
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/147—Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Manipulator (AREA)
- Numerical Control (AREA)
- Processing Or Creating Images (AREA)
Abstract
【課題】本開示は、3D表示において、特定座標を示す座標画像を把握しやすくなる表示装置、表示方法、およびブログラムを提供する。【解決手段】表示装置は、制御部と、表示部と、を備える。前記制御部は、2つまたは3つの特定座標を含む平面に基づいて視点位置および視線方向を決定する決定部と、決定された前記視点位置および前記視線方向に基づき、前記特定座標を示す座標画像を含めた3D表示を前記表示部に表示させる表示制御部と、を有する。【選択図】図1
Description
本開示は、表示装置、表示方法、およびプログラムに関する。
従来、ヘッドマウントディスプレイなど、仮想空間を表示する表示装置が知られている(例えば特許文献1)。
例えば、仮想空間がロボットが配置される3D(3次元)空間であった場合、ロボットのいわゆる教示点の位置関係が分かりやすいように仮想空間を表示させることが要望されている。
上記状況に鑑み、本開示は、3D表示において、特定座標を示す座標画像を把握しやすくなる表示装置、表示方法、およびブログラムを提供することを目的とする。
本開示の例示的な表示装置は、制御部と、表示部と、を備える。前記制御部は、2つまたは3つの特定座標を含む平面に基づいて視点位置および視線方向を決定する決定部と、決定された前記視点位置および前記視線方向に基づき、前記特定座標を示す座標画像を含めた3D表示を前記表示部に表示させる表示制御部と、を有する。
本開示の例示的な表示方法は、制御部と、表示部と、を備える表示装置による表示方法であって、前記制御部により、2つまたは3つの特定座標を含む平面に基づいて視点位置および視線方向を決定する決定ステップと、前記制御部により、決定された前記視点位置および前記視線方向に基づき、前記特定座標を示す座標画像を含めた3D表示を前記表示部に表示させる表示制御ステップと、を有する。
本開示の例示的なプログラムは、制御部と、表示部と、を備える表示装置に用いられるプログラムであって、前記制御部に、2つまたは3つの特定座標を含む平面に基づいて視点位置および視線方向を決定する決定ステップと、決定された前記視点位置および前記視線方向に基づき、前記特定座標を示す座標画像を含めた3D表示を前記表示部に表示させる表示制御ステップと、を実行させるためのプログラムである。
本開示の例示的な表示装置、表示方法、およびプログラムによれば、特定座標を示す座標画像を把握しやすくなる。
以下に図面を参照して本開示の例示的な実施形態を説明する。
<1.ロボットシステム>
図1は、本開示の例示的な実施形態に係るロボットシステム10の構成を示す図である。ロボットシステム10は、ロボット1と、ロボットコントローラ2と、プログラム生成装置3と、を有する。
図1は、本開示の例示的な実施形態に係るロボットシステム10の構成を示す図である。ロボットシステム10は、ロボット1と、ロボットコントローラ2と、プログラム生成装置3と、を有する。
ロボット1は、産業用などの多関節ロボットである。ロボット1は、各関節軸にモータが搭載されており、モータの駆動によりロボット1の先端部は所定の位置・姿勢に制御される。なお、ロボット1は、多関節ロボットに限ることはない。
ロボットコントローラ2は、ロボット1を制御するための装置であり、教示点格納部21と、ロボットプログラム格納部22と、制御部23と、を有する。ロボットコントローラ2は、例えばPC(パソコン)により構成される。
ロボットコントローラ2には、図示しないペンダントと呼ばれる操作装置が接続される。当該ペンダントを用いて、ロボットコントローラ2にロボット1の位置姿勢を登録することができる。例えば、上記ペンダントにおける操作によりロボット1の関節を制御し、所望の位置姿勢のときに上記ペンダントにおいて登録操作をすると、そのときの位置姿勢がロボットコントローラ2に登録される。このような登録作業をティーチングと呼び、登録された位置姿勢は、教示点と呼ばれる。教示点は、教示点格納部21に登録される。なお、教示点は、ロボット1の先端部の位置姿勢情報である。
ロボットプログラム格納部22には、ロボット1に特定の動作をさせるためのロボットプログラムが格納される。ロボットプログラムは、例えばBASICまたはPythonなどのプログラミング言語により構成される。制御部23は、ロボットプログラム格納部22に格納されたロボットプログラムに従ってロボット1を制御する。
プログラム生成装置3は、ロボットプログラム格納部22に格納するロボットプログラムを生成するための装置であり、例えばPCにより構成される。なお、プログラム生成装置3は、後述する表示部32により各種画像を表示可能であり、本開示の例示的な表示装置に相当する。
プログラム生成装置3は、入力部31と、表示部32と、制御部33と、を備える。入力部31は、操作に応じて制御部33に入力する入力信号を生成するように構成される。入力部31は、例えばマウスおよびキーボードを含む。
表示部32は、各種画像を表示するように構成され、例えば液晶表示部により構成される。
制御部33は、CPUおよびメモリなどを有する。メモリに格納されたプログラムをCPUが実行することで、図1に示す制御部33の各種機能ブロック(表示制御部33Aなど)が実現される。
<2.3D表示について>
本開示のプログラム生成装置3(表示装置)においては、仮想的な3D空間を制御部33により表示部32に3D表示することができる。3D空間においては、所定の固定座標系(XYZ座標系)に対する位置座標が特定される。表示部32には、ロボット1を含めた3D表示が可能である。すなわち、3D空間において、ロボット1の位置座標があらかじめ特定されている。また、教示点の位置座標も特定され、表示部32には教示点とともに後述するエリアと呼ばれる画像を3D表示において表示することができる。エリアは、後述するようにロボット1への指令を示す指令ブロックを配置するための領域である。
本開示のプログラム生成装置3(表示装置)においては、仮想的な3D空間を制御部33により表示部32に3D表示することができる。3D空間においては、所定の固定座標系(XYZ座標系)に対する位置座標が特定される。表示部32には、ロボット1を含めた3D表示が可能である。すなわち、3D空間において、ロボット1の位置座標があらかじめ特定されている。また、教示点の位置座標も特定され、表示部32には教示点とともに後述するエリアと呼ばれる画像を3D表示において表示することができる。エリアは、後述するようにロボット1への指令を示す指令ブロックを配置するための領域である。
また、後述するように視点位置および視線方向が決定された場合、決定された視点位置および視線方向での3D表示が可能となっている。
<3.3D表示制御方法>
次に、3D表示制御方法の一例について、図2に示すフローチャートに沿って説明する。なお、以下、教示点は、位置姿勢情報のうち位置情報であるとする。
次に、3D表示制御方法の一例について、図2に示すフローチャートに沿って説明する。なお、以下、教示点は、位置姿勢情報のうち位置情報であるとする。
制御部33は、表示制御部33Aを有する(図1)。図2の処理が開始されると、まずステップS1で、表示制御部33Aは、ロボット1が配置された3D空間における鉛直方向上方の視点位置および鉛直方向下方(重力方向)の視線方向で表示部32に3D表示をさせる。
このときの3D表示の一例を図3に概略的に示す。3D表示においては、教示点Pとともにエリア4が表示される。例えば、図3に示すように、教示点Pがエリア4の左上隅となるようにエリア4が表示される。すなわち、エリア4は、教示点Pと関連付けられる画像である。なお、図3に示す例えば教示点PAに対応するエリア4Aと、教示点PBに対応するエリア4Bは、重なってしまう。そこで、エリア4が重ならないように、例えば図3に示すエリア4AAのように、教示点PAのエリア4における位置を変更してもよい。すなわち、教示点PAはエリア4AAの右下隅であり、エリア4の左上隅に限らない。また、教示点Pを表示せずにエリア4を表示してもよい。
ステップS1では、教示点格納部21に登録されたすべての教示点Pとそれに対応する各エリア4が表示される。図3の例では、図3に示すすべてのエリア4は、上記すべての教示点Pに対応する各エリア4である。ここで表示される教示点Pおよびエリア4は、ステップS2以降で選択されるエリア(教示点)の候補となる。すなわち、ステップS1では、エリア(教示点)は未だ選択されていない状態である。
すなわち、特定座標(教示点)が選択されていない場合、表示制御部33Aは、特定座標を含む登録されているすべての座標を示す座標画像(教示点Pおよびエリア4)を表示部32に表示させる。これにより、すべての座標画像から任意の座標画像を選択することで、任意の特定座標を選択できる。
次に、ステップS2に進み、ステップS1で表示されたエリア4を1つ選択する。すなわち1つ目のエリア4が選択される。なお、エリア選択は、入力部31における操作により行われる。また、エリア4を選択する順番は、対応する教示点をロボット1が移動する順番に相当する。すなわち、エリア4を選択する順番により、ロボット1の移動経路を指定できる。
ここで、選択されたエリア4には、後述する指令ブロック5を配置することができる。図4は、教示点Pos1に対応するエリア41、教示点Pos2に対応するエリア42、および教示点Pos3に対応するエリア43を示す図である。エリア41は、ステップS2で選択された1つ目のエリア4である。エリア42は、後述するステップS3で選択された2つ目のエリア4である。エリア43は、後述するステップS6で選択された3つ目のエリア4である。なお、図4では、説明の便宜上、エリア41~43を横並びに図示しており、実際の教示点Pos1~Pos3の位置関係で図示していない。
表示制御部33Aは、入力部31における操作に基づき、選択中のエリア4内に指令ブロック5を配置する表示制御を行う。指令ブロック5は、ロボット1への指令(ロボット1の動作)を示すブロック状の画像である。すなわち、例えばステップS2で1つ目のエリア41が選択されている場合は、エリア41内に指令ブロック5を配置可能である。
図5は、図4に示した各エリア41,42,43への指令ブロックの配置例を示す図である。図5に示す例では、エリア41には、指令A,B,Cをそれぞれ示す指令ブロック5が画面上方から下方へ向かって順に積層されて配置される。このように、指令ブロック5は、積み重ねて配置することができる。積層される順番がロボット1への指令の順番となる。指令ブロック5は、例えばマウスによるドラッグによりエリア外からエリア内へ配置することができる。
次に、ステップS3に進み、ステップS1で表示されたエリア4を1つ選択する。すなわち、2つ目のエリア4が選択される。
すると、ステップS4に進む。ステップS4について図6Aを参照して説明する。図6Aには、1つ目のエリア41の教示点Pos1と、2つ目のエリア42の教示点Pos2が図示される。制御部33は、算出部33Bを有する(図1)。図4に示すように、算出部33Bは、2つ目のエリア42の教示点Pos2に対して鉛直方向に位置する疑似教示点PosAを特定し、教示点Pos1,Pos2と疑似教示点PosAという3つの教示点を含む平面S1を算出する。図6Aにおいて、重力方向G(鉛直方向下方)を示す。すなわち、制御部33は、2つの特定座標(Pos1,Pos2)に基づき、上記特定座標を含む平面S1を算出する算出部33Bを有する。
次に、ステップS5に進む。制御部33は、決定部33Cを有する(図1)。決定部33Cは、ステップS4で算出された平面S1に基づき、視点位置Epおよび視線方向Edを決定する。すなわち、制御部33は、2つの特定座標(Pos1,Pos2)を含む平面S1に基づいて視点位置Epおよび視線方向Edを決定する決定部33Cを有する。なお、視線方向Edは、平面S1に対して垂直な方向に決定される。
視点位置Epおよび視線方向Edは、例えば次のように決定される。なお、ここで説明する決定方法は、後述するステップS8,S11でも同様に適用される。
<<3D表示を平行投影で行う場合>>
3D表示を平行投影で行う場合について、図6Aを例示して説明する。平行投影では、物体の距離が離れても投影面における物体の大きさは変わらない。
1)平面S1上に、3つの教示点(Pos1,Pos2,PosA)を含む任意の矩形領域T1を設定する。なお、矩形領域T1のサイズは任意である。矩形領域T1が投影面(表示領域)となる。
2)矩形領域T1の中点TP1から平面S1に垂直な垂線PL1を引く。垂線P1が視線となる。
3)視点Epは、垂線PL1上の任意の位置となる。
<<3D表示を平行投影で行う場合>>
3D表示を平行投影で行う場合について、図6Aを例示して説明する。平行投影では、物体の距離が離れても投影面における物体の大きさは変わらない。
1)平面S1上に、3つの教示点(Pos1,Pos2,PosA)を含む任意の矩形領域T1を設定する。なお、矩形領域T1のサイズは任意である。矩形領域T1が投影面(表示領域)となる。
2)矩形領域T1の中点TP1から平面S1に垂直な垂線PL1を引く。垂線P1が視線となる。
3)視点Epは、垂線PL1上の任意の位置となる。
<<3D表示を透視投影で行う場合>>
3D表示を透視投影で行う場合について、図6Bを例示して説明する。透視投影では、物体の距離が離れるほど投影面における物体の大きさが小さくなる。 1)3つの教示点(Pos1,Pos2,PosA)の重心CG1を求める。
2)重心CG1から平面S1に垂直な垂線PL1を引く。垂線PL1が視線となる。
3)視点Epは垂線PL1上に位置する。視点Epを頂点とする四角錐と平面S1との公差部分である矩形領域T1が投影面となる。四角錐の開く角度が画角θである。
4)矩形領域T1が3つの教示点を含むように垂線PL1上の視点位置が調整される。なお、画角θを調整してもよい。
3D表示を透視投影で行う場合について、図6Bを例示して説明する。透視投影では、物体の距離が離れるほど投影面における物体の大きさが小さくなる。 1)3つの教示点(Pos1,Pos2,PosA)の重心CG1を求める。
2)重心CG1から平面S1に垂直な垂線PL1を引く。垂線PL1が視線となる。
3)視点Epは垂線PL1上に位置する。視点Epを頂点とする四角錐と平面S1との公差部分である矩形領域T1が投影面となる。四角錐の開く角度が画角θである。
4)矩形領域T1が3つの教示点を含むように垂線PL1上の視点位置が調整される。なお、画角θを調整してもよい。
ステップS4で視点位置Epおよび視線方向Edが決定されたため、表示制御部33Aは、決定された視点位置Epおよび視線方向Edで3D空間を見た場合の3D表示を表示部32に表示させる。このとき、図7に一例を示すように、教示点Pos1,Pos2とエリア41,42を含めた3D表示を行う。すなわち、制御部33は、決定された視点位置Epおよび視線方向Edに基づき、特定座標(Pos1,Pos2)を示す座標画像(教示点Pおよびエリア4)を含めた3D表示を表示部32に表示させる表示制御部33Aを有する。
このように平面S1に基づいて決定された視点位置Epおよび視線方向Edで3D表示することにより、教示点Pos1,Pos2およびエリア41,42が見やすくなる。そのため、視点位置および視線方向によっては教示点Pおよびエリア4が重なって表示されるなどして、教示点Pおよびエリア4が把握しづらいため、視点位置および視線方向をユーザ操作によって変更するなどが不要となる。すなわち、本実施形態では、特定座標(Pos1,Pos2)を示す座標画像が把握しやすくなる。特に、本実施形態では、教示点Pos1,Pos2の位置関係、およびロボット1の移動する方向(Pos1からPos2へ向かう方向)が把握しやすい。
なお、ステップS1のようにエリア4、すなわち教示点を選択していない場合にはロボット1を非表示として、ステップS2、S3のようにエリア4、すなわち教示点を選択された場合にロボット1の先端座標が選択された教示点に一致するようなロボット1を表示
してもよい。例えば、図7では、先端座標が選択された教示点Pos2に一致するようなロボット1を表示してもよい。
してもよい。例えば、図7では、先端座標が選択された教示点Pos2に一致するようなロボット1を表示してもよい。
また、上記特定座標(Pos1,Pos2)は、ロボット1の教示点である。これにより、ロボット1の教示点の位置関係が把握しやすい。
また、座標画像は、ロボット1への指令を示す指令ブロック5を配置するためのエリア4を含む。これにより、教示点におけるロボットへの指令が把握しやすい。
また、決定部33Cは、2つの特定座標(Pos1,Pos2)と、上記2つの特定座標のうち1つ(Pos2)に対して鉛直方向に位置する疑似特定座標(PosA)と、を含む平面S1に基づいて視点位置および視線方向を決定する。これにより、重力方向Gが下向きになるように表示部32において表示され、自然な態様での3D表示が可能となる(図7)。
また、決定される視線方向Edは、平面S1に対して垂直な方向である。これにより、平面S1が表示部32の表示面と平行となるように3D表示が行われるので、座標画像が奥行きのない状態で表示される。従って、特に特定座標間の移動方向が把握しやすくなる。
ステップS5の後、ステップS6に進み、3つ目のエリア4が選択される。次に、ステップS7で、ステップS4と同様、3つ目のエリア43に対応する教示点Pos3に対して鉛直方向に位置する疑似教示点PosBが特定され、教示点Pos2,Pos3とPosBに基づいて平面S2が算出される。そして、ステップS8で、算出された平面S2に基づいて視点位置および視線方向が決定され、決定された視点位置および視線方向に基づいた3D表示が行われる。
その後、ステップS9で、2つ目のエリア42が再び選択されると、ステップS10に進み、図8に示すように、2つ目のエリア42に対応する教示点Pos2と、エリア42の前後に選択されたエリア41,43に対応する教示点Pos1,Pos3と、を含む平面S3が算出される。そして、ステップS11で、算出された平面S3に基づいて視点位置および視線方向が決定され、決定された視点位置および視線方向に基づいた3D表示が行われる。
すなわち、制御部33は、3つの特定座標(Pos1,Pos2,Pos3)を含む平面S3に基づいて視点位置Epおよび視線方向Edを決定する決定部33Cを有する。
また、決定部33Cは、現在選択されている第1座標画像に対応する特定座標(Pos2)と、選択された順番において第1座標画像の前の第2座標画像に対応する特定座標(Pos1)と、選択された順番において第1座標画像の後の第3座標画像に対応する特定座標(Pos3)と、を含む平面S3に基づいて視点位置および視線方向を決定する。これにより、選択された3つの座標画像が把握しやすい。
なお、3つの教示点(疑似教示点も含む)を含む平面に基づいて視点位置および視線方向を決定するとき、例えば3つの教示点を結ぶ三角形の重心位置に基づいて視点位置および視線方向を決定する場合などには、制御部33は平面を必ずしも算出しなくてもよい。
<4.移動開始・完了ブロック>
図9は、エリア41~43に指令ブロック5を配置した一例を示す。図9に示すように、指令ブロック5には、移動開始ブロック51と、移動完了ブロック52と、が含まれる。移動開始ブロック51は、配置されたエリアの教示点からの移動開始指令を示す。移動完了ブロック52は、配置されたエリアの教示点での移動完了指令を示す。
図9は、エリア41~43に指令ブロック5を配置した一例を示す。図9に示すように、指令ブロック5には、移動開始ブロック51と、移動完了ブロック52と、が含まれる。移動開始ブロック51は、配置されたエリアの教示点からの移動開始指令を示す。移動完了ブロック52は、配置されたエリアの教示点での移動完了指令を示す。
図10に示すように、移動開始ブロック51と、移動完了ブロック52は、一対の指令ブロック5として扱われる。移動開始ブロック51と、移動完了ブロック52はそれぞれ独立して自由に移動できる。移動開始ブロック51の下辺と移動完了ブロック52の上辺とは、線6によって結合されている。移動開始ブロック51の上辺には、上方に指令ブロック5を積層することができる。移動完了ブロック52の下辺には、下方に指令ブロック5を積層することができる。移動開始ブロック51の移動または移動完了ブロック52の移動に応じて、線6は長さおよび形状が可変である。
図9の例では、エリア41に移動開始ブロック51が配置され、エリア42に移動完了ブロック52が配置される。これにより、教示点Pos1からの移動開始と教示点Pos2での移動完了が指令される。
このような移動開始ブロック51と移動完了ブロック52をエリアに配置することで、ロボット1の移動開始位置と移動完了位置を直感的に指定できる。なお、このような実施形態の場合は、移動開始ブロック51または移動完了ブロック52をエリア4内に配置した時点でエリア4が選択されることになる。
また、表示部32の表示において、移動開始ブロック51と移動完了ブロック52は、線6によって結合されている。これにより、移動開始ブロック51と移動完了ブロック52の関連付けを認識しやすくなる。なお、例えば移動開始ブロック51と移動完了ブロック52を同じ色で表示することで関連付けてもよい。
また、移動開始ブロック51の上側に指令ブロック5を積層して配置可能であり、かつ移動完了ブロック52の下側に指令ブロック5を積層して配置可能である。これにより、指令の順序を認識しやすくなる。
エリアに指令ブロック5が配置された後、制御部33におけるプログラム生成部33D(図1)は、指令ブロック5の配置に応じてロボットプログラムを生成する。次に、制御部33は、生成されたロボットプログラムをロボットコントローラ2に送信する。送信されたロボットプログラムは、ロボットプログラム格納部22に格納される。制御部23は、ロボットプログラムに従ってロボット1を制御する。これにより、ロボット1は、エリアに配置された指令ブロック5による指令内容に応じた動作を行う。
図9の例であれば、ロボット1は、教示点Pos1において、指令A,B,Cの順の動作を行い、その後、教示点Pos1から移動を開始し、教示点Pos2で移動を完了する。そして、教示点Pos2において、指令D,E,Fの順の動作を行う。その後、教示点Pos2から移動を開始し、教示点Pos3で移動を完了する。
<5.エリア表示>
エリア表示は、図11に示すように行ってもよい。図11では、教示点Pos1,Pos2,Pos3を結んで形成される三角形Tの外側にエリア41,42,43を配置している。すなわち、表示制御部33Aは、特定座標(Pos1,Pos2,Pos3)によって形成されて平面S3に含まれる三角形の外側に配置するよう座標画像(41,42,43)を表示部32に表示させる。これにより、座標画像(エリア41~43)が重ならないように表示させることができる。
エリア表示は、図11に示すように行ってもよい。図11では、教示点Pos1,Pos2,Pos3を結んで形成される三角形Tの外側にエリア41,42,43を配置している。すなわち、表示制御部33Aは、特定座標(Pos1,Pos2,Pos3)によって形成されて平面S3に含まれる三角形の外側に配置するよう座標画像(41,42,43)を表示部32に表示させる。これにより、座標画像(エリア41~43)が重ならないように表示させることができる。
<6.その他>
以上、本開示の実施形態を説明した。なお、本開示の範囲は上述の実施形態に限定されない。本開示は、発明の主旨を逸脱しない範囲で上述の実施形態に種々の変更を加えて実施することができる。また、上述の実施形態で説明した事項は、矛盾を生じない範囲で適宜任意に組み合わせることができる。
以上、本開示の実施形態を説明した。なお、本開示の範囲は上述の実施形態に限定されない。本開示は、発明の主旨を逸脱しない範囲で上述の実施形態に種々の変更を加えて実施することができる。また、上述の実施形態で説明した事項は、矛盾を生じない範囲で適宜任意に組み合わせることができる。
例えば、図3に示すようにすべての教示点Pおよび対応するエリア4が表示された場合に、任意のエリア4を3つ選択できるようにし、選択されたエリア4の3つの教示点Pを含む平面に基づいて視点位置および視線方向を決定してもよい。これにより、任意に選択された教示点の位置関係を把握しやすい。すなわち、すべての座標を示す座標画像(エリア4)のうち任意の3つの座標画像が選択された場合、決定部33Cは、3つの座標画像に対応する特定座標を含む平面に基づいて視点位置および視線方向を決定する。
<7.付記>
以上のように、本開示の一態様に係る表示装置(3)は、制御部(33)と、表示部(32)と、を備える。前記制御部(33)は、2つまたは3つの特定座標を含む平面に基づいて視点位置および視線方向を決定する決定部(33C)と、決定された前記視点位置および前記視線方向に基づき、前記特定座標を示す座標画像を含めた3D表示を前記表示部に表示させる表示制御部(33A)と、を有する(第1の構成)。
以上のように、本開示の一態様に係る表示装置(3)は、制御部(33)と、表示部(32)と、を備える。前記制御部(33)は、2つまたは3つの特定座標を含む平面に基づいて視点位置および視線方向を決定する決定部(33C)と、決定された前記視点位置および前記視線方向に基づき、前記特定座標を示す座標画像を含めた3D表示を前記表示部に表示させる表示制御部(33A)と、を有する(第1の構成)。
また、上記第1の構成において、前記特定座標は、ロボットの教示点である構成としてもよい(第2の構成)。
また、上記第2の構成において、前記座標画像は、前記ロボットへの指令を示す指令ブロックを配置するためのエリアを含む構成としてもよい(第3の構成)。
また、上記第3の構成において、前記指令ブロックには、配置された前記エリアの前記教示点からの移動開始を示す移動開始ブロックと、配置された前記エリアの前記教示点での移動完了を示す移動完了ブロックと、が含まれ、前記移動開始ブロックと前記移動完了ブロックは、関連付けられている構成としてもよい(第4の構成)。
また、上記第1から第4のいずれかの構成において、決定される前記視線方向は、前記平面に対して垂直な方向である構成としてもよい(第5の構成)。
また、上記第1から第5のいずれかの構成において、前記決定部は、現在選択されている第1座標画像に対応する前記特定座標と、選択された順番において前記第1座標画像の前の第2座標画像に対応する前記特定座標と、選択された順番において前記第1座標画像の後の第3座標画像に対応する前記特定座標と、を含む前記平面に基づいて前記視点位置および前記視線方向を決定する構成としてもよい(第6の構成)。
また、上記第1から第5のいずれかの構成において、前記決定部は、前記2つの特定座標と、前記2つの特定座標のうち1つに対して鉛直方向に位置する疑似特定座標と、を含む前記平面に基づいて前記視点位置および前記視線方向を決定する構成としてもよい(第7の構成)。
また、上記第1から第7のいずれかの構成において、前記表示制御部は、前記特定座標によって形成されて前記平面に含まれる三角形の外側に配置するよう前記座標画像を前記表示部に表示させる構成としてもよい(第8の構成)。
また、上記第1から第8のいずれかの構成において、前記特定座標が選択されていない場合、前記表示制御部は、前記特定座標を含むすべての座標を示す座標画像を前記表示部に表示させる構成としてもよい(第9の構成)。
また、上記第9の構成において、前記すべての座標を示す座標画像のうち任意の3つの前記座標画像が選択された場合、前記決定部は、前記3つの座標画像に対応する前記特定座標を含む平面に基づいて前記視点位置および前記視線方向を決定する構成としてもよい(第10の構成)。
また、本開示の一態様に係る表示方法は、制御部(33)と、表示部(32)と、を備える表示装置(3)による表示方法であって、前記制御部により、2つまたは3つの特定座標を含む平面に基づいて視点位置および視線方向を決定する決定ステップと、前記制御部により、決定された前記視点位置および前記視線方向に基づき、前記特定座標を示す座標画像を含めた3D表示を前記表示部に表示させる表示制御ステップと、を有する(第11の構成)。
また、本開示の一態様に係るプログラムは、制御部(33)と、表示部(32)と、を備える表示装置(3)に用いられるプログラムであって、前記制御部に、2つまたは3つの特定座標を含む平面に基づいて視点位置および視線方向を決定する決定ステップと、決定された前記視点位置および前記視線方向に基づき、前記特定座標を示す座標画像を含めた3D表示を前記表示部に表示させる表示制御ステップと、を実行させるためのプログラムである(第12の構成)。
本開示の技術は、例えば、各種ロボットを含めたシステムに利用することができる。
1 ロボット
2 ロボットコントローラ
3 プログラム生成装置(表示装置)
4 エリア
5 指令ブロック
6 線
10 ロボットシステム
21 教示点格納部
22 ロボットプログラム格納部
23 制御部
31 入力部
32 表示部
33 制御部
33A 表示制御部
33B 算出部
33C 決定部
33D プログラム生成部
41~43 エリア
51 移動開始ブロック
52 移動完了ブロック
Ed 視線方向
Ep 視点位置
G 重力方向
P 教示点
Pos1~Pos3 教示点
PosA,PosB 疑似教示点
S1~S3 平面
T 三角形
2 ロボットコントローラ
3 プログラム生成装置(表示装置)
4 エリア
5 指令ブロック
6 線
10 ロボットシステム
21 教示点格納部
22 ロボットプログラム格納部
23 制御部
31 入力部
32 表示部
33 制御部
33A 表示制御部
33B 算出部
33C 決定部
33D プログラム生成部
41~43 エリア
51 移動開始ブロック
52 移動完了ブロック
Ed 視線方向
Ep 視点位置
G 重力方向
P 教示点
Pos1~Pos3 教示点
PosA,PosB 疑似教示点
S1~S3 平面
T 三角形
Claims (12)
- 制御部と、表示部と、を備え、
前記制御部は、
2つまたは3つの特定座標を含む平面に基づいて視点位置および視線方向を決定する決定部と、
決定された前記視点位置および前記視線方向に基づき、前記特定座標を示す座標画像を含めた3D表示を前記表示部に表示させる表示制御部と、
を有する、表示装置。 - 前記特定座標は、ロボットの教示点である、請求項1に記載の表示装置。
- 前記座標画像は、前記ロボットへの指令を示す指令ブロックを配置するためのエリアを含む、請求項2に記載の表示装置。
- 前記指令ブロックには、
配置された前記エリアの前記教示点からの移動開始を示す移動開始ブロックと、
配置された前記エリアの前記教示点での移動完了を示す移動完了ブロックと、
が含まれ、
前記移動開始ブロックと前記移動完了ブロックは、関連付けられている、請求項3に記載の表示装置。 - 決定される前記視線方向は、前記平面に対して垂直な方向である、請求項1に記載の表示装置。
- 前記決定部は、現在選択されている第1座標画像に対応する前記特定座標と、選択された順番において前記第1座標画像の前の第2座標画像に対応する前記特定座標と、選択された順番において前記第1座標画像の後の第3座標画像に対応する前記特定座標と、を含む前記平面に基づいて前記視点位置および前記視線方向を決定する、請求項1に記載の表示装置。
- 前記決定部は、前記2つの特定座標と、前記2つの特定座標のうち1つに対して鉛直方向に位置する疑似特定座標と、を含む前記平面に基づいて前記視点位置および前記視線方向を決定する、請求項1に記載の表示装置。
- 前記表示制御部は、前記特定座標によって形成されて前記平面に含まれる三角形の外側に配置するよう前記座標画像を前記表示部に表示させる、請求項1に記載の表示装置。
- 前記特定座標が選択されていない場合、前記表示制御部は、前記特定座標を含む登録されているすべての座標を示す座標画像を前記表示部に表示させる、請求項1に記載の表示装置。
- 前記すべての座標を示す座標画像のうち任意の3つの前記座標画像が選択された場合、前記決定部は、前記3つの座標画像に対応する前記特定座標を含む平面に基づいて前記視点位置および前記視線方向を決定する、請求項9に記載の表示装置。
- 制御部と、表示部と、を備える表示装置による表示方法であって、
前記制御部により、2つまたは3つの特定座標を含む平面に基づいて視点位置および視線方向を決定する決定ステップと、
前記制御部により、決定された前記視点位置および前記視線方向に基づき、前記特定座標を示す座標画像を含めた3D表示を前記表示部に表示させる表示制御ステップと、
を有する、表示方法。 - 制御部と、表示部と、を備える表示装置に用いられるプログラムであって、
前記制御部に、
2つまたは3つの特定座標を含む平面に基づいて視点位置および視線方向を決定する決定ステップと、
決定された前記視点位置および前記視線方向に基づき、前記特定座標を示す座標画像を含めた3D表示を前記表示部に表示させる表示制御ステップと、
を実行させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022119557A JP2024017119A (ja) | 2022-07-27 | 2022-07-27 | 表示装置、表示方法、およびプログラム |
CN202310615027.0A CN117472243A (zh) | 2022-07-27 | 2023-05-29 | 显示装置、显示方法以及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022119557A JP2024017119A (ja) | 2022-07-27 | 2022-07-27 | 表示装置、表示方法、およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024017119A true JP2024017119A (ja) | 2024-02-08 |
Family
ID=89628117
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022119557A Pending JP2024017119A (ja) | 2022-07-27 | 2022-07-27 | 表示装置、表示方法、およびプログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2024017119A (ja) |
CN (1) | CN117472243A (ja) |
-
2022
- 2022-07-27 JP JP2022119557A patent/JP2024017119A/ja active Pending
-
2023
- 2023-05-29 CN CN202310615027.0A patent/CN117472243A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
CN117472243A (zh) | 2024-01-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11007646B2 (en) | Programming assistance apparatus, robot system, and method for generating program | |
JP6998660B2 (ja) | ロボットシミュレータ、ロボットシステム及びシミュレーション方法 | |
US11850755B2 (en) | Visualization and modification of operational bounding zones using augmented reality | |
JP6311421B2 (ja) | ティーチングシステム、ロボットシステムおよびティーチング方法 | |
TWI592776B (zh) | Robot action program generation method and robot action program generation device | |
JP3819883B2 (ja) | ロボットプログラム位置修正装置 | |
KR100929445B1 (ko) | 로봇 시뮬레이션장치 및 로봇 시뮬레이션 프로그램을 포함하는 기록매체 | |
JP4137909B2 (ja) | ロボットプログラム補正装置 | |
US11370105B2 (en) | Robot system and method for operating same | |
CN111487946B (zh) | 机器人系统 | |
JP2014097569A (ja) | ロボットシミュレータ用の教示点プログラム選択方法 | |
JP2016093869A (ja) | 教示データの作成方法、作成装置、及び作成プログラム、並びに、教示データのデータ構造、記録媒体 | |
JP2015174184A (ja) | 制御装置 | |
KR20170024769A (ko) | 로봇 제어 장치 | |
JP2020049569A (ja) | ロボットのプログラム作成支援装置 | |
US11865697B2 (en) | Robot system and method for operating same | |
US10507585B2 (en) | Robot system that displays speed | |
JP2003256025A (ja) | ロボット動作教示方法及び装置 | |
JPS6179589A (ja) | ロボツト運転装置 | |
JP2024017119A (ja) | 表示装置、表示方法、およびプログラム | |
JP7260405B2 (ja) | オフラインプログラミング装置、ロボット制御装置および拡張現実システム | |
JPH10264065A (ja) | ロボットの遠隔操作支援装置 | |
KR102403021B1 (ko) | 로봇 교시 장치 및 이를 이용한 로봇 교시 방법 | |
JP2015016536A (ja) | ロボット制御システム、ロボット、経路作成装置、経路作成方法及び経路作成プログラム | |
US20230286153A1 (en) | Path generation for manual robot teaching |