JP2023017441A - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP2023017441A
JP2023017441A JP2021121724A JP2021121724A JP2023017441A JP 2023017441 A JP2023017441 A JP 2023017441A JP 2021121724 A JP2021121724 A JP 2021121724A JP 2021121724 A JP2021121724 A JP 2021121724A JP 2023017441 A JP2023017441 A JP 2023017441A
Authority
JP
Japan
Prior art keywords
dimensional model
image
robot
operation instruction
instruction member
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021121724A
Other languages
Japanese (ja)
Inventor
雄太 鳴川
Yuta Narukawa
直樹 古川
Naoki Furukawa
梓紗 檀上
Azusa Danjo
豊和 北野
Toyokazu Kitano
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daihen Corp
Original Assignee
Daihen Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daihen Corp filed Critical Daihen Corp
Priority to JP2021121724A priority Critical patent/JP2023017441A/en
Publication of JP2023017441A publication Critical patent/JP2023017441A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Processing Or Creating Images (AREA)

Abstract

To solve the problem that is difficult to intuitively perform operation to a virtual robot, because an operator cannot sense touch to the virtual robot.SOLUTION: An image processing device 3 comprises: a storing part 31 that stores a three-dimensional model of a virtual robot; an operation obtaining part 34 that obtains a position of an operation instructing member existing in an actual environment and obtains operation to a portion corresponding to the operation instructing member in the three-dimensional model; a positional relation obtaining part 32 that obtains a relative positional relation between the actual environment and a display device 4 that displays an image while superimposing the image on an image of the actual environment or on the actual environment; an image generating part 35 that generates a display image for displaying the operated three-dimensional model, on a predetermined position in the actual environment, on the basis of the three-dimensional model and the relative positional relation; and an image output part 36 that outputs the display image to the display device 4. Thus, the virtual robot can be operated using the operation instructing member in the actual environment, which enables operation to the virtual robot to be performed more intuitively.SELECTED DRAWING: Figure 1

Description

本発明は、操作対象の仮想ロボットの3次元モデルの表示画像を生成する画像処理装置に関する。 The present invention relates to an image processing apparatus that generates a display image of a three-dimensional model of a virtual robot to be operated.

作業者が、仮想ロボットの3次元モデルをジェスチャ操作によって操作することにより、実ロボットを操作することがあった(例えば、特許文献1参照)。そして、例えば、3次元モデルの手先のツールや、その他の箇所などを作業者が指で押したり、指でつかんで移動させたりすることによって、仮想空間での直接教示が行われることがあった。 A worker sometimes manipulates a real robot by manipulating a three-dimensional model of a virtual robot through gesture manipulation (see, for example, Patent Document 1). Then, for example, direct teaching in the virtual space may be performed by the operator pushing or grasping and moving a tool at the end of the three-dimensional model or other parts with a finger. .

特開2020-055075号公報JP 2020-055075 A

しかしながら、仮想ロボットの3次元モデルを用いて操作を行う場合には、操作を行っている作業者に触っている感覚がないため、直感的な操作を行いにくいという問題があった。例えば、実ロボットのツールを手で移動させることによって直接教示を行う場合には、手でツールをつかんでいる感覚があるため、作業者は、ツールの位置や姿勢を手で変更した際に、その手の感覚によっても、想定している変更を実現できたかどうかを確認することができる。一方、仮想空間での3次元モデルの操作の場合には、つかんでいる感覚が得られないため、想定している変更を実現できたかどうかは、表示される3次元モデルの形状を見て判断するしかなく、想定している変更を実現できたかどうかを判断しにくいという問題があった。また、その結果として、作業者による操作の結果が、想定しているものにならないということもあった。 However, when performing an operation using a three-dimensional model of a virtual robot, there is a problem that it is difficult to perform an intuitive operation because the operator who is performing the operation does not have a sense of touch. For example, when direct teaching is performed by moving a tool of a real robot by hand, the operator feels as if he or she is grasping the tool by hand. It is possible to confirm whether or not the expected change has been realized by the feeling of the hand. On the other hand, when manipulating a 3D model in virtual space, it is not possible to get the feeling of grasping it. There was a problem that it was difficult to judge whether the expected changes were realized. Moreover, as a result, the result of the operator's operation may not be as expected.

本発明は、上記課題を解決するためになされたものであり、作業者が仮想空間上の仮想ロボットの3次元モデルに対して操作を行う場合であっても、より実ロボットに近い操作を行うことができるようにするための画像処理装置を提供することを目的とする。 The present invention has been made to solve the above-mentioned problems, and even when a worker operates a three-dimensional model of a virtual robot in a virtual space, the operation is more similar to that of a real robot. It is an object of the present invention to provide an image processing apparatus capable of

上記目的を達成するため、本発明の一態様による画像処理装置は、実環境に存在する実ロボットに対応する仮想ロボットの3次元モデルが記憶される記憶部と、実環境に存在する操作指示部材の位置を取得し、その位置に応じて、仮想ロボットの3次元モデルにおける操作指示部材に対応する箇所に対する操作を取得する操作取得部と、実ロボットの存在する実環境と、画像を実環境の画像または実環境そのものに重ねて表示する表示装置との相対的な位置関係を取得する位置関係取得部と、3次元モデルと相対的な位置関係とに基づいて、実環境における所定の位置に、操作された3次元モデルを表示するための表示画像を生成する画像生成部と、表示画像を表示装置に出力する画像出力部と、を備えたものである。 To achieve the above object, an image processing apparatus according to an aspect of the present invention includes a storage unit storing a three-dimensional model of a virtual robot corresponding to a real robot existing in the real environment, and an operation instruction member existing in the real environment. and acquires an operation for a location corresponding to the operation instruction member in the three-dimensional model of the virtual robot according to the position, a real environment where the real robot exists, and an image of the real environment. At a predetermined position in the real environment based on the positional relationship acquisition unit that acquires the relative positional relationship with the display device that is superimposed on the image or the real environment itself, and the relative positional relationship with the three-dimensional model, The apparatus includes an image generation unit that generates a display image for displaying an operated three-dimensional model, and an image output unit that outputs the display image to a display device.

本発明の一態様による画像処理装置によれば、実環境に存在する操作指示部材を用いて行われた作業者による操作に応じて、仮想ロボットの3次元モデルへの操作を取得し、それに応じた表示画像を生成することができる。したがって、作業者は、操作指示部材の位置や姿勢を変更させることによって仮想ロボットの3次元モデルを操作できるため、仮想空間上での仮想ロボットの3次元モデルへの操作でありながら、より実ロボットを操作しているのに近い感覚を得ることができるようになる。その結果、作業者による操作の結果が想定していないものになる可能性を低減することができる。 According to an image processing apparatus according to an aspect of the present invention, an operation of a virtual robot on a three-dimensional model is obtained in accordance with an operation performed by a worker using an operation instruction member existing in a real environment, and display image can be generated. Therefore, since the operator can operate the three-dimensional model of the virtual robot by changing the position and posture of the operation instruction member, it is possible to operate the three-dimensional model of the virtual robot in the virtual space, while the operator can operate the three-dimensional model of the virtual robot in a virtual space. You will be able to get a feeling close to operating the . As a result, it is possible to reduce the possibility that the operator's operation will result in an unexpected result.

本発明の実施の形態によるロボット制御システムの構成を示す模式図Schematic diagram showing the configuration of a robot control system according to an embodiment of the present invention. 同実施の形態による画像処理装置の動作を示すフローチャート3 is a flow chart showing the operation of the image processing apparatus according to the same embodiment; 同実施の形態における操作の一例について説明するための図A diagram for explaining an example of an operation in the same embodiment. 同実施の形態における操作の一例について説明するための図A diagram for explaining an example of an operation in the same embodiment. 同実施の形態における操作の一例について説明するための図A diagram for explaining an example of an operation in the same embodiment. 同実施の形態における操作指示部材と3次元モデルとの関係の一例を示す図A diagram showing an example of the relationship between an operation instruction member and a three-dimensional model in the same embodiment. 同実施の形態における操作指示部材と3次元モデルとの関係の一例を示す図A diagram showing an example of the relationship between an operation instruction member and a three-dimensional model in the same embodiment.

以下、本発明による画像処理装置について、実施の形態を用いて説明する。なお、以下の実施の形態において、同じ符号を付した構成要素及びステップは同一または相当するものであり、再度の説明を省略することがある。本実施の形態による画像処理装置は、仮想ロボットの3次元モデルへの操作を、操作指示部材の位置等に応じて取得するものである。 An image processing apparatus according to the present invention will be described below using embodiments. In the following embodiments, constituent elements and steps with the same reference numerals are the same or correspond to each other, and repetitive description may be omitted. The image processing apparatus according to the present embodiment acquires the operation of the virtual robot on the three-dimensional model according to the position of the operation instruction member and the like.

図1は、本実施の形態によるロボット制御システム100の構成を示す模式図である。本実施の形態によるロボット制御システム100は、仮想ロボットを操作するためのものであり、画像処理装置3と、表示装置4とを備える。なお、画像処理装置3と表示装置4とは、例えば、有線または無線で接続されてもよい。また、仮想ロボットの3次元モデルが操作されることによって、実ロボットであるロボット1が操作される場合には、ロボット制御システム100は、例えば、ロボット1と、ロボット1の動作を制御するロボット制御装置とをさらに備えてもよい。仮想ロボットの3次元モデルを介したロボット1の操作は、例えば、教示のために行われてもよく、到達可能範囲などの確認のために行われてもよい。3次元モデルが操作されることによってロボット1が操作される場合には、例えば、ロボット1の各関節の角度が3次元モデルの各関節の角度と同じとなるようにロボット1が操作されてもよい。 FIG. 1 is a schematic diagram showing the configuration of a robot control system 100 according to this embodiment. A robot control system 100 according to this embodiment is for operating a virtual robot, and includes an image processing device 3 and a display device 4 . Note that the image processing device 3 and the display device 4 may be connected by wire or wirelessly, for example. Further, when the robot 1, which is a real robot, is operated by operating the three-dimensional model of the virtual robot, the robot control system 100 includes, for example, the robot 1 and a robot control system for controlling the motion of the robot 1. and a device. Manipulation of the robot 1 via the three-dimensional model of the virtual robot may be performed, for example, for teaching purposes or for confirmation of reachable ranges and the like. When the robot 1 is manipulated by manipulating the three-dimensional model, for example, the robot 1 may be manipulated so that the angles of the joints of the robot 1 are the same as the angles of the joints of the three-dimensional model. good.

操作対象の仮想ロボットは、仮想環境に存在する3次元モデルによって構成されるものであり、実環境に存在する実ロボットに対応したものである。すなわち、仮想ロボットは、3次元モデルで構成されている以外は、実ロボットと同じであり、例えば、実ロボットと同じサイズ及び構成であってもよく、実ロボットと同様に、複数のアームの関節の角度などを変更可能になっていてもよい。 The virtual robot to be operated is configured by a three-dimensional model that exists in the virtual environment, and corresponds to the real robot that exists in the real environment. That is, the virtual robot is the same as the real robot, except that it is configured as a three-dimensional model. For example, it may have the same size and configuration as the real robot. , etc. may be changeable.

実ロボットは、通常、産業用ロボットであり、モータにより駆動される関節によって連結された複数のアーム(リンク)を有するマニピュレータであってもよい。実ロボットは、例えば、垂直多関節ロボットであってもよく、水平多関節ロボットであってもよい。また、実ロボットは、例えば、搬送ロボットであってもよく、溶接ロボットであってもよく、組立ロボットであってもよく、塗装ロボットであってもよく、または、その他の用途のロボットであってもよい。なお、実ロボットは、実環境に存在するロボットである。実環境とは、実空間の環境のことである。ロボット制御装置は、ロボット1の動作を制御する。ロボット1を動作させるロボット制御装置は、すでに公知であり、その詳細な説明を省略する。なお、ロボット制御システム100が、例えば、溶接ロボットであるロボット1を有している場合には、必要に応じて溶接電源やワイヤ送給装置等をさらに有していてもよい。 Real robots are typically industrial robots and may be manipulators with multiple arms (links) connected by motor-driven joints. The real robot may be, for example, a vertical articulated robot or a horizontal articulated robot. Further, the actual robot may be, for example, a transport robot, a welding robot, an assembly robot, a painting robot, or a robot for other purposes. good too. A real robot is a robot that exists in a real environment. The real environment is the environment of the real space. The robot control device controls the motion of the robot 1 . A robot control device that operates the robot 1 is already known, and a detailed description thereof will be omitted. For example, when the robot control system 100 includes the robot 1, which is a welding robot, the robot control system 100 may further include a welding power supply, a wire feeder, and the like as necessary.

画像処理装置3は、実環境の所定の位置に、仮想ロボットの3次元モデルを表示するための表示画像を生成して表示装置4に出力するものである。なお、仮想ロボットの3次元モデルの表示画像は、仮想ロボットの3次元モデルと、実環境に存在する実ロボットであるロボット1とが所定の位置関係となるように生成されてもよい。画像処理装置3の詳細については後述する。 The image processing device 3 generates a display image for displaying a three-dimensional model of the virtual robot at a predetermined position in the real environment, and outputs the display image to the display device 4 . The display image of the three-dimensional model of the virtual robot may be generated so that the three-dimensional model of the virtual robot and the robot 1, which is a real robot existing in the real environment, have a predetermined positional relationship. Details of the image processing device 3 will be described later.

表示装置4は、画像を実環境の画像または実環境そのものに重ねて表示する。すなわち、仮想ロボットを操作する作業者は、表示装置4によって、実環境と仮想環境の画像との両方を見ることができる。表示装置4は、仮想ロボットを操作する作業者が頭部に装着する装着型の表示装置であってもよく、または、タブレット端末などの可搬型の情報処理端末である表示装置であってもよい。装着型の表示装置は、例えば、ヘッドマウントディスプレイであってもよい。また、表示装置4は、例えば、透過型ディスプレイを有するものであってもよい。この場合には、表示装置4は、画像を実環境そのものに重ねて表示することになる。透過型ディスプレイを有する装着型の表示装置4としては、例えば、HoloLens(登録商標)等が知られている。このような透過型ディスプレイを有する表示装置4は、複合現実(MR:Mixed Reality)を実現するための表示装置であると考えることもできる。また、表示装置4は、例えば、非透過型ディスプレイを有するものであってもよい。この場合には、表示装置4は、画像を実環境の画像に重ねて表示することになる。したがって、非透過型ディスプレイを有する表示装置4は、実環境を撮影するためのカメラを有しているか、または、実環境を撮影するカメラと接続されていることが好適である。カメラで撮影された実環境の画像は、リアルタイムで非透過型ディスプレイに表示される。非透過型ディスプレイを有する装着型の表示装置4としては、例えば、Oculus Quest等が知られている。このような非透過型ディスプレイを有する表示装置4は、拡張現実(AR:Augmented Reality)を実現するための表示装置であると考えることもできる。タブレット端末などの可搬型の情報処理端末である表示装置4は、例えば、カメラとディスプレイとを有しており、カメラで撮影した実環境の画像をリアルタイムでティスプレイに表示してもよい。本実施の形態では、表示装置4が透過型のディスプレイを有するヘッドマウントディスプレイである場合について主に説明する。 The display device 4 displays the image superimposed on the image of the real environment or the real environment itself. In other words, the operator who operates the virtual robot can see both the images of the real environment and the virtual environment on the display device 4 . The display device 4 may be a wearable display device worn on the head by the operator who operates the virtual robot, or may be a display device that is a portable information processing terminal such as a tablet terminal. . The wearable display device may be, for example, a head-mounted display. Moreover, the display device 4 may have, for example, a transmissive display. In this case, the display device 4 displays the image superimposed on the real environment itself. HoloLens (registered trademark), for example, is known as a wearable display device 4 having a transmissive display. The display device 4 having such a transmissive display can also be considered as a display device for realizing mixed reality (MR). The display device 4 may also have, for example, a non-transmissive display. In this case, the display device 4 displays the image superimposed on the image of the real environment. Therefore, the display device 4 having a non-transmissive display preferably has a camera for photographing the real environment or is connected to a camera for photographing the real environment. Images of the real environment captured by the camera are displayed in real time on the non-transmissive display. Oculus Quest, for example, is known as a wearable display device 4 having a non-transmissive display. The display device 4 having such a non-transmissive display can also be considered as a display device for realizing augmented reality (AR). The display device 4, which is a portable information processing terminal such as a tablet terminal, has, for example, a camera and a display, and may display an image of the real environment captured by the camera on the display in real time. In this embodiment, the case where the display device 4 is a head-mounted display having a transmissive display will be mainly described.

図1で示されるように、本実施の形態による画像処理装置3は、記憶部31と、位置関係取得部32と、受付部33と、操作取得部34と、画像生成部35と、画像出力部36とを備える。 As shown in FIG. 1, the image processing apparatus 3 according to the present embodiment includes a storage unit 31, a positional relationship acquisition unit 32, a reception unit 33, an operation acquisition unit 34, an image generation unit 35, and an image output unit. a portion 36;

記憶部31では、実環境に存在する実ロボットに対応する仮想ロボットの3次元モデルが記憶される。この仮想ロボットの3次元モデルは、例えば、操作対象の実ロボットに対応する仮想ロボットの3次元モデルであってもよい。仮想ロボットの3次元モデルは、例えば、複数の部分オブジェクトから構成されてもよい。各部分オブジェクトは、マニピュレータの3次元モデルの各アームや手先のツールなどに対応していてもよい。また、3次元モデル以外の情報が記憶部31で記憶されてもよい。例えば、教示データ等が記憶部31で記憶されてもよい。記憶部31に情報が記憶される過程は問わない。例えば、記録媒体を介して情報が記憶部31で記憶されるようになってもよく、通信回線等を介して送信された情報が記憶部31で記憶されるようになってもよい。記憶部31は、不揮発性の記録媒体によって実現されることが好適であるが、揮発性の記録媒体によって実現されてもよい。記録媒体は、例えば、半導体メモリや磁気ディスク、光ディスクなどであってもよい。 The storage unit 31 stores a three-dimensional model of a virtual robot corresponding to a real robot existing in the real environment. This three-dimensional model of the virtual robot may be, for example, a three-dimensional model of the virtual robot corresponding to the real robot to be operated. A three-dimensional model of a virtual robot may be composed of, for example, a plurality of partial objects. Each partial object may correspond to each arm or hand tool of the three-dimensional model of the manipulator. Information other than the three-dimensional model may also be stored in the storage unit 31 . For example, teaching data or the like may be stored in the storage unit 31 . The process by which information is stored in the storage unit 31 does not matter. For example, information may be stored in the storage section 31 via a recording medium, or information transmitted via a communication line or the like may be stored in the storage section 31 . The storage unit 31 is preferably implemented by a non-volatile recording medium, but may be implemented by a volatile recording medium. The recording medium may be, for example, a semiconductor memory, a magnetic disk, an optical disk, or the like.

位置関係取得部32は、実ロボットの存在する実環境と、表示装置4との相対的な位置関係を取得する。その実環境には、例えば、実ロボットであるロボット1が存在してもよい。実環境と表示装置4との相対的な位置関係を取得するとは、例えば、実環境の座標系であるワールド座標系と、表示装置4のローカル座標系である表示座標系との相対的な位置関係を取得することであってもよい。その相対的な位置関係は、例えば、両座標系間の変換を示す同次変換行列によって示されてもよい。なお、実環境と表示装置4との相対的な位置関係は、例えば、実環境に存在するロボット1や他のオブジェクトと、表示装置4との相対的な位置関係であってもよく、実環境における表示装置4の位置や姿勢を示す情報であってもよい。 The positional relationship acquisition unit 32 acquires the relative positional relationship between the real environment in which the real robot exists and the display device 4 . For example, a robot 1, which is a real robot, may exist in the real environment. Acquiring the relative positional relationship between the real environment and the display device 4 means, for example, obtaining the relative position between the world coordinate system, which is the coordinate system of the real environment, and the display coordinate system, which is the local coordinate system of the display device 4. It may be to obtain a relationship. The relative positional relationship may be indicated, for example, by a homogeneous transformation matrix that indicates transformation between both coordinate systems. The relative positional relationship between the real environment and the display device 4 may be, for example, the relative positional relationship between the robot 1 or other objects existing in the real environment and the display device 4. may be information indicating the position and orientation of the display device 4 in .

位置関係取得部32が、この相対的な位置関係を取得する方法は問わない。例えば、実環境の環境地図が用意されている場合には、位置関係取得部32は、実環境の環境地図と、表示装置4によって取得された周囲の物体までの距離や周囲の画像とを用いて、SLAM(Simultaneous Localization and Mapping)や、Visual-SLAMの手法を用いて、3次元の実環境における表示装置4の位置や姿勢を示す情報である相対的な位置関係を取得してもよい。この場合には、例えば、画像処理装置3において環境地図が保持されており、位置関係取得部32は、表示装置4から受け取った周囲の物体までの距離や周囲の画像と、環境地図とを用いて、相対的な位置関係を取得してもよい。また、例えば、SLAMやVisual-SLAMの手法を用いた相対的な位置関係の取得は表示装置4において行われ、その相対的な位置関係が位置関係取得部32に渡されてもよい。この場合には、位置関係取得部32による相対的な位置関係の取得は、相対的な位置関係の受け付けであってもよい。また、この場合には、表示装置4は、周囲の物体までの距離を測定可能な深度センサや、周囲の画像を取得可能なカメラを有していてもよい。また、位置関係取得部32は、表示装置4のカメラで撮影された画像を受け取り、その画像に含まれるロボット1や他のオブジェクトの3以上の特徴点を用いて、ワールド座標系と表示座標系との間の変換を示す同次変換行列を取得してもよい。 The method by which the positional relationship acquisition unit 32 acquires this relative positional relationship does not matter. For example, when an environment map of the real environment is prepared, the positional relationship acquisition unit 32 uses the environment map of the real environment and the distance to the surrounding objects and the image of the surroundings acquired by the display device 4. Alternatively, SLAM (Simultaneous Localization and Mapping) or Visual-SLAM techniques may be used to obtain the relative positional relationship, which is information indicating the position and orientation of the display device 4 in the three-dimensional real environment. In this case, for example, an environment map is held in the image processing device 3, and the positional relationship acquisition unit 32 uses the distance to the surrounding objects and the surrounding image received from the display device 4, and the environment map. to obtain the relative positional relationship. Further, for example, acquisition of the relative positional relationship using the SLAM or Visual-SLAM technique may be performed in the display device 4 and the relative positional relationship may be passed to the positional relationship acquiring section 32 . In this case, the acquisition of the relative positional relationship by the positional relationship acquiring unit 32 may be reception of the relative positional relationship. Also, in this case, the display device 4 may have a depth sensor capable of measuring the distance to surrounding objects and a camera capable of acquiring surrounding images. In addition, the positional relationship acquisition unit 32 receives an image captured by the camera of the display device 4, and uses three or more feature points of the robot 1 and other objects included in the image to determine the world coordinate system and the display coordinate system. A homogeneous transformation matrix may be obtained that indicates the transformation between and .

また、位置関係取得部32は、上記した以外の方法によって、実環境と表示装置4との相対的な位置関係を取得してもよい。その方法の一例については、例えば、上記特許文献1等を参照されたい。また、後述する表示画像の生成ごとに、位置関係取得部32によって上記のようにして相対的な位置関係が取得されてもよく、または、そうでなくてもよい。後者の場合には、例えば、相対的な位置関係が取得された後の表示装置4の位置や姿勢の変化を用いて、実環境と表示装置4との相対的な位置関係が更新されてもよい。この更新は、例えば、位置関係取得部32によって行われてもよい。また、この更新が行われる場合には、表示装置4は、例えば、加速度センサや表示装置4の向きを取得するためのセンサ等を備えており、それらのセンサを用いて位置の変化や姿勢の変化が取得されてもよい。なお、それらのセンサによって取得された値は、例えば、位置関係取得部32などの相対的な位置関係を更新する構成要素に渡されてもよい。表示装置4の向きを取得するためのセンサは、例えば、ジャイロセンサや方位センサ等であってもよい。 Further, the positional relationship acquisition unit 32 may acquire the relative positional relationship between the real environment and the display device 4 by a method other than the above. For an example of the method, see, for example, the above-mentioned Patent Document 1 and the like. Also, the relative positional relationship may or may not be acquired by the positional relationship acquiring unit 32 as described above each time a display image to be described later is generated. In the latter case, for example, even if the relative positional relationship between the real environment and the display device 4 is updated using changes in the position and orientation of the display device 4 after the relative positional relationship is obtained, good. This update may be performed by the positional relationship acquisition unit 32, for example. Further, when this update is performed, the display device 4 is provided with, for example, an acceleration sensor and a sensor for acquiring the orientation of the display device 4, and these sensors are used to detect changes in position and orientation. Changes may be obtained. Note that the values acquired by those sensors may be passed to a component that updates the relative positional relationship, such as the positional relationship acquiring unit 32, for example. A sensor for acquiring the orientation of the display device 4 may be, for example, a gyro sensor, an orientation sensor, or the like.

受付部33は、操作指示部材5を用いた操作の開始時点を指示する開始指示と、その操作の終了時点を指示する終了指示とを受け付ける。開始指示及び終了指示は、例えば、「操作開始」「操作終了」などの音声によって入力されてもよく、入力デバイスや、表示装置4の仮想入力インターフェースを介して入力されてもよい。 The accepting unit 33 accepts a start instruction for instructing the start point of an operation using the operation instruction member 5 and an end instruction for instructing the end point of the operation. The start instruction and the end instruction may be input by voice such as “start operation” and “end operation”, or may be input via an input device or a virtual input interface of the display device 4 .

音声入力が行われる場合には、受付部33は、作業者による「操作開始」「操作終了」などの発声に応じた音声をマイク等で受け付け、その音声を信号に変換した音声信号について音声認識を行い、その音声認識の結果であるテキスト情報が、「操作開始(そうさかいし)」であるときに、開始指示を受け付けたと判断してもよい。終了指示についても同様である。なお、受付部33は、音声認識の結果に対応する開始指示または終了指示を、他の構成要素や他の装置から受け付けてもよい。 When a voice input is performed, the reception unit 33 receives a voice corresponding to an utterance such as "operation start" or "operation end" by the operator with a microphone or the like, and converts the voice into a signal for voice recognition. may be performed, and the start instruction may be determined to have been received when the text information, which is the result of the voice recognition, is "operation start". The same applies to the end instruction. Note that the reception unit 33 may receive a start instruction or an end instruction corresponding to the result of voice recognition from another component or another device.

また、入力デバイスは、例えば、開始指示を入力するための物理ボタンや、終了指示を入力するための物理ボタンを有するものであってもよい。そして、例えば、作業者が開始指示を入力するための物理ボタンを押下した場合に、受付部33は、開始指示を受け付けたと判断してもよい。終了指示についても同様である。 Also, the input device may have, for example, a physical button for inputting a start instruction and a physical button for inputting an end instruction. Then, for example, when the worker presses a physical button for inputting the start instruction, the reception unit 33 may determine that the start instruction has been received. The same applies to the end instruction.

また、作業者は、例えば、エアタップなどの動作に応じて表示装置4のディスプレイに仮想ボタンなどの仮想入力インターフェースを表示させてもよい。そして、例えば、作業者の指やポインティングデバイスによって、開始指示を入力するための仮想ボタンが選択され、その仮想ボタンが選択された旨が受付部33に入力された場合に、受付部33は、開始指示を受け付けたと判断してもよい。終了指示についても同様である。 Further, the operator may display a virtual input interface such as a virtual button on the display of the display device 4 according to an action such as air tapping. Then, for example, when a virtual button for inputting a start instruction is selected by an operator's finger or a pointing device, and the fact that the virtual button has been selected is input to the receiving unit 33, the receiving unit 33 It may be determined that the start instruction has been received. The same applies to the end instruction.

なお、受付部33は、受け付けを行うためのデバイス(例えば、マイクや、入力デバイス、通信デバイスなど)を含んでもよく、または含まなくてもよい。また、受付部33は、ハードウェアによって実現されてもよく、または所定のデバイスを駆動するドライバ等のソフトウェアによって実現されてもよい。 Note that the reception unit 33 may or may not include a device for reception (for example, a microphone, an input device, a communication device, etc.). Further, the reception unit 33 may be realized by hardware, or may be realized by software such as a driver for driving a predetermined device.

操作取得部34は、実環境に存在する操作指示部材5の位置を取得する。操作取得部34は、例えば、操作指示部材5の位置と姿勢を取得してもよい。操作指示部材5の形状は特に限定されないが、例えば、棒状の部材であってもよく、それ以外の形状の部材であってもよい。棒状の部材は、例えば、円柱形状の部材や、多角柱形状の部材などであってもよい。また、図1で示されるように、棒状の部材である操作指示部材5は、例えば、一端側が尖っているなどのように、長手方向の両端の形状が異なっていることによって、向きを判別できるようになっていてもよい。操作指示部材5として、例えば、ペンや鉛筆などの筆記具が用いられてもよい。本実施の形態では、操作指示部材5が棒状の部材である場合について主に説明し、それ以外の場合については後述する。操作指示部材5は、通常、作業者の手で動かされる。操作指示部材5は、例えば、ペンなどの筆記具と同程度の大きさであり、作業者が筆記具と同様に手で保持して移動させてもよい。操作指示部材5の位置や姿勢によって、例えば、仮想ロボットの3次元モデルの手先に装着されたツールの位置や姿勢が示されてもよく、仮想ロボットの3次元モデルのTCP(ツールセンターポイント)の位置や姿勢が示されてもよく、仮想ロボットの3次元モデルにおける所定の箇所(例えば、所定のアームなど)の位置や姿勢が示されてもよい。操作指示部材5に対応する3次元モデルの箇所は、あらかじめ決まっていてもよく、または、作業者が決めることができてもよい。本実施の形態では、操作指示部材5の位置や姿勢によって、3次元モデルの手先のツールの位置や姿勢が示される場合について主に説明する。 The operation acquisition unit 34 acquires the position of the operation instruction member 5 existing in the actual environment. The operation acquisition unit 34 may acquire the position and orientation of the operation instruction member 5, for example. Although the shape of the operation instruction member 5 is not particularly limited, it may be, for example, a rod-shaped member or a member having other shapes. The rod-shaped member may be, for example, a columnar member or a polygonal columnar member. Further, as shown in FIG. 1, the operation instruction member 5, which is a rod-shaped member, has different shapes at both ends in the longitudinal direction, such as one end being pointed, so that the orientation can be determined. It can be like this. As the operation instruction member 5, for example, a writing implement such as a pen or a pencil may be used. In this embodiment, the case where the operation instructing member 5 is a rod-shaped member will be mainly described, and other cases will be described later. The operation instructing member 5 is usually moved manually by the operator. The operation instruction member 5 is, for example, about the same size as a writing instrument such as a pen, and may be held and moved by the operator's hand in the same manner as the writing instrument. The position and orientation of the operation instruction member 5 may indicate, for example, the position and orientation of a tool attached to the hand of the three-dimensional model of the virtual robot, and the TCP (tool center point) of the three-dimensional model of the virtual robot. The position and orientation may be indicated, and the position and orientation of a predetermined portion (for example, a predetermined arm, etc.) in the three-dimensional model of the virtual robot may be indicated. The location of the three-dimensional model corresponding to the operation instructing member 5 may be determined in advance, or may be determined by the operator. In this embodiment, the case where the position and orientation of the operation instructing member 5 indicates the position and orientation of the hand tool of the three-dimensional model will be mainly described.

操作取得部34が操作指示部材5の位置や姿勢を取得する方法は問わない。操作指示部材5の位置や姿勢を取得するとは、例えば、所定の座標系における操作指示部材5の位置や姿勢を特定することであってもよい。この位置や姿勢の取得がリアルタイムで繰り返されることによって、結果として、操作指示部材5の動きが取得されることになる。その座標系は、例えば、ワールド座標系であってもよく、表示装置4のローカル座標系であってもよく、その他の座標系であってもよい。なお、操作取得部34が操作指示部材5の位置を取得する場合には、例えば、操作指示部材5の所定の箇所(例えば、図1で示される操作指示部材5の下方側の尖端など)の位置を取得してもよい。この位置は、例えば、3次元直交座標系における座標値で示されてもよい。また、操作取得部34が操作指示部材5の姿勢を取得する場合には、例えば、棒状である操作指示部材5の長手方向の角度と、棒状である操作指示部材5の長手方向の軸を中心とする回転角度とを取得してもよい。また、この姿勢は、例えば、ロール、ピッチ、ヨー角や、オイラー角などによって示されてもよい。なお、棒状である操作指示部材5の長手方向の軸を中心とする回転角度も取得される場合や、姿勢に応じた3つの自由度の角度が取得される場合には、操作指示部材5の表面(例えば、円柱形状である操作指示部材5の円周面など)に、所定の模様や突起、凹部などが設けられており、例えば、操作指示部材5の長手方向の軸を中心とする回転角度が分かるようになっていてもよい。本実施の形態では、操作取得部34が、操作指示部材5の位置及び姿勢の両方を取得する場合について主に説明する。 Any method may be used by which the operation acquisition unit 34 acquires the position and orientation of the operation instruction member 5 . Acquiring the position and orientation of the operation instruction member 5 may be, for example, specifying the position and orientation of the operation instruction member 5 in a predetermined coordinate system. By repeating the acquisition of the position and orientation in real time, the movement of the operation instructing member 5 is acquired as a result. The coordinate system may be, for example, the world coordinate system, the local coordinate system of the display device 4, or any other coordinate system. When the operation acquisition unit 34 acquires the position of the operation instruction member 5, for example, a predetermined portion of the operation instruction member 5 (for example, the tip on the lower side of the operation instruction member 5 shown in FIG. 1) You can get the position. This position may be indicated, for example, by coordinate values in a three-dimensional orthogonal coordinate system. Further, when the operation acquisition unit 34 acquires the posture of the operation instruction member 5, for example, the angle of the rod-shaped operation instruction member 5 in the longitudinal direction and the longitudinal axis of the rod-shaped operation instruction member 5 are taken as the center. and a rotation angle of . This attitude may also be indicated by, for example, roll, pitch and yaw angles, Euler angles, and the like. Note that when the rotation angle about the longitudinal axis of the rod-shaped operation instruction member 5 is also acquired, or when the angles of the three degrees of freedom according to the posture are acquired, the operation instruction member 5 A surface (for example, the circumferential surface of the operation instruction member 5 having a cylindrical shape) is provided with a predetermined pattern, protrusions, recesses, or the like. You may come to know an angle. In the present embodiment, a case where the operation acquisition unit 34 acquires both the position and orientation of the operation instruction member 5 will be mainly described.

操作取得部34は、例えば、操作指示部材5の撮影画像を用いて、その位置等を取得してもよい。この場合には、画像の撮影は、例えば、表示装置4が有するカメラを用いて行われてもよく、実環境の所定の位置に配置されているカメラを用いて行われてもよい。頭部装着型の表示装置4に実環境を撮影するためのカメラが装着されている場合には、そのカメラは、表示装置4を装着する作業者の視線方向と同じ方向の撮影画像を取得するように配置されていることが好適である。また、実環境にカメラが配置されている場合には、そのカメラは、操作指示部材5が作業者によって移動される領域を撮影可能となるように配置されていることが好適である。操作取得部34は、例えば、撮影画像を用いて操作指示部材5の特定及びトラッキングを行い、その結果を用いて、操作指示部材5の位置等を取得してもよい。 The operation acquisition unit 34 may acquire the position and the like using, for example, a photographed image of the operation instruction member 5 . In this case, the image may be captured using, for example, a camera included in the display device 4, or may be performed using a camera arranged at a predetermined position in the real environment. When a camera for photographing the actual environment is attached to the head-mounted display device 4, the camera obtains a photographed image in the same direction as the line of sight of the worker wearing the display device 4. It is preferred that they are arranged as follows. Moreover, when a camera is arranged in the real environment, it is preferable that the camera be arranged so as to be able to photograph the area where the operation instruction member 5 is moved by the operator. The operation acquisition unit 34 may, for example, identify and track the operation instruction member 5 using the captured image, and acquire the position and the like of the operation instruction member 5 using the results.

また、操作取得部34は、例えば、操作指示部材5に組み込まれているセンサによるセンシング結果を用いて、その位置等を取得してもよい。そのセンサは、例えば、加速度センサや、操作指示部材5の姿勢を取得するためのセンサであってもよい。姿勢を取得するためのセンサは、例えば、方位角を取得するための方位センサと、鉛直方向に対する傾斜角を取得するための傾斜センサであってもよく、ジャイロセンサ(すなわち、角速度センサ)であってもよい。加速度センサや、ジャイロセンサでは、位置や角度の変化しかわからないため、例えば、作業者は初めに操作指示部材5をあらかじめ決められた基準位置及び基準姿勢に配置してもよい。そして、操作取得部34は、その後に加速度センサやジャイロセンサによって取得されたセンシング結果と、基準位置及び基準姿勢とを用いて、操作指示部材5の現在の位置や姿勢を取得してもよい。なお、操作指示部材5が有するセンサのセンシング結果は、操作指示部材5から操作取得部34に、無線または有線で送信されてもよい。 Further, the operation acquisition unit 34 may acquire the position or the like using sensing results from a sensor incorporated in the operation instruction member 5, for example. The sensor may be, for example, an acceleration sensor or a sensor for acquiring the orientation of the operation instruction member 5 . The sensors for acquiring the attitude may be, for example, an orientation sensor for acquiring an azimuth angle, an inclination sensor for acquiring an inclination angle with respect to the vertical direction, or a gyro sensor (that is, an angular velocity sensor). may Since the acceleration sensor and the gyro sensor only detect changes in position and angle, for example, the operator may first place the operation instruction member 5 at a predetermined reference position and reference attitude. Then, the operation acquisition unit 34 may acquire the current position and orientation of the operation instruction member 5 using the sensing result acquired by the acceleration sensor and the gyro sensor, the reference position, and the reference orientation. The sensing result of the sensor of the operation instruction member 5 may be transmitted wirelessly or by wire from the operation instruction member 5 to the operation acquisition unit 34 .

また、操作取得部34は、例えば、実環境に配置されたセンサ、または表示装置4が有するセンサによって取得された操作指示部材5の位置を示すセンシング結果を用いて、操作指示部材5の位置等を取得してもよい。このセンサは、例えば、深度センサなどの測距センサであってもよい。センサが測距センサである場合には、複数の測距センサを用いて実環境の3次元スキャンが行われてもよい。そして、操作取得部34は、センシング結果、すなわち3次元スキャンの結果を用いて、あらかじめ決められた形状である操作指示部材5の位置や姿勢を特定してもよい。 In addition, the operation acquisition unit 34 uses a sensing result indicating the position of the operation instruction member 5 acquired by, for example, a sensor arranged in the actual environment or a sensor included in the display device 4 to determine the position of the operation instruction member 5 and the like. may be obtained. This sensor may be, for example, a ranging sensor, such as a depth sensor. When the sensors are ranging sensors, multiple ranging sensors may be used to perform a three-dimensional scan of the real environment. Then, the operation acquiring unit 34 may specify the position and orientation of the operation instructing member 5 having a predetermined shape using the sensing result, that is, the three-dimensional scanning result.

また、撮影画像やセンシング結果を用いた操作指示部材5の位置等の取得は、操作取得部34以外の構成要素や装置において行われてもよい。この場合には、操作取得部34は、操作取得部34以外の構成要素や装置において取得された操作指示部材5の位置や姿勢を受け付けてもよい。すなわち、操作取得部34による操作指示部材5の位置や姿勢の取得は、操作指示部材5の位置や姿勢の受け付けであってもよい。 Further, acquisition of the position of the operation instruction member 5 using the captured image or the sensing result may be performed by a component or device other than the operation acquisition unit 34 . In this case, the operation acquisition unit 34 may receive the position and orientation of the operation instruction member 5 acquired by a component or device other than the operation acquisition unit 34 . That is, the acquisition of the position and orientation of the operation instruction member 5 by the operation acquisition unit 34 may be reception of the position and orientation of the operation instruction member 5 .

操作取得部34は、取得した操作指示部材5の位置や姿勢に応じて、仮想ロボットの3次元モデルにおける操作指示部材5に対応する箇所に対する操作を取得する。操作指示部材5に対応する箇所は、操作指示部材5によって操作が示される箇所であってもよい。この操作指示部材5に対応する箇所は、例えば、操作指示部材5によって位置や姿勢の示される、3次元モデルにおける箇所であってもよい。例えば、3次元モデルにおける操作指示部材5に対応する箇所が、操作指示部材5と重なるようにするための操作が取得されてもよい。この操作の取得は、例えば、仮想ロボットの3次元モデルにおける操作指示部材5に対応する箇所の操作後の位置や姿勢の取得であってもよい。例えば、操作指示部材5が棒状の部材であり、仮想ロボットの3次元モデルの手先に装着されたツールの位置及び姿勢を示すものである場合には、操作取得部34は、操作指示部材5の位置等に応じて、仮想ロボットの3次元モデルのツールに対する操作を取得してもよい。すなわち、操作取得部34は、3次元モデルのツールが、操作指示部材5の位置となる操作を取得してもよい。ツールは、仮想ロボットの3次元モデルの手先に配置されるものであり、例えば、溶接トーチや、搬送対象などを把持する把持ユニット、搬送対象などを吸着する吸着ユニット、搬送対象などを載置する載置ユニット等であってもよい。例えば、ツールが溶接トーチである場合に、棒状の操作指示部材5によって、溶接トーチの先端の位置及び先端部分の姿勢が示されてもよい。この場合には、操作取得部34は、操作指示部材5の位置や姿勢に応じて、その位置や姿勢と同様に溶接トーチの位置及び姿勢を変化させる操作を取得することになる。また、例えば、ツールが把持ユニットや吸着ユニット等である場合に、棒状の操作指示部材5によって、それらのユニットの基準位置や、基準方向の姿勢が示されてもよい。この場合には、操作取得部34は、操作指示部材5の位置や姿勢に応じて、その位置や姿勢と同様に把持ユニットや吸着ユニットの基準位置や基準方向の姿勢を変化させる操作を取得することになる。 The operation acquisition unit 34 acquires an operation for a location corresponding to the operation instruction member 5 in the three-dimensional model of the virtual robot, according to the acquired position and orientation of the operation instruction member 5 . The location corresponding to the operation instruction member 5 may be a location where the operation is indicated by the operation instruction member 5 . The location corresponding to the operation instruction member 5 may be, for example, a location in the three-dimensional model whose position and orientation are indicated by the operation instruction member 5 . For example, an operation for causing a portion corresponding to the operation instruction member 5 in the three-dimensional model to overlap the operation instruction member 5 may be acquired. Acquisition of this operation may be, for example, acquisition of the post-operation position and orientation of the portion corresponding to the operation instruction member 5 in the three-dimensional model of the virtual robot. For example, if the operation instruction member 5 is a rod-shaped member that indicates the position and orientation of a tool attached to the hand of the three-dimensional model of the virtual robot, the operation acquisition unit 34 may obtain the operation instruction member 5 as Depending on the position or the like, an operation of the three-dimensional model tool of the virtual robot may be obtained. That is, the operation acquisition unit 34 may acquire an operation in which the three-dimensional model tool is positioned at the operation instruction member 5 . The tools are arranged at the tip of the three-dimensional model of the virtual robot, and include, for example, a welding torch, a gripping unit that grips an object to be transported, a suction unit that adsorbs an object to be transported, and an object to be transported. A placement unit or the like may be used. For example, when the tool is a welding torch, the rod-shaped operation indicating member 5 may indicate the position and posture of the tip of the welding torch. In this case, the operation acquisition unit 34 acquires an operation for changing the position and orientation of the welding torch in the same manner as the position and orientation of the operation instruction member 5 . Further, for example, when the tool is a grasping unit, a suction unit, or the like, the rod-shaped operation instructing member 5 may indicate the reference position and orientation of the unit in the reference direction. In this case, the operation acquiring unit 34 acquires an operation for changing the reference position and orientation of the gripping unit and the suction unit in the same manner as the position and orientation of the operation instructing member 5 . It will be.

なお、操作指示部材5の位置及び姿勢がそのまま、仮想ロボットの3次元モデルにおける操作指示部材5に対応する箇所の位置及び姿勢となる場合には、操作取得部34は、操作指示部材5の位置及び姿勢を、仮想ロボットの3次元モデルにおける操作指示部材5に対応する箇所に対する操作としてもよい。本実施の形態では、この場合について主に説明する。なお、この場合であっても、操作取得部34は、例えば、表示座標系における操作指示部材5の位置や姿勢を、位置関係取得部32によって取得された、ワールド座標系と表示座標系との同次変換行列と、ワールド座標系と仮想ロボットの3次元モデルのローカル座標系との同次変換行列とを用いて、仮想ロボットのローカル座標系における位置や姿勢に変換した結果を、仮想ロボットの3次元モデルへの操作としてもよい。一方、操作指示部材5の位置及び姿勢と、仮想ロボットの3次元モデルにおける操作指示部材5に対応する箇所の位置及び姿勢とが異なる場合には、操作取得部34は、操作指示部材5の位置及び姿勢に基づいて、仮想ロボットの3次元モデルにおける操作指示部材5に対応する箇所の位置及び姿勢を生成し、その生成した結果を、その箇所に対する操作としてもよい。この場合には、通常、操作指示部材5の位置及び姿勢と、3次元モデルにおける操作指示部材5に対応する箇所の位置及び姿勢との関係があらかじめ決められており、操作取得部34は、その関係を用いて、操作指示部材5の位置及び姿勢から、3次元モデルにおける操作指示部材5に対応する箇所の位置及び姿勢を取得することによって、その箇所の操作を取得してもよい。なお、この場合については、後述する。 Note that when the position and orientation of the operation instruction member 5 are the position and orientation of the location corresponding to the operation instruction member 5 in the three-dimensional model of the virtual robot, the operation acquisition unit 34 obtains the position and orientation of the operation instruction member 5. And the posture may be an operation for a portion corresponding to the operation instruction member 5 in the three-dimensional model of the virtual robot. In this embodiment, this case will be mainly described. Note that, even in this case, the operation acquisition unit 34, for example, obtains the position and orientation of the operation instruction member 5 in the display coordinate system, which is obtained by the positional relationship acquisition unit 32. Using the homogeneous transformation matrix and the homogeneous transformation matrix between the world coordinate system and the local coordinate system of the three-dimensional model of the virtual robot, the results of transformation into the position and orientation in the local coordinate system of the virtual robot are transformed into the virtual robot. It may be an operation to a three-dimensional model. On the other hand, if the position and orientation of the operation instruction member 5 are different from the position and orientation of the portion corresponding to the operation instruction member 5 in the three-dimensional model of the virtual robot, the operation acquisition unit 34 determines the position and orientation of the operation instruction member 5. and the orientation, the position and orientation of the location corresponding to the operation instruction member 5 in the three-dimensional model of the virtual robot may be generated, and the generated result may be used as the operation for that location. In this case, the relationship between the position and orientation of the operation instruction member 5 and the position and orientation of the portion corresponding to the operation instruction member 5 in the three-dimensional model is usually determined in advance, and the operation acquisition unit 34 obtains the By using the relationship to acquire the position and orientation of the location corresponding to the operation instruction member 5 in the three-dimensional model from the position and orientation of the operation instruction member 5, the operation of that location may be acquired. Note that this case will be described later.

なお、この操作指示部材5の位置等に応じた操作の取得は、受付部33によって開始指示が受け付けられた時点から、終了指示が受け付けられた時点まで行われる。すなわち、操作取得部34は、開始指示から終了指示までの間の操作指示部材5の位置等に応じた操作を取得することになる。取得された操作は、例えば、溶接トーチの先端の位置及び先端部分の姿勢をリアルタイムで示すものであってもよい。 It should be noted that acquisition of the operation corresponding to the position of the operation instruction member 5 is performed from the time when the start instruction is received by the reception unit 33 to the time when the end instruction is received. In other words, the operation acquisition unit 34 acquires the operation according to the position of the operation instruction member 5 between the start instruction and the end instruction. The acquired operation may indicate, for example, the position of the tip of the welding torch and the orientation of the tip portion in real time.

画像生成部35は、記憶部31で記憶されている仮想ロボットの3次元モデルと、位置関係取得部32によって取得された相対的な位置関係とに基づいて、実環境における所定の位置に、3次元モデルを表示するための表示画像を生成する。また、仮想ロボットへの操作が取得された場合には、画像生成部35は、操作された3次元モデルを表示するための表示画像を生成する。 Based on the three-dimensional model of the virtual robot stored in the storage unit 31 and the relative positional relationship acquired by the positional relationship acquisition unit 32, the image generation unit 35 generates three images at predetermined positions in the real environment. Generate a display image to display the dimensional model. Also, when an operation to the virtual robot is acquired, the image generation unit 35 generates a display image for displaying the operated three-dimensional model.

仮想ロボットの3次元モデルが表示される実環境の所定の位置は、例えば、ワールド座標系における所定の位置であってもよく、実環境に存在するロボット1や他のオブジェクトと、仮想ロボットの3次元モデルとが所定の位置関係となる位置であってもよい。仮想ロボットの3次元モデルが表示される実環境における位置、または、ロボット1等と仮想ロボットの3次元モデルとの所定の位置関係は、例えば、あらかじめ決められていてもよく、または、作業者が変更することができてもよい。仮想ロボットの3次元モデルは、例えば、ロボット1の位置に表示されてもよく、ロボット1と異なる位置に表示されてもよい。仮想ロボットの3次元モデルをロボット1の位置に表示するとは、ロボット1と同じ位置に仮想ロボットが配置されるように3次元モデルを表示することであり、例えば、仮想ロボットの3次元モデルの基端側の端部(例えば、床面などへの取り付け部分)が、ロボット1の基端側の端部に重なるように表示することであってもよい。ロボット1と異なる位置に仮想ロボットの3次元モデルが表示される場合には、例えば、ロボット1の隣に3次元モデルが表示されてもよい。なお、本実施の形態による画像処理装置3では、実環境において作業者が移動させる操作指示部材5の位置に、その操作指示部材5に対応する仮想ロボットの3次元モデルの箇所が表示されることになる。したがって、仮想ロボットの3次元モデルがロボット1の位置に表示される場合には、操作指示部材5がロボット1のアーム等に当たる可能性もあるため、仮想ロボットの3次元モデルは、ロボット1とは異なる位置に表示されることが好適である。いずれにしても、仮想ロボットの3次元モデルは、実環境における位置が変化しないように表示されることになる。例えば、仮想ロボットの3次元モデルは、実ロボットであるロボット1との位置関係が変化しないように表示される。したがって、表示装置4において、作業者が表示装置4の向きを変化させたとしても、実環境における仮想ロボットの3次元モデルの表示位置は変化しないことになる。 The predetermined position in the real environment where the three-dimensional model of the virtual robot is displayed may be, for example, a predetermined position in the world coordinate system. It may be a position having a predetermined positional relationship with the dimensional model. The position in the real environment where the 3D model of the virtual robot is displayed, or the predetermined positional relationship between the robot 1 and the 3D model of the virtual robot may be determined in advance, or may be determined by the operator. may be changeable. The three-dimensional model of the virtual robot may be displayed at the position of the robot 1 or may be displayed at a different position from the robot 1, for example. Displaying the three-dimensional model of the virtual robot at the position of the robot 1 means displaying the three-dimensional model so that the virtual robot is placed at the same position as the robot 1. The display may be such that the end portion on the end side (for example, the portion to be attached to the floor surface) overlaps the end portion on the base end side of the robot 1 . When the three-dimensional model of the virtual robot is displayed at a position different from that of the robot 1, the three-dimensional model may be displayed next to the robot 1, for example. In the image processing apparatus 3 according to the present embodiment, the location of the three-dimensional model of the virtual robot corresponding to the operation instruction member 5 is displayed at the position of the operation instruction member 5 moved by the operator in the actual environment. become. Therefore, when the three-dimensional model of the virtual robot is displayed at the position of the robot 1, the operation instruction member 5 may hit the arm of the robot 1 or the like. It is preferred that they are displayed in different positions. In any case, the three-dimensional model of the virtual robot will be displayed so that its position in the real environment does not change. For example, the three-dimensional model of the virtual robot is displayed so that the positional relationship with the robot 1, which is the real robot, does not change. Therefore, even if the operator changes the orientation of the display device 4, the display position of the three-dimensional model of the virtual robot in the real environment does not change.

ワールド座標系における仮想ロボットの3次元モデルの位置は決まっている。したがって、画像生成部35は、実環境における位置関係と同様になるように、仮想空間において仮想ロボットの3次元モデルを配置することができる。例えば、実環境にロボット1が配置されている場合には、画像生成部35は、ロボット1の配置位置があらかじめ決まっている仮想空間において、そのロボット1の配置位置と所定の位置関係となるように仮想ロボットの3次元モデルを配置してもよい。なお、仮想ロボットの各関節の角度は、操作が行われていない場合には初期値となり、操作が行われた場合には操作後の値となる。操作後の各関節の角度は、例えば、実ロボットと同様に、操作後の仮想ロボットの3次元モデルにおける手先の位置及び姿勢を用いた逆運動学によって算出されてもよい。その3次元モデルにおける手先の位置及び姿勢は、操作取得部34の取得結果によって示されるものであってもよい。また、画像生成部35は、位置関係取得部32によって取得された相対的な位置関係によって、ワールド座標系と表示装置4のローカル座標系である表示座標系との関係を知ることができるため、仮想空間における表示装置4の位置及び向きを特定することができる。したがって、画像生成部35は、仮想空間における仮想ロボットの3次元モデルを、表示装置4の位置及び向きを基準としてレンダリングすることによって、3次元モデルを表示するための2次元の表示画像を生成することができる。仮想ロボットが操作されると、上記のように、仮想空間における仮想ロボットの3次元モデルの形状が、それに応じて変更されることになる。また、表示装置4の位置や向きが実環境において変化した場合には、それに応じて仮想空間上の視点の位置や方向が変更されることになる。そして、その変更後にレンダリングが行われることによって、操作後の3次元モデルの表示画像や、表示装置4の位置や向きの変化後の3次元モデルの表示画像が生成されることになる。なお、画像生成部35は、仮想ロボットの3次元モデルの表示画像が表示装置4のディスプレイに表示された際に、その表示画像の大きさが実環境と整合するように、表示画像を生成するものとする。すなわち、表示装置4のディスプレイに表示された仮想ロボットの3次元モデルと、その3次元モデルと同じ相対的な位置関係となるように実環境に配置された実ロボットとが、表示装置4を介して見たときに同じ大きさになるように、表示画像が生成されることになる。 The position of the three-dimensional model of the virtual robot in the world coordinate system is fixed. Therefore, the image generator 35 can arrange the three-dimensional model of the virtual robot in the virtual space so as to have the same positional relationship as in the real environment. For example, when the robot 1 is arranged in the real environment, the image generation unit 35 sets the arrangement position of the robot 1 so that it has a predetermined positional relationship with the arrangement position of the robot 1 in the virtual space in which the arrangement position of the robot 1 is predetermined. , a three-dimensional model of the virtual robot may be placed in the . Note that the angle of each joint of the virtual robot is the initial value when no operation is performed, and the post-operation value when the operation is performed. The angle of each joint after manipulation may be calculated, for example, by inverse kinematics using the position and orientation of the hand in the three-dimensional model of the virtual robot after manipulation, in the same way as with the real robot. The position and orientation of the hand in the three-dimensional model may be indicated by the acquisition result of the operation acquisition unit 34 . Further, the image generation unit 35 can know the relationship between the world coordinate system and the display coordinate system, which is the local coordinate system of the display device 4, from the relative positional relationship acquired by the positional relationship acquisition unit 32. The position and orientation of the display device 4 in virtual space can be specified. Therefore, the image generation unit 35 generates a two-dimensional display image for displaying the three-dimensional model by rendering the three-dimensional model of the virtual robot in the virtual space based on the position and orientation of the display device 4. be able to. When the virtual robot is manipulated, the shape of the three-dimensional model of the virtual robot in the virtual space is changed accordingly, as described above. Further, when the position and orientation of the display device 4 change in the real environment, the position and direction of the viewpoint in the virtual space are changed accordingly. By performing rendering after the change, a display image of the 3D model after the operation and a display image of the 3D model after the position and orientation of the display device 4 are changed are generated. Note that the image generator 35 generates a display image so that when the display image of the three-dimensional model of the virtual robot is displayed on the display of the display device 4, the size of the display image matches the actual environment. shall be That is, the three-dimensional model of the virtual robot displayed on the display of the display device 4 and the real robot arranged in the real environment so as to have the same relative positional relationship as the three-dimensional model are displayed via the display device 4. A display image is generated so that it has the same size when viewed from above.

また、受け付けられた操作に応じて仮想ロボットを操作できないこともあり得る。例えば、仮想ロボットの手先を、移動可能な範囲を超えて移動させる操作または回転可能な範囲を超えて回転させる操作が受け付けられることもある。このような場合には、画像生成部35は、その操作に応じた表示画像を生成しなくてもよく、または、可能な範囲内で移動または回転を行った仮想ロボットの3次元モデルの表示画像を生成してもよい。また、移動可能な範囲を超えて移動させる操作または回転可能な範囲を超えて回転させる操作が受け付けられた場合には、例えば、受け付けられた操作が、操作可能な範囲を超えている旨のアラートが作業者に対して出力されてもよい。 Also, it may not be possible to operate the virtual robot according to the accepted operation. For example, an operation to move the hand of the virtual robot beyond its movable range or an operation to rotate it beyond its rotatable range may be accepted. In such a case, the image generator 35 does not have to generate a display image corresponding to the operation, or a display image of the three-dimensional model of the virtual robot that has moved or rotated within the possible range. may be generated. In addition, when an operation to move beyond the movable range or an operation to rotate beyond the rotatable range is accepted, for example, an alert to the effect that the accepted operation exceeds the operable range may be output to the worker.

画像出力部36は、画像生成部35によって生成された表示画像を表示装置4に出力する。なお、画像出力部36は、表示画像のみを出力してもよい。この場合には、表示装置4において、実環境の画像または実環境そのものに表示画像が重ねられて表示されることになる。一方、表示装置4が非透過型ディスプレイを有する場合であって、表示装置4で撮影された実環境の画像が画像処理装置3で受け付けられている場合には、実環境の画像と表示画像とが合成された結果が、表示装置4に出力されてもよい。この合成は、例えば、画像処理装置3が有する図示しない合成部によって行われてもよい。また、生成された表示画像が表示装置4で表示されることによって、例えば、操作指示部材5と、仮想ロボットの3次元モデルにおける操作指示部材5に対応する箇所とが重なるように表示されてもよい。 The image output section 36 outputs the display image generated by the image generation section 35 to the display device 4 . Note that the image output unit 36 may output only the display image. In this case, on the display device 4, the display image is superimposed on the image of the real environment or the real environment itself. On the other hand, when the display device 4 has a non-transmissive display and the image processing device 3 receives an image of the real environment photographed by the display device 4, the image of the real environment and the display image are may be output to the display device 4 . This synthesis may be performed by, for example, a synthesis unit (not shown) included in the image processing device 3 . Further, by displaying the generated display image on the display device 4, for example, even if the operation instruction member 5 and the portion corresponding to the operation instruction member 5 in the three-dimensional model of the virtual robot are displayed so as to overlap each other. good.

実ロボットであるロボット1と異なる位置に仮想ロボットの3次元モデルが表示される場合には、例えば、図1で示されるように、ロボット1の隣に仮想ロボットの3次元モデル10が表示されてもよい。図1におけるロボット1及び仮想ロボットの3次元モデル10は、仮想ロボットを操作する作業者が表示装置4を介して見ている状況を模式的に示したものである。なお、図1では、説明の便宜上、仮想ロボットの3次元モデル10と、操作指示部材5とが異なる位置となっているが、例えば、3次元モデル10の少なくとも一部は、操作指示部材5と重なるように表示されてもよい。 When the three-dimensional model of the virtual robot is displayed at a position different from that of the real robot 1, for example, as shown in FIG. good too. A three-dimensional model 10 of the robot 1 and the virtual robot in FIG. 1 schematically shows a situation viewed through the display device 4 by a worker operating the virtual robot. In FIG. 1, for convenience of explanation, the three-dimensional model 10 of the virtual robot and the operation instruction member 5 are shown at different positions. You may display so that it may overlap.

なお、仮想ロボットの3次元モデルを表示することや、その仮想ロボットの3次元モデルの所定の箇所の位置や姿勢の操作に応じて、操作後の3次元モデルを表示することなどについては、例えば、上記特許文献1等で示されるようにすでに公知であり、その詳細な説明を省略する。 Displaying a three-dimensional model of a virtual robot, and displaying a three-dimensional model after manipulation in accordance with manipulation of the position and posture of a predetermined portion of the three-dimensional model of the virtual robot are, for example, , is already known as shown in the above-mentioned Patent Document 1 and the like, and detailed description thereof will be omitted.

次に、画像処理装置3の動作について図2のフローチャートを用いて説明する。 Next, the operation of the image processing device 3 will be described using the flowchart of FIG.

(ステップS101)受付部33は、操作の開始指示を受け付けたかどうか判断する。そして、操作の開始指示を受け付けた場合には、ステップS102に進み、そうでない場合には、ステップS109に進む。 (Step S101) The accepting unit 33 determines whether or not an operation start instruction has been accepted. Then, when the operation start instruction is received, the process proceeds to step S102, and when not, the process proceeds to step S109.

(ステップS102)操作取得部34は、操作指示部材5の位置や姿勢を取得するかどうか判断する。そして、操作指示部材5の位置等を取得する場合には、ステップS103に進み、そうでない場合には、操作指示部材5の位置等を取得すると判断するまで、ステップS102の処理を繰り返す。なお、操作取得部34は、例えば、操作指示部材5の位置等を取得すると定期的に判断してもよい。また、操作取得部34は、例えば、ステップS101からステップS102に進んだ場合には、すぐに操作指示部材5の位置等を取得すると判断してもよい。 (Step S<b>102 ) The operation acquisition unit 34 determines whether to acquire the position and orientation of the operation instruction member 5 . If the position or the like of the operation instruction member 5 is to be obtained, the process proceeds to step S103. If not, the process of step S102 is repeated until it is determined that the position or the like of the operation instruction member 5 is to be obtained. Note that the operation acquisition unit 34 may periodically determine, for example, to acquire the position and the like of the operation instruction member 5 . Further, the operation acquiring unit 34 may determine to acquire the position and the like of the operation instructing member 5 immediately after proceeding from step S101 to step S102, for example.

(ステップS103)操作取得部34は、操作指示部材5の位置や姿勢を取得する。このステップS103の処理が定期的に繰り返されることによって、結果として、操作指示部材5の動きが取得されることになってもよい。 (Step S<b>103 ) The operation acquisition unit 34 acquires the position and orientation of the operation instruction member 5 . By periodically repeating the process of step S103, the movement of the operation instructing member 5 may be obtained as a result.

(ステップS104)操作取得部34は、ステップS103における操作指示部材5の位置等に関する取得結果に基づいて、仮想ロボットの3次元モデルにおける操作指示部材5に対応する箇所に対する操作を取得する。この操作の取得は、例えば、3次元モデルの所定の箇所の位置及び姿勢の取得であってもよい。このようにして取得される位置及び姿勢は、通常、操作後の位置及び姿勢である。なお、例えば、操作指示部材5の位置及び姿勢がそのまま、3次元モデルにおける操作指示部材5に対応する箇所に対する操作になる場合には、操作取得部34は、ステップS103で取得した操作指示部材5の位置及び姿勢を、3次元モデルにおける操作指示部材5に対応する箇所に対する操作としてもよい。 (Step S104) The operation acquisition unit 34 acquires an operation for a portion corresponding to the operation instruction member 5 in the three-dimensional model of the virtual robot based on the acquisition result regarding the position of the operation instruction member 5 in step S103. Acquisition of this operation may be acquisition of the position and orientation of a predetermined part of the three-dimensional model, for example. The position and orientation acquired in this way are normally the position and orientation after the operation. Note that, for example, when the position and orientation of the operation instruction member 5 are used as they are to operate a portion corresponding to the operation instruction member 5 in the three-dimensional model, the operation acquisition unit 34 acquires the operation instruction member 5 acquired in step S103. may be used as an operation for a portion corresponding to the operation instruction member 5 in the three-dimensional model.

(ステップS105)位置関係取得部32は、実環境と表示装置4との相対的な位置関係を取得する。 (Step S<b>105 ) The positional relationship acquisition unit 32 acquires the relative positional relationship between the real environment and the display device 4 .

(ステップS106)画像生成部35は、仮想ロボットの3次元モデルと、ステップS105で取得された相対的な位置関係と、ステップS104で取得された操作とを用いて、操作された3次元モデルの表示画像を生成する。 (Step S106) The image generation unit 35 uses the three-dimensional model of the virtual robot, the relative positional relationship acquired in step S105, and the operation acquired in step S104 to generate the manipulated three-dimensional model. Generate a display image.

(ステップS107)画像出力部36は、ステップS106で生成された表示画像を表示装置4に出力する。その結果、作業者は、操作後の仮想ロボットの3次元モデルを見ることができる。通常、作業者が実環境において操作している操作指示部材5の位置に、操作指示部材5に対応する3次元モデルの箇所が重ねて表示されることになる。このようにして、実環境に存在する操作指示部材5を用いて、仮想ロボットの3次元モデルを操作することができるようになる。 (Step S<b>107 ) The image output unit 36 outputs the display image generated in step S<b>106 to the display device 4 . As a result, the worker can see the three-dimensional model of the virtual robot after manipulation. Normally, the location of the three-dimensional model corresponding to the operation instruction member 5 is superimposed and displayed at the position of the operation instruction member 5 that the operator is operating in the actual environment. In this way, the three-dimensional model of the virtual robot can be operated using the operation instruction member 5 existing in the real environment.

(ステップS108)受付部33は、操作の終了指示を受け付けたかどうか判断する。そして、操作の終了指示を受け付けた場合には、ステップS101に戻り、そうでない場合には、ステップS102に戻る。 (Step S108) The accepting unit 33 determines whether or not an operation end instruction has been accepted. Then, if an instruction to end the operation is received, the process returns to step S101, and if not, the process returns to step S102.

(ステップS109)画像生成部35は、表示画像の生成を行うかどうか判断する。そして、表示画像を生成する場合には、ステップS110に進み、そうでない場合には、ステップS101に戻る。なお、画像生成部35は、例えば、表示画像の生成を行うと定期的に判断してもよい。この判断が行われることによって、例えば、操作が行われていなくても、表示装置4の位置や向きが変更された場合には、その変更後の位置や向きに応じた表示画像が表示装置4で表示されるようになる。 (Step S109) The image generator 35 determines whether to generate a display image. If a display image is to be generated, the process proceeds to step S110, otherwise the process returns to step S101. Note that the image generator 35 may periodically determine, for example, to generate the display image. By making this judgment, for example, even if no operation is performed, if the position or orientation of the display device 4 is changed, the display image corresponding to the changed position or orientation is displayed on the display device 4 . will be displayed.

(ステップS110)位置関係取得部32は、実環境と表示装置4との相対的な位置関係を取得する。 (Step S<b>110 ) The positional relationship acquisition unit 32 acquires the relative positional relationship between the real environment and the display device 4 .

(ステップS111)画像生成部35は、仮想ロボットの3次元モデルと、ステップS110で取得された相対的な位置関係とを用いて、3次元モデルの表示画像を生成する。 (Step S111) The image generator 35 generates a display image of the three-dimensional model using the three-dimensional model of the virtual robot and the relative positional relationship acquired in step S110.

(ステップS112)画像出力部36は、ステップS111で生成された表示画像を表示装置4に出力する。その結果、作業者は、仮想ロボットの3次元モデルを見ることができる。そして、ステップS101に戻る。 (Step S<b>112 ) The image output unit 36 outputs the display image generated in step S<b>111 to the display device 4 . As a result, the worker can see the three-dimensional model of the virtual robot. Then, the process returns to step S101.

なお、図2のフローチャートにおける処理の順序は一例であり、同様の結果を得られるのであれば、各ステップの順序を変更してもよい。また、図2のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。 The order of processing in the flowchart of FIG. 2 is an example, and the order of each step may be changed as long as the same result can be obtained. In addition, in the flowchart of FIG. 2, the processing ends when the power is turned off or an interrupt for processing end occurs.

次に、本実施の形態による画像処理装置3の動作について、具体例を用いて説明する。 Next, the operation of the image processing apparatus 3 according to this embodiment will be described using a specific example.

表示装置4を頭部に装着している作業者が、仮想ロボットの3次元モデルをディスプレイに表示させたとする(ステップS109~S112)。そして、作業者は、図3Aで示されるように、3次元モデルのツール10aを移動させたい実環境の位置に、棒状の操作指示部材5を手で移動させ、その状態において、「操作開始」と発声したとする。すると、その音声は受付部33のマイクで集音され、音声認識が行われて、操作の開始指示が入力されたと判断される(ステップS101)。そして、表示装置4で取得された操作指示部材5の撮影画像を用いて、操作取得部34によって、操作指示部材5の尖端側の位置及び姿勢が取得され、それがそのままツール10aの先端の位置及び姿勢を示す操作になったとする(ステップS102~S104)。その操作は、画像生成部35に渡される。 Assume that the operator wearing the display device 4 on his head displays the three-dimensional model of the virtual robot on the display (steps S109 to S112). Then, as shown in FIG. 3A, the operator manually moves the rod-shaped operation instructing member 5 to a position in the real environment where the three-dimensional model tool 10a is to be moved, and in that state, presses "start operation". Suppose you uttered Then, the voice is collected by the microphone of the reception unit 33, voice recognition is performed, and it is determined that an operation start instruction has been input (step S101). Then, using the photographed image of the operation instruction member 5 acquired by the display device 4, the operation acquisition unit 34 acquires the position and posture of the tip end side of the operation instruction member 5, which is directly used as the position of the tip of the tool 10a. And, it is assumed that an operation indicating a posture has been performed (steps S102 to S104). The operation is passed to the image generator 35 .

その後、位置関係取得部32によって、実環境と表示装置4との相対的な位置関係が取得され、画像生成部35に渡される(ステップS105)。画像生成部35は、相対的な位置関係や、ツール10aの操作を受け取ると、相対的な位置関係に応じて仮想空間における表示装置4の位置や向きを更新し、ツール10aへの操作、すなわちツール10aの位置及び姿勢に基づいて、逆運動学によって仮想ロボットの3次元モデルの各関節の角度を算出し、その算出した関節の角度に応じて3次元モデルの各関節の角度を変化させる。その後、画像生成部35は、3次元モデルをレンダリングすることによって、表示画像を生成して画像出力部36に渡す(ステップS106)。その表示画像は、画像出力部36によって表示装置4に出力される(ステップS107)。その結果、作業者は、図3Bで示されるように、ツール10aが操作指示部材5に重なるように表示された3次元モデルを見ることができる。 After that, the relative positional relationship between the real environment and the display device 4 is acquired by the positional relationship acquiring unit 32, and passed to the image generating unit 35 (step S105). Upon receiving the relative positional relationship and the operation of the tool 10a, the image generator 35 updates the position and orientation of the display device 4 in the virtual space according to the relative positional relationship, Based on the position and orientation of the tool 10a, the angle of each joint of the three-dimensional model of the virtual robot is calculated by inverse kinematics, and the angle of each joint of the three-dimensional model is changed according to the calculated joint angle. After that, the image generation unit 35 renders the three-dimensional model to generate a display image and passes it to the image output unit 36 (step S106). The display image is output to the display device 4 by the image output unit 36 (step S107). As a result, the operator can see a three-dimensional model in which the tool 10a is displayed so as to overlap the operation instructing member 5, as shown in FIG. 3B.

その後、作業者が、図3Cの破線で示される位置から実線で示される位置に、操作指示部材5を移動させたとする。すると、それに応じて、仮想ロボットの3次元モデルのツール10aも移動することになる(ステップS102~S107)。このように、仮想ロボットの3次元モデルのツール10aが、操作指示部材5に追従するため、作業者は、仮想ロボットの3次元モデルを容易に操作することができるようになる。特に、作業者は、操作指示部材5を用いることによって、微小な角度の変更などを容易に行うことができるようになる。また、実環境に溶接対象の母材を配置し、その母材上の溶接線に操作指示部材5の尖端が沿うように操作指示部材5を移動させることによって、仮想ロボットの3次元モデルを適切に操作することができるようになる。 Assume that the operator then moves the operation instructing member 5 from the position indicated by the dashed line in FIG. 3C to the position indicated by the solid line. Accordingly, the tool 10a of the three-dimensional model of the virtual robot is also moved (steps S102 to S107). In this way, since the tool 10a of the three-dimensional model of the virtual robot follows the operation instruction member 5, the operator can easily operate the three-dimensional model of the virtual robot. In particular, by using the operation instructing member 5, the operator can easily make minute changes such as the angle. In addition, a base material to be welded is arranged in a real environment, and by moving the operation instruction member 5 so that the tip of the operation instruction member 5 is aligned with the welding line on the base material, the three-dimensional model of the virtual robot can be properly created. You will be able to operate

なお、この操作に応じて教示を行う場合には、作業者は、仮想入力インターフェースや、他の入力デバイスなどを用いて、適宜、画像処理装置3に教示指示を入力してもよい。そして、それに応じて、例えば、その時点の各関節の角度が教示データとして記録されてもよい。このようにして生成された教示データは、実ロボットであるロボット1を制御するロボット制御装置に渡され、ロボット1のプレイバック動作のために用いられてもよい。このようにして、仮想ロボットの3次元モデルを用いて教示データを生成することもできる。なお、仮想ロボットの3次元モデルに対する一連の操作が終了した後に、作業者が「操作終了」と発声したとする。すると、その音声は受付部33のマイクで集音され、音声認識が行われて、操作の終了指示が入力されたと判断される(ステップS108)。そして、一連の操作は終了となり、3次元モデルのツール10aは操作指示部材5に追従しなくなる。 When teaching is performed according to this operation, the operator may appropriately input teaching instructions to the image processing apparatus 3 using a virtual input interface, other input devices, or the like. Then, correspondingly, for example, the angle of each joint at that time may be recorded as teaching data. The teaching data generated in this way may be passed to the robot control device that controls the robot 1, which is a real robot, and used for the playback operation of the robot 1. FIG. In this way, teaching data can also be generated using a three-dimensional model of the virtual robot. Assume that the operator utters "end of operation" after completing a series of operations on the three-dimensional model of the virtual robot. Then, the voice is collected by the microphone of the reception unit 33, voice recognition is performed, and it is determined that an operation end instruction has been input (step S108). Then, the series of operations is completed, and the three-dimensional model tool 10a no longer follows the operation instruction member 5. FIG.

また、この具体例では、説明の便宜上、図3A~図3Cにおいて、操作指示部材5を保持している作業者の手を省略している。また、例えば、操作指示部材5の円周面に、操作指示部材5の姿勢を取得するための模様や突起、凹部などが設けられている場合であって、操作指示部材5の撮影画像を用いて操作指示部材5の位置や姿勢が取得される場合には、作業者は、操作指示部材5の円周面の模様等が撮影画像に含まれるように、操作指示部材5を持つことが好適である。 Also, in this specific example, for convenience of explanation, the operator's hand holding the operation instructing member 5 is omitted in FIGS. 3A to 3C. Further, for example, in the case where the circumferential surface of the operation instruction member 5 is provided with patterns, protrusions, recesses, or the like for acquiring the posture of the operation instruction member 5, the photographed image of the operation instruction member 5 is used. When the position and posture of the operation instruction member 5 are acquired by using the operator, it is preferable that the operator holds the operation instruction member 5 so that the pattern of the circumferential surface of the operation instruction member 5 is included in the captured image. is.

また、本実施の形態では、操作指示部材5の尖端の位置が、ツール10aの先端の位置となるように操作を取得する場合について主に説明したが、そうでなくてもよい。例えば、図4で示されるように、操作指示部材5の尖端側から距離Lだけ他端側に近い位置が、ツール10aの先端の位置となる操作が取得されてもよい。この場合には、例えば、溶接ワイヤの突き出し長を考慮してツール10aを操作する際に、操作指示部材5の尖端を母材の溶接線に沿わせて移動させ、距離Lを突き出し長としてもよい。そして、操作取得部34は、操作指示部材5の尖端から距離Lだけ他端側に近い位置が、ツール10aの先端の位置となる操作を取得してもよい。このようにすることで、仮想ロボットの3次元モデルに関する突き出し長を考慮した操作を実現することができる。この場合には、取得された操作指示部材5の位置と、取得された操作によって示されるツール10aの位置とは異なることになる。このように、3次元モデルにおける操作指示部材5に対応する箇所に対する操作によって示される位置は、取得された操作指示部材5の位置から所定の長さだけ離れた位置となってもよい。また、棒状の操作指示部材5において、ツール10aの先端に相当する位置が、色やリング等によって示されてもよい。例えば、操作指示部材5の尖端から距離Lだけ他端側に近い位置が、周方向にわたって、他と異なる色に塗られていてもよい。そして、その色の箇所が、3次元モデルにおける所定の位置、例えば、ツール10aの先端の位置となる操作が取得されてもよい。また、棒状の操作指示部材5に長手方向に移動可能なリング状部材が装着されていてもよい。そして、そのリングの箇所が、3次元モデルにおける所定の位置、例えば、ツール10aの先端の位置となる操作が取得されてもよい。この場合には、作業者がリングの位置を動かすことによって、例えば、ツール10aの先端の位置を任意に変更することができるようになる。 Moreover, in the present embodiment, the case where the operation is acquired so that the position of the tip of the operation instructing member 5 is the position of the tip of the tool 10a has been mainly described, but this does not have to be the case. For example, as shown in FIG. 4, an operation may be acquired in which the tip of the tool 10a is positioned closer to the tip of the operation instructing member 5 by a distance L than the other end. In this case, for example, when the tool 10a is operated in consideration of the protrusion length of the welding wire, the pointed end of the operation instruction member 5 is moved along the weld line of the base material, and the distance L is set as the protrusion length. good. Then, the operation acquiring unit 34 may acquire an operation in which a position closer to the other end by the distance L from the tip of the operation instructing member 5 is the position of the tip of the tool 10a. By doing so, it is possible to realize an operation that considers the projection length of the three-dimensional model of the virtual robot. In this case, the acquired position of the operation instructing member 5 is different from the position of the tool 10a indicated by the acquired operation. In this way, the position indicated by the operation on the portion corresponding to the operation instruction member 5 in the three-dimensional model may be a position separated by a predetermined length from the acquired position of the operation instruction member 5 . Further, the position corresponding to the tip of the tool 10a may be indicated by a color, a ring, or the like on the rod-shaped operation instruction member 5. FIG. For example, a position closer to the other end by a distance L from the tip of the operation instructing member 5 may be painted in a color different from the others over the circumferential direction. Then, an operation in which the portion of that color becomes a predetermined position in the three-dimensional model, for example, the position of the tip of the tool 10a may be acquired. A ring-shaped member movable in the longitudinal direction may be attached to the rod-shaped operation instruction member 5 . Then, an operation in which the ring portion becomes a predetermined position in the three-dimensional model, for example, the position of the tip of the tool 10a may be acquired. In this case, the operator can arbitrarily change the position of the tip of the tool 10a, for example, by moving the position of the ring.

また、本実施の形態では、操作指示部材5によってツール10aを操作する場合について主に説明したが、そうでなくてもよい。操作指示部材5によって、仮想ロボットの3次元モデル10を構成するアーム等の部分オブジェクトを操作してもよい。すなわち、仮想ロボットの3次元モデル10における操作指示部材5に対応する箇所は、ツールや手先、TCPではなく、所定のアームであってもよい。より具体的には、図5で示されるように、仮想ロボットの3次元モデル10が有する部分オブジェクト10-1~10-8のうち、部分オブジェクト10-7が、操作指示部材5によって操作されてもよい。すなわち、ある部分オブジェクト10-7の位置や姿勢が、実環境における操作指示部材5の位置や姿勢に応じて決定されてもよい。この場合には、画像生成部35は、例えば、操作指示部材5によって操作される部分オブジェクト10-7を特定可能な表示画像を生成してもよい。より具体的には、部分オブジェクト10-7の色や輝度が、他の部分オブジェクトの色や輝度と異なる表示画像が生成されてもよい。また、この操作対象の部分オブジェクトは、作業者が、適宜、選択することができてもよい。この場合には、例えば、作業者が、表示装置4のディスプレイに表示された仮想ロボットの3次元モデルにおいて、所定の部分オブジェクトをエアタップ等のジェスチャ操作によって選択した際に、その選択した部分オブジェクトが、操作指示部材5を用いた操作対象になってもよい。 Moreover, in the present embodiment, the case where the tool 10a is operated by the operation instructing member 5 has been mainly described, but this does not have to be the case. A partial object such as an arm that forms the three-dimensional model 10 of the virtual robot may be operated by the operation instruction member 5 . That is, the part corresponding to the operation instructing member 5 in the three-dimensional model 10 of the virtual robot may be a predetermined arm instead of the tool, hand, or TCP. More specifically, as shown in FIG. 5, among the partial objects 10-1 to 10-8 of the three-dimensional model 10 of the virtual robot, the partial object 10-7 is operated by the operation instruction member 5. good too. That is, the position and orientation of a certain partial object 10-7 may be determined according to the position and orientation of the operation instruction member 5 in the real environment. In this case, the image generator 35 may generate a display image that can identify the partial object 10-7 operated by the operation instruction member 5, for example. More specifically, a display image may be generated in which the color and brightness of the partial object 10-7 are different from those of other partial objects. In addition, the operator may be able to select the partial object to be operated as appropriate. In this case, for example, when the operator selects a predetermined partial object in the three-dimensional model of the virtual robot displayed on the display of the display device 4 by a gesture operation such as an air tap, the selected partial object is , may become an operation target using the operation instruction member 5 .

以上のように、本実施の形態による画像処理装置3によれば、実環境に存在する操作指示部材5を操作することによって、仮想空間上の仮想ロボットの3次元モデルにおける所定の箇所を操作することができる。したがって、仮想空間において、仮想ロボットの所定の箇所を仮想的に手でつまむ動作(ホールド動作)を行って、つまんだ箇所を移動させる場合よりも実感があり、より直感的な操作を実現することができる。特に、実環境に存在する母材に沿った移動の操作や、角度を少しだけ変化させる操作などを行う場合には、より正確な操作を実現することもできる。また、受付部33によって受け付けられた操作の開始指示から終了指示までの間に、操作取得部34による操作の取得を行うことによって、3次元モデルが操作指示部材5に追従する期間と、そうでない期間とを区別することができ、適切な操作を実現することができる。 As described above, according to the image processing apparatus 3 according to the present embodiment, by operating the operation instruction member 5 existing in the real environment, a predetermined portion of the three-dimensional model of the virtual robot in the virtual space is operated. be able to. Therefore, in the virtual space, a motion (holding motion) of virtually pinching a predetermined portion of the virtual robot with a hand is performed, and a more intuitive operation can be realized that is more realistic than moving the pinched portion. can be done. In particular, more accurate operations can be realized when performing an operation of moving along a base material existing in an actual environment, an operation of slightly changing an angle, or the like. In addition, the period during which the three-dimensional model follows the operation instruction member 5 and the period during which the three-dimensional model follows the operation instruction member 5 by acquiring the operation by the operation acquisition unit 34 between the operation start instruction and the operation end instruction accepted by the reception unit 33 and during the period until the end instruction. period, and appropriate manipulation can be achieved.

なお、本実施の形態では、操作の開始指示及び終了指示が受付部33によって受け付けられる場合について説明したが、そうでなくてもよい。例えば、作業者による操作指示部材5の操作に応じて、操作の開始や、操作の終了が指示されたと判断されてもよい。この場合には、例えば、操作取得部34は、撮影画像に含まれる棒状の操作指示部材5が1回目に振られた際に、操作の開始が指示されたと判断し、2回目に振られた際に、操作の終了が指示されたと判断してもよい。また、例えば、操作取得部34は、撮影画像に含まれる操作指示部材5が、その操作指示部材5に対応する3次元モデルの箇所に重ねられた際に、操作の開始が指示されたと判断し、操作指示部材5が振られた際に、操作の終了が指示されたと判断してもよい。また、操作指示部材5が光源を有している場合には、例えば、操作取得部34は、撮影画像に含まれる操作指示部材5の光源が点灯した際に、操作の開始が指示されたと判断し、消灯した際に、操作の終了が指示されたと判断してもよい。このように、受付部33による操作の開始指示及び終了指示の受け付けが行われない場合には、画像処理装置3は、受付部33を有していなくてもよい。 In this embodiment, the case where the operation start instruction and the operation end instruction are accepted by the accepting unit 33 has been described, but this need not be the case. For example, it may be determined that an operation start or an operation end is instructed according to the operator's operation of the operation instruction member 5 . In this case, for example, the operation acquisition unit 34 determines that the start of the operation is instructed when the rod-shaped operation instruction member 5 included in the captured image is shaken for the first time, and is shaken for the second time. At that time, it may be determined that the end of the operation has been instructed. Further, for example, the operation acquisition unit 34 determines that the start of the operation has been instructed when the operation instruction member 5 included in the captured image is superimposed on the part of the three-dimensional model corresponding to the operation instruction member 5. , it may be determined that the end of the operation has been instructed when the operation instructing member 5 is swung. Further, when the operation instruction member 5 has a light source, for example, the operation acquisition unit 34 determines that the start of the operation has been instructed when the light source of the operation instruction member 5 included in the captured image is turned on. However, it may be determined that the end of the operation has been instructed when the light is turned off. In this way, the image processing apparatus 3 does not need to have the reception unit 33 when the reception unit 33 does not receive the operation start instruction and the operation end instruction.

また、本実施の形態では、棒状の操作指示部材5が用いられる場合について主に説明したが、そうでなくてもよい。例えば、操作指示部材は、平面状の部材であってもよい。そして、例えば、3次元モデルのツールの先端が、その平面状の部材における所定の位置(例えば、中心や重心、または、あらかじめ決められた図形や凸部、凹部などの存在する位置など)に位置し、そのツールの先端側の姿勢が、その平面状の部材の法線方向となるように、ツールに対する操作が取得されてもよい。この場合には、表示装置4において3次元モデルの表示画像が表示される際に、3次元モデルにおける操作指示部材に対応する箇所(例えば、ツールの先端部分)と、平面状の操作指示部材とは重ならないように表示されてもよい。例えば、ツールの先端が、平面状の操作指示部材の表面の所定の位置に接触するようにツールが表示されてもよい。 Moreover, in the present embodiment, the case where the rod-shaped operation instruction member 5 is used has been mainly described, but this need not be the case. For example, the operation instruction member may be a planar member. Then, for example, the tip of the tool of the three-dimensional model is positioned at a predetermined position (for example, the center, the center of gravity, or the position where a predetermined figure, convex portion, concave portion, etc. exist) on the planar member. However, an operation on the tool may be acquired such that the orientation of the tip side of the tool is the normal direction of the planar member. In this case, when the display image of the three-dimensional model is displayed on the display device 4, the portion corresponding to the operation instruction member in the three-dimensional model (for example, the tip portion of the tool) and the planar operation instruction member may be displayed so as not to overlap. For example, the tool may be displayed such that the tip of the tool contacts a predetermined position on the surface of the planar operation instruction member.

また、本実施の形態では、操作取得部34によって操作指示部材5の位置及び姿勢が取得され、その取得結果に応じて仮想ロボットの3次元モデルの操作指示部材5に対応する箇所の操作が取得される場合について主に説明したが、そうでなくてもよい。操作取得部34によって、操作指示部材5の位置のみが取得され、その取得結果に応じて、仮想ロボットの3次元モデルの操作指示部材5に対応する箇所の位置のみを示す操作が取得されてもよい。この場合でも、例えば、ツールの先端や、TCP、または3次元モデルの他の箇所の位置を、操作指示部材5を用いて操作することができるようになる。この場合には、仮想ロボットの3次元モデルの姿勢については、例えば、あらかじめ決められた姿勢が用いられてもよく、他の方法によって入力された姿勢が用いられてもよい。例えば、作業者が3次元モデルの所定の箇所をエアタップ等によって選択した場合には、その選択した位置が、操作指示部材5の尖端の位置となる操作が操作取得部34によって取得されてもよい。 Further, in the present embodiment, the position and orientation of the operation instruction member 5 are acquired by the operation acquisition unit 34, and the operation of the location corresponding to the operation instruction member 5 of the three-dimensional model of the virtual robot is acquired according to the acquisition result. Although the explanation was mainly about the case where the Even if only the position of the operation instruction member 5 is acquired by the operation acquisition unit 34, and an operation indicating only the position of the part corresponding to the operation instruction member 5 in the three-dimensional model of the virtual robot is acquired according to the acquisition result. good. Even in this case, for example, the position of the tip of the tool, the TCP, or other parts of the three-dimensional model can be operated using the operation instruction member 5 . In this case, for the posture of the three-dimensional model of the virtual robot, for example, a predetermined posture may be used, or a posture input by another method may be used. For example, when the operator selects a predetermined portion of the three-dimensional model by air tapping or the like, the operation acquiring unit 34 may acquire an operation in which the selected position is the position of the tip of the operation instructing member 5. .

また、上記実施の形態において、各処理または各機能は、単一の装置または単一のシステムによって集中処理されることによって実現されてもよく、または、複数の装置または複数のシステムによって分散処理されることによって実現されてもよい。例えば、画像処理装置3の少なくとも一部の構成は、物理的には、ディスプレイを有する装置などに含まれてもよい。したがって、図1で示される装置の切り分けは、物理的な装置に応じたものではなく、機能に応じた便宜上のものであると考えてもよい。 Further, in the above embodiments, each process or function may be implemented by centralized processing by a single device or single system, or may be implemented by distributed processing by multiple devices or multiple systems. It may be realized by For example, at least part of the configuration of the image processing device 3 may be physically included in a device having a display. Therefore, it may be considered that the division of devices shown in FIG. 1 is for the sake of convenience according to the functions rather than according to the physical devices.

また、上記実施の形態において、各構成要素間で行われる情報の受け渡しは、例えば、その情報の受け渡しを行う2個の構成要素が物理的に異なるものである場合には、一方の構成要素による情報の出力と、他方の構成要素による情報の受け付けとによって行われてもよく、または、その情報の受け渡しを行う2個の構成要素が物理的に同じものである場合には、一方の構成要素に対応する処理のフェーズから、他方の構成要素に対応する処理のフェーズに移ることによって行われてもよい。 Further, in the above-described embodiment, when the information is passed between the components, for example, when the two components that exchange the information are physically different, one of the components output of information and reception of information by the other component, or one component if the two components that pass the information are physically the same from the phase of processing corresponding to the other component to the phase of processing corresponding to the other component.

また、上記実施の形態において、各構成要素が実行する処理に関係する情報、例えば、各構成要素が受け付けたり、取得したり、選択したり、生成したり、送信したり、受信したりした情報や、各構成要素が処理で用いる閾値や数式、アドレス等の情報等は、上記説明で明記していなくても、図示しない記録媒体において、一時的に、または長期にわたって保持されていてもよい。また、その図示しない記録媒体への情報の蓄積を、各構成要素、または、図示しない蓄積部が行ってもよい。また、その図示しない記録媒体からの情報の読み出しを、各構成要素、または、図示しない読み出し部が行ってもよい。 In the above embodiments, information related to processing executed by each component, for example, information received, acquired, selected, generated, transmitted, or received by each component Also, information such as thresholds, formulas, addresses, etc. used by each component in processing may be stored temporarily or for a long period of time in a recording medium (not shown), even if not specified in the above description. Further, each component or an accumulation section (not shown) may accumulate information in the recording medium (not shown). Further, each component or a reading unit (not shown) may read information from the recording medium (not shown).

また、上記実施の形態において、各構成要素等で用いられる情報、例えば、各構成要素が処理で用いる閾値やアドレス、各種の設定値等の情報がユーザによって変更されてもよい場合には、上記説明で明記していなくても、ユーザが適宜、それらの情報を変更できるようにしてもよく、または、そうでなくてもよい。それらの情報をユーザが変更可能な場合には、その変更は、例えば、ユーザからの変更指示を受け付ける図示しない受付部と、その変更指示に応じて情報を変更する図示しない変更部とによって実現されてもよい。その図示しない受付部による変更指示の受け付けは、例えば、入力デバイスからの受け付けでもよく、通信回線を介して送信された情報の受信でもよく、所定の記録媒体から読み出された情報の受け付けでもよい。 Further, in the above embodiment, if the information used in each component etc., for example, information such as thresholds, addresses and various set values used in processing by each component may be changed by the user, the above The user may or may not be able to change such information as appropriate, even if not explicitly stated in the description. If the information can be changed by the user, the change is realized by, for example, a reception unit (not shown) that receives a change instruction from the user and a change unit (not shown) that changes the information according to the change instruction. may The reception of the change instruction by the reception unit (not shown) may be, for example, reception from an input device, reception of information transmitted via a communication line, or reception of information read from a predetermined recording medium. .

また、上記実施の形態において、画像処理装置3に含まれる2以上の構成要素が通信デバイスや入力デバイス等を有する場合に、2以上の構成要素が物理的に単一のデバイスを有してもよく、または、別々のデバイスを有してもよい。 Further, in the above embodiment, when two or more components included in the image processing apparatus 3 have communication devices, input devices, etc., the two or more components may physically have a single device. or may have separate devices.

また、上記実施の形態において、各構成要素は専用のハードウェアにより構成されてもよく、または、ソフトウェアにより実現可能な構成要素については、プログラムを実行することによって実現されてもよい。例えば、ハードディスクや半導体メモリ等の記録媒体に記録されたソフトウェア・プログラムをCPU等のプログラム実行部が読み出して実行することによって、各構成要素が実現され得る。その実行時に、プログラム実行部は、記憶部や記録媒体にアクセスしながらプログラムを実行してもよい。また、そのプログラムは、サーバなどからダウンロードされることによって実行されてもよく、所定の記録媒体(例えば、光ディスクや磁気ディスク、半導体メモリなど)に記録されたプログラムが読み出されることによって実行されてもよい。また、このプログラムは、プログラムプロダクトを構成するプログラムとして用いられてもよい。また、そのプログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、または分散処理を行ってもよい。 Further, in the above embodiments, each component may be configured by dedicated hardware, or components that can be realized by software may be realized by executing a program. For example, each component can be realized by reading and executing a software program recorded in a recording medium such as a hard disk or a semiconductor memory by a program execution unit such as a CPU. During the execution, the program execution unit may execute the program while accessing the storage unit or recording medium. Further, the program may be executed by being downloaded from a server or the like, or may be executed by reading a program recorded on a predetermined recording medium (for example, an optical disk, a magnetic disk, a semiconductor memory, etc.). good. Also, this program may be used as a program constituting a program product. Also, the number of computers that execute the program may be singular or plural. That is, centralized processing may be performed, or distributed processing may be performed.

また、本発明は、以上の実施の形態に限定されることなく、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。 Moreover, it goes without saying that the present invention is not limited to the above-described embodiments, and that various modifications are possible and are also included within the scope of the present invention.

3 画像処理装置、4 表示装置、5 操作指示部材、31 記憶部、32 位置関係取得部、33 受付部、34 操作取得部、35 画像生成部、36 画像出力部 3 image processing device 4 display device 5 operation instruction member 31 storage unit 32 positional relationship acquisition unit 33 reception unit 34 operation acquisition unit 35 image generation unit 36 image output unit

Claims (3)

実環境に存在する実ロボットに対応する仮想ロボットの3次元モデルが記憶される記憶部と、
実環境に存在する操作指示部材の位置を取得し、当該位置に応じて、前記仮想ロボットの3次元モデルにおける前記操作指示部材に対応する箇所に対する操作を取得する操作取得部と、
前記実ロボットの存在する実環境と、画像を実環境の画像または実環境そのものに重ねて表示する表示装置との相対的な位置関係を取得する位置関係取得部と、
前記3次元モデルと前記相対的な位置関係とに基づいて、実環境における所定の位置に、操作された3次元モデルを表示するための表示画像を生成する画像生成部と、
前記表示画像を表示装置に出力する画像出力部と、を備えた画像処理装置。
a storage unit storing a three-dimensional model of a virtual robot corresponding to a real robot existing in a real environment;
an operation acquisition unit that acquires a position of an operation instruction member existing in a real environment and acquires an operation for a location corresponding to the operation instruction member in the three-dimensional model of the virtual robot according to the position;
a positional relationship acquiring unit that acquires a relative positional relationship between the real environment in which the real robot exists and a display device that displays an image superimposed on the image of the real environment or the real environment itself;
an image generation unit that generates a display image for displaying the manipulated three-dimensional model at a predetermined position in a real environment based on the three-dimensional model and the relative positional relationship;
and an image output unit that outputs the display image to a display device.
前記操作指示部材は、棒状の部材であり、
前記操作取得部は、前記操作指示部材の位置に応じて、前記3次元モデルのツールに対する操作を取得する、請求項1記載の画像処理装置。
The operation instruction member is a rod-shaped member,
2. The image processing apparatus according to claim 1, wherein said operation acquisition unit acquires an operation for a tool of said three-dimensional model according to a position of said operation instruction member.
前記操作指示部材を用いた操作の開始時点を指示する開始指示と、当該操作の終了時点を指示する終了指示とを受け付ける受付部をさらに備え、
前記操作取得部は、前記開始指示から前記終了指示までの間の前記操作指示部材の位置に応じた操作を取得する、請求項1または請求項2記載の画像処理装置。
further comprising a reception unit that receives a start instruction for instructing the start time of the operation using the operation instruction member and an end instruction for instructing the end time of the operation,
3. The image processing apparatus according to claim 1, wherein said operation acquisition unit acquires an operation corresponding to a position of said operation instruction member between said start instruction and said end instruction.
JP2021121724A 2021-07-26 2021-07-26 Image processing device Pending JP2023017441A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021121724A JP2023017441A (en) 2021-07-26 2021-07-26 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021121724A JP2023017441A (en) 2021-07-26 2021-07-26 Image processing device

Publications (1)

Publication Number Publication Date
JP2023017441A true JP2023017441A (en) 2023-02-07

Family

ID=85157778

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021121724A Pending JP2023017441A (en) 2021-07-26 2021-07-26 Image processing device

Country Status (1)

Country Link
JP (1) JP2023017441A (en)

Similar Documents

Publication Publication Date Title
CN110977931B (en) Robot control device and display device using augmented reality and mixed reality
US7353081B2 (en) Method and a system for programming an industrial robot
JP4844453B2 (en) Robot teaching apparatus and teaching method
JP4817603B2 (en) Method and system for programming an industrial robot
US11173601B2 (en) Teaching device for performing robot teaching operations and teaching method
US20150273689A1 (en) Robot control device, robot, robotic system, teaching method, and program
WO2009113339A1 (en) Operation teaching system and operation teaching method
WO2019092792A1 (en) Display control device, display control method, and display control program
JP2019042843A (en) Robot system and method for operating the same
KR101876845B1 (en) Robot control apparatus
JP6457208B2 (en) Operation instruction system and operation instruction method for robot
JP2023017441A (en) Image processing device
JP7190552B1 (en) Robot teaching system
JP2022163836A (en) Method for displaying robot image, computer program, and method for displaying robot image
CN109664273B (en) Industrial robot cursor dragging teaching method and system
JP2023017440A (en) Image processing device
JP2024044795A (en) Information processing device
JP2023017435A (en) Teaching data correcting device
JP2024044794A (en) Image Generator
JP2023017436A (en) Robot control device
JP7068416B2 (en) Robot control device using augmented reality and mixed reality, computer program for defining the position and orientation of the robot, method for defining the position and orientation of the robot, computer program for acquiring the relative position and orientation, and method for acquiring the relative position and orientation.
JP2024044796A (en) Image Generator
JP2792842B2 (en) Robot work teaching method and device
CN112828897B (en) Teaching device, control method, and storage medium
JPH0123280B2 (en)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240404