JP2024044796A - Image Generator - Google Patents

Image Generator Download PDF

Info

Publication number
JP2024044796A
JP2024044796A JP2022150544A JP2022150544A JP2024044796A JP 2024044796 A JP2024044796 A JP 2024044796A JP 2022150544 A JP2022150544 A JP 2022150544A JP 2022150544 A JP2022150544 A JP 2022150544A JP 2024044796 A JP2024044796 A JP 2024044796A
Authority
JP
Japan
Prior art keywords
positional relationship
virtual robot
robot
end effector
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022150544A
Other languages
Japanese (ja)
Inventor
雄太 鳴川
直樹 古川
梓紗 檀上
正樹 久保
豊和 北野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daihen Corp
Original Assignee
Daihen Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daihen Corp filed Critical Daihen Corp
Priority to JP2022150544A priority Critical patent/JP2024044796A/en
Publication of JP2024044796A publication Critical patent/JP2024044796A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

【課題】ロボットの配置検討を行うための画像生成装置を提供する。【解決手段】画像生成装置3は、基準マーカ6と表示装置4の相対的な位置関係を用いて仮想ロボットの3次元モデルの表示画像を生成する画像生成部36と、表示画像を表示装置4に出力する出力部37と、登録指示の受け付けに応じて仮想ロボットのエンドエフェクタの位置及び姿勢を登録する登録部34と、移動指示の受け付けに応じて基準マーカ6と仮想ロボットの新たな位置関係を取得するロボット位置関係取得部35とを備え、画像生成部36は、移動指示に応じて、基準マーカ6と新たな位置関係となるように配置された、エンドエフェクタが登録された位置及び姿勢である仮想ロボットの3次元モデルの表示画像を生成する。このような構成により、エンドエフェクタの位置及び姿勢を固定した状態で、仮想ロボットの配置位置を検討することができる。【選択図】図1[Problem] To provide an image generating device for examining the placement of a robot. [Solution] The image generating device 3 includes an image generating unit 36 that generates a display image of a three-dimensional model of a virtual robot using the relative positional relationship between a reference marker 6 and a display device 4, an output unit 37 that outputs the display image to the display device 4, a registration unit 34 that registers the position and orientation of an end effector of the virtual robot in response to a registration instruction, and a robot positional relationship acquisition unit 35 that acquires a new positional relationship between the reference marker 6 and the virtual robot in response to a movement instruction, and the image generating unit 36 generates a display image of the three-dimensional model of the virtual robot in which the end effector is in the registered position and orientation, and is placed so as to have a new positional relationship with the reference marker 6, in response to the movement instruction. With this configuration, it is possible to examine the placement position of the virtual robot while fixing the position and orientation of the end effector. [Selected Figure] FIG.

Description

本発明は、エンドエフェクタが登録された位置または位置及び姿勢である仮想ロボットの3次元モデルを表示するための表示画像を生成する画像生成装置に関する。 The present invention relates to an image generating device that generates a display image for displaying a three-dimensional model of a virtual robot in which an end effector is at a registered position or position and posture.

従来、ロボットの導入時における配置検討では、カタログスペックを参考にしていた。また、ロボットの最適配置を出力できるシミュレータも用いられていた(特許文献1参照)。このシミュレータでは、ロボット以外にワークや周辺機器を設置することができ、さらに実環境とシミュレータ内の仮想環境との誤差を考慮した最適配置検討を行うことができる。 Conventionally, catalog specifications were used as a reference when considering the placement of robots when introducing them. Additionally, a simulator that can output the optimal placement of robots has also been used (see Patent Document 1). This simulator allows workpieces and peripheral equipment to be installed in addition to the robot, and furthermore, it is possible to consider the optimal placement by taking into account the differences between the real environment and the virtual environment within the simulator.

特開2005-022062号公報JP 2005-022062 A

しかしながら、シミュレータを用いる場合には、ロボット以外にワークや周辺機器などの3次元モデルを準備する必要があり、コストが増大するという問題があった。また、実環境と仮想環境との誤差を考慮した配置検討において、想定以上の誤差があった場合には、実環境でのロボットの動作時に周辺機器に干渉する可能性があった。そのため、ロボットの配置検討を、低コストかつ高い精度で行うことが要望されていた。 However, when using a simulator, it is necessary to prepare 3D models of the workpiece, peripheral equipment, etc. in addition to the robot, which increases costs. Furthermore, when considering placement, taking into account the error between the real environment and the virtual environment, if there is a larger error than expected, there is a possibility that the robot will interfere with peripheral equipment when operating in the real environment. For this reason, there is a demand for robot placement considerations that are low cost and highly accurate.

本発明は、上記状況に応じてなされたものであり、低コストかつ高い精度でロボットの配置検討を行うための画像生成装置を提供することを目的とする。 The present invention was made in response to the above situation, and aims to provide an image generation device for considering robot placement at low cost and with high accuracy.

上記目的を達成するため、本発明の一態様による画像生成装置は、実ロボットに対応する仮想ロボットの3次元モデルが記憶される記憶部と、実環境に存在する基準マーカと、画像を実環境の画像または実環境そのものに重ねて表示する表示装置との相対的な位置関係を取得するマーカ位置関係取得部と、仮想ロボットの3次元モデルへの操作、仮想ロボットのエンドエフェクタの位置または位置及び姿勢の登録指示、及び仮想ロボットの移動指示を受け付ける受付部と、仮想ロボットの3次元モデルと相対的な位置関係とに基づいて、基準マーカと所定の位置関係となるように配置された仮想ロボットの3次元モデルを、受け付けられた操作に応じて表示するための表示画像を生成する画像生成部と、表示画像を表示装置に出力する出力部と、登録指示が受け付けられた際の仮想ロボットの3次元モデルにおけるエンドエフェクタの位置または位置及び姿勢を登録する登録部と、移動指示の受け付けに応じて、基準マーカと仮想ロボットとの新たな位置関係を取得するロボット位置関係取得部と、を備え、画像生成部は、ロボット位置関係取得部によって新たな位置関係が取得された場合に、基準マーカと新たな位置関係となるように配置された仮想ロボットの3次元モデルであって、エンドエフェクタが登録された位置または位置及び姿勢である仮想ロボットの3次元モデルを表示するための表示画像を生成する、ものである。 In order to achieve the above object, an image generation device according to one aspect of the present invention includes a storage unit that stores a three-dimensional model of a virtual robot corresponding to a real robot, a reference marker that exists in the real environment, and an image generation device that stores an image in the real environment. a marker positional relationship acquisition unit that acquires the relative positional relationship with a display device that is superimposed on an image of the virtual robot or the real environment itself; and a marker positional relationship acquisition unit that acquires the relative positional relationship with a display device that is superimposed on an image of A reception unit that receives posture registration instructions and virtual robot movement instructions, and a virtual robot that is arranged to have a predetermined positional relationship with a reference marker based on the three-dimensional model of the virtual robot and its relative positional relationship. an image generation unit that generates a display image for displaying the three-dimensional model according to an accepted operation, an output unit that outputs the display image to a display device, and a virtual robot when a registration instruction is accepted. A registration unit that registers the position or position and orientation of the end effector in the three-dimensional model; and a robot positional relationship acquisition unit that acquires a new positional relationship between the reference marker and the virtual robot in response to receiving a movement instruction. , the image generation unit is a three-dimensional model of the virtual robot arranged so as to have a new positional relationship with the reference marker when the new positional relationship is acquired by the robot positional relationship acquisition unit, and the end effector is This method generates a display image for displaying a three-dimensional model of a virtual robot at a registered position or position and orientation.

本発明の一態様による画像生成装置によれば、仮想ロボットの3次元モデルにおけるエンドエフェクタの位置または位置及び姿勢を固定した状態で、仮想ロボットの配置位置を変更した仮想ロボットの表示画像を実環境と一緒に見ることができるようになる。そのため、ロボットの配置検討を低コストかつ高精度で実現することができる。 According to an image generating device according to one aspect of the present invention, it is possible to view a display image of a virtual robot in which the placement position of the virtual robot has been changed, together with the real environment, while keeping the position or the position and orientation of the end effector in the three-dimensional model of the virtual robot fixed. This makes it possible to consider the placement of the robot at low cost and with high accuracy.

本発明の実施の形態による情報処理システムの構成を示す模式図A schematic diagram showing the configuration of an information processing system according to an embodiment of the present invention 同実施の形態による画像生成装置の動作を示すフローチャートA flowchart showing the operation of the image generating apparatus according to the embodiment. 同実施の形態による画像生成装置の動作を示すフローチャートFlowchart showing the operation of the image generation device according to the embodiment 同実施の形態における移動前の仮想ロボットを示す図FIG. 13 shows a virtual robot before it moves in the embodiment. 同実施の形態における移動後の仮想ロボットを示す図FIG. 13 shows a virtual robot after it has moved in the embodiment. 同実施の形態における仮想ロボットの移動先の複数の候補を示す図FIG. 13 shows a plurality of candidates for the movement destination of a virtual robot in the embodiment.

以下、本発明による画像生成装置について、実施の形態を用いて説明する。なお、以下の実施の形態において、同じ符号を付した構成要素及びステップは同一または相当するものであり、再度の説明を省略することがある。本実施の形態による画像生成装置は、仮想ロボットのエンドエフェクタの位置及び姿勢を登録し、エンドエフェクタが登録した位置及び姿勢である仮想ロボットの3次元モデルを、新たな配置位置に表示する表示画像を生成するものである。 DESCRIPTION OF THE PREFERRED EMBODIMENTS An image generation device according to the present invention will be described below using embodiments. Note that in the following embodiments, components and steps denoted by the same reference numerals are the same or equivalent, and a repeated explanation may be omitted. The image generation device according to the present embodiment registers the position and orientation of an end effector of a virtual robot, and displays a display image that displays a three-dimensional model of the virtual robot whose position and orientation are registered by the end effector at a new arrangement position. is generated.

図1は、本実施の形態による情報処理システム100の構成を示す模式図である。本実施の形態による情報処理システム100は、画像生成装置3と表示装置4とを備える。なお、画像生成装置3と表示装置4とは、例えば、有線または無線で接続されていてもよい。 FIG. 1 is a schematic diagram showing the configuration of an information processing system 100 according to this embodiment. Information processing system 100 according to this embodiment includes an image generation device 3 and a display device 4. Note that the image generation device 3 and the display device 4 may be connected, for example, by wire or wirelessly.

操作対象の仮想ロボットは、仮想環境に存在する3次元モデルによって構成されるものであり、実ロボットに対応したものである。すなわち、仮想ロボットは、3次元モデルで構成されている以外は、実ロボットと同じであり、例えば、実ロボットと同じサイズ及び構成であってもよく、実ロボットと同様に、複数のアームの関節の角度などを変更可能になっていてもよい。その仮想ロボットの先端には、エンドエフェクタが装着されている。そのエンドエフェクタは、3次元モデルで構成されている以外は、実環境のエンドエフェクタと同じであり、例えば、実環境のエンドエフェクタと同じサイズ及び構成であってもよく、実環境のエンドエフェクタが可動箇所を有している場合には、その実環境のエンドエフェクタと同様に、可動箇所を有していてもよい。エンドエフェクタは、例えば、溶接トーチや、搬送対象を把持するための把持部を有するハンド、搬送対象の載置されるハンド、組み立てや塗装などの機能を有するツールなどであってもよい。 The virtual robot to be operated is constructed from a three-dimensional model existing in the virtual environment, and corresponds to a real robot. That is, the virtual robot is the same as a real robot except that it is constructed from a three-dimensional model, and may have the same size and configuration as the real robot, and has multiple arm joints similar to the real robot. It may be possible to change the angle, etc. An end effector is attached to the tip of the virtual robot. The end effector is the same as the real end effector except that it is constructed from a three-dimensional model, and may, for example, be the same size and configuration as the real end effector, and may be the same as the real end effector. If it has a movable part, it may have a movable part, similar to the end effector in the actual environment. The end effector may be, for example, a welding torch, a hand having a grip for gripping the object to be transported, a hand on which the object to be transported is placed, a tool having functions such as assembly or painting.

実ロボットは、通常、産業用ロボットであり、モータにより駆動される関節によって連結された複数のアーム(リンク)を有するマニピュレータであってもよい。実ロボットは、例えば、垂直多関節ロボットであってもよく、水平多関節ロボットであってもよい。また、実ロボットは、例えば、搬送ロボットであってもよく、溶接ロボットであってもよく、組立ロボットであってもよく、塗装ロボットであってもよく、または、その他の用途のロボットであってもよい。なお、実ロボットは、一例として、実環境に存在するロボットである。実環境とは、実空間の環境のことである。 The real robot is usually an industrial robot, and may be a manipulator having a plurality of arms (links) connected by joints driven by motors. The real robot may be, for example, a vertically articulated robot or a horizontally articulated robot. Further, the actual robot may be, for example, a transfer robot, a welding robot, an assembly robot, a painting robot, or a robot for other purposes. Good too. Note that the real robot is, for example, a robot that exists in a real environment. The real environment refers to an environment in real space.

画像生成装置3は、仮想ロボットのエンドエフェクタの位置及び姿勢を登録し、仮想ロボットの移動指示の受け付けに応じて基準マーカ6と仮想ロボットとの新たな位置関係を取得すると、基準マーカ6と新たな位置関係となるように配置された仮想ロボットであって、エンドエフェクタが登録された位置及び姿勢となる仮想ロボットの3次元モデルを表示するための表示画像を生成するものである。このようにして、手先の位置や姿勢を固定した状態で、仮想ロボットの配置位置を検討することができる。例えば、仮想ロボットの手先を所望の位置や姿勢とした際に周辺機器などとの干渉が発生している場合には、その手先の位置や姿勢を固定した状態で、干渉の発生しない仮想ロボットの配置位置を検討することができる。画像生成装置3の詳細については後述する。 The image generating device 3 registers the position and posture of the end effector of the virtual robot, and when a new positional relationship between the reference marker 6 and the virtual robot is acquired in response to an instruction to move the virtual robot, the image generating device 3 generates a display image for displaying a three-dimensional model of the virtual robot in which the end effector is in the registered position and posture, and in which the virtual robot is positioned so as to have a new positional relationship with the reference marker 6. In this way, the position of the virtual robot can be considered with the position and posture of the hand fixed. For example, if interference occurs with peripheral devices when the hand of the virtual robot is placed in a desired position and posture, a position of the virtual robot that does not cause interference can be considered with the position and posture of the hand fixed. Details of the image generating device 3 will be described later.

基準マーカ6は、2次元の所定の画像である。基準マーカ6は、例えば、ARマーカであってもよく、QRコード(登録商標)であってもよく、2次元のあらかじめ形状の決まっているその他の画像であってもよい。基準マーカ6のサイズは、例えば、あらかじめ決まっていてもよい。本実施の形態では、基準マーカ6がシート6aに表示されている場合について主に説明する。基準マーカ6は、例えば、紙や樹脂製のシート6aに印刷されていてもよい。 The reference marker 6 is a predetermined two-dimensional image. The reference marker 6 may be, for example, an AR marker, a QR code (registered trademark), or any other two-dimensional image with a predetermined shape. The size of the reference marker 6 may be, for example, predetermined. In this embodiment, the case where the reference marker 6 is displayed on a sheet 6a will be mainly described. The reference marker 6 may be printed on, for example, a sheet 6a made of paper or resin.

基準マーカ6と仮想ロボットの3次元モデルとの所定の位置関係は、例えば、あらかじめ決められた位置関係であってもよく、仮想ロボットを操作する作業者等が変更することができる位置関係であってもよい。所定の位置関係は、例えば、仮想ロボットの3次元モデルが基準マーカ6の位置に表示される位置関係であってもよく、仮想ロボットの3次元モデルが基準マーカ6と異なる位置に表示される位置関係であってもよい。前者の場合には、画像生成装置3は、基準マーカ6の位置に仮想ロボットの3次元モデルを配置してもよい。仮想ロボットの3次元モデルが基準マーカ6の位置に配置されるとは、基準マーカ6の位置に実ロボットを配置した状況が仮想的に再現されるように仮想ロボットの3次元モデルが仮想空間に配置されることであってもよく、例えば、仮想ロボットの3次元モデルの基端側の端面(例えば、床面などへの取り付け面)が、基準マーカ6の面と一致するように仮想ロボットの3次元モデルが配置されることであってもよい。仮想ロボットの3次元モデルが基準マーカ6と異なる位置に配置されるとは、例えば、基準マーカ6の隣に仮想ロボットの3次元モデルが配置されることであってもよい。 The predetermined positional relationship between the reference marker 6 and the three-dimensional model of the virtual robot may be, for example, a predetermined positional relationship, or may be a positional relationship that can be changed by a worker or the like who operates the virtual robot. The predetermined positional relationship may be, for example, a positional relationship in which the three-dimensional model of the virtual robot is displayed at the position of the reference marker 6, or a positional relationship in which the three-dimensional model of the virtual robot is displayed at a position different from the reference marker 6. In the former case, the image generating device 3 may place the three-dimensional model of the virtual robot at the position of the reference marker 6. Placing the three-dimensional model of the virtual robot at the position of the reference marker 6 may mean that the three-dimensional model of the virtual robot is placed in the virtual space so that a situation in which a real robot is placed at the position of the reference marker 6 is virtually reproduced, and for example, the three-dimensional model of the virtual robot may be placed so that the end face on the base end side of the three-dimensional model of the virtual robot (for example, the mounting surface to the floor surface, etc.) coincides with the surface of the reference marker 6. Placing the three-dimensional model of the virtual robot at a position different from the reference marker 6 may be, for example, that the three-dimensional model of the virtual robot is placed next to the reference marker 6.

表示装置4は、画像を実環境の画像または実環境そのものに重ねて表示する。すなわち、仮想ロボットを操作する作業者は、表示装置4によって、実環境と仮想環境の画像との両方を見ることができる。表示装置4は、仮想ロボットを操作する作業者が頭部に装着する装着型の表示装置であってもよく、または、タブレット端末などの可搬型の情報処理端末である表示装置であってもよい。装着型の表示装置は、例えば、ヘッドマウントディスプレイであってもよい。また、表示装置4は、例えば、透過型ディスプレイを有するものであってもよい。この場合には、表示装置4は、画像を実環境そのものに重ねて表示することになる。透過型ディスプレイを有する装着型の表示装置4としては、例えば、HoloLens(登録商標)等が知られている。このような透過型ディスプレイを有する表示装置4は、複合現実(MR:Mixed Reality)を実現するための表示装置であると考えることもできる。また、表示装置4は、例えば、非透過型ディスプレイを有するものであってもよい。この場合には、表示装置4は、画像を実環境の画像に重ねて表示することになる。したがって、非透過型ディスプレイを有する表示装置4は、実環境を撮影するためのカメラを有しているか、または、実環境を撮影するカメラと接続されていることが好適である。カメラで撮影された実環境の画像は、リアルタイムで非透過型ディスプレイに表示される。非透過型ディスプレイを有する装着型の表示装置4としては、例えば、Oculus Quest等が知られている。このような非透過型ディスプレイを有する表示装置4は、拡張現実(AR:Augmented Reality)を実現するための表示装置であると考えることもできる。タブレット端末などの可搬型の情報処理端末である表示装置4は、例えば、カメラとディスプレイとを有しており、カメラで撮影した実環境の画像をリアルタイムでティスプレイに表示してもよい。本実施の形態では、表示装置4が透過型のディスプレイを有するヘッドマウントディスプレイである場合について主に説明する。 The display device 4 displays an image superimposed on an image of the real environment or the real environment itself. That is, the worker who operates the virtual robot can see both the real environment and the virtual environment images by using the display device 4. The display device 4 may be a wearable display device that the worker who operates the virtual robot wears on his head, or may be a display device that is a portable information processing terminal such as a tablet terminal. The wearable display device may be, for example, a head-mounted display. The display device 4 may also have, for example, a transparent display. In this case, the display device 4 displays an image superimposed on the real environment itself. As a wearable display device 4 having a transparent display, for example, HoloLens (registered trademark) is known. Such a display device 4 having a transparent display can also be considered as a display device for realizing mixed reality (MR: Mixed Reality). The display device 4 may also have, for example, a non-transparent display. In this case, the display device 4 displays an image superimposed on an image of the real environment. Therefore, it is preferable that the display device 4 having a non-transparent display has a camera for photographing the real environment or is connected to a camera for photographing the real environment. The image of the real environment captured by the camera is displayed on the non-transmissive display in real time. For example, Oculus Quest is known as a wearable display device 4 having a non-transmissive display. Such a display device 4 having a non-transmissive display can also be considered as a display device for realizing augmented reality (AR). The display device 4, which is a portable information processing terminal such as a tablet terminal, has, for example, a camera and a display, and may display an image of the real environment captured by the camera on the display in real time. In this embodiment, the case where the display device 4 is a head-mounted display having a transmissive display will be mainly described.

図1で示されるように、画像生成装置3は、記憶部31と、マーカ位置関係取得部32と、受付部33と、登録部34と、ロボット位置関係取得部35と、画像生成部36と、出力部37とを備える。 As shown in FIG. 1, the image generation device 3 includes a storage section 31, a marker positional relationship acquisition section 32, a reception section 33, a registration section 34, a robot positional relationship acquisition section 35, and an image generation section 36. , and an output section 37.

記憶部31では、仮想ロボットの3次元モデルが記憶される。仮想ロボットの3次元モデルは、例えば、導入を検討している実ロボットに対応するものであってもよい。導入の検討対象が複数存在する場合には、例えば、複数の仮想ロボットの3次元モデルが記憶部31で記憶されていてもよい。この場合には、複数の仮想ロボットの3次元モデルを適宜、切り替えながら表示画像が生成されてもよい。なお、仮想ロボットの3次元モデルの手先には、エンドエフェクタが装着されているものとする。また、3次元モデル以外の情報が記憶部31で記憶されてもよい。例えば、教示データ等が記憶部31で記憶されてもよい。 The storage unit 31 stores a three-dimensional model of a virtual robot. The three-dimensional model of the virtual robot may correspond to, for example, a real robot that is being considered for introduction. If there are multiple targets to be considered for introduction, for example, three-dimensional models of multiple virtual robots may be stored in the storage unit 31. In this case, a display image may be generated while appropriately switching three-dimensional models of a plurality of virtual robots. It is assumed that an end effector is attached to the hand of the three-dimensional model of the virtual robot. Further, information other than the three-dimensional model may be stored in the storage unit 31. For example, teaching data etc. may be stored in the storage unit 31.

記憶部31に情報が記憶される過程は問わない。例えば、記録媒体を介して情報が記憶部31で記憶されるようになってもよく、通信回線等を介して送信された情報が記憶部31で記憶されるようになってもよい。記憶部31は、不揮発性の記録媒体によって実現されることが好適であるが、揮発性の記録媒体によって実現されてもよい。記録媒体は、例えば、半導体メモリや磁気ディスク、光ディスクなどであってもよい。 The process by which information is stored in the storage unit 31 is not important. For example, information may be stored in the storage unit 31 via a recording medium, or information transmitted via a communication line or the like may be stored in the storage unit 31. The storage unit 31 is preferably realized by a non-volatile recording medium, but may also be realized by a volatile recording medium. The recording medium may be, for example, a semiconductor memory, a magnetic disk, an optical disk, etc.

マーカ位置関係取得部32は、実環境に存在する基準マーカ6と表示装置4との相対的な位置関係を取得する。基準マーカ6と表示装置4との相対的な位置関係を取得するとは、例えば、基準マーカ6のローカル座標系であるマーカ座標系と、表示装置4のローカル座標系である表示座標系との相対的な位置関係を取得することであってもよい。この相対的な位置関係は、例えば、両座標系間の変換を示す同次変換行列によって示されてもよい。マーカ位置関係取得部32が、この相対的な位置関係を取得する方法は問わない。マーカ位置関係取得部32は、例えば、表示装置4のカメラで撮影された画像を受け取り、その画像に含まれる基準マーカ6の3以上の特徴点を用いて、マーカ座標系と表示座標系との間の変換を示す同次変換行列を取得してもよい。その同次変換行列の取得は、表示装置4において行われてもよい。この場合には、マーカ位置関係取得部32は、マーカ座標系と表示座標系との間の変換を示す同次変換行列を表示装置4から受け付けてもよい。すなわち、マーカ位置関係取得部32による相対的な位置関係の取得は、相対的な位置関係の受け付けであってもよい。 The marker positional relationship acquisition unit 32 acquires the relative positional relationship between the reference marker 6 existing in the real environment and the display device 4. Acquiring the relative positional relationship between the reference marker 6 and the display device 4 may, for example, be acquiring the relative positional relationship between the marker coordinate system, which is the local coordinate system of the reference marker 6, and the display coordinate system, which is the local coordinate system of the display device 4. This relative positional relationship may be indicated, for example, by a homogeneous transformation matrix indicating the transformation between the two coordinate systems. The method by which the marker positional relationship acquisition unit 32 acquires this relative positional relationship is not important. For example, the marker positional relationship acquisition unit 32 may receive an image captured by the camera of the display device 4, and may acquire a homogeneous transformation matrix indicating the transformation between the marker coordinate system and the display coordinate system using three or more feature points of the reference marker 6 included in the image. The homogeneous transformation matrix may be acquired in the display device 4. In this case, the marker positional relationship acquisition unit 32 may receive a homogeneous transformation matrix indicating the transformation between the marker coordinate system and the display coordinate system from the display device 4. In other words, the acquisition of the relative positional relationship by the marker positional relationship acquisition unit 32 may be the acceptance of the relative positional relationship.

受付部33は、仮想ロボットの3次元モデルへの操作を受け付ける。また、受付部33は、仮想ロボットのエンドエフェクタの位置及び姿勢の登録指示を受け付ける。登録指示は、例えば、仮想ロボットの3次元モデルの表示画像において、エンドエフェクタが所望の位置や姿勢となっている際に受け付けられてもよい。また、受付部33は、仮想ロボットの移動指示を受け付ける。移動指示は、例えば、現在の仮想ロボットの配置位置においてエンドエフェクタが登録された位置及び姿勢となった際に生じている周辺機器などとの干渉を解消するために入力されてもよく、その他の理由に応じて入力されてもよい。 The reception unit 33 receives operations on the three-dimensional model of the virtual robot. The reception unit 33 also receives an instruction to register the position and posture of the end effector of the virtual robot. The registration instruction may be received, for example, when the end effector is in a desired position and posture in the display image of the three-dimensional model of the virtual robot. The reception unit 33 also receives an instruction to move the virtual robot. The movement instruction may be input, for example, to resolve interference with peripheral devices that occurs when the end effector is in the registered position and posture at the current placement position of the virtual robot, or may be input for other reasons.

3次元モデルに対する操作は、例えば、3次元モデルの少なくとも一部の位置や姿勢を変化させるための操作であってもよい。操作の指示の受け付けは、例えば、実環境に存在するティーチングペンダントなどの入力デバイスを介して行われてもよく、表示装置4のディスプレイに表示された仮想ボタンや仮想ティーチングペンダントなどの仮想入力インターフェースを介して行われてもよい。仮想入力インターフェースは、例えば、エアタップなどの動作に応じて表示装置4のディスプレイに表示され、作業者の指やポインティングデバイスによってボタン等が選択された場合に、そのボタン等の操作に応じた入力が表示装置4から受付部33に渡されてもよい。また、作業者の手などのジェスチャによって、仮想ロボットの3次元モデルの少なくとも一部(例えば、エンドエフェクタなどの手先など)の位置や姿勢を変更できてもよい。この場合には、例えば、作業者がディスプレイに表示された3次元モデルを手でつまむ動作(ホールド動作)を行うことによって、その手でつまんだ部分が操作の対象として特定され、その手の位置や姿勢を変化させることによって、特定された対象の位置や姿勢を変化させる操作が行われ、そのつまむ動作を終了させることによって、特定された対象への操作が終了されてもよい。この場合には、例えば、操作の対象を示す情報(例えば、3次元モデルにおける位置や部分を示す情報)と、操作の内容を示す情報(例えば、位置の変更や姿勢の変更などを示す情報)とが表示装置4から受付部33に渡されてもよく、または、表示装置4において取得されたハンドトラッキングの結果が受付部33に渡され、画像生成装置3において、操作の対象や操作の内容が特定されてもよい。表示装置4において操作の対象を示す情報と操作の内容を示す情報とが取得される場合には、表示装置4は、画像生成装置3で保持されている、仮想空間における仮想ロボットの現時点の3次元モデルの情報にアクセス可能であってもよい。なお、作業者の手を用いた操作が行われる場合には、表示装置4はカメラを有しており、そのカメラで撮影された作業者の手のハンドトラッキングが行われることによって、作業者の手が、ディスプレイ上のどの位置に存在するのかが特定されてもよい。また、作業者の手などのジェスチャに応じた3次元モデルの表示画像への操作を、3次元仮想空間における3次元モデルの位置や姿勢の変化に変換する方法はすでに公知であり、その詳細な説明を省略する。 The operation on the three-dimensional model may be, for example, an operation for changing the position or posture of at least a part of the three-dimensional model. The instruction for the operation may be received, for example, through an input device such as a teaching pendant present in the real environment, or through a virtual input interface such as a virtual button or a virtual teaching pendant displayed on the display of the display device 4. The virtual input interface may be displayed on the display of the display device 4 in response to an operation such as an air tap, and when a button or the like is selected by the worker's finger or a pointing device, an input corresponding to the operation of the button or the like may be passed from the display device 4 to the reception unit 33. In addition, the position or posture of at least a part (for example, a hand tip such as an end effector) of the three-dimensional model of the virtual robot may be changed by a gesture of the worker's hand or the like. In this case, for example, when the worker performs an operation of pinching the three-dimensional model displayed on the display with his/her hand (hold operation), the part pinched by the hand is identified as the object of operation, and an operation of changing the position or posture of the identified object is performed by changing the position or posture of the hand, and the operation on the identified object may be ended by ending the pinching operation. In this case, for example, information indicating the target of the operation (e.g., information indicating a position or a part in the three-dimensional model) and information indicating the content of the operation (e.g., information indicating a change in position or a change in posture) may be passed from the display device 4 to the reception unit 33, or the hand tracking results acquired by the display device 4 may be passed to the reception unit 33, and the target of the operation and the content of the operation may be specified in the image generation device 3. When the information indicating the target of the operation and the information indicating the content of the operation are acquired by the display device 4, the display device 4 may be able to access information on the current three-dimensional model of the virtual robot in the virtual space, which is held by the image generation device 3. Note that, when an operation is performed using the worker's hand, the display device 4 may have a camera, and the position of the worker's hand on the display may be specified by performing hand tracking of the worker's hand photographed by the camera. Also, a method for converting an operation on a display image of a three-dimensional model according to a gesture of the worker's hand or the like into a change in the position or posture of the three-dimensional model in a three-dimensional virtual space is already known, and a detailed description thereof will be omitted.

仮想ロボットのエンドエフェクタの位置及び姿勢の登録指示の受け付けは、例えば、実環境の入力デバイスを介して行われてもよく、表示装置4のディスプレイに表示された仮想入力インターフェースを介して行われてもよい。また、仮想ロボットの移動指示の受け付けは、例えば、実環境の入力デバイスや、表示装置4のディスプレイに表示された仮想入力インターフェースを介して行われてもよく、または、ジェスチャ操作によって仮想ロボットの3次元モデルを移動させることによって行われてもよい。入力デバイスや仮想入力インターフェースを介して受け付けられる仮想ロボットの移動指示は、例えば、移動の方向や移動の程度を数値で示すものであってもよい。この場合には、例えば、移動の方向及び程度を示すベクトルに応じた数値が受け付けられてもよい。ジェスチャ操作によって受け付けられる仮想ロボットの移動指示は、例えば、仮想ロボットの3次元モデルの基端側の部分を手でつまむ動作と、その手の位置を変化させる動作と、そのつまむ動作を終了させる動作とを含んでいてもよい。受け付けられた移動指示は、結果として仮想ロボットの配置位置がどのように変化するのかを示す情報であれば特に限定されないが、例えば、移動前のロボット座標系と移動後のロボット座標系との間の変換を示す同次変換行列であってもよく、その他の移動内容を示す情報であってもよい。 The reception of instructions to register the position and orientation of the end effector of the virtual robot may be performed, for example, via an input device in the real environment, or may be performed via a virtual input interface displayed on the display of the display device 4. Good too. Further, the movement instruction of the virtual robot may be received through, for example, an input device in the real environment, a virtual input interface displayed on the display of the display device 4, or the movement instruction of the virtual robot may be received through a gesture operation. This may be done by moving the dimensional model. The movement instruction for the virtual robot accepted via the input device or the virtual input interface may be, for example, one that indicates the direction of movement or the degree of movement using numerical values. In this case, for example, a numerical value corresponding to a vector indicating the direction and degree of movement may be accepted. Movement instructions for the virtual robot that are accepted through gesture operations include, for example, an action of pinching the proximal portion of the three-dimensional model of the virtual robot with the hand, an action of changing the position of the hand, and an action of ending the pinching action. It may also include. The accepted movement instruction is not particularly limited as long as it is information that indicates how the placement position of the virtual robot will change as a result. It may be a homogeneous transformation matrix indicating the transformation of , or it may be information indicating other movement contents.

受付部33は、上記した以外の情報や指示などを受け付けてもよい。受付部33は、例えば、入力デバイスや表示装置4から入力された情報を受け付けてもよく、有線または無線の通信回線を介して送信された情報を受信してもよい。なお、受付部33は、受け付けを行うためのデバイス(例えば、入力デバイスや通信デバイスなど)を含んでもよく、または含まなくてもよい。また、受付部33は、ハードウェアによって実現されてもよく、または所定のデバイスを駆動するドライバ等のソフトウェアによって実現されてもよい。 The receiving unit 33 may also receive information, instructions, etc. other than those described above. For example, the receiving unit 33 may receive information input from an input device or the display device 4, or may receive information transmitted via a wired or wireless communication line. Note that the accepting unit 33 may or may not include a device for accepting requests (for example, an input device, a communication device, etc.). Further, the reception unit 33 may be realized by hardware or by software such as a driver that drives a predetermined device.

登録部34は、受付部33によって登録指示が受け付けられた際の仮想ロボットの3次元モデルにおけるエンドエフェクタの位置及び姿勢を登録する。エンドエフェクタの位置及び姿勢とは、例えば、エンドエフェクタの一部の位置及び姿勢であってもよい。例えば、エンドエフェクタが溶接トーチである場合には、エンドエフェクタの位置及び姿勢は、溶接トーチの先端の位置、及び溶接トーチの先端部分の姿勢であってもよい。また、エンドエフェクタの位置は、例えば、仮想ロボットのTCP(Tool Center Point)の位置であってもよい。エンドエフェクタの位置及び姿勢は、例えば、ワールド座標系における位置及び姿勢であってもよい。ワールド座標系は、一例として、マーカ座標系であってもよい。登録部34は、例えば、ロボット座標系におけるエンドエフェクタの位置及び姿勢を、画像生成部36から取得することができる。また、ロボット座標系と、マーカ座標系などのワールド座標系との位置関係は、例えば、あらかじめ決められている位置関係、またはロボット位置関係取得部35によって取得された位置関係となる。したがって、登録部34は、それらの情報を用いて、マーカ座標系などのワールド座標系におけるエンドエフェクタの位置及び姿勢を特定することができる。エンドエフェクタの位置は、例えば、所定の座標系における座標値で示されてもよい。また、エンドエフェクタの姿勢は、例えば、ロール、ピッチ、ヨー角や、オイラー角などによって示されてもよい。また、登録部34によって登録される位置や姿勢の情報は、結果としてエンドエフェクタの位置及び姿勢を特定できる情報であれば、どのようなものであってもよい。エンドエフェクタの位置及び姿勢を登録するとは、例えば、位置や姿勢を示す情報を記憶部に蓄積することであってもよい。その記憶部は、例えば、記憶部31であってもよく、その他の記録媒体であってもよい。本実施の形態では、後者の場合について主に説明する。 The registration unit 34 registers the position and orientation of the end effector in the three-dimensional model of the virtual robot when the registration instruction is received by the reception unit 33. The position and orientation of the end effector may be, for example, the position and orientation of a part of the end effector. For example, when the end effector is a welding torch, the position and orientation of the end effector may be the position and orientation of the tip of the welding torch. Further, the position of the end effector may be, for example, the position of a TCP (Tool Center Point) of the virtual robot. The position and orientation of the end effector may be, for example, the position and orientation in the world coordinate system. The world coordinate system may be, for example, a marker coordinate system. For example, the registration unit 34 can acquire the position and orientation of the end effector in the robot coordinate system from the image generation unit 36. Further, the positional relationship between the robot coordinate system and the world coordinate system such as the marker coordinate system is, for example, a predetermined positional relationship or a positional relationship acquired by the robot positional relationship acquisition unit 35. Therefore, the registration unit 34 can use this information to specify the position and orientation of the end effector in the world coordinate system such as the marker coordinate system. The position of the end effector may be indicated by coordinate values in a predetermined coordinate system, for example. Further, the attitude of the end effector may be indicated by, for example, roll, pitch, yaw angle, Euler angle, or the like. Further, the information on the position and posture registered by the registration unit 34 may be any type of information as long as the position and posture of the end effector can be specified as a result. Registering the position and orientation of the end effector may mean, for example, storing information indicating the position and orientation in the storage unit. The storage unit may be, for example, the storage unit 31 or another recording medium. In this embodiment, the latter case will mainly be explained.

ロボット位置関係取得部35は、受付部33による移動指示の受け付けに応じて、基準マーカ6と仮想ロボットとの新たな位置関係を取得する。基準マーカ6と仮想ロボットとの新たな位置関係は、例えば、ワールド座標系における仮想ロボットの移動指示に応じた移動後の配置位置を示す情報であってもよい。移動前後の仮想ロボットの位置関係(例えば、移動前後の仮想ロボットのロボット座標系に関する同次変換行列など)は、移動指示に基づいて特定することができる。また、マーカ座標系などのワールド座標系における移動前の仮想ロボットのロボット座標系の位置は既知である。そのため、それらの情報を用いて、ロボット位置関係取得部35は、マーカ座標系などのワールド座標系における移動後の仮想ロボットのロボット座標系の位置を特定することができる。すなわち、ロボット位置関係取得部35は、基準マーカ6と仮想ロボットとの新たな位置関係を取得することができる。この新たな位置関係は、一例として、マーカ座標系と、移動後の配置位置における仮想ロボットのロボット座標系との間の変換を示す同次変換行列であってもよい。 The robot positional relationship acquisition unit 35 acquires a new positional relationship between the reference marker 6 and the virtual robot in response to reception of the movement instruction by the reception unit 33. The new positional relationship between the reference marker 6 and the virtual robot may be, for example, information indicating the placement position of the virtual robot in the world coordinate system after the virtual robot has moved in response to a movement instruction. The positional relationship of the virtual robot before and after movement (for example, a homogeneous transformation matrix regarding the robot coordinate system of the virtual robot before and after movement) can be specified based on the movement instruction. Further, the position of the virtual robot in the robot coordinate system before movement in the world coordinate system such as the marker coordinate system is known. Therefore, using such information, the robot positional relationship acquisition unit 35 can specify the position of the virtual robot in the robot coordinate system after movement in the world coordinate system such as the marker coordinate system. That is, the robot positional relationship acquisition unit 35 can acquire a new positional relationship between the reference marker 6 and the virtual robot. This new positional relationship may be, for example, a homogeneous transformation matrix that indicates transformation between the marker coordinate system and the robot coordinate system of the virtual robot at the placement position after movement.

画像生成部36は、記憶部31で記憶されている仮想ロボットの3次元モデルと、マーカ位置関係取得部32によって取得された相対的な位置関係とに基づいて、基準マーカ6と所定の位置関係となるように配置された仮想ロボットの3次元モデルを、受付部33によって受け付けられた操作に応じて表示するための表示画像を生成する。また、画像生成部36は、ロボット位置関係取得部35によって新たな位置関係が取得された場合に、基準マーカ6と新たな位置関係となるように配置された仮想ロボットの3次元モデルであって、エンドエフェクタが登録された位置及び姿勢である仮想ロボットの3次元モデルを表示するための表示画像を生成する。 Based on the three-dimensional model of the virtual robot stored in the memory unit 31 and the relative positional relationship acquired by the marker positional relationship acquisition unit 32, the image generation unit 36 generates a display image for displaying the three-dimensional model of the virtual robot arranged to have a predetermined positional relationship with the reference marker 6 in response to the operation accepted by the acceptance unit 33. When a new positional relationship is acquired by the robot positional relationship acquisition unit 35, the image generation unit 36 generates a display image for displaying the three-dimensional model of the virtual robot arranged to have a new positional relationship with the reference marker 6, the three-dimensional model being the registered position and posture of the end effector.

基準マーカ6と表示装置4との相対的な位置関係は、マーカ位置関係取得部32によって取得される。また、基準マーカ6と仮想ロボットの3次元モデルとの移動前の位置関係、すなわち初期の位置関係は決まっており、移動指示に応じた移動後の位置関係、すなわち新たな位置関係は、ロボット位置関係取得部35によって取得される。したがって、これらの情報を用いて、画像生成部36は、仮想ロボットの3次元モデルと表示装置4との相対的な位置関係を特定することができる。そのため、画像生成部36は、仮想空間において仮想ロボットの3次元モデルを配置し、その3次元モデルに対して、初期の位置関係または新たな位置関係となる表示装置4の位置及び向きを特定することができる。そして、画像生成部36は、仮想空間における仮想ロボットの3次元モデルを、表示装置4の位置及び向きを基準としてレンダリングすることによって、3次元モデルを表示するための2次元の表示画像を生成することができる。なお、仮想ロボットの各関節の角度は、操作が行われていない場合には初期値となり、操作が行われた場合には操作後の値となる。また、エンドエフェクタが登録された位置及び姿勢である仮想ロボットの表示画像を生成する際には、各関節の角度は、そのエンドエフェクタの登録された位置及び姿勢に応じたものとなる。登録部34によって登録されたエンドエフェクタの位置及び姿勢は、例えば、マーカ座標系などのワールド座標系における位置及び姿勢である。また、マーカ座標系などのワールド座標系における仮想ロボットの新たな配置位置は、ロボット位置関係取得部35によって取得された新たな位置関係によって特定することができる。したがって、画像生成部36は、仮想ロボットの新たな配置位置のローカル座標系(例えば、ロボット座標系)におけるエンドエフェクタの位置及び姿勢を特定することができ、それに応じた各関節の角度を取得することができる。操作後の各関節の角度や、エンドエフェクタの登録された位置及び姿勢に応じた各関節の角度は、例えば、実ロボットと同様に、仮想ロボットの3次元モデルにおける手先の位置及び姿勢を用いた逆運動学によって算出されてもよい。仮想ロボットが操作されると、仮想空間における3次元モデルの形状が、それに応じて変更されることになる。また、表示装置4の位置や向きが実環境において変化した場合には、それに応じて仮想空間上の視点の位置や方向が変更されることになる。そして、その変更後にレンダリングが行われることによって、操作後の3次元モデルの表示画像や、表示装置4の位置や向きの変化後の3次元モデルの表示画像が生成されることになる。なお、画像生成部36は、仮想ロボットの3次元モデルの表示画像が表示装置4のディスプレイに表示された際に、その表示画像の大きさが実環境と整合するように、表示画像を生成するものとする。すなわち、表示装置4のディスプレイに表示された仮想ロボットの3次元モデルと、その3次元モデルと同じ相対的な位置関係となるように実環境に配置された実ロボットとが、表示装置4を介して見たときに同じ大きさになるように、表示画像が生成されることになる。 The relative positional relationship between the reference marker 6 and the display device 4 is acquired by the marker positional relationship acquisition unit 32. Furthermore, the positional relationship between the reference marker 6 and the three-dimensional model of the virtual robot before movement, that is, the initial positional relationship, is fixed, and the positional relationship after movement according to the movement instruction, that is, the new positional relationship, is the robot position. It is acquired by the relationship acquisition unit 35. Therefore, using this information, the image generation unit 36 can specify the relative positional relationship between the three-dimensional model of the virtual robot and the display device 4. Therefore, the image generation unit 36 arranges a three-dimensional model of the virtual robot in the virtual space, and specifies the position and orientation of the display device 4 that will be the initial positional relationship or the new positional relationship with respect to the three-dimensional model. be able to. Then, the image generation unit 36 generates a two-dimensional display image for displaying the three-dimensional model by rendering the three-dimensional model of the virtual robot in the virtual space based on the position and orientation of the display device 4. be able to. Note that the angle of each joint of the virtual robot will be the initial value when no operation is performed, and will be the value after the operation when the operation is performed. Further, when generating a display image of a virtual robot in which the end effector is in a registered position and posture, the angle of each joint is in accordance with the registered position and posture of the end effector. The position and orientation of the end effector registered by the registration unit 34 are, for example, the position and orientation in a world coordinate system such as a marker coordinate system. Further, a new placement position of the virtual robot in the world coordinate system such as the marker coordinate system can be specified based on the new positional relationship acquired by the robot positional relationship acquisition unit 35. Therefore, the image generation unit 36 can specify the position and orientation of the end effector in the local coordinate system (for example, robot coordinate system) of the new placement position of the virtual robot, and obtain the angle of each joint accordingly. be able to. The angle of each joint after operation and the angle of each joint according to the registered position and posture of the end effector can be determined using, for example, the position and posture of the hand in the three-dimensional model of the virtual robot, similar to the real robot. It may also be calculated by inverse kinematics. When the virtual robot is operated, the shape of the three-dimensional model in the virtual space is changed accordingly. Furthermore, if the position or orientation of the display device 4 changes in the real environment, the position or direction of the viewpoint in the virtual space will be changed accordingly. Then, by performing rendering after the change, a display image of the three-dimensional model after the operation and a display image of the three-dimensional model after the position and orientation of the display device 4 have been changed are generated. Note that the image generation unit 36 generates a display image so that when the display image of the three-dimensional model of the virtual robot is displayed on the display of the display device 4, the size of the display image matches the real environment. shall be taken as a thing. That is, the three-dimensional model of the virtual robot displayed on the display of the display device 4 and the real robot placed in the real environment so as to have the same relative positional relationship as the three-dimensional model can be displayed via the display device 4. Display images are generated so that they have the same size when viewed from the front.

なお、画像生成部36は、ロボット位置関係取得部35によって新たな位置関係が取得された際に、基準マーカ6と新たな位置関係となるように配置された仮想ロボットのエンドエフェクタが登録された位置及び姿勢である状態で各関節の角度を逆運動学によって算出することができる場合に、新たな位置関係に応じた表示画像を生成し、そうでない場合に、新たな位置関係に応じた表示画像を生成しなくてもよい。仮想ロボットの各関節の角度を逆運動学によって算出できないとは、例えば、逆運動学の計算において解のない場合であってもよく、または、逆運動学の計算において解はあるが、その解の少なくともいずれかが、あらかじめ設定されている各関節の動作範囲を超えている場合であってもよい。各関節の動作範囲は、例えば、仮想ロボットの筐体などの干渉を防止するために設けられてもよく、ケーブルの断線防止や特異点の回避などのために設けられてもよい。 Note that when the new positional relationship is acquired by the robot positional relationship acquisition unit 35, the image generation unit 36 registers the end effector of the virtual robot arranged to have a new positional relationship with the reference marker 6. If the angle of each joint can be calculated using inverse kinematics in a certain position and posture, a display image is generated according to the new positional relationship, and if not, a display image is generated according to the new positional relationship. It is not necessary to generate an image. The angle of each joint of the virtual robot cannot be calculated by inverse kinematics, for example, if there is no solution in inverse kinematics calculations, or if there is a solution in inverse kinematics calculations, but the solution is not possible. At least one of these may exceed the preset range of motion of each joint. The operating range of each joint may be provided, for example, to prevent interference with the virtual robot's casing, etc., or may be provided to prevent cable breakage, avoidance of singular points, and the like.

また、受け付けられた操作に応じて仮想ロボットを操作できないこともあり得る。例えば、仮想ロボットの手先を、移動可能な範囲を超えて移動させる操作または回転可能な範囲を超えて回転させる操作が受け付けられることもある。このような場合には、画像生成部36は、その操作に応じた表示画像を生成しなくてもよく、または、可能な範囲内で移動または回転を行った仮想ロボット等の3次元モデルの表示画像を生成してもよい。 Furthermore, it may not be possible to operate the virtual robot according to the accepted operation. For example, an operation to move the hand of the virtual robot beyond its movable range or to rotate it beyond its rotatable range may be accepted. In such a case, the image generation unit 36 does not need to generate a display image according to the operation, or may display a three-dimensional model such as a virtual robot that has moved or rotated within the possible range. An image may also be generated.

なお、仮想ロボットは、実環境に配置された基準マーカ6と所定の位置関係(例えば、初期の位置関係、または取得された位置関係)となるように表示されることになる。したがって、表示装置4の向きが変化されたとしても、実環境における仮想ロボットの3次元モデルの表示位置は変化しないことになる。また、画像生成部36によって生成される表示画像は、例えば、背後の画像を見ることができない不透明な画像であってもよく、背後の画像も見ることができる半透明の画像であってもよい。 The virtual robot is displayed so that it has a predetermined positional relationship (for example, an initial positional relationship or an acquired positional relationship) with the reference marker 6 placed in the real environment. Therefore, even if the orientation of the display device 4 is changed, the display position of the three-dimensional model of the virtual robot in the real environment will not change. In addition, the display image generated by the image generation unit 36 may be, for example, an opaque image that does not allow the image behind it to be seen, or a translucent image that allows the image behind it to be seen.

出力部37は、画像生成部36によって生成された表示画像を表示装置4に出力する。出力部37は、表示画像を出力する際に、表示画像のみを出力してもよい。この場合には、表示装置4において、実環境の画像または実環境そのものに表示画像が重ねられて表示されることになる。一方、表示装置4が非透過型ディスプレイを有する場合であって、表示装置4で撮影された実環境の画像が画像生成装置3で受け付けられている場合には、実環境の画像と表示画像とが合成された結果が、表示装置4に出力されてもよい。この合成は、例えば、画像生成装置3が有する図示しない合成部によって行われてもよい。 The output unit 37 outputs the display image generated by the image generation unit 36 to the display device 4. When outputting the display image, the output unit 37 may output only the display image. In this case, the display image is displayed on the display device 4 by being superimposed on an image of the real environment or the real environment itself. On the other hand, if the display device 4 has a non-transparent display and an image of the real environment captured by the display device 4 is accepted by the image generation device 3, the result of combining the image of the real environment and the display image may be output to the display device 4. This combination may be performed, for example, by a combination unit (not shown) included in the image generation device 3.

基準マーカ6と異なる位置に仮想ロボットの3次元モデルが表示される場合には、例えば、図1で示されるように、基準マーカ6の隣に仮想ロボットの3次元モデル10が表示されてもよい。図1における基準マーカ6及び仮想ロボットの3次元モデル10は、仮想ロボットを操作する作業者が表示装置4を介して見ている状況を模式的に示したものである。 When the three-dimensional model of the virtual robot is displayed at a position different from the reference marker 6, for example, as shown in FIG. 1, the three-dimensional model 10 of the virtual robot may be displayed next to the reference marker 6. The reference marker 6 and the three-dimensional model 10 of the virtual robot in FIG. 1 are schematic representations of the situation as viewed by the operator operating the virtual robot via the display device 4.

なお、仮想ロボットの3次元モデルを表示することや、その仮想ロボットの3次元モデルを表示デバイスの仮想入力インターフェースや作業者のジェスチャ等を用いて操作することなどについては、例えば、次の文献1~3で示されるようにすでに公知であり、その詳細な説明を省略する。
文献1:特開2017-100234号公報
文献2:特開2020-055075号公報
文献3:特開2020-069538号公報
Furthermore, regarding displaying a 3D model of a virtual robot and operating the 3D model of the virtual robot using a virtual input interface of a display device, operator's gestures, etc., see, for example, the following document 1. As shown in 3. to 3, it is already known, and detailed explanation thereof will be omitted.
Document 1: JP2017-100234A Document 2: JP2020-055075A Document 3: JP2020-069538A

また、出力部37は、基準マーカ6と新たな位置関係となるように配置された仮想ロボットのエンドエフェクタが登録された位置及び姿勢である状態で各関節の角度を逆運動学によって算出することができない場合に、新たな位置関係に移動できない旨を出力してもよい。なお、新たな位置関係に移動できない旨の出力は、例えば、新たな位置関係に対応する新たな配置位置に移動できない旨の出力であってもよい。この出力は、例えば、表示装置4への画像や音声の出力であってもよく、他の表示デバイスへの表示であってもよく、所定の機器への通信回線を介した送信でもよく、プリンタによる印刷でもよく、スピーカによる音声出力でもよく、記録媒体への蓄積でもよく、他の構成要素への引き渡しでもよい。なお、出力部37は、出力を行うデバイス(例えば、表示デバイスやスピーカなど)を含んでもよく、または含まなくてもよい。また、出力部37は、ハードウェアによって実現されてもよく、または、それらのデバイスを駆動するドライバ等のソフトウェアによって実現されてもよい。 In addition, when the end effector of the virtual robot arranged to have a new positional relationship with the reference marker 6 cannot calculate the angles of each joint by inverse kinematics in a state where the end effector is in the registered position and posture, the output unit 37 may output a message indicating that the virtual robot cannot move to the new positional relationship. The message indicating that the virtual robot cannot move to the new positional relationship may be, for example, a message indicating that the virtual robot cannot move to a new arrangement position corresponding to the new positional relationship. This output may be, for example, an image or sound output to the display device 4, a display on another display device, a transmission to a specified device via a communication line, a printing by a printer, a sound output by a speaker, storage on a recording medium, or a transfer to another component. The output unit 37 may or may not include a device that performs output (for example, a display device, a speaker, etc.). The output unit 37 may be realized by hardware, or may be realized by software such as a driver that drives those devices.

次に、画像生成装置3の動作について図2のフローチャートを用いて説明する。
(ステップS101)画像生成部36は、仮想ロボットの3次元モデルの表示画像を生成し、出力部37は、生成された表示画像を表示装置4に出力する。また、受付部33は、表示された仮想ロボットのエンドエフェクタに対する操作を受け付けてもよい。操作が受け付けられた際には、その操作に応じてエンドエフェクタの位置や姿勢の変更された仮想ロボットの3次元モデルの表示画像が生成されて出力されてもよい。なお、この処理の詳細については、図3のフローチャートを用いて後述する。
Next, the operation of the image generating device 3 will be described with reference to the flowchart of FIG.
(Step S101) The image generation unit 36 generates a display image of a three-dimensional model of the virtual robot, and the output unit 37 outputs the generated display image to the display device 4. The reception unit 33 may also receive an operation on an end effector of the displayed virtual robot. When an operation is received, a display image of a three-dimensional model of the virtual robot in which the position or posture of the end effector has been changed in response to the operation may be generated and output. Details of this process will be described later using the flowchart in FIG. 3.

(ステップS102)受付部33は、登録指示を受け付けたかどうか判断する。そして、登録指示を受け付けた場合には、ステップS103に進み、そうでない場合には、ステップS101に戻る。 (Step S102) The reception unit 33 determines whether a registration instruction has been received. If a registration instruction has been received, the process proceeds to step S103; if not, the process returns to step S101.

(ステップS103)登録部34は、その時点の仮想ロボットの3次元モデルにおけるエンドエフェクタの位置及び姿勢を登録する。 (Step S103) The registration unit 34 registers the position and orientation of the end effector in the three-dimensional model of the virtual robot at that time.

(ステップS104)受付部33は、仮想ロボットの移動指示を受け付けたかどうか判断する。そして、移動指示を受け付けた場合には、ステップS105に進み、そうでない場合には、移動指示を受け付けるまでステップS104の処理を繰り返す。 (Step S104) The reception unit 33 determines whether a movement instruction for the virtual robot has been received. If a movement instruction is accepted, the process proceeds to step S105, and if not, the process of step S104 is repeated until a movement instruction is received.

(ステップS105)ロボット位置関係取得部35は、移動指示の受け付けに応じて、基準マーカ6と移動後の仮想ロボットとの新たな位置関係を取得する。 (Step S105) In response to receiving the movement instruction, the robot positional relationship acquisition unit 35 acquires the new positional relationship between the reference marker 6 and the virtual robot after the movement.

(ステップS106)画像生成部36は、新たな位置関係に応じた表示画像を生成するかどうか判断する。画像生成部36は、例えば、基準マーカ6と新たな位置関係となるように配置された仮想ロボットのエンドエフェクタが登録された位置及び姿勢である状態で、各関節の角度を逆運動学によって算出することができる場合に、新たな位置関係に応じた表示画像を生成すると判断してステップS107に進み、そうでない場合に、新たな位置関係に応じた表示画像を生成しないと判断してステップS104に戻ってもよい。ステップS104に戻る際に、出力部37は、例えば、仮想ロボットを新たな位置関係に移動できない旨を出力してもよい。 (Step S106) The image generation unit 36 determines whether to generate a display image according to the new positional relationship. For example, if the image generation unit 36 can calculate the angles of each joint by inverse kinematics when the end effector of the virtual robot arranged to have a new positional relationship with the reference marker 6 is in the registered position and posture, the image generation unit 36 may determine to generate a display image according to the new positional relationship and proceed to step S107, or if not, may determine not to generate a display image according to the new positional relationship and return to step S104. When returning to step S104, the output unit 37 may output, for example, a message indicating that the virtual robot cannot be moved to the new positional relationship.

(ステップS107)画像生成部36は、基準マーカ6と、ステップS105で取得された新たな位置関係となるように配置された仮想ロボットであって、エンドエフェクタが登録された位置及び姿勢である仮想ロボットの3次元モデルを表示するための表示画像を生成する。なお、この処理の詳細については、図3のフローチャートを用いて後述する。 (Step S107) The image generation unit 36 generates a virtual robot arranged so as to have a new positional relationship with the reference marker 6 obtained in step S105, and a virtual robot whose end effector is in the registered position and orientation. A display image for displaying a three-dimensional model of the robot is generated. Note that the details of this process will be described later using the flowchart of FIG.

(ステップS108)受付部33は、一連の処理に関する終了の指示を受け付けたかどうか判断する。そして、終了の指示を受け付けた場合には、ステップS101に戻り、そうでない場合には、ステップS109に進む。 (Step S108) The reception unit 33 determines whether an instruction to end the series of processes has been received. If the instruction to end is accepted, the process returns to step S101; otherwise, the process proceeds to step S109.

(ステップS109)受付部33は、仮想ロボットの移動指示を受け付けたかどうか判断する。そして、移動指示を受け付けた場合には、ステップS105に戻り、そうでない場合には、ステップS107に戻る。 (Step S109) The reception unit 33 determines whether or not a movement instruction for the virtual robot has been received. If a movement instruction has been received, the process returns to step S105; if not, the process returns to step S107.

なお、図2のフローチャートでは、仮想ロボットの初期位置においてのみエンドエフェクタの位置や姿勢を登録できる場合について示しているが、仮想ロボットの移動後の配置位置においても、エンドエフェクタの位置や姿勢を登録できるようにしてもよい。また、図2のフローチャートにおける処理の順序は一例であり、同様の結果を得られるのであれば、各ステップの順序を変更してもよい。また、図2のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。 Note that while the flowchart in FIG. 2 shows a case where the position and orientation of the end effector can only be registered at the initial position of the virtual robot, it is also possible to register the position and orientation of the end effector at the placement position after the virtual robot is moved. Also, the order of the processing in the flowchart in FIG. 2 is an example, and the order of each step may be changed as long as the same results are obtained. Also, in the flowchart in FIG. 2, the processing ends when the power is turned off or an interrupt is issued to end the processing.

次に、図3のフローチャートを用いて、図2のフローチャートにおける仮想ロボットの表示画像の生成の処理(ステップS101,S107)について説明する。なお、ステップS101では、操作や表示の対象となるのは基準マーカ6と初期の位置関係となるように配置された仮想ロボットの3次元モデルであり、ステップS107では、操作や表示の対象となるのは基準マーカ6と新たな位置関係となるように配置された仮想ロボットの3次元モデルであるが、図3では、両者を特に区別しないで説明する。 Next, the process of generating a display image of a virtual robot (steps S101 and S107) in the flowchart of FIG. 2 will be described using the flowchart of FIG. 3. Note that in step S101, the object to be manipulated and displayed is the three-dimensional model of the virtual robot arranged to have an initial positional relationship with the reference marker 6, and in step S107, the object to be manipulated and displayed is 3 is a three-dimensional model of a virtual robot arranged to have a new positional relationship with the reference marker 6, but in FIG. 3, the two will be explained without making any particular distinction.

(ステップS201)受付部33は、3次元モデルへの操作を受け付けたかどうか判断する。そして、操作を受け付けた場合には、ステップS203に進み、そうでない場合には、ステップS202に進む。 (Step S201) The reception unit 33 determines whether an operation on the three-dimensional model has been received. If an operation has been received, the process proceeds to step S203; if not, the process proceeds to step S202.

(ステップS202)画像生成部36は、表示画像の生成を行うかどうか判断する。そして、表示画像を生成する場合には、ステップS203に進み、そうでない場合には、図2のフローチャートに戻る。なお、画像生成部36は、例えば、表示画像の生成を行うと定期的に判断してもよい。この判断が行われることによって、例えば、操作が行われていなくても、表示装置4の位置や向きが変更された場合には、その変更後の位置や向きに応じた表示画像が表示装置4で表示されるようになる。 (Step S202) The image generation unit 36 determines whether to generate a display image. Then, if a display image is to be generated, the process advances to step S203, and if not, the process returns to the flowchart of FIG. 2. Note that the image generation unit 36 may, for example, periodically determine to generate a display image. By making this determination, for example, even if no operation is performed, if the position or orientation of the display device 4 is changed, a display image corresponding to the changed position or orientation will be displayed on the display device 4. will be displayed.

(ステップS203)マーカ位置関係取得部32は、基準マーカ6と表示装置4との相対的な位置関係を取得する。 (Step S203) The marker positional relationship acquisition unit 32 acquires the relative positional relationship between the reference marker 6 and the display device 4.

(ステップS204)画像生成部36は、記憶部31で記憶されている仮想ロボットの3次元モデル、及びステップS203で取得された相対的な位置関係を用いて、3次元モデルを表示するための表示画像を生成する。また、操作が受け付けられた場合には、その操作に応じて変化させた後の3次元モデルを表示するための表示画像が生成されることになる。また、ステップS107において表示画像を生成する際には、エンドエフェクタが登録された位置及び姿勢である仮想ロボットの3次元モデルを表示するための表示画像が生成されることになる。また、表示装置4の位置や向きが変更された場合には、その変更後の表示装置4の位置や向きに応じた3次元モデルの表示画像が生成されることになる。なお、仮想ロボットの3次元モデルを表示するための表示画像は、基準マーカ6と初期の位置関係または新たな位置関係となるように生成されるものとする。 (Step S204) The image generation unit 36 uses the three-dimensional model of the virtual robot stored in the storage unit 31 and the relative positional relationship acquired in step S203 to create a display for displaying the three-dimensional model. Generate an image. Further, if the operation is accepted, a display image for displaying the three-dimensional model changed according to the operation will be generated. Furthermore, when generating a display image in step S107, a display image for displaying a three-dimensional model of the virtual robot in which the end effector is registered in the position and orientation is generated. Further, when the position or orientation of the display device 4 is changed, a display image of a three-dimensional model is generated according to the changed position or orientation of the display device 4. It is assumed that the display image for displaying the three-dimensional model of the virtual robot is generated so as to have an initial positional relationship or a new positional relationship with the reference marker 6.

(ステップS205)出力部37は、生成された表示画像を表示装置4に出力する。そして、図2のフローチャートに戻る。この出力に応じて、例えば、仮想ロボットの3次元モデルが表示されることになる。 (Step S205) The output unit 37 outputs the generated display image to the display device 4. Then, the process returns to the flowchart of FIG. 2. In response to this output, for example, a three-dimensional model of a virtual robot is displayed.

次に、本実施の形態による画像生成装置3の動作について、具体例を用いて説明する。まず、作業者は、導入予定の実ロボットを配置する位置に、基準マーカ6の表示されたシート6aを配置する。次に、作業者は、頭部装着型の表示装置4を頭部に装着し、画像生成装置3の処理を開始させる。すると、画像生成装置3は、仮想ロボットの表示画像を生成して表示装置4に出力する(ステップS101)。具体的には、画像生成部36は、表示画像の生成を行うと判断し、マーカ位置関係取得部32に、基準マーカ6と表示装置4との相対的な位置関係を取得する旨の指示を渡す(ステップS202)。その指示に応じて、マーカ位置関係取得部32は相対的な位置関係を取得して画像生成部36に渡す(ステップS203)。相対的な位置関係を受け取ると、画像生成部36は、その相対的な位置関係と、記憶部31で記憶されている仮想ロボットの3次元モデルとを用いて、あらかじめ決められた初期位置及び初期姿勢で、その3次元モデルを表示するための表示画像を生成して出力部37に渡す(ステップS204)。出力部37は、その受け取った表示画像を表示装置4に出力する(ステップS205)。その結果、作業者は、実空間に重ねて配置された仮想ロボットを見ることができる。 Next, the operation of the image generating device 3 according to this embodiment will be described using a specific example. First, the worker places the sheet 6a on which the reference marker 6 is displayed at the position where the real robot to be introduced is to be placed. Next, the worker wears the head-mounted display device 4 on his head and starts the processing of the image generating device 3. Then, the image generating device 3 generates a display image of the virtual robot and outputs it to the display device 4 (step S101). Specifically, the image generating unit 36 determines that a display image is to be generated, and transmits an instruction to the marker positional relationship acquisition unit 32 to acquire the relative positional relationship between the reference marker 6 and the display device 4 (step S202). In response to the instruction, the marker positional relationship acquisition unit 32 acquires the relative positional relationship and transmits it to the image generating unit 36 (step S203). Upon receiving the relative positional relationship, the image generating unit 36 uses the relative positional relationship and the three-dimensional model of the virtual robot stored in the storage unit 31 to generate a display image for displaying the three-dimensional model at a predetermined initial position and initial posture, and transmits it to the output unit 37 (step S204). The output unit 37 outputs the received display image to the display device 4 (step S205). As a result, the worker can see the virtual robot superimposed on the real space.

その後、作業者は、ティーチングペンダントなどの入力デバイスを用いた操作や、ジェスチャ操作などによって、図4で示されるように、表示されたエンドエフェクタである溶接トーチの先端部分が所望の位置及び姿勢となるように移動させる(ステップS201、S203~S205)。なお、図4では、基準マーカ6と仮想ロボットの3次元モデル10以外の実環境に配置されているワークや周辺機器などの表示は省略している。後述する図5についても同様である。この時点において、作業者が、登録指示を入力デバイスや仮想入力インターフェースを介して入力すると、その入力は受付部33で受け付けられ、登録部34に渡される(ステップS102)。そして、登録部34は、その時点のエンドエフェクタの位置及び姿勢を取得して図示しない記録媒体に蓄積する(ステップS103)。 Thereafter, the operator uses an input device such as a teaching pendant or gestures to move the tip of the welding torch, which is the displayed end effector, to the desired position and orientation, as shown in FIG. (Steps S201, S203 to S205). Note that in FIG. 4, displays of workpieces, peripheral devices, etc. placed in the real environment other than the reference marker 6 and the three-dimensional model 10 of the virtual robot are omitted. The same applies to FIG. 5, which will be described later. At this point, when the operator inputs a registration instruction via an input device or a virtual input interface, the input is accepted by the reception unit 33 and passed to the registration unit 34 (step S102). Then, the registration unit 34 acquires the position and orientation of the end effector at that time and stores it in a recording medium (not shown) (step S103).

次に、作業者は、入力デバイスや仮想入力インターフェース、またはジェスチャ操作などによって、表示された仮想ロボットの移動指示を入力する。この移動指示は、例えば、エンドエフェクタが所望の位置及び姿勢である仮想ロボットの3次元モデル10が、周辺機器等と干渉している際に、その干渉を解消するために入力されてもよい。その移動指示は受付部33で受け付けられ、ロボット位置関係取得部35に渡される(ステップS104)。移動指示を受け取ると、ロボット位置関係取得部35は、基準マーカ6と仮想ロボットとの新たな位置関係を取得して、画像生成部36に渡す(ステップS105)。 Next, the worker inputs a movement instruction for the displayed virtual robot using an input device, a virtual input interface, or a gesture operation. This movement instruction may be input, for example, to resolve interference when the 3D model 10 of the virtual robot with the end effector in a desired position and posture interferes with a peripheral device or the like. The movement instruction is received by the reception unit 33 and passed to the robot positional relationship acquisition unit 35 (step S104). Upon receiving the movement instruction, the robot positional relationship acquisition unit 35 acquires a new positional relationship between the reference marker 6 and the virtual robot, and passes it to the image generation unit 36 (step S105).

基準マーカ6と仮想ロボットとの新たな位置関係を受け取ると、画像生成部36は、登録部34からエンドエフェクタの登録された位置及び姿勢を取得し、基準マーカ6とその新しい位置関係となるように配置した仮想ロボットのエンドエフェクタを登録された位置及び姿勢とした状態において、仮想ロボットの各関節の角度を逆運動学によって算出できるかどうか判断する(ステップS106)。この場合には、各関節の角度を逆運動学によって算出できたとする。すると、画像生成部36は、基準マーカ6とその新しい位置関係となるように配置した仮想ロボットの3次元モデルであって、エンドエフェクタの位置及び姿勢が登録された位置及び姿勢となる仮想ロボットの3次元モデルを表示するための表示画像を生成し、出力部37は、その表示画像を表示装置4に出力する(ステップS107、S202~S205)。その結果、作業者は、図5で示されるように、エンドエフェクタの3次元モデル10aが登録された位置及び姿勢であり、移動後の位置に配置された仮想ロボットの3次元モデル10の表示画像を見ることができ、例えば、移動させた仮想ロボットのエンドエフェクタが所望の位置及び姿勢となった場合の状況を、実環境において確認することができる。そして、例えば、仮想ロボットが実環境に配置されている周辺機器等と干渉しないかどうかなどを確認することもできる。 When the new positional relationship between the reference marker 6 and the virtual robot is received, the image generation unit 36 acquires the registered position and orientation of the end effector from the registration unit 34, and determines whether the angles of each joint of the virtual robot can be calculated by inverse kinematics in a state in which the end effector of the virtual robot arranged so as to have the new positional relationship with the reference marker 6 is in the registered position and orientation (step S106). In this case, it is assumed that the angles of each joint can be calculated by inverse kinematics. Then, the image generation unit 36 generates a display image for displaying a three-dimensional model of the virtual robot arranged so as to have the new positional relationship with the reference marker 6, in which the position and orientation of the end effector are the registered position and orientation, and the output unit 37 outputs the display image to the display device 4 (steps S107, S202 to S205). As a result, as shown in FIG. 5, the operator can see a display image of the 3D model 10 of the virtual robot placed in a position after movement, with the 3D model 10a of the end effector in the registered position and orientation, and can check, for example, in the real environment, the situation when the end effector of the moved virtual robot is in the desired position and orientation. It can also be checked, for example, whether the virtual robot will interfere with peripheral devices placed in the real environment.

また、作業者が移動指示を入力する際に、例えば、仮想ロボットを移動させすぎたことによって、新しい位置に配置した仮想ロボットのエンドエフェクタを登録された位置及び姿勢とした状態において、仮想ロボットの各関節の角度を逆運動学によって算出できない場合には(ステップS106)、再度、移動指示の入力を受け付けることになる。また、その際に、新たな位置に移動できない旨を出力することによって、移動可能な範囲を超える移動指示を入力したことを、作業者に知らせるようにしてもよい。 In addition, when the worker inputs a movement command, if, for example, the virtual robot has been moved too far and the angles of each joint of the virtual robot cannot be calculated using inverse kinematics when the end effector of the virtual robot placed in the new position is in the registered position and orientation (step S106), the input of the movement command will be accepted again. At that time, an output may be output indicating that movement to the new position is not possible, to inform the worker that a movement command that exceeds the possible range has been input.

なお、作業者が、表示された仮想ロボットの3次元モデル10を操作することによって、仮想ロボットの3次元モデル10の表示が変更される(ステップS107,S201,S203~S205)。したがって、作業者は、仮想ロボットの新たな配置位置における動作について確認することもできる。また、作業者が、新たな移動指示を入力することによって、その移動指示が受付部33で受け付けられ(ステップS109)、新たな位置関係の取得や、新たな位置関係に応じた仮想ロボットの表示などが行われる(ステップS105~S107)。なお、この場合にも、新たな位置に配置された仮想ロボットの3次元モデルであって、エンドエフェクタの位置及び姿勢が登録された位置及び姿勢となる仮想ロボットの3次元モデルを表示するための表示画像が生成され、表示装置4で表示されることになる。 Note that the display of the three-dimensional model 10 of the virtual robot is changed by the operator operating the displayed three-dimensional model 10 of the virtual robot (steps S107, S201, S203 to S205). Therefore, the worker can also confirm the operation of the virtual robot at the new placement position. Further, when the worker inputs a new movement instruction, the movement instruction is accepted by the reception unit 33 (step S109), and the new positional relationship is acquired and the virtual robot is displayed according to the new positional relationship. etc. are performed (steps S105 to S107). In this case as well, a 3D model of the virtual robot placed at a new position, where the position and orientation of the end effector are the registered position and orientation, is displayed. A display image will be generated and displayed on the display device 4.

以上のように、本実施の形態による画像生成装置3によれば、エンドエフェクタの位置及び姿勢を固定した状態で、配置位置を変更した仮想ロボットの3次元モデルの表示画像を生成して出力することができるようになる。したがって、例えば、溶接ロボットである仮想ロボットの溶接トーチの位置及び姿勢を溶接開始位置に固定した状態で、仮想ロボットの配置位置を変更することによって、実環境に配置されている周辺機器等と干渉しないロボットの配置位置を検討することができるようになる。なお、仮想ロボットの3次元モデル10の表示画像を、実環境の画像または実環境そのものと重ねて表示することができるため、高精度な配置検討を行うことができる。また、実環境のワークや周辺機器などの3次元モデルを用意する必要がないため、低コストで配置検討を行うこともできる。また、基準マーカ6と新たな位置関係となるように配置された仮想ロボットのエンドエフェクタが登録された位置及び姿勢である状態で各関節の角度を逆運動学によって算出できるかどうかによって、その新たな位置関係に応じた表示画像を生成するかどうかを判断することができる。例えば、新たな配置位置において、仮想ロボットの表示画像が表示されないことによって、作業者は、その配置位置に仮想ロボットを移動できないこと、すなわち、その配置位置に配置された仮想ロボットは、エンドエフェクタが登録された位置及び姿勢となることができないことを知ることができる。また、各関節の角度を逆運動学によって算出できない場合に、新たな位置に移動できない旨を出力することによって、移動可能な範囲を超える移動指示を入力したこと作業者に通知することができ、再度の移動指示の入力を促すことができる。 As described above, the image generation device 3 according to the present embodiment generates and outputs a display image of a three-dimensional model of a virtual robot whose placement position is changed while the position and posture of the end effector are fixed. You will be able to do this. Therefore, for example, by changing the placement position of the virtual robot while the position and orientation of the welding torch of the virtual robot, which is a welding robot, is fixed at the welding start position, interference may occur with peripheral devices placed in the real environment. This makes it possible to consider the placement position of robots that are not used. Note that since the display image of the three-dimensional model 10 of the virtual robot can be displayed superimposed on an image of the real environment or the real environment itself, highly accurate placement studies can be performed. Furthermore, since there is no need to prepare three-dimensional models of workpieces in the actual environment, peripheral devices, etc., placement can be considered at low cost. In addition, depending on whether the angle of each joint can be calculated by inverse kinematics with the end effector of the virtual robot placed in a new positional relationship with the reference marker 6 in the registered position and orientation, the new It is possible to determine whether to generate a display image according to the positional relationship. For example, if the display image of the virtual robot is not displayed at a new placement position, the operator cannot move the virtual robot to that placement position. It is possible to know that the registered position and posture cannot be achieved. In addition, if the angle of each joint cannot be calculated using inverse kinematics, it is possible to notify the operator that a movement instruction that exceeds the movable range is input by outputting a message that the movement cannot be moved to a new position. It is possible to prompt the user to input the movement instruction again.

なお、本実施の形態では、エンドエフェクタの1個の位置及び姿勢が登録される場合について主に説明したが、そうでなくてもよい。エンドエフェクタの2以上の位置及び姿勢が登録部34によって登録されてもよい。例えば、エンドエフェクタが溶接トーチである場合に、溶接の開始位置における溶接トーチの位置及び姿勢と、溶接の終了位置における溶接トーチの位置及び姿勢とが登録されてもよい。このように、登録部34によってエンドエフェクタの2以上の位置及び姿勢が登録された場合には、画像生成部36は、ロボット位置関係取得部35によって新たな位置関係が取得された際に、基準マーカ6と新たな位置関係となるように配置された仮想ロボットの3次元モデルであって、エンドエフェクタが登録された2以上の位置及び姿勢である2以上の仮想ロボットの3次元モデルをそれぞれ表示するための表示画像を生成してもよい。 In the present embodiment, the case where one position and posture of the end effector is registered has been mainly described, but this is not necessary. Two or more positions and postures of the end effector may be registered by the registration unit 34. For example, when the end effector is a welding torch, the position and posture of the welding torch at the start position of welding and the position and posture of the welding torch at the end position of welding may be registered. In this way, when two or more positions and postures of the end effector are registered by the registration unit 34, the image generation unit 36 may generate display images for displaying two or more three-dimensional models of the virtual robot that are arranged to have a new positional relationship with the reference marker 6 when a new positional relationship is acquired by the robot positional relationship acquisition unit 35, and that are two or more positions and postures of the end effector that are registered.

より具体的には、エンドエフェクタの第1の位置及び姿勢と、第2の位置及び姿勢とが登録された場合には、画像生成部36は、基準マーカ6と新たな位置関係となるように配置された、エンドエフェクタが登録された第1の位置及び姿勢である第1の仮想ロボットの3次元モデルと、基準マーカ6と新たな位置関係となるように配置された、エンドエフェクタが登録された第2の位置及び姿勢である第2の仮想ロボットの3次元モデルとを表示するための表示画像を生成してもよい。また、画像生成部36は、基準マーカ6と新たな位置関係となるように配置された第1の仮想ロボットのエンドエフェクタが登録された第1の位置及び姿勢である状態で各関節の角度を逆運動学によって算出することができ、かつ、基準マーカ6と新たな位置関係となるように配置された第2の仮想ロボットのエンドエフェクタが登録された第2の位置及び姿勢である状態で各関節の角度を逆運動学によって算出することができる場合に、その新たな位置関係に応じた表示画像を生成し、そうでない場合に、その新たな位置関係に応じた表示画像を生成しなくてもよい。 More specifically, when the first position and orientation and the second position and orientation of the end effector are registered, the image generation unit 36 may generate a display image for displaying a three-dimensional model of the first virtual robot in the first position and orientation in which the end effector is registered, arranged so as to have a new positional relationship with the reference marker 6, and a three-dimensional model of the second virtual robot in the second position and orientation in which the end effector is registered, arranged so as to have a new positional relationship with the reference marker 6. In addition, if the image generation unit 36 can calculate the angle of each joint by inverse kinematics when the end effector of the first virtual robot arranged so as to have a new positional relationship with the reference marker 6 is in the registered first position and orientation, and can calculate the angle of each joint by inverse kinematics when the end effector of the second virtual robot arranged so as to have a new positional relationship with the reference marker 6 is in the registered second position and orientation, the image generation unit 36 may generate a display image according to the new positional relationship, and may not generate a display image according to the new positional relationship otherwise.

このように、エンドエフェクタのN個の位置及び姿勢が登録された場合には、画像生成部36は、N個の仮想ロボットの3次元モデルを表示するための表示画像を生成してもよい。Nは、2以上の整数である。なお、N個の仮想ロボットの3次元モデルは、基端側の位置、すなわち配置位置が同じであり、手先の位置及び姿勢が異なる仮想ロボットの3次元モデルである。また、画像生成部36は、基準マーカ6と新たな位置関係となるように配置された仮想ロボットのエンドエフェクタが登録された第1から第Nの位置及び姿勢である状態で各関節の角度を逆運動学によってそれぞれ算出することができる場合に、その新たな位置関係に応じたN個の仮想ロボットの表示画像を生成し、そうでない場合に、その新たな位置関係に応じた表示画像を生成しなくてもよい。 In this way, when N positions and postures of the end effector are registered, the image generation unit 36 may generate display images for displaying three-dimensional models of N virtual robots. N is an integer of 2 or more. Note that the three-dimensional models of the N virtual robots are three-dimensional models of virtual robots that have the same proximal position, that is, the same arrangement position, but different positions and postures of the hands. The image generation unit 36 also calculates the angles of each joint in a state where the end effector of the virtual robot, which is arranged to have a new positional relationship with the reference marker 6, is in the registered first to Nth positions and postures. If each can be calculated by inverse kinematics, display images of N virtual robots are generated according to the new positional relationships; otherwise, display images are generated according to the new positional relationships. You don't have to.

エンドエフェクタの2つの位置及び姿勢の登録等の処理は、一例として、次のように行われてもよい。まず、作業者は、1つ目のエンドエフェクタの位置及び姿勢を登録する。この登録が終了すると、1つ目のエンドエフェクタの位置や姿勢が登録された状態の仮想ロボットの3次元モデルが表示された状態で、同じ配置位置に新たな仮想ロボットの3次元モデルが表示される。そして、作業者は、新たな仮想ロボットの3次元モデルを操作して、2つ目のエンドエフェクタの位置及び姿勢を登録する。その後、作業者が2個の仮想ロボットの3次元モデルの配置位置を移動指示によって移動させると、それに応じて2個の仮想ロボットの3次元モデルが新たな配置位置に表示される。なお、各仮想ロボットの3次元モデルの手先の位置や姿勢は、それぞれ登録された位置や姿勢になる。ここでは、新たな配置位置において、逆運動学によって各関節の角度が算出できるものとしている。 Processing such as registration of two positions and postures of the end effector may be performed as follows, for example. First, the operator registers the position and orientation of the first end effector. When this registration is completed, the 3D model of the virtual robot with the position and orientation of the first end effector registered is displayed, and the 3D model of the new virtual robot is displayed at the same placement position. Ru. Then, the worker operates the three-dimensional model of the new virtual robot to register the position and orientation of the second end effector. Thereafter, when the operator moves the placement positions of the three-dimensional models of the two virtual robots by a movement instruction, the three-dimensional models of the two virtual robots are displayed at the new placement positions accordingly. Note that the positions and postures of the hands of the three-dimensional model of each virtual robot are the registered positions and postures. Here, it is assumed that the angle of each joint can be calculated using inverse kinematics at the new arrangement position.

なお、エンドエフェクタの2以上の位置及び姿勢が登録された場合には、エンドエフェクタが登録された2以上の位置及び姿勢となることができる仮想ロボットの配置位置を見つけることが容易でないこともあり得る。そのため、例えば、登録部34によってエンドエフェクタの2以上の位置及び姿勢が登録された場合には、ロボット位置関係取得部35は、所定間隔で設定された複数の新たな位置関係を取得してもよい。そして、画像生成部36は、複数の新たな位置関係のうち、仮想ロボットのエンドエフェクタが登録された2以上の位置及び姿勢である各状態で各関節の角度を逆運動学によって算出することができる新たな位置関係を特定してもよい。なお、この新たな位置関係は、基準マーカ6と仮想ロボットとの位置関係である。その後、画像生成部36は、基準マーカ6と特定した位置関係となるように配置された仮想ロボットの3次元モデルであって、エンドエフェクタが登録された2以上の位置及び姿勢である2以上の仮想ロボットの3次元モデルをそれぞれ表示するための表示画像を生成してもよい。このようにして、エンドエフェクタが登録された2以上の位置及び姿勢となることができる仮想ロボットの配置位置を自動的に見つけて、その配置位置における複数の仮想ロボットの表示画像が生成されてもよい。この場合には、作業者は、エンドエフェクタが登録された2以上の位置及び姿勢となることができる仮想ロボットの配置位置を容易に知ることができるようになる。 In addition, when two or more positions and postures of the end effector are registered, it may not be easy to find a placement position of the virtual robot where the end effector can be in the two or more registered positions and postures. Therefore, for example, when two or more positions and postures of the end effector are registered by the registration unit 34, the robot positional relationship acquisition unit 35 may acquire multiple new positional relationships set at a predetermined interval. Then, the image generation unit 36 may specify a new positional relationship among the multiple new positional relationships, in which the angle of each joint can be calculated by inverse kinematics in each state in which the end effector of the virtual robot is in the two or more registered positions and postures. In addition, this new positional relationship is the positional relationship between the reference marker 6 and the virtual robot. After that, the image generation unit 36 may generate a display image for displaying each of the three-dimensional models of the virtual robot that are placed so as to be in the specified positional relationship with the reference marker 6 and that are in the two or more registered positions and postures of the end effector. In this way, a placement position of a virtual robot where the end effector can be in two or more registered positions and postures may be automatically found, and display images of the multiple virtual robots at the placement positions may be generated. In this case, the worker can easily know the placement position of a virtual robot where the end effector can be in two or more registered positions and postures.

より具体的には、ロボット位置関係取得部35は、例えば、現時点の仮想ロボットの配置位置の周辺に、あらかじめ決められた間隔で複数の新たな配置位置を設定し、その複数の新たな配置位置について、基準マーカ6との新たな位置関係をそれぞれ取得してもよい。例えば、図6で示されるように、現在の配置位置30が基準マーカ6の位置である場合には、ロボット位置関係取得部35は、その現在の配置位置30を中心として、所定間隔で配置された複数の格子点を、新たな配置位置31としてもよい。複数の格子点は、一例として、基準マーカ6の配置されている面上に配置されてもよい。図6において、現在の配置位置30以外の黒丸は、すべて新たな配置位置31である。例えば、その新たな配置位置31は、その時点のロボット座標系に設定されてもよい。ロボット座標系と、マーカ座標系との関係は既知であるため、ロボット位置関係取得部35は、その複数の新たな配置位置31について、基準マーカ6との複数の新たな位置関係をそれぞれ取得することができる。なお、配置位置30,31はそれぞれ、例えば、仮想ロボットが配置される際に、仮想ロボットの3次元モデルの基端側の端面における中心点が位置するところであってもよい。また、各配置位置30,31に仮想ロボットの3次元モデルが配置される際の仮想ロボットの向きは、例えば、基準マーカ6の向きに応じて決まっていてもよく、または、他の基準に応じて決まっていてもよい。 More specifically, the robot positional relationship acquisition unit 35 may, for example, set multiple new placement positions at predetermined intervals around the current placement position of the virtual robot, and acquire new positional relationships with the reference marker 6 for each of the multiple new placement positions. For example, as shown in FIG. 6, when the current placement position 30 is the position of the reference marker 6, the robot positional relationship acquisition unit 35 may set multiple lattice points arranged at a predetermined interval with the current placement position 30 as the center as new placement positions 31. As an example, the multiple lattice points may be arranged on the surface on which the reference marker 6 is arranged. In FIG. 6, all black circles other than the current placement position 30 are new placement positions 31. For example, the new placement position 31 may be set in the robot coordinate system at that time. Since the relationship between the robot coordinate system and the marker coordinate system is known, the robot positional relationship acquisition unit 35 can acquire multiple new positional relationships with the reference marker 6 for each of the multiple new placement positions 31. Note that each of the placement positions 30 and 31 may be, for example, a position where the center point of the end face on the base end side of the three-dimensional model of the virtual robot is located when the virtual robot is placed. Also, the orientation of the virtual robot when the three-dimensional model of the virtual robot is placed at each of the placement positions 30 and 31 may be determined, for example, according to the orientation of the reference marker 6, or may be determined according to another criterion.

画像生成部36は、取得された複数の新たな位置関係のうち、1つの新たな位置関係を選択し、基準マーカ6とその選択した新たな位置関係となるように配置された仮想ロボットのエンドエフェクタが登録された2以上の位置及び姿勢である各状態で各関節の角度を逆運動学によって算出することができる場合に、その選択した新たな位置関係を、表示画像を生成するための位置関係として特定してもよい。そして、画像生成部36は、基準マーカ6と特定した位置関係となるように配置された仮想ロボットの3次元モデルであって、エンドエフェクタが登録された2以上の位置及び姿勢である2以上の仮想ロボットの3次元モデルを表示するための表示画像を生成してもよい。一方、基準マーカ6と選択した新たな位置関係となるように配置された仮想ロボットのエンドエフェクタが登録された2以上の位置及び姿勢である各状態で各関節の角度を逆運動学によって算出することができない場合には、画像生成部36は、それまでに選択していない新たな位置関係を選択し、同様の処理を繰り返してもよい。なお、新たな位置関係の選択は、例えば、あらかじめ決められた順番に行われてもよく、または、ランダムに行われてもよい。画像生成部36は、例えば、エンドエフェクタの登録された2以上の位置及び姿勢について、逆運動学によって各関節の角度を計算することができる新たな位置関係が1つ見つかった場合に、その新たな位置関係に応じて配置された仮想ロボットに関する表示画像を生成してもよく、エンドエフェクタの登録された2以上の位置及び姿勢について、逆運動学によって各関節の角度を計算することができる新たな位置関係を複数見つけた後に、その複数の新たな位置関係のうち、1つの新たな位置関係を特定し、その特定した新たな位置関係に応じて配置された仮想ロボットに関する表示画像を生成してもよい。後者の場合には、例えば、複数の新たな位置関係から、ランダムに1つの新たな位置関係が特定されてもよく、複数の新たな位置関係に対応する複数の配置位置のうち、その複数の配置位置の重心に最も近い配置位置に対応する新たな位置関係が特定されてもよく、複数の新たな位置関係に対応する複数の配置位置のうち、エンドエフェクタの先端の位置から最も遠い配置位置に対応する新たな位置関係が特定されてもよく、その他の新たな位置関係が特定されてもよい。 The image generation unit 36 selects one new positional relationship from among the acquired new positional relationships, and the end of the virtual robot arranged so as to have the reference marker 6 and the selected new positional relationship. When the angle of each joint can be calculated by inverse kinematics in each state where the effector is in two or more registered positions and postures, the selected new positional relationship is used as the position for generating the display image. It may also be specified as a relationship. The image generation unit 36 generates a three-dimensional model of the virtual robot arranged in a specified positional relationship with the reference marker 6, and has two or more positions and orientations in which the end effector is registered. A display image for displaying a three-dimensional model of a virtual robot may be generated. On the other hand, the angle of each joint is calculated by inverse kinematics in each state in which the end effector of the virtual robot, which is placed in the selected new positional relationship with the reference marker 6, is in two or more registered positions and postures. If this is not possible, the image generation unit 36 may select a new positional relationship that has not been selected so far, and repeat the same process. Note that the selection of a new positional relationship may be performed, for example, in a predetermined order or at random. For example, when a new positional relationship is found that allows the angle of each joint to be calculated by inverse kinematics for two or more registered positions and postures of the end effector, the image generation unit 36 generates the new positional relationship. It is possible to generate a display image of a virtual robot arranged according to the positional relationship, and to calculate the angle of each joint using inverse kinematics for two or more registered positions and postures of the end effector. After finding a plurality of new positional relationships, one new positional relationship is identified among the new positional relationships, and a display image of the virtual robot arranged according to the new positional relationship is generated. It's okay. In the latter case, for example, one new positional relationship may be randomly specified from a plurality of new positional relationships, and one of the plurality of placement positions corresponding to the plurality of new positional relationships is A new positional relationship corresponding to the placement position closest to the center of gravity of the placement positions may be specified, and the placement position furthest from the tip position of the end effector among the plurality of placement positions corresponding to the plurality of new positional relationships. A new positional relationship corresponding to the above may be specified, or other new positional relationships may be specified.

なお、上記したように、仮想ロボットの各関節の動作範囲が設定されていることによって、仮想ロボットの第1軸、すなわち基端側の関節が360度回転できないこともある。例えば、第1軸の動作範囲が、-160度から160度の範囲、すなわち合計320度の範囲に限定されていることもある。このような場合には、画像生成部36は、仮想ロボットの各配置位置において、仮想ロボットを(360/K)度ずつ回転させたK個の角度においてそれぞれ逆運動学の計算を行い、そのいずれかで各関節の角度を算出することができたときに、その配置位置において各関節の角度を逆運動学によって算出することができるとしてもよい。なお、Kは、次式で計算される1以上の整数である。次式において、ceilは天井関数であり、Mは、仮想ロボットの第1軸の動作範囲の角度(deg)である。
K=ceil(360/M)
Note that, as described above, because the motion range of each joint of the virtual robot is set, the first axis of the virtual robot, that is, the joint on the proximal end side, may not be able to rotate 360 degrees. For example, the operating range of the first axis may be limited to a range of -160 degrees to 160 degrees, that is, a total range of 320 degrees. In such a case, the image generation unit 36 calculates the inverse kinematics at K angles obtained by rotating the virtual robot by (360/K) degrees at each placement position of the virtual robot, and When the angle of each joint can be calculated using the method described above, it may be possible to calculate the angle of each joint at the arrangement position using inverse kinematics. Note that K is an integer of 1 or more calculated by the following formula. In the following equation, ceil is a ceiling function, and M is the angle (deg) of the operating range of the first axis of the virtual robot.
K = ceil (360/M)

例えば、上記のようにM=320度である場合には、K=2となり、画像生成部36は、ある配置位置に仮想ロボットを任意の角度で配置して逆運動学の計算を行い、その計算で各関節の角度を算出することができなかったときに、その配置位置において仮想ロボットを180度(=360/K)回転させて逆運動学の計算を行ってもよい。そして、その計算で各関節の角度を算出することができたときに、その配置位置において、各関節の角度を逆運動学によって算出することができるとしてもよい。なお、仮想ロボットの回転は、仮想ロボットの配置面の法線方向の軸を中心として行われるものとする。また、K=1の場合には、各配置位置において、仮想ロボットを回転させなくてもよいことになる。 For example, when M = 320 degrees as described above, K = 2, and the image generation unit 36 may place the virtual robot at an arbitrary angle in a certain placement position and perform inverse kinematics calculations. If the calculations fail to calculate the angles of each joint, the image generation unit 36 may rotate the virtual robot 180 degrees (= 360/K) at that placement position and perform inverse kinematics calculations. Then, if the calculations fail to calculate the angles of each joint, the angles of each joint may be calculated by inverse kinematics at that placement position. Note that the virtual robot rotates about an axis normal to the placement surface of the virtual robot. If K = 1, it is not necessary to rotate the virtual robot at each placement position.

また、画像生成部36は、エンドエフェクタの登録された2以上の位置及び姿勢について逆運動学の計算を行う場合に、エンドエフェクタの登録された2以上の位置及び姿勢の間をエンドエフェクタが連続して移動できないときにも、エンドエフェクタが登録された2以上の位置及び姿勢である各状態で各関節の角度を逆運動学によって算出することができないと判断してもよい。エンドエフェクタの登録された2以上の位置及び姿勢の間をエンドエフェクタが連続して移動できないとは、例えば、エンドエフェクタが登録された第1の位置及び姿勢から、登録された第2の位置及び姿勢にまで移動する際に、-180度から180度までの動作範囲である関節の角度が、-179度、-180度、-181度のように変化することであってもよい。-180度から-181度への関節の角度は、実ロボットでは、関節が359度回転することを意味しており、そのような動作をすることはできないからである。 In addition, when performing inverse kinematics calculations for two or more registered positions and orientations of the end effector, the image generation unit 36 allows the end effector to continuously move between the two or more registered positions and orientations of the end effector. Even when the end effector is unable to move, it may be determined that the angle of each joint cannot be calculated by inverse kinematics in each state where the end effector is in two or more registered positions and postures. The fact that the end effector cannot move continuously between two or more registered positions and postures means, for example, that the end effector cannot move continuously between two or more registered positions and postures. When moving to a posture, the angle of the joint, which is in the range of motion from -180 degrees to 180 degrees, may change to -179 degrees, -180 degrees, and -181 degrees. This is because the joint angle from -180 degrees to -181 degrees means that the joints rotate 359 degrees in a real robot, and such a movement is not possible.

また、本実施の形態では、移動指示の受け付けに応じて、移動後の仮想ロボットが表示される場合について主に説明したが、移動の途中においても仮想ロボットがリアルタイムで表示されるようにしてもよい。この場合には、画像生成部36は、例えば、仮想ロボットの移動指示がジェスチャ操作によって入力される際に、移動の途中においてもリアルタイムで移動中の仮想ロボットの表示画像を生成してもよい。すなわち、仮想ロボットの移動開始から移動終了まで、ステップS104~S107の処理が繰り返されてもよい。なお、この場合において、移動が終了するまでは、ステップS107では、ステップS203~S205の処理のみが行われてもよい。このようにすることで、作業者は、移動の途中においても、仮想ロボットの姿勢などを確認することができるようになる。 Further, in this embodiment, the case where the virtual robot after movement is displayed in response to the acceptance of a movement instruction has been mainly described, but the virtual robot may also be displayed in real time even during movement. good. In this case, the image generation unit 36 may generate a display image of the moving virtual robot in real time even during the movement, for example, when a movement instruction for the virtual robot is input by a gesture operation. That is, the processes of steps S104 to S107 may be repeated from the start of movement of the virtual robot to the end of movement. Note that in this case, only the processes of steps S203 to S205 may be performed in step S107 until the movement is completed. By doing so, the worker can check the posture of the virtual robot even during movement.

また、本実施の形態では、仮想ロボットのエンドエフェクタの位置及び姿勢が登録される場合について主に説明したが、仮想ロボットのエンドエフェクタの位置のみが登録されてもよい。この場合には、上記説明におけるエンドエフェクタの位置及び姿勢は、エンドエフェクタの位置となってもよい。より具体的には、受付部33は、仮想ロボットのエンドエフェクタの位置の登録指示を受け付けてもよく、登録部34は、仮想ロボットの3次元モデルにおけるエンドエフェクタの位置を登録してもよく、画像生成部36は、基準マーカ6と新たな位置関係となるように配置された仮想ロボットの3次元モデルであって、エンドエフェクタが登録された位置である仮想ロボットの3次元モデルを表示するための表示画像を生成してもよい。その表示画像におけるエンドエフェクタの姿勢は、任意の姿勢であってもよい。このように、エンドエフェクタの位置のみが登録された場合には、エンドエフェクタが登録された位置であるときに、そのエンドエフェクタの姿勢は任意である。また、この場合には、基準マーカ6と新たな位置関係となるように配置された仮想ロボットのエンドエフェクタが登録された位置である状態で各関節の角度を逆運動学によって算出することができる場合に、その新たな位置関係に応じた表示画像が生成され、そうでない場合に、その新たな位置関係に応じた表示画像が生成されなくてもよい。仮想ロボットのエンドエフェクタが登録された位置である状態とは、仮想ロボットのエンドエフェクタが登録された位置であり、任意の姿勢である状態であってもよい。 In addition, in this embodiment, the case where the position and posture of the end effector of the virtual robot are registered has been mainly described, but only the position of the end effector of the virtual robot may be registered. In this case, the position and posture of the end effector in the above description may be the position of the end effector. More specifically, the reception unit 33 may receive an instruction to register the position of the end effector of the virtual robot, the registration unit 34 may register the position of the end effector in the three-dimensional model of the virtual robot, and the image generation unit 36 may generate a display image for displaying the three-dimensional model of the virtual robot that is arranged so as to have a new positional relationship with the reference marker 6 and is the position where the end effector is registered. The posture of the end effector in the display image may be any posture. In this way, when only the position of the end effector is registered, the posture of the end effector is any posture when the end effector is in the registered position. In this case, if the angle of each joint can be calculated by inverse kinematics when the end effector of the virtual robot, which is arranged to have a new positional relationship with the reference marker 6, is in the registered position, a display image according to the new positional relationship is generated, and if not, a display image according to the new positional relationship does not have to be generated. The state in which the end effector of the virtual robot is in the registered position may be a state in which the end effector of the virtual robot is in the registered position and in any posture.

また、エンドエフェクタの位置及び姿勢の登録は、エンドエフェクタと所定の位置関係にある箇所の位置及び姿勢の登録であってもよい。ただし、その箇所の位置及び姿勢と、エンドエフェクタの位置及び姿勢とは一対一の関係にあるものとする。すなわち、その箇所の位置及び姿勢が決まれば、エンドエフェクタの位置及び姿勢も一意に決まるものとする。この場合には、その箇所の位置及び姿勢を登録することによって、エンドエフェクタの位置及び姿勢を登録したことと実質的に同じになるからである。したがって、エンドエフェクタの位置及び姿勢の登録は、そのような箇所の登録も含んでいると考えてもよい。また、その箇所の位置及び姿勢を用いて、表示画像の生成等が行われてもよい。その箇所は、例えば、エンドエフェクタから所定の方向に所定の距離だけ離間した位置であってもよい。その箇所は、一例として、仮想ロボット上の位置であってもよい。エンドエフェクタの位置のみが登録される場合にも同様である。 The registration of the position and orientation of the end effector may also be the registration of the position and orientation of a location that has a predetermined positional relationship with the end effector. However, it is assumed that the position and orientation of that location and the position and orientation of the end effector have a one-to-one relationship. In other words, once the position and orientation of that location are determined, the position and orientation of the end effector are also uniquely determined. In this case, registering the position and orientation of that location is substantially the same as registering the position and orientation of the end effector. Therefore, it may be considered that the registration of the position and orientation of the end effector includes the registration of such a location. Furthermore, the position and orientation of that location may be used to generate a display image, etc. The location may be, for example, a location that is a predetermined distance away from the end effector in a predetermined direction. As an example, the location may be a location on a virtual robot. The same applies when only the position of the end effector is registered.

また、本実施の形態では、仮想ロボットが床面に配置される場合、すなわち床置きされる場合について主に説明したが、仮想ロボットの配置位置は問わない。例えば、仮想ロボットは、壁に配置される壁掛け式の仮想ロボットであってもよく、または、天井に取り付けられる天吊り式の仮想ロボットであってもよい。これらの場合には、移動指示によって、仮想ロボットの配置面を床面以外の壁や天井に変更できてもよい。 Further, in this embodiment, the case where the virtual robot is placed on the floor, that is, the case where it is placed on the floor, has been mainly described, but the placement position of the virtual robot does not matter. For example, the virtual robot may be a wall-mounted virtual robot placed on a wall, or a ceiling-suspended virtual robot placed on the ceiling. In these cases, the placement surface of the virtual robot may be changed to a wall or ceiling other than the floor surface by a movement instruction.

また、上記実施の形態において、各処理または各機能は、単一の装置または単一のシステムによって集中処理されることによって実現されてもよく、または、複数の装置または複数のシステムによって分散処理されることによって実現されてもよい。例えば、画像生成装置3の少なくとも一部の構成は、物理的には、ディスプレイを有する装置などに含まれてもよい。したがって、図1で示される装置の切り分けは、物理的な装置に応じたものではなく、機能に応じた便宜上のものであると考えてもよい。 In addition, in the above embodiment, each process or function may be realized by centralized processing by a single device or a single system, or may be realized by distributed processing by multiple devices or multiple systems. For example, at least a portion of the configuration of image generating device 3 may be physically included in a device having a display. Therefore, the division of devices shown in FIG. 1 may be considered to be for convenience according to function, rather than according to physical devices.

また、上記実施の形態において、各処理または各機能は、単一の装置または単一のシステムによって集中処理されることによって実現されてもよく、または、複数の装置または複数のシステムによって分散処理されることによって実現されてもよい。 Furthermore, in the above embodiments, each process or each function may be realized by being centrally processed by a single device or a single system, or may be realized by distributed processing by multiple devices or multiple systems. This may be realized by

また、上記実施の形態において、画像生成装置3に含まれる2以上の構成要素が通信デバイスや入力デバイス等を有する場合に、2以上の構成要素が物理的に単一のデバイスを有してもよく、または、別々のデバイスを有してもよい。 Further, in the above embodiment, when two or more components included in the image generation device 3 have a communication device, an input device, etc., even if the two or more components physically have a single device. or may have separate devices.

また、上記実施の形態において、各構成要素は専用のハードウェアにより構成されてもよく、または、ソフトウェアにより実現可能な構成要素については、プログラムを実行することによって実現されてもよい。例えば、ハードディスクや半導体メモリ等の記録媒体に記録されたソフトウェア・プログラムをCPU等のプログラム実行部が読み出して実行することによって、各構成要素が実現され得る。その実行時に、プログラム実行部は、記憶部や記録媒体にアクセスしながらプログラムを実行してもよい。また、そのプログラムは、サーバなどからダウンロードされることによって実行されてもよく、所定の記録媒体(例えば、光ディスクや磁気ディスク、半導体メモリなど)に記録されたプログラムが読み出されることによって実行されてもよい。また、このプログラムは、プログラムプロダクトを構成するプログラムとして用いられてもよい。また、そのプログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、または分散処理を行ってもよい。 Furthermore, in the embodiments described above, each component may be configured by dedicated hardware, or components that can be realized by software may be realized by executing a program. For example, each component can be realized by a program execution unit such as a CPU reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory. At the time of execution, the program execution section may execute the program while accessing the storage section or recording medium. Further, the program may be executed by being downloaded from a server or the like, or may be executed by reading a program recorded on a predetermined recording medium (for example, an optical disk, a magnetic disk, a semiconductor memory, etc.). good. Further, this program may be used as a program constituting a program product. Further, the number of computers that execute the program may be one or more. That is, centralized processing or distributed processing may be performed.

また、以上の実施の形態は、本発明を具体的に実施するための例示であって、本発明の技術的範囲を制限するものではない。本発明の技術的範囲は、実施の形態の説明ではなく、特許請求の範囲によって示されるものであり、特許請求の範囲の文言上の範囲及び均等の意味の範囲内での変更が含まれることが意図される。 The above embodiments are merely examples for specifically implementing the present invention, and are not intended to limit the technical scope of the present invention. The technical scope of the present invention is indicated by the claims, not by the description of the embodiments, and is intended to include modifications within the literal scope of the claims and within the scope of equivalent meanings.

3 画像生成装置、4 表示装置、6 基準マーカ、31 記憶部、32 マーカ位置関係取得部、33 受付部、34 登録部、35 ロボット位置関係取得部、36 画像生成部、37 出力部 3 image generation device, 4 display device, 6 reference marker, 31 storage unit, 32 marker positional relationship acquisition unit, 33 reception unit, 34 registration unit, 35 robot positional relationship acquisition unit, 36 image generation unit, 37 output unit

Claims (5)

実ロボットに対応する仮想ロボットの3次元モデルが記憶される記憶部と、
実環境に存在する基準マーカと、画像を実環境の画像または実環境そのものに重ねて表示する表示装置との相対的な位置関係を取得するマーカ位置関係取得部と、
前記仮想ロボットの3次元モデルへの操作、前記仮想ロボットのエンドエフェクタの位置または位置及び姿勢の登録指示、及び前記仮想ロボットの移動指示を受け付ける受付部と、
前記仮想ロボットの3次元モデルと前記相対的な位置関係とに基づいて、前記基準マーカと所定の位置関係となるように配置された前記仮想ロボットの3次元モデルを、受け付けられた操作に応じて表示するための表示画像を生成する画像生成部と、
前記表示画像を前記表示装置に出力する出力部と、
登録指示が受け付けられた際の前記仮想ロボットの3次元モデルにおけるエンドエフェクタの位置または位置及び姿勢を登録する登録部と、
移動指示の受け付けに応じて、前記基準マーカと前記仮想ロボットとの新たな位置関係を取得するロボット位置関係取得部と、を備え、
前記画像生成部は、前記ロボット位置関係取得部によって新たな位置関係が取得された場合に、前記基準マーカと新たな位置関係となるように配置された仮想ロボットの3次元モデルであって、エンドエフェクタが登録された位置または位置及び姿勢である仮想ロボットの3次元モデルを表示するための表示画像を生成する、画像生成装置。
a storage unit storing a three-dimensional model of a virtual robot corresponding to the real robot;
a marker positional relationship acquisition unit that acquires the relative positional relationship between a reference marker existing in the real environment and a display device that displays the image superimposed on the image of the real environment or the real environment itself;
a reception unit that receives an operation on a three-dimensional model of the virtual robot, an instruction to register the position or position and orientation of an end effector of the virtual robot, and an instruction to move the virtual robot;
Based on the three-dimensional model of the virtual robot and the relative positional relationship, the three-dimensional model of the virtual robot is arranged in a predetermined positional relationship with the reference marker in accordance with the received operation. an image generation unit that generates a display image for display;
an output unit that outputs the display image to the display device;
a registration unit that registers the position or position and orientation of the end effector in the three-dimensional model of the virtual robot when the registration instruction is accepted;
a robot positional relationship acquisition unit that acquires a new positional relationship between the reference marker and the virtual robot in response to receiving a movement instruction;
The image generation unit is a three-dimensional model of a virtual robot arranged so as to have a new positional relationship with the reference marker when a new positional relationship is acquired by the robot positional relationship acquisition unit, An image generation device that generates a display image for displaying a three-dimensional model of a virtual robot in which an effector is registered in a position or in a position and orientation.
前記画像生成部は、前記ロボット位置関係取得部によって新たな位置関係が取得された際に、前記基準マーカと新たな位置関係となるように配置された仮想ロボットのエンドエフェクタが登録された位置または位置及び姿勢である状態で各関節の角度を逆運動学によって算出することができる場合に、当該新たな位置関係に応じた表示画像を生成し、そうでない場合に、当該新たな位置関係に応じた表示画像を生成しない、請求項1記載の画像生成装置。 The image generation unit may generate a registered position of an end effector of a virtual robot arranged to have a new positional relationship with the reference marker when a new positional relationship is acquired by the robot positional relationship acquisition unit; If the angle of each joint can be calculated by inverse kinematics in a certain position and posture, a display image is generated according to the new positional relationship, and if not, a display image is generated according to the new positional relationship. The image generation device according to claim 1, wherein the image generation device does not generate a displayed image. 前記出力部は、前記基準マーカと新たな位置関係となるように配置された仮想ロボットのエンドエフェクタが登録された位置または位置及び姿勢である状態で各関節の角度を逆運動学によって算出することができない場合に、当該新たな位置関係に移動できない旨を出力する、請求項2記載の画像生成装置。 The image generating device according to claim 2, wherein the output unit outputs a message indicating that the end effector of the virtual robot, arranged to have a new positional relationship with the reference marker, cannot move to the new positional relationship if the angles of each joint cannot be calculated by inverse kinematics when the end effector is in a registered position or position and posture. 前記画像生成部は、前記登録部によってエンドエフェクタの2以上の位置または位置及び姿勢が登録され、前記ロボット位置関係取得部によって新たな位置関係が取得された場合に、前記基準マーカと新たな位置関係となるように配置された仮想ロボットの3次元モデルであって、エンドエフェクタが登録された2以上の位置または位置及び姿勢である2以上の仮想ロボットの3次元モデルを表示するための表示画像を生成する、請求項1記載の画像生成装置。 The image generation unit is configured to generate a new position between the reference marker and the new position when two or more positions or positions and orientations of the end effector are registered by the registration unit and a new positional relationship is acquired by the robot positional relationship acquisition unit. A display image for displaying two or more three-dimensional models of virtual robots arranged in a relationship, the three-dimensional models of two or more virtual robots having two or more registered positions or positions and postures of end effectors. The image generation device according to claim 1, which generates an image. 前記ロボット位置関係取得部は、前記登録部によってエンドエフェクタの2以上の位置または位置及び姿勢が登録された場合に、所定間隔で設定された複数の新たな位置関係を取得し、
前記画像生成部は、前記複数の新たな位置関係のうち、前記仮想ロボットのエンドエフェクタが登録された2以上の位置または位置及び姿勢である各状態で各関節の角度を逆運動学によって算出することができる新たな位置関係を特定し、前記基準マーカと特定した位置関係となるように配置された仮想ロボットの3次元モデルであって、エンドエフェクタが登録された2以上の位置または位置及び姿勢である2以上の仮想ロボットの3次元モデルを表示するための表示画像を生成する、請求項2または請求項3記載の画像生成装置。
the robot positional relationship acquisition unit acquires a plurality of new positional relationships set at a predetermined interval when two or more positions or positions and orientations of the end effector are registered by the registration unit;
4. The image generating device according to claim 2 or 3, wherein the image generation unit identifies a new positional relationship among the plurality of new positional relationships in which the angle of each joint can be calculated by inverse kinematics in each state in which the end effector of the virtual robot is at two or more registered positions or positions and postures, and generates a display image for displaying a three-dimensional model of the virtual robot arranged to be in the identified positional relationship with the reference marker, the three-dimensional model of the two or more virtual robots being at two or more registered positions or positions and postures in which the end effector is at.
JP2022150544A 2022-09-21 2022-09-21 Image Generator Pending JP2024044796A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022150544A JP2024044796A (en) 2022-09-21 2022-09-21 Image Generator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022150544A JP2024044796A (en) 2022-09-21 2022-09-21 Image Generator

Publications (1)

Publication Number Publication Date
JP2024044796A true JP2024044796A (en) 2024-04-02

Family

ID=90479821

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022150544A Pending JP2024044796A (en) 2022-09-21 2022-09-21 Image Generator

Country Status (1)

Country Link
JP (1) JP2024044796A (en)

Similar Documents

Publication Publication Date Title
US10052765B2 (en) Robot system having augmented reality-compatible display
US9984178B2 (en) Robot simulator, robot teaching apparatus and robot teaching method
JP3708097B2 (en) Robot manual feeder
JP3655083B2 (en) Interface device for positioning the robot
JP6733239B2 (en) Controller and robot system
US20150151431A1 (en) Robot simulator, robot teaching device, and robot teaching method
JP2020055075A (en) Robot control device using augmented reality and composite reality and display device
JP2009006410A (en) Remote operation support device and remote operation support program
JP2009012106A (en) Remote operation supporting device and program
WO2019044766A1 (en) Robot system and method for operating same
JP2010042466A (en) Robot teaching system and method for displaying simulation result of operation of robot
JP2024044796A (en) Image Generator
JP5201341B2 (en) Remote operation support device
WO2020192882A1 (en) Method and control arrangement for determining a relation between a robot coordinate system and a movable apparatus coordinate system
JP7190552B1 (en) Robot teaching system
CN115869069A (en) Surgical robot control method, device, equipment, medium and system
JP2023017437A (en) Image processing device and robot arrangement method
JP2022163836A (en) Method for displaying robot image, computer program, and method for displaying robot image
JP2024044795A (en) Information processing device
JP2024044794A (en) Image Generator
JP2023017436A (en) Robot control device
JP2023017440A (en) Image processing device
JP2023017441A (en) Image processing device
WO2023073959A1 (en) Work assistance device and work assistance method
JP7340069B1 (en) Marker position registration program, marker position registration device, marker position registration method, and marker used for the method