JP7443014B2 - robot arm testing equipment - Google Patents

robot arm testing equipment Download PDF

Info

Publication number
JP7443014B2
JP7443014B2 JP2019185557A JP2019185557A JP7443014B2 JP 7443014 B2 JP7443014 B2 JP 7443014B2 JP 2019185557 A JP2019185557 A JP 2019185557A JP 2019185557 A JP2019185557 A JP 2019185557A JP 7443014 B2 JP7443014 B2 JP 7443014B2
Authority
JP
Japan
Prior art keywords
target marker
arm
dimensional
coordinate system
hand
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019185557A
Other languages
Japanese (ja)
Other versions
JP2021058979A (en
Inventor
和夫 坂田
Original Assignee
大豊精機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 大豊精機株式会社 filed Critical 大豊精機株式会社
Priority to JP2019185557A priority Critical patent/JP7443014B2/en
Publication of JP2021058979A publication Critical patent/JP2021058979A/en
Application granted granted Critical
Publication of JP7443014B2 publication Critical patent/JP7443014B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ロボットアーム試験装置に関する。 The present invention relates to a robot arm testing device.

昨今、例えば特開2015-125641号公報や特開2004-355131号公報に記載のように、ヘッドマウントディスプレイ(以下、HMDとも称する)を用いた複合現実感(Mixed Reality)(以下、MRとも称する)技術が発展している。特開2015-125641号公報から引用すると、MR技術は、HMDで撮像した現実の世界(現実空間)の画像に、コンピュータで生成された仮想の世界(仮想空間)の画像を重畳させて、HMDの画面に表示する技術である。つまり、現実空間画像と仮想空間画像(3次元モデル)とが重畳されてHMDに表示される。MR技術を利用することで、実際に模型を製作することなく、完成品について、大きさ、又は部品の取り外し(取り付け)の作業性などのチェックが可能となる。MR技術を用いた複合現実感装置としては、例えば、HMDと、HMDを介してユーザに重畳画像である複合現実感を提示する情報処理部と、を備えている。 Recently, mixed reality (hereinafter also referred to as MR) using a head-mounted display (hereinafter also referred to as HMD) is being developed, as described in, for example, Japanese Patent Application Publication No. 2015-125641 and 2004-355131. ) Technology is developing. To quote from Japanese Patent Application Laid-Open No. 2015-125641, MR technology superimposes an image of a virtual world (virtual space) generated by a computer on an image of the real world (real space) captured by an HMD. This is a technology that displays images on the screen. That is, the real space image and the virtual space image (three-dimensional model) are displayed on the HMD in a superimposed manner. By using MR technology, it is possible to check the size of a finished product, the workability of removing (installing) parts, etc. without actually manufacturing a model. A mixed reality device using MR technology includes, for example, an HMD and an information processing unit that presents mixed reality, which is a superimposed image, to a user via the HMD.

また、HMDで複合現実感を提示するためには、対象スペース(現実空間)におけるHMDの位置及び姿勢を求める必要がある。例えば特開2015-215191号公報に記載されているように、複合現実感装置を用いるには、現実空間中に定義した基準座標系と、カメラ座標系との間の、相対的な位置及び姿勢を計測することが不可欠である。ここで、例えば特開2015-215191号公報及び特開2008-70267号公報には、HMDに設けられたカメラで撮像したターゲットマーカの情報からカメラの位置姿勢を推定することが記載されている。ターゲットマーカには、座標情報が設定されている。作業スペース(現実空間)に設置されたターゲットマーカを、カメラが撮像することで、公知の演算方法により、カメラの位置及び姿勢を推定することができる。 Furthermore, in order to present mixed reality with an HMD, it is necessary to determine the position and orientation of the HMD in the target space (real space). For example, as described in Japanese Unexamined Patent Publication No. 2015-215191, in order to use a mixed reality device, it is necessary to determine the relative position and orientation between a reference coordinate system defined in real space and a camera coordinate system. It is essential to measure the Here, for example, Japanese Patent Application Laid-Open No. 2015-215191 and Japanese Patent Application Publication No. 2008-70267 describe estimating the position and orientation of a camera from information of a target marker imaged by a camera provided in an HMD. Coordinate information is set in the target marker. When a camera captures an image of a target marker installed in a work space (real space), the position and orientation of the camera can be estimated using a known calculation method.

特開2015-125641号公報Japanese Patent Application Publication No. 2015-125641 特開2004-355131号公報Japanese Patent Application Publication No. 2004-355131 特開2015-215191号公報Japanese Patent Application Publication No. 2015-215191 特開2008-70267号公報Japanese Patent Application Publication No. 2008-70267

ところで、工場にロボットアームを導入するに際し、ロボットアームの動作が他の装置と干渉するか否かなど、予め細かなシミュレーションが必要となる。例えば、実際の工場現場に導入対象のロボットアームを配置して動作させることで、干渉具合等は把握できる。しかしながら、実際に工場にロボットアームを配置して動作試験を行うと、ロボットアームの先端部に取り付けられたハンド部品(例えば把持ハンド、溶接トーチ、研磨ハンド、又はバキュームハンド等)が他の装置と当接して破損するおそれがある。 By the way, when introducing a robot arm into a factory, detailed simulations are required in advance to determine whether or not the robot arm's operation will interfere with other equipment. For example, by placing and operating a robot arm to be introduced at an actual factory site, it is possible to understand the extent of interference. However, when a robot arm is actually placed in a factory and an operation test is performed, the hand parts attached to the tip of the robot arm (e.g., gripping hand, welding torch, polishing hand, vacuum hand, etc.) are connected to other equipment. There is a risk of damage due to contact.

また、工場でロボットアームを組み付けて、ロボットアームやハンド部品の配置や種類が適切でないと判断された場合、設置場所又はハンド部品を変更して再度組み立てなければならない。このように、従来の方法では、ロボットアーム導入時の試験において、多大な労力がかかっていた。 Further, if the robot arm is assembled in a factory and it is determined that the arrangement or type of the robot arm or hand parts is not appropriate, the installation location or hand parts must be changed and reassembled. As described above, in the conventional method, a great deal of effort was required in testing when the robot arm was introduced.

本発明の目的は、ロボットアームのハンド部品の損傷が防止されるとともに、容易にハンド部品の動作・干渉試験を実行することができるロボットアームを提供することである。 An object of the present invention is to provide a robot arm in which damage to the hand parts of the robot arm can be prevented and operation and interference tests of the hand parts can be easily performed.

本発明のロボットアーム試験装置は、ディスプレイと、外部を撮像するカメラと、前記カメラで撮像された第1座標系のターゲットマーカである第1ターゲットマーカの撮像データ、及び前記第1ターゲットマーカに対して設定された座標情報に基づいて、前記カメラの位置及び姿勢を計測する位置姿勢計測部と、前記位置姿勢計測部で計測された前記カメラの位置及び姿勢に基づき、前記ディスプレイを介してユーザに現実空間と3次元モデルとの重畳画像である複合現実感を提示する情報処理部と、アームの先端部のハンド部品が配置される予定の場所に前記ハンド部品ではなく、前記第1座標系から独立した第2座標系のターゲットマーカである第2ターゲットマーカが取り付けられたロボットアームと、前記第2ターゲットマーカに対応して設定された、前記ハンド部品を表す3次元ハンドモデルを記憶する記憶部と、を備え、前記3次元モデルは、実機配置データであり、前記第1座標系は、ワールド座標系であり、前記第2座標系は、その原点が、前記第1座標系上で前記第2ターゲットマーカの移動に伴い移動する副座標系であり、前記情報処理部は、前記ディスプレイに、前記第1ターゲットマーカの撮像データに基づいて前記3次元モデルを表示し、前記第2ターゲットマーカの撮像データに基づいて前記第1座標系上で前記3次元ハンドモデルを表示し、前記アームの撮像データを前記現実空間として前記3次元モデル及び前記3次元ハンドモデルに重畳して表示する。 The robot arm testing device of the present invention includes a display, a camera that images the outside, imaging data of a first target marker that is a target marker in a first coordinate system that is imaged by the camera, and information on the first target marker. a position and orientation measurement unit that measures the position and orientation of the camera based on coordinate information set for the camera; and a position and orientation measurement unit that measures the position and orientation of the camera based on coordinate information set for the camera; an information processing unit that presents mixed reality, which is a superimposed image of real space and a three-dimensional model; A robot arm to which a second target marker, which is a target marker of a second coordinate system independent of the system, is attached, and a three-dimensional hand model representing the hand component set corresponding to the second target marker are stored. a storage unit , the three-dimensional model is actual machine layout data, the first coordinate system is a world coordinate system, and the second coordinate system has an origin on the first coordinate system. It is a sub-coordinate system that moves as the second target marker moves, and the information processing unit displays the three-dimensional model on the display based on the imaging data of the first target marker, and displays the three-dimensional model on the display based on the imaging data of the first target marker. The three-dimensional hand model is displayed on the first coordinate system based on the imaging data of the marker, and the imaging data of the arm is displayed as the real space superimposed on the three-dimensional model and the three-dimensional hand model.

本発明の第2態様に係るロボットアーム試験装置は、ディスプレイと、外部を撮像するカメラと、前記カメラで撮像されたターゲットマーカの撮像データ、及び前記ターゲットマーカに対して設定された座標情報に基づいて、前記カメラの位置及び姿勢を計測する位置姿勢計測部と、前記位置姿勢計測部で計測された前記カメラの位置及び姿勢に基づき、前記ディスプレイを介してユーザに現実空間と3次元モデルとの重畳画像である複合現実感を提示する情報処理部と、アームの先端部に、ハンド部品ではなく前記ターゲットマーカが取り付けられたロボットアームと、前記ターゲットマーカに対応して設定された、前記ハンド部品を表す前記3次元モデルを記憶する記憶部と、を備え、前記情報処理部は、前記ディスプレイに、前記現実空間とともに、前記ターゲットマーカの撮像データに基づいて前記3次元モデルを表示する。 A robot arm testing device according to a second aspect of the present invention includes a display, a camera that images the outside, image data of a target marker imaged by the camera, and coordinate information set for the target marker. a position and orientation measurement unit that measures the position and orientation of the camera; and a display that allows the user to see the real space and the three-dimensional model through the display based on the position and orientation of the camera measured by the position and orientation measurement unit. an information processing unit that presents a mixed reality that is a superimposed image; a robot arm having the target marker attached to the tip of the arm instead of a hand component; and the hand component configured to correspond to the target marker. a storage unit that stores the three-dimensional model representing the target marker, and the information processing unit displays the three-dimensional model on the display based on the image data of the target marker along with the real space.

本発明の第1態様によれば、ディスプレイには、第1座標系で定義された3次元モデル、第2座標系で定義されたハンド部品を表す3次元ハンドモデル、及び実機のアームを撮像データのままで表す現実空間が重畳的に表示される。カメラで撮像しているアームを実際に作動させると、ディスプレイでは、3次元モデル(第1座標)上をアームの撮像データが作動する。そして、アームの先端部が移動すると、それに応じて第2ターゲットマーカ(第2座標の原点)が移動し、3次元ハンドモデルが第1座標上を移動する。第2ターゲットマーカが首を振って位置や姿勢を変えるたびに、第2座標系における3次元ハンドモデルの位置姿勢が変化する。 According to the first aspect of the present invention, the display includes a three-dimensional model defined in the first coordinate system, a three-dimensional hand model representing hand parts defined in the second coordinate system, and imaged data showing the arm of the actual machine. The real space represented as it is is displayed in a superimposed manner. When the arm that is being imaged by the camera is actually activated, the imaging data of the arm is activated on the three-dimensional model (first coordinates) on the display. When the tip of the arm moves, the second target marker (origin of the second coordinates) moves accordingly, and the three-dimensional hand model moves on the first coordinates. Every time the second target marker shakes its head and changes its position or orientation, the position or orientation of the three-dimensional hand model in the second coordinate system changes.

この構成によれば、3次元ハンドモデル又はアームが3次元モデルに接触しても、実際にハンド部品が他のものに接触するわけではないため、ハンド部品の損傷は防止される。また、3次元モデルとして工場の実機配置データを設定することで、実際に工場にロボットアームを配置することなく、別の場所で予め動作・干渉試験を実施できる。また、3次元ハンドモデルのデータを変更するだけで、別のハンド部品に対する試験が可能となる。このように第1態様によれば、ロボットアームのハンド部品の損傷が防止されるとともに、容易にハンド部品の動作・干渉試験を実行することができる。 According to this configuration, even if the three-dimensional hand model or the arm contacts the three-dimensional model, the hand components do not actually come into contact with anything else, so damage to the hand components is prevented. Furthermore, by setting the factory's actual machine layout data as a three-dimensional model, motion and interference tests can be conducted in advance at a different location without actually placing the robot arm in the factory. Further, by simply changing the data of the three-dimensional hand model, it is possible to test another hand component. As described above, according to the first aspect, damage to the hand components of the robot arm can be prevented, and operation/interference tests of the hand components can be easily performed.

参考態様によれば、ディスプレイには、実際にカメラが撮像した撮像データ(現実空間)上に、ハンド部品が3次元モデルとして表示される。実際のアームの移動に応じてターゲットマーカの位置姿勢が変化し、ディスプレイ上の3次元モデルも位置姿勢が変化する。このように、ターゲットマーカの撮像データの変化により、ディスプレイにおける現実空間上に浮かび上がるハンド部品の3次元モデルの位置姿勢が変化する。下記の第2実施形態は、参考態様に相当する。 According to the reference aspect, the hand parts are displayed as a three-dimensional model on the display on the image data (real space) actually captured by the camera. The position and orientation of the target marker changes in accordance with the actual movement of the arm, and the position and orientation of the three-dimensional model on the display also change. In this way, the position and orientation of the three-dimensional model of the hand component that appears in the real space on the display changes due to a change in the image data of the target marker. The second embodiment below corresponds to a reference aspect.

この構成によれば、実際に工場にロボットアームを配置して試験する際、ターゲットマーカと他の装置との接触は生じ得るが、実際のハンド部品と他の装置との接触は生じ得ない。したがって、ハンド部品の損傷は防止される。また、実際のハンド部品を取り換えることなく、表示される3次元モデルのデータを変更するだけで、複数種類のハンド部品の動作・干渉試験を行うことができる。このように第2態様によれば、ロボットアームのハンド部品の損傷が防止されるとともに、容易にハンド部品の動作・干渉試験を実行することができる。 According to this configuration, when the robot arm is actually placed in a factory and tested, the target marker may come into contact with other devices, but the actual hand component may not come into contact with other devices. Therefore, damage to the hand parts is prevented. Furthermore, it is possible to perform operation/interference tests on multiple types of hand parts simply by changing the data of the displayed three-dimensional model without replacing the actual hand parts. As described above, according to the second aspect, damage to the hand components of the robot arm can be prevented, and operation/interference tests of the hand components can be easily performed.

第1実施形態のロボットアーム試験装置の構成図である。FIG. 1 is a configuration diagram of a robot arm testing device according to a first embodiment. 第1実施形態のディスプレイの表示状態を説明するための説明図である。FIG. 3 is an explanatory diagram for explaining the display state of the display of the first embodiment. 第1実施形態の座標系の原点の設定例である。This is an example of setting the origin of the coordinate system in the first embodiment. 第1実施形態のディスプレイの別例の表示状態を説明するための説明図である。FIG. 7 is an explanatory diagram for explaining another example display state of the display of the first embodiment. 第2実施形態のロボットアーム試験装置の構成図である。It is a block diagram of the robot arm test device of 2nd Embodiment.

以下、本発明の実施形態について図に基づいて説明する。なお、以下の各実施形態相互において、互いに同一もしくは均等である部分には、図中、同一符号を付してある。また、説明に用いる各図は概念図である。実施形態相互に説明及び図面を参照できる。 Embodiments of the present invention will be described below based on the drawings. Note that in each of the following embodiments, parts that are the same or equivalent to each other are given the same reference numerals in the drawings. Moreover, each figure used for explanation is a conceptual diagram. The description and drawings of each embodiment may be referred to.

<第1実施形態>
第1実施形態のロボットアーム試験装置1は、図1に示すように、ディスプレイ2と、カメラ3と、位置姿勢計測部4と、情報処理部5と、ロボットアーム6と、記憶部7と、を備えている。カメラ3は、外部を撮像する装置である。第1実施形態の例において、ロボットアーム試験装置1は、CPUやメモリを備えるタブレット端末100と、ロボットアーム6と、を備えている。
<First embodiment>
As shown in FIG. 1, the robot arm testing device 1 of the first embodiment includes a display 2, a camera 3, a position and orientation measurement section 4, an information processing section 5, a robot arm 6, a storage section 7, It is equipped with The camera 3 is a device that images the outside. In the example of the first embodiment, the robot arm testing device 1 includes a tablet terminal 100 including a CPU and a memory, and a robot arm 6.

タブレット端末100は、ディスプレイ2と、カメラ3と、位置姿勢計測部4と、情報処理部5と、記憶部7と、を備えている。タブレット端末100は、MRに関するソフトウェアが搭載されたコンピュータである。ディスプレイ2はタブレット端末100の表面に設けられ、カメラ3はタブレット端末100の背面に設けられている。各機能部4、5、7は、タブレット端末100の内部に配置されている。 The tablet terminal 100 includes a display 2, a camera 3, a position/orientation measuring section 4, an information processing section 5, and a storage section 7. The tablet terminal 100 is a computer loaded with software related to MR. The display 2 is provided on the front surface of the tablet terminal 100, and the camera 3 is provided on the back surface of the tablet terminal 100. Each of the functional units 4, 5, and 7 is arranged inside the tablet terminal 100.

位置姿勢計測部4は、カメラ3で撮像された第1座標系のターゲットマーカである第1ターゲットマーカ91の撮像データ、及び第1ターゲットマーカ91に対して設定された座標情報に基づいて、カメラ3の位置及び姿勢を計測する。第1座標系は、3次元のいわゆる世界座標系(ワールド座標系)であり、原点位置と3軸とで規定されている。位置姿勢計測部4は、撮像データにおける第1ターゲットマーカ91の大きさや形状により、カメラ3の位置姿勢を演算する。 The position and orientation measurement unit 4 uses the camera 3 to determine the position and orientation of the first target marker 91, which is a target marker in the first coordinate system, captured by the camera 3, based on the captured data and the coordinate information set for the first target marker 91. Measure the position and posture of 3. The first coordinate system is a three-dimensional so-called world coordinate system, and is defined by an origin position and three axes. The position and orientation measuring unit 4 calculates the position and orientation of the camera 3 based on the size and shape of the first target marker 91 in the imaging data.

位置姿勢計測部4は、第1ターゲットマーカ91のパターンに応じて設定された座標情報を読み取り、カメラ3がどの位置からどの方向を向いているかを推測する。ロボットアーム6の背後に配置された壁面や設置面、又はディスプレイには、複数の第1ターゲットマーカ91が表示されている。 The position/orientation measurement unit 4 reads coordinate information set according to the pattern of the first target marker 91 and estimates from which position the camera 3 is facing in which direction. A plurality of first target markers 91 are displayed on a wall surface, an installation surface, or a display placed behind the robot arm 6.

情報処理部5は、位置姿勢計測部4で計測されたカメラ3の位置及び姿勢に基づき、ディスプレイ2を介してユーザに現実空間と3次元モデル81との重畳画像である複合現実感(MR)を提示する。3次元モデル81は、例えば工場をスキャンして得た点群データ又は当該点群データに基づく画像データである。 Based on the position and orientation of the camera 3 measured by the position and orientation measurement unit 4, the information processing unit 5 displays mixed reality (MR), which is a superimposed image of the real space and the three-dimensional model 81, to the user via the display 2. present. The three-dimensional model 81 is, for example, point cloud data obtained by scanning a factory or image data based on the point cloud data.

MRとしてディスプレイ2に表示する3次元モデル81は、第1ターゲットマーカ91の座標情報と対応し、カメラ3が撮像する第1ターゲットマーカ91の位置等の変化に応じて見え方が変化する。例えば第1ターゲットマーカ91の位置、大きさ、パターン、及び形状(撮像角度)に基づき、カメラ3の対象スペースでの位置姿勢が推定できる。例えば特開2015-215191号公報及び特開2008-70267号公報に記載されているように、複合現実感装置(MR装置)は、カメラ3で撮像されたターゲットマーカの撮像データに基づいて、公知の方法でカメラ3の位置と姿勢を計測できる。複合現実感装置(MR装置)は、公知の装置であって、詳細な説明は省略する。 The three-dimensional model 81 displayed on the display 2 as MR corresponds to the coordinate information of the first target marker 91, and its appearance changes according to changes in the position of the first target marker 91 imaged by the camera 3, etc. For example, based on the position, size, pattern, and shape (imaging angle) of the first target marker 91, the position and orientation of the camera 3 in the target space can be estimated. For example, as described in JP-A-2015-215191 and JP-A-2008-70267, a mixed reality device (MR device) uses a known The position and orientation of the camera 3 can be measured using the following method. The mixed reality device (MR device) is a well-known device, and detailed description thereof will be omitted.

ロボットアーム6は、アーム61の先端部に、ハンド部品でなく、第1座標系から独立した第2座標系のターゲットマーカである第2ターゲットマーカ92が取り付けられたロボットアームである。つまり、ロボットアーム6には、実際のハンド部品は取り付けられておらず、代わりにハンド部品が配置される予定の場所に第2ターゲットマーカ92が取り付けられている。第2座標系は、副座標系である。つまり、第2座標系の原点は、第1座標上を第1座標の原点位置に影響することなく、アーム61の移動に伴い移動する。 The robot arm 6 is a robot arm in which a second target marker 92, which is a target marker of a second coordinate system independent of the first coordinate system, is attached to the tip of the arm 61 instead of a hand component. In other words, the actual hand component is not attached to the robot arm 6, but instead, the second target marker 92 is attached to the location where the hand component is scheduled to be placed. The second coordinate system is a sub-coordinate system. That is, the origin of the second coordinate system moves along the movement of the arm 61 on the first coordinate without affecting the origin position of the first coordinate.

アーム61は、例えば、1つ又は複数の関節を持ち、回転や小アームごとの作動が可能である。複数の第2ターゲットマーカ92がアーム61の先端部に設置されている。第2ターゲットマーカ92は、例えば、複数の6面体を組み合わせた部材の表面に複数配置されている。複数の第2ターゲットマーカ92が立体的に(垂線が交差するように)配置されている。 The arm 61 has, for example, one or more joints, and is capable of rotation and operation of each small arm. A plurality of second target markers 92 are installed at the tip of the arm 61. A plurality of second target markers 92 are arranged, for example, on the surface of a member that is a combination of a plurality of hexahedrons. A plurality of second target markers 92 are arranged three-dimensionally (so that perpendicular lines intersect).

記憶部7は、第2ターゲットマーカ92に対応して設定された、ロボットアーム6のハンド部品を表す複数の3次元ハンドモデル82を記憶する装置である。3次元ハンドモデルは、例えば、把持ハンド、溶接トーチ、研磨ハンド、又はバキュームハンド等のCG(コンピュータグラフィックス)である。記憶部7には、形状が異なる複数の3次元ハンドモデル82が記憶されている。 The storage unit 7 is a device that stores a plurality of three-dimensional hand models 82 representing hand parts of the robot arm 6, which are set to correspond to the second target marker 92. The three-dimensional hand model is, for example, CG (computer graphics) such as a gripping hand, a welding torch, a polishing hand, or a vacuum hand. The storage unit 7 stores a plurality of three-dimensional hand models 82 having different shapes.

ここで、図2に示すように、情報処理部5は、ディスプレイ2に、第1ターゲットマーカ91の撮像データに基づいて3次元モデルを表示し、第2ターゲットマーカ92の撮像データに基づいて3次元ハンドモデル82を表示し、アーム61の撮像データを現実空間として3次元モデル及び3次元ハンドモデルに重畳して表示する。 Here, as shown in FIG. 2, the information processing unit 5 displays a three-dimensional model on the display 2 based on the imaging data of the first target marker 91, and displays a three-dimensional model on the display 2 based on the imaging data of the second target marker 92. The dimensional hand model 82 is displayed, and the imaging data of the arm 61 is displayed as real space, superimposed on the 3-dimensional model and the 3-dimensional hand model.

情報処理部5では、カメラ3の撮像データのうち特定の色の部分が重畳画像での現実空間として表示されるように設定されている。この特定色として、アーム61表面の色(大部分が同色)が設定されている。したがって、情報処理部5は、アーム61表面の色を現実空間としてディスプレイ2に表示するため、実機のアーム61の撮像データがそのままディスプレイ2に表示される。カメラ3の撮像範囲内でアーム61が移動すると、ディスプレイ2でもCGなしに表示されたアーム61が第1座標上を移動する。このように、第1実施形態では、アーム61の3次元モデルは不要である。 The information processing unit 5 is set so that a specific color portion of the image data captured by the camera 3 is displayed as a real space in a superimposed image. The color of the surface of the arm 61 (mostly the same color) is set as this specific color. Therefore, since the information processing unit 5 displays the color of the surface of the arm 61 on the display 2 as a real space, the image data of the arm 61 of the actual device is displayed on the display 2 as is. When the arm 61 moves within the imaging range of the camera 3, the arm 61, which is also displayed without CG on the display 2, moves on the first coordinate. Thus, in the first embodiment, a three-dimensional model of the arm 61 is not necessary.

ロボットアーム6を作動させ、第2ターゲットマーカ92のみを移動・姿勢変更させると、ディスプレイ2では、3次元ハンドモデル82だけが移動・姿勢変更する。位置姿勢計測部4は、第2ターゲットマーカ92の見え方により、第1座標上で第2座標の原点の移動、姿勢変更等を把握する。位置姿勢計測部4は、第2座標の原点により第1座標上のアーム61の位置が決まるため、第2ターゲットマーカ92とアーム61との相対位置関係も把握できる。したがって、ディスプレイ2において、3次元ハンドモデル82とアーム61との前後関係(手前・背後)により、3次元ハンドモデル82がアーム61の手前に見えたりアーム61に隠れたりする。なお、図3は、原点位置の設定例である。 When the robot arm 6 is operated to move and change the posture of only the second target marker 92, only the three-dimensional hand model 82 moves and changes its posture on the display 2. The position and orientation measurement unit 4 determines movement of the origin of the second coordinate on the first coordinate, change in orientation, etc. from the appearance of the second target marker 92. Since the position of the arm 61 on the first coordinates is determined by the origin of the second coordinates, the position and orientation measurement unit 4 can also grasp the relative positional relationship between the second target marker 92 and the arm 61. Therefore, on the display 2, the three-dimensional hand model 82 appears in front of the arm 61 or is hidden behind the arm 61 depending on the front-back relationship (front/back) between the three-dimensional hand model 82 and the arm 61. Note that FIG. 3 is an example of setting the origin position.

第1実施形態では、アーム61は、少なくとも一部の色が、カメラ3の撮像データにおけるアーム61の背景の色と異なる特定色となるように配色されている。そして、情報処理部5は、特定色を3次元モデル81の手前に表示する。これにより、より明確にアーム61が表示される。 In the first embodiment, the arm 61 is colored so that at least part of the color is a specific color different from the color of the background of the arm 61 in the imaging data of the camera 3. Then, the information processing unit 5 displays the specific color in front of the three-dimensional model 81. This allows the arm 61 to be displayed more clearly.

3次元モデル81と3次元ハンドモデル82とが接触する(同座標になる)と、例えば接触部分の3次元ハンドモデル82が表示されなくなる。あるいは、接触部分だけを別の表示(色、点滅等)することも可能である。このように、情報処理部5は、3次元モデル81と3次元ハンドモデル82との接触部分に対して、色変更処理及び点滅処理の少なくとも一方を含む特殊表示処理を実行してもよい。 When the three-dimensional model 81 and the three-dimensional hand model 82 come into contact (become the same coordinates), for example, the three-dimensional hand model 82 at the contact portion is no longer displayed. Alternatively, it is also possible to display only the touched portion in a different manner (color, blinking, etc.). In this manner, the information processing unit 5 may perform special display processing including at least one of color change processing and blinking processing on the contact portion between the three-dimensional model 81 and the three-dimensional hand model 82.

(第1実施形態の効果)
第1実施形態によれば、ディスプレイ2には、第1座標系で定義された3次元モデル81、第2座標系で定義されたハンド部品を表す3次元ハンドモデル82、及び実機のアーム61を撮像データのままで表す現実空間(特定色の表示)が重畳的に表示される。カメラ3で撮像しているアーム61を実際に作動させると、ディスプレイ2では、3次元モデル81(第1座標)上をアーム61の撮像データが作動する。そして、アーム61の先端部が移動すると、それに応じて第2ターゲットマーカ92(第2座標の原点)が移動し、3次元ハンドモデル82が第1座標上を移動する。第2ターゲットマーカ92が首を振って位置や姿勢を変えるたびに、第2座標系における3次元ハンドモデル82の位置姿勢が変化する。
(Effects of the first embodiment)
According to the first embodiment, the display 2 displays a three-dimensional model 81 defined in the first coordinate system, a three-dimensional hand model 82 representing hand parts defined in the second coordinate system, and the arm 61 of the actual machine. The real space (displayed in a specific color) expressed as imaged data is displayed in a superimposed manner. When the arm 61 that is photographing with the camera 3 is actually operated, the image data of the arm 61 is displayed on the display 2 on the three-dimensional model 81 (first coordinates). When the tip of the arm 61 moves, the second target marker 92 (the origin of the second coordinates) moves accordingly, and the three-dimensional hand model 82 moves on the first coordinates. Every time the second target marker 92 shakes its head and changes its position or orientation, the position or orientation of the three-dimensional hand model 82 in the second coordinate system changes.

この構成によれば、3次元ハンドモデル82又はアーム61が3次元モデルに接触しても、実際にハンド部品が他のものに接触するわけではないため、ハンド部品の損傷は防止される。また、3次元モデル81として工場の実機配置データを設定することで、実際に工場にロボットアーム6を配置することなく、別の場所で予め動作・干渉試験を実施できる。また、3次元ハンドモデル82のデータを変更するだけで、別のハンド部品に対する試験が可能となる。このように第1実施形態によれば、ロボットアーム6のハンド部品の損傷が防止されるとともに、容易にハンド部品の動作・干渉試験を実行することができる。 According to this configuration, even if the three-dimensional hand model 82 or the arm 61 contacts the three-dimensional model, the hand components do not actually come into contact with anything else, so damage to the hand components is prevented. Furthermore, by setting the actual machine layout data of the factory as the three-dimensional model 81, a motion/interference test can be conducted in advance at another location without actually arranging the robot arm 6 in the factory. Further, by simply changing the data of the three-dimensional hand model 82, it is possible to test another hand component. As described above, according to the first embodiment, damage to the hand components of the robot arm 6 can be prevented, and operation/interference tests of the hand components can be easily performed.

(別の例)
図4に示す例では、カメラ3とディスプレイ2とが別体(有線で接続)である。また、複数の第2ターゲットマーカ92が1つの立体(複数の立方体で形成)に添付されている。この場面では、第2ターゲットマーカ92の背後にアーム61が位置するように、カメラ3が第2ターゲットマーカ92を正面から撮像している。これにより、第2ターゲットマーカ92(立体)の背後に隠れたアーム61の一部は、特定色が検出されないため、白色に抜けた状態でディスプレイ2に表示される。このように、タブレット端末100は、座標から前後関係(奥行き)を把握したうえで、ディスプレイ2に対象を表示する。
(another example)
In the example shown in FIG. 4, the camera 3 and the display 2 are separate bodies (connected by wire). Further, a plurality of second target markers 92 are attached to one solid (formed by a plurality of cubes). In this scene, the camera 3 images the second target marker 92 from the front so that the arm 61 is positioned behind the second target marker 92. As a result, the part of the arm 61 hidden behind the second target marker 92 (solid) is displayed on the display 2 in a blank white state because the specific color is not detected. In this way, the tablet terminal 100 displays the object on the display 2 after grasping the context (depth) from the coordinates.

<第2実施形態>
第2実施形態のロボットアーム試験装置1Aは、図5に示すように、タブレット端末100と、ロボットアーム6と、を備えている。タブレット端末100は、ディスプレイ2と、外部を撮像するカメラ3と、位置姿勢計測部4と、情報処理部5と、記憶部7と、を備えている。
<Second embodiment>
The robot arm testing device 1A of the second embodiment includes a tablet terminal 100 and a robot arm 6, as shown in FIG. The tablet terminal 100 includes a display 2, a camera 3 for capturing an image of the outside, a position and orientation measurement section 4, an information processing section 5, and a storage section 7.

位置姿勢計測部4は、カメラ3で撮像されたターゲットマーカ93の撮像データ、及びターゲットマーカ93に対して設定された座標情報に基づいて、カメラ3の位置及び姿勢を計測する。情報処理部5は、位置姿勢計測部4で計測されたカメラ3の位置及び姿勢に基づき、ディスプレイ2を介してユーザに現実空間と3次元モデルとの重畳画像である複合現実感を提示する。ロボットアーム6は、アーム61の先端部に、ハンド部品でなくターゲットマーカ93が取り付けられたロボットアームである。記憶部7は、ターゲットマーカ93に対応して設定された、ハンド部品を表す3次元モデルを記憶する装置である。記憶部7には、形状が異なる複数の3次元モデルが記憶されている。 The position and orientation measurement unit 4 measures the position and orientation of the camera 3 based on image data of the target marker 93 captured by the camera 3 and coordinate information set for the target marker 93. The information processing unit 5 presents mixed reality, which is a superimposed image of the real space and the three-dimensional model, to the user via the display 2 based on the position and orientation of the camera 3 measured by the position and orientation measurement unit 4. The robot arm 6 is a robot arm in which a target marker 93 is attached to the tip of the arm 61 instead of a hand component. The storage unit 7 is a device that stores a three-dimensional model representing a hand component set corresponding to the target marker 93. The storage unit 7 stores a plurality of three-dimensional models having different shapes.

第2実施形態の情報処理部5は、ディスプレイ2に、現実空間とともに、ターゲットマーカ93の撮像データに基づいて3次元モデルを表示する。つまり、第2実施形態では、第1実施形態と異なり、ハンド部品を表す3次元モデルだけがCGで表示され、その他は撮像データそのままが現実空間として表示される。第2実施形態でディスプレイ2に表示される画面は、例えば図4における3次元ハンドモデル82以外の部分が実際の撮像データである状態に相当する。第2実施形態では、副座標系のみが座標系として存在する。 The information processing unit 5 of the second embodiment displays a three-dimensional model on the display 2 based on the imaging data of the target marker 93 as well as the real space. That is, in the second embodiment, unlike the first embodiment, only the three-dimensional model representing the hand component is displayed in CG, and the other image data is displayed as it is in real space. The screen displayed on the display 2 in the second embodiment corresponds to, for example, a state in which the portion other than the three-dimensional hand model 82 in FIG. 4 is actual imaging data. In the second embodiment, only the sub-coordinate system exists as a coordinate system.

(第2実施形態の効果)
第2実施形態によれば、ディスプレイ2には、実際にカメラ3が撮像した撮像データ(現実空間)上に、ハンド部品が3次元モデルとして表示される。実際のアーム61の移動に応じてターゲットマーカ93の位置姿勢が変化し、ディスプレイ2上の3次元モデルも位置姿勢が変化する。このように、ターゲットマーカ93の撮像データの変化により、ディスプレイ2における現実空間上に浮かび上がるハンド部品の3次元モデルの位置姿勢が変化する。
(Effects of the second embodiment)
According to the second embodiment, hand parts are displayed as a three-dimensional model on the display 2 on the image data (real space) actually captured by the camera 3. The position and orientation of the target marker 93 changes in accordance with the actual movement of the arm 61, and the position and orientation of the three-dimensional model on the display 2 also change. In this way, the position and orientation of the three-dimensional model of the hand component appearing in the real space on the display 2 changes due to a change in the image data of the target marker 93.

この構成によれば、実際に工場にロボットアーム6を配置して試験する際、ターゲットマーカ93と他の装置との接触は生じ得るが、実際のハンド部品と他の装置との接触は生じ得ない。したがって、ハンド部品の損傷は防止される。また、実際のハンド部品を取り換えることなく、表示される3次元モデルのデータを変更するだけで、複数種類のハンド部品の動作・干渉試験を行うことができる。このように第2実施形態によれば、ロボットアーム6のハンド部品の損傷が防止されるとともに、容易にハンド部品の動作・干渉試験を実行することができる。 According to this configuration, when the robot arm 6 is actually placed in a factory and tested, the target marker 93 may come into contact with other devices, but the actual hand parts may not come into contact with other devices. do not have. Therefore, damage to the hand parts is prevented. Furthermore, it is possible to perform operation/interference tests on multiple types of hand parts simply by changing the data of the displayed three-dimensional model without replacing the actual hand parts. As described above, according to the second embodiment, damage to the hand components of the robot arm 6 can be prevented, and operation/interference tests of the hand components can be easily performed.

<その他>
本発明は、上記実施形態に限られない。例えば、ディスプレイ2とカメラ3とは、例えばヘッドマウントディスプレイやタブレット端末のように一体的に配置されてもよいし、あるいは互いに相対移動できるように両者が有線又は無線により通信可能に接続されていてもよい。タブレット端末100によれば、容易に且つ複数人でMR画像を確認できる。また、各機能は、タブレット端末100に限らず、別のコンピュータにより実現されてもよい。
<Others>
The present invention is not limited to the above embodiments. For example, the display 2 and the camera 3 may be arranged integrally, such as in a head-mounted display or a tablet terminal, or they may be communicably connected by wire or wirelessly so that they can move relative to each other. Good too. According to the tablet terminal 100, MR images can be easily checked by multiple people. Moreover, each function may be realized not only by the tablet terminal 100 but also by another computer.

また、参考として、複数のカメラを配置して、球状反射マーカの位置を検出する光学式センサを用いても、上記試験は実行可能である。ただし、上記実施形態のように、平板状のターゲットマーカを用いた装置のほうが、設備の簡素化が可能であり、より容易に試験を実行することができる。 Further, as a reference, the above test can also be performed by arranging a plurality of cameras and using an optical sensor that detects the position of the spherical reflective marker. However, as in the above embodiment, an apparatus using a flat target marker allows for simpler equipment and allows for easier testing.

第1実施形態によれば、ARとは異なり、2つの座標系が別々に設定されており、3次元ハンドモデル82の独立した動きを可能としている。また、第1実施形態では、仮想空間に3次元の仮想工場を再現することができ、実機と仮想工場空間との融合が可能となる。 According to the first embodiment, unlike AR, two coordinate systems are set separately, allowing the three-dimensional hand model 82 to move independently. Furthermore, in the first embodiment, a three-dimensional virtual factory can be reproduced in a virtual space, and it is possible to integrate a real machine and a virtual factory space.

また、ロボットアーム試験装置1、1Aによれば、CGと実機との距離感を精度よく反映してディスプレイ2に表示することができる。また、ロボットアーム試験装置1、1Aは、例えば、作業者の訓練に、ロボットティーチに、又はトレーニング機として利用することができる。ロボットアーム試験装置1Aは、設置工場空間での障害物との仮想事前干渉確認が可能となる。ロボットアーム試験装置1、1Aによれば、工場又は仮想工場空間でのロボットモーション確認が容易に可能となる。ロボットアーム試験装置は、バーチャルロボットハンドシミュレーションシステムともいえる。ハンド部品は、ロボットハンドともいえる。 Moreover, according to the robot arm testing apparatuses 1 and 1A, the sense of distance between the CG and the actual machine can be accurately reflected and displayed on the display 2. Moreover, the robot arm testing devices 1 and 1A can be used, for example, for training workers, for robot teaching, or as a training machine. The robot arm testing device 1A enables virtual preliminary interference confirmation with obstacles in the installed factory space. According to the robot arm testing devices 1 and 1A, robot motion can be easily confirmed in a factory or virtual factory space. The robot arm testing device can also be called a virtual robot hand simulation system. The hand parts can also be called a robot hand.

1、1A…ロボットアーム試験装置、2…ディスプレイ、3…カメラ、4…位置姿勢計測部、5…情報処理部、6…ロボットアーム、61…アーム、81…3次元モデル(例えば点群データによる背景画像)、82…3次元ハンドモデル、91…第1ターゲットマーカ、92…第2ターゲットマーカ、93…ターゲットマーカ。 DESCRIPTION OF SYMBOLS 1, 1A...Robot arm test device, 2...Display, 3...Camera, 4...Position and orientation measurement unit, 5...Information processing unit, 6...Robot arm, 61...Arm, 81...Three-dimensional model (for example, based on point cloud data) background image), 82... three-dimensional hand model, 91... first target marker, 92... second target marker, 93... target marker.

Claims (5)

ディスプレイと、
外部を撮像するカメラと、
前記カメラで撮像された第1座標系のターゲットマーカである第1ターゲットマーカの撮像データ、及び前記第1ターゲットマーカに対して設定された座標情報に基づいて、前記カメラの位置及び姿勢を計測する位置姿勢計測部と、
前記位置姿勢計測部で計測された前記カメラの位置及び姿勢に基づき、前記ディスプレイを介してユーザに現実空間と3次元モデルとの重畳画像である複合現実感を提示する情報処理部と、
アームの先端部のハンド部品が配置される予定の場所に前記ハンド部品ではなく、前記第1座標系から独立した第2座標系のターゲットマーカである第2ターゲットマーカが取り付けられたロボットアームと、
前記第2ターゲットマーカに対応して設定された、前記ハンド部品を表す3次元ハンドモデルを記憶する記憶部と、
を備え、
前記3次元モデルは、実機配置データであり、
前記第1座標系は、ワールド座標系であり、
前記第2座標系は、その原点が、前記第1座標系上で前記第2ターゲットマーカの移動に伴い移動する副座標系であり、
前記情報処理部は、
前記ディスプレイに、前記第1ターゲットマーカの撮像データに基づいて前記3次元モデルを表示し、前記第2ターゲットマーカの撮像データに基づいて前記第1座標系上で前記3次元ハンドモデルを表示し、前記アームの撮像データを前記現実空間として前記3次元モデル及び前記3次元ハンドモデルに重畳して表示するロボットアーム試験装置。
display and
A camera that captures images of the outside,
The position and orientation of the camera are measured based on imaging data of a first target marker that is a target marker in a first coordinate system captured by the camera and coordinate information set for the first target marker. a position and orientation measurement unit;
an information processing unit that presents mixed reality, which is a superimposed image of real space and a three-dimensional model, to the user via the display based on the position and orientation of the camera measured by the position and orientation measurement unit;
a robot arm in which a second target marker, which is a target marker of a second coordinate system independent from the first coordinate system, is attached, instead of the hand component, at a location at the tip of the arm where the hand component is scheduled to be placed; ,
a storage unit that stores a three-dimensional hand model representing the hand component, which is set corresponding to the second target marker;
Equipped with
The three-dimensional model is actual machine layout data,
The first coordinate system is a world coordinate system,
The second coordinate system is a sub-coordinate system whose origin moves as the second target marker moves on the first coordinate system,
The information processing unit includes:
displaying the three-dimensional model on the display based on the imaging data of the first target marker; displaying the three-dimensional hand model on the first coordinate system based on the imaging data of the second target marker; A robot arm testing device that superimposes and displays imaging data of the arm on the three-dimensional model and the three-dimensional hand model as the real space.
前記アームの先端部の前記ハンド部品が配置される予定の場所には、立体物が取り付けられており、 A three-dimensional object is attached to a location at the tip of the arm where the hand component is scheduled to be placed,
前記第2ターゲットマーカは、平板状であり、 The second target marker has a flat plate shape,
複数の前記第2ターゲットマーカが、前記立体物の表面に、立体的に配置されている、 a plurality of the second target markers are three-dimensionally arranged on the surface of the three-dimensional object;
請求項1に記載のロボットアーム試験装置。 The robot arm testing device according to claim 1.
複数の前記第1ターゲットマーカが、前記カメラに対して前記ロボットアームの背後に配置された壁面、設置面、又は表示ディスプレイに表示されている、 A plurality of the first target markers are displayed on a wall surface, an installation surface, or a display disposed behind the robot arm with respect to the camera,
請求項1又は2に記載のロボットアーム試験装置。 The robot arm testing device according to claim 1 or 2.
前記アームは、少なくとも一部の色が、前記カメラの撮像データにおける前記アームの背景の色と異なる特定色となるように配色され、
前記情報処理部は、前記特定色を前記3次元モデルの手前に表示する請求項1~3の何れか一項に記載のロボットアーム試験装置。
The arm is colored so that at least part of the color is a specific color different from a background color of the arm in the imaging data of the camera,
The robot arm testing device according to claim 1 , wherein the information processing section displays the specific color in front of the three-dimensional model.
前記情報処理部は、前記3次元モデルと前記3次元ハンドモデルとの接触部分に対して、色変更処理及び点滅処理の少なくとも一方を含む特殊表示処理を実行する請求項1~4の何れか一項に記載のロボットアーム試験装置。 5. The information processing unit according to claim 1, wherein the information processing unit executes special display processing including at least one of a color change processing and a blinking processing on a contact portion between the three-dimensional model and the three-dimensional hand model. Robotic arm test equipment as described in Section .
JP2019185557A 2019-10-08 2019-10-08 robot arm testing equipment Active JP7443014B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019185557A JP7443014B2 (en) 2019-10-08 2019-10-08 robot arm testing equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019185557A JP7443014B2 (en) 2019-10-08 2019-10-08 robot arm testing equipment

Publications (2)

Publication Number Publication Date
JP2021058979A JP2021058979A (en) 2021-04-15
JP7443014B2 true JP7443014B2 (en) 2024-03-05

Family

ID=75381128

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019185557A Active JP7443014B2 (en) 2019-10-08 2019-10-08 robot arm testing equipment

Country Status (1)

Country Link
JP (1) JP7443014B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113658247A (en) * 2021-07-29 2021-11-16 武汉联影智融医疗科技有限公司 Instrument space prediction method and device, computer equipment and storage medium

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003296759A (en) 2002-03-29 2003-10-17 Canon Inc Information processing method and device
JP2009214212A (en) 2008-03-10 2009-09-24 Toyota Motor Corp Action teaching system, and action teaching method
JP2013526423A (en) 2010-05-14 2013-06-24 コグネックス・テクノロジー・アンド・インベストメント・コーポレーション Apparatus and method for robust calibration between machine vision system and robot
JP2014010664A (en) 2012-06-29 2014-01-20 Sony Computer Entertainment Inc Video processing apparatus, video processing method, and video processing system
JP2014079824A (en) 2012-10-15 2014-05-08 Toshiba Corp Work screen display method and work screen display device
WO2014161603A1 (en) 2013-04-05 2014-10-09 Abb Technology Ltd A robot system and method for calibration
JP2015058488A (en) 2013-09-17 2015-03-30 セイコーエプソン株式会社 Robot control system, robot, robot control method, and program
CN104819707A (en) 2015-04-23 2015-08-05 上海大学 Polyhedral active cursor target
JP2016197393A (en) 2015-04-03 2016-11-24 キヤノン株式会社 Information processor, information processing method and program
JP2017104944A (en) 2015-12-10 2017-06-15 ファナック株式会社 Robot system provided with video display device for superimposingly displaying image of virtual object on robot video
JP2017205848A (en) 2016-05-20 2017-11-24 日本信号株式会社 Service providing system
JP2018005499A (en) 2016-06-30 2018-01-11 キヤノンマーケティングジャパン株式会社 Virtual space control device, control method of the same, and program
JP2019008473A (en) 2017-06-22 2019-01-17 ファナック株式会社 Composite reality simulation device and composite reality simulation program
JP2019029021A (en) 2017-07-30 2019-02-21 国立大学法人 奈良先端科学技術大学院大学 Learning data set preparing method, as well as object recognition and position attitude estimation method
JP2019030943A (en) 2017-08-09 2019-02-28 オムロン株式会社 Calibration method, calibration system and program

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003296759A (en) 2002-03-29 2003-10-17 Canon Inc Information processing method and device
JP2009214212A (en) 2008-03-10 2009-09-24 Toyota Motor Corp Action teaching system, and action teaching method
JP2013526423A (en) 2010-05-14 2013-06-24 コグネックス・テクノロジー・アンド・インベストメント・コーポレーション Apparatus and method for robust calibration between machine vision system and robot
JP2014010664A (en) 2012-06-29 2014-01-20 Sony Computer Entertainment Inc Video processing apparatus, video processing method, and video processing system
JP2014079824A (en) 2012-10-15 2014-05-08 Toshiba Corp Work screen display method and work screen display device
WO2014161603A1 (en) 2013-04-05 2014-10-09 Abb Technology Ltd A robot system and method for calibration
JP2015058488A (en) 2013-09-17 2015-03-30 セイコーエプソン株式会社 Robot control system, robot, robot control method, and program
JP2016197393A (en) 2015-04-03 2016-11-24 キヤノン株式会社 Information processor, information processing method and program
CN104819707A (en) 2015-04-23 2015-08-05 上海大学 Polyhedral active cursor target
JP2017104944A (en) 2015-12-10 2017-06-15 ファナック株式会社 Robot system provided with video display device for superimposingly displaying image of virtual object on robot video
JP2017205848A (en) 2016-05-20 2017-11-24 日本信号株式会社 Service providing system
JP2018005499A (en) 2016-06-30 2018-01-11 キヤノンマーケティングジャパン株式会社 Virtual space control device, control method of the same, and program
JP2019008473A (en) 2017-06-22 2019-01-17 ファナック株式会社 Composite reality simulation device and composite reality simulation program
JP2019029021A (en) 2017-07-30 2019-02-21 国立大学法人 奈良先端科学技術大学院大学 Learning data set preparing method, as well as object recognition and position attitude estimation method
JP2019030943A (en) 2017-08-09 2019-02-28 オムロン株式会社 Calibration method, calibration system and program

Also Published As

Publication number Publication date
JP2021058979A (en) 2021-04-15

Similar Documents

Publication Publication Date Title
JP5032343B2 (en) Method and apparatus for displaying a virtual object, and method and apparatus for overlaying a virtual object on an environmental image
CN104057453B (en) The manufacture method of robot device and machined object
US7236854B2 (en) Method and a system for programming an industrial robot
US8406923B2 (en) Apparatus for determining pickup pose of robot arm with camera
US7818091B2 (en) Process and device for determining the position and the orientation of an image reception means
JP5390813B2 (en) Spatial information display device and support device
JP3944019B2 (en) Information processing apparatus and method
US7773098B2 (en) Virtual reality presentation apparatus and method
EP1435280B1 (en) A method and a system for programming an industrial robot
JP7238060B2 (en) Information processing device, its control method, and program
JP2006302034A (en) Image processing method and image processor
KR20170095400A (en) Part attachment work support system and part attachment method
JP2021121461A (en) Image processing device
JP2016197393A (en) Information processor, information processing method and program
JPH1163927A (en) Head position and posture measuring device, and operation monitoring device
JP7443014B2 (en) robot arm testing equipment
JP7414395B2 (en) Information projection system, control device, and information projection control method
JP2020013548A (en) Image processing apparatus, image processing method, system, article manufacturing method
JP2018022242A (en) Composite system and target marker
JP4689344B2 (en) Information processing method and information processing apparatus
US20220331972A1 (en) Robot Image Display Method, Recording Medium, And Robot Image Display System
CN113597362A (en) Method and control device for determining a relation between a robot coordinate system and a movable device coordinate system
WO2020246425A1 (en) Video processing method, video processing device, and recording medium having video processing program recorded therein
CN114465910B (en) Machining equipment calibration method based on augmented reality technology
WO2022249295A1 (en) Robot simulation device

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20210528

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220913

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231023

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240221

R150 Certificate of patent or registration of utility model

Ref document number: 7443014

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150