JP2016197393A - Information processor, information processing method and program - Google Patents
Information processor, information processing method and program Download PDFInfo
- Publication number
- JP2016197393A JP2016197393A JP2015245326A JP2015245326A JP2016197393A JP 2016197393 A JP2016197393 A JP 2016197393A JP 2015245326 A JP2015245326 A JP 2015245326A JP 2015245326 A JP2015245326 A JP 2015245326A JP 2016197393 A JP2016197393 A JP 2016197393A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- information processing
- image
- observer
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、ロボットの制御に係る情報処理装置、情報処理方法及びプログラムに関する。 The present invention relates to an information processing apparatus, an information processing method, and a program related to robot control.
複数の腕を持つ産業用ロボットによる製品の自動組み立てが行われている。この場合、腕同士の衝突やワーク等、作業領域に存在する物体との衝突を避けるようにロボットの動作を教示する必要がある。特に腕同士の衝突を避けるようにタイミングを調整して教示するには非常に手間がかかる。そこで、ロボットやワーク等の3次元モデルを用いて、ロボットの動作をシミュレーションで干渉確認しながら教示する技術がある(特許文献1)。しかし、シミュレーションと実際のロボットの3次元形状や動作とには差異があり、シミュレーションだけでは干渉の確認が正確にはできない。そのため最終的にはロボットの実機で制御データを実行させ干渉を確認する必要がある。 Automatic assembly of products is performed by industrial robots with multiple arms. In this case, it is necessary to teach the operation of the robot so as to avoid collisions between objects such as arm-to-arm collisions and workpieces existing in the work area. In particular, it is very troublesome to adjust the timing so as to avoid collision between arms. Therefore, there is a technique for teaching a robot operation while confirming interference by simulation using a three-dimensional model of a robot or a workpiece (Patent Document 1). However, there is a difference between the simulation and the actual three-dimensional shape and motion of the robot, and interference cannot be confirmed accurately by simulation alone. Therefore, finally, it is necessary to check the interference by executing control data on the actual robot.
しかしながら、干渉確認が不十分なロボットの制御データを実機で再生するとロボットが衝突する可能性が高い。また複数の腕が僅差で複雑に交差するような状況において腕同士が干渉しているかを実機で確認する場合には、ロボットの実機が邪魔になって干渉の可能性がある箇所が本当に接触しているかどうかを確認することが難しい。
本発明は、干渉確認においてロボットが衝突する可能性を軽減すると共に干渉の可能性がある箇所に確認作業の効率を向上させることを目的とする。
However, there is a high possibility that the robot will collide if the control data of the robot with insufficient interference confirmation is reproduced on the actual machine. In addition, when checking with the actual machine whether the arms are interfering in a situation where multiple arms intersect with each other with a slight difference, the actual robot's machine will be in the way and the area where there is a possibility of interference will come into contact. It is difficult to check whether or not.
It is an object of the present invention to reduce the possibility of a robot colliding in interference confirmation and improve the efficiency of confirmation work at a place where there is a possibility of interference.
本発明の情報処理装置は、第一のロボットの動作を制御する制御手段と、観察者の視点位置及び姿勢を取得する取得手段と、前記観察者の視点位置及び姿勢と表示装置の内部パラメータとに基づいて前記第一のロボットを含む前記観察者の視野を特定し、前記第一のロボットと干渉する可能性がある第二のロボットの動作データに基づいて前記特定された視野に表示する前記第二のロボットの動作画像を生成する生成手段と、前記動作画像を前記表示装置に表示する表示手段と、を有する。 The information processing apparatus according to the present invention includes a control unit that controls the operation of the first robot, an acquisition unit that acquires the viewpoint position and orientation of the observer, the viewpoint position and orientation of the observer, and an internal parameter of the display device. The visual field of the observer including the first robot is identified based on the first robot, and the visual field is displayed in the identified visual field based on motion data of a second robot that may interfere with the first robot. A generating unit configured to generate an operation image of the second robot; and a display unit configured to display the operation image on the display device.
本発明によれば、干渉確認においてロボットが衝突する可能性を軽減すると共に干渉の可能性がある箇所に確認作業の効率を向上させることができる。 According to the present invention, it is possible to reduce the possibility of a robot colliding in interference confirmation, and improve the efficiency of confirmation work at a place where there is a possibility of interference.
以下、本発明の実施形態について図面に基づいて説明する。
<<実施形態1>>
<概要>
実施形態1では、腕同士が衝突する可能性を軽減しながら、2つの腕を持つロボットの干渉を調べる方法について述べる。図1は、表示システムの概要を説明するための図である。図1のように、表示システムでは、第一のロボットアーム1003が動作する様子に、第二のロボットアーム1004の動作をCG(Computer Graphics)で再生したCG画像1053を重畳して観察者1001に提示する。このことにより、観察者1001は、ロボットの腕の干渉を確認する。これにより、干渉確認の際にロボットの腕同士が接触し、ロボットが壊れる可能性を軽減することができる。更に、一方の腕が物理的に邪魔になって他方の腕との干渉の可能性がある箇所の視認を妨げることを軽減できるため、作業効率が向上する。CG画像1053は、動作画像の一例である。また、本実施形態の第一のロボットアーム1003は、第一のロボットの一例である。また、本実施形態の第二のロボットアーム1004は、第二のロボットの一例である。また、本実施形態の第二のロボットアーム1004は、本実施形態の第一のロボットアーム1003と干渉する可能性があるロボットアームの一例である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<< Embodiment 1 >>
<Overview>
In the first embodiment, a method for examining the interference of a robot having two arms while reducing the possibility that the arms collide with each other will be described. FIG. 1 is a diagram for explaining an overview of a display system. As shown in FIG. 1, in the display system, a
<システム構成>
実施形態1の構成を、図1を用いて説明する。図1に示されるように、表示システムは、情報処理装置1と、第一のロボットアーム1003と、第二のロボットアーム1004と、観察者1001の視点位置・姿勢を計測するセンサ1013と、を含む。また、表示システムは、観察者1001の左右の視点位置に相当する部分にそれぞれカメラと液晶ディスプレイとを内蔵した表示装置(HMD:Head Mounted Display)1051を含む。観察者1001は、センサ1013や表示装置1051を装着している。表示装置1051は、例えば、観察者1001の視点に配置される。また、対象物1006は、ワークスペース1005上にある。情景1052は、観察者1001に観察される情景である。CG画像1053は、第二のロボットアーム1004の動作のCG画像である。
情報処理装置1は、第一のロボットアーム1003の動きを制御すると共に、センサ1013からの信号を基に観察者1001の視点位置及び姿勢を算出する。そして、情報処理装置1は、観察者1001の視点位置及び姿勢と表示装置1051の内部パラメータとから観察者の視野を特定する。ここで、表示装置1051の情報とは、表示装置1051の投影モデルを表すパラメータであり、焦点距離や解像度、画素ピッチ等の情報を含む。情報処理装置1は、特定した視野の第二のロボットアーム1004の表示位置に、第一のロボットアーム1003の実際の動作と同期させて第二のロボットアーム1004の動作のCG画像を生成する。そして、情報処理装置1は、このCG画像を表示装置1051に内蔵されたカメラより取得された映像に重畳した、重畳画像を生成し、表示装置1051に送信する。表示装置1051は、前記重畳画像を液晶ディスプレイに表示する。ここで、表示装置1051の種類等に応じて、観察者1001の視点位置及び姿勢と、表示装置1051との間のキャリブレーションは行われているものとする。
本実施形態及び以下に示す実施形態において、ロボットは、1つ以上の稼働部位があるロボットであればどのような形態であっても良い。腕が何本あっても良く、腕でも足でも稼働する部位であれば良く、複数のロボットで構成しても良い。ロボットは6軸ロボットであっても、スカラロボットやパラレルリンクロボットであっても良く、その形態は問わない。
<System configuration>
The configuration of the first embodiment will be described with reference to FIG. As shown in FIG. 1, the display system includes an information processing apparatus 1, a
The information processing apparatus 1 controls the movement of the
In the present embodiment and the embodiments described below, the robot may take any form as long as it has one or more operating parts. Any number of arms may be used as long as the arm or leg can be operated, and a plurality of robots may be used. The robot may be a 6-axis robot, a SCARA robot, or a parallel link robot, and the form is not limited.
<ハードウェア構成>
図2は、情報処理装置1のハードウェア構成の一例を示す図である。情報処理装置1は、ハードウェア構成として、CPU11と、ROM12と、RAM13と、通信I/F14と、表示装置15と、入力装置16と、HDD17と、を含む。CPU11は、システムバスに接続された情報処理装置1の各種デバイスの制御を行う。ROM12は、BIOSのプログラムやブートプログラムを記憶する。RAM13は、CPU11の主記憶装置として使用される。通信I/F14は、情報処理装置1をネットワークに接続し、ネットワークを介した情報通信を制御する。ネットワークには有線を介して接続されていても良いし、無線を介して接続されていても良いし、有線及び無線を介して接続されていても良い。表示装置15は、CPU11等における処理結果を表示する。入力装置16は、操作者による入力等を受け付ける。入力装置16としては、例えば、マウスやキーボード等であっても良いし、後述するリモコン等であっても良い。HDD17は、OSのプログラムやOS上で動作する各種アプリケーションのプログラム等が格納される。
上記構成において、情報処理装置1の電源がONになると、CPU11は、ROM12に格納されたブートプログラムに従って、HDD17からOSのプログラム等をRAM13に読み込み、処理を実行することによって、情報処理装置1の機能を実現する。つまり、情報処理装置1のCPU11がプログラムに基づき処理を実行することによって、情報処理装置1のソフトウェア構成及び後述するフローチャートの処理が実現される。
<Hardware configuration>
FIG. 2 is a diagram illustrating an example of a hardware configuration of the information processing apparatus 1. The information processing apparatus 1 includes a
In the above configuration, when the power of the information processing apparatus 1 is turned on, the
図3は、表示装置1051のハードウェア構成の一例を示す図である。表示装置1051は、ハードウェア構成として、CPU21と、ROM22と、RAM23と、通信I/F24と、表示装置25と、入力装置26と、撮影装置27と、を含む。CPU21は、システムバスに接続された表示装置1051の各種デバイスの制御を行う。ROM22は、OSのプログラムやOS上で動作する各種アプリケーション等を記憶する。RAM23は、CPU21の主記憶装置として使用される。通信I/F24は、表示装置1051をネットワークに接続し、ネットワークを介した情報通信を制御する。ネットワークには有線を介して接続されていても良いし、無線を介して接続されていても良いし、有線及び無線を介して接続されていても良い。表示装置25は、例えば、液晶ディスプレイ等であって、情報処理装置1で生成されたCG画像等を表示する。入力装置26は、操作者による入力等を受け付ける。撮影装置27は、現実空間の画像を撮影する。
上記構成において、表示装置1051の電源がONになると、CPU21は、ROM22に格納されたプログラム等をRAM23に読み込み、処理を実行することによって、表示装置1051の機能を実現する。つまり、表示装置1051のCPU21がプログラムに基づき処理を実行することによって、表示装置1051のソフトウェア構成等が実現される。
FIG. 3 is a diagram illustrating an example of a hardware configuration of the
In the above configuration, when the power of the
<ソフトウェア構成>
図4は、情報処理装置1のソフトウェア構成の一例を示す図である。図4に示されるように、情報処理装置1は、ソフトウェア構成として、データ保持部100と、設定部101と、画像取得部102と、視点位置姿勢取得部103と、重畳画像生成部104と、出力部105と、ロボット制御部106と、を有する。
データ保持部100は、ロボットを含む作業環境の3次元形状情報と、ロボットの制御データ、ロボットの動作を表すデータ(以降、動作データと称す)と、をHDD17等に保持する。ロボットを含む作業環境の3次元形状情報は、ロボットを含む作業環境の3次元形状のメッシュモデルと、ロボットの関節情報と、からなる。但し、3次元形状情報は、CADモデルのような解析曲面モデルであっても良い。ロボットの制御データは、経由点の位置及び経由点でのロボットの関節角やエンドエフェクタの開閉等のアクションを記述したデータのリストからなる。但し、ロボットの制御データは、経由点でのエンドエフェクタの位置姿勢やアクションのデータのリストであっても良い。ロボットの制御データは、スクリプトやプログラミング言語のようなロボット用の言語で書かれたテキスト形式であっても良いし、ロボットへ送信する信号の集合であっても良い。ロボットの制御データは、ロボットの動作を再生できるデータであればどのようなものであっても良い。
動作データは、事前にロボットの実機の動作を計測して得たロボットの動作を表すデータで、時系列的にロボットの関節角やエンドエフェクタの開閉等のアクションを記述したデータのリストからなる。ロボットの動作は公知のモーションキャプチャ―技術を用いて取得することができる。但し、動作データはロボットの動作を表すデータであればどのようなものであっても良い。動作データは、ロボットを複数の撮像装置や3次元計測装置で時系列的に撮影して構築した任意視点画像群や3次元計測データ群であっても良い。
<Software configuration>
FIG. 4 is a diagram illustrating an example of a software configuration of the information processing apparatus 1. As illustrated in FIG. 4, the information processing apparatus 1 includes, as a software configuration, a
The
The motion data is data representing the motion of the robot obtained by measuring the actual motion of the robot in advance, and includes a list of data describing actions such as joint angles of the robot and opening / closing of the end effector in time series. The motion of the robot can be acquired using a known motion capture technique. However, the operation data may be any data as long as it represents the operation of the robot. The motion data may be an arbitrary viewpoint image group or a three-dimensional measurement data group constructed by photographing the robot in time series with a plurality of imaging devices or three-dimensional measurement devices.
設定部101は、重畳画像生成部104で描画するロボットの腕や、ロボットの動作の再生速度や再生位置等のパラメータを設定する。本実施形態では、DVDプレイヤー等の動画再生装置のリモコンと同様の入力装置を介した設定操作に応じて、設定部101は、表示する腕や再生速度や再生位置等の再生情報を設定する。より具体的には、再生ボタンの選択操作に応じて、設定部101は、ロボットの実機及び重畳画像の動きの再生を開始させるパラメータを設定する。また、停止ボタンの選択操作に応じて、設定部101は、再生を停止させるパラメータを設定する。また、スロー再生ボタンや早送りボタンの選択操作に応じて、設定部101は、動作速度を変更して再生させるパラメータを設定する。また、チャンネルボタンの選択操作に応じて、設定部101は、仮想表示させる腕、又は実機で動作させる腕を選択するパラメータを設定するようにしても良い。設定に用いる入力装置はリモコンに限らずマウスやキーボード、タッチパネルであっても良い。また、設定部101は、表示装置15に表示されたボタンや動作シーケンス、カーソルを通してパラメータ等を設定しても良い。また情報処理装置1は、観察者1001の動きをセンシングし、設定部101は、観察者1001が行うジェスチャーに応じて、パラメータ等を設定しても良い。設定されたパラメータ等は表示装置15やリモコン等の入力装置16のディスプレイに表示されても良い。また仮想表示又は実機動作する腕は所定のルールに従って設定部101が自動で決めても良い。例えば、設定部101は、各腕のIDの順に仮想表示又は実機動作する腕を決めても良い。
画像取得部102は、視点位置姿勢取得部103で観察者1001の視点位置及び姿勢を取得するのに合わせて、表示装置1051に内蔵されたカメラから観察者1001に提示する映像を取得する。画像取得部102が取得する画像は、撮像画像の一例である。
視点位置姿勢取得部103は、観察者1001の視点位置及び姿勢を取得する。図1に示したセンサ1013は、磁界発生器から発せられた磁力を計測することにより位置と姿勢とを計測できる6自由度センサである。視点位置姿勢取得部103は、センサ1013からの情報を基に観察者1001の視点位置及び姿勢を取得する。
The
The
The viewpoint position and
重畳画像生成部104は、視点位置姿勢取得部103で取得した視点位置及び姿勢と、データ保持部100で保持する3次元形状情報及び動作データと、設定部101で設定されたパラメータとに基づいて、以下の画像を生成する。即ち、重畳画像生成部104は、視点位置及び姿勢や表示装置1051の画角情報に基づき、観察者1001の視野を特定し、前記特定した視野の第二のロボットアーム1004の表示位置に、第二のロボットアーム1004が動作する様子を再生した画像を生成する。そして、重畳画像生成部104は、画像取得部102で取得した画像にロボットの腕の動作を再生した画像を重畳した画像を生成する。本実施形態では、重畳画像生成部104は、前記動作データを再生し、設定部101で設定された再生情報に基づいて再生位置(時刻)を決定し、再生位置における第二のロボットアーム1004の状態を描画する。重畳画像生成部104は、描画視点として視点位置姿勢取得部103で取得した視点位置及び姿勢を利用する。また、重畳画像生成部104は、ロボットの形状は3次元形状情報に含まれるメッシュモデルを利用する。画角情報は表示装置の内部パラメータの一例である。
出力部105は、重畳画像生成部104で生成された画像を表示装置1051に送信する。
ロボット制御部106は、データ保持部100で保持するロボットの制御データと設定部101で設定されたパラメータとに基づいて、第一のロボットアーム1003を動作させる。ロボット制御部106は、制御データを再生し、設定部101で設定されたパラメータに基づいて重畳画像生成部104で決定した再生位置におけるロボットアームの状態になるように、第一のロボットアーム1003の関節角等のパラメータを制御する。ロボット制御部106は、前記再生位置が制御データの経由点間である場合は、前後の経由点でのパラメータを補間した値でロボットの位置姿勢を制御する。
本実施形態では、図3の構成をソフトウェア構成として説明を行ったが、図3の全構成又は一部の構成をハードウェア構成として情報処理装置1に実装するようにしても良い。以下の実施形態においても同様である。
The superimposed
The
The
In the present embodiment, the configuration in FIG. 3 has been described as a software configuration. However, the entire configuration or a part of the configuration in FIG. 3 may be implemented in the information processing apparatus 1 as a hardware configuration. The same applies to the following embodiments.
図5は、表示装置1051のソフトウェア構成の一例を示す図である。図5に示される様に、表示装置1051は、ソフトウェア構成として、受信部111と、表示部112と、を含む。
受信部111は、情報処理装置1から送信された画像を受信する。表示部112は、受信部111で受信された画像を表示装置25に表示する。
本実施形態では、図5の構成をソフトウェア構成として説明を行ったが、図5の全構成又は一部の構成をハードウェア構成として表示装置1051に実装するようにしても良い。以下の実施形態においても同様である。
FIG. 5 is a diagram illustrating an example of a software configuration of the
The receiving
In the present embodiment, the configuration in FIG. 5 has been described as a software configuration, but the entire configuration in FIG. 5 or a part of the configuration in FIG. 5 may be implemented in the
<処理の流れ>
図6のフローチャートを用いて、情報処理装置1の情報処理の流れを説明する。
S1010では、重畳画像生成部104は、データ保持部100で保持している3次元形状情報、制御データ、動作データを取得する。
S1020では、設定部101は、重畳画像生成部104で描画するロボットアーム(及びロボット制御部106で実機動作させるロボットアーム)の選択、ロボットの再生速度や再生位置等のパラメータを設定する。観察者1001は、再生位置をコマ送りで進めても良いし、早送りやスロー再生のように再生速度を指定して連続動作させても良い。観察者1001は、干渉確認の難しいところでは再生位置を一時停止して、様々な視点から干渉を観測しても良い。
S1030では、画像取得部102は、表示装置1051を介して観察者1001に提示する現実空間の画像を撮影する。
S1040では、視点位置姿勢取得部103は、センサ1013を介して重畳画像を生成するための観察者1001の視点位置や姿勢を取得する。
S1050では、重畳画像生成部104は、S1010〜S1040で取得された、又は設定された情報等に基づいて、観察者1001の視野を特定し、観察者1001に提示する重畳画像を生成する。重畳画像生成部104は、出力部105に重畳画像を出力すると共に、ロボット制御部106に第一のロボットアーム1003を動作するためのトリガ情報を出力する。
S1060では、出力部105は、表示装置1051にS1040で生成した画像を、例えば、無線等を介して送信する。
<Process flow>
The flow of information processing of the information processing apparatus 1 will be described using the flowchart of FIG.
In step S <b> 1010, the superimposed
In step S <b> 1020, the
In step S <b> 1030, the
In S1040, the viewpoint position and
In S1050, the superimposed
In S1060, the
S1070では、ロボット制御部106は、S1010で取得した3次元形状情報、制御データ、S1020で設定されたパラメータ及び、S1050で出力されたトリガ情報に基づいて、第一のロボットアーム1003を動作させる。これにより、第一のロボットアーム1003を、重畳画像で描画される第二のロボットアーム1004と同期させて動かすことができる。なお、本実施形態では、重畳画像生成部104からのトリガにより第一のロボットアーム1003の動作の開始タイミングを制御したが、これに限られるものではない。例えば、観察者が手に持つコントローラで制御しても良い。
S1080では、設定部101は、観察者1001の選択操作等に基づいて干渉確認が完了したか否かを判定する。設定部101は、干渉確認が完了していないと判定した場合、処理をS1020に戻し、干渉確認が完了したと判定した場合、図4に示すフローチャートの処理を終了する。処理がS1020に戻った場合、観察者1001は、視点位置、姿勢とロボットの動作の再生位置とを変更しながら様々な視点で観測して干渉確認を行う。観察者1001は、HMD内蔵カメラで撮影された第一のロボットアーム1003の画像に第二のロボットアーム1004のCG画像が重畳された画像を観察することにより、ロボットアーム同士の干渉やワーク等の実環境との干渉を確認することができる。
In S1070, the
In S1080, the
<バリエーション>
本実施形態では、2本の腕を持つロボットの一方の腕の干渉を確認する例を説明した。しかし上記の例に限らず、CGで仮想表示する腕と実機動作させる腕を入れ替えて更に干渉を確認しても良い。また3本以上の腕を持つロボットであっても、仮想表示する腕と実機動作させる腕を順番に切り替えれば同様に干渉確認できる。
ロボットは1つ以上の稼働部位があるロボットであればどのような形態であっても良い。腕でも足でも稼働する部位があれば良い。ロボットは6軸ロボットであっても、スカラロボットやパラレルリンクロボットであっても良いし、複数のロボットの組合せデモ良い。
データ保持部100は、ロボットを含む作業環境の3次元形状情報、ロボットの制御データ、ロボットの動作を表すデータを保持していれば良い。3次元形状情報はCADモデルのような解析曲面モデルであっても良い。制御データは経由点でのエンドエフェクタの位置姿勢やアクションのデータのリストであっても良い。制御データはスクリプトやプログラミング言語のようなロボット用の言語で書かれたテキスト形式であっても良いし、ロボットへ送信する信号の集合であっても良い。制御データはロボットの動作を再生できる情報であれば、どのようなものであっても良い。動作データはロボットの動作を表すデータであれば良い。動作データは実測したロボットの関節角等のパラメータのリストでなくとも、ロボットを複数の撮像装置や3次元計測装置で時系列的に撮影して構築した任意視点画像群や3次元計測データ群であっても良い。データ保持部100が保持するデータはHDD17に記憶されるものとして説明を行ったが、例えば、ネットワークを介して情報処理装置1と通信可能な他の装置のメモリ等に記憶されても良い。また干渉を確認する際には、仮想表示する一方の腕の実機は配置していなくても良い。
<Variation>
In this embodiment, an example in which the interference of one arm of a robot having two arms is confirmed has been described. However, the present invention is not limited to the above example, and the arm that is virtually displayed on the CG and the arm that is actually operated may be switched to further confirm interference. Further, even in a robot having three or more arms, interference can be confirmed in the same manner by switching the virtual display arm and the arm to be actually operated.
The robot may be in any form as long as it has one or more operating parts. It is sufficient if there is a part that works with both arms and legs. The robot may be a 6-axis robot, a SCARA robot, a parallel link robot, or a combination demonstration of a plurality of robots.
The
設定部101は、ロボットの動作の再生情報を設定できればどのような入力装置を介した操作に応じてパラメータ等を設定しても良い。再生情報は仮想表示、実機動作させる腕や再生速度、再生位置等の情報を含む。観察者1001による設定方法はリモコンのボタンを用いて設定しても良いし、ジョグダイヤル等で再生位置を設定しても良い。設定部101は、設定された再生情報を表示装置15に表示するようにしても良い。また、リモコン等の入力装置のCPUが入力装置のディスプレイに再生情報を表示するようにしても良い。入力装置もリモコンに限らずマウスやキーボード、ジェスチャーを撮影しジェスチャーを解析し、ジェスチャーの意味を特定する装置であっても良い。また、設定部101は、表示装置15に表示したボタンや動作シーケンス、カーソルにおける観察者の設定操作に応じて、パラメータを設定しても良い。例えば、設定部101は、観察者1001が表示装置15に表示されたロボットの腕の名前のリストから、マウスやタッチパネル、カーソルキー等の入力装置を用いて、仮想表示又は実機動作させる腕を選択しても良い。また、設定部101は、観察者1001の動きをセンシングし、観察者1001が触ったり、指さしたりしたロボットの腕を仮想表示する、又は実機を用いる腕として選択しても良い。
The
画像取得部102は、観察者1001に提示する映像を取得できれば良い。但し、表示装置1051として光学シースルー型のディスプレイを用いる場合、画像取得部102は、情報処理装置1のソフトウェア構成として無くても良い。撮像装置としてカラーカメラを用いても良いし、濃淡カメラや赤外線カメラ等を用いても良い。また撮像装置は表示装置1051に取り付けても良いし、取り付けられていなくても良い。
また、表示装置1051として2次元液晶ディスプレイ等を利用する場合、位置姿勢が取得可能なカメラを任意の位置に配置することにより観察者1001は自分の位置を変更することなくディスプレイの画面上で様々な位置・方向からの干渉チェックが可能となる。
視点位置姿勢取得部103は、観察者1001の視点の3次元位置姿勢を取得できればどのような方法であっても良い。視点位置姿勢取得部103は、モーションキャプチャ技術を用いても良いし、観察者1001が装着等している装置のGPSや姿勢センサ、加速度センサ等の計測値から視点位置、姿勢を推定しても良い。また、視点位置姿勢取得部103は、画像マーカーを用いる方法や画像取得部102より取得された画像から抽出した特徴的な点をトラッキングする方法で観察者1001の視点の3次元位置姿勢を取得するようにしても良い。また、視点位置姿勢取得部103は、視点位置、姿勢や視点位置、姿勢を算出するための映像やセンサのデータをHDD17から読み出し、視点位置、姿勢を取得しても良い。
The
In addition, when a two-dimensional liquid crystal display or the like is used as the
The viewpoint position and
重畳画像生成部104は、視点位置姿勢取得部103で取得された視点位置姿勢に基づいて、現実環境の座標と仮想表示するロボットの座標とを合わせ、設定された再生位置(時刻)におけるロボットの腕が動作する画像を生成する。再生位置は動作データを取得したときと同じ速度で再生した場合の時刻であっても良いし、設定された倍率でゆっくり、又は速く再生した場合の時刻であっても良い。また再生位置は設定部101で設定された任意の再生位置であっても良い。重畳表示する画像はロボットやワーク等の3次元形状情報からポリゴンで描画さえた画像であっても良いし、ワイヤーフレームで描画された画像であっても良く、表現方法はどのようなものであっても良い。光学シースルー型の表示部を用いる場合、重畳画像生成部104は、ロボットが動作する様子の画像を生成すれば良い。また、ビデオシースルー型の表示部を用いる場合、重畳画像生成部104は、撮像部で撮影された画像にロボットが動作する様子の画像を重畳した画像を生成すれば良い。表示装置1051が光学シースルー型、ビデオシースルー型かの情報は、例えば、無線等を介して、情報処理装置1が表示装置1051より取得してもよし、観察者1001の操作に応じて、設定部101が取得しても良い。例えば、重畳画像生成部104は、表示装置1051が光学シースルー型、ビデオシースルー型かの情報に応じて、対応する重畳画像を生成する。
Based on the viewpoint position and orientation acquired by the viewpoint position and
出力部105は、前記重畳画像を表示装置1051に出力できればどのようなものであっても良い。例えば、出力部105は、前記重畳画像を表示装置1051に無線等を介して送信し、前記重畳画像を表示装置1051に表示させる。表示装置1051は、光学シースルー型でも、ビデオシースルー型でも良い。また、表示装置1051は、HMDであっても、ディスプレイやプロジェクタ、タブレット端末やスマートフォン、ロボットのティーチングペンダントに付属するディスプレイであっても良い。
ロボット制御部106は、重畳画像生成部104と同じ再生位置(時刻)における、制御データを再生したときのロボットの腕の位置姿勢に、ロボットの腕を移動できれば良い。ここでロボットの腕の位置姿勢とは、ロボットの腕の各関節の関節角と同義である。
The
The
以上述べた構成によれば、情報処理装置1は、予め計測しておいたロボットアームの実際の動作軌跡を使ってロボットアームの動作を重畳画像で生成する。そして、もう一方のロボットアームを実際に動作させた様子を撮影した画像に前記重畳画像を重畳する。このように処理することで、シミュレーションでは再現できないようなロボットアームの動きを、ロボットが衝突するかもしれないという思いを伴わずに、干渉チェック等が行えるという効果がある。また、一方のロボットアームが物理的に邪魔になって他方のアームとの干渉の確認が難しくなることが軽減できるため、作業効率が向上する。 According to the configuration described above, the information processing apparatus 1 generates the motion of the robot arm as a superimposed image using the actual motion trajectory of the robot arm measured in advance. Then, the superimposed image is superimposed on an image obtained by photographing the other robot arm actually operated. By processing in this way, there is an effect that it is possible to perform an interference check or the like without the thought that the robot arm may collide with the movement of the robot arm that cannot be reproduced by simulation. In addition, since it is possible to reduce the difficulty of confirming interference with the other arm due to physical obstruction of one robot arm, work efficiency is improved.
<<実施形態2>>
<概要>
実施形態2では、2つの腕を持つロボットの動作を教示する場合について述べる。本実施形態では観察者1001がロボットの腕を直接持って移動させて動作を入力するダイレクトティーチングを用いてロボットの動作を教示する。観察者1001は、1腕ずつ教示する。教示済みのロボットの腕は実機で動作させない。本実施形態の情報処理装置は、観察者1001の視界に教示済みの腕の動作シミュレーションの画像を重畳表示させるよう画像を生成し、表示装置に送信する。これにより、教示済みの腕が観察者1001や他の腕に接触する可能性を軽減できる。更に、教示済みの腕が邪魔になって干渉の確認が難しくなることを軽減するため、作業効率が向上する。
<構成>
本実施形態における情報処理装置2の構成を図7に示す。情報処理装置2は、実施形態1の情報処理装置1と同様のハードウェア構成を有する。ロボット制御部206は、第一のロボットアーム1003と第二のロボットアーム1004とを備えたロボットを制御する。データ保持部200、設定部201、画像取得部202、視点位置姿勢取得部203、重畳画像生成部204、出力部205は、実施形態1の対応する各部と同様である。実施形態2の情報処理装置2は、これらに加えて、動作入力部207を有する。以下では実施形態1との差を中心に説明する。本実施形態の第二のロボットアーム1004は、第三のロボットの一例である。本実施形態の第一のロボットアーム1003は、第四のロボットの一例である。また、本実施形態の第一のロボットアーム1003は、本実施形態の第二のロボットアーム1004と干渉する可能性があるロボットアームの一例である。
動作入力部207は、ダイレクトティーチングにより観察者1001がロボットの腕を直接持って移動させたロボットのデータを情報処理装置2に入力する。より具体的に説明すると、動作入力部207は、移動後のロボットの各関節の関節角やアクション等のパラメータを経由点のパラメータとして制御データに追加し、データ保持部200で保持させる。
<< Embodiment 2 >>
<Overview>
In the second embodiment, a case where the operation of a robot having two arms is taught will be described. In this embodiment, the
<Configuration>
FIG. 7 shows the configuration of the information processing apparatus 2 in the present embodiment. The information processing apparatus 2 has the same hardware configuration as the information processing apparatus 1 of the first embodiment. The
The
<処理の流れ>
図8のフローチャートを用いて、情報処理装置2の情報処理の流れを説明する。
S2010〜S2040及びS2050〜2060の処理は実施形態1のS1010〜S1040及びS1050〜1060の処理と同様である。
S2045では、動作入力部207は、S2020で選択された実機動作させる第二のロボットアーム1004の制御データを作成する。観察者1001は表示装置1051に表示される第一のロボットアームの重畳画像を見ながら、第一のロボットアームと腕が干渉しないようにダイレクトティーチングにより第二のロボットアーム1004の教示を行う。動作入力部207は、1ループ前のS2045で入力された第二のロボットアーム1004の位置姿勢(初回の場合は第二のロボットアーム1004の初期位置姿勢)から観察者1001がロボットの腕を直接触って移動させた後のデータを入力する。即ち、動作入力部207は、移動後の第二のロボットアーム1004の位置姿勢(各関節の関節角やアクション等のパラメータ)を経由点として制御データに追加し、データ保持部200で保持させる。
<Process flow>
The flow of information processing of the information processing apparatus 2 will be described using the flowchart of FIG.
The processes of S2010 to S2040 and S2050 to 2060 are the same as the processes of S1010 to S1040 and S1050 to 1060 of the first embodiment.
In S2045, the
S2050では、重畳画像生成部204は、S2040で取得された視点位置、姿勢、S2010で取得されたロボットの3次元形状情報及び動作データ、S2020で設定されたパラメータ、S2045で入力されたロボットの移動に係る情報等に基づいて、仮想表示する第一のロボットアーム1003が動作する画像を作成する。より具体的には、重畳画像生成部204は、S2045で移動した第二のロボットアーム1004を、1ループ前のS2045での位置姿勢から今回のS2045で入力した位置姿勢に移動する動作をシミュレーションし、移動にかかる時間(移動時間)を算出する。重畳画像生成部204は、動作データ等に従って、1ループ前のS2050で生成した重畳画像における仮想表示する第一のロボットアーム1003の位置姿勢から、前記移動時間の分進めた再生位置における、第一のロボットアーム1003の動作を再生した画像を生成する。
S2080では、動作入力部207は、観察者1001のダイレクトティーチングによる第二のロボットアーム1004の教示が終了したか否かを判定する。例えば、動作入力部207は、所定の間、ダイレクトティーチングによる動作入力がない場合、教示が終了したと判定する。動作入力部207は、教示が終了したと判定した場合、図8に示すフローチャートの処理を終了し、教示が終了していないと判定した場合、処理をステップS2020に戻す。
In S2050, the superimposed
In step S2080, the
<バリエーション>
本実施形態では、干渉を確認しながら、2本の腕を持つロボットの一方の腕の動作を入力する例を説明した。しかし上記の例の処理の後に、観察者1001は、仮想表示する腕と動作入力する腕とを入れ替えて更に動作入力をしても良い。また観察者1001は、3本以上の腕を持つロボットであっても、仮想表示する腕と動作入力する腕を順番に切り替えれば同様に動作入力できる。
動作入力部207は、ロボットの動作を制御できればどのようなものであっても良い。動作入力部207は、上述したように観察者1001がロボットの腕を直接持って移動させた動作のデータを入力しても良いし、観察者1001がティーチングペンダントを用いて入力した経由点におけるロボットの位置や関節角、アクション等を入力しても良い。また、動作入力部207は、計測された観察者1001の動作に基づいてロボットの制御データを生成しても良い。動作入力部207は、エンドエフェクタや把持物体を移動させる様子をカメラや三次元計測装置で観測した結果の計測データから、エンドエフェクタや把持物体の位置姿勢を推定し、その位置姿勢に基づいてロボットの制御データを作成しても良い。また、観察者1001は、実施形態1や2の方法で干渉確認を行って干渉が確認された場合に、上記の方法によってロボットの動作を入力し、制御データを修正するようにしても良い。例えば、観察者1001は、修正したい動作の経由点を指定し、その経由点でのロボットの制御パラメータ(関節角や位置、アクション等)をティーチングペンダントや、ダイレクトティーチング、コンピュータ端末等を用いて編集しても良い。情報処理装置は、ティーチングペンダントや、ダイレクトティーチング、コンピュータ端末等を用いた観察者1001による編集に係る操作を受け取り、制御データを編集する。編集する制御データは仮想表示する第一のロボットアーム1003のものであっても、実機動作させる第二のロボットアーム1004のものであっても良い。
以上述べた構成によれば、複数の腕を持つロボットの動作教示において、教示済みの腕が観察者1001や他の腕に接触する可能性を軽減できる。更に、教示済みの腕が邪魔になって干渉の確認が難しくなることを軽減するため、教示作業の効率が向上する。
<Variation>
In this embodiment, an example in which the operation of one arm of a robot having two arms is input while confirming interference has been described. However, after the processing in the above example, the
The
According to the configuration described above, in the operation teaching of the robot having a plurality of arms, it is possible to reduce the possibility that the taught arm comes into contact with the
<<実施形態3>>
<概要>
実施形態3では、干渉を確認する際に、注意して干渉を確認すべき箇所を強調して重畳表示する例について説明する。このような構成とすることにより、観察者は明らかに干渉しない箇所の干渉を確認する手間を軽減でき、作業効率が向上する。
本実施形態における情報処理装置3の構成を図9に示す。情報処理装置3は、実施形態1と同様のハードウェア構成を有する。ロボット制御部306は、第一のロボットアーム1003と第二のロボットアーム1004とを備えたロボットを制御する。データ保持部300、設定部301、画像取得部302、視点位置姿勢取得部303、重畳画像生成部304、出力部305は、実施形態1の対応する各部と同様である。実施形態3の情報処理装置3は、これらに加えて、干渉判定部308を有する。以下では実施形態1との差を中心に説明する。
干渉判定部308は、ロボットの腕同士に干渉しそうな箇所があるかどうかを判定し、その干渉の可能性のある箇所を検出する。より具体的には、干渉判定部308は、データ保持部300で保持するロボットの腕の3次元形状情報、制御データ、動作データ及び設定部301で設定されたパラメータから決定される再生位置(時刻)に基づき、ロボットの動作のシミュレーションを行う。干渉判定部308は、所定の再生位置におけるシーンのシミュレーションを行い、ロボットの腕同士に事前に設定された閾値以下の距離になる箇所が存在すれば、干渉の可能性があると判定し、その干渉箇所を検出する。
<< Embodiment 3 >>
<Overview>
In the third embodiment, an example will be described in which, when confirming interference, a portion where interference should be confirmed is emphasized and displayed in a superimposed manner. By adopting such a configuration, the observer can reduce the trouble of confirming the interference of a portion that does not clearly interfere, and the work efficiency is improved.
The configuration of the information processing apparatus 3 in this embodiment is shown in FIG. The information processing apparatus 3 has the same hardware configuration as that of the first embodiment. The
The
<処理の流れ>
図10のフローチャートを用いて、情報処理装置3の情報処理の流れを説明する。
S3010〜S3040及びS3050〜S3080の処理は実施形態1のS1010〜S1040及びS1050〜S1080の処理と同様である。
S3047では、干渉判定部308は、ロボットの腕同士に接触しそうな箇所があるかどうかを判定し、干渉の可能性のある箇所を検出する。より具体的には、干渉判定部308は、データ保持部300で保持する3次元形状と動作データとに基づいて仮想表示する第二のロボットアーム1004の動作のシミュレーションをする。また、干渉判定部308は、3次元形状と制御データとに基づいて実機動作させる第一のロボットアーム1003との動作をシミュレーションし、干渉判定を行う。干渉判定部308は、1ループ前の再生位置におけるロボットの位置姿勢から、設定部301で設定された再生速度に応じて進めた再生位置における、ロボットのシミュレーションを行う。そして、干渉判定部308は、ロボットの腕やワーク、ワークスペース等の間に事前に設定された閾値以下の距離になる箇所が存在すれば、干渉の可能性があると判定し、その箇所を検出する。
S3050では、重畳画像生成部304は、S3040で取得された視点位置、姿勢、S3010で取得された3次元形状情報及び動作データ、S3020で設定されたパラメータから、仮想表示する第二のロボットアーム1004が動作する画像を作成する。更に、重畳画像生成部304は、S2047で検出された接触の可能性のある個所を強調して画像を生成する。より具体的には、重畳画像生成部304は、検出された箇所周辺のロボットの3次元形状モデルの色を赤色で表示する。
<Process flow>
The flow of information processing of the information processing apparatus 3 will be described using the flowchart of FIG.
The processes of S3010 to S3040 and S3050 to S3080 are the same as the processes of S1010 to S1040 and S1050 to S1080 of the first embodiment.
In step S3047, the
In S3050, the superimposed
<バリエーション>
干渉判定部308は、ロボットの3次元情報と動作データとからロボットの動作シミュレーションを行って、干渉の可能性がある箇所を検出できれば良い。例えば、干渉判定部308は、本実施形態のように、実機動作させる第一のロボットアーム1003のシミュレーションの結果を用いなくとも良い。干渉判定部308は、実機動作させる第一のロボットアーム1003の3次元計測結果と仮想表示する第二のロボットアーム1004のシミュレーション結果との干渉判定を行っても良い。例えば、所定の再生位置で再生させたロボットの実機の第一のロボットアーム1003を移動し、環境に設置した3次元計測装置を用いて、ロボットを含むワークスペースを3次元計測する。干渉判定部308は、取得した3次元計測データと、動作データと、3次元形状情報と、に基づいて再生した仮想表示する第二のロボットアーム1004との距離が所定の閾値以下になる個所を干渉箇所として検出しても良い。また、干渉判定部308が用いる干渉の判定基準は距離でも良いし、3次元形状の包含関係であっても良い。また、干渉判定部308は、干渉箇所を検出した際に音声を発生させて通知しても良い。
重畳画像生成部304は、干渉箇所を強調表示する際は、干渉箇所が分かればどのように画像を生成しても良い。重畳画像生成部304は、干渉箇所の色を変えた画像を生成しても良いし、点滅させた画像を生成しても良い。また、重畳画像生成部304は、干渉箇所を矢印等で示した画像を生成しても良いし、半透明の球や直方体で囲んだ画像を生成しても良いし、文章を表示した画像を生成しても良い。
また実施形態2のように動作入力部を情報処理装置に実装し、干渉を確認しながら制御データの入力や修正を行っても良い。
以上述べた構成によれば、明らかに干渉しない箇所の干渉を確認する手間を軽減でき、作業効率が向上する。
<Variation>
The
When the interference location is highlighted, the superimposed
Further, as in the second embodiment, an operation input unit may be mounted on the information processing apparatus, and control data may be input or corrected while checking interference.
According to the configuration described above, it is possible to reduce the trouble of confirming the interference at a location that does not clearly interfere, and the work efficiency is improved.
<<実施形態4>>
<概要>
実施形態4では、実際のロボットやその周辺機器、作業環境等の形状が、ロボットの動作画像を生成するための3次元形状情報と異なる場合の一例を説明する。この場合、情報処理装置は、ロボットやその周辺機器、作業環境等を3次元計測し、計測した3次元形状情報に基づいてロボットの動作画像を生成する。このような構成とすることにより、実際のロボットや周辺機器、作業環境の3次元形状を反映した動作画像を観測しながら、正確性高く干渉確認を行うことができ、作業効率が向上する。
本実施形態における情報処理装置4のソフトウェア構成の一例を図11に示す。情報処理装置4は、実施形態1と同様のハードウェア構成に加えて、ロボットやその周辺機器、環境等の3次元形状を計測する不図示の計測装置を有する。本実施形態では計測装置としてRGBDカメラ(カラー画像と距離画像とを同時に撮影可能なカメラ)を例に説明を行う。ロボット制御部406は、第一のロボットアーム1003と第二のロボットアーム1004とを備えたロボットを制御する。データ保持部400、設定部401、画像取得部402、視点位置姿勢取得部403、重畳画像生成部404、出力部405は、実施形態1の対応する各部と同様である。情報処理装置4は、これらに加えて、形状計測部409をソフトウェア構成として有する。以下では実施形態1との差を中心に説明する。
形状計測部409は、計測装置を用いて、実際のロボットや、ケーブル、作業に用いる冶具等の周辺機器、作業環境の3次元形状情報を計測、取得する。本実施形態では、形状計測部409は、計測装置を移動させ、様々な視点からロボットや周辺機器、作業環境を計測したカラー画像及び距離画像を取得する。情報処理装置4は、取得したカラー画像及び距離画像から特徴を抽出、マッチングすることで撮影視点の位置姿勢を算出し、各カラー画像及び距離画像から生成した色つきの3次元点群を1つの座標系に統合、メッシュ化する。このことで、ロボットや周辺機器、作業環境の3次元形状情報を生成する。更に、情報処理装置4は、生成した3次元形状情報とデータ保持部400で保持する3次元形状情報との位置合わせを行い、生成した3次元形状情報の座標系をデータ保持部400で保持するロボットの3次元形状情報の座標系に合わせる。このとき、情報処理装置4は、ロボット等の動作データを持つ3次元形状に関しては、可動部分ごとで対応付け、位置合わせを行う。
<< Embodiment 4 >>
<Overview>
In the fourth embodiment, an example will be described in which the shape of an actual robot, its peripheral devices, work environment, and the like is different from the three-dimensional shape information for generating a motion image of the robot. In this case, the information processing apparatus three-dimensionally measures the robot, its peripheral devices, the work environment, and the like, and generates an operation image of the robot based on the measured three-dimensional shape information. By adopting such a configuration, it is possible to perform interference confirmation with high accuracy while observing an operation image reflecting the three-dimensional shape of an actual robot, peripheral devices, and work environment, and work efficiency is improved.
An example of the software configuration of the information processing apparatus 4 in this embodiment is shown in FIG. In addition to the hardware configuration similar to that of the first embodiment, the information processing apparatus 4 includes a measurement device (not illustrated) that measures a three-dimensional shape of the robot, its peripheral devices, and the environment. In this embodiment, an RGBD camera (a camera capable of simultaneously capturing a color image and a distance image) will be described as an example of a measurement device. The
The shape measuring unit 409 measures and acquires three-dimensional shape information of an actual robot, a peripheral device such as a jig used for work, and a work environment using a measuring device. In the present embodiment, the shape measurement unit 409 moves the measurement device, and acquires color images and distance images obtained by measuring the robot, peripheral devices, and work environment from various viewpoints. The information processing apparatus 4 calculates the position and orientation of the photographing viewpoint by extracting and matching features from the acquired color image and distance image, and coordinates the three-dimensional point group generated from each color image and distance image with one coordinate. Integrated into the system and meshed. As a result, three-dimensional shape information of the robot, peripheral devices, and work environment is generated. Further, the information processing apparatus 4 aligns the generated 3D shape information with the 3D shape information held by the
<処理の流れ>
図12のフローチャートを用いて、情報処理装置4の情報処理の流れを説明する。
S4010及び、S4020〜S4080の処理は実施形態1のS1010及びS1020〜S1080の処理と同様である。
S4015では、形状計測部409は、実際のロボットや周辺機器、作業環境を計測した3次元形状情報を取得する。S4015の処理は、3次元形状情報取得の処理の一例である。
S4050では、重畳画像生成部404は、以下のデータ等から仮想表示する第二のロボットアーム1004が動作する画像を作成する。即ち、重畳画像生成部404は、S4040で取得された視点位置、姿勢、S4010で取得された動作データ、S4015で取得された3次元形状情報、S4020で設定されたパラメータから、仮想表示する画像を作成する。
<Process flow>
The flow of information processing of the information processing apparatus 4 will be described using the flowchart of FIG.
The processes of S4010 and S4020 to S4080 are the same as the processes of S1010 and S1020 to S1080 of the first embodiment.
In step S4015, the shape measurement unit 409 acquires three-dimensional shape information obtained by measuring an actual robot, peripheral devices, and work environment. The process of S4015 is an example of a process for acquiring three-dimensional shape information.
In S4050, the superimposed
<バリエーション>
形状計測部409は、実際のロボットやその周辺機器、作業環境等の3次元形状情報が取得できれば良い。形状計測部409は、RGBDカメラやToFセンサ、ステレオカメラを用いて3次元形状を計測しても良い。また、形状計測部409は、計測装置を動かしたり、複数の計測装置を利用したりして、複数視点で計測した3次元形状情報を組み合わせて利用しても良い。複数の計測装置は予めその撮影位置姿勢を校正しておいても良い。3次元形状情報は3次元点群であっても良いし、サーフェル(Surfel: Surface Element)の集合やメッシュモデル、CADモデルであっても良い。テクスチャ情報を含んでいても良い。また、計測した3次元形状情報とデータ保持部で保持する3次元形状情報とを組み合わせて利用しても良い。
本実施形態は実施形態1と同じ構成の場合について説明したが、実施形態2や3と組み合わせても良い。より具体的には、情報処理装置4は、データ保持部で保持する3次元形状情報の代わりに、形状計測部409で計測した3次元形状情報を利用して、実施形態2や3を実施すれば良い。
ロボット制御部406は、データ保持部400で保持するロボットの制御データと設定部401で設定されたパラメータとに基づいて、ロボット及び周辺機器を制御し、動作させる。ロボット及び周辺機器が動作するにあたり、形状計測部409で計測した作業環境等と接触する可能性がある場合は、接触を回避するように、例えば、ロボット制御部406は、ロボット及び周辺機器の動作データを変更しても良い。
<Variation>
The shape measuring unit 409 only needs to be able to acquire three-dimensional shape information such as an actual robot, its peripheral devices, and the work environment. The shape measuring unit 409 may measure a three-dimensional shape using an RGBD camera, a ToF sensor, or a stereo camera. In addition, the shape measuring unit 409 may use a combination of three-dimensional shape information measured from a plurality of viewpoints by moving a measuring device or using a plurality of measuring devices. A plurality of measuring devices may calibrate their shooting positions and orientations in advance. The three-dimensional shape information may be a three-dimensional point group, a set of surfels (Surfell: Surface Element), a mesh model, or a CAD model. Texture information may be included. Further, the measured three-dimensional shape information and the three-dimensional shape information held in the data holding unit may be used in combination.
Although the present embodiment has been described with respect to the same configuration as the first embodiment, it may be combined with the second and third embodiments. More specifically, the information processing apparatus 4 performs the second and third embodiments by using the three-dimensional shape information measured by the shape measuring unit 409 instead of the three-dimensional shape information held by the data holding unit. It ’s fine.
The
以上述べた構成によれば、情報処理装置4は、実際に計測したロボット及び周辺機器、作業環境の3次元形状情報を用いてロボットアームや周辺機器の動作を重畳画像で生成する。そして、情報処理装置4は、もう一方のロボットアームを実際に動作させた様子を撮影した画像に前記重畳画像を重畳する。このように処理することで、事前のシミュレーションでは再現できていなかったロボットや周辺機器、作業環境等の3次元形状をシミュレーション及び重畳画像に反映することができ、正確な干渉チェック等が行えるという効果があり、作業効率が向上する。 According to the configuration described above, the information processing apparatus 4 generates the operation of the robot arm and the peripheral device as a superimposed image using the actually measured three-dimensional shape information of the robot, the peripheral device, and the work environment. Then, the information processing device 4 superimposes the superimposed image on an image obtained by photographing the other robot arm actually operated. By processing in this way, three-dimensional shapes such as robots, peripheral devices, and work environments that could not be reproduced in advance simulation can be reflected in the simulation and superimposed images, and an accurate interference check can be performed. Work efficiency is improved.
<<実施形態5>>
<概要>
実際のロボットやその周辺機器、作業環境等の形状及びその動作が、ロボットの動作画像を生成するための3次元形状情報及び動作と異なる場合がある。そこで実施形態5では、情報処理装置は、ロボットやその周辺機器、作業環境等の3次元形状及び動作を計測し、計測した3次元形状情報及び動作に基づいてロボットの動作画像を生成する。このような構成とすることにより、実際のロボットや周辺機器、作業環境の3次元形状及び動作を反映した動作画像を観測しながら、正確性高く干渉確認を行うことができ、作業効率が向上する。
本実施形態における情報処理装置5のソフトウェア構成の一例を図13に示す。情報処理装置5は、実施形態4と同様のハードウェア構成を有する。ロボット制御部506は、第一のロボットアーム1003と第二のロボットアーム1004とを備えたロボットを制御する。データ保持部500、設定部501、画像取得部502、視点位置姿勢取得部503、重畳画像生成部504、出力部505は、実施形態4の対応する各部と同様である。情報処理装置5は、これらに加えて、形状・動作計測部510をソフトウェア構成として有する。以下では実施形態4との差を中心に説明する。
本実施形態における形状・動作計測部510は、不図示の計測装置を用いて、実際のロボットや、ケーブル、作業に用いる冶具等の周辺機器、作業環境の3次元形状情報及び動作情報を計測、取得する。本実施形態では計測装置として複数のRGBDカメラを例に説明を行う。複数のRGBDカメラの位置姿勢の関係は事前に校正し、既知としておく。複数のRGBDカメラは同期して、複数の視点からロボットや周辺機器、作業環境を計測する。
ロボット制御部506は、計測する際に、データ保持部500で保持する動作データに基づいて、ロボットや冶具等の周辺機器を制御して動作させる。情報処理装置5は、計測して得られたカラー画像及び距離画像から色つきの3次元点群を生成する。事前校正により各計測視点位置は既知であるので、情報処理装置5は、各3次元点群を統合した3次元点群を3次元形状情報として逐次取得する。これを一連の動作が終了するまで、逐次繰り返し、情報処理装置5は、時系列に並んだ3次元形状情報を、3次元形状情報及び動作情報として取得する。
<< Embodiment 5 >>
<Overview>
In some cases, the shape and operation of an actual robot, its peripheral devices, work environment, and the like are different from the three-dimensional shape information and operation for generating an operation image of the robot. Therefore, in the fifth embodiment, the information processing apparatus measures the three-dimensional shape and motion of the robot, its peripheral devices, work environment, and the like, and generates a robot motion image based on the measured three-dimensional shape information and motion. By adopting such a configuration, it is possible to perform interference confirmation with high accuracy while observing an operation image reflecting the three-dimensional shape and operation of an actual robot, peripheral devices, and work environment, and work efficiency is improved. .
An example of the software configuration of the information processing apparatus 5 in this embodiment is shown in FIG. The information processing apparatus 5 has the same hardware configuration as that of the fourth embodiment. The
The shape /
The
<処理の流れ>
図13のフローチャートを用いて、情報処理装置5の情報処理の流れを説明する。
S5010及び、S5020〜S5080の処理は実施形態1のS1010及びS1020〜S1080の処理と同様である。
S5013では、設定部501は、ロボットの再生速度や再生位置等のパラメータを設定する。
S5015では、形状・動作計測部510は、実際のロボットや周辺機器、作業環境を計測した3次元形状情報を逐次、取得する。S5015の処理は、形状・動作取得の処理の一例である。
S5016では、ロボット制御部506は、S5010で取得した3次元形状情報、制御データ、S5013で設定されたパラメータに基づいて、ロボット及び作業に用いる冶具等の周辺機器を制御し、動作させる。
S5017では、形状・動作計測部510は、一連のロボット及び周辺機器の動作の再生が完了したか否かを判定する。形状・動作計測部510は、再生が完了していないと判定した場合、処理をS5015に戻し、干渉確認が完了したと判定した場合、処理をS5018に移す。
S5018では、形状・動作計測部510は、S5015で逐次取得した3次元形状情報を3次元動画に変換し、ロボットの動作データとして保持する。形状・動作計測部510は、ロボットの動作データとして保持した3次元動画を、データ保持部500に保存しても良い。
S5050では、重畳画像生成部504は、画像を作成する。即ち、重畳画像生成部504は、S5040で取得された視点位置、姿勢、S5010で取得された動作データ、S5018で取得された3次元動画、S5020で設定されたパラメータから、仮想表示する第二のロボットアーム1004が動作する画像を作成する。
<Process flow>
The flow of information processing of the information processing apparatus 5 will be described using the flowchart of FIG.
The processes of S5010 and S5020 to S5080 are the same as the processes of S1010 and S1020 to S1080 of the first embodiment.
In step S5013, the
In step S5015, the shape /
In S5016, the
In step S5017, the shape /
In step S5018, the shape /
In S5050, the superimposed
<バリエーション>
形状・動作計測部510は、実際のロボットやその周辺機器、作業環境等の3次元形状情報及び動作が取得できれば良い。形状・動作計測部510は、RGBDカメラやToFセンサ、ステレオカメラを用いて3次元形状を計測しても良い。また、形状・動作計測部510は、複数の計測装置を利用して、複数視点で計測した3次元形状情報を組み合わせて利用しても良い。複数の計測装置は予めその撮影位置姿勢を校正しておいても良い。3次元形状情報は3次元点群であっても良いし、サーフェル(Surfel: Surface Element)の集合やメッシュモデル、CADモデルであっても良い。テクスチャ情報を含んでいても良い。また、計測した3次元形状情報とデータ保持部で保持する3次元形状情報とを組み合わせて利用しても良い。動作データは前記3次元形状情報を時系列的に並べた3次元動画であっても良い。形状・動作計測部510で取得した時系列に並べた3次元形状情報を、データ保持部で保持する3次元形状情報(例えばロボットの3次元形状モデルと関節情報)に当てはめ、ロボットの制御データに変換しても良い。そして、重畳画像生成部504は、形状・動作計測部510で取得した3次元形状情報と変換した制御データとに基づいて、仮想表示する第二のロボットアーム1004が動作する画像を作成しても良い。
ロボット制御部506は、データ保持部500で保持するロボットの制御データと設定部501で設定されたパラメータとに基づいて、ロボット及び周辺機器を制御し、動作させる。ロボット及び周辺機器の再生速度は、設定部501で変更しても良い。またロボット及び周辺機器が動作するにあたり、形状・動作計測部510で計測した作業環境に接触する可能性がある場合は、作業環境との接触を回避するように、例えば、ロボット制御部406は、ロボット及び周辺機器の動作データを変更しても良い。そして、その変更した動作を形状・動作計測部510で計測すれば良い。
本実施形態は実施形態1と同じ構成の場合について説明したが、実施形態2や3と組み合わせても良い。より具体的にはデータ保持部で保持する3次元形状情報の代わりに、形状・動作計測部510で計測した3次元形状情報及び動作を利用して、実施形態2や3を実施すれば良い。
<Variation>
The shape /
The
Although the present embodiment has been described with respect to the same configuration as the first embodiment, it may be combined with the second and third embodiments. More specifically, Embodiments 2 and 3 may be implemented using 3D shape information and operations measured by the shape /
以上述べた構成によれば、情報処理装置5は、実際に計測したロボット及び周辺機器、作業環境の3次元形状情報及び動作情報を用いてロボットアームや周辺機器の動作を重畳画像で生成する。そして、情報処理装置5は、もう一方のロボットアームを実際に動作させた様子を撮影した画像に前記重畳画像を重畳する。このように処理することで、事前のシミュレーションでは再現できていなかったロボットや周辺機器、作業環境等の3次元形状及び動作をシミュレーション及び重畳画像に反映することができ、正確な干渉チェック等が行えるという効果があり、作業効率が向上する。 According to the configuration described above, the information processing apparatus 5 generates the operation of the robot arm and the peripheral device as a superimposed image using the actually measured robot and the peripheral device, and the three-dimensional shape information and the operation information of the work environment. Then, the information processing apparatus 5 superimposes the superimposed image on an image obtained by photographing the other robot arm actually operated. By processing in this way, it is possible to reflect the three-dimensional shape and operation of the robot, peripheral devices, work environment, etc. that could not be reproduced in the previous simulation in the simulation and superimposed image, and to perform accurate interference check, etc. This has the effect of improving work efficiency.
<<その他の実施形態>>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給する。そして、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<< Other Embodiments >>
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium. It can also be realized by a process in which one or more processors in the computer of the system or apparatus read and execute the program. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではない。 As mentioned above, although preferable embodiment of this invention was explained in full detail, this invention is not limited to the specific embodiment which concerns.
以上、上述した各実施形態によれば、ロボットを教示する際にロボットが衝突する可能性を軽減し、教示作業の効率を向上させることができる。 As mentioned above, according to each embodiment mentioned above, when teaching a robot, possibility that a robot will collide can be reduced and the efficiency of teaching work can be improved.
11 CPU、12 ROM、13 RAM、17 HDD 11 CPU, 12 ROM, 13 RAM, 17 HDD
Claims (13)
観察者の視点位置及び姿勢を取得する取得手段と、
前記観察者の視点位置及び姿勢と表示装置の内部パラメータとに基づいて前記第一のロボットを含む前記観察者の視野を特定し、前記第一のロボットと干渉する可能性がある第二のロボットの動作データに基づいて前記特定された視野に表示する前記第二のロボットの動作画像を生成する生成手段と、
前記動作画像を前記表示装置に出力する出力手段と、
を有する情報処理装置。 Control means for controlling the operation of the first robot;
Acquisition means for acquiring the viewpoint position and orientation of the observer;
A second robot that identifies the visual field of the observer including the first robot based on the viewpoint position and orientation of the observer and an internal parameter of the display device, and may interfere with the first robot Generating means for generating an operation image of the second robot to be displayed in the specified visual field based on the operation data of
Output means for outputting the operation image to the display device;
An information processing apparatus.
前記生成手段は、前記第二のロボットの動作データと前記3次元形状情報とに基づいて前記第二のロボットの動作画像を生成する請求項1記載の情報処理装置。 Further comprising shape information acquisition means for acquiring three-dimensional shape information of the second robot and peripheral devices;
The information processing apparatus according to claim 1, wherein the generation unit generates an operation image of the second robot based on the operation data of the second robot and the three-dimensional shape information.
前記生成手段は、前記3次元形状情報及び動作情報に基づいて前記第二のロボットの動作画像を生成する請求項1記載の情報処理装置。 It further has a shape / motion acquisition means for acquiring three-dimensional shape information and motion information of the second robot and peripheral devices,
The information processing apparatus according to claim 1, wherein the generation unit generates an operation image of the second robot based on the three-dimensional shape information and operation information.
前記生成手段は、前記撮像画像と前記第二のロボットの動作画像とを重畳した重畳画像を生成する請求項1乃至5何れか1項記載の情報処理装置。 Further comprising image acquisition means for acquiring a captured image from the viewpoint position and orientation of the observer;
The information processing apparatus according to claim 1, wherein the generation unit generates a superimposed image obtained by superimposing the captured image and an operation image of the second robot.
前記制御データを修正する修正手段を更に有する請求項1乃至6何れか1項記載の情報処理装置。 The control means controls the operation of the first robot based on control data,
The information processing apparatus according to claim 1, further comprising a correction unit that corrects the control data.
前記生成手段は、前記入力されたデータを前記第二のロボットの動作データとして前記第二のロボットの動作画像を生成する請求項1乃至7何れか1項記載の情報処理装置。 It further has an operation input means for inputting data of actual movement of the second robot,
The information processing apparatus according to claim 1, wherein the generation unit generates an operation image of the second robot using the input data as operation data of the second robot.
第一のロボットの動作を制御する制御ステップと、
観察者の視点位置及び姿勢を取得する取得ステップと、
前記観察者の視点位置及び姿勢と表示装置の内部パラメータとに基づいて前記第一のロボットを含む前記観察者の視野を特定し、前記第一のロボットと干渉する可能性がある第二のロボットの動作データに基づいて前記特定された視野に表示する前記第二のロボットの動作画像を生成する生成ステップと、
前記動作画像を前記表示装置に出力する出力ステップと、
を含む情報処理方法。 An information processing method executed by an information processing apparatus,
A control step for controlling the operation of the first robot;
An acquisition step of acquiring the viewpoint position and orientation of the observer;
A second robot that identifies the visual field of the observer including the first robot based on the viewpoint position and orientation of the observer and an internal parameter of the display device, and may interfere with the first robot Generating a motion image of the second robot to be displayed in the specified visual field based on the motion data of
An output step of outputting the operation image to the display device;
An information processing method including:
第一のロボットの動作を制御する制御ステップと、
観察者の視点位置及び姿勢を取得する取得ステップと、
前記観察者の視点位置及び姿勢と表示装置の内部パラメータとに基づいて前記第一のロボットを含む前記観察者の視野を特定し、前記第一のロボットと干渉する可能性がある第二のロボットの動作データに基づいて前記特定された視野に表示する前記第二のロボットの動作画像を生成する生成ステップと、
前記動作画像を前記表示装置に表示する表示ステップと、
を含む情報処理方法。 An information processing method executed by a display system,
A control step for controlling the operation of the first robot;
An acquisition step of acquiring the viewpoint position and orientation of the observer;
A second robot that identifies the visual field of the observer including the first robot based on the viewpoint position and orientation of the observer and an internal parameter of the display device, and may interfere with the first robot Generating a motion image of the second robot to be displayed in the specified visual field based on the motion data of
A display step of displaying the operation image on the display device;
An information processing method including:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/087,592 US10076840B2 (en) | 2015-04-03 | 2016-03-31 | Information processing apparatus, information processing method, and program |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015076869 | 2015-04-03 | ||
JP2015076869 | 2015-04-03 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016197393A true JP2016197393A (en) | 2016-11-24 |
JP6723738B2 JP6723738B2 (en) | 2020-07-15 |
Family
ID=57358187
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015245326A Active JP6723738B2 (en) | 2015-04-03 | 2015-12-16 | Information processing apparatus, information processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6723738B2 (en) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107498557A (en) * | 2017-09-19 | 2017-12-22 | 坤同勃志智能科技(上海)有限公司 | The control method and system of a kind of robot |
WO2019026790A1 (en) * | 2017-08-02 | 2019-02-07 | 川崎重工業株式会社 | Robot system and method for operating same |
WO2019239563A1 (en) * | 2018-06-14 | 2019-12-19 | ヤマハ発動機株式会社 | Robot system |
JP2020175453A (en) * | 2019-04-15 | 2020-10-29 | 株式会社Ihi | Remote control device |
JP2020531964A (en) * | 2018-06-20 | 2020-11-05 | コーディング アンド プレイ インコーポレイテッド | Coding education method using augmented reality |
US10948724B2 (en) | 2017-12-20 | 2021-03-16 | Seiko Epson Corporation | Transmissive display device, display control method, and computer program |
WO2021220915A1 (en) * | 2020-04-27 | 2021-11-04 | ファナック株式会社 | Display device for industrial machine |
CN114502337A (en) * | 2019-12-13 | 2022-05-13 | 川崎重工业株式会社 | Robot system and method for forming three-dimensional model of workpiece |
JP7067816B1 (en) | 2020-11-26 | 2022-05-16 | 青▲島▼理工大学 | Robot teaching system and method based on image segmentation and surface EMG |
JP7195476B1 (en) | 2021-09-24 | 2022-12-23 | 株式会社ダイヘン | WORK PROGRAM CREATION SYSTEM AND WORK PROGRAM CREATION METHOD |
US11667031B2 (en) | 2019-05-31 | 2023-06-06 | Seiko Epson Corporation | Teaching method |
JP7443014B2 (en) | 2019-10-08 | 2024-03-05 | 大豊精機株式会社 | robot arm testing equipment |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001310283A (en) * | 2000-02-14 | 2001-11-06 | Sony Corp | Robot system, robot device, and control method thereof, and device and method of information processing |
JP2004001217A (en) * | 2002-05-30 | 2004-01-08 | Kuka Roboter Gmbh | Method and device for avoiding collision between robot and other object |
US20040189631A1 (en) * | 2003-02-11 | 2004-09-30 | Arif Kazi | Method and device for visualizing computer-generated informations |
JP2005174021A (en) * | 2003-12-11 | 2005-06-30 | Canon Inc | Method and device for presenting information |
JP2006309459A (en) * | 2005-04-27 | 2006-11-09 | Canon Inc | Image processing method and image processor |
JP2010211736A (en) * | 2009-03-12 | 2010-09-24 | Hitachi-Ge Nuclear Energy Ltd | Apparatus and method for supporting design and program |
JP2014180707A (en) * | 2013-03-18 | 2014-09-29 | Yaskawa Electric Corp | Robot device and method for manufacturing workpiece |
-
2015
- 2015-12-16 JP JP2015245326A patent/JP6723738B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001310283A (en) * | 2000-02-14 | 2001-11-06 | Sony Corp | Robot system, robot device, and control method thereof, and device and method of information processing |
JP2004001217A (en) * | 2002-05-30 | 2004-01-08 | Kuka Roboter Gmbh | Method and device for avoiding collision between robot and other object |
US20040189631A1 (en) * | 2003-02-11 | 2004-09-30 | Arif Kazi | Method and device for visualizing computer-generated informations |
JP2005174021A (en) * | 2003-12-11 | 2005-06-30 | Canon Inc | Method and device for presenting information |
JP2006309459A (en) * | 2005-04-27 | 2006-11-09 | Canon Inc | Image processing method and image processor |
JP2010211736A (en) * | 2009-03-12 | 2010-09-24 | Hitachi-Ge Nuclear Energy Ltd | Apparatus and method for supporting design and program |
JP2014180707A (en) * | 2013-03-18 | 2014-09-29 | Yaskawa Electric Corp | Robot device and method for manufacturing workpiece |
Non-Patent Citations (1)
Title |
---|
白土 浩司: "複数台の産業ロボット間での干渉チェック方式開発", 日本ロボット学会第30回記念学術講演会DVD−ROM, vol. RSJ2012C4G3−6, JPN6019049425, 17 September 2012 (2012-09-17), JP, ISSN: 0004176074 * |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7071070B2 (en) | 2017-08-02 | 2022-05-18 | 川崎重工業株式会社 | Robot system and its operation method |
WO2019026790A1 (en) * | 2017-08-02 | 2019-02-07 | 川崎重工業株式会社 | Robot system and method for operating same |
JP2019025620A (en) * | 2017-08-02 | 2019-02-21 | 川崎重工業株式会社 | Robot system and method for operating the same |
CN111093911A (en) * | 2017-08-02 | 2020-05-01 | 川崎重工业株式会社 | Robot system and method for operating the same |
CN111093911B (en) * | 2017-08-02 | 2024-02-09 | 川崎重工业株式会社 | Robot system and method for operating the same |
US11865697B2 (en) | 2017-08-02 | 2024-01-09 | Kawasaki Jukogyo Kabushiki Kaisha | Robot system and method for operating same |
CN107498557A (en) * | 2017-09-19 | 2017-12-22 | 坤同勃志智能科技(上海)有限公司 | The control method and system of a kind of robot |
US10948724B2 (en) | 2017-12-20 | 2021-03-16 | Seiko Epson Corporation | Transmissive display device, display control method, and computer program |
WO2019239563A1 (en) * | 2018-06-14 | 2019-12-19 | ヤマハ発動機株式会社 | Robot system |
US11926057B2 (en) | 2018-06-14 | 2024-03-12 | Yamaha Hatsudoki Kabushiki Kaisha | Robot system |
JPWO2019239563A1 (en) * | 2018-06-14 | 2021-03-11 | ヤマハ発動機株式会社 | Robot system |
JP7143410B2 (en) | 2018-06-14 | 2022-09-28 | ヤマハ発動機株式会社 | robot system |
JP2020531964A (en) * | 2018-06-20 | 2020-11-05 | コーディング アンド プレイ インコーポレイテッド | Coding education method using augmented reality |
JP2020175453A (en) * | 2019-04-15 | 2020-10-29 | 株式会社Ihi | Remote control device |
US11667031B2 (en) | 2019-05-31 | 2023-06-06 | Seiko Epson Corporation | Teaching method |
JP7443014B2 (en) | 2019-10-08 | 2024-03-05 | 大豊精機株式会社 | robot arm testing equipment |
CN114502337B (en) * | 2019-12-13 | 2024-01-09 | 川崎重工业株式会社 | Robot system and method for forming three-dimensional model of workpiece |
CN114502337A (en) * | 2019-12-13 | 2022-05-13 | 川崎重工业株式会社 | Robot system and method for forming three-dimensional model of workpiece |
JP7381729B2 (en) | 2020-04-27 | 2023-11-15 | ファナック株式会社 | Industrial machinery display device |
WO2021220915A1 (en) * | 2020-04-27 | 2021-11-04 | ファナック株式会社 | Display device for industrial machine |
JP2022084501A (en) * | 2020-11-26 | 2022-06-07 | 青▲島▼理工大学 | Robot teaching system and method based on image segmentation and surface electromyography |
JP7067816B1 (en) | 2020-11-26 | 2022-05-16 | 青▲島▼理工大学 | Robot teaching system and method based on image segmentation and surface EMG |
JP7195476B1 (en) | 2021-09-24 | 2022-12-23 | 株式会社ダイヘン | WORK PROGRAM CREATION SYSTEM AND WORK PROGRAM CREATION METHOD |
JP2023047280A (en) * | 2021-09-24 | 2023-04-05 | 株式会社ダイヘン | Work program production system and work program production method |
Also Published As
Publication number | Publication date |
---|---|
JP6723738B2 (en) | 2020-07-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6723738B2 (en) | Information processing apparatus, information processing method, and program | |
US10076840B2 (en) | Information processing apparatus, information processing method, and program | |
JP6810093B2 (en) | Robot simulation device | |
US10052765B2 (en) | Robot system having augmented reality-compatible display | |
US10751877B2 (en) | Industrial robot training using mixed reality | |
EP3283938B1 (en) | Gesture interface | |
CN109313502B (en) | Tap event location using selection device | |
WO2019239848A1 (en) | Robot control system | |
JP6863927B2 (en) | Robot simulation device | |
JP2016205974A (en) | Measuring system and user interface device | |
JP2016218534A (en) | Image display system and image display method | |
CN210361314U (en) | Robot teaching device based on augmented reality technology | |
US20190355281A1 (en) | Learning support system and recording medium | |
JPH0976063A (en) | Welding equipment | |
JP7129839B2 (en) | TRAINING APPARATUS, TRAINING SYSTEM, TRAINING METHOD, AND PROGRAM | |
JPH06131442A (en) | Three-dimensional virtual image modeling device | |
WO2021029256A1 (en) | Information processing device, information processing method, and program | |
CN113597362A (en) | Method and control device for determining a relation between a robot coordinate system and a movable device coordinate system | |
JP7443014B2 (en) | robot arm testing equipment | |
WO2019059944A1 (en) | Sensing movement of a hand-held controller | |
US20210256865A1 (en) | Display system, server, display method, and device | |
JPWO2016151862A1 (en) | Assembly teaching apparatus and assembly teaching method | |
JP7381718B2 (en) | Offline simulation system | |
WO2022249295A1 (en) | Robot simulation device | |
US20230214004A1 (en) | Information processing apparatus, information processing method, and information processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191217 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200214 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200526 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200624 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6723738 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |