JP2016197393A - Information processor, information processing method and program - Google Patents

Information processor, information processing method and program Download PDF

Info

Publication number
JP2016197393A
JP2016197393A JP2015245326A JP2015245326A JP2016197393A JP 2016197393 A JP2016197393 A JP 2016197393A JP 2015245326 A JP2015245326 A JP 2015245326A JP 2015245326 A JP2015245326 A JP 2015245326A JP 2016197393 A JP2016197393 A JP 2016197393A
Authority
JP
Japan
Prior art keywords
robot
information processing
image
observer
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015245326A
Other languages
Japanese (ja)
Other versions
JP6723738B2 (en
Inventor
祐介 中里
Yusuke Nakazato
祐介 中里
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US15/087,592 priority Critical patent/US10076840B2/en
Publication of JP2016197393A publication Critical patent/JP2016197393A/en
Application granted granted Critical
Publication of JP6723738B2 publication Critical patent/JP6723738B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an information processor capable of reducing the possibility of collision of a robot in interference confirmation and improving the efficiency in the checking work of points having a possibility of interference.SOLUTION: The information processor includes: control means that controls motions of a first robot; acquisition means that acquires a viewing position and a posture of an observer; generation means that identifies a field of view of the observer including the first robot based on the viewing position and the posture of the observer and a piece of internal parameter of a display device, and generates a motion image of a second robot based on a piece of motion data of the second robot which may interfere with the first robot, and displays the same on a specific field of view; and output means that outputs motion images on a display unit.SELECTED DRAWING: Figure 4

Description

本発明は、ロボットの制御に係る情報処理装置、情報処理方法及びプログラムに関する。   The present invention relates to an information processing apparatus, an information processing method, and a program related to robot control.

複数の腕を持つ産業用ロボットによる製品の自動組み立てが行われている。この場合、腕同士の衝突やワーク等、作業領域に存在する物体との衝突を避けるようにロボットの動作を教示する必要がある。特に腕同士の衝突を避けるようにタイミングを調整して教示するには非常に手間がかかる。そこで、ロボットやワーク等の3次元モデルを用いて、ロボットの動作をシミュレーションで干渉確認しながら教示する技術がある(特許文献1)。しかし、シミュレーションと実際のロボットの3次元形状や動作とには差異があり、シミュレーションだけでは干渉の確認が正確にはできない。そのため最終的にはロボットの実機で制御データを実行させ干渉を確認する必要がある。   Automatic assembly of products is performed by industrial robots with multiple arms. In this case, it is necessary to teach the operation of the robot so as to avoid collisions between objects such as arm-to-arm collisions and workpieces existing in the work area. In particular, it is very troublesome to adjust the timing so as to avoid collision between arms. Therefore, there is a technique for teaching a robot operation while confirming interference by simulation using a three-dimensional model of a robot or a workpiece (Patent Document 1). However, there is a difference between the simulation and the actual three-dimensional shape and motion of the robot, and interference cannot be confirmed accurately by simulation alone. Therefore, finally, it is necessary to check the interference by executing control data on the actual robot.

特開昭60−217410号公報JP-A-60-217410

しかしながら、干渉確認が不十分なロボットの制御データを実機で再生するとロボットが衝突する可能性が高い。また複数の腕が僅差で複雑に交差するような状況において腕同士が干渉しているかを実機で確認する場合には、ロボットの実機が邪魔になって干渉の可能性がある箇所が本当に接触しているかどうかを確認することが難しい。
本発明は、干渉確認においてロボットが衝突する可能性を軽減すると共に干渉の可能性がある箇所に確認作業の効率を向上させることを目的とする。
However, there is a high possibility that the robot will collide if the control data of the robot with insufficient interference confirmation is reproduced on the actual machine. In addition, when checking with the actual machine whether the arms are interfering in a situation where multiple arms intersect with each other with a slight difference, the actual robot's machine will be in the way and the area where there is a possibility of interference will come into contact. It is difficult to check whether or not.
It is an object of the present invention to reduce the possibility of a robot colliding in interference confirmation and improve the efficiency of confirmation work at a place where there is a possibility of interference.

本発明の情報処理装置は、第一のロボットの動作を制御する制御手段と、観察者の視点位置及び姿勢を取得する取得手段と、前記観察者の視点位置及び姿勢と表示装置の内部パラメータとに基づいて前記第一のロボットを含む前記観察者の視野を特定し、前記第一のロボットと干渉する可能性がある第二のロボットの動作データに基づいて前記特定された視野に表示する前記第二のロボットの動作画像を生成する生成手段と、前記動作画像を前記表示装置に表示する表示手段と、を有する。   The information processing apparatus according to the present invention includes a control unit that controls the operation of the first robot, an acquisition unit that acquires the viewpoint position and orientation of the observer, the viewpoint position and orientation of the observer, and an internal parameter of the display device. The visual field of the observer including the first robot is identified based on the first robot, and the visual field is displayed in the identified visual field based on motion data of a second robot that may interfere with the first robot. A generating unit configured to generate an operation image of the second robot; and a display unit configured to display the operation image on the display device.

本発明によれば、干渉確認においてロボットが衝突する可能性を軽減すると共に干渉の可能性がある箇所に確認作業の効率を向上させることができる。   According to the present invention, it is possible to reduce the possibility of a robot colliding in interference confirmation, and improve the efficiency of confirmation work at a place where there is a possibility of interference.

表示システムのシステム構成の一例を示す図である。It is a figure which shows an example of the system configuration | structure of a display system. 情報処理装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of information processing apparatus. 表示装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of a display apparatus. 実施形態1の情報処理装置のソフトウェア構成の一例を示す図である。3 is a diagram illustrating an example of a software configuration of the information processing apparatus according to the first embodiment. FIG. 表示装置のソフトウェア構成の一例を示す図である。It is a figure which shows an example of the software configuration of a display apparatus. 実施形態1の情報処理装置の情報処理の一例を示すフローチャートである。3 is a flowchart illustrating an example of information processing of the information processing apparatus according to the first embodiment. 実施形態2の情報処理装置のソフトウェア構成の一例を示す図である。3 is a diagram illustrating an example of a software configuration of an information processing apparatus according to a second embodiment. FIG. 実施形態2の情報処理装置の情報処理の一例を示すフローチャートである。10 is a flowchart illustrating an example of information processing of the information processing apparatus according to the second embodiment. 実施形態3の情報処理装置のソフトウェア構成の一例を示す図である。FIG. 10 is a diagram illustrating an example of a software configuration of an information processing apparatus according to a third embodiment. 実施形態3の情報処理装置の情報処理の一例を示すフローチャートである。10 is a flowchart illustrating an example of information processing of the information processing apparatus according to the third embodiment. 実施形態4の情報処理装置のソフトウェア構成の一例を示す図である。FIG. 10 is a diagram illustrating an example of a software configuration of an information processing apparatus according to a fourth embodiment. 実施形態4の情報処理装置の情報処理の一例を示すフローチャートである。10 is a flowchart illustrating an example of information processing of the information processing apparatus according to the fourth embodiment. 実施形態5の情報処理装置のソフトウェア構成の一例を示す図である。FIG. 10 is a diagram illustrating an example of a software configuration of an information processing apparatus according to a fifth embodiment. 実施形態5の情報処理装置の情報処理の一例を示すフローチャートである。14 is a flowchart illustrating an example of information processing of the information processing apparatus according to the fifth embodiment.

以下、本発明の実施形態について図面に基づいて説明する。
<<実施形態1>>
<概要>
実施形態1では、腕同士が衝突する可能性を軽減しながら、2つの腕を持つロボットの干渉を調べる方法について述べる。図1は、表示システムの概要を説明するための図である。図1のように、表示システムでは、第一のロボットアーム1003が動作する様子に、第二のロボットアーム1004の動作をCG(Computer Graphics)で再生したCG画像1053を重畳して観察者1001に提示する。このことにより、観察者1001は、ロボットの腕の干渉を確認する。これにより、干渉確認の際にロボットの腕同士が接触し、ロボットが壊れる可能性を軽減することができる。更に、一方の腕が物理的に邪魔になって他方の腕との干渉の可能性がある箇所の視認を妨げることを軽減できるため、作業効率が向上する。CG画像1053は、動作画像の一例である。また、本実施形態の第一のロボットアーム1003は、第一のロボットの一例である。また、本実施形態の第二のロボットアーム1004は、第二のロボットの一例である。また、本実施形態の第二のロボットアーム1004は、本実施形態の第一のロボットアーム1003と干渉する可能性があるロボットアームの一例である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<< Embodiment 1 >>
<Overview>
In the first embodiment, a method for examining the interference of a robot having two arms while reducing the possibility that the arms collide with each other will be described. FIG. 1 is a diagram for explaining an overview of a display system. As shown in FIG. 1, in the display system, a CG image 1053 reproduced by CG (Computer Graphics) is superimposed on the observer 1001 by superimposing the operation of the second robot arm 1004 on the state where the first robot arm 1003 operates. Present. Thus, the observer 1001 confirms the interference of the robot arm. Accordingly, it is possible to reduce the possibility that the robot arms come into contact with each other at the time of interference confirmation and the robot is broken. Furthermore, it is possible to reduce the fact that one arm is physically obstructing and obstructing the visual recognition of a portion where there is a possibility of interference with the other arm, so that work efficiency is improved. The CG image 1053 is an example of an operation image. Further, the first robot arm 1003 of this embodiment is an example of a first robot. Further, the second robot arm 1004 of the present embodiment is an example of a second robot. Further, the second robot arm 1004 of the present embodiment is an example of a robot arm that may interfere with the first robot arm 1003 of the present embodiment.

<システム構成>
実施形態1の構成を、図1を用いて説明する。図1に示されるように、表示システムは、情報処理装置1と、第一のロボットアーム1003と、第二のロボットアーム1004と、観察者1001の視点位置・姿勢を計測するセンサ1013と、を含む。また、表示システムは、観察者1001の左右の視点位置に相当する部分にそれぞれカメラと液晶ディスプレイとを内蔵した表示装置(HMD:Head Mounted Display)1051を含む。観察者1001は、センサ1013や表示装置1051を装着している。表示装置1051は、例えば、観察者1001の視点に配置される。また、対象物1006は、ワークスペース1005上にある。情景1052は、観察者1001に観察される情景である。CG画像1053は、第二のロボットアーム1004の動作のCG画像である。
情報処理装置1は、第一のロボットアーム1003の動きを制御すると共に、センサ1013からの信号を基に観察者1001の視点位置及び姿勢を算出する。そして、情報処理装置1は、観察者1001の視点位置及び姿勢と表示装置1051の内部パラメータとから観察者の視野を特定する。ここで、表示装置1051の情報とは、表示装置1051の投影モデルを表すパラメータであり、焦点距離や解像度、画素ピッチ等の情報を含む。情報処理装置1は、特定した視野の第二のロボットアーム1004の表示位置に、第一のロボットアーム1003の実際の動作と同期させて第二のロボットアーム1004の動作のCG画像を生成する。そして、情報処理装置1は、このCG画像を表示装置1051に内蔵されたカメラより取得された映像に重畳した、重畳画像を生成し、表示装置1051に送信する。表示装置1051は、前記重畳画像を液晶ディスプレイに表示する。ここで、表示装置1051の種類等に応じて、観察者1001の視点位置及び姿勢と、表示装置1051との間のキャリブレーションは行われているものとする。
本実施形態及び以下に示す実施形態において、ロボットは、1つ以上の稼働部位があるロボットであればどのような形態であっても良い。腕が何本あっても良く、腕でも足でも稼働する部位であれば良く、複数のロボットで構成しても良い。ロボットは6軸ロボットであっても、スカラロボットやパラレルリンクロボットであっても良く、その形態は問わない。
<System configuration>
The configuration of the first embodiment will be described with reference to FIG. As shown in FIG. 1, the display system includes an information processing apparatus 1, a first robot arm 1003, a second robot arm 1004, and a sensor 1013 that measures the viewpoint position / posture of the observer 1001. Including. Further, the display system includes a display device (HMD: Head Mounted Display) 1051 in which a camera and a liquid crystal display are incorporated in portions corresponding to the left and right viewpoint positions of the observer 1001. An observer 1001 wears a sensor 1013 and a display device 1051. The display device 1051 is disposed at the viewpoint of the observer 1001, for example. The object 1006 is on the workspace 1005. The scene 1052 is a scene observed by the observer 1001. The CG image 1053 is a CG image of the operation of the second robot arm 1004.
The information processing apparatus 1 controls the movement of the first robot arm 1003 and calculates the viewpoint position and orientation of the observer 1001 based on the signal from the sensor 1013. Then, the information processing apparatus 1 identifies the visual field of the observer from the viewpoint position and orientation of the observer 1001 and the internal parameters of the display device 1051. Here, the information on the display device 1051 is a parameter representing a projection model of the display device 1051 and includes information such as a focal length, a resolution, and a pixel pitch. The information processing apparatus 1 generates a CG image of the operation of the second robot arm 1004 in synchronization with the actual operation of the first robot arm 1003 at the display position of the second robot arm 1004 in the specified visual field. Then, the information processing apparatus 1 generates a superimposed image in which the CG image is superimposed on a video acquired from a camera built in the display apparatus 1051 and transmits the superimposed image to the display apparatus 1051. The display device 1051 displays the superimposed image on a liquid crystal display. Here, it is assumed that calibration between the viewpoint position and orientation of the observer 1001 and the display device 1051 is performed in accordance with the type of the display device 1051 and the like.
In the present embodiment and the embodiments described below, the robot may take any form as long as it has one or more operating parts. Any number of arms may be used as long as the arm or leg can be operated, and a plurality of robots may be used. The robot may be a 6-axis robot, a SCARA robot, or a parallel link robot, and the form is not limited.

<ハードウェア構成>
図2は、情報処理装置1のハードウェア構成の一例を示す図である。情報処理装置1は、ハードウェア構成として、CPU11と、ROM12と、RAM13と、通信I/F14と、表示装置15と、入力装置16と、HDD17と、を含む。CPU11は、システムバスに接続された情報処理装置1の各種デバイスの制御を行う。ROM12は、BIOSのプログラムやブートプログラムを記憶する。RAM13は、CPU11の主記憶装置として使用される。通信I/F14は、情報処理装置1をネットワークに接続し、ネットワークを介した情報通信を制御する。ネットワークには有線を介して接続されていても良いし、無線を介して接続されていても良いし、有線及び無線を介して接続されていても良い。表示装置15は、CPU11等における処理結果を表示する。入力装置16は、操作者による入力等を受け付ける。入力装置16としては、例えば、マウスやキーボード等であっても良いし、後述するリモコン等であっても良い。HDD17は、OSのプログラムやOS上で動作する各種アプリケーションのプログラム等が格納される。
上記構成において、情報処理装置1の電源がONになると、CPU11は、ROM12に格納されたブートプログラムに従って、HDD17からOSのプログラム等をRAM13に読み込み、処理を実行することによって、情報処理装置1の機能を実現する。つまり、情報処理装置1のCPU11がプログラムに基づき処理を実行することによって、情報処理装置1のソフトウェア構成及び後述するフローチャートの処理が実現される。
<Hardware configuration>
FIG. 2 is a diagram illustrating an example of a hardware configuration of the information processing apparatus 1. The information processing apparatus 1 includes a CPU 11, a ROM 12, a RAM 13, a communication I / F 14, a display device 15, an input device 16, and an HDD 17 as hardware configurations. The CPU 11 controls various devices of the information processing apparatus 1 connected to the system bus. The ROM 12 stores a BIOS program and a boot program. The RAM 13 is used as a main storage device for the CPU 11. The communication I / F 14 connects the information processing apparatus 1 to a network and controls information communication via the network. The network may be connected via a wired connection, may be connected via a wireless connection, or may be connected via a wired or wireless connection. The display device 15 displays the processing result in the CPU 11 or the like. The input device 16 receives input from the operator. The input device 16 may be, for example, a mouse or a keyboard, or a remote controller described later. The HDD 17 stores OS programs, programs of various applications that operate on the OS, and the like.
In the above configuration, when the power of the information processing apparatus 1 is turned on, the CPU 11 reads the OS program from the HDD 17 into the RAM 13 according to the boot program stored in the ROM 12 and executes the process, thereby executing the processing of the information processing apparatus 1. Realize the function. That is, when the CPU 11 of the information processing apparatus 1 executes processing based on the program, the software configuration of the information processing apparatus 1 and the processing of the flowchart described later are realized.

図3は、表示装置1051のハードウェア構成の一例を示す図である。表示装置1051は、ハードウェア構成として、CPU21と、ROM22と、RAM23と、通信I/F24と、表示装置25と、入力装置26と、撮影装置27と、を含む。CPU21は、システムバスに接続された表示装置1051の各種デバイスの制御を行う。ROM22は、OSのプログラムやOS上で動作する各種アプリケーション等を記憶する。RAM23は、CPU21の主記憶装置として使用される。通信I/F24は、表示装置1051をネットワークに接続し、ネットワークを介した情報通信を制御する。ネットワークには有線を介して接続されていても良いし、無線を介して接続されていても良いし、有線及び無線を介して接続されていても良い。表示装置25は、例えば、液晶ディスプレイ等であって、情報処理装置1で生成されたCG画像等を表示する。入力装置26は、操作者による入力等を受け付ける。撮影装置27は、現実空間の画像を撮影する。
上記構成において、表示装置1051の電源がONになると、CPU21は、ROM22に格納されたプログラム等をRAM23に読み込み、処理を実行することによって、表示装置1051の機能を実現する。つまり、表示装置1051のCPU21がプログラムに基づき処理を実行することによって、表示装置1051のソフトウェア構成等が実現される。
FIG. 3 is a diagram illustrating an example of a hardware configuration of the display device 1051. The display device 1051 includes a CPU 21, a ROM 22, a RAM 23, a communication I / F 24, a display device 25, an input device 26, and a photographing device 27 as hardware configurations. The CPU 21 controls various devices of the display device 1051 connected to the system bus. The ROM 22 stores an OS program, various applications that operate on the OS, and the like. The RAM 23 is used as a main storage device for the CPU 21. The communication I / F 24 connects the display device 1051 to a network and controls information communication via the network. The network may be connected via a wired connection, may be connected via a wireless connection, or may be connected via a wired or wireless connection. The display device 25 is, for example, a liquid crystal display or the like, and displays a CG image or the like generated by the information processing device 1. The input device 26 receives input from the operator. The imaging device 27 captures an image of the real space.
In the above configuration, when the power of the display device 1051 is turned on, the CPU 21 implements the function of the display device 1051 by reading the program stored in the ROM 22 into the RAM 23 and executing the processing. That is, the CPU 21 of the display device 1051 executes processing based on the program, thereby realizing the software configuration of the display device 1051 and the like.

<ソフトウェア構成>
図4は、情報処理装置1のソフトウェア構成の一例を示す図である。図4に示されるように、情報処理装置1は、ソフトウェア構成として、データ保持部100と、設定部101と、画像取得部102と、視点位置姿勢取得部103と、重畳画像生成部104と、出力部105と、ロボット制御部106と、を有する。
データ保持部100は、ロボットを含む作業環境の3次元形状情報と、ロボットの制御データ、ロボットの動作を表すデータ(以降、動作データと称す)と、をHDD17等に保持する。ロボットを含む作業環境の3次元形状情報は、ロボットを含む作業環境の3次元形状のメッシュモデルと、ロボットの関節情報と、からなる。但し、3次元形状情報は、CADモデルのような解析曲面モデルであっても良い。ロボットの制御データは、経由点の位置及び経由点でのロボットの関節角やエンドエフェクタの開閉等のアクションを記述したデータのリストからなる。但し、ロボットの制御データは、経由点でのエンドエフェクタの位置姿勢やアクションのデータのリストであっても良い。ロボットの制御データは、スクリプトやプログラミング言語のようなロボット用の言語で書かれたテキスト形式であっても良いし、ロボットへ送信する信号の集合であっても良い。ロボットの制御データは、ロボットの動作を再生できるデータであればどのようなものであっても良い。
動作データは、事前にロボットの実機の動作を計測して得たロボットの動作を表すデータで、時系列的にロボットの関節角やエンドエフェクタの開閉等のアクションを記述したデータのリストからなる。ロボットの動作は公知のモーションキャプチャ―技術を用いて取得することができる。但し、動作データはロボットの動作を表すデータであればどのようなものであっても良い。動作データは、ロボットを複数の撮像装置や3次元計測装置で時系列的に撮影して構築した任意視点画像群や3次元計測データ群であっても良い。
<Software configuration>
FIG. 4 is a diagram illustrating an example of a software configuration of the information processing apparatus 1. As illustrated in FIG. 4, the information processing apparatus 1 includes, as a software configuration, a data holding unit 100, a setting unit 101, an image acquisition unit 102, a viewpoint position / orientation acquisition unit 103, a superimposed image generation unit 104, An output unit 105 and a robot control unit 106 are included.
The data holding unit 100 holds the three-dimensional shape information of the work environment including the robot, the control data of the robot, and the data indicating the operation of the robot (hereinafter referred to as operation data) in the HDD 17 or the like. The three-dimensional shape information of the work environment including the robot includes a three-dimensional mesh model of the work environment including the robot and the joint information of the robot. However, the three-dimensional shape information may be an analytical curved surface model such as a CAD model. The control data of the robot includes a list of data describing actions such as the position of the via point, the joint angle of the robot at the via point, and the opening and closing of the end effector. However, the robot control data may be a list of end effector position and orientation data and action data at the waypoints. The robot control data may be in a text format written in a language for the robot such as a script or a programming language, or may be a set of signals transmitted to the robot. The robot control data may be any data as long as it can reproduce the motion of the robot.
The motion data is data representing the motion of the robot obtained by measuring the actual motion of the robot in advance, and includes a list of data describing actions such as joint angles of the robot and opening / closing of the end effector in time series. The motion of the robot can be acquired using a known motion capture technique. However, the operation data may be any data as long as it represents the operation of the robot. The motion data may be an arbitrary viewpoint image group or a three-dimensional measurement data group constructed by photographing the robot in time series with a plurality of imaging devices or three-dimensional measurement devices.

設定部101は、重畳画像生成部104で描画するロボットの腕や、ロボットの動作の再生速度や再生位置等のパラメータを設定する。本実施形態では、DVDプレイヤー等の動画再生装置のリモコンと同様の入力装置を介した設定操作に応じて、設定部101は、表示する腕や再生速度や再生位置等の再生情報を設定する。より具体的には、再生ボタンの選択操作に応じて、設定部101は、ロボットの実機及び重畳画像の動きの再生を開始させるパラメータを設定する。また、停止ボタンの選択操作に応じて、設定部101は、再生を停止させるパラメータを設定する。また、スロー再生ボタンや早送りボタンの選択操作に応じて、設定部101は、動作速度を変更して再生させるパラメータを設定する。また、チャンネルボタンの選択操作に応じて、設定部101は、仮想表示させる腕、又は実機で動作させる腕を選択するパラメータを設定するようにしても良い。設定に用いる入力装置はリモコンに限らずマウスやキーボード、タッチパネルであっても良い。また、設定部101は、表示装置15に表示されたボタンや動作シーケンス、カーソルを通してパラメータ等を設定しても良い。また情報処理装置1は、観察者1001の動きをセンシングし、設定部101は、観察者1001が行うジェスチャーに応じて、パラメータ等を設定しても良い。設定されたパラメータ等は表示装置15やリモコン等の入力装置16のディスプレイに表示されても良い。また仮想表示又は実機動作する腕は所定のルールに従って設定部101が自動で決めても良い。例えば、設定部101は、各腕のIDの順に仮想表示又は実機動作する腕を決めても良い。
画像取得部102は、視点位置姿勢取得部103で観察者1001の視点位置及び姿勢を取得するのに合わせて、表示装置1051に内蔵されたカメラから観察者1001に提示する映像を取得する。画像取得部102が取得する画像は、撮像画像の一例である。
視点位置姿勢取得部103は、観察者1001の視点位置及び姿勢を取得する。図1に示したセンサ1013は、磁界発生器から発せられた磁力を計測することにより位置と姿勢とを計測できる6自由度センサである。視点位置姿勢取得部103は、センサ1013からの情報を基に観察者1001の視点位置及び姿勢を取得する。
The setting unit 101 sets parameters such as the robot arm to be drawn by the superimposed image generation unit 104 and the playback speed and playback position of the robot operation. In the present embodiment, the setting unit 101 sets playback information such as an arm to be displayed, a playback speed, and a playback position in response to a setting operation via an input device similar to a remote controller of a video playback device such as a DVD player. More specifically, the setting unit 101 sets parameters for starting the reproduction of the motion of the actual robot and the superimposed image according to the selection operation of the reproduction button. Further, in response to the stop button selection operation, the setting unit 101 sets a parameter for stopping reproduction. Further, in response to the selection operation of the slow playback button or the fast forward button, the setting unit 101 sets parameters to be played by changing the operation speed. Further, in accordance with the channel button selection operation, the setting unit 101 may set a parameter for selecting an arm to be virtually displayed or an arm to be operated on an actual machine. The input device used for setting is not limited to a remote controller, and may be a mouse, a keyboard, or a touch panel. The setting unit 101 may set parameters and the like through buttons, operation sequences, and cursors displayed on the display device 15. The information processing apparatus 1 may sense the movement of the observer 1001 and the setting unit 101 may set parameters and the like according to a gesture performed by the observer 1001. The set parameters or the like may be displayed on the display device 15 or a display of the input device 16 such as a remote controller. Further, the setting unit 101 may automatically determine the arm for virtual display or actual machine operation according to a predetermined rule. For example, the setting unit 101 may determine an arm that performs virtual display or actual machine operation in the order of the ID of each arm.
The image acquisition unit 102 acquires a video to be presented to the observer 1001 from a camera built in the display device 1051 in accordance with the viewpoint position and orientation acquisition unit 103 acquiring the viewpoint position and orientation of the observer 1001. The image acquired by the image acquisition unit 102 is an example of a captured image.
The viewpoint position and orientation acquisition unit 103 acquires the viewpoint position and orientation of the observer 1001. The sensor 1013 shown in FIG. 1 is a 6-degree-of-freedom sensor that can measure the position and orientation by measuring the magnetic force generated from the magnetic field generator. The viewpoint position and orientation acquisition unit 103 acquires the viewpoint position and orientation of the observer 1001 based on information from the sensor 1013.

重畳画像生成部104は、視点位置姿勢取得部103で取得した視点位置及び姿勢と、データ保持部100で保持する3次元形状情報及び動作データと、設定部101で設定されたパラメータとに基づいて、以下の画像を生成する。即ち、重畳画像生成部104は、視点位置及び姿勢や表示装置1051の画角情報に基づき、観察者1001の視野を特定し、前記特定した視野の第二のロボットアーム1004の表示位置に、第二のロボットアーム1004が動作する様子を再生した画像を生成する。そして、重畳画像生成部104は、画像取得部102で取得した画像にロボットの腕の動作を再生した画像を重畳した画像を生成する。本実施形態では、重畳画像生成部104は、前記動作データを再生し、設定部101で設定された再生情報に基づいて再生位置(時刻)を決定し、再生位置における第二のロボットアーム1004の状態を描画する。重畳画像生成部104は、描画視点として視点位置姿勢取得部103で取得した視点位置及び姿勢を利用する。また、重畳画像生成部104は、ロボットの形状は3次元形状情報に含まれるメッシュモデルを利用する。画角情報は表示装置の内部パラメータの一例である。
出力部105は、重畳画像生成部104で生成された画像を表示装置1051に送信する。
ロボット制御部106は、データ保持部100で保持するロボットの制御データと設定部101で設定されたパラメータとに基づいて、第一のロボットアーム1003を動作させる。ロボット制御部106は、制御データを再生し、設定部101で設定されたパラメータに基づいて重畳画像生成部104で決定した再生位置におけるロボットアームの状態になるように、第一のロボットアーム1003の関節角等のパラメータを制御する。ロボット制御部106は、前記再生位置が制御データの経由点間である場合は、前後の経由点でのパラメータを補間した値でロボットの位置姿勢を制御する。
本実施形態では、図3の構成をソフトウェア構成として説明を行ったが、図3の全構成又は一部の構成をハードウェア構成として情報処理装置1に実装するようにしても良い。以下の実施形態においても同様である。
The superimposed image generation unit 104 is based on the viewpoint position and orientation acquired by the viewpoint position / orientation acquisition unit 103, the three-dimensional shape information and operation data held by the data holding unit 100, and the parameters set by the setting unit 101. The following image is generated. In other words, the superimposed image generation unit 104 identifies the field of view of the observer 1001 based on the viewpoint position and orientation and the angle of view information of the display device 1051, and sets the second robot arm 1004 of the identified field of view to the display position of the second robot arm 1004. An image that reproduces the behavior of the second robot arm 1004 is generated. Then, the superimposed image generation unit 104 generates an image in which an image obtained by reproducing the motion of the robot arm is superimposed on the image acquired by the image acquisition unit 102. In the present embodiment, the superimposed image generation unit 104 reproduces the motion data, determines a reproduction position (time) based on the reproduction information set by the setting unit 101, and the second robot arm 1004 at the reproduction position. Draw the state. The superimposed image generation unit 104 uses the viewpoint position and orientation acquired by the viewpoint position and orientation acquisition unit 103 as the drawing viewpoint. The superimposed image generation unit 104 uses a mesh model included in the three-dimensional shape information for the robot shape. The angle of view information is an example of an internal parameter of the display device.
The output unit 105 transmits the image generated by the superimposed image generation unit 104 to the display device 1051.
The robot control unit 106 operates the first robot arm 1003 based on the robot control data held by the data holding unit 100 and the parameters set by the setting unit 101. The robot control unit 106 reproduces the control data and sets the first robot arm 1003 to be in the state of the robot arm at the reproduction position determined by the superimposed image generation unit 104 based on the parameters set by the setting unit 101. Control parameters such as joint angles. When the playback position is between control data via points, the robot control unit 106 controls the position and orientation of the robot with a value obtained by interpolating parameters at the front and rear via points.
In the present embodiment, the configuration in FIG. 3 has been described as a software configuration. However, the entire configuration or a part of the configuration in FIG. 3 may be implemented in the information processing apparatus 1 as a hardware configuration. The same applies to the following embodiments.

図5は、表示装置1051のソフトウェア構成の一例を示す図である。図5に示される様に、表示装置1051は、ソフトウェア構成として、受信部111と、表示部112と、を含む。
受信部111は、情報処理装置1から送信された画像を受信する。表示部112は、受信部111で受信された画像を表示装置25に表示する。
本実施形態では、図5の構成をソフトウェア構成として説明を行ったが、図5の全構成又は一部の構成をハードウェア構成として表示装置1051に実装するようにしても良い。以下の実施形態においても同様である。
FIG. 5 is a diagram illustrating an example of a software configuration of the display device 1051. As illustrated in FIG. 5, the display device 1051 includes a reception unit 111 and a display unit 112 as a software configuration.
The receiving unit 111 receives an image transmitted from the information processing apparatus 1. The display unit 112 displays the image received by the receiving unit 111 on the display device 25.
In the present embodiment, the configuration in FIG. 5 has been described as a software configuration, but the entire configuration in FIG. 5 or a part of the configuration in FIG. 5 may be implemented in the display device 1051 as a hardware configuration. The same applies to the following embodiments.

<処理の流れ>
図6のフローチャートを用いて、情報処理装置1の情報処理の流れを説明する。
S1010では、重畳画像生成部104は、データ保持部100で保持している3次元形状情報、制御データ、動作データを取得する。
S1020では、設定部101は、重畳画像生成部104で描画するロボットアーム(及びロボット制御部106で実機動作させるロボットアーム)の選択、ロボットの再生速度や再生位置等のパラメータを設定する。観察者1001は、再生位置をコマ送りで進めても良いし、早送りやスロー再生のように再生速度を指定して連続動作させても良い。観察者1001は、干渉確認の難しいところでは再生位置を一時停止して、様々な視点から干渉を観測しても良い。
S1030では、画像取得部102は、表示装置1051を介して観察者1001に提示する現実空間の画像を撮影する。
S1040では、視点位置姿勢取得部103は、センサ1013を介して重畳画像を生成するための観察者1001の視点位置や姿勢を取得する。
S1050では、重畳画像生成部104は、S1010〜S1040で取得された、又は設定された情報等に基づいて、観察者1001の視野を特定し、観察者1001に提示する重畳画像を生成する。重畳画像生成部104は、出力部105に重畳画像を出力すると共に、ロボット制御部106に第一のロボットアーム1003を動作するためのトリガ情報を出力する。
S1060では、出力部105は、表示装置1051にS1040で生成した画像を、例えば、無線等を介して送信する。
<Process flow>
The flow of information processing of the information processing apparatus 1 will be described using the flowchart of FIG.
In step S <b> 1010, the superimposed image generation unit 104 acquires the three-dimensional shape information, control data, and operation data held by the data holding unit 100.
In step S <b> 1020, the setting unit 101 selects parameters such as a robot arm to be drawn by the superimposed image generation unit 104 (and a robot arm that is actually operated by the robot control unit 106), a reproduction speed and a reproduction position of the robot. The observer 1001 may advance the playback position by frame advance, or may continuously operate by specifying a playback speed such as fast-forward or slow playback. The observer 1001 may observe the interference from various viewpoints by temporarily stopping the reproduction position where interference confirmation is difficult.
In step S <b> 1030, the image acquisition unit 102 captures an image of the real space that is presented to the viewer 1001 via the display device 1051.
In S1040, the viewpoint position and orientation acquisition unit 103 acquires the viewpoint position and orientation of the observer 1001 for generating a superimposed image via the sensor 1013.
In S1050, the superimposed image generation unit 104 identifies the visual field of the observer 1001 based on the information acquired or set in S1010 to S1040, and generates a superimposed image to be presented to the observer 1001. The superimposed image generation unit 104 outputs a superimposed image to the output unit 105 and outputs trigger information for operating the first robot arm 1003 to the robot control unit 106.
In S1060, the output unit 105 transmits the image generated in S1040 to the display device 1051, for example, via wireless.

S1070では、ロボット制御部106は、S1010で取得した3次元形状情報、制御データ、S1020で設定されたパラメータ及び、S1050で出力されたトリガ情報に基づいて、第一のロボットアーム1003を動作させる。これにより、第一のロボットアーム1003を、重畳画像で描画される第二のロボットアーム1004と同期させて動かすことができる。なお、本実施形態では、重畳画像生成部104からのトリガにより第一のロボットアーム1003の動作の開始タイミングを制御したが、これに限られるものではない。例えば、観察者が手に持つコントローラで制御しても良い。
S1080では、設定部101は、観察者1001の選択操作等に基づいて干渉確認が完了したか否かを判定する。設定部101は、干渉確認が完了していないと判定した場合、処理をS1020に戻し、干渉確認が完了したと判定した場合、図4に示すフローチャートの処理を終了する。処理がS1020に戻った場合、観察者1001は、視点位置、姿勢とロボットの動作の再生位置とを変更しながら様々な視点で観測して干渉確認を行う。観察者1001は、HMD内蔵カメラで撮影された第一のロボットアーム1003の画像に第二のロボットアーム1004のCG画像が重畳された画像を観察することにより、ロボットアーム同士の干渉やワーク等の実環境との干渉を確認することができる。
In S1070, the robot control unit 106 operates the first robot arm 1003 based on the three-dimensional shape information acquired in S1010, the control data, the parameters set in S1020, and the trigger information output in S1050. Thereby, the first robot arm 1003 can be moved in synchronization with the second robot arm 1004 drawn in the superimposed image. In this embodiment, the start timing of the operation of the first robot arm 1003 is controlled by the trigger from the superimposed image generation unit 104, but the present invention is not limited to this. For example, it may be controlled by a controller held by the observer.
In S1080, the setting unit 101 determines whether or not the interference check has been completed based on the selection operation or the like of the observer 1001. If the setting unit 101 determines that the interference check has not been completed, the process returns to S1020. If the setting unit 101 determines that the interference check has been completed, the setting unit 101 ends the process of the flowchart illustrated in FIG. When the processing returns to S1020, the observer 1001 performs interference confirmation by observing from various viewpoints while changing the viewpoint position and posture and the reproduction position of the robot operation. The observer 1001 observes an image in which the CG image of the second robot arm 1004 is superimposed on the image of the first robot arm 1003 taken by the HMD built-in camera. Interference with the real environment can be confirmed.

<バリエーション>
本実施形態では、2本の腕を持つロボットの一方の腕の干渉を確認する例を説明した。しかし上記の例に限らず、CGで仮想表示する腕と実機動作させる腕を入れ替えて更に干渉を確認しても良い。また3本以上の腕を持つロボットであっても、仮想表示する腕と実機動作させる腕を順番に切り替えれば同様に干渉確認できる。
ロボットは1つ以上の稼働部位があるロボットであればどのような形態であっても良い。腕でも足でも稼働する部位があれば良い。ロボットは6軸ロボットであっても、スカラロボットやパラレルリンクロボットであっても良いし、複数のロボットの組合せデモ良い。
データ保持部100は、ロボットを含む作業環境の3次元形状情報、ロボットの制御データ、ロボットの動作を表すデータを保持していれば良い。3次元形状情報はCADモデルのような解析曲面モデルであっても良い。制御データは経由点でのエンドエフェクタの位置姿勢やアクションのデータのリストであっても良い。制御データはスクリプトやプログラミング言語のようなロボット用の言語で書かれたテキスト形式であっても良いし、ロボットへ送信する信号の集合であっても良い。制御データはロボットの動作を再生できる情報であれば、どのようなものであっても良い。動作データはロボットの動作を表すデータであれば良い。動作データは実測したロボットの関節角等のパラメータのリストでなくとも、ロボットを複数の撮像装置や3次元計測装置で時系列的に撮影して構築した任意視点画像群や3次元計測データ群であっても良い。データ保持部100が保持するデータはHDD17に記憶されるものとして説明を行ったが、例えば、ネットワークを介して情報処理装置1と通信可能な他の装置のメモリ等に記憶されても良い。また干渉を確認する際には、仮想表示する一方の腕の実機は配置していなくても良い。
<Variation>
In this embodiment, an example in which the interference of one arm of a robot having two arms is confirmed has been described. However, the present invention is not limited to the above example, and the arm that is virtually displayed on the CG and the arm that is actually operated may be switched to further confirm interference. Further, even in a robot having three or more arms, interference can be confirmed in the same manner by switching the virtual display arm and the arm to be actually operated.
The robot may be in any form as long as it has one or more operating parts. It is sufficient if there is a part that works with both arms and legs. The robot may be a 6-axis robot, a SCARA robot, a parallel link robot, or a combination demonstration of a plurality of robots.
The data holding unit 100 only needs to hold the three-dimensional shape information of the work environment including the robot, the control data of the robot, and data representing the operation of the robot. The three-dimensional shape information may be an analytical curved surface model such as a CAD model. The control data may be a list of end effector position / posture and action data at the via points. The control data may be in a text format written in a language for the robot such as a script or a programming language, or may be a set of signals transmitted to the robot. The control data may be any information as long as it can reproduce the robot operation. The motion data may be data representing the motion of the robot. The motion data is not a list of actually measured parameters such as joint angles of the robot, but is an arbitrary viewpoint image group or three-dimensional measurement data group constructed by photographing the robot in time series with a plurality of imaging devices or three-dimensional measurement devices. There may be. The data held by the data holding unit 100 has been described as being stored in the HDD 17. However, for example, the data may be stored in a memory of another device that can communicate with the information processing device 1 via a network. Further, when confirming the interference, the actual machine of one arm for virtual display need not be arranged.

設定部101は、ロボットの動作の再生情報を設定できればどのような入力装置を介した操作に応じてパラメータ等を設定しても良い。再生情報は仮想表示、実機動作させる腕や再生速度、再生位置等の情報を含む。観察者1001による設定方法はリモコンのボタンを用いて設定しても良いし、ジョグダイヤル等で再生位置を設定しても良い。設定部101は、設定された再生情報を表示装置15に表示するようにしても良い。また、リモコン等の入力装置のCPUが入力装置のディスプレイに再生情報を表示するようにしても良い。入力装置もリモコンに限らずマウスやキーボード、ジェスチャーを撮影しジェスチャーを解析し、ジェスチャーの意味を特定する装置であっても良い。また、設定部101は、表示装置15に表示したボタンや動作シーケンス、カーソルにおける観察者の設定操作に応じて、パラメータを設定しても良い。例えば、設定部101は、観察者1001が表示装置15に表示されたロボットの腕の名前のリストから、マウスやタッチパネル、カーソルキー等の入力装置を用いて、仮想表示又は実機動作させる腕を選択しても良い。また、設定部101は、観察者1001の動きをセンシングし、観察者1001が触ったり、指さしたりしたロボットの腕を仮想表示する、又は実機を用いる腕として選択しても良い。   The setting unit 101 may set parameters and the like according to the operation through any input device as long as the reproduction information of the robot operation can be set. The reproduction information includes information such as a virtual display, an arm for operating the real machine, a reproduction speed, and a reproduction position. The setting method by the observer 1001 may be set using a button on the remote controller, or the playback position may be set using a jog dial or the like. The setting unit 101 may display the set reproduction information on the display device 15. Further, the CPU of the input device such as a remote controller may display the reproduction information on the display of the input device. The input device is not limited to a remote controller, and may be a device that captures a mouse, a keyboard, or a gesture, analyzes the gesture, and identifies the meaning of the gesture. The setting unit 101 may set parameters in accordance with buttons, operation sequences displayed on the display device 15, and an observer's setting operation on the cursor. For example, the setting unit 101 uses the input device such as a mouse, a touch panel, or a cursor key from the list of robot arm names displayed on the display device 15 by the observer 1001 to select an arm for virtual display or actual machine operation. You may do it. The setting unit 101 may sense the movement of the observer 1001 and virtually display the arm of the robot touched or pointed by the observer 1001 or may be selected as an arm using an actual machine.

画像取得部102は、観察者1001に提示する映像を取得できれば良い。但し、表示装置1051として光学シースルー型のディスプレイを用いる場合、画像取得部102は、情報処理装置1のソフトウェア構成として無くても良い。撮像装置としてカラーカメラを用いても良いし、濃淡カメラや赤外線カメラ等を用いても良い。また撮像装置は表示装置1051に取り付けても良いし、取り付けられていなくても良い。
また、表示装置1051として2次元液晶ディスプレイ等を利用する場合、位置姿勢が取得可能なカメラを任意の位置に配置することにより観察者1001は自分の位置を変更することなくディスプレイの画面上で様々な位置・方向からの干渉チェックが可能となる。
視点位置姿勢取得部103は、観察者1001の視点の3次元位置姿勢を取得できればどのような方法であっても良い。視点位置姿勢取得部103は、モーションキャプチャ技術を用いても良いし、観察者1001が装着等している装置のGPSや姿勢センサ、加速度センサ等の計測値から視点位置、姿勢を推定しても良い。また、視点位置姿勢取得部103は、画像マーカーを用いる方法や画像取得部102より取得された画像から抽出した特徴的な点をトラッキングする方法で観察者1001の視点の3次元位置姿勢を取得するようにしても良い。また、視点位置姿勢取得部103は、視点位置、姿勢や視点位置、姿勢を算出するための映像やセンサのデータをHDD17から読み出し、視点位置、姿勢を取得しても良い。
The image acquisition unit 102 only needs to acquire a video to be presented to the observer 1001. However, when an optical see-through display is used as the display device 1051, the image acquisition unit 102 may not be a software configuration of the information processing device 1. A color camera may be used as the imaging device, or a gray scale camera or an infrared camera may be used. The imaging device may be attached to the display device 1051 or may not be attached.
In addition, when a two-dimensional liquid crystal display or the like is used as the display device 1051, an observer 1001 can perform various operations on the display screen without changing his / her position by arranging a camera capable of acquiring a position and orientation at an arbitrary position. Interference check from various positions and directions becomes possible.
The viewpoint position and orientation acquisition unit 103 may use any method as long as it can acquire the three-dimensional position and orientation of the viewpoint of the observer 1001. The viewpoint position / orientation acquisition unit 103 may use motion capture technology, or may estimate the viewpoint position / orientation from the measurement values of the GPS, the attitude sensor, the acceleration sensor, etc. of the apparatus worn by the observer 1001. good. The viewpoint position / orientation acquisition unit 103 acquires the three-dimensional position / orientation of the viewpoint of the observer 1001 by a method using an image marker or a method of tracking a characteristic point extracted from an image acquired by the image acquisition unit 102. You may do it. Further, the viewpoint position / orientation acquisition unit 103 may read the image and sensor data for calculating the viewpoint position, attitude, viewpoint position, and attitude from the HDD 17 and acquire the viewpoint position and attitude.

重畳画像生成部104は、視点位置姿勢取得部103で取得された視点位置姿勢に基づいて、現実環境の座標と仮想表示するロボットの座標とを合わせ、設定された再生位置(時刻)におけるロボットの腕が動作する画像を生成する。再生位置は動作データを取得したときと同じ速度で再生した場合の時刻であっても良いし、設定された倍率でゆっくり、又は速く再生した場合の時刻であっても良い。また再生位置は設定部101で設定された任意の再生位置であっても良い。重畳表示する画像はロボットやワーク等の3次元形状情報からポリゴンで描画さえた画像であっても良いし、ワイヤーフレームで描画された画像であっても良く、表現方法はどのようなものであっても良い。光学シースルー型の表示部を用いる場合、重畳画像生成部104は、ロボットが動作する様子の画像を生成すれば良い。また、ビデオシースルー型の表示部を用いる場合、重畳画像生成部104は、撮像部で撮影された画像にロボットが動作する様子の画像を重畳した画像を生成すれば良い。表示装置1051が光学シースルー型、ビデオシースルー型かの情報は、例えば、無線等を介して、情報処理装置1が表示装置1051より取得してもよし、観察者1001の操作に応じて、設定部101が取得しても良い。例えば、重畳画像生成部104は、表示装置1051が光学シースルー型、ビデオシースルー型かの情報に応じて、対応する重畳画像を生成する。   Based on the viewpoint position and orientation acquired by the viewpoint position and orientation acquisition unit 103, the superimposed image generation unit 104 combines the coordinates of the real environment and the coordinates of the robot to be virtually displayed, and the robot at the set reproduction position (time). An image in which the arm moves is generated. The playback position may be a time when playback is performed at the same speed as when the operation data is acquired, or may be a time when playback is performed slowly or quickly at a set magnification. The playback position may be an arbitrary playback position set by the setting unit 101. The image to be superimposed may be an image drawn with polygons from 3D shape information such as a robot or a workpiece, or may be an image drawn with a wire frame. May be. When an optical see-through display unit is used, the superimposed image generation unit 104 may generate an image of how the robot operates. In addition, when a video see-through display unit is used, the superimposed image generation unit 104 may generate an image in which an image of a robot operating is superimposed on an image captured by the imaging unit. Information regarding whether the display device 1051 is an optical see-through type or a video see-through type may be acquired by the information processing device 1 from the display device 1051 via wireless or the like, for example, or in accordance with the operation of the observer 1001 101 may acquire. For example, the superimposed image generation unit 104 generates a corresponding superimposed image according to information on whether the display device 1051 is an optical see-through type or a video see-through type.

出力部105は、前記重畳画像を表示装置1051に出力できればどのようなものであっても良い。例えば、出力部105は、前記重畳画像を表示装置1051に無線等を介して送信し、前記重畳画像を表示装置1051に表示させる。表示装置1051は、光学シースルー型でも、ビデオシースルー型でも良い。また、表示装置1051は、HMDであっても、ディスプレイやプロジェクタ、タブレット端末やスマートフォン、ロボットのティーチングペンダントに付属するディスプレイであっても良い。
ロボット制御部106は、重畳画像生成部104と同じ再生位置(時刻)における、制御データを再生したときのロボットの腕の位置姿勢に、ロボットの腕を移動できれば良い。ここでロボットの腕の位置姿勢とは、ロボットの腕の各関節の関節角と同義である。
The output unit 105 may be anything as long as it can output the superimposed image to the display device 1051. For example, the output unit 105 transmits the superimposed image to the display device 1051 via wireless or the like, and causes the display device 1051 to display the superimposed image. The display device 1051 may be an optical see-through type or a video see-through type. The display device 1051 may be an HMD or a display attached to a display, a projector, a tablet terminal, a smartphone, or a robot teaching pendant.
The robot control unit 106 only needs to be able to move the robot arm to the position and orientation of the robot arm when the control data is reproduced at the same reproduction position (time) as the superimposed image generation unit 104. Here, the position and orientation of the arm of the robot is synonymous with the joint angle of each joint of the arm of the robot.

以上述べた構成によれば、情報処理装置1は、予め計測しておいたロボットアームの実際の動作軌跡を使ってロボットアームの動作を重畳画像で生成する。そして、もう一方のロボットアームを実際に動作させた様子を撮影した画像に前記重畳画像を重畳する。このように処理することで、シミュレーションでは再現できないようなロボットアームの動きを、ロボットが衝突するかもしれないという思いを伴わずに、干渉チェック等が行えるという効果がある。また、一方のロボットアームが物理的に邪魔になって他方のアームとの干渉の確認が難しくなることが軽減できるため、作業効率が向上する。   According to the configuration described above, the information processing apparatus 1 generates the motion of the robot arm as a superimposed image using the actual motion trajectory of the robot arm measured in advance. Then, the superimposed image is superimposed on an image obtained by photographing the other robot arm actually operated. By processing in this way, there is an effect that it is possible to perform an interference check or the like without the thought that the robot arm may collide with the movement of the robot arm that cannot be reproduced by simulation. In addition, since it is possible to reduce the difficulty of confirming interference with the other arm due to physical obstruction of one robot arm, work efficiency is improved.

<<実施形態2>>
<概要>
実施形態2では、2つの腕を持つロボットの動作を教示する場合について述べる。本実施形態では観察者1001がロボットの腕を直接持って移動させて動作を入力するダイレクトティーチングを用いてロボットの動作を教示する。観察者1001は、1腕ずつ教示する。教示済みのロボットの腕は実機で動作させない。本実施形態の情報処理装置は、観察者1001の視界に教示済みの腕の動作シミュレーションの画像を重畳表示させるよう画像を生成し、表示装置に送信する。これにより、教示済みの腕が観察者1001や他の腕に接触する可能性を軽減できる。更に、教示済みの腕が邪魔になって干渉の確認が難しくなることを軽減するため、作業効率が向上する。
<構成>
本実施形態における情報処理装置2の構成を図7に示す。情報処理装置2は、実施形態1の情報処理装置1と同様のハードウェア構成を有する。ロボット制御部206は、第一のロボットアーム1003と第二のロボットアーム1004とを備えたロボットを制御する。データ保持部200、設定部201、画像取得部202、視点位置姿勢取得部203、重畳画像生成部204、出力部205は、実施形態1の対応する各部と同様である。実施形態2の情報処理装置2は、これらに加えて、動作入力部207を有する。以下では実施形態1との差を中心に説明する。本実施形態の第二のロボットアーム1004は、第三のロボットの一例である。本実施形態の第一のロボットアーム1003は、第四のロボットの一例である。また、本実施形態の第一のロボットアーム1003は、本実施形態の第二のロボットアーム1004と干渉する可能性があるロボットアームの一例である。
動作入力部207は、ダイレクトティーチングにより観察者1001がロボットの腕を直接持って移動させたロボットのデータを情報処理装置2に入力する。より具体的に説明すると、動作入力部207は、移動後のロボットの各関節の関節角やアクション等のパラメータを経由点のパラメータとして制御データに追加し、データ保持部200で保持させる。
<< Embodiment 2 >>
<Overview>
In the second embodiment, a case where the operation of a robot having two arms is taught will be described. In this embodiment, the observer 1001 directly teaches the operation of the robot using direct teaching in which the robot's arm is directly moved to input the operation. The observer 1001 teaches one arm at a time. Do not operate the arm of the robot that has been taught. The information processing apparatus according to the present embodiment generates an image so as to superimpose and display the image of the motion simulation of the arm that has been taught in the field of view of the observer 1001, and transmits the generated image to the display device. Thereby, the possibility that the taught arm contacts the observer 1001 and other arms can be reduced. Furthermore, since it is reduced that the taught arm becomes an obstacle and it is difficult to confirm interference, the work efficiency is improved.
<Configuration>
FIG. 7 shows the configuration of the information processing apparatus 2 in the present embodiment. The information processing apparatus 2 has the same hardware configuration as the information processing apparatus 1 of the first embodiment. The robot control unit 206 controls a robot including the first robot arm 1003 and the second robot arm 1004. The data holding unit 200, the setting unit 201, the image acquisition unit 202, the viewpoint position / orientation acquisition unit 203, the superimposed image generation unit 204, and the output unit 205 are the same as the corresponding units in the first embodiment. In addition to these, the information processing apparatus 2 according to the second embodiment includes an operation input unit 207. Below, it demonstrates centering on the difference with Embodiment 1. FIG. The second robot arm 1004 of this embodiment is an example of a third robot. The first robot arm 1003 of this embodiment is an example of a fourth robot. The first robot arm 1003 of this embodiment is an example of a robot arm that may interfere with the second robot arm 1004 of this embodiment.
The motion input unit 207 inputs the data of the robot moved by the observer 1001 directly holding the robot arm by direct teaching to the information processing apparatus 2. More specifically, the motion input unit 207 adds parameters such as joint angles and actions of each joint of the robot after movement to the control data as parameters of waypoints, and causes the data holding unit 200 to hold them.

<処理の流れ>
図8のフローチャートを用いて、情報処理装置2の情報処理の流れを説明する。
S2010〜S2040及びS2050〜2060の処理は実施形態1のS1010〜S1040及びS1050〜1060の処理と同様である。
S2045では、動作入力部207は、S2020で選択された実機動作させる第二のロボットアーム1004の制御データを作成する。観察者1001は表示装置1051に表示される第一のロボットアームの重畳画像を見ながら、第一のロボットアームと腕が干渉しないようにダイレクトティーチングにより第二のロボットアーム1004の教示を行う。動作入力部207は、1ループ前のS2045で入力された第二のロボットアーム1004の位置姿勢(初回の場合は第二のロボットアーム1004の初期位置姿勢)から観察者1001がロボットの腕を直接触って移動させた後のデータを入力する。即ち、動作入力部207は、移動後の第二のロボットアーム1004の位置姿勢(各関節の関節角やアクション等のパラメータ)を経由点として制御データに追加し、データ保持部200で保持させる。
<Process flow>
The flow of information processing of the information processing apparatus 2 will be described using the flowchart of FIG.
The processes of S2010 to S2040 and S2050 to 2060 are the same as the processes of S1010 to S1040 and S1050 to 1060 of the first embodiment.
In S2045, the motion input unit 207 creates control data of the second robot arm 1004 that causes the actual machine selected in S2020 to operate. While observing the superimposed image of the first robot arm displayed on the display device 1051, the observer 1001 teaches the second robot arm 1004 by direct teaching so that the arm does not interfere with the first robot arm. The motion input unit 207 allows the observer 1001 to directly touch the robot arm based on the position and orientation of the second robot arm 1004 (initial position and orientation of the second robot arm 1004 in the first case) input in step S2045 before one loop. Input data after touching and moving. That is, the motion input unit 207 adds the position and orientation of the second robot arm 1004 after movement (parameters such as joint angles and actions of each joint) to the control data as a via point, and causes the data holding unit 200 to hold it.

S2050では、重畳画像生成部204は、S2040で取得された視点位置、姿勢、S2010で取得されたロボットの3次元形状情報及び動作データ、S2020で設定されたパラメータ、S2045で入力されたロボットの移動に係る情報等に基づいて、仮想表示する第一のロボットアーム1003が動作する画像を作成する。より具体的には、重畳画像生成部204は、S2045で移動した第二のロボットアーム1004を、1ループ前のS2045での位置姿勢から今回のS2045で入力した位置姿勢に移動する動作をシミュレーションし、移動にかかる時間(移動時間)を算出する。重畳画像生成部204は、動作データ等に従って、1ループ前のS2050で生成した重畳画像における仮想表示する第一のロボットアーム1003の位置姿勢から、前記移動時間の分進めた再生位置における、第一のロボットアーム1003の動作を再生した画像を生成する。
S2080では、動作入力部207は、観察者1001のダイレクトティーチングによる第二のロボットアーム1004の教示が終了したか否かを判定する。例えば、動作入力部207は、所定の間、ダイレクトティーチングによる動作入力がない場合、教示が終了したと判定する。動作入力部207は、教示が終了したと判定した場合、図8に示すフローチャートの処理を終了し、教示が終了していないと判定した場合、処理をステップS2020に戻す。
In S2050, the superimposed image generation unit 204 determines the viewpoint position and orientation acquired in S2040, the three-dimensional shape information and motion data of the robot acquired in S2010, the parameters set in S2020, and the movement of the robot input in S2045. Based on the information related to the above, an image in which the first robot arm 1003 to be virtually displayed operates is created. More specifically, the superimposed image generation unit 204 simulates an operation of moving the second robot arm 1004 moved in S2045 from the position and orientation in S2045 one loop before to the position and orientation input in S2045 this time. The time required for movement (movement time) is calculated. The superimposed image generation unit 204 determines the first position at the reproduction position advanced by the moving time from the position and orientation of the first robot arm 1003 that is virtually displayed in the superimposed image generated in S2050 one loop before according to the operation data and the like. An image reproducing the operation of the robot arm 1003 is generated.
In step S2080, the motion input unit 207 determines whether teaching of the second robot arm 1004 by direct teaching of the observer 1001 has been completed. For example, the motion input unit 207 determines that teaching has ended when there is no motion input by direct teaching for a predetermined period. The operation input unit 207 ends the process of the flowchart shown in FIG. 8 when it is determined that the teaching is completed, and returns the process to step S2020 when it is determined that the teaching is not ended.

<バリエーション>
本実施形態では、干渉を確認しながら、2本の腕を持つロボットの一方の腕の動作を入力する例を説明した。しかし上記の例の処理の後に、観察者1001は、仮想表示する腕と動作入力する腕とを入れ替えて更に動作入力をしても良い。また観察者1001は、3本以上の腕を持つロボットであっても、仮想表示する腕と動作入力する腕を順番に切り替えれば同様に動作入力できる。
動作入力部207は、ロボットの動作を制御できればどのようなものであっても良い。動作入力部207は、上述したように観察者1001がロボットの腕を直接持って移動させた動作のデータを入力しても良いし、観察者1001がティーチングペンダントを用いて入力した経由点におけるロボットの位置や関節角、アクション等を入力しても良い。また、動作入力部207は、計測された観察者1001の動作に基づいてロボットの制御データを生成しても良い。動作入力部207は、エンドエフェクタや把持物体を移動させる様子をカメラや三次元計測装置で観測した結果の計測データから、エンドエフェクタや把持物体の位置姿勢を推定し、その位置姿勢に基づいてロボットの制御データを作成しても良い。また、観察者1001は、実施形態1や2の方法で干渉確認を行って干渉が確認された場合に、上記の方法によってロボットの動作を入力し、制御データを修正するようにしても良い。例えば、観察者1001は、修正したい動作の経由点を指定し、その経由点でのロボットの制御パラメータ(関節角や位置、アクション等)をティーチングペンダントや、ダイレクトティーチング、コンピュータ端末等を用いて編集しても良い。情報処理装置は、ティーチングペンダントや、ダイレクトティーチング、コンピュータ端末等を用いた観察者1001による編集に係る操作を受け取り、制御データを編集する。編集する制御データは仮想表示する第一のロボットアーム1003のものであっても、実機動作させる第二のロボットアーム1004のものであっても良い。
以上述べた構成によれば、複数の腕を持つロボットの動作教示において、教示済みの腕が観察者1001や他の腕に接触する可能性を軽減できる。更に、教示済みの腕が邪魔になって干渉の確認が難しくなることを軽減するため、教示作業の効率が向上する。
<Variation>
In this embodiment, an example in which the operation of one arm of a robot having two arms is input while confirming interference has been described. However, after the processing in the above example, the observer 1001 may further perform an operation input by exchanging the virtual display arm and the operation input arm. Further, even if the observer 1001 is a robot having three or more arms, the observer 1001 can input the operation in the same manner by switching the virtual display arm and the operation input arm in order.
The motion input unit 207 may be anything as long as it can control the motion of the robot. As described above, the motion input unit 207 may input data of the motion that the observer 1001 has moved directly holding the arm of the robot, or the robot at the waypoint input by the observer 1001 using the teaching pendant. The position, joint angle, action, etc. may be input. Further, the motion input unit 207 may generate robot control data based on the measured motion of the observer 1001. The motion input unit 207 estimates the position and orientation of the end effector and the gripping object from the measurement data obtained by observing the movement of the end effector and the gripping object with a camera and a three-dimensional measurement device, and the robot based on the position and orientation The control data may be created. The observer 1001 may correct the control data by inputting the operation of the robot by the above method when interference is confirmed by the method of the first or second embodiment. For example, the observer 1001 designates a via point of an operation to be corrected, and edits a robot control parameter (joint angle, position, action, etc.) at the via point using a teaching pendant, direct teaching, a computer terminal, or the like. You may do it. The information processing apparatus receives an operation related to editing by an observer 1001 using a teaching pendant, direct teaching, a computer terminal, or the like, and edits control data. The control data to be edited may be for the first robot arm 1003 for virtual display or for the second robot arm 1004 for operating the actual machine.
According to the configuration described above, in the operation teaching of the robot having a plurality of arms, it is possible to reduce the possibility that the taught arm comes into contact with the observer 1001 or other arms. Furthermore, since it is reduced that it is difficult to confirm interference due to the taught arm being in the way, the efficiency of the teaching work is improved.

<<実施形態3>>
<概要>
実施形態3では、干渉を確認する際に、注意して干渉を確認すべき箇所を強調して重畳表示する例について説明する。このような構成とすることにより、観察者は明らかに干渉しない箇所の干渉を確認する手間を軽減でき、作業効率が向上する。
本実施形態における情報処理装置3の構成を図9に示す。情報処理装置3は、実施形態1と同様のハードウェア構成を有する。ロボット制御部306は、第一のロボットアーム1003と第二のロボットアーム1004とを備えたロボットを制御する。データ保持部300、設定部301、画像取得部302、視点位置姿勢取得部303、重畳画像生成部304、出力部305は、実施形態1の対応する各部と同様である。実施形態3の情報処理装置3は、これらに加えて、干渉判定部308を有する。以下では実施形態1との差を中心に説明する。
干渉判定部308は、ロボットの腕同士に干渉しそうな箇所があるかどうかを判定し、その干渉の可能性のある箇所を検出する。より具体的には、干渉判定部308は、データ保持部300で保持するロボットの腕の3次元形状情報、制御データ、動作データ及び設定部301で設定されたパラメータから決定される再生位置(時刻)に基づき、ロボットの動作のシミュレーションを行う。干渉判定部308は、所定の再生位置におけるシーンのシミュレーションを行い、ロボットの腕同士に事前に設定された閾値以下の距離になる箇所が存在すれば、干渉の可能性があると判定し、その干渉箇所を検出する。
<< Embodiment 3 >>
<Overview>
In the third embodiment, an example will be described in which, when confirming interference, a portion where interference should be confirmed is emphasized and displayed in a superimposed manner. By adopting such a configuration, the observer can reduce the trouble of confirming the interference of a portion that does not clearly interfere, and the work efficiency is improved.
The configuration of the information processing apparatus 3 in this embodiment is shown in FIG. The information processing apparatus 3 has the same hardware configuration as that of the first embodiment. The robot control unit 306 controls a robot including the first robot arm 1003 and the second robot arm 1004. The data holding unit 300, setting unit 301, image acquisition unit 302, viewpoint position / orientation acquisition unit 303, superimposed image generation unit 304, and output unit 305 are the same as the corresponding units in the first embodiment. In addition to these, the information processing apparatus 3 according to the third embodiment includes an interference determination unit 308. Below, it demonstrates centering on the difference with Embodiment 1. FIG.
The interference determination unit 308 determines whether or not there is a place where the robot arms are likely to interfere with each other, and detects a place where there is a possibility of the interference. More specifically, the interference determination unit 308 reproduces the reproduction position (time) determined from the three-dimensional shape information of the robot arm held by the data holding unit 300, control data, operation data, and parameters set by the setting unit 301. ) To simulate the robot movement. The interference determination unit 308 performs a simulation of a scene at a predetermined reproduction position, and determines that there is a possibility of interference if there is a location that is a distance equal to or less than a preset threshold between the robot arms. Detect interference points.

<処理の流れ>
図10のフローチャートを用いて、情報処理装置3の情報処理の流れを説明する。
S3010〜S3040及びS3050〜S3080の処理は実施形態1のS1010〜S1040及びS1050〜S1080の処理と同様である。
S3047では、干渉判定部308は、ロボットの腕同士に接触しそうな箇所があるかどうかを判定し、干渉の可能性のある箇所を検出する。より具体的には、干渉判定部308は、データ保持部300で保持する3次元形状と動作データとに基づいて仮想表示する第二のロボットアーム1004の動作のシミュレーションをする。また、干渉判定部308は、3次元形状と制御データとに基づいて実機動作させる第一のロボットアーム1003との動作をシミュレーションし、干渉判定を行う。干渉判定部308は、1ループ前の再生位置におけるロボットの位置姿勢から、設定部301で設定された再生速度に応じて進めた再生位置における、ロボットのシミュレーションを行う。そして、干渉判定部308は、ロボットの腕やワーク、ワークスペース等の間に事前に設定された閾値以下の距離になる箇所が存在すれば、干渉の可能性があると判定し、その箇所を検出する。
S3050では、重畳画像生成部304は、S3040で取得された視点位置、姿勢、S3010で取得された3次元形状情報及び動作データ、S3020で設定されたパラメータから、仮想表示する第二のロボットアーム1004が動作する画像を作成する。更に、重畳画像生成部304は、S2047で検出された接触の可能性のある個所を強調して画像を生成する。より具体的には、重畳画像生成部304は、検出された箇所周辺のロボットの3次元形状モデルの色を赤色で表示する。
<Process flow>
The flow of information processing of the information processing apparatus 3 will be described using the flowchart of FIG.
The processes of S3010 to S3040 and S3050 to S3080 are the same as the processes of S1010 to S1040 and S1050 to S1080 of the first embodiment.
In step S3047, the interference determination unit 308 determines whether there is a place where the robot arms are likely to come into contact with each other, and detects a place where there is a possibility of interference. More specifically, the interference determination unit 308 simulates the operation of the second robot arm 1004 that virtually displays based on the three-dimensional shape and operation data held by the data holding unit 300. Further, the interference determination unit 308 performs an interference determination by simulating the operation of the first robot arm 1003 that is actually operated based on the three-dimensional shape and the control data. The interference determination unit 308 performs a simulation of the robot at the reproduction position advanced according to the reproduction speed set by the setting unit 301 from the position and orientation of the robot at the reproduction position one loop before. Then, the interference determination unit 308 determines that there is a possibility of interference if there is a portion having a distance equal to or less than a preset threshold value between the robot arm, the workpiece, the workspace, and the like. To detect.
In S3050, the superimposed image generation unit 304 virtually displays the second robot arm 1004 from the viewpoint position and orientation acquired in S3040, the three-dimensional shape information and motion data acquired in S3010, and the parameters set in S3020. Create an image that works. Furthermore, the superimposed image generation unit 304 generates an image by emphasizing a portion with the possibility of contact detected in S2047. More specifically, the superimposed image generation unit 304 displays the color of the three-dimensional shape model of the robot around the detected location in red.

<バリエーション>
干渉判定部308は、ロボットの3次元情報と動作データとからロボットの動作シミュレーションを行って、干渉の可能性がある箇所を検出できれば良い。例えば、干渉判定部308は、本実施形態のように、実機動作させる第一のロボットアーム1003のシミュレーションの結果を用いなくとも良い。干渉判定部308は、実機動作させる第一のロボットアーム1003の3次元計測結果と仮想表示する第二のロボットアーム1004のシミュレーション結果との干渉判定を行っても良い。例えば、所定の再生位置で再生させたロボットの実機の第一のロボットアーム1003を移動し、環境に設置した3次元計測装置を用いて、ロボットを含むワークスペースを3次元計測する。干渉判定部308は、取得した3次元計測データと、動作データと、3次元形状情報と、に基づいて再生した仮想表示する第二のロボットアーム1004との距離が所定の閾値以下になる個所を干渉箇所として検出しても良い。また、干渉判定部308が用いる干渉の判定基準は距離でも良いし、3次元形状の包含関係であっても良い。また、干渉判定部308は、干渉箇所を検出した際に音声を発生させて通知しても良い。
重畳画像生成部304は、干渉箇所を強調表示する際は、干渉箇所が分かればどのように画像を生成しても良い。重畳画像生成部304は、干渉箇所の色を変えた画像を生成しても良いし、点滅させた画像を生成しても良い。また、重畳画像生成部304は、干渉箇所を矢印等で示した画像を生成しても良いし、半透明の球や直方体で囲んだ画像を生成しても良いし、文章を表示した画像を生成しても良い。
また実施形態2のように動作入力部を情報処理装置に実装し、干渉を確認しながら制御データの入力や修正を行っても良い。
以上述べた構成によれば、明らかに干渉しない箇所の干渉を確認する手間を軽減でき、作業効率が向上する。
<Variation>
The interference determination unit 308 only needs to perform a robot motion simulation from the three-dimensional information and motion data of the robot and detect a portion that may cause interference. For example, the interference determination unit 308 may not use the result of the simulation of the first robot arm 1003 that is actually operated as in the present embodiment. The interference determination unit 308 may perform interference determination between the three-dimensional measurement result of the first robot arm 1003 that is actually operated and the simulation result of the second robot arm 1004 that is virtually displayed. For example, the first robot arm 1003 of the actual robot reproduced at a predetermined reproduction position is moved, and the workspace including the robot is three-dimensionally measured using a three-dimensional measuring device installed in the environment. The interference determination unit 308 determines a location where the distance from the second robot arm 1004 to be virtually displayed reproduced based on the acquired 3D measurement data, motion data, and 3D shape information is equal to or less than a predetermined threshold. You may detect as an interference location. In addition, the interference determination standard used by the interference determination unit 308 may be a distance or an inclusion relationship of a three-dimensional shape. In addition, the interference determination unit 308 may notify the user by generating a sound when an interference location is detected.
When the interference location is highlighted, the superimposed image generation unit 304 may generate an image as long as the interference location is known. The superimposed image generation unit 304 may generate an image in which the color of the interference location is changed, or may generate a blinking image. In addition, the superimposed image generation unit 304 may generate an image in which the interference portion is indicated by an arrow or the like, may generate an image surrounded by a translucent sphere or a rectangular parallelepiped, or may display an image displaying a sentence. It may be generated.
Further, as in the second embodiment, an operation input unit may be mounted on the information processing apparatus, and control data may be input or corrected while checking interference.
According to the configuration described above, it is possible to reduce the trouble of confirming the interference at a location that does not clearly interfere, and the work efficiency is improved.

<<実施形態4>>
<概要>
実施形態4では、実際のロボットやその周辺機器、作業環境等の形状が、ロボットの動作画像を生成するための3次元形状情報と異なる場合の一例を説明する。この場合、情報処理装置は、ロボットやその周辺機器、作業環境等を3次元計測し、計測した3次元形状情報に基づいてロボットの動作画像を生成する。このような構成とすることにより、実際のロボットや周辺機器、作業環境の3次元形状を反映した動作画像を観測しながら、正確性高く干渉確認を行うことができ、作業効率が向上する。
本実施形態における情報処理装置4のソフトウェア構成の一例を図11に示す。情報処理装置4は、実施形態1と同様のハードウェア構成に加えて、ロボットやその周辺機器、環境等の3次元形状を計測する不図示の計測装置を有する。本実施形態では計測装置としてRGBDカメラ(カラー画像と距離画像とを同時に撮影可能なカメラ)を例に説明を行う。ロボット制御部406は、第一のロボットアーム1003と第二のロボットアーム1004とを備えたロボットを制御する。データ保持部400、設定部401、画像取得部402、視点位置姿勢取得部403、重畳画像生成部404、出力部405は、実施形態1の対応する各部と同様である。情報処理装置4は、これらに加えて、形状計測部409をソフトウェア構成として有する。以下では実施形態1との差を中心に説明する。
形状計測部409は、計測装置を用いて、実際のロボットや、ケーブル、作業に用いる冶具等の周辺機器、作業環境の3次元形状情報を計測、取得する。本実施形態では、形状計測部409は、計測装置を移動させ、様々な視点からロボットや周辺機器、作業環境を計測したカラー画像及び距離画像を取得する。情報処理装置4は、取得したカラー画像及び距離画像から特徴を抽出、マッチングすることで撮影視点の位置姿勢を算出し、各カラー画像及び距離画像から生成した色つきの3次元点群を1つの座標系に統合、メッシュ化する。このことで、ロボットや周辺機器、作業環境の3次元形状情報を生成する。更に、情報処理装置4は、生成した3次元形状情報とデータ保持部400で保持する3次元形状情報との位置合わせを行い、生成した3次元形状情報の座標系をデータ保持部400で保持するロボットの3次元形状情報の座標系に合わせる。このとき、情報処理装置4は、ロボット等の動作データを持つ3次元形状に関しては、可動部分ごとで対応付け、位置合わせを行う。
<< Embodiment 4 >>
<Overview>
In the fourth embodiment, an example will be described in which the shape of an actual robot, its peripheral devices, work environment, and the like is different from the three-dimensional shape information for generating a motion image of the robot. In this case, the information processing apparatus three-dimensionally measures the robot, its peripheral devices, the work environment, and the like, and generates an operation image of the robot based on the measured three-dimensional shape information. By adopting such a configuration, it is possible to perform interference confirmation with high accuracy while observing an operation image reflecting the three-dimensional shape of an actual robot, peripheral devices, and work environment, and work efficiency is improved.
An example of the software configuration of the information processing apparatus 4 in this embodiment is shown in FIG. In addition to the hardware configuration similar to that of the first embodiment, the information processing apparatus 4 includes a measurement device (not illustrated) that measures a three-dimensional shape of the robot, its peripheral devices, and the environment. In this embodiment, an RGBD camera (a camera capable of simultaneously capturing a color image and a distance image) will be described as an example of a measurement device. The robot control unit 406 controls a robot including the first robot arm 1003 and the second robot arm 1004. The data holding unit 400, the setting unit 401, the image acquisition unit 402, the viewpoint position / orientation acquisition unit 403, the superimposed image generation unit 404, and the output unit 405 are the same as the corresponding units in the first embodiment. In addition to these, the information processing apparatus 4 includes a shape measuring unit 409 as a software configuration. Below, it demonstrates centering on the difference with Embodiment 1. FIG.
The shape measuring unit 409 measures and acquires three-dimensional shape information of an actual robot, a peripheral device such as a jig used for work, and a work environment using a measuring device. In the present embodiment, the shape measurement unit 409 moves the measurement device, and acquires color images and distance images obtained by measuring the robot, peripheral devices, and work environment from various viewpoints. The information processing apparatus 4 calculates the position and orientation of the photographing viewpoint by extracting and matching features from the acquired color image and distance image, and coordinates the three-dimensional point group generated from each color image and distance image with one coordinate. Integrated into the system and meshed. As a result, three-dimensional shape information of the robot, peripheral devices, and work environment is generated. Further, the information processing apparatus 4 aligns the generated 3D shape information with the 3D shape information held by the data holding unit 400 and holds the generated coordinate system of the 3D shape information in the data holding unit 400. Match the coordinate system of the 3D shape information of the robot. At this time, the information processing apparatus 4 associates and aligns a three-dimensional shape having operation data of a robot or the like for each movable part.

<処理の流れ>
図12のフローチャートを用いて、情報処理装置4の情報処理の流れを説明する。
S4010及び、S4020〜S4080の処理は実施形態1のS1010及びS1020〜S1080の処理と同様である。
S4015では、形状計測部409は、実際のロボットや周辺機器、作業環境を計測した3次元形状情報を取得する。S4015の処理は、3次元形状情報取得の処理の一例である。
S4050では、重畳画像生成部404は、以下のデータ等から仮想表示する第二のロボットアーム1004が動作する画像を作成する。即ち、重畳画像生成部404は、S4040で取得された視点位置、姿勢、S4010で取得された動作データ、S4015で取得された3次元形状情報、S4020で設定されたパラメータから、仮想表示する画像を作成する。
<Process flow>
The flow of information processing of the information processing apparatus 4 will be described using the flowchart of FIG.
The processes of S4010 and S4020 to S4080 are the same as the processes of S1010 and S1020 to S1080 of the first embodiment.
In step S4015, the shape measurement unit 409 acquires three-dimensional shape information obtained by measuring an actual robot, peripheral devices, and work environment. The process of S4015 is an example of a process for acquiring three-dimensional shape information.
In S4050, the superimposed image generation unit 404 creates an image in which the second robot arm 1004 to be virtually displayed is operated from the following data or the like. In other words, the superimposed image generation unit 404 creates an image to be virtually displayed from the viewpoint position and orientation acquired in S4040, the motion data acquired in S4010, the three-dimensional shape information acquired in S4015, and the parameters set in S4020. create.

<バリエーション>
形状計測部409は、実際のロボットやその周辺機器、作業環境等の3次元形状情報が取得できれば良い。形状計測部409は、RGBDカメラやToFセンサ、ステレオカメラを用いて3次元形状を計測しても良い。また、形状計測部409は、計測装置を動かしたり、複数の計測装置を利用したりして、複数視点で計測した3次元形状情報を組み合わせて利用しても良い。複数の計測装置は予めその撮影位置姿勢を校正しておいても良い。3次元形状情報は3次元点群であっても良いし、サーフェル(Surfel: Surface Element)の集合やメッシュモデル、CADモデルであっても良い。テクスチャ情報を含んでいても良い。また、計測した3次元形状情報とデータ保持部で保持する3次元形状情報とを組み合わせて利用しても良い。
本実施形態は実施形態1と同じ構成の場合について説明したが、実施形態2や3と組み合わせても良い。より具体的には、情報処理装置4は、データ保持部で保持する3次元形状情報の代わりに、形状計測部409で計測した3次元形状情報を利用して、実施形態2や3を実施すれば良い。
ロボット制御部406は、データ保持部400で保持するロボットの制御データと設定部401で設定されたパラメータとに基づいて、ロボット及び周辺機器を制御し、動作させる。ロボット及び周辺機器が動作するにあたり、形状計測部409で計測した作業環境等と接触する可能性がある場合は、接触を回避するように、例えば、ロボット制御部406は、ロボット及び周辺機器の動作データを変更しても良い。
<Variation>
The shape measuring unit 409 only needs to be able to acquire three-dimensional shape information such as an actual robot, its peripheral devices, and the work environment. The shape measuring unit 409 may measure a three-dimensional shape using an RGBD camera, a ToF sensor, or a stereo camera. In addition, the shape measuring unit 409 may use a combination of three-dimensional shape information measured from a plurality of viewpoints by moving a measuring device or using a plurality of measuring devices. A plurality of measuring devices may calibrate their shooting positions and orientations in advance. The three-dimensional shape information may be a three-dimensional point group, a set of surfels (Surfell: Surface Element), a mesh model, or a CAD model. Texture information may be included. Further, the measured three-dimensional shape information and the three-dimensional shape information held in the data holding unit may be used in combination.
Although the present embodiment has been described with respect to the same configuration as the first embodiment, it may be combined with the second and third embodiments. More specifically, the information processing apparatus 4 performs the second and third embodiments by using the three-dimensional shape information measured by the shape measuring unit 409 instead of the three-dimensional shape information held by the data holding unit. It ’s fine.
The robot control unit 406 controls and operates the robot and peripheral devices based on the robot control data held by the data holding unit 400 and the parameters set by the setting unit 401. When the robot and peripheral devices operate, if there is a possibility of contact with the work environment measured by the shape measuring unit 409, for example, the robot control unit 406 may operate the robot and peripheral devices to avoid contact. Data may be changed.

以上述べた構成によれば、情報処理装置4は、実際に計測したロボット及び周辺機器、作業環境の3次元形状情報を用いてロボットアームや周辺機器の動作を重畳画像で生成する。そして、情報処理装置4は、もう一方のロボットアームを実際に動作させた様子を撮影した画像に前記重畳画像を重畳する。このように処理することで、事前のシミュレーションでは再現できていなかったロボットや周辺機器、作業環境等の3次元形状をシミュレーション及び重畳画像に反映することができ、正確な干渉チェック等が行えるという効果があり、作業効率が向上する。   According to the configuration described above, the information processing apparatus 4 generates the operation of the robot arm and the peripheral device as a superimposed image using the actually measured three-dimensional shape information of the robot, the peripheral device, and the work environment. Then, the information processing device 4 superimposes the superimposed image on an image obtained by photographing the other robot arm actually operated. By processing in this way, three-dimensional shapes such as robots, peripheral devices, and work environments that could not be reproduced in advance simulation can be reflected in the simulation and superimposed images, and an accurate interference check can be performed. Work efficiency is improved.

<<実施形態5>>
<概要>
実際のロボットやその周辺機器、作業環境等の形状及びその動作が、ロボットの動作画像を生成するための3次元形状情報及び動作と異なる場合がある。そこで実施形態5では、情報処理装置は、ロボットやその周辺機器、作業環境等の3次元形状及び動作を計測し、計測した3次元形状情報及び動作に基づいてロボットの動作画像を生成する。このような構成とすることにより、実際のロボットや周辺機器、作業環境の3次元形状及び動作を反映した動作画像を観測しながら、正確性高く干渉確認を行うことができ、作業効率が向上する。
本実施形態における情報処理装置5のソフトウェア構成の一例を図13に示す。情報処理装置5は、実施形態4と同様のハードウェア構成を有する。ロボット制御部506は、第一のロボットアーム1003と第二のロボットアーム1004とを備えたロボットを制御する。データ保持部500、設定部501、画像取得部502、視点位置姿勢取得部503、重畳画像生成部504、出力部505は、実施形態4の対応する各部と同様である。情報処理装置5は、これらに加えて、形状・動作計測部510をソフトウェア構成として有する。以下では実施形態4との差を中心に説明する。
本実施形態における形状・動作計測部510は、不図示の計測装置を用いて、実際のロボットや、ケーブル、作業に用いる冶具等の周辺機器、作業環境の3次元形状情報及び動作情報を計測、取得する。本実施形態では計測装置として複数のRGBDカメラを例に説明を行う。複数のRGBDカメラの位置姿勢の関係は事前に校正し、既知としておく。複数のRGBDカメラは同期して、複数の視点からロボットや周辺機器、作業環境を計測する。
ロボット制御部506は、計測する際に、データ保持部500で保持する動作データに基づいて、ロボットや冶具等の周辺機器を制御して動作させる。情報処理装置5は、計測して得られたカラー画像及び距離画像から色つきの3次元点群を生成する。事前校正により各計測視点位置は既知であるので、情報処理装置5は、各3次元点群を統合した3次元点群を3次元形状情報として逐次取得する。これを一連の動作が終了するまで、逐次繰り返し、情報処理装置5は、時系列に並んだ3次元形状情報を、3次元形状情報及び動作情報として取得する。
<< Embodiment 5 >>
<Overview>
In some cases, the shape and operation of an actual robot, its peripheral devices, work environment, and the like are different from the three-dimensional shape information and operation for generating an operation image of the robot. Therefore, in the fifth embodiment, the information processing apparatus measures the three-dimensional shape and motion of the robot, its peripheral devices, work environment, and the like, and generates a robot motion image based on the measured three-dimensional shape information and motion. By adopting such a configuration, it is possible to perform interference confirmation with high accuracy while observing an operation image reflecting the three-dimensional shape and operation of an actual robot, peripheral devices, and work environment, and work efficiency is improved. .
An example of the software configuration of the information processing apparatus 5 in this embodiment is shown in FIG. The information processing apparatus 5 has the same hardware configuration as that of the fourth embodiment. The robot control unit 506 controls a robot including the first robot arm 1003 and the second robot arm 1004. The data holding unit 500, setting unit 501, image acquisition unit 502, viewpoint position / orientation acquisition unit 503, superimposed image generation unit 504, and output unit 505 are the same as corresponding units in the fourth embodiment. In addition to these, the information processing apparatus 5 includes a shape / motion measuring unit 510 as a software configuration. Below, it demonstrates centering on the difference with Embodiment 4. FIG.
The shape / motion measuring unit 510 in the present embodiment uses an unillustrated measuring device to measure an actual robot, a cable, peripheral equipment such as a jig used for work, three-dimensional shape information and motion information of a work environment, get. In the present embodiment, a plurality of RGBD cameras will be described as an example of the measurement device. The relationship between the positions and orientations of a plurality of RGBD cameras is calibrated in advance and made known. The plurality of RGBD cameras measure the robot, peripheral devices, and work environment from a plurality of viewpoints in synchronization.
The robot control unit 506 controls and operates peripheral devices such as robots and jigs based on the operation data held by the data holding unit 500 when measuring. The information processing device 5 generates a colored three-dimensional point group from the color image and the distance image obtained by measurement. Since each measurement viewpoint position is known by pre-calibration, the information processing apparatus 5 sequentially acquires a three-dimensional point group obtained by integrating the three-dimensional point groups as three-dimensional shape information. This is sequentially repeated until a series of operations are completed, and the information processing apparatus 5 acquires the three-dimensional shape information arranged in time series as the three-dimensional shape information and the operation information.

<処理の流れ>
図13のフローチャートを用いて、情報処理装置5の情報処理の流れを説明する。
S5010及び、S5020〜S5080の処理は実施形態1のS1010及びS1020〜S1080の処理と同様である。
S5013では、設定部501は、ロボットの再生速度や再生位置等のパラメータを設定する。
S5015では、形状・動作計測部510は、実際のロボットや周辺機器、作業環境を計測した3次元形状情報を逐次、取得する。S5015の処理は、形状・動作取得の処理の一例である。
S5016では、ロボット制御部506は、S5010で取得した3次元形状情報、制御データ、S5013で設定されたパラメータに基づいて、ロボット及び作業に用いる冶具等の周辺機器を制御し、動作させる。
S5017では、形状・動作計測部510は、一連のロボット及び周辺機器の動作の再生が完了したか否かを判定する。形状・動作計測部510は、再生が完了していないと判定した場合、処理をS5015に戻し、干渉確認が完了したと判定した場合、処理をS5018に移す。
S5018では、形状・動作計測部510は、S5015で逐次取得した3次元形状情報を3次元動画に変換し、ロボットの動作データとして保持する。形状・動作計測部510は、ロボットの動作データとして保持した3次元動画を、データ保持部500に保存しても良い。
S5050では、重畳画像生成部504は、画像を作成する。即ち、重畳画像生成部504は、S5040で取得された視点位置、姿勢、S5010で取得された動作データ、S5018で取得された3次元動画、S5020で設定されたパラメータから、仮想表示する第二のロボットアーム1004が動作する画像を作成する。
<Process flow>
The flow of information processing of the information processing apparatus 5 will be described using the flowchart of FIG.
The processes of S5010 and S5020 to S5080 are the same as the processes of S1010 and S1020 to S1080 of the first embodiment.
In step S5013, the setting unit 501 sets parameters such as the playback speed and playback position of the robot.
In step S5015, the shape / motion measurement unit 510 sequentially acquires three-dimensional shape information obtained by measuring an actual robot, peripheral devices, and work environment. The processing of S5015 is an example of shape / motion acquisition processing.
In S5016, the robot control unit 506 controls and operates the robot and peripheral devices such as jigs used for work based on the three-dimensional shape information acquired in S5010, the control data, and the parameters set in S5013.
In step S5017, the shape / motion measurement unit 510 determines whether or not the reproduction of the motion of the series of robots and peripheral devices has been completed. If it is determined that the reproduction has not been completed, the shape / motion measuring unit 510 returns the process to S5015, and if it is determined that the interference check has been completed, the process proceeds to S5018.
In step S5018, the shape / motion measurement unit 510 converts the three-dimensional shape information sequentially acquired in step S5015 into a three-dimensional moving image, and holds it as robot motion data. The shape / motion measuring unit 510 may store a three-dimensional moving image held as robot motion data in the data holding unit 500.
In S5050, the superimposed image generation unit 504 creates an image. In other words, the superimposed image generation unit 504 virtually displays the second position for virtual display from the viewpoint position and orientation acquired in S5040, the motion data acquired in S5010, the three-dimensional video acquired in S5018, and the parameters set in S5020. An image in which the robot arm 1004 operates is created.

<バリエーション>
形状・動作計測部510は、実際のロボットやその周辺機器、作業環境等の3次元形状情報及び動作が取得できれば良い。形状・動作計測部510は、RGBDカメラやToFセンサ、ステレオカメラを用いて3次元形状を計測しても良い。また、形状・動作計測部510は、複数の計測装置を利用して、複数視点で計測した3次元形状情報を組み合わせて利用しても良い。複数の計測装置は予めその撮影位置姿勢を校正しておいても良い。3次元形状情報は3次元点群であっても良いし、サーフェル(Surfel: Surface Element)の集合やメッシュモデル、CADモデルであっても良い。テクスチャ情報を含んでいても良い。また、計測した3次元形状情報とデータ保持部で保持する3次元形状情報とを組み合わせて利用しても良い。動作データは前記3次元形状情報を時系列的に並べた3次元動画であっても良い。形状・動作計測部510で取得した時系列に並べた3次元形状情報を、データ保持部で保持する3次元形状情報(例えばロボットの3次元形状モデルと関節情報)に当てはめ、ロボットの制御データに変換しても良い。そして、重畳画像生成部504は、形状・動作計測部510で取得した3次元形状情報と変換した制御データとに基づいて、仮想表示する第二のロボットアーム1004が動作する画像を作成しても良い。
ロボット制御部506は、データ保持部500で保持するロボットの制御データと設定部501で設定されたパラメータとに基づいて、ロボット及び周辺機器を制御し、動作させる。ロボット及び周辺機器の再生速度は、設定部501で変更しても良い。またロボット及び周辺機器が動作するにあたり、形状・動作計測部510で計測した作業環境に接触する可能性がある場合は、作業環境との接触を回避するように、例えば、ロボット制御部406は、ロボット及び周辺機器の動作データを変更しても良い。そして、その変更した動作を形状・動作計測部510で計測すれば良い。
本実施形態は実施形態1と同じ構成の場合について説明したが、実施形態2や3と組み合わせても良い。より具体的にはデータ保持部で保持する3次元形状情報の代わりに、形状・動作計測部510で計測した3次元形状情報及び動作を利用して、実施形態2や3を実施すれば良い。
<Variation>
The shape / motion measurement unit 510 only needs to acquire three-dimensional shape information and motion such as an actual robot, its peripheral devices, and a work environment. The shape / motion measuring unit 510 may measure a three-dimensional shape using an RGBD camera, a ToF sensor, or a stereo camera. In addition, the shape / motion measurement unit 510 may use a plurality of measurement devices in combination with three-dimensional shape information measured from a plurality of viewpoints. A plurality of measuring devices may calibrate their shooting positions and orientations in advance. The three-dimensional shape information may be a three-dimensional point group, a set of surfels (Surfell: Surface Element), a mesh model, or a CAD model. Texture information may be included. Further, the measured three-dimensional shape information and the three-dimensional shape information held in the data holding unit may be used in combination. The motion data may be a three-dimensional moving image in which the three-dimensional shape information is arranged in time series. The three-dimensional shape information arranged in time series acquired by the shape / motion measuring unit 510 is applied to the three-dimensional shape information (for example, the three-dimensional shape model and joint information of the robot) held by the data holding unit, and is used as the robot control data. It may be converted. Then, the superimposed image generation unit 504 generates an image in which the second robot arm 1004 to be virtually displayed operates based on the three-dimensional shape information acquired by the shape / motion measurement unit 510 and the converted control data. good.
The robot control unit 506 controls and operates the robot and peripheral devices based on the robot control data held by the data holding unit 500 and the parameters set by the setting unit 501. The playback speed of the robot and peripheral devices may be changed by the setting unit 501. Further, when the robot and peripheral devices operate, if there is a possibility of contact with the work environment measured by the shape / motion measurement unit 510, for example, the robot control unit 406 may be configured to avoid contact with the work environment. The operation data of the robot and peripheral devices may be changed. Then, the changed motion may be measured by the shape / motion measuring unit 510.
Although the present embodiment has been described with respect to the same configuration as the first embodiment, it may be combined with the second and third embodiments. More specifically, Embodiments 2 and 3 may be implemented using 3D shape information and operations measured by the shape / motion measuring unit 510 instead of 3D shape information held by the data holding unit.

以上述べた構成によれば、情報処理装置5は、実際に計測したロボット及び周辺機器、作業環境の3次元形状情報及び動作情報を用いてロボットアームや周辺機器の動作を重畳画像で生成する。そして、情報処理装置5は、もう一方のロボットアームを実際に動作させた様子を撮影した画像に前記重畳画像を重畳する。このように処理することで、事前のシミュレーションでは再現できていなかったロボットや周辺機器、作業環境等の3次元形状及び動作をシミュレーション及び重畳画像に反映することができ、正確な干渉チェック等が行えるという効果があり、作業効率が向上する。   According to the configuration described above, the information processing apparatus 5 generates the operation of the robot arm and the peripheral device as a superimposed image using the actually measured robot and the peripheral device, and the three-dimensional shape information and the operation information of the work environment. Then, the information processing apparatus 5 superimposes the superimposed image on an image obtained by photographing the other robot arm actually operated. By processing in this way, it is possible to reflect the three-dimensional shape and operation of the robot, peripheral devices, work environment, etc. that could not be reproduced in the previous simulation in the simulation and superimposed image, and to perform accurate interference check, etc. This has the effect of improving work efficiency.

<<その他の実施形態>>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給する。そして、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<< Other Embodiments >>
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium. It can also be realized by a process in which one or more processors in the computer of the system or apparatus read and execute the program. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではない。   As mentioned above, although preferable embodiment of this invention was explained in full detail, this invention is not limited to the specific embodiment which concerns.

以上、上述した各実施形態によれば、ロボットを教示する際にロボットが衝突する可能性を軽減し、教示作業の効率を向上させることができる。   As mentioned above, according to each embodiment mentioned above, when teaching a robot, possibility that a robot will collide can be reduced and the efficiency of teaching work can be improved.

11 CPU、12 ROM、13 RAM、17 HDD 11 CPU, 12 ROM, 13 RAM, 17 HDD

Claims (13)

第一のロボットの動作を制御する制御手段と、
観察者の視点位置及び姿勢を取得する取得手段と、
前記観察者の視点位置及び姿勢と表示装置の内部パラメータとに基づいて前記第一のロボットを含む前記観察者の視野を特定し、前記第一のロボットと干渉する可能性がある第二のロボットの動作データに基づいて前記特定された視野に表示する前記第二のロボットの動作画像を生成する生成手段と、
前記動作画像を前記表示装置に出力する出力手段と、
を有する情報処理装置。
Control means for controlling the operation of the first robot;
Acquisition means for acquiring the viewpoint position and orientation of the observer;
A second robot that identifies the visual field of the observer including the first robot based on the viewpoint position and orientation of the observer and an internal parameter of the display device, and may interfere with the first robot Generating means for generating an operation image of the second robot to be displayed in the specified visual field based on the operation data of
Output means for outputting the operation image to the display device;
An information processing apparatus.
前記第二のロボット及び周辺機器の3次元形状情報を取得する形状情報取得手段を更に有し、
前記生成手段は、前記第二のロボットの動作データと前記3次元形状情報とに基づいて前記第二のロボットの動作画像を生成する請求項1記載の情報処理装置。
Further comprising shape information acquisition means for acquiring three-dimensional shape information of the second robot and peripheral devices;
The information processing apparatus according to claim 1, wherein the generation unit generates an operation image of the second robot based on the operation data of the second robot and the three-dimensional shape information.
前記第二のロボット及び周辺機器の3次元形状情報及び動作情報を取得する形状・動作取得手段を更に有し、
前記生成手段は、前記3次元形状情報及び動作情報に基づいて前記第二のロボットの動作画像を生成する請求項1記載の情報処理装置。
It further has a shape / motion acquisition means for acquiring three-dimensional shape information and motion information of the second robot and peripheral devices,
The information processing apparatus according to claim 1, wherein the generation unit generates an operation image of the second robot based on the three-dimensional shape information and operation information.
前記生成手段は、前記特定された視野の前記第二のロボットの配置されるべき位置に表示する前記第二のロボットの動作画像を生成する請求項1乃至3何れか1項記載の情報処理装置。   4. The information processing apparatus according to claim 1, wherein the generation unit generates an operation image of the second robot to be displayed at a position where the second robot is to be arranged in the identified visual field. . 前記生成手段は、前記制御手段による前記第一のロボットの動作の制御に同期させて前記第二のロボットの動作画像を生成する請求項1乃至4何れか1項記載の情報処理装置。   5. The information processing apparatus according to claim 1, wherein the generation unit generates an operation image of the second robot in synchronization with control of the operation of the first robot by the control unit. 前記観察者の視点位置及び姿勢からの撮像画像を取得する画像取得手段を更に有し、
前記生成手段は、前記撮像画像と前記第二のロボットの動作画像とを重畳した重畳画像を生成する請求項1乃至5何れか1項記載の情報処理装置。
Further comprising image acquisition means for acquiring a captured image from the viewpoint position and orientation of the observer;
The information processing apparatus according to claim 1, wherein the generation unit generates a superimposed image obtained by superimposing the captured image and an operation image of the second robot.
前記制御手段は、制御データに基づき前記第一のロボットの動作を制御し、
前記制御データを修正する修正手段を更に有する請求項1乃至6何れか1項記載の情報処理装置。
The control means controls the operation of the first robot based on control data,
The information processing apparatus according to claim 1, further comprising a correction unit that corrects the control data.
前記第二のロボットの実際の動きのデータを入力する動作入力手段を更に有し、
前記生成手段は、前記入力されたデータを前記第二のロボットの動作データとして前記第二のロボットの動作画像を生成する請求項1乃至7何れか1項記載の情報処理装置。
It further has an operation input means for inputting data of actual movement of the second robot,
The information processing apparatus according to claim 1, wherein the generation unit generates an operation image of the second robot using the input data as operation data of the second robot.
前記第一のロボットの動作シミュレーションと前記第二のロボットの動作シミュレーションとを行い、前記第一のロボットと前記第二のロボットとが設定された閾値以下の距離になる箇所があるか否かを判定する干渉判定手段を更に有する請求項1乃至8何れか1項記載の情報処理装置。   The first robot operation simulation and the second robot operation simulation are performed, and whether or not there is a location where the distance between the first robot and the second robot is equal to or less than a set threshold value. The information processing apparatus according to claim 1, further comprising interference determination means for determining. 前記生成手段は、前記干渉判定手段により前記箇所があると判定された場合、前記箇所を強調表示した前記第二のロボットの動作画像を生成する請求項9記載の情報処理装置。   The information processing apparatus according to claim 9, wherein when the interference determination unit determines that the location is present, the generation unit generates an operation image of the second robot in which the location is highlighted. 情報処理装置が実行する情報処理方法であって、
第一のロボットの動作を制御する制御ステップと、
観察者の視点位置及び姿勢を取得する取得ステップと、
前記観察者の視点位置及び姿勢と表示装置の内部パラメータとに基づいて前記第一のロボットを含む前記観察者の視野を特定し、前記第一のロボットと干渉する可能性がある第二のロボットの動作データに基づいて前記特定された視野に表示する前記第二のロボットの動作画像を生成する生成ステップと、
前記動作画像を前記表示装置に出力する出力ステップと、
を含む情報処理方法。
An information processing method executed by an information processing apparatus,
A control step for controlling the operation of the first robot;
An acquisition step of acquiring the viewpoint position and orientation of the observer;
A second robot that identifies the visual field of the observer including the first robot based on the viewpoint position and orientation of the observer and an internal parameter of the display device, and may interfere with the first robot Generating a motion image of the second robot to be displayed in the specified visual field based on the motion data of
An output step of outputting the operation image to the display device;
An information processing method including:
表示システムが実行する情報処理方法であって、
第一のロボットの動作を制御する制御ステップと、
観察者の視点位置及び姿勢を取得する取得ステップと、
前記観察者の視点位置及び姿勢と表示装置の内部パラメータとに基づいて前記第一のロボットを含む前記観察者の視野を特定し、前記第一のロボットと干渉する可能性がある第二のロボットの動作データに基づいて前記特定された視野に表示する前記第二のロボットの動作画像を生成する生成ステップと、
前記動作画像を前記表示装置に表示する表示ステップと、
を含む情報処理方法。
An information processing method executed by a display system,
A control step for controlling the operation of the first robot;
An acquisition step of acquiring the viewpoint position and orientation of the observer;
A second robot that identifies the visual field of the observer including the first robot based on the viewpoint position and orientation of the observer and an internal parameter of the display device, and may interfere with the first robot Generating a motion image of the second robot to be displayed in the specified visual field based on the motion data of
A display step of displaying the operation image on the display device;
An information processing method including:
コンピュータを、請求項1乃至10何れか1項記載の情報処理装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the information processing apparatus in any one of Claims 1 thru | or 10.
JP2015245326A 2015-04-03 2015-12-16 Information processing apparatus, information processing method, and program Active JP6723738B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/087,592 US10076840B2 (en) 2015-04-03 2016-03-31 Information processing apparatus, information processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015076869 2015-04-03
JP2015076869 2015-04-03

Publications (2)

Publication Number Publication Date
JP2016197393A true JP2016197393A (en) 2016-11-24
JP6723738B2 JP6723738B2 (en) 2020-07-15

Family

ID=57358187

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015245326A Active JP6723738B2 (en) 2015-04-03 2015-12-16 Information processing apparatus, information processing method, and program

Country Status (1)

Country Link
JP (1) JP6723738B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107498557A (en) * 2017-09-19 2017-12-22 坤同勃志智能科技(上海)有限公司 The control method and system of a kind of robot
WO2019026790A1 (en) * 2017-08-02 2019-02-07 川崎重工業株式会社 Robot system and method for operating same
WO2019239563A1 (en) * 2018-06-14 2019-12-19 ヤマハ発動機株式会社 Robot system
JP2020175453A (en) * 2019-04-15 2020-10-29 株式会社Ihi Remote control device
JP2020531964A (en) * 2018-06-20 2020-11-05 コーディング アンド プレイ インコーポレイテッド Coding education method using augmented reality
US10948724B2 (en) 2017-12-20 2021-03-16 Seiko Epson Corporation Transmissive display device, display control method, and computer program
WO2021220915A1 (en) * 2020-04-27 2021-11-04 ファナック株式会社 Display device for industrial machine
CN114502337A (en) * 2019-12-13 2022-05-13 川崎重工业株式会社 Robot system and method for forming three-dimensional model of workpiece
JP7067816B1 (en) 2020-11-26 2022-05-16 青▲島▼理工大学 Robot teaching system and method based on image segmentation and surface EMG
JP7195476B1 (en) 2021-09-24 2022-12-23 株式会社ダイヘン WORK PROGRAM CREATION SYSTEM AND WORK PROGRAM CREATION METHOD
US11667031B2 (en) 2019-05-31 2023-06-06 Seiko Epson Corporation Teaching method
JP7443014B2 (en) 2019-10-08 2024-03-05 大豊精機株式会社 robot arm testing equipment

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001310283A (en) * 2000-02-14 2001-11-06 Sony Corp Robot system, robot device, and control method thereof, and device and method of information processing
JP2004001217A (en) * 2002-05-30 2004-01-08 Kuka Roboter Gmbh Method and device for avoiding collision between robot and other object
US20040189631A1 (en) * 2003-02-11 2004-09-30 Arif Kazi Method and device for visualizing computer-generated informations
JP2005174021A (en) * 2003-12-11 2005-06-30 Canon Inc Method and device for presenting information
JP2006309459A (en) * 2005-04-27 2006-11-09 Canon Inc Image processing method and image processor
JP2010211736A (en) * 2009-03-12 2010-09-24 Hitachi-Ge Nuclear Energy Ltd Apparatus and method for supporting design and program
JP2014180707A (en) * 2013-03-18 2014-09-29 Yaskawa Electric Corp Robot device and method for manufacturing workpiece

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001310283A (en) * 2000-02-14 2001-11-06 Sony Corp Robot system, robot device, and control method thereof, and device and method of information processing
JP2004001217A (en) * 2002-05-30 2004-01-08 Kuka Roboter Gmbh Method and device for avoiding collision between robot and other object
US20040189631A1 (en) * 2003-02-11 2004-09-30 Arif Kazi Method and device for visualizing computer-generated informations
JP2005174021A (en) * 2003-12-11 2005-06-30 Canon Inc Method and device for presenting information
JP2006309459A (en) * 2005-04-27 2006-11-09 Canon Inc Image processing method and image processor
JP2010211736A (en) * 2009-03-12 2010-09-24 Hitachi-Ge Nuclear Energy Ltd Apparatus and method for supporting design and program
JP2014180707A (en) * 2013-03-18 2014-09-29 Yaskawa Electric Corp Robot device and method for manufacturing workpiece

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
白土 浩司: "複数台の産業ロボット間での干渉チェック方式開発", 日本ロボット学会第30回記念学術講演会DVD−ROM, vol. RSJ2012C4G3−6, JPN6019049425, 17 September 2012 (2012-09-17), JP, ISSN: 0004176074 *

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7071070B2 (en) 2017-08-02 2022-05-18 川崎重工業株式会社 Robot system and its operation method
WO2019026790A1 (en) * 2017-08-02 2019-02-07 川崎重工業株式会社 Robot system and method for operating same
JP2019025620A (en) * 2017-08-02 2019-02-21 川崎重工業株式会社 Robot system and method for operating the same
CN111093911A (en) * 2017-08-02 2020-05-01 川崎重工业株式会社 Robot system and method for operating the same
CN111093911B (en) * 2017-08-02 2024-02-09 川崎重工业株式会社 Robot system and method for operating the same
US11865697B2 (en) 2017-08-02 2024-01-09 Kawasaki Jukogyo Kabushiki Kaisha Robot system and method for operating same
CN107498557A (en) * 2017-09-19 2017-12-22 坤同勃志智能科技(上海)有限公司 The control method and system of a kind of robot
US10948724B2 (en) 2017-12-20 2021-03-16 Seiko Epson Corporation Transmissive display device, display control method, and computer program
WO2019239563A1 (en) * 2018-06-14 2019-12-19 ヤマハ発動機株式会社 Robot system
US11926057B2 (en) 2018-06-14 2024-03-12 Yamaha Hatsudoki Kabushiki Kaisha Robot system
JPWO2019239563A1 (en) * 2018-06-14 2021-03-11 ヤマハ発動機株式会社 Robot system
JP7143410B2 (en) 2018-06-14 2022-09-28 ヤマハ発動機株式会社 robot system
JP2020531964A (en) * 2018-06-20 2020-11-05 コーディング アンド プレイ インコーポレイテッド Coding education method using augmented reality
JP2020175453A (en) * 2019-04-15 2020-10-29 株式会社Ihi Remote control device
US11667031B2 (en) 2019-05-31 2023-06-06 Seiko Epson Corporation Teaching method
JP7443014B2 (en) 2019-10-08 2024-03-05 大豊精機株式会社 robot arm testing equipment
CN114502337B (en) * 2019-12-13 2024-01-09 川崎重工业株式会社 Robot system and method for forming three-dimensional model of workpiece
CN114502337A (en) * 2019-12-13 2022-05-13 川崎重工业株式会社 Robot system and method for forming three-dimensional model of workpiece
JP7381729B2 (en) 2020-04-27 2023-11-15 ファナック株式会社 Industrial machinery display device
WO2021220915A1 (en) * 2020-04-27 2021-11-04 ファナック株式会社 Display device for industrial machine
JP2022084501A (en) * 2020-11-26 2022-06-07 青▲島▼理工大学 Robot teaching system and method based on image segmentation and surface electromyography
JP7067816B1 (en) 2020-11-26 2022-05-16 青▲島▼理工大学 Robot teaching system and method based on image segmentation and surface EMG
JP7195476B1 (en) 2021-09-24 2022-12-23 株式会社ダイヘン WORK PROGRAM CREATION SYSTEM AND WORK PROGRAM CREATION METHOD
JP2023047280A (en) * 2021-09-24 2023-04-05 株式会社ダイヘン Work program production system and work program production method

Also Published As

Publication number Publication date
JP6723738B2 (en) 2020-07-15

Similar Documents

Publication Publication Date Title
JP6723738B2 (en) Information processing apparatus, information processing method, and program
US10076840B2 (en) Information processing apparatus, information processing method, and program
JP6810093B2 (en) Robot simulation device
US10052765B2 (en) Robot system having augmented reality-compatible display
US10751877B2 (en) Industrial robot training using mixed reality
EP3283938B1 (en) Gesture interface
CN109313502B (en) Tap event location using selection device
WO2019239848A1 (en) Robot control system
JP6863927B2 (en) Robot simulation device
JP2016205974A (en) Measuring system and user interface device
JP2016218534A (en) Image display system and image display method
CN210361314U (en) Robot teaching device based on augmented reality technology
US20190355281A1 (en) Learning support system and recording medium
JPH0976063A (en) Welding equipment
JP7129839B2 (en) TRAINING APPARATUS, TRAINING SYSTEM, TRAINING METHOD, AND PROGRAM
JPH06131442A (en) Three-dimensional virtual image modeling device
WO2021029256A1 (en) Information processing device, information processing method, and program
CN113597362A (en) Method and control device for determining a relation between a robot coordinate system and a movable device coordinate system
JP7443014B2 (en) robot arm testing equipment
WO2019059944A1 (en) Sensing movement of a hand-held controller
US20210256865A1 (en) Display system, server, display method, and device
JPWO2016151862A1 (en) Assembly teaching apparatus and assembly teaching method
JP7381718B2 (en) Offline simulation system
WO2022249295A1 (en) Robot simulation device
US20230214004A1 (en) Information processing apparatus, information processing method, and information processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200624

R151 Written notification of patent or utility model registration

Ref document number: 6723738

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151