JP2018008347A - Robot system and operation region display method - Google Patents

Robot system and operation region display method Download PDF

Info

Publication number
JP2018008347A
JP2018008347A JP2016138782A JP2016138782A JP2018008347A JP 2018008347 A JP2018008347 A JP 2018008347A JP 2016138782 A JP2016138782 A JP 2016138782A JP 2016138782 A JP2016138782 A JP 2016138782A JP 2018008347 A JP2018008347 A JP 2018008347A
Authority
JP
Japan
Prior art keywords
robot
program
augmented reality
reality space
shape data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016138782A
Other languages
Japanese (ja)
Inventor
間 拓 朗 風
Takuro Kazama
間 拓 朗 風
又 和 浩 勝
Kazuhiro Katsumata
又 和 浩 勝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shibaura Machine Co Ltd
Original Assignee
Toshiba Machine Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Machine Co Ltd filed Critical Toshiba Machine Co Ltd
Priority to JP2016138782A priority Critical patent/JP2018008347A/en
Publication of JP2018008347A publication Critical patent/JP2018008347A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a robot system capable of easily showing an operation region according to actual operation of a robot, and to provide an operation region display method.SOLUTION: A robot system includes: an imaging part which images a robot; a calculation part which acquires a parameter showing a three-dimensional operation region of the robot on the basis of a program controlling operation of the robot, creates three-dimensional shape data of the operation region of the robot using the parameter, superimposes an actual machine image of the robot on the shape data on the basis of an image of a marker for specifying a position of the robot, and generates an augmented reality space; and a display part which displays the augmented reality space.SELECTED DRAWING: Figure 1

Description

本発明による実施形態は、ロボットシステムおよび動作領域表示方法に関する。   Embodiments according to the present invention relate to a robot system and an operation area display method.

産業用ロボットの動作領域にユーザが不用意に進入した場合、ロボットがユーザに衝突する危険がある。しかし、従来、ロボットの実際の動作に従った動作領域をユーザに示すことは困難であった。   If the user inadvertently enters the operation area of the industrial robot, there is a risk that the robot will collide with the user. However, conventionally, it has been difficult to show the user an operation region according to the actual operation of the robot.

特開2014−180707号公報JP 2014-180707 A

ロボットの実際の動作に従った動作領域をユーザに容易に示すことができるロボットシステムおよび動作領域表示方法を提供する。   Provided are a robot system and an operation area display method capable of easily showing an operation area according to an actual operation of a robot to a user.

本実施形態によるロボットシステムは、ロボットを撮像する撮像部と、ロボットの動作を制御するプログラムに基づいて該ロボットの三次元的な動作領域を示すパラメータを取得し、該パラメータを用いてロボットの動作領域の三次元的な形状データを作成し、並びに、ロボットの位置を特定するためのマーカの画像に基づいてロボットの実機の画像と形状データとを重ね合わせて拡張現実空間を生成する演算部と、拡張現実空間を表示する表示部とを備える。   The robot system according to the present embodiment acquires a parameter indicating a three-dimensional motion region of the robot based on an imaging unit that images the robot and a program that controls the motion of the robot, and uses the parameters to operate the robot. A calculation unit that generates three-dimensional shape data of the region, and generates an augmented reality space by superimposing the actual robot image and the shape data based on the marker image for specifying the position of the robot; And a display unit for displaying the augmented reality space.

本実施形態によるロボットシステムの構成の一例を示すブロック図。1 is a block diagram showing an example of the configuration of a robot system according to an embodiment. ロボット1の外観の一例を示す図。FIG. 3 is a diagram illustrating an example of an appearance of a robot. ロボット1の構成の一例を示す図。1 is a diagram illustrating an example of a configuration of a robot. 本実施形態によるロボットシステム100の動作(動作領域表示方法)の一例を示すフロー図。The flowchart which shows an example of operation | movement (operation area | region display method) of the robot system 100 by this embodiment. シミュレータ41がロボット制御プログラムを模擬的に実行している様子を示す図。The figure which shows a mode that the simulator 41 is executing the robot control program in simulation. ロボット1の動作領域の三次元的な形状データRを示す概念図。FIG. 3 is a conceptual diagram showing three-dimensional shape data R of an operation area of the robot 1. 拡張現実空間を示す概念図。The conceptual diagram which shows augmented reality space. 変形例に従ったロボットシステムの構成の一例を示すブロック図。The block diagram which shows an example of a structure of the robot system according to a modification.

以下、図面を参照して本発明に係る実施形態を説明する。本実施形態は、本発明を限定するものではない。   Embodiments according to the present invention will be described below with reference to the drawings. This embodiment does not limit the present invention.

図1は、本実施形態によるロボットシステムの構成の一例を示すブロック図である。ロボットシステム100は、ロボット1と、端末2と、マーカ3とを備えている。ロボットシステム100は、ロボット1の動作を制御するプログラムを、三次元シミュレーションプログラムを用いて模擬的に実行し、ロボット1の動作領域の三次元的な形状データを作成する。ロボットシステム100は、その形状データをロボット1の実機の画像にその形状データを重ね合わせることによってロボット1の動作領域を拡張現実空間(AR(Augmented Reality))で示す。   FIG. 1 is a block diagram showing an example of the configuration of the robot system according to the present embodiment. The robot system 100 includes a robot 1, a terminal 2, and a marker 3. The robot system 100 simulates a program for controlling the operation of the robot 1 using a three-dimensional simulation program, and creates three-dimensional shape data of the operation region of the robot 1. The robot system 100 indicates the operation area of the robot 1 in augmented reality (AR) by superimposing the shape data on the image of the actual machine of the robot 1.

ロボット1は、例えば、垂直多関節ロボットや水平多関節ロボット、直動型ロボットのような同一動作を繰り返し実行する産業用ロボットであり、アーム構造体をなすリンク、関節、スライダー等を有する。しかし、ロボット1は、これに限定されず、任意のロボットでよい。図2は、ロボット1の外観の一例を示す図である。図3は、ロボット1の構成の一例を示す図である。ロボット1は、例えば、6自由度を有する多関節型ロボットである。ロボット1の一端側は、床面Fに対して固定され、他端側にはハンド2dが設けられている。ロボット1のハンド2dの先端Eの位置は、ロボット座標系Cを基準座標として示される。ロボット座標系Cは、ロボット1が配置された床面Fに対して垂直な方向をZ方向とし、床面Fに平行な方向をX方向とする。さらに、X方向及びZ方向に直交する方向(紙面に垂直な方向)をY方向とする。なお、ロボット座標系Cの原点は、例えば、床面Fに対してロボット1を固定した点とする。   The robot 1 is an industrial robot that repeatedly executes the same operation, such as a vertical articulated robot, a horizontal articulated robot, and a linear motion robot, and includes a link, a joint, a slider, and the like that form an arm structure. However, the robot 1 is not limited to this, and may be an arbitrary robot. FIG. 2 is a diagram illustrating an example of the appearance of the robot 1. FIG. 3 is a diagram illustrating an example of the configuration of the robot 1. The robot 1 is, for example, an articulated robot having 6 degrees of freedom. One end side of the robot 1 is fixed to the floor surface F, and a hand 2d is provided on the other end side. The position of the tip E of the hand 2d of the robot 1 is indicated with the robot coordinate system C as reference coordinates. In the robot coordinate system C, a direction perpendicular to the floor surface F on which the robot 1 is arranged is a Z direction, and a direction parallel to the floor surface F is an X direction. Further, a direction perpendicular to the X direction and the Z direction (a direction perpendicular to the paper surface) is defined as a Y direction. The origin of the robot coordinate system C is, for example, a point where the robot 1 is fixed with respect to the floor surface F.

ロボット1は、図3に示すように、アーム構造体をなすリンクK1〜K7を複数有している。リンクK1は、ロボット1が設置された床面Fに対して固定されている。リンクK2は、床面Fに対して略垂直な回転軸A1(関節J1)まわりに回転可能にリンクK1に連結されている。リンクK3は、回転軸A1に対して略垂直な回転軸A2(関節J2)まわりに回転可能にリンクK2に連結されている。リンクK4は、回転軸A2に対して略平行な回転軸A3(関節J3)まわりに回転可能にリンクK3に連結されている。リンクK5は、回転軸A3に対して略垂直な回転軸A4(関節J4)まわりに回転可能にリンクK4に連結されている。リンクK6は、回転軸A4に対して略垂直な回転軸A5(関節J5)まわりに回転可能にリンクK5に連結されている。リンクK7は、回転軸A5に対して略垂直な回転軸A6(関節J6)まわりに回転可能にリンクK6に連結されている。尚、略平行および略垂直は、厳密な平行および垂直だけでなく、平行および垂直から若干ずれている場合も含む広い意味である。   As shown in FIG. 3, the robot 1 has a plurality of links K <b> 1 to K <b> 7 that form an arm structure. The link K1 is fixed to the floor surface F on which the robot 1 is installed. The link K2 is connected to the link K1 so as to be rotatable around a rotation axis A1 (joint J1) substantially perpendicular to the floor surface F. The link K3 is connected to the link K2 so as to be rotatable around a rotation axis A2 (joint J2) substantially perpendicular to the rotation axis A1. The link K4 is connected to the link K3 so as to be rotatable around a rotation axis A3 (joint J3) substantially parallel to the rotation axis A2. The link K5 is connected to the link K4 so as to be rotatable around a rotation axis A4 (joint J4) substantially perpendicular to the rotation axis A3. The link K6 is connected to the link K5 so as to be rotatable around a rotation axis A5 (joint J5) substantially perpendicular to the rotation axis A4. The link K7 is connected to the link K6 so as to be rotatable about a rotation axis A6 (joint J6) substantially perpendicular to the rotation axis A5. Note that “substantially parallel” and “substantially perpendicular” have a broad meaning including not only strict parallel and vertical but also a slight deviation from parallel and vertical.

各回転軸A1〜A6(関節J1〜J6)にはそれぞれサーボモータが設けられており、各サーボモータは、それぞれの回転位置を検出する角度センサT1〜T6を有している。各サーボモータは、ロボット1のコントローラ(図示せず)に接続されており、コントローラの制御指令に基づいて動作する。コントローラは、ロボット1の動作を制御するプログラム(以下、ロボット制御プログラム)を実行することによって、各サーボモータを制御する。これにより、各回転軸A1〜A6(関節J1〜J6)が所望の角度に制御され、ハンド2dを所望の位置および所望の角度に移動させることができる。このように、ロボット制御プログラムは、ロボット1を実際に動作させるために用いられる。   Servo motors are provided on the respective rotation axes A1 to A6 (joints J1 to J6), and each servo motor has angle sensors T1 to T6 for detecting the respective rotation positions. Each servo motor is connected to a controller (not shown) of the robot 1 and operates based on a control command of the controller. The controller controls each servo motor by executing a program for controlling the operation of the robot 1 (hereinafter referred to as a robot control program). Thereby, each rotating shaft A1-A6 (joint J1-J6) is controlled to a desired angle, and the hand 2d can be moved to a desired position and a desired angle. Thus, the robot control program is used for actually operating the robot 1.

図1を再度参照し、端末2について説明する。端末2は、入力部10と、記憶部20と、撮像部30と、演算部40と、表示部50とを備えている。端末2は、例えば、タブレット端末、スマートフォン、パーソナルコンピュータ等でよい。端末2は、ロボット1のとは別個の装置として構成してもよく、あるいは、ロボット1内に組み込んでもよい。   The terminal 2 will be described with reference to FIG. 1 again. The terminal 2 includes an input unit 10, a storage unit 20, an imaging unit 30, a calculation unit 40, and a display unit 50. The terminal 2 may be, for example, a tablet terminal, a smartphone, a personal computer, or the like. The terminal 2 may be configured as a device separate from the robot 1 or may be incorporated in the robot 1.

入力部10は、ロボット1等の外部装置と通信接続可能なインタフェース(例えば、USB(Universal Serial Bus)端子等)、および/あるいは、ユーザ4がデータを入力可能なユーザインタフェース(例えば、タッチパネル、キーボード、マウス等)でよい。尚、入力部10は、表示部50とともにタッチパネル式ディスプレイとして構成されてもよい。入力部10は、ロボット1または図示しない外部装置からロボット制御プログラムを受け取り、このロボット制御プログラムを記憶部20へ格納する。   The input unit 10 includes an interface (for example, a USB (Universal Serial Bus) terminal) that can be connected to an external device such as the robot 1 and / or a user interface (for example, a touch panel, a keyboard) that allows the user 4 to input data. , Mouse, etc.). The input unit 10 may be configured as a touch panel display together with the display unit 50. The input unit 10 receives a robot control program from the robot 1 or an external device (not shown), and stores the robot control program in the storage unit 20.

記憶部20は、例えば、メインメモリとして機能するRAM(Random Access Memory)またはROM(Read Only Memory)、および、ストレージとして機能するHDD(Hard Disk Drive)またはSSD(Solid State Drive)を備えてもよい。記憶部20は、端末2を動作させる各種プログラムやデータを格納するとともに、入力部10から受け取ったロボット制御プログラム、後述する三次元シミュレーションプログラムおよび三次元CAD(Computer-Aided Design)プログラムも格納することができる。   The storage unit 20 may include, for example, a RAM (Random Access Memory) or ROM (Read Only Memory) that functions as a main memory, and an HDD (Hard Disk Drive) or SSD (Solid State Drive) that functions as a storage. . The storage unit 20 stores various programs and data for operating the terminal 2, and also stores a robot control program received from the input unit 10, a three-dimensional simulation program and a three-dimensional CAD (Computer-Aided Design) program to be described later. Can do.

撮像部30は、ロボット1やマーカ3の画像データを取得する機能と、記憶部20や演算部40に画像データを出力する機能とを有するカメラでよい。撮像部30は、カメラに付随する方位磁石やジャイロセンサ等を有し、カメラの傾斜等を検出することができる。   The imaging unit 30 may be a camera having a function of acquiring image data of the robot 1 or the marker 3 and a function of outputting image data to the storage unit 20 or the calculation unit 40. The imaging unit 30 includes an azimuth magnet and a gyro sensor associated with the camera, and can detect the tilt of the camera.

演算部40は、シミュレータ41と、動作領域生成部42と、拡張現実空間生成部43とを備えている。演算部40は、例えば、1つまたは複数のCPU(Central Processor Unit)および/またはロジックLSI(Large Scale Integration)等で構成してよい。   The calculation unit 40 includes a simulator 41, an operation area generation unit 42, and an augmented reality space generation unit 43. The computing unit 40 may be constituted by, for example, one or a plurality of CPUs (Central Processor Units) and / or a logic LSI (Large Scale Integration).

シミュレータ41は、記憶部20からロボット制御プログラムを受け取り、該ロボット制御プログラムを模擬的に実行する。シミュレータ41は、例えば、三次元シミュレーションプログラムを実行し、該三次元シミュレーションプログラム上においてロボット制御プログラムを少なくとも1サイクル実行する。三次元シミュレーションプログラムは、ロボット1の実機を実際に動作させることなく、ロボット制御プログラムに基づいて該ロボット1の動作をシミュレートすることができる。このとき、シミュレータ41は、ロボット制御プログラムを実行することによってロボット1の三次元的な動作領域を示すパラメータを周期的に取得する。三次元シミュレーションプログラムは市販されているものでよい。例えば、三次元シミュレーションプログラムは、例えば、東芝機械株式会社製のロボットプログラム作成支援ツール「TSAssist(登録商標)」等でよい。   The simulator 41 receives the robot control program from the storage unit 20 and executes the robot control program in a simulated manner. For example, the simulator 41 executes a three-dimensional simulation program and executes at least one cycle of the robot control program on the three-dimensional simulation program. The three-dimensional simulation program can simulate the operation of the robot 1 based on the robot control program without actually operating the actual machine of the robot 1. At this time, the simulator 41 periodically acquires a parameter indicating a three-dimensional motion region of the robot 1 by executing the robot control program. The three-dimensional simulation program may be a commercially available one. For example, the 3D simulation program may be, for example, a robot program creation support tool “TSAssist (registered trademark)” manufactured by Toshiba Machine Co., Ltd.

ロボット1の三次元的な動作領域を示すパラメータとしては、ロボット1の少なくとも一部分の位置を示す座標情報、ロボット1を構成する複数のリンクK1〜K7の間の関節J1〜J6の角度情報、および、ロボット1の姿勢を示す姿勢情報の少なくとも1つの情報を示す。座標情報は、例えば、ハンド2dの先端Eの三次元的な位置を示す座標(x、y、z)でよい。勿論、座標情報は、他のリンクK1〜K7または関節J1〜J7の三次元的な位置を示す座標でもよい。関節J1〜J6の角度情報は、隣接する2つのリンク間の角度を示す。姿勢情報は、座標情報および角度情報だけでは、ロボット1の姿勢(K1〜K7の位置)が一意に決まらない場合に用いられる。例えば、ハンド2dの先端Eの位置および関節J1〜J6の角度が同一であっても、ロボット1の姿勢が左右で反転可能であることがある。この場合、ロボット1は2つの姿勢(左姿勢または右姿勢)を採り得る。このように、座標情報および角度情報だけではロボット1の姿勢が一意に決まらない場合に、姿勢情報(例えば、左姿勢または右姿勢)が用いられる。これらのパラメータにより、ロボット1の位置や姿勢が特定される。   The parameters indicating the three-dimensional motion region of the robot 1 include coordinate information indicating the position of at least a part of the robot 1, angle information of joints J1 to J6 between the links K1 to K7 constituting the robot 1, and The at least one piece of posture information indicating the posture of the robot 1 is shown. The coordinate information may be, for example, coordinates (x, y, z) indicating the three-dimensional position of the tip E of the hand 2d. Of course, the coordinate information may be coordinates indicating the three-dimensional positions of the other links K1 to K7 or the joints J1 to J7. The angle information of the joints J1 to J6 indicates the angle between two adjacent links. The posture information is used when the posture (positions K1 to K7) of the robot 1 is not uniquely determined only by the coordinate information and the angle information. For example, even if the position of the tip E of the hand 2d and the angles of the joints J1 to J6 are the same, the posture of the robot 1 can be reversed left and right. In this case, the robot 1 can take two postures (left posture or right posture). As described above, when the posture of the robot 1 is not uniquely determined only by the coordinate information and the angle information, the posture information (for example, the left posture or the right posture) is used. The position and posture of the robot 1 are specified by these parameters.

シミュレータ41がパラメータを取得する周期は、任意でよい。例えば、シミュレータ41は、ロボット制御プログラムを実行してから、0.1秒ごとにパラメータを取得してよい。シミュレータ41は、ロボット制御プログラムのシミュレーションによってサンプリングされたパラメータを動作領域生成部42へ送る。   The period in which the simulator 41 acquires parameters may be arbitrary. For example, the simulator 41 may acquire parameters every 0.1 seconds after executing the robot control program. The simulator 41 sends the parameters sampled by the simulation of the robot control program to the motion area generator 42.

動作領域生成部42は、上記シミュレータ41でサンプリングされたパラメータを用いてロボット1の動作領域の三次元的な形状データを作成する。ロボット1の動作領域は、シミュレータ41によるロボット制御プログラムを少なくとも1サイクル実行することによって上記パラメータで表現される。従って、動作領域生成部42は、これらのパラメータを時系列的にプロットすることによってロボット1の動作領域の三次元的な形状データを作成することができる。例えば、動作領域生成部42は、三次元CADプログラムを用いてパラメータを描画することによって形状データを作成する。三次元CADプログラムは、市販されているものでよい。例えば、三次元CADプログラムは、PTC Inc.社製の「Creo(PTC Inc.(米国マサチューセッツ州法人)が著作権等の知的財産権を保有するCADソフトウェア)(米国登録商標)」等でよい。この動作領域の形状データは、記憶部20へ格納されるとともに、拡張現実空間生成部43へ送られる。   The motion region generation unit 42 creates three-dimensional shape data of the motion region of the robot 1 using the parameters sampled by the simulator 41. The operation area of the robot 1 is expressed by the above parameters by executing at least one cycle of the robot control program by the simulator 41. Therefore, the motion region generation unit 42 can create three-dimensional shape data of the motion region of the robot 1 by plotting these parameters in time series. For example, the motion region generation unit 42 creates shape data by drawing parameters using a three-dimensional CAD program. The three-dimensional CAD program may be a commercially available one. For example, the three-dimensional CAD program is PTC Inc. “Creo (PTC Inc. (Corporation of Massachusetts, USA) has intellectual property rights such as copyright) (US registered trademark)” manufactured by the company may be used. The shape data of the motion area is stored in the storage unit 20 and sent to the augmented reality space generation unit 43.

拡張現実空間生成部43は、撮像部30からロボット1の実機の画像を取得し、かつ、動作領域生成部42からロボット1の動作領域の三次元的な形状データを取得する。拡張現実空間生成部43は、ロボット1の実機の画像と形状データとを重ね合わせて拡張現実空間を生成する。   The augmented reality space generation unit 43 acquires an image of the actual machine of the robot 1 from the imaging unit 30, and acquires three-dimensional shape data of the motion region of the robot 1 from the motion region generation unit 42. The augmented reality space generation unit 43 generates an augmented reality space by superimposing the actual image of the robot 1 and the shape data.

このとき、拡張現実空間生成部43は、撮像部30から取得されたマーカ3の画像に基づいて、端末2に対するロボット1の位置、距離、角度を特定する。例えば、マーカ3の形状、模様および大きさは、予め記憶部20に格納されている。拡張現実空間生成部43は、記憶部20に格納されたマーカ3の情報と、撮像部30で撮像された実際の画像におけるマーカ3の形状、模様および大きさとを比較して、端末2に対するロボット1の位置、距離、角度等を特定する。これにより、拡張現実空間生成部43は、ロボット1の実機の画像に、その動作領域を示す形状データを正確に重ね合わせることができる。拡張現実空間生成部43は、このように生成された拡張現実空間を記憶部20へ格納するとともに表示部50へ送る。   At this time, the augmented reality space generation unit 43 specifies the position, distance, and angle of the robot 1 with respect to the terminal 2 based on the image of the marker 3 acquired from the imaging unit 30. For example, the shape, pattern, and size of the marker 3 are stored in the storage unit 20 in advance. The augmented reality space generation unit 43 compares the information of the marker 3 stored in the storage unit 20 with the shape, pattern, and size of the marker 3 in the actual image captured by the imaging unit 30, and the robot for the terminal 2 1 position, distance, angle, etc. are specified. Thereby, the augmented reality space generation unit 43 can accurately superimpose the shape data indicating the operation area on the image of the actual machine of the robot 1. The augmented reality space generation unit 43 stores the augmented reality space thus generated in the storage unit 20 and sends it to the display unit 50.

表示部50は、拡張現実空間生成部43からの拡張現実空間を表示する。即ち、表示部50は、ロボット1の実機の画像に動作範囲を示す形状データを重ね合わせて表示する。このとき、表示部50は、形状データを半透明で表示し、ロボット1の実機の画像とともにロボット1の動作範囲が容易に分かるように表示する。   The display unit 50 displays the augmented reality space from the augmented reality space generation unit 43. That is, the display unit 50 superimposes and displays shape data indicating the operation range on the image of the actual machine of the robot 1. At this time, the display unit 50 displays the shape data in a translucent manner so that the operating range of the robot 1 can be easily understood together with the image of the actual machine of the robot 1.

図4は、本実施形態によるロボットシステム100の動作(動作領域表示方法)の一例を示すフロー図である。   FIG. 4 is a flowchart showing an example of the operation (operation area display method) of the robot system 100 according to the present embodiment.

まず、入力部10がロボット1または外部装置からロボット制御プログラムを受け取り、このロボット制御プログラムを記憶部20へ格納する(S10)。ロボット制御プログラムの他に、ロボット1の三次元画像を得るために、各リンクの三次元モデルの輪郭データ、関節数等のロボット1固有のパラメータも必要になる。ロボット1の固有パラメータは、予め記憶部20へ登録されていてもよく、ステップS10においてロボット制御プログラムとともに入力されてもよい。このとき、ロボット1自体はロボット制御プログラムに基づく動作を実行していなくてよい。   First, the input unit 10 receives a robot control program from the robot 1 or an external device, and stores this robot control program in the storage unit 20 (S10). In addition to the robot control program, in order to obtain a three-dimensional image of the robot 1, parameters unique to the robot 1 such as the contour data of the three-dimensional model of each link and the number of joints are also required. The unique parameters of the robot 1 may be registered in the storage unit 20 in advance, or may be input together with the robot control program in step S10. At this time, the robot 1 itself does not have to execute an operation based on the robot control program.

次に、シミュレータ41がロボット制御プログラムを模擬的に実行し、ロボット1の三次元的な動作領域を示すパラメータを周期的に取得する(S20)。例えば、図5は、シミュレータ41がロボット制御プログラムを模擬的に実行している様子を示す図である。シミュレーションによるロボット1の模擬的な動作は、図5に示すように表示部50に表示してもよい。尚、ロボット1の三次元画像は、上記固有パラメータを用いて作成することができる。   Next, the simulator 41 executes a robot control program in a simulated manner, and periodically acquires a parameter indicating a three-dimensional motion region of the robot 1 (S20). For example, FIG. 5 is a diagram illustrating a state in which the simulator 41 executes a robot control program in a simulated manner. The simulated operation of the robot 1 by simulation may be displayed on the display unit 50 as shown in FIG. Note that a three-dimensional image of the robot 1 can be created using the above-mentioned intrinsic parameters.

次に、動作領域生成部42がパラメータを用いてロボット1の動作領域の三次元的な形状データを作成する(S30)。例えば、図6は、ロボット1の動作領域の三次元的な形状データRを示す概念図である。形状データRも表示部50に表示してもよい。   Next, the motion region generation unit 42 creates three-dimensional shape data of the motion region of the robot 1 using parameters (S30). For example, FIG. 6 is a conceptual diagram showing three-dimensional shape data R of the operation area of the robot 1. The shape data R may also be displayed on the display unit 50.

次に、撮像部30がマーカ3の画像およびロボット1の実機の画像を取得する(S40)。このとき、撮像部30は、マーカ3およびロボット1の画像をリアルタイムで連続して撮像し、表示部50に表示させる。尚、マーカ3およびロボット1の画像は、記憶部20に格納する必要は無い。   Next, the imaging unit 30 acquires an image of the marker 3 and an image of the actual machine of the robot 1 (S40). At this time, the imaging unit 30 continuously captures the images of the marker 3 and the robot 1 in real time and causes the display unit 50 to display them. The images of the marker 3 and the robot 1 do not need to be stored in the storage unit 20.

次に、拡張現実空間生成部43がマーカ3の画像に基づいて、端末2に対するロボット1の位置、距離、角度を特定する(S50)。このとき、拡張現実空間生成部43は、撮像部30のカメラの傾斜等の情報も用いてよい。   Next, the augmented reality space generation unit 43 specifies the position, distance, and angle of the robot 1 with respect to the terminal 2 based on the image of the marker 3 (S50). At this time, the augmented reality space generation unit 43 may also use information such as the tilt of the camera of the imaging unit 30.

次に、拡張現実空間生成部43がロボット1の実機の画像と形状データとを重ね合わせて拡張現実空間を生成する(S60)。その後、表示部50が拡張現実空間を表示する(S70)。例えば、図7は、拡張現実空間を示す概念図である。このとき、端末2は、端末2に対するロボット1の実機の位置、距離、角度が分かっているので、ロボット1の画像Pに形状データRを重ね合わせることができる。これにより、ロボットシステム100は、ユーザに対してロボット1の実際の動作領域を拡張現実空間として示すことができる。   Next, the augmented reality space generation unit 43 generates an augmented reality space by superimposing the actual image of the robot 1 and the shape data (S60). Thereafter, the display unit 50 displays the augmented reality space (S70). For example, FIG. 7 is a conceptual diagram showing an augmented reality space. At this time, since the terminal 2 knows the actual position, distance, and angle of the robot 1 relative to the terminal 2, the shape data R can be superimposed on the image P of the robot 1. Thereby, the robot system 100 can show the actual operation area of the robot 1 to the user as an augmented reality space.

ロボットシステム100は、ロボット1の停止中にこの拡張現実空間を作成および表示してもよく、ロボット1の動作中において拡張現実空間を作成および表示してもよい。また、ロボットシステム100は、ステップS40においてロボット1の撮像中に、その撮像と並行して、パラメータの取得、形状データの作成、並びに、拡張現実空間の生成および表示(ステップS20、S30、S50〜S70)を実行してもよい。これにより、ユーザに拡張現実空間を提示するまでに要する時間を短縮し、ユーザの待機時間を短縮することができる。さらに、端末2は、ユーザが記憶部20に格納されたロボット制御プログラムを書き換えることを可能にし、更新後のロボット制御プログラムを用いてその場でステップS20〜S70を実行可能としてもよい。例えば、図8は、このような変形例に従ったロボットシステムの構成の一例を示すブロック図である。この場合、端末2は、ユーザが更新後のロボット制御プログラムを記憶部20に格納(上書き)したときに、拡張現実空間の再作成および再表示を実行させるボタン55を表示部50に表示させる。ユーザがこのボタン55をタッチ(押下)すると、端末2は、更新されたロボット制御プログラムを用いて新たな拡張現実空間の再作成し表示部50に再表示する。これにより、ユーザは、ロボット制御プログラムを変更しながらリアルタイムでロボット1の動作領域を確認することができる。   The robot system 100 may create and display this augmented reality space while the robot 1 is stopped, and may create and display the augmented reality space while the robot 1 is operating. In addition, during the imaging of the robot 1 in step S40, the robot system 100 obtains parameters, creates shape data, and generates and displays an augmented reality space (steps S20, S30, and S50). S70) may be executed. Thereby, the time required to present the augmented reality space to the user can be shortened, and the waiting time of the user can be shortened. Further, the terminal 2 may allow the user to rewrite the robot control program stored in the storage unit 20, and may execute steps S20 to S70 on the spot using the updated robot control program. For example, FIG. 8 is a block diagram showing an example of the configuration of a robot system according to such a modification. In this case, when the user stores (overwrites) the updated robot control program in the storage unit 20, the terminal 2 causes the display unit 50 to display a button 55 that causes the augmented reality space to be recreated and redisplayed. When the user touches (presses) the button 55, the terminal 2 recreates a new augmented reality space using the updated robot control program and redisplays it on the display unit 50. As a result, the user can check the operation area of the robot 1 in real time while changing the robot control program.

このように、本実施形態によるロボットシステム100は、ロボット制御プログラムをシミュレーションで模擬的に実行することによってロボット1の三次元的な動作領域の形状データを取得し、ロボット1の実機の画像と該形状データとを重ね合わせた拡張現実空間を作成する。これにより、ロボットシステム100は、ロボット1の実際の動作領域を拡張現実空間で表示することができる。   As described above, the robot system 100 according to the present embodiment acquires the shape data of the three-dimensional motion region of the robot 1 by executing the robot control program by simulation and simulates the image of the actual machine of the robot 1 and the image. Create an augmented reality space that overlays shape data. Thereby, the robot system 100 can display the actual motion region of the robot 1 in the augmented reality space.

もし、実際のロボット制御プログラムを用いずに、ロボット1の可動領域(ロボット1が動作可能な最大範囲)を拡張現実空間で表示した場合、実際にはロボット1が通過しないような領域についても可動領域として表示される。従って、ロボット1の可動領域を立ち入り禁止領域とした場合、ユーザが立ち入ってもロボット1に干渉せず問題とならないような領域まで立ち入り禁止領域として拡張現実空間で表示されてしまう。   If the movable region of robot 1 (the maximum range in which robot 1 can operate) is displayed in augmented reality space without using an actual robot control program, the region where robot 1 does not actually pass is also movable. Displayed as an area. Therefore, if the movable area of the robot 1 is set as a prohibited area, even an area where the user does not interfere with the robot 1 and does not cause a problem is displayed in the augmented reality space as a prohibited area.

これに対し、本実施形態によるロボットシステム100は、実際にロボット1を制御するロボット制御プログラムに基づいて動作領域の形状データを作成している。従って、動作領域の形状データは、実際のロボット1の動作領域に則しており、可動領域内であってもロボット1が通過しないような領域を含まない。よって、ロボットシステム100は、ロボット1の実際の動作領域に従った適切な範囲(必要最小限の範囲)の拡張現実空間(AR空間)を表示することができる。即ち、ロボット1の可動領域であっても、実際にはロボット1が通過しないような領域は、立ち入り禁止領域として表示しない。その結果、ロボットシステム100は、ロボット1の実際の動作に従った動作領域をユーザに容易に示すことができる。これにより、ユーザは、直感的にロボット1の実際の動作領域を認識することができる。   On the other hand, the robot system 100 according to the present embodiment creates motion area shape data based on a robot control program that actually controls the robot 1. Therefore, the shape data of the motion region is in accordance with the actual motion region of the robot 1 and does not include a region where the robot 1 does not pass even within the movable region. Therefore, the robot system 100 can display an augmented reality space (AR space) in an appropriate range (minimum required range) according to the actual operation area of the robot 1. That is, even if it is a movable area of the robot 1, an area where the robot 1 does not actually pass is not displayed as an entry prohibition area. As a result, the robot system 100 can easily indicate to the user an operation area according to the actual operation of the robot 1. As a result, the user can intuitively recognize the actual operation region of the robot 1.

本実施形態による動作領域表示方法の少なくとも一部は、ハードウェアで構成してもよいし、ソフトウェアで構成してもよい。ソフトウェアで構成する場合には、その方法の少なくとも一部の機能を実現するプログラムをフレキシブルディスクやCD−ROM等の記録媒体に収納し、コンピュータに読み込ませて実行させてもよい。記録媒体は、磁気ディスクや光ディスク等の着脱可能なものに限定されず、ハードディスク装置やメモリなどの固定型の記録媒体でもよい。また、動作領域表示方法の少なくとも一部の機能を実現するプログラムを、インターネット等の通信回線(無線通信も含む)を介して頒布してもよい。さらに、同プログラムを暗号化したり、変調をかけたり、圧縮した状態で、インターネット等の有線回線や無線回線を介して、あるいは記録媒体に収納して頒布してもよい。   At least a part of the operation region display method according to the present embodiment may be configured by hardware or software. When configured by software, a program for realizing at least a part of the functions of the method may be stored in a recording medium such as a flexible disk or a CD-ROM, and read and executed by a computer. The recording medium is not limited to a removable medium such as a magnetic disk or an optical disk, but may be a fixed recording medium such as a hard disk device or a memory. A program that realizes at least a part of the function of the operation area display method may be distributed via a communication line (including wireless communication) such as the Internet. Further, the program may be distributed in a state where the program is encrypted, modulated or compressed, and stored in a recording medium via a wired line such as the Internet or a wireless line.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.

100・・・ロボットシステム、1・・・ロボット、2・・・端末、3・・・マーカ、10・・・入力部、20・・・記憶部、30・・・撮像部、40・・・演算部、50・・・表示部 DESCRIPTION OF SYMBOLS 100 ... Robot system, 1 ... Robot, 2 ... Terminal, 3 ... Marker, 10 ... Input part, 20 ... Memory | storage part, 30 ... Imaging part, 40 ... Calculation unit, 50... Display unit

Claims (8)

ロボットを撮像する撮像部と、
前記ロボットの動作を制御するプログラムに基づいて該ロボットの三次元的な動作領域を示すパラメータを取得し、該パラメータを用いて前記ロボットの動作領域の三次元的な形状データを作成し、並びに、前記ロボットの位置を特定するためのマーカの画像に基づいて前記ロボットの実機の画像と前記形状データとを重ね合わせて拡張現実空間を生成する演算部と、
前記拡張現実空間を表示する表示部とを備えたロボットシステム。
An imaging unit for imaging the robot;
Acquiring a parameter indicating a three-dimensional motion region of the robot based on a program for controlling the motion of the robot, creating three-dimensional shape data of the motion region of the robot using the parameter; and An arithmetic unit that generates an augmented reality space by superimposing an image of the actual machine of the robot and the shape data based on an image of a marker for specifying the position of the robot;
A robot system comprising a display unit for displaying the augmented reality space.
前記パラメータは、前記ロボットの少なくとも一部分の位置を示す座標情報、前記ロボットを構成する複数のリンク間の関節の角度情報、および、前記ロボットの姿勢を示す姿勢情報の少なくとも1つの情報を示す、請求項1に記載のロボットシステム。   The parameter indicates at least one information of coordinate information indicating a position of at least a part of the robot, angle information of joints between a plurality of links constituting the robot, and posture information indicating a posture of the robot. Item 2. The robot system according to Item 1. 前記パラメータは、前記プログラムを模擬的に実行したときに周期的に取得される、請求項1または請求項2に記載のロボットシステム。   The robot system according to claim 1, wherein the parameter is periodically acquired when the program is simulated. 前記プログラムを格納する記憶部をさらに備え、
前記演算部は、前記記憶部内の前記プログラムが更新された場合に、前記更新後のプログラムを用いて新たな拡張現実空間を生成する、請求項1から請求項3のいずれか一項に記載のロボットシステム。
A storage unit for storing the program;
The said calculating part produces | generates a new augmented reality space using the said program after the update, when the said program in the said memory | storage part is updated. Robot system.
前記演算部は、前記パラメータの取得、前記形状データの作成、並びに、前記拡張現実空間の生成を、前記撮像部が前記ロボットを撮像しながら実行する、請求項1から請求項4のいずれか一項に記載のロボットシステム。   The said calculating part performs acquisition of the said parameter, creation of the said shape data, and the production | generation of the said augmented reality space, while the said imaging part images the said robot, The any one of Claims 1-4 The robot system according to item. 前記演算部は、三次元シミュレーションプログラムで前記プログラムを実行することによりパラメータを取得する、請求項1から請求項5のいずれか一項に記載のロボットシステム。   The robot system according to any one of claims 1 to 5, wherein the arithmetic unit acquires parameters by executing the program with a three-dimensional simulation program. 前記演算部は、前記パラメータを三次元CADプログラムで描画することによって前記形状データを作成する、請求項1から請求項6のいずれか一項に記載のロボットシステム。   The robot system according to any one of claims 1 to 6, wherein the arithmetic unit creates the shape data by drawing the parameters with a three-dimensional CAD program. ロボットの動作を制御するプログラムに基づいて該ロボットの三次元的な動作領域を示すパラメータを演算部で取得し、
前記パラメータを用いて前記ロボットの動作領域の三次元的な形状データを前記演算部で作成し、
前記ロボットの位置を特定するためのマーカの画像および前記ロボットの実機の画像を撮像部で撮像し、
前記マーカの画像に基づいて前記ロボットの実機の画像と前記形状データとを重ね合わせて拡張現実空間を前記演算部で生成し、
前記拡張現実空間を表示部に表示することを具備する、動作領域表示方法。
Based on a program for controlling the operation of the robot, a parameter indicating the three-dimensional operation region of the robot is acquired by the arithmetic unit,
Create the three-dimensional shape data of the movement area of the robot using the parameters in the calculation unit,
The image of the marker for specifying the position of the robot and the image of the actual machine of the robot are captured by the imaging unit,
Based on the image of the marker, the augmented reality space is generated by the arithmetic unit by superimposing the actual image of the robot and the shape data,
An operation region display method comprising: displaying the augmented reality space on a display unit.
JP2016138782A 2016-07-13 2016-07-13 Robot system and operation region display method Pending JP2018008347A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016138782A JP2018008347A (en) 2016-07-13 2016-07-13 Robot system and operation region display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016138782A JP2018008347A (en) 2016-07-13 2016-07-13 Robot system and operation region display method

Publications (1)

Publication Number Publication Date
JP2018008347A true JP2018008347A (en) 2018-01-18

Family

ID=60994857

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016138782A Pending JP2018008347A (en) 2016-07-13 2016-07-13 Robot system and operation region display method

Country Status (1)

Country Link
JP (1) JP2018008347A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019212041A (en) * 2018-06-05 2019-12-12 ファナック株式会社 Virtual object display system
JP2020019127A (en) * 2018-08-03 2020-02-06 ファナック株式会社 Cooperative operation support device
JP2020082274A (en) * 2018-11-26 2020-06-04 キヤノン株式会社 Image processing device, control method thereof, and program
KR20200101598A (en) * 2019-02-20 2020-08-28 한국기술교육대학교 산학협력단 Method of Confirming Motion of Robot Arm Using Augmented Reality
JP2020185631A (en) * 2019-05-13 2020-11-19 日立Geニュークリア・エナジー株式会社 Simulation device, and simulation program
JPWO2022030047A1 (en) * 2020-08-03 2022-02-10
WO2022131068A1 (en) * 2020-12-14 2022-06-23 ファナック株式会社 Augmented reality display device and augmented reality display system
WO2022227664A1 (en) * 2021-04-25 2022-11-03 达闼机器人股份有限公司 Robot posture control method, robot, storage medium and computer program
WO2023037456A1 (en) * 2021-09-08 2023-03-16 ファナック株式会社 Simulation device
JP7469020B2 (en) 2019-10-24 2024-04-16 ファナック株式会社 Robot Safety System

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004243516A (en) * 2003-02-11 2004-09-02 Kuka Roboter Gmbh Method for fading-in information created by computer into image of real environment, and device for visualizing information created by computer to image of real environment
WO2011080882A1 (en) * 2009-12-28 2011-07-07 パナソニック株式会社 Operating space presentation device, operating space presentation method, and program
JP2014180707A (en) * 2013-03-18 2014-09-29 Yaskawa Electric Corp Robot device and method for manufacturing workpiece
WO2015051815A1 (en) * 2013-10-07 2015-04-16 Abb Technology Ltd A method and a device for verifying one or more safety volumes for a movable mechanical unit
US20160016315A1 (en) * 2014-07-16 2016-01-21 Google Inc. Virtual safety cages for robotic devices
JP2016107379A (en) * 2014-12-08 2016-06-20 ファナック株式会社 Robot system including augmented reality corresponding display

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004243516A (en) * 2003-02-11 2004-09-02 Kuka Roboter Gmbh Method for fading-in information created by computer into image of real environment, and device for visualizing information created by computer to image of real environment
WO2011080882A1 (en) * 2009-12-28 2011-07-07 パナソニック株式会社 Operating space presentation device, operating space presentation method, and program
JP2014180707A (en) * 2013-03-18 2014-09-29 Yaskawa Electric Corp Robot device and method for manufacturing workpiece
WO2015051815A1 (en) * 2013-10-07 2015-04-16 Abb Technology Ltd A method and a device for verifying one or more safety volumes for a movable mechanical unit
US20160016315A1 (en) * 2014-07-16 2016-01-21 Google Inc. Virtual safety cages for robotic devices
JP2016107379A (en) * 2014-12-08 2016-06-20 ファナック株式会社 Robot system including augmented reality corresponding display

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019212041A (en) * 2018-06-05 2019-12-12 ファナック株式会社 Virtual object display system
US11199828B2 (en) 2018-06-05 2021-12-14 Fanuc Corporation Virtual object display system
US11458618B2 (en) 2018-08-03 2022-10-04 Fanuc Corporation Collaborative operation support device
JP2020019127A (en) * 2018-08-03 2020-02-06 ファナック株式会社 Cooperative operation support device
JP2020082274A (en) * 2018-11-26 2020-06-04 キヤノン株式会社 Image processing device, control method thereof, and program
JP7250489B2 (en) 2018-11-26 2023-04-03 キヤノン株式会社 Image processing device, its control method, and program
US11590657B2 (en) 2018-11-26 2023-02-28 Canon Kabushiki Kaisha Image processing device, control method thereof, and program storage medium
KR20200101598A (en) * 2019-02-20 2020-08-28 한국기술교육대학교 산학협력단 Method of Confirming Motion of Robot Arm Using Augmented Reality
KR102184935B1 (en) * 2019-02-20 2020-12-01 한국기술교육대학교 산학협력단 Method of Confirming Motion of Robot Arm Using Augmented Reality
JP2020185631A (en) * 2019-05-13 2020-11-19 日立Geニュークリア・エナジー株式会社 Simulation device, and simulation program
JP7223630B2 (en) 2019-05-13 2023-02-16 日立Geニュークリア・エナジー株式会社 Simulation device and simulation program
JP7469020B2 (en) 2019-10-24 2024-04-16 ファナック株式会社 Robot Safety System
JPWO2022030047A1 (en) * 2020-08-03 2022-02-10
WO2022131068A1 (en) * 2020-12-14 2022-06-23 ファナック株式会社 Augmented reality display device and augmented reality display system
WO2022227664A1 (en) * 2021-04-25 2022-11-03 达闼机器人股份有限公司 Robot posture control method, robot, storage medium and computer program
WO2023037456A1 (en) * 2021-09-08 2023-03-16 ファナック株式会社 Simulation device

Similar Documents

Publication Publication Date Title
JP2018008347A (en) Robot system and operation region display method
JP6069923B2 (en) Robot system, robot, robot controller
US9984178B2 (en) Robot simulator, robot teaching apparatus and robot teaching method
Pai et al. Augmented reality–based programming, planning and simulation of a robotic work cell
US20150151431A1 (en) Robot simulator, robot teaching device, and robot teaching method
JP2019519387A (en) Visualization of Augmented Reality Robot System
KR102645817B1 (en) Apparatus and method for managing behavior of robot
CN112313046A (en) Defining regions using augmented reality visualization and modification operations
US20180036883A1 (en) Simulation apparatus, robot control apparatus and robot
TW201606467A (en) Teaching data-generating device and teaching data-generating method for work robot
JP6469159B2 (en) Offline programming apparatus and method with work position detection program generation function by contact sensor
EP3118725A1 (en) Walk simulation system and method
JP2010042466A (en) Robot teaching system and method for displaying simulation result of operation of robot
WO2019239848A1 (en) Robot control system
JP2017134116A (en) Information processing apparatus, information processing method, and program
JP2016063394A (en) Projection image generation device, projection image generation method and projection image generation program
JP2015174184A (en) Controller
JP2020011357A (en) Control device, head mount display and robot system
JP2014186588A (en) Simulation apparatus, program, and image generating method
JP7249221B2 (en) SENSOR POSITION AND POSTURE CALIBRATION DEVICE AND SENSOR POSITION AND POSTURE CALIBRATION METHOD
JP2022163836A (en) Method for displaying robot image, computer program, and method for displaying robot image
JP2018132847A (en) Information processing apparatus, information processing method, and program
WO2022123850A1 (en) Control device, control method, and program
JP2020175471A (en) Information processing device, information processing method, program and recording medium
JP2007101229A (en) Method and system for 3-dimensional measurement and control method and device of manipulator

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200117

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200626