JP7282016B2 - robot system - Google Patents

robot system Download PDF

Info

Publication number
JP7282016B2
JP7282016B2 JP2019203927A JP2019203927A JP7282016B2 JP 7282016 B2 JP7282016 B2 JP 7282016B2 JP 2019203927 A JP2019203927 A JP 2019203927A JP 2019203927 A JP2019203927 A JP 2019203927A JP 7282016 B2 JP7282016 B2 JP 7282016B2
Authority
JP
Japan
Prior art keywords
robot
motion
data
unit
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019203927A
Other languages
Japanese (ja)
Other versions
JP2021074827A (en
Inventor
翔一 半田
俊晴 菅原
龍也 丸山
英光 納谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2019203927A priority Critical patent/JP7282016B2/en
Priority to PCT/JP2020/031518 priority patent/WO2021095316A1/en
Publication of JP2021074827A publication Critical patent/JP2021074827A/en
Application granted granted Critical
Publication of JP7282016B2 publication Critical patent/JP7282016B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)

Description

本発明は、ロボットシステムに関する。 The present invention relates to robot systems.

近年、労働人口減少が問題になっており、製造業における人手不足の解消、生産性の向上等が求められている。これらの解決手段の一つとして、人とロボットが協調して作業する協働ロボットシステムの活用が期待されている。そして、このシステムの作業効率の向上は、喫緊の課題として挙げられている。 In recent years, the decrease in the working population has become a problem, and there is a demand for resolving labor shortages and improving productivity in the manufacturing industry. As one of the means to solve these problems, utilization of a collaborative robot system in which humans and robots work in cooperation is expected. Improving the work efficiency of this system is an urgent issue.

特許文献1には、ロボットの動作に伴う危険の状況を適切に提示することを目的として、人の位置である人位置を取得する人位置取得部と、人位置取得部で取得された人位置に依存させて、人の視界範囲を決定する人視界範囲決定部と、動作計画に従って動作するロボットの少なくとも一部が視界範囲に含まれる特定時刻におけるロボットの位置、および、特定時刻におけるロボットの姿勢のうち少なくとも一方を含む位置姿勢を決定する位置姿勢決定部と、位置姿勢決定部で決定された位置姿勢を示すための画像データを生成する画像生成部とを備える、危険提示装置が記載されている。 Patent Document 1 discloses a human position acquisition unit that acquires a human position, which is the position of a person, and a human position acquisition unit that acquires the human position, for the purpose of appropriately presenting a situation of danger accompanying the motion of a robot. a human vision range determination unit that determines the human vision range depending on and an image generation unit configured to generate image data indicating the position and orientation determined by the position and orientation determination unit. there is

国際公開第2011/089885号WO2011/089885

協働ロボットは、一定距離以上作業者と近づくと緊急停止するように設定されていることが多い。よって、作業者が協働ロボットの動作を予測できずに接近することにより、緊急停止が頻発すると、作業効率が低下する。 Collaborative robots are often set to make an emergency stop when they get closer to a worker than a certain distance. Therefore, if the worker approaches the collaborative robot without predicting its movement, and frequent emergency stops occur, work efficiency will be reduced.

また、ロボットに設けた緊急停止機能が常に万全であるとは限らない。この場合は、作業者がロボットの行動を予測し衝突を回避する必要があるが、ロボットの動作を精度よく予測することは難しい。例えば、作業者の死角から移動ロボットが作業者に接近する場合には、作業者と移動ロボットとの出会い頭の衝突などが発生してしまうおそれがあった。 Moreover, the emergency stop function provided in the robot is not always perfect. In this case, it is necessary for the operator to predict the behavior of the robot to avoid collision, but it is difficult to predict the behavior of the robot with high accuracy. For example, when the mobile robot approaches the worker from the worker's blind spot, there is a risk that the worker and the mobile robot may collide when they meet each other.

特許文献1に記載の危険提示装置は、ロボットの動作に伴う危険の状況を人に提示するものであり、これによって作業効率や安全性の向上を図ることが可能である。しかしながら、特許文献1においては、危険の状況について人に提示するか否かを判定することは記載されていない。このため、実際に衝突などを回避する必要がない状況についても人に提示してしまう場合があり、提示された状況のうち作業者が実際に回避する必要がある危険に対する注意力が低下してしまうおそれがある。 The danger presentation device described in Patent Literature 1 presents a situation of danger associated with the motion of a robot to a person, thereby improving work efficiency and safety. However, Patent Literature 1 does not describe determining whether or not to present a dangerous situation to a person. For this reason, there are cases where workers are presented with situations that do not actually require avoidance, such as collisions. There is a risk that it will be lost.

そこで、本発明の目的は、作業者に必要な危険のみを抽出して提示し、ロボットの緊急停止回数を減少させ、作業効率の向上及び安全性の向上を図ることにある。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to extract and present only the hazards necessary for the worker, reduce the number of emergency stops of the robot, and improve work efficiency and safety.

本発明のロボットシステムは、ロボットと、センサと、制御装置と、画像表示装置と、を備え、制御装置は、ロボット制御部と、画像表示装置制御部と、を含み、ロボット制御部は、ロボットの動作を計画し動作データを作成する動作計画部を含み、動作データに基づきロボットを制御するものであり、画像表示装置制御部は、接近判定部と、画像生成部と、を含み、接近判定部は、人とロボットとの接近が生じるかどうかを判定するものであり、画像生成部は、動作データに基づき仮想的なオブジェクトのデータを生成し、センサから得られたデータとオブジェクトのデータとに基づき複合現実のデータを合成するものであり、画像表示装置は、複合現実のデータに基づき複合現実の画像を表示するものであり、接近判定部により接近が生じると判定された場合には、オブジェクトを画像表示装置に表示する。 A robot system according to the present invention includes a robot, a sensor, a control device, and an image display device. The control device includes a robot control section and an image display device control section. and a motion planning unit that plans the motion of the robot and creates motion data, and controls the robot based on the motion data. The image display device control unit includes an approach determination unit and an image generation unit, The image generating unit determines whether or not the human and the robot will come close to each other. The image display device displays a mixed reality image based on the mixed reality data, and when the approach determination unit determines that an approach will occur, Display the object on the image display device.

本発明によれば、作業者に必要な危険のみを抽出して提示し、ロボットの緊急停止回数を減少させ、作業効率の向上及び安全性の向上を図ることができる。 According to the present invention, it is possible to extract and present only the hazards necessary for the worker, reduce the number of emergency stops of the robot, and improve work efficiency and safety.

実施例1のロボットシステムの概要を示す全体構成図である。1 is an overall configuration diagram showing an outline of a robot system of Example 1; FIG. 実施例1のロボットシステムの機能を示すブロック図である。2 is a block diagram showing functions of the robot system of Example 1. FIG. 実施例1の接近判定部の機能を示すブロック図である。4 is a block diagram showing functions of an approach determination unit according to the first embodiment; FIG. 実施例1の画像生成部の機能を示すブロック図である。3 is a block diagram showing functions of an image generation unit of Example 1. FIG. 実施例1におけるロボットの動作計画から実行までの工程を示すフローチャートである。4 is a flow chart showing the steps from planning to execution of the motion of the robot in Example 1. FIG. 実施例1における接近判定から三次元オブジェクトの表示までの工程を示すフローチャートである。4 is a flow chart showing steps from approach determination to display of a three-dimensional object in Example 1. FIG. 実施例1における接近判定処理の工程を示すフローチャートである。5 is a flow chart showing steps of approach determination processing in the first embodiment. 実施例1における三次元オブジェクト生成処理の工程を示すフローチャートである。4 is a flow chart showing the steps of a three-dimensional object generation process in Example 1. FIG. 実施例1における三次元オブジェクト表示及びロボット動作実行のタイミングを示すタイムチャートである。4 is a time chart showing the timing of displaying a three-dimensional object and executing a robot motion in Example 1; 実施例2のロボットシステムの機能を示すブロック図である。FIG. 11 is a block diagram showing the functions of the robot system of Example 2; 実施例2の接近判定部の機能を示すブロック図である。FIG. 11 is a block diagram showing functions of an approach determination unit of Example 2; 実施例2における接近判定処理の工程を示すフローチャートである。10 is a flow chart showing steps of approach determination processing in the second embodiment. 実施例3の画像生成部の機能を示すブロック図である。FIG. 11 is a block diagram showing functions of an image generation unit of Example 3; 実施例3における三次元オブジェクト生成処理の工程を示すフローチャートである。FIG. 11 is a flow chart showing steps of a three-dimensional object generation process according to the third embodiment; FIG. 実施例4のロボットシステムの機能を示すブロック図である。FIG. 12 is a block diagram showing the functions of the robot system of Example 4; 実施例4におけるロボットシステムの動作計画から実行までの工程を示すフローチャートである。FIG. 12 is a flow chart showing processes from operation planning to execution of the robot system in Example 4. FIG. 実施例4における三次元オブジェクト表示及びロボット動作実行のタイミングを示すタイムチャートである。FIG. 11 is a time chart showing the timing of displaying a three-dimensional object and executing a robot action in Example 4; FIG. 作業者が複数のロボットの間を移動する状況を示す模式構成図である。FIG. 3 is a schematic configuration diagram showing a situation in which an operator moves between a plurality of robots;

以下、本発明の実施例について、図面を参照して説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、実施例1のロボットシステム100の全体構成を示したものである。 FIG. 1 shows the overall configuration of a robot system 100 of Example 1. As shown in FIG.

本図に示すように、ロボットシステム100は、制御装置101と、ロボット102と、センサ103と、画像表示装置104と、を含む。 As shown in this figure, the robot system 100 includes a control device 101 , a robot 102 , a sensor 103 and an image display device 104 .

制御装置101は、センサ103から送信される情報の受信、ロボット102の制御、画像表示装置104に表示する画像のデータの送信等の機能を有する。 The control device 101 has functions of receiving information transmitted from the sensor 103 , controlling the robot 102 , transmitting image data to be displayed on the image display device 104 , and the like.

ロボット102は、固定されていても移動可能でもよく、マニピュレータ、アームロボット、移動ロボット、自動運転車、無人搬送車(AGV)、人型ロボットなどの種類は問わない。 The robot 102 may be fixed or movable, and may be any type of manipulator, arm robot, mobile robot, self-driving vehicle, automatic guided vehicle (AGV), humanoid robot, or the like.

センサ103は、ロボット102の周囲の物、人、通路等に関する情報を検知する。センサ103は、ロボット102、画像表示装置104等に設置してもよく、複数箇所に配置されていてもよい。センサ103は、人との距離を測る距離センサでもよいし、画像認識するカメラでもよいし、Wi-fi(登録商標)やBluetooth(登録商標)などの無線通信を検知するものでもよいし、人とロボットの接近を検知する他の手段でもよい。 The sensor 103 detects information about objects, people, passages, etc. around the robot 102 . The sensor 103 may be installed on the robot 102, the image display device 104, or the like, or may be arranged at a plurality of locations. The sensor 103 may be a distance sensor that measures the distance to a person, a camera that recognizes images, a sensor that detects wireless communication such as Wi-fi (registered trademark) or Bluetooth (registered trademark), or a sensor that detects a person. and other means for detecting the approach of the robot.

画像表示装置104は、複合現実を合成する仮想的なロボットを表示する。画像表示装置104は、ロボット102の将来動作を複合現実として表示する。本図においては、作業者105が装着するヘッドマウントディスプレイ(Head Mount Display:HMD)である。画像表示装置104は、スマートフォン等のモバイルデバイスでも、通路、壁等に設置された端末、スクリーン、壁、床等に画像を投影するプロジェクター等でもよく、その他の媒体でもよい。 The image display device 104 displays a virtual robot that synthesizes mixed reality. The image display device 104 displays the future motion of the robot 102 as mixed reality. In this figure, it is a head mount display (HMD) worn by the worker 105 . The image display device 104 may be a mobile device such as a smartphone, a terminal installed on an aisle, a wall, or the like, a projector that projects an image on a screen, a wall, a floor, or the like, or other media.

なお、作業者105は、工場等の従業員だけでなく、ロボット102に接近する可能性のある人を代表的に表現した用語である。よって、ロボット102に接近する可能性のある人すべてが対象となる。 It should be noted that the worker 105 is a term representatively expressing not only an employee of a factory or the like, but also a person who may approach the robot 102 . Therefore, all persons who may approach the robot 102 are targeted.

制御装置101は、画像表示装置104を制御する部分とロボット102を制御する部分とに分けて設置してもよく、そのような場合には、有線通信や無線通信などによって接続されるものとする。さらに、ロボット102の内部に制御装置101が組み込まれていてもよいし、画像表示装置104の内部に制御装置101が組み込まれていてもよい。 The control device 101 may be installed separately into a portion that controls the image display device 104 and a portion that controls the robot 102. In such a case, they are connected by wired communication, wireless communication, or the like. . Furthermore, the control device 101 may be incorporated inside the robot 102 , or the control device 101 may be incorporated inside the image display device 104 .

ロボットシステム100は、作業者105との効率的な協働や円滑な自動走行などを目的にしている。ロボット102の周りに柵はなく、作業者105は、ロボット102に接近可能である。画像表示装置104は、作業者105が複合現実を確認するものである。 The robot system 100 aims at efficient cooperation with the worker 105, smooth automatic travel, and the like. There is no fence around the robot 102 and the worker 105 can approach the robot 102 . The image display device 104 is used by the worker 105 to confirm the mixed reality.

次に、ロボットシステムの機能について説明する。 Next, the functions of the robot system will be explained.

図2は、ロボットシステムの機能を示すブロック図である。 FIG. 2 is a block diagram showing the functions of the robot system.

本図に示すロボットシステム100は、制御装置101にロボット102、センサ103及び画像表示装置104が接続されている。ここで、接続方法は、有線通信でも無線通信でもよい。 In the robot system 100 shown in this figure, a robot 102 , a sensor 103 and an image display device 104 are connected to a control device 101 . Here, the connection method may be wired communication or wireless communication.

制御装置101は、ロボット制御部114と、画像表示装置制御部115と、を備える。ロボット制御部114は、動作計画部116と、遅延部117と、を備える。画像表示装置制御部115は、接近判定部118と、画像生成部119と、を備える。 The control device 101 includes a robot control section 114 and an image display device control section 115 . The robot controller 114 includes a motion planner 116 and a delayer 117 . The image display device control section 115 includes an approach determination section 118 and an image generation section 119 .

動作計画部116は、ロボット102の動作を計画する部分である。この動作は、ロボット102が完遂すべきタスクを一度に達成する動作でもよいし、タスクの一部を達成するための動作でもよい。また、一度計画した動作の実行中に、途中から割り込んでロボットの動きを変更させるような動作でもよい。その際、必要であれば、センサ103あるいは図示しない別のセンサのデータを用いてもよい。 The motion planning unit 116 is a part that plans the motion of the robot 102 . This motion may be a motion for the robot 102 to complete the tasks to be completed at once, or may be a motion for partially completing the task. Also, it is possible to change the motion of the robot by interrupting the execution of the once-planned motion. At that time, if necessary, data from the sensor 103 or another sensor (not shown) may be used.

遅延部117は、ロボット102による動作データの実行を所定の時間だけ遅延させる機能を有する。この場合に、遅延部117は、動作データのロボット102への送信を所定の時間だけ遅延させてもよいし、ロボット102に送信した動作データのロボット102による実行を所定の時間だけ遅延させてもよい。 The delay unit 117 has a function of delaying the execution of motion data by the robot 102 by a predetermined time. In this case, the delay unit 117 may delay transmission of the motion data to the robot 102 by a predetermined time, or delay execution by the robot 102 of the motion data transmitted to the robot 102 by a predetermined time. good.

接近判定部118は、センサから得たロボット102若しくは作業者又はそれらの両方に関するデータを元に、ロボット102と作業者との距離を算出し、閾値と比較してロボット102と作業者が接近しているか否かを判定する部分である。 The proximity determination unit 118 calculates the distance between the robot 102 and the worker based on the data on the robot 102 and/or the worker obtained from the sensor, and compares the distance between the robot 102 and the worker with a threshold to determine whether the robot 102 and the worker are approaching each other. This is the part that determines whether or not

画像生成部119は、動作計画部116で計画された動作データを得て、それをオブジェクトに変換し、画像表示装置104に出力する部分である。画像表示装置104は、オブジェクトを表示する。オブジェクトは、三次元オブジェクトであることが望ましいが、二次元オブジェクトであってもよい。 The image generator 119 is a part that obtains motion data planned by the motion planner 116 , converts it into an object, and outputs it to the image display device 104 . The image display device 104 displays objects. The objects are preferably three-dimensional objects, but may also be two-dimensional objects.

ここで、動作計画部116から得る動作データは、ロボット102がアームロボットの場合は目標位置まで移動するための各ジョイントの角度情報、ロボット102がAGVの場合は移動する際の速度、加速度、移動方向などのデータが例として挙げられる。 If the robot 102 is an arm robot, the motion data obtained from the motion planning unit 116 is angle information of each joint for moving to the target position. Data such as orientation is an example.

ロボット制御部114及び画像表示装置制御部115は、物理的に別々のハードウェアに属していてもよい。その場合は、通信環境の通信帯域によって動作計画部116で計画された動作データが画像生成部119に送るデータが制限されるという課題も想定される。その課題を解決するためには、例えば、ロボット制御部114と画像表示装置制御部115との間において無線通信が届くときのみ、動作計画部116が画像生成部119に動作データを送ることにしてもよい。これにより、全てのロボットからの動作データの全てを送る必要がなくなり、上記の通信帯域の通信容量の上限値によりデータが制限される課題を解決することができる。 The robot control unit 114 and the image display device control unit 115 may belong to physically separate hardware. In that case, the problem that the data of the motion data planned by the motion planning unit 116 to be sent to the image generation unit 119 may be limited depending on the communication band of the communication environment. In order to solve this problem, for example, the motion planning unit 116 sends motion data to the image generation unit 119 only when wireless communication reaches between the robot control unit 114 and the image display device control unit 115. good too. This eliminates the need to send all motion data from all robots, and solves the problem that data is limited by the upper limit of the communication capacity of the communication band.

なお、接近判定部118は、センサ103で検知されたデータを受け取り、そのデータをもとに、作業者とロボット102の距離を算出し、それを閾値と比較することで、作業者とロボット102とが接近しているか否かを判定する部分である。ここで、データは、センサ103の種類に依存する。センサ103のデータは、例えば、センサ103がロボットに取り付けられているライダーの場合は、周辺の点群データなどである。また、ロボット102に取り付けられたカメラである場合は、撮影した作業者のRGB画像や距離画像である。また、画像表示装置104や作業者に取り付けられたカメラの場合は、ロボットのRGB画像や距離画像である。 The proximity determination unit 118 receives the data detected by the sensor 103, calculates the distance between the worker and the robot 102 based on the data, and compares it with a threshold to determine the distance between the worker and the robot 102. This is the part that determines whether or not the two are approaching each other. Here, the data depends on the type of sensor 103 . The data of the sensor 103 is, for example, peripheral point cloud data in the case of a rider whose sensor 103 is attached to a robot. In the case of a camera attached to the robot 102, the image is an RGB image or a distance image of the worker. In the case of the image display device 104 or a camera attached to the worker, the image is an RGB image or a distance image of the robot.

画像生成部119は、接近判定部118から得た作業者とロボット102との接近判定結果と、動作計画部116から得たロボット102の動作データとを用いて、画像表示装置104に出力するための三次元オブジェクトを生成する部分である。 The image generation unit 119 uses the approach determination result between the worker and the robot 102 obtained from the proximity determination unit 118 and the motion data of the robot 102 obtained from the motion planning unit 116 to output to the image display device 104 . is the part that generates the three-dimensional object of

次に、接近判定部の詳細な構成について説明する。 Next, a detailed configuration of the approach determination unit will be described.

図3は、接近判定部の機能を示すブロック図である。 FIG. 3 is a block diagram showing functions of an approach determination unit.

本図においては、接近判定部118は、距離算出部130、閾値比較部131及び閾値記憶部132を備えている。 In this figure, the approach determination section 118 includes a distance calculation section 130 , a threshold comparison section 131 and a threshold storage section 132 .

距離算出部130は、センサからのデータを用いて作業者とロボット102との距離を算出する。算出する方法としては、例えば、センサ103が作業者又は画像表示装置に取り付けられたカメラの場合は、カメラが撮影したロボット102の距離画像を用いて、画像認識によって距離画像の中でどれがロボット102にあたるのかを判定し、カメラからロボット102の距離を算出するなどの方法が挙げられる。作業者とロボット102との距離を算出する方法であれば、他の方法を用いてもよい。 The distance calculator 130 calculates the distance between the worker and the robot 102 using data from the sensor. As a method of calculation, for example, when the sensor 103 is a camera attached to a worker or an image display device, a distance image of the robot 102 captured by the camera is used to determine which robot is in the distance image by image recognition. 102 is determined, and the distance of the robot 102 from the camera is calculated. Any other method may be used as long as it is a method for calculating the distance between the worker and the robot 102 .

閾値比較部131は、距離算出部130が算出した作業者とロボット102との距離を用いて、閾値と比較する部分である。閾値比較部131は、閾値よりも距離が小さい場合には、作業者とロボット102とが接近していると判定する。ここで用いる閾値は、閾値記憶部132に記憶されており、このロボットシステム100を利用する前にあらかじめ設定し、記憶させておくことが望ましい。 The threshold comparison unit 131 is a part that compares the distance between the worker and the robot 102 calculated by the distance calculation unit 130 with a threshold. The threshold comparison unit 131 determines that the worker and the robot 102 are approaching each other when the distance is smaller than the threshold. The threshold used here is stored in the threshold storage unit 132, and is preferably set and stored in advance before the robot system 100 is used.

次に、画像生成部119の詳細な構成について説明する。 Next, a detailed configuration of the image generator 119 will be described.

図4は、画像生成部の機能を示すブロック図である。 FIG. 4 is a block diagram showing functions of the image generator.

本図においては、画像生成部119は、動画生成部141、モデル記憶部142及び出力座標定義部143を備えている。 In this figure, the image generation unit 119 includes a moving image generation unit 141 , a model storage unit 142 and an output coordinate definition unit 143 .

動画生成部141は、動作計画部116から読み込んだ動作データと、ロボット102のモデルデータとを用いて、ロボット102のモデルが動作データの動作をこなしている様を動的に表す三次元オブジェクト(アニメーション)を生成する部分である。ここで用いるロボット102のモデルデータは、モデル記憶部142に記憶されている。ロボットシステム100を利用する前にあらかじめロボット102の複合現実モデルを設定し、記憶させておくことが望ましい。なお、上記のアニメーションは、「動画モデル」とも呼ぶ。 The animation generation unit 141 uses the motion data read from the motion planning unit 116 and the model data of the robot 102 to dynamically represent a three-dimensional object ( animation) is generated. Model data of the robot 102 used here is stored in the model storage unit 142 . It is desirable to set and store a mixed reality model of the robot 102 in advance before using the robot system 100 . Note that the above animation is also called a "moving image model".

例えば、ロボット102がアームロボットの場合、動作データを表示するためには、ロボット102のあらゆる姿勢の複合現実モデルをモデル記憶部142に記憶しておき、それを用いてアームロボットが動作データをこなす様を表す三次元オブジェクトを生成する。 For example, if the robot 102 is an arm robot, in order to display motion data, a mixed reality model of all postures of the robot 102 is stored in the model storage unit 142, and the arm robot uses the model storage unit 142 to process the motion data. Generate a 3D object representing the shape.

出力座標定義部143は、動画生成部141が生成した三次元オブジェクトを、画像表示装置104に複合現実として出力する際に、作業者から見える三次元オブジェクトの場所を定義する部分である。例えば、ロボット102がアームロボットの場合は、ロボット102と三次元オブジェクトとが画像表示装置104の画像として重なって見えるように定義してもよい。また、ロボット102がAGVの場合は、ロボット102が実際に動作し移動する場所に三次元オブジェクトを表示するよう定義してもよい。これにより、作業者が直観的に将来のロボット102の場所及び動作を認識することができる。 The output coordinate definition section 143 is a section that defines the location of the 3D object that is visible to the operator when the 3D object generated by the moving image generation section 141 is output to the image display device 104 as mixed reality. For example, if the robot 102 is an arm robot, the definition may be such that the robot 102 and the three-dimensional object are superimposed as images on the image display device 104 . Also, if the robot 102 is an AGV, it may be defined to display a three-dimensional object where the robot 102 actually operates and moves. This allows the operator to intuitively recognize the future location and motion of the robot 102 .

図5は、ロボットの動作計画から実行までの工程を示すフローチャートである。 FIG. 5 is a flow chart showing the steps from robot motion planning to execution.

本図に示すように、まず、工程S001において、動作計画部116がロボット102の動作を計画する。ロボット102がアームロボットの場合は、先端の目標位置に対する各ジョイントの角度や角速度指令などを計画する。ロボット102がAGVの場合は、到達目標位置に対する速度やルート等の動作を計画する。ロボット102がアームロボットでもAGVでもない場合は、そのロボットに合った動作を計画する。 As shown in the figure, first, in step S001, the motion planning unit 116 plans the motion of the robot 102. FIG. When the robot 102 is an arm robot, the angles and angular velocity commands of each joint with respect to the target position of the tip are planned. If the robot 102 is an AGV, it plans movements such as speed and route to reach the target position. If the robot 102 is neither an arm robot nor an AGV, plan the motions for that robot.

次いで、工程S002において、遅延部117に設定された時間だけ待ってから、遅延部117が動作データをロボット102に送信する。 Next, in step S<b>002 , the delay unit 117 transmits motion data to the robot 102 after waiting for the time set in the delay unit 117 .

次いで、工程S003において、ロボット102が動作データをもとにアクチュエートし、動作を実行する。 Next, in step S003, the robot 102 is actuated based on the motion data to perform the motion.

以上説明した工程S001からS003までの処理は、ロボットの一連の動作が完了してから、スタートに戻って行われる。ただし、本発明は、上記の工程に限定されるものではなく、周囲環境が動的な環境の場合は、計画を例えば100msecごとに繰り返し行ってもよい。 The processes from steps S001 to S003 described above are performed after a series of operations of the robot are completed, returning to the start. However, the present invention is not limited to the above steps, and if the surrounding environment is a dynamic environment, the planning may be repeated every 100 msec, for example.

次に、ロボット102と作業者105との接近判定をし、三次元オブジェクトを表示するまでの工程について説明する。 Next, a process from judging the approach between the robot 102 and the worker 105 to displaying a three-dimensional object will be described.

図6は、接近判定から三次元オブジェクトの表示までの工程を示すフローチャートである。 FIG. 6 is a flow chart showing steps from approach determination to display of a three-dimensional object.

本図に示すように、工程S004で、接近判定部118が作業者とロボット102との接近の有無の判定をする(接近判定処理)。工程S004の詳細については、図7を用いて後述する。 As shown in the figure, in step S004, the approach determination unit 118 determines whether or not the worker is approaching the robot 102 (approach determination processing). Details of step S004 will be described later with reference to FIG.

工程S004で判定した結果である接近の有無については、工程S005に示すとおりであり、作業者とロボット102との接近がある場合は、工程S006へ進む(S005のYES)。作業者とロボット102との接近がない場合は、工程S004に戻って接近判定処理を繰り返す(S005のNO)。 The presence or absence of approach, which is the result of determination in step S004, is as shown in step S005. If there is an approach between the worker and the robot 102, the process proceeds to step S006 (YES in S005). If there is no approach between the worker and the robot 102, the process returns to step S004 and repeats the approach determination process (NO in S005).

工程S006においては、計画した動作データを画像生成部119に送信する。 In step S<b>006 , the planned motion data is transmitted to image generator 119 .

次いで、工程S007において、画像生成部119が画像表示装置104に出力する三次元オブジェクトを生成する。工程S007の詳細については、図8を用いて後述する。 Next, in step S<b>007 , the image generator 119 generates a three-dimensional object to be output to the image display device 104 . Details of step S007 will be described later with reference to FIG.

次いで、工程S008においては、出力座標定義部143が、画像表示装置104に三次元オブジェクトを出力する際の出力場所(出力座標)を定義する。例えば、ロボット102がアームロボットで、作業者105が画像表示装置104から見たときに、三次元オブジェクトがロボット102と重なって見えるようにしたければ、画像表示装置104が認識可能なマーカーをロボット102に付けて、そのマーカーを基準に三次元オブジェクトを出力してもよい。また、この場合に、作業空間の中でロボット102の座標を定義し、画像表示装置104に設定し記憶しておき、画像表示装置104の自己位置推定機能なども利用して相対位置関係を割り出す方法などをとってもよい。 Next, in step S<b>008 , the output coordinate definition unit 143 defines the output location (output coordinates) when outputting the three-dimensional object to the image display device 104 . For example, if the robot 102 is an arm robot and the worker 105 wants the three-dimensional object to overlap with the robot 102 when viewed from the image display device 104, a marker recognizable by the image display device 104 is placed on the robot 102. , and a three-dimensional object may be output based on that marker. In this case, the coordinates of the robot 102 are defined in the working space, set and stored in the image display device 104, and the relative positional relationship is determined using the self-position estimation function of the image display device 104. You can take any method.

次いで、工程S009において、工程S007で生成した三次元オブジェクトと工程S008で定義した出力座標とを画像表示装置104に出力する。 Next, in step S009, the three-dimensional object generated in step S007 and the output coordinates defined in step S008 are output to image display device 104. FIG.

次いで、工程S010において、画像表示装置104が三次元オブジェクトを定義した座標に見えるように表示する。 Next, in step S010, the image display device 104 displays the three-dimensional object so that it appears at the defined coordinates.

以上説明した工程S004からS010までの処理は、例えば、100msec程度の一定の周期で繰り返す。 The processes from steps S004 to S010 described above are repeated at a constant cycle of, for example, about 100 msec.

次に、接近判定部118による作業者とロボット102との接近判定処理について説明する。図6の工程S004に相当する部分である。 Next, an approach determination process between the worker and the robot 102 by the approach determination unit 118 will be described. This is the portion corresponding to step S004 in FIG.

図7は、接近判定処理の工程を示すフローチャートである。 FIG. 7 is a flow chart showing steps of approach determination processing.

本図に示すように、まず、工程S011において、センサ103のデータをもとに、距離算出部130が作業者105とロボット102との距離を算出する。例えば、センサ103がロボット102に取り付けられたカメラであり、距離画像のデータが受け取れる場合は、画像認識機能で距離画像の中の作業者105を判別し、距離を算出する方法を採用することができる。他にも、センサ103の種類に応じて距離を算出する方法であれば任意の方法をとってよい。 As shown in this figure, first, in step S<b>011 , the distance calculator 130 calculates the distance between the worker 105 and the robot 102 based on the data from the sensor 103 . For example, if the sensor 103 is a camera attached to the robot 102 and can receive distance image data, a method of determining the worker 105 in the distance image by an image recognition function and calculating the distance can be adopted. can. Any other method may be used as long as the distance is calculated according to the type of the sensor 103 .

次いで、工程S012において、閾値記憶部132に記憶されている閾値と、S011において算出した作業者とロボット102との距離と、を比較し、閾値よりも距離が小さいか確認する。距離が閾値より小さい場合(工程S013におけるYES)は、工程S014に進む。距離が閾値より小さくない場合(工程S013におけるNO)は、工程S015へ進む。この場合の比較方法は、距離が閾値以下のときは、工程S013のYESとみなし、距離が閾値以下でないときは、工程S013のNOとみなすなど、距離と閾値の関係から作業者105とロボット102との接近関係を判定できるものであれば他の方法でもよい。 Next, in step S012, the threshold value stored in the threshold storage unit 132 is compared with the distance between the worker and the robot 102 calculated in S011 to confirm whether the distance is smaller than the threshold value. If the distance is smaller than the threshold (YES in step S013), proceed to step S014. If the distance is not smaller than the threshold (NO in step S013), proceed to step S015. The comparison method in this case is that if the distance is less than or equal to the threshold, it is determined as YES in step S013, and if the distance is not less than or equal to the threshold, it is determined as NO in step S013. Any other method may be used as long as it can determine the close relationship with .

工程S014に進んだ場合は、作業者105とロボット102とは接近していると判定する。一方、工程S015に進んだ場合は、作業者105とロボット102とは接近していないと判定する。 When proceeding to step S014, it is determined that the worker 105 and the robot 102 are approaching each other. On the other hand, when proceeding to step S015, it is determined that the worker 105 and the robot 102 are not approaching each other.

次に、画像生成部119が三次元オブジェクトを生成する工程について説明する。図6のS007に相当する部分である。 Next, a process in which the image generation unit 119 generates a three-dimensional object will be described. This is the part corresponding to S007 in FIG.

図8は、三次元オブジェクト生成処理の工程を示すフローチャートである。 FIG. 8 is a flow chart showing steps of a three-dimensional object generation process.

本図に示すように、まず、工程S021において、モデル記憶部142からロボット102のモデルデータを読み込む。ここで、読み込むモデルデータは、例えば、CADデータなど、画像表示装置104に出力するための三次元オブジェクトを生成するもとになれるものであればよい。 As shown in the figure, first, in step S021, model data of the robot 102 is read from the model storage unit 142. FIG. Here, the model data to be read may be, for example, CAD data or the like, as long as it can be used as a basis for generating a three-dimensional object to be output to the image display device 104 .

次いで、工程S022において、動作計画部116で計画された動作データを読み込む。 Next, in step S022, the motion data planned by the motion planning unit 116 is read.

次いで、工程S023において、動画生成部141により、モデルが動作データを再現して動いて見えるように構成された三次元オブジェクトを生成する。 Next, in step S023, the moving image generating unit 141 generates a three-dimensional object in which the model reproduces the motion data and is configured to appear to move.

図9は、三次元オブジェクト表示及びロボット動作実行のタイミングを示すタイムチャートである。右に向かって時間が流れる図である。 FIG. 9 is a time chart showing the timing of displaying a three-dimensional object and executing a robot action. It is a figure in which time flows toward the right.

本図においては、三次元オブジェクトが画像表示装置104に表示されてからロボット102が動作実行するまでを表している。 This figure shows the process from when the three-dimensional object is displayed on the image display device 104 to when the robot 102 performs an action.

まず、動作計画部116で計画された動作データをロボット102のモデルデータが再現するように構成された三次元オブジェクトの表示が、画像表示装置104において開始される。その開始時点から、遅延部117が遅らせた時間(遅延時間)だけ遅れてロボット102の実際の動作が実行される。この場合において、接近判定の時間や動作データを送信する時間などは誤差とし、遅延時間としてカウントしないものとしている。 First, the image display device 104 starts to display a three-dimensional object configured such that the model data of the robot 102 reproduces the motion data planned by the motion planning unit 116 . The actual motion of the robot 102 is executed with a delay of the time (delay time) delayed by the delay unit 117 from the start time. In this case, the time for approach determination and the time for transmitting motion data are treated as errors and are not counted as delay time.

このように、作業者105が遅延時間分だけ先に、ロボット102の動作を三次元オブジェクトとして確認できるため、作業者105が直近のロボット102の動作(例えば数秒後の動作)を予測することができ、接近によるロボット102の緊急停止を避け、作業効率を向上させる効果を得ることができる。 In this way, since the worker 105 can confirm the motion of the robot 102 as a three-dimensional object ahead of the delay time, the worker 105 can predict the most recent motion of the robot 102 (for example, the motion of several seconds later). It is possible to avoid the emergency stop of the robot 102 due to the approach, and to obtain the effect of improving the work efficiency.

さらに、接近判定部118によって、接近したロボット102の直近の動作についてのみ作業者105が確認可能になるため、作業者105が実際に回避する必要がある危険を容易に認識することができる。 Furthermore, the approach determination unit 118 allows the worker 105 to check only the most recent motion of the approaching robot 102, so that the worker 105 can easily recognize dangers that actually need to be avoided.

(接近判定部で作業者及びロボットの将来位置を予測する例)
実施例1においては、接近判定処理において、作業者105とロボット102との距離のみを利用している。
(Example of predicting the future positions of the worker and the robot by the proximity determination unit)
In the first embodiment, only the distance between the worker 105 and the robot 102 is used in the proximity determination process.

これに対して、実施例2においては、接近判定処理をする際、作業者105及びロボット102の予測された将来動作を用いて、更に高精度な接近判定処理をする。 On the other hand, in the second embodiment, the predicted future motions of the worker 105 and the robot 102 are used to perform approach determination processing with higher accuracy.

ロボットシステムの機能ブロックの概要については、図2と同様である。 The outline of the functional blocks of the robot system is the same as in FIG.

本実施例においては、接近判定部の内部構成が実施例1とは若干異なる。また、動作計画部から接近判定部に動作データが送信される点が実施例1と異なる。 In this embodiment, the internal configuration of the approach determination unit is slightly different from that of the first embodiment. Also, the difference from the first embodiment is that motion data is transmitted from the motion planning unit to the approach determination unit.

図10は、実施例2のロボットシステムの機能を示すブロック図である。 FIG. 10 is a block diagram showing functions of the robot system of the second embodiment.

本図に示すロボットシステム200は、制御装置201にロボット202、センサ203及び画像表示装置204が接続されている。ここで、接続方法は、有線通信でも無線通信でもよい。 In the robot system 200 shown in this figure, a robot 202 , a sensor 203 and an image display device 204 are connected to a control device 201 . Here, the connection method may be wired communication or wireless communication.

制御装置201は、ロボット制御部214と、画像表示装置制御部215と、を備える。ロボット制御部214は、動作計画部216と、遅延部217と、を備える。画像表示装置制御部215は、接近判定部218と、画像生成部219と、を備える。 The control device 201 includes a robot control section 214 and an image display device control section 215 . The robot control section 214 includes a motion planning section 216 and a delay section 217 . The image display device control section 215 includes an approach determination section 218 and an image generation section 219 .

本図においては、図2と異なり、上述のとおり、動作計画部216から接近判定部218に動作データが送信されるようになっている。 In this figure, unlike FIG. 2, motion data is transmitted from the motion planning unit 216 to the approach determination unit 218 as described above.

接近判定部218では、動作計画部216からのロボット202の動作データと、センサ203などからの作業者の位置データとを受け取り、ロボット202及び作業者の将来動作を予測することにより、双方の接近判定をする。 The approach determination unit 218 receives the motion data of the robot 202 from the motion planning unit 216 and the position data of the worker from the sensor 203 or the like, and predicts the future motions of the robot 202 and the worker to determine whether the robot 202 and the worker are approaching each other. make a judgment.

次に、接近判定部218の機能ブロックの構成について説明する。 Next, the configuration of the functional blocks of the approach determination unit 218 will be described.

図11は、本実施例の接近判定部の機能を示すブロック図である。 FIG. 11 is a block diagram showing the functions of the approach determination unit of this embodiment.

本図に示すように、接近判定部218は、将来ロボット位置算出部220と、危険エリア定義部221と、将来作業者位置算出部222と、将来位置重複判定部223と、を備える。 As shown in the figure, the approach determination unit 218 includes a future robot position calculation unit 220 , a dangerous area definition unit 221 , a future worker position calculation unit 222 , and a future position overlap determination unit 223 .

将来ロボット位置算出部220は、動作計画部216から受け取ったロボット202の動作データから、ロボット202が将来どの位置に移動するかを算出する部分である。 The future robot position calculation unit 220 is a part that calculates to which position the robot 202 will move in the future from the motion data of the robot 202 received from the motion planning unit 216 .

危険エリア定義部221は、将来ロボット位置算出部220が算出した将来のロボットの位置から、ロボット202がいずれその場所に移動してくるという意味で危険であると判定される場所を定義する部分である。 The dangerous area defining section 221 is a section that defines a place determined to be dangerous in the sense that the robot 202 will eventually move to that place from the future robot position calculated by the future robot position calculating section 220 . be.

定義の方法は、例えば、ロボット202がAGVの場合は、将来位置の半径数メートル以内は全て危険エリアとする方法などであり、他の方法でもよい。 For example, when the robot 202 is an AGV, the defining method may be a method in which everything within a radius of several meters from the future position is defined as a dangerous area, or another method may be used.

将来作業者位置算出部222は、センサ203から受け取った作業者に関するデータから作業者の位置を算出し、将来の作業者の位置を算出し予測する部分である。例えば、次のような方法で作業者の将来位置を算出する。 The future worker position calculation unit 222 is a part that calculates the position of the worker from the data about the worker received from the sensor 203, and calculates and predicts the future position of the worker. For example, the future position of the worker is calculated by the following method.

センサ203がカメラであって距離画像を取得可能である場合、画像認識により作業者の位置データを算出し、その数秒後の作業者の位置データを算出する。そして、例えば、作業者についての2つの位置データから生成できる直線上に、更に数秒後の作業者が移動していると仮定して、2つの位置データ間の距離と同じだけ離れた直線上の位置(延長線上の位置)を、更に数秒後の作業者の位置であると推定する。なお、作業者の将来位置を算出できる方法であれば、これに限らず、他の方法でもよい。 When the sensor 203 is a camera and can acquire a distance image, the position data of the worker is calculated by image recognition, and the position data of the worker after several seconds is calculated. Then, for example, on a straight line that can be generated from two position data about the worker, and assuming that the worker is moving after a few seconds, on a straight line that is the same distance as the distance between the two position data The position (position on the extension line) is estimated to be the worker's position after a few seconds. The method is not limited to this, and other methods may be used as long as the method can calculate the future position of the worker.

将来位置重複判定部223は、危険エリア定義部221が定義した危険エリアに、将来作業者位置算出部222が推定した将来の作業者の位置が入っているか否かを判定し、入っていれば、作業者とロボット202とが接近すると判定する部分である。 The future position overlap determination unit 223 determines whether or not the future worker position estimated by the future worker position calculation unit 222 is included in the dangerous area defined by the dangerous area definition unit 221. , and the portion where it is determined that the worker and the robot 202 are approaching each other.

次に、接近判定部218による接近判定処理について説明する。 Next, approach determination processing by the approach determination unit 218 will be described.

図12は、接近判定処理の工程を示すフローチャートである。 FIG. 12 is a flow chart showing steps of approach determination processing.

本図に示すように、まず、工程S031において、動作計画部216で計画されたロボットの動作データを接近判定部218が読み込む。 As shown in the figure, first, in step S031, the approach determination unit 218 reads the motion data of the robot planned by the motion planning unit 216 .

次いで、工程S032において、将来ロボット位置算出部220が、設定した時間だけ将来のロボット202の位置を上述のような方法によって推定する。 Next, in step S032, the future robot position calculator 220 estimates the future position of the robot 202 by the method described above for the set time.

次いで、工程S033において、危険エリア定義部221が、工程S032で推定したロボット202の将来位置から、上述のような方法によって危険エリアを決定する。 Next, in step S033, the dangerous area definition unit 221 determines the dangerous area by the method described above from the future position of the robot 202 estimated in step S032.

次いで、工程S034において、センサ203が検知した作業者の位置データを読み込む。 Next, in step S034, the position data of the worker detected by the sensor 203 is read.

次いで、工程S035において、将来作業者位置算出部222が、設定した時間だけ将来の作業者の位置データを上述のような方法で算出し予測する。 Next, in step S035, the future worker position calculator 222 calculates and predicts the future worker position data for the set time by the method described above.

次いで、将来位置重複判定部223が、予測した作業者の位置が危険エリアに入るか否かを判定し、入る場合(工程S036のYES)は、工程S037に進み、ロボット202と作業者とが接近していると判定する。入らない場合(工程S036のNO)は、工程S038に進み、ロボット202と作業者とが接近していないと判定する。 Next, the future position overlap determination unit 223 determines whether or not the predicted position of the worker will enter the dangerous area. Determine that you are close. If not (NO in step S036), the process proceeds to step S038, and it is determined that the robot 202 and the worker are not approaching each other.

このように、ロボット202及び作業者の将来位置を活用して接近判定をすることにより、接近判定の精度が向上する。すなわち、ロボット202が高速度で移動するような動的な環境においても、作業者が自身と接触するリスクの高いロボットのみを三次元オブジェクトとして確認することができる。これによって、接近判定処理中に、高速度で動作するロボット102が作業者105に急速に接近し、緊急停止する現象などを防止し、作業効率を更に向上させることができる。 In this way, by utilizing the future positions of the robot 202 and the worker to determine the approach, the accuracy of the approach determination is improved. That is, even in a dynamic environment where the robot 202 moves at high speed, only robots that are likely to come into contact with the operator can be confirmed as three-dimensional objects. This prevents the robot 102 operating at high speed from suddenly approaching the worker 105 and causing an emergency stop during the approach determination process, thereby further improving work efficiency.

(画像生成部で連続画像を生成する例)
実施例1においては、三次元オブジェクトとして、ロボット動作を表す動画モデルを表示したが、複数コマ送りのロボットの静止画(姿勢が異なるロボットの静止画)を重畳して表示し、ロボットの一連の動作を一度に全て把握できるシステムも考えられる。これによって、計画された動作を一目で全て把握することができ、複雑な動作や時間のかかる動作も作業者が把握しやすくなり、作業者とロボットとの接近による緊急停止を避け、作業効率を向上させる効果を得ることができる。
(Example of generating continuous images in the image generator)
In the first embodiment, a moving image model representing the motion of the robot is displayed as a three-dimensional object. A system that can grasp all movements at once is also conceivable. This makes it possible to grasp all planned movements at a glance, making it easier for workers to grasp complicated movements and movements that take a long time, avoiding emergency stops due to the approach of the operator and the robot, and improving work efficiency. You can get an improvement effect.

図13は、本実施例の画像生成部の機能を示すブロック図である。 FIG. 13 is a block diagram showing the functions of the image generator of this embodiment.

本図に示す画像生成部319は、実施例1又は実施例2と同じロボットシステムに属するものであり、画像生成部319以外の機能ブロックは、実施例1又は実施例2のものと同じである。 An image generation unit 319 shown in this figure belongs to the same robot system as that of the first or second embodiment, and functional blocks other than the image generation unit 319 are the same as those of the first or second embodiment. .

画像生成部319は、連続画像生成部320と、モデル記憶部321と、出力座標定義部322と、を備える。実施例1における画像生成部119(図4)との違いは、動画生成部141の代わりに、連続画像生成部320を設けたことである。 The image generation unit 319 includes a continuous image generation unit 320 , a model storage unit 321 and an output coordinate definition unit 322 . The difference from the image generation unit 119 ( FIG. 4 ) in the first embodiment is that a continuous image generation unit 320 is provided instead of the moving image generation unit 141 .

連続画像生成部320は、動作計画部が計画した動作データを、モデル記憶部321に記憶されているロボットのモデルデータを用いて、動作をコマ送りのように表現する部分である。複数のロボットモデルデータを三次元オブジェクトとして表示し、例えば、動作をはじめから終わりまで一度に表す。動作の長さに対していくつのコマ割りでモデルを表示するかは任意である。 The continuous image generation unit 320 is a part that expresses motion data planned by the motion planning unit in a frame-by-frame manner using robot model data stored in the model storage unit 321 . A plurality of robot model data are displayed as three-dimensional objects to represent, for example, a motion from start to finish at once. It is arbitrary how many frames the model is displayed for the length of the movement.

次に、連続画像生成部320による画像生成について説明する。 Next, image generation by the continuous image generation unit 320 will be described.

図14は、三次元オブジェクト生成処理の工程を示すフローチャートである。 FIG. 14 is a flow chart showing steps of a three-dimensional object generation process.

本図においては、工程S041及びS042は、図8と同様であり、工程S043のモデルが動作している様子をコマ送りで表現し、それらを一度に表示するような三次元オブジェクトを生成する部分が図8とは異なる。 In this figure, the steps S041 and S042 are the same as in FIG. 8, and the step S043 is a portion for generating a three-dimensional object that displays the motion of the model frame-by-frame and displays them all at once. is different from FIG.

(動作実行前に承認処理を入れる例)
実施例1~3においては、遅延部が遅延時間を設けて、ロボットの動作のタイミングを調整している。
(Example of inserting approval processing before action execution)
In Examples 1 to 3, the delay section provides a delay time to adjust the timing of the robot's motion.

これに対して、実施例4においては、作業者がロボットの将来動作について判断し、承認することを可能にしている。 On the other hand, in Example 4, the operator is allowed to judge and approve the future motion of the robot.

図15は、本実施例のロボットシステムの機能を示すブロック図である。 FIG. 15 is a block diagram showing the functions of the robot system of this embodiment.

本図に示すロボットシステム400は、制御装置401にロボット402、センサ403及び画像表示装置404が接続されている。ここで、接続方法は、有線通信でも無線通信でもよい。 In the robot system 400 shown in this figure, a robot 402 , a sensor 403 and an image display device 404 are connected to a control device 401 . Here, the connection method may be wired communication or wireless communication.

制御装置401は、ロボット制御部414と、画像表示装置制御部415と、を備える。ロボット制御部414は、動作計画部416と、動作承認部417と、を備える。画像表示装置制御部415は、接近判定部418と、画像生成部419と、を備える。 The control device 401 includes a robot control section 414 and an image display device control section 415 . The robot control unit 414 includes a motion planning unit 416 and a motion approval unit 417 . The image display device control section 415 includes an approach determination section 418 and an image generation section 419 .

本図に示すロボット制御部414は、図2と異なり、遅延部の代わりに動作承認部417を有している。そして、画像生成部419から動作承認部417に三次元オブジェクトの表示完了通知が送信されるようになっている。動作承認部417は、三次元オブジェクトの表示完了通知を受けて、作業者にその動作を実際にロボット402で実行するか否かの判断をさせる。この判断には、何らかの外部入力装置などを用いてする。作業者が動作実行の承認をしたとき、動作承認部417は、ロボット402に動作データを送信する。また、当該承認は、事前にロボット402に送信した動作データの実行の承認であってもよい。ここで、外部入力装置は、画像表示装置404に設けられたボタンでもよい。また、センサ403に対する合図(身振り、手振り等)により、作業者の承認としてもよい。また、承認する人は、ロボット402に接近する作業者だけでなく、監督等の第三者であってもよい。 The robot control unit 414 shown in this figure has an action approval unit 417 instead of the delay unit, unlike in FIG. Then, the image generation unit 419 transmits a three-dimensional object display completion notification to the action approval unit 417 . Upon receiving the display completion notification of the three-dimensional object, the motion approval unit 417 allows the operator to determine whether or not the robot 402 should actually perform the motion. This determination is made using some external input device or the like. When the operator approves the execution of the action, the action approval unit 417 transmits action data to the robot 402 . Alternatively, the approval may be approval of execution of motion data transmitted to the robot 402 in advance. Here, the external input device may be buttons provided on the image display device 404 . Alternatively, a signal (gesture, hand gesture, etc.) to the sensor 403 may be used as the operator's approval. Also, the person who approves may not only be the worker approaching the robot 402 but also a third party such as a supervisor.

図16は、本実施例におけるロボットシステムの動作計画から実行までの工程を示すフローチャートである。 FIG. 16 is a flow chart showing steps from operation planning to execution of the robot system in this embodiment.

本図においては、まず、工程S051において、動作計画部116がロボット102の動作を計画する。そして、工程S059において、画像生成部419から動作承認部417に三次元オブジェクトの表示完了通知を送信する。 In this figure, first, in step S051, the motion planning unit 116 plans the motion of the robot 102. FIG. Then, in step S<b>059 , the image generation unit 419 transmits a three-dimensional object display completion notification to the action approval unit 417 .

工程S060において、作業者は、ロボット402が実際に動作を実行してよいかどうかの判断をし、動作承認部417が作業者の承認を受けた場合(工程S060のYES)は、工程S061に進み、動作承認部417からロボット402に指令を送信する。その後、工程S062において、ロボット402が動作データをもとにアクチュエートし、動作を実行する。 In step S060, the worker determines whether or not the robot 402 can actually perform the action. If the action approval unit 417 has received approval from the worker (YES in step S060), the process proceeds to step S061. Then, a command is transmitted from the action approval unit 417 to the robot 402 . Thereafter, in step S062, the robot 402 is actuated based on the motion data to perform the motion.

工程S060において作業者の承認が得られない場合(工程S060のNO)は、ロボット402の動作を実行しない。 If the operator's approval is not obtained in step S060 (NO in step S060), the robot 402 does not operate.

図17は、本実施例における三次元オブジェクト表示及びロボット動作実行のタイミングを示すタイムチャートである。右に向かって時間が流れる図である。 FIG. 17 is a time chart showing the timing of displaying a three-dimensional object and executing a robot motion in this embodiment. It is a figure in which time flows toward the right.

本図においては、三次元オブジェクトが画像表示装置404に表示されてからロボット402が動作実行するまでを表している。 This figure shows the process from when the three-dimensional object is displayed on the image display device 404 to when the robot 402 performs an action.

本図においては、三次元オブジェクト表示が完了した後、動作承認のプロセスを経て、ロボット402が実行される。 In this figure, after the three-dimensional object display is completed, the robot 402 is executed through a motion approval process.

これにより、危険な動作が予想される場合は、事前にロボット402の動作の実行を中止し、作業者とロボットとの衝突等を防止し、安全を担保することができる。 As a result, when a dangerous operation is expected, the execution of the operation of the robot 402 can be stopped in advance to prevent a collision between the worker and the robot, thereby ensuring safety.

なお、実際の工場等においては、複数のロボットが配置され、それぞれが異なる作業や動作を行う状況がある。このような場合においても、作業者(人)が複数のロボットの間に設けられた通路を通行する際、ロボットとの衝突等の危険を回避し、作業者が必要以上にストレスを感じることなく円滑に作業を進められる状況を維持するとともに、ロボットの緊急停止の回数を減らすことが必要である。 In an actual factory or the like, there are situations where a plurality of robots are arranged and each robot performs different tasks and operations. Even in such a case, when a worker (person) passes through a passage provided between multiple robots, it is possible to avoid dangers such as collisions with the robots, and to prevent the worker from feeling unnecessary stress. It is necessary to maintain a situation in which work can proceed smoothly and to reduce the number of emergency stops of the robot.

図18は、作業者が複数のロボットの間を移動する状況を示す模式構成図である。 FIG. 18 is a schematic configuration diagram showing a situation in which an operator moves between a plurality of robots.

本図においては、複数のロボット102a、102b、102c、102dが配置されている。作業者105は、画像表示装置104(HMD)を装着し、複数のロボット102a、102b、102c、102dの間に進入しようとしている。 In this figure, a plurality of robots 102a, 102b, 102c, 102d are arranged. A worker 105 is wearing an image display device 104 (HMD) and is about to enter between a plurality of robots 102a, 102b, 102c, and 102d.

このような状況において、接近判定部118により、ロボット102a、102b、102c、102dのいずれかと作業者105とが接近していると判定された場合には、HMDを介して的確な情報を作業者105に伝える。この場合に、ロボット102a、102b、102c、102dのうち作業者105に接近するものを、作業者105が判断しやすいように、HMDに表示することが望ましい。また、時々刻々と変化する状況に応じて、HMDに表示する内容を切り替えることが望ましい。 In such a situation, when the approach determination unit 118 determines that any of the robots 102a, 102b, 102c, and 102d is approaching the worker 105, the worker 105 is provided with accurate information via the HMD. Tell 105. In this case, it is desirable to display the robots 102a, 102b, 102c, and 102d that are approaching the worker 105 on the HMD so that the worker 105 can easily judge them. In addition, it is desirable to switch the contents displayed on the HMD according to the situation that changes from moment to moment.

なお、この場合において、実施例1~4に示すいずれの構成や方法を適用してもよい。 In this case, any of the configurations and methods shown in Examples 1 to 4 may be applied.

100、200、400:ロボットシステム、101、201、401:制御装置、102、202、402:ロボット、103、203、403:センサ、104、204、404:画像表示装置、105:作業者、114、214、414:ロボット制御部、115、215、415:画像表示装置制御部、116、216、416:動作計画部、117、217:遅延部、118、218、418:接近判定部、119、219、419:画像生成部、130:距離算出部、131:閾値比較部、132:閾値記憶部、141:動画生成部、142:モデル記憶部、143:出力座標定義部、220:将来ロボット位置算出部、221:危険エリア定義部、222:将来作業者位置算出部、223:将来位置重複判定部、319:画像生成部、320:連続画像生成部、321:モデル記憶部、322:出力座標定義部、417:動作承認部。 100, 200, 400: robot system, 101, 201, 401: controller, 102, 202, 402: robot, 103, 203, 403: sensor, 104, 204, 404: image display device, 105: operator, 114 , 214, 414: robot control unit, 115, 215, 415: image display device control unit, 116, 216, 416: motion planning unit, 117, 217: delay unit, 118, 218, 418: approach determination unit, 119, 219, 419: image generation unit, 130: distance calculation unit, 131: threshold comparison unit, 132: threshold storage unit, 141: animation generation unit, 142: model storage unit, 143: output coordinate definition unit, 220: future robot position Calculation unit 221: Dangerous area definition unit 222: Future worker position calculation unit 223: Future position overlap determination unit 319: Image generation unit 320: Continuous image generation unit 321: Model storage unit 322: Output coordinates Definition part, 417: action approval part.

Claims (7)

ロボットと、センサと、制御装置と、画像表示装置と、を備え、
前記制御装置は、ロボット制御部と、画像表示装置制御部と、を含み、
前記ロボット制御部は、前記ロボットの動作を計画し動作データを作成する動作計画部を含み、前記動作データに基づき前記ロボットを制御するものであり、
前記画像表示装置制御部は、接近判定部と、画像生成部と、を含み、
前記接近判定部は、前記センサによって、人と前記ロボットとの接近が生じるかどうかを判定するものであり、前記動作計画部からの前記動作データと前記センサからの作業者の位置データとに基づき前記ロボット及び前記作業者の将来動作を予測し、
前記画像生成部は、前記接近判定部により前記接近が生じると判定された場合には、前記動作データに基づき前記ロボットの所定時間後の将来動作を表す仮想的なオブジェクトのデータを生成し、前記センサから得られたデータと前記仮想的なオブジェクトの前記データとに基づき複合現実のデータを合成するものであり、
前記画像表示装置は、前記複合現実の前記データに基づき前記ロボットの所定時間後の将来動作を表す前記仮想的なオブジェクトを含む前記複合現実の画像を表示するものであり、
前記接近判定部により前記接近が生じると判定された場合には、前記仮想的なオブジェクトを前記画像表示装置に表示する、ロボットシステム。
Equipped with a robot, a sensor, a control device, and an image display device,
The control device includes a robot control unit and an image display device control unit,
The robot control unit includes a motion planning unit that plans motions of the robot and creates motion data, and controls the robot based on the motion data,
The image display device control unit includes an approach determination unit and an image generation unit,
The approach determination unit determines whether or not the robot will approach the human using the sensor , and is based on the motion data from the motion planning unit and the worker position data from the sensor. Predicting future motions of the robot and the worker;
When the approach determination unit determines that the approach will occur, the image generation unit generates data of a virtual object representing a future motion of the robot after a predetermined time based on the motion data. synthesizing mixed reality data based on data obtained from a sensor and the data of the virtual object;
The image display device displays the mixed reality image including the virtual object representing the future motion of the robot after a predetermined time based on the mixed reality data,
The robot system displaying the virtual object on the image display device when the approach determining unit determines that the approach will occur.
前記仮想的なオブジェクトは、三次元オブジェクトである、請求項1記載のロボットシステム。 2. The robot system according to claim 1, wherein said virtual object is a three-dimensional object. 前記接近判定部により前記接近が生じないと判定された場合には、前記仮想的なオブジェクトを前記画像表示装置に表示しない、請求項1記載のロボットシステム。 2. The robot system according to claim 1, wherein said virtual object is not displayed on said image display device when said approach determination unit determines that said approach does not occur. 前記ロボット制御部は、前記ロボットによる前記動作データの実行を所定の時間だけ遅延させる機能を有する遅延部を更に含む、請求項1記載のロボットシステム。 2. The robot system according to claim 1, wherein said robot control unit further includes a delay unit having a function of delaying execution of said motion data by said robot by a predetermined time. 前記ロボット制御部は、人の承認を受けてから前記ロボットに前記動作データの実行をさせる動作承認部を更に含む、請求項1記載のロボットシステム。 2. The robot system according to claim 1, wherein said robot control section further includes an action approval section for causing said robot to execute said action data after receiving human approval. 請求項1記載のロボットシステムに用いられる、画像表示装置。 An image display device used in the robot system according to claim 1. 請求項1記載のロボットシステムに用いられる、制御装置。 A controller used in the robot system according to claim 1.
JP2019203927A 2019-11-11 2019-11-11 robot system Active JP7282016B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019203927A JP7282016B2 (en) 2019-11-11 2019-11-11 robot system
PCT/JP2020/031518 WO2021095316A1 (en) 2019-11-11 2020-08-20 Robot system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019203927A JP7282016B2 (en) 2019-11-11 2019-11-11 robot system

Publications (2)

Publication Number Publication Date
JP2021074827A JP2021074827A (en) 2021-05-20
JP7282016B2 true JP7282016B2 (en) 2023-05-26

Family

ID=75899917

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019203927A Active JP7282016B2 (en) 2019-11-11 2019-11-11 robot system

Country Status (2)

Country Link
JP (1) JP7282016B2 (en)
WO (1) WO2021095316A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023017439A (en) * 2021-07-26 2023-02-07 株式会社ダイヘン Safety device
WO2024166238A1 (en) * 2023-02-08 2024-08-15 三菱電機株式会社 Robot control device, robot control system, and robot control method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011080882A1 (en) 2009-12-28 2011-07-07 パナソニック株式会社 Operating space presentation device, operating space presentation method, and program
WO2013114737A1 (en) 2012-01-31 2013-08-08 株式会社五合 Display device for apparatus and apparatus provided with display device
JP2017523054A (en) 2014-07-16 2017-08-17 エックス デベロップメント エルエルシー Virtual safety cage for robotic devices
JP2018128640A (en) 2017-02-10 2018-08-16 富士ゼロックス株式会社 Information processing apparatus, information processing system, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011080882A1 (en) 2009-12-28 2011-07-07 パナソニック株式会社 Operating space presentation device, operating space presentation method, and program
WO2013114737A1 (en) 2012-01-31 2013-08-08 株式会社五合 Display device for apparatus and apparatus provided with display device
JP2017523054A (en) 2014-07-16 2017-08-17 エックス デベロップメント エルエルシー Virtual safety cage for robotic devices
JP2018128640A (en) 2017-02-10 2018-08-16 富士ゼロックス株式会社 Information processing apparatus, information processing system, and program

Also Published As

Publication number Publication date
WO2021095316A1 (en) 2021-05-20
JP2021074827A (en) 2021-05-20

Similar Documents

Publication Publication Date Title
US11020859B2 (en) Integrated robotic system and method for autonomous vehicle maintenance
US20190217472A1 (en) Robot controlling device and automatic assembling system
US10406686B2 (en) Bare hand robot path teaching
CN109822579A (en) Vision-based collaborative robot safety control method
US7653458B2 (en) Robot device, movement method of robot device, and program
KR101615687B1 (en) Collision detection robot remote control system and method thereof
JP2019518616A (en) Method and device for controlling the movement of one or more cooperating robots
CN111906778B (en) Robot safety control method and device based on multiple perceptions
JP2020516475A5 (en)
CN106325280A (en) A multi-robot anti-collision method and system
JP2012236244A (en) Robot device, method of controlling the same, and program for controlling the same
EP2810748A1 (en) Communication draw-in system, communication draw-in method, and communication draw-in program
JP7178066B2 (en) Robot, its action planning device and action planning program
JP6816070B2 (en) Interference avoidance device and robot system
KR20170014004A (en) Virtual safety cages for robotic devices
KR102452924B1 (en) Force-sense visualization apparatus, robot, and force-sense visualization program
CN111176293A (en) Mobile cooperative control system and control method for distribution robot
JP7282016B2 (en) robot system
KR20150121403A (en) System and method for preventing collision between workers and robots
US20210046643A1 (en) Method and system for teaching robot
JP2019198907A (en) Robot system
US20240131711A1 (en) Control device, control method, and storage medium
KR20220107344A (en) Control system and method of mobile robots by obstacle
JP7036399B2 (en) Autonomous mobile robots, their control devices and motion control programs
JP2010052116A (en) Device and method for controlling interference check

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230425

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230516

R150 Certificate of patent or registration of utility model

Ref document number: 7282016

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150