JP7282016B2 - robot system - Google Patents
robot system Download PDFInfo
- Publication number
- JP7282016B2 JP7282016B2 JP2019203927A JP2019203927A JP7282016B2 JP 7282016 B2 JP7282016 B2 JP 7282016B2 JP 2019203927 A JP2019203927 A JP 2019203927A JP 2019203927 A JP2019203927 A JP 2019203927A JP 7282016 B2 JP7282016 B2 JP 7282016B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- motion
- data
- unit
- display device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/06—Safety devices
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Manipulator (AREA)
Description
本発明は、ロボットシステムに関する。 The present invention relates to robot systems.
近年、労働人口減少が問題になっており、製造業における人手不足の解消、生産性の向上等が求められている。これらの解決手段の一つとして、人とロボットが協調して作業する協働ロボットシステムの活用が期待されている。そして、このシステムの作業効率の向上は、喫緊の課題として挙げられている。 In recent years, the decrease in the working population has become a problem, and there is a demand for resolving labor shortages and improving productivity in the manufacturing industry. As one of the means to solve these problems, utilization of a collaborative robot system in which humans and robots work in cooperation is expected. Improving the work efficiency of this system is an urgent issue.
特許文献1には、ロボットの動作に伴う危険の状況を適切に提示することを目的として、人の位置である人位置を取得する人位置取得部と、人位置取得部で取得された人位置に依存させて、人の視界範囲を決定する人視界範囲決定部と、動作計画に従って動作するロボットの少なくとも一部が視界範囲に含まれる特定時刻におけるロボットの位置、および、特定時刻におけるロボットの姿勢のうち少なくとも一方を含む位置姿勢を決定する位置姿勢決定部と、位置姿勢決定部で決定された位置姿勢を示すための画像データを生成する画像生成部とを備える、危険提示装置が記載されている。 Patent Document 1 discloses a human position acquisition unit that acquires a human position, which is the position of a person, and a human position acquisition unit that acquires the human position, for the purpose of appropriately presenting a situation of danger accompanying the motion of a robot. a human vision range determination unit that determines the human vision range depending on and an image generation unit configured to generate image data indicating the position and orientation determined by the position and orientation determination unit. there is
協働ロボットは、一定距離以上作業者と近づくと緊急停止するように設定されていることが多い。よって、作業者が協働ロボットの動作を予測できずに接近することにより、緊急停止が頻発すると、作業効率が低下する。 Collaborative robots are often set to make an emergency stop when they get closer to a worker than a certain distance. Therefore, if the worker approaches the collaborative robot without predicting its movement, and frequent emergency stops occur, work efficiency will be reduced.
また、ロボットに設けた緊急停止機能が常に万全であるとは限らない。この場合は、作業者がロボットの行動を予測し衝突を回避する必要があるが、ロボットの動作を精度よく予測することは難しい。例えば、作業者の死角から移動ロボットが作業者に接近する場合には、作業者と移動ロボットとの出会い頭の衝突などが発生してしまうおそれがあった。 Moreover, the emergency stop function provided in the robot is not always perfect. In this case, it is necessary for the operator to predict the behavior of the robot to avoid collision, but it is difficult to predict the behavior of the robot with high accuracy. For example, when the mobile robot approaches the worker from the worker's blind spot, there is a risk that the worker and the mobile robot may collide when they meet each other.
特許文献1に記載の危険提示装置は、ロボットの動作に伴う危険の状況を人に提示するものであり、これによって作業効率や安全性の向上を図ることが可能である。しかしながら、特許文献1においては、危険の状況について人に提示するか否かを判定することは記載されていない。このため、実際に衝突などを回避する必要がない状況についても人に提示してしまう場合があり、提示された状況のうち作業者が実際に回避する必要がある危険に対する注意力が低下してしまうおそれがある。 The danger presentation device described in Patent Literature 1 presents a situation of danger associated with the motion of a robot to a person, thereby improving work efficiency and safety. However, Patent Literature 1 does not describe determining whether or not to present a dangerous situation to a person. For this reason, there are cases where workers are presented with situations that do not actually require avoidance, such as collisions. There is a risk that it will be lost.
そこで、本発明の目的は、作業者に必要な危険のみを抽出して提示し、ロボットの緊急停止回数を減少させ、作業効率の向上及び安全性の向上を図ることにある。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to extract and present only the hazards necessary for the worker, reduce the number of emergency stops of the robot, and improve work efficiency and safety.
本発明のロボットシステムは、ロボットと、センサと、制御装置と、画像表示装置と、を備え、制御装置は、ロボット制御部と、画像表示装置制御部と、を含み、ロボット制御部は、ロボットの動作を計画し動作データを作成する動作計画部を含み、動作データに基づきロボットを制御するものであり、画像表示装置制御部は、接近判定部と、画像生成部と、を含み、接近判定部は、人とロボットとの接近が生じるかどうかを判定するものであり、画像生成部は、動作データに基づき仮想的なオブジェクトのデータを生成し、センサから得られたデータとオブジェクトのデータとに基づき複合現実のデータを合成するものであり、画像表示装置は、複合現実のデータに基づき複合現実の画像を表示するものであり、接近判定部により接近が生じると判定された場合には、オブジェクトを画像表示装置に表示する。 A robot system according to the present invention includes a robot, a sensor, a control device, and an image display device. The control device includes a robot control section and an image display device control section. and a motion planning unit that plans the motion of the robot and creates motion data, and controls the robot based on the motion data. The image display device control unit includes an approach determination unit and an image generation unit, The image generating unit determines whether or not the human and the robot will come close to each other. The image display device displays a mixed reality image based on the mixed reality data, and when the approach determination unit determines that an approach will occur, Display the object on the image display device.
本発明によれば、作業者に必要な危険のみを抽出して提示し、ロボットの緊急停止回数を減少させ、作業効率の向上及び安全性の向上を図ることができる。 According to the present invention, it is possible to extract and present only the hazards necessary for the worker, reduce the number of emergency stops of the robot, and improve work efficiency and safety.
以下、本発明の実施例について、図面を参照して説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1は、実施例1のロボットシステム100の全体構成を示したものである。
FIG. 1 shows the overall configuration of a
本図に示すように、ロボットシステム100は、制御装置101と、ロボット102と、センサ103と、画像表示装置104と、を含む。
As shown in this figure, the
制御装置101は、センサ103から送信される情報の受信、ロボット102の制御、画像表示装置104に表示する画像のデータの送信等の機能を有する。
The
ロボット102は、固定されていても移動可能でもよく、マニピュレータ、アームロボット、移動ロボット、自動運転車、無人搬送車(AGV)、人型ロボットなどの種類は問わない。
The
センサ103は、ロボット102の周囲の物、人、通路等に関する情報を検知する。センサ103は、ロボット102、画像表示装置104等に設置してもよく、複数箇所に配置されていてもよい。センサ103は、人との距離を測る距離センサでもよいし、画像認識するカメラでもよいし、Wi-fi(登録商標)やBluetooth(登録商標)などの無線通信を検知するものでもよいし、人とロボットの接近を検知する他の手段でもよい。
The
画像表示装置104は、複合現実を合成する仮想的なロボットを表示する。画像表示装置104は、ロボット102の将来動作を複合現実として表示する。本図においては、作業者105が装着するヘッドマウントディスプレイ(Head Mount Display:HMD)である。画像表示装置104は、スマートフォン等のモバイルデバイスでも、通路、壁等に設置された端末、スクリーン、壁、床等に画像を投影するプロジェクター等でもよく、その他の媒体でもよい。
The
なお、作業者105は、工場等の従業員だけでなく、ロボット102に接近する可能性のある人を代表的に表現した用語である。よって、ロボット102に接近する可能性のある人すべてが対象となる。
It should be noted that the
制御装置101は、画像表示装置104を制御する部分とロボット102を制御する部分とに分けて設置してもよく、そのような場合には、有線通信や無線通信などによって接続されるものとする。さらに、ロボット102の内部に制御装置101が組み込まれていてもよいし、画像表示装置104の内部に制御装置101が組み込まれていてもよい。
The
ロボットシステム100は、作業者105との効率的な協働や円滑な自動走行などを目的にしている。ロボット102の周りに柵はなく、作業者105は、ロボット102に接近可能である。画像表示装置104は、作業者105が複合現実を確認するものである。
The
次に、ロボットシステムの機能について説明する。 Next, the functions of the robot system will be explained.
図2は、ロボットシステムの機能を示すブロック図である。 FIG. 2 is a block diagram showing the functions of the robot system.
本図に示すロボットシステム100は、制御装置101にロボット102、センサ103及び画像表示装置104が接続されている。ここで、接続方法は、有線通信でも無線通信でもよい。
In the
制御装置101は、ロボット制御部114と、画像表示装置制御部115と、を備える。ロボット制御部114は、動作計画部116と、遅延部117と、を備える。画像表示装置制御部115は、接近判定部118と、画像生成部119と、を備える。
The
動作計画部116は、ロボット102の動作を計画する部分である。この動作は、ロボット102が完遂すべきタスクを一度に達成する動作でもよいし、タスクの一部を達成するための動作でもよい。また、一度計画した動作の実行中に、途中から割り込んでロボットの動きを変更させるような動作でもよい。その際、必要であれば、センサ103あるいは図示しない別のセンサのデータを用いてもよい。
The
遅延部117は、ロボット102による動作データの実行を所定の時間だけ遅延させる機能を有する。この場合に、遅延部117は、動作データのロボット102への送信を所定の時間だけ遅延させてもよいし、ロボット102に送信した動作データのロボット102による実行を所定の時間だけ遅延させてもよい。
The
接近判定部118は、センサから得たロボット102若しくは作業者又はそれらの両方に関するデータを元に、ロボット102と作業者との距離を算出し、閾値と比較してロボット102と作業者が接近しているか否かを判定する部分である。
The
画像生成部119は、動作計画部116で計画された動作データを得て、それをオブジェクトに変換し、画像表示装置104に出力する部分である。画像表示装置104は、オブジェクトを表示する。オブジェクトは、三次元オブジェクトであることが望ましいが、二次元オブジェクトであってもよい。
The
ここで、動作計画部116から得る動作データは、ロボット102がアームロボットの場合は目標位置まで移動するための各ジョイントの角度情報、ロボット102がAGVの場合は移動する際の速度、加速度、移動方向などのデータが例として挙げられる。
If the
ロボット制御部114及び画像表示装置制御部115は、物理的に別々のハードウェアに属していてもよい。その場合は、通信環境の通信帯域によって動作計画部116で計画された動作データが画像生成部119に送るデータが制限されるという課題も想定される。その課題を解決するためには、例えば、ロボット制御部114と画像表示装置制御部115との間において無線通信が届くときのみ、動作計画部116が画像生成部119に動作データを送ることにしてもよい。これにより、全てのロボットからの動作データの全てを送る必要がなくなり、上記の通信帯域の通信容量の上限値によりデータが制限される課題を解決することができる。
The
なお、接近判定部118は、センサ103で検知されたデータを受け取り、そのデータをもとに、作業者とロボット102の距離を算出し、それを閾値と比較することで、作業者とロボット102とが接近しているか否かを判定する部分である。ここで、データは、センサ103の種類に依存する。センサ103のデータは、例えば、センサ103がロボットに取り付けられているライダーの場合は、周辺の点群データなどである。また、ロボット102に取り付けられたカメラである場合は、撮影した作業者のRGB画像や距離画像である。また、画像表示装置104や作業者に取り付けられたカメラの場合は、ロボットのRGB画像や距離画像である。
The
画像生成部119は、接近判定部118から得た作業者とロボット102との接近判定結果と、動作計画部116から得たロボット102の動作データとを用いて、画像表示装置104に出力するための三次元オブジェクトを生成する部分である。
The
次に、接近判定部の詳細な構成について説明する。 Next, a detailed configuration of the approach determination unit will be described.
図3は、接近判定部の機能を示すブロック図である。 FIG. 3 is a block diagram showing functions of an approach determination unit.
本図においては、接近判定部118は、距離算出部130、閾値比較部131及び閾値記憶部132を備えている。
In this figure, the
距離算出部130は、センサからのデータを用いて作業者とロボット102との距離を算出する。算出する方法としては、例えば、センサ103が作業者又は画像表示装置に取り付けられたカメラの場合は、カメラが撮影したロボット102の距離画像を用いて、画像認識によって距離画像の中でどれがロボット102にあたるのかを判定し、カメラからロボット102の距離を算出するなどの方法が挙げられる。作業者とロボット102との距離を算出する方法であれば、他の方法を用いてもよい。
The
閾値比較部131は、距離算出部130が算出した作業者とロボット102との距離を用いて、閾値と比較する部分である。閾値比較部131は、閾値よりも距離が小さい場合には、作業者とロボット102とが接近していると判定する。ここで用いる閾値は、閾値記憶部132に記憶されており、このロボットシステム100を利用する前にあらかじめ設定し、記憶させておくことが望ましい。
The
次に、画像生成部119の詳細な構成について説明する。
Next, a detailed configuration of the
図4は、画像生成部の機能を示すブロック図である。 FIG. 4 is a block diagram showing functions of the image generator.
本図においては、画像生成部119は、動画生成部141、モデル記憶部142及び出力座標定義部143を備えている。
In this figure, the
動画生成部141は、動作計画部116から読み込んだ動作データと、ロボット102のモデルデータとを用いて、ロボット102のモデルが動作データの動作をこなしている様を動的に表す三次元オブジェクト(アニメーション)を生成する部分である。ここで用いるロボット102のモデルデータは、モデル記憶部142に記憶されている。ロボットシステム100を利用する前にあらかじめロボット102の複合現実モデルを設定し、記憶させておくことが望ましい。なお、上記のアニメーションは、「動画モデル」とも呼ぶ。
The
例えば、ロボット102がアームロボットの場合、動作データを表示するためには、ロボット102のあらゆる姿勢の複合現実モデルをモデル記憶部142に記憶しておき、それを用いてアームロボットが動作データをこなす様を表す三次元オブジェクトを生成する。
For example, if the
出力座標定義部143は、動画生成部141が生成した三次元オブジェクトを、画像表示装置104に複合現実として出力する際に、作業者から見える三次元オブジェクトの場所を定義する部分である。例えば、ロボット102がアームロボットの場合は、ロボット102と三次元オブジェクトとが画像表示装置104の画像として重なって見えるように定義してもよい。また、ロボット102がAGVの場合は、ロボット102が実際に動作し移動する場所に三次元オブジェクトを表示するよう定義してもよい。これにより、作業者が直観的に将来のロボット102の場所及び動作を認識することができる。
The output coordinate
図5は、ロボットの動作計画から実行までの工程を示すフローチャートである。 FIG. 5 is a flow chart showing the steps from robot motion planning to execution.
本図に示すように、まず、工程S001において、動作計画部116がロボット102の動作を計画する。ロボット102がアームロボットの場合は、先端の目標位置に対する各ジョイントの角度や角速度指令などを計画する。ロボット102がAGVの場合は、到達目標位置に対する速度やルート等の動作を計画する。ロボット102がアームロボットでもAGVでもない場合は、そのロボットに合った動作を計画する。
As shown in the figure, first, in step S001, the
次いで、工程S002において、遅延部117に設定された時間だけ待ってから、遅延部117が動作データをロボット102に送信する。
Next, in step S<b>002 , the
次いで、工程S003において、ロボット102が動作データをもとにアクチュエートし、動作を実行する。
Next, in step S003, the
以上説明した工程S001からS003までの処理は、ロボットの一連の動作が完了してから、スタートに戻って行われる。ただし、本発明は、上記の工程に限定されるものではなく、周囲環境が動的な環境の場合は、計画を例えば100msecごとに繰り返し行ってもよい。 The processes from steps S001 to S003 described above are performed after a series of operations of the robot are completed, returning to the start. However, the present invention is not limited to the above steps, and if the surrounding environment is a dynamic environment, the planning may be repeated every 100 msec, for example.
次に、ロボット102と作業者105との接近判定をし、三次元オブジェクトを表示するまでの工程について説明する。
Next, a process from judging the approach between the
図6は、接近判定から三次元オブジェクトの表示までの工程を示すフローチャートである。 FIG. 6 is a flow chart showing steps from approach determination to display of a three-dimensional object.
本図に示すように、工程S004で、接近判定部118が作業者とロボット102との接近の有無の判定をする(接近判定処理)。工程S004の詳細については、図7を用いて後述する。
As shown in the figure, in step S004, the
工程S004で判定した結果である接近の有無については、工程S005に示すとおりであり、作業者とロボット102との接近がある場合は、工程S006へ進む(S005のYES)。作業者とロボット102との接近がない場合は、工程S004に戻って接近判定処理を繰り返す(S005のNO)。
The presence or absence of approach, which is the result of determination in step S004, is as shown in step S005. If there is an approach between the worker and the
工程S006においては、計画した動作データを画像生成部119に送信する。
In step S<b>006 , the planned motion data is transmitted to image
次いで、工程S007において、画像生成部119が画像表示装置104に出力する三次元オブジェクトを生成する。工程S007の詳細については、図8を用いて後述する。
Next, in step S<b>007 , the
次いで、工程S008においては、出力座標定義部143が、画像表示装置104に三次元オブジェクトを出力する際の出力場所(出力座標)を定義する。例えば、ロボット102がアームロボットで、作業者105が画像表示装置104から見たときに、三次元オブジェクトがロボット102と重なって見えるようにしたければ、画像表示装置104が認識可能なマーカーをロボット102に付けて、そのマーカーを基準に三次元オブジェクトを出力してもよい。また、この場合に、作業空間の中でロボット102の座標を定義し、画像表示装置104に設定し記憶しておき、画像表示装置104の自己位置推定機能なども利用して相対位置関係を割り出す方法などをとってもよい。
Next, in step S<b>008 , the output coordinate
次いで、工程S009において、工程S007で生成した三次元オブジェクトと工程S008で定義した出力座標とを画像表示装置104に出力する。
Next, in step S009, the three-dimensional object generated in step S007 and the output coordinates defined in step S008 are output to image
次いで、工程S010において、画像表示装置104が三次元オブジェクトを定義した座標に見えるように表示する。
Next, in step S010, the
以上説明した工程S004からS010までの処理は、例えば、100msec程度の一定の周期で繰り返す。 The processes from steps S004 to S010 described above are repeated at a constant cycle of, for example, about 100 msec.
次に、接近判定部118による作業者とロボット102との接近判定処理について説明する。図6の工程S004に相当する部分である。
Next, an approach determination process between the worker and the
図7は、接近判定処理の工程を示すフローチャートである。 FIG. 7 is a flow chart showing steps of approach determination processing.
本図に示すように、まず、工程S011において、センサ103のデータをもとに、距離算出部130が作業者105とロボット102との距離を算出する。例えば、センサ103がロボット102に取り付けられたカメラであり、距離画像のデータが受け取れる場合は、画像認識機能で距離画像の中の作業者105を判別し、距離を算出する方法を採用することができる。他にも、センサ103の種類に応じて距離を算出する方法であれば任意の方法をとってよい。
As shown in this figure, first, in step S<b>011 , the
次いで、工程S012において、閾値記憶部132に記憶されている閾値と、S011において算出した作業者とロボット102との距離と、を比較し、閾値よりも距離が小さいか確認する。距離が閾値より小さい場合(工程S013におけるYES)は、工程S014に進む。距離が閾値より小さくない場合(工程S013におけるNO)は、工程S015へ進む。この場合の比較方法は、距離が閾値以下のときは、工程S013のYESとみなし、距離が閾値以下でないときは、工程S013のNOとみなすなど、距離と閾値の関係から作業者105とロボット102との接近関係を判定できるものであれば他の方法でもよい。
Next, in step S012, the threshold value stored in the
工程S014に進んだ場合は、作業者105とロボット102とは接近していると判定する。一方、工程S015に進んだ場合は、作業者105とロボット102とは接近していないと判定する。
When proceeding to step S014, it is determined that the
次に、画像生成部119が三次元オブジェクトを生成する工程について説明する。図6のS007に相当する部分である。
Next, a process in which the
図8は、三次元オブジェクト生成処理の工程を示すフローチャートである。 FIG. 8 is a flow chart showing steps of a three-dimensional object generation process.
本図に示すように、まず、工程S021において、モデル記憶部142からロボット102のモデルデータを読み込む。ここで、読み込むモデルデータは、例えば、CADデータなど、画像表示装置104に出力するための三次元オブジェクトを生成するもとになれるものであればよい。
As shown in the figure, first, in step S021, model data of the
次いで、工程S022において、動作計画部116で計画された動作データを読み込む。
Next, in step S022, the motion data planned by the
次いで、工程S023において、動画生成部141により、モデルが動作データを再現して動いて見えるように構成された三次元オブジェクトを生成する。
Next, in step S023, the moving
図9は、三次元オブジェクト表示及びロボット動作実行のタイミングを示すタイムチャートである。右に向かって時間が流れる図である。 FIG. 9 is a time chart showing the timing of displaying a three-dimensional object and executing a robot action. It is a figure in which time flows toward the right.
本図においては、三次元オブジェクトが画像表示装置104に表示されてからロボット102が動作実行するまでを表している。
This figure shows the process from when the three-dimensional object is displayed on the
まず、動作計画部116で計画された動作データをロボット102のモデルデータが再現するように構成された三次元オブジェクトの表示が、画像表示装置104において開始される。その開始時点から、遅延部117が遅らせた時間(遅延時間)だけ遅れてロボット102の実際の動作が実行される。この場合において、接近判定の時間や動作データを送信する時間などは誤差とし、遅延時間としてカウントしないものとしている。
First, the
このように、作業者105が遅延時間分だけ先に、ロボット102の動作を三次元オブジェクトとして確認できるため、作業者105が直近のロボット102の動作(例えば数秒後の動作)を予測することができ、接近によるロボット102の緊急停止を避け、作業効率を向上させる効果を得ることができる。
In this way, since the
さらに、接近判定部118によって、接近したロボット102の直近の動作についてのみ作業者105が確認可能になるため、作業者105が実際に回避する必要がある危険を容易に認識することができる。
Furthermore, the
(接近判定部で作業者及びロボットの将来位置を予測する例)
実施例1においては、接近判定処理において、作業者105とロボット102との距離のみを利用している。
(Example of predicting the future positions of the worker and the robot by the proximity determination unit)
In the first embodiment, only the distance between the
これに対して、実施例2においては、接近判定処理をする際、作業者105及びロボット102の予測された将来動作を用いて、更に高精度な接近判定処理をする。
On the other hand, in the second embodiment, the predicted future motions of the
ロボットシステムの機能ブロックの概要については、図2と同様である。 The outline of the functional blocks of the robot system is the same as in FIG.
本実施例においては、接近判定部の内部構成が実施例1とは若干異なる。また、動作計画部から接近判定部に動作データが送信される点が実施例1と異なる。 In this embodiment, the internal configuration of the approach determination unit is slightly different from that of the first embodiment. Also, the difference from the first embodiment is that motion data is transmitted from the motion planning unit to the approach determination unit.
図10は、実施例2のロボットシステムの機能を示すブロック図である。 FIG. 10 is a block diagram showing functions of the robot system of the second embodiment.
本図に示すロボットシステム200は、制御装置201にロボット202、センサ203及び画像表示装置204が接続されている。ここで、接続方法は、有線通信でも無線通信でもよい。
In the
制御装置201は、ロボット制御部214と、画像表示装置制御部215と、を備える。ロボット制御部214は、動作計画部216と、遅延部217と、を備える。画像表示装置制御部215は、接近判定部218と、画像生成部219と、を備える。
The
本図においては、図2と異なり、上述のとおり、動作計画部216から接近判定部218に動作データが送信されるようになっている。
In this figure, unlike FIG. 2, motion data is transmitted from the
接近判定部218では、動作計画部216からのロボット202の動作データと、センサ203などからの作業者の位置データとを受け取り、ロボット202及び作業者の将来動作を予測することにより、双方の接近判定をする。
The
次に、接近判定部218の機能ブロックの構成について説明する。
Next, the configuration of the functional blocks of the
図11は、本実施例の接近判定部の機能を示すブロック図である。 FIG. 11 is a block diagram showing the functions of the approach determination unit of this embodiment.
本図に示すように、接近判定部218は、将来ロボット位置算出部220と、危険エリア定義部221と、将来作業者位置算出部222と、将来位置重複判定部223と、を備える。
As shown in the figure, the
将来ロボット位置算出部220は、動作計画部216から受け取ったロボット202の動作データから、ロボット202が将来どの位置に移動するかを算出する部分である。
The future robot
危険エリア定義部221は、将来ロボット位置算出部220が算出した将来のロボットの位置から、ロボット202がいずれその場所に移動してくるという意味で危険であると判定される場所を定義する部分である。
The dangerous
定義の方法は、例えば、ロボット202がAGVの場合は、将来位置の半径数メートル以内は全て危険エリアとする方法などであり、他の方法でもよい。
For example, when the
将来作業者位置算出部222は、センサ203から受け取った作業者に関するデータから作業者の位置を算出し、将来の作業者の位置を算出し予測する部分である。例えば、次のような方法で作業者の将来位置を算出する。
The future worker
センサ203がカメラであって距離画像を取得可能である場合、画像認識により作業者の位置データを算出し、その数秒後の作業者の位置データを算出する。そして、例えば、作業者についての2つの位置データから生成できる直線上に、更に数秒後の作業者が移動していると仮定して、2つの位置データ間の距離と同じだけ離れた直線上の位置(延長線上の位置)を、更に数秒後の作業者の位置であると推定する。なお、作業者の将来位置を算出できる方法であれば、これに限らず、他の方法でもよい。
When the
将来位置重複判定部223は、危険エリア定義部221が定義した危険エリアに、将来作業者位置算出部222が推定した将来の作業者の位置が入っているか否かを判定し、入っていれば、作業者とロボット202とが接近すると判定する部分である。
The future position overlap
次に、接近判定部218による接近判定処理について説明する。
Next, approach determination processing by the
図12は、接近判定処理の工程を示すフローチャートである。 FIG. 12 is a flow chart showing steps of approach determination processing.
本図に示すように、まず、工程S031において、動作計画部216で計画されたロボットの動作データを接近判定部218が読み込む。
As shown in the figure, first, in step S031, the
次いで、工程S032において、将来ロボット位置算出部220が、設定した時間だけ将来のロボット202の位置を上述のような方法によって推定する。
Next, in step S032, the future
次いで、工程S033において、危険エリア定義部221が、工程S032で推定したロボット202の将来位置から、上述のような方法によって危険エリアを決定する。
Next, in step S033, the dangerous
次いで、工程S034において、センサ203が検知した作業者の位置データを読み込む。
Next, in step S034, the position data of the worker detected by the
次いで、工程S035において、将来作業者位置算出部222が、設定した時間だけ将来の作業者の位置データを上述のような方法で算出し予測する。
Next, in step S035, the future
次いで、将来位置重複判定部223が、予測した作業者の位置が危険エリアに入るか否かを判定し、入る場合(工程S036のYES)は、工程S037に進み、ロボット202と作業者とが接近していると判定する。入らない場合(工程S036のNO)は、工程S038に進み、ロボット202と作業者とが接近していないと判定する。
Next, the future position overlap
このように、ロボット202及び作業者の将来位置を活用して接近判定をすることにより、接近判定の精度が向上する。すなわち、ロボット202が高速度で移動するような動的な環境においても、作業者が自身と接触するリスクの高いロボットのみを三次元オブジェクトとして確認することができる。これによって、接近判定処理中に、高速度で動作するロボット102が作業者105に急速に接近し、緊急停止する現象などを防止し、作業効率を更に向上させることができる。
In this way, by utilizing the future positions of the
(画像生成部で連続画像を生成する例)
実施例1においては、三次元オブジェクトとして、ロボット動作を表す動画モデルを表示したが、複数コマ送りのロボットの静止画(姿勢が異なるロボットの静止画)を重畳して表示し、ロボットの一連の動作を一度に全て把握できるシステムも考えられる。これによって、計画された動作を一目で全て把握することができ、複雑な動作や時間のかかる動作も作業者が把握しやすくなり、作業者とロボットとの接近による緊急停止を避け、作業効率を向上させる効果を得ることができる。
(Example of generating continuous images in the image generator)
In the first embodiment, a moving image model representing the motion of the robot is displayed as a three-dimensional object. A system that can grasp all movements at once is also conceivable. This makes it possible to grasp all planned movements at a glance, making it easier for workers to grasp complicated movements and movements that take a long time, avoiding emergency stops due to the approach of the operator and the robot, and improving work efficiency. You can get an improvement effect.
図13は、本実施例の画像生成部の機能を示すブロック図である。 FIG. 13 is a block diagram showing the functions of the image generator of this embodiment.
本図に示す画像生成部319は、実施例1又は実施例2と同じロボットシステムに属するものであり、画像生成部319以外の機能ブロックは、実施例1又は実施例2のものと同じである。
An
画像生成部319は、連続画像生成部320と、モデル記憶部321と、出力座標定義部322と、を備える。実施例1における画像生成部119(図4)との違いは、動画生成部141の代わりに、連続画像生成部320を設けたことである。
The
連続画像生成部320は、動作計画部が計画した動作データを、モデル記憶部321に記憶されているロボットのモデルデータを用いて、動作をコマ送りのように表現する部分である。複数のロボットモデルデータを三次元オブジェクトとして表示し、例えば、動作をはじめから終わりまで一度に表す。動作の長さに対していくつのコマ割りでモデルを表示するかは任意である。
The continuous
次に、連続画像生成部320による画像生成について説明する。
Next, image generation by the continuous
図14は、三次元オブジェクト生成処理の工程を示すフローチャートである。 FIG. 14 is a flow chart showing steps of a three-dimensional object generation process.
本図においては、工程S041及びS042は、図8と同様であり、工程S043のモデルが動作している様子をコマ送りで表現し、それらを一度に表示するような三次元オブジェクトを生成する部分が図8とは異なる。 In this figure, the steps S041 and S042 are the same as in FIG. 8, and the step S043 is a portion for generating a three-dimensional object that displays the motion of the model frame-by-frame and displays them all at once. is different from FIG.
(動作実行前に承認処理を入れる例)
実施例1~3においては、遅延部が遅延時間を設けて、ロボットの動作のタイミングを調整している。
(Example of inserting approval processing before action execution)
In Examples 1 to 3, the delay section provides a delay time to adjust the timing of the robot's motion.
これに対して、実施例4においては、作業者がロボットの将来動作について判断し、承認することを可能にしている。 On the other hand, in Example 4, the operator is allowed to judge and approve the future motion of the robot.
図15は、本実施例のロボットシステムの機能を示すブロック図である。 FIG. 15 is a block diagram showing the functions of the robot system of this embodiment.
本図に示すロボットシステム400は、制御装置401にロボット402、センサ403及び画像表示装置404が接続されている。ここで、接続方法は、有線通信でも無線通信でもよい。
In the
制御装置401は、ロボット制御部414と、画像表示装置制御部415と、を備える。ロボット制御部414は、動作計画部416と、動作承認部417と、を備える。画像表示装置制御部415は、接近判定部418と、画像生成部419と、を備える。
The
本図に示すロボット制御部414は、図2と異なり、遅延部の代わりに動作承認部417を有している。そして、画像生成部419から動作承認部417に三次元オブジェクトの表示完了通知が送信されるようになっている。動作承認部417は、三次元オブジェクトの表示完了通知を受けて、作業者にその動作を実際にロボット402で実行するか否かの判断をさせる。この判断には、何らかの外部入力装置などを用いてする。作業者が動作実行の承認をしたとき、動作承認部417は、ロボット402に動作データを送信する。また、当該承認は、事前にロボット402に送信した動作データの実行の承認であってもよい。ここで、外部入力装置は、画像表示装置404に設けられたボタンでもよい。また、センサ403に対する合図(身振り、手振り等)により、作業者の承認としてもよい。また、承認する人は、ロボット402に接近する作業者だけでなく、監督等の第三者であってもよい。
The
図16は、本実施例におけるロボットシステムの動作計画から実行までの工程を示すフローチャートである。 FIG. 16 is a flow chart showing steps from operation planning to execution of the robot system in this embodiment.
本図においては、まず、工程S051において、動作計画部116がロボット102の動作を計画する。そして、工程S059において、画像生成部419から動作承認部417に三次元オブジェクトの表示完了通知を送信する。
In this figure, first, in step S051, the
工程S060において、作業者は、ロボット402が実際に動作を実行してよいかどうかの判断をし、動作承認部417が作業者の承認を受けた場合(工程S060のYES)は、工程S061に進み、動作承認部417からロボット402に指令を送信する。その後、工程S062において、ロボット402が動作データをもとにアクチュエートし、動作を実行する。
In step S060, the worker determines whether or not the
工程S060において作業者の承認が得られない場合(工程S060のNO)は、ロボット402の動作を実行しない。
If the operator's approval is not obtained in step S060 (NO in step S060), the
図17は、本実施例における三次元オブジェクト表示及びロボット動作実行のタイミングを示すタイムチャートである。右に向かって時間が流れる図である。 FIG. 17 is a time chart showing the timing of displaying a three-dimensional object and executing a robot motion in this embodiment. It is a figure in which time flows toward the right.
本図においては、三次元オブジェクトが画像表示装置404に表示されてからロボット402が動作実行するまでを表している。
This figure shows the process from when the three-dimensional object is displayed on the
本図においては、三次元オブジェクト表示が完了した後、動作承認のプロセスを経て、ロボット402が実行される。
In this figure, after the three-dimensional object display is completed, the
これにより、危険な動作が予想される場合は、事前にロボット402の動作の実行を中止し、作業者とロボットとの衝突等を防止し、安全を担保することができる。
As a result, when a dangerous operation is expected, the execution of the operation of the
なお、実際の工場等においては、複数のロボットが配置され、それぞれが異なる作業や動作を行う状況がある。このような場合においても、作業者(人)が複数のロボットの間に設けられた通路を通行する際、ロボットとの衝突等の危険を回避し、作業者が必要以上にストレスを感じることなく円滑に作業を進められる状況を維持するとともに、ロボットの緊急停止の回数を減らすことが必要である。 In an actual factory or the like, there are situations where a plurality of robots are arranged and each robot performs different tasks and operations. Even in such a case, when a worker (person) passes through a passage provided between multiple robots, it is possible to avoid dangers such as collisions with the robots, and to prevent the worker from feeling unnecessary stress. It is necessary to maintain a situation in which work can proceed smoothly and to reduce the number of emergency stops of the robot.
図18は、作業者が複数のロボットの間を移動する状況を示す模式構成図である。 FIG. 18 is a schematic configuration diagram showing a situation in which an operator moves between a plurality of robots.
本図においては、複数のロボット102a、102b、102c、102dが配置されている。作業者105は、画像表示装置104(HMD)を装着し、複数のロボット102a、102b、102c、102dの間に進入しようとしている。
In this figure, a plurality of
このような状況において、接近判定部118により、ロボット102a、102b、102c、102dのいずれかと作業者105とが接近していると判定された場合には、HMDを介して的確な情報を作業者105に伝える。この場合に、ロボット102a、102b、102c、102dのうち作業者105に接近するものを、作業者105が判断しやすいように、HMDに表示することが望ましい。また、時々刻々と変化する状況に応じて、HMDに表示する内容を切り替えることが望ましい。
In such a situation, when the
なお、この場合において、実施例1~4に示すいずれの構成や方法を適用してもよい。 In this case, any of the configurations and methods shown in Examples 1 to 4 may be applied.
100、200、400:ロボットシステム、101、201、401:制御装置、102、202、402:ロボット、103、203、403:センサ、104、204、404:画像表示装置、105:作業者、114、214、414:ロボット制御部、115、215、415:画像表示装置制御部、116、216、416:動作計画部、117、217:遅延部、118、218、418:接近判定部、119、219、419:画像生成部、130:距離算出部、131:閾値比較部、132:閾値記憶部、141:動画生成部、142:モデル記憶部、143:出力座標定義部、220:将来ロボット位置算出部、221:危険エリア定義部、222:将来作業者位置算出部、223:将来位置重複判定部、319:画像生成部、320:連続画像生成部、321:モデル記憶部、322:出力座標定義部、417:動作承認部。 100, 200, 400: robot system, 101, 201, 401: controller, 102, 202, 402: robot, 103, 203, 403: sensor, 104, 204, 404: image display device, 105: operator, 114 , 214, 414: robot control unit, 115, 215, 415: image display device control unit, 116, 216, 416: motion planning unit, 117, 217: delay unit, 118, 218, 418: approach determination unit, 119, 219, 419: image generation unit, 130: distance calculation unit, 131: threshold comparison unit, 132: threshold storage unit, 141: animation generation unit, 142: model storage unit, 143: output coordinate definition unit, 220: future robot position Calculation unit 221: Dangerous area definition unit 222: Future worker position calculation unit 223: Future position overlap determination unit 319: Image generation unit 320: Continuous image generation unit 321: Model storage unit 322: Output coordinates Definition part, 417: action approval part.
Claims (7)
前記制御装置は、ロボット制御部と、画像表示装置制御部と、を含み、
前記ロボット制御部は、前記ロボットの動作を計画し動作データを作成する動作計画部を含み、前記動作データに基づき前記ロボットを制御するものであり、
前記画像表示装置制御部は、接近判定部と、画像生成部と、を含み、
前記接近判定部は、前記センサによって、人と前記ロボットとの接近が生じるかどうかを判定するものであり、前記動作計画部からの前記動作データと前記センサからの作業者の位置データとに基づき前記ロボット及び前記作業者の将来動作を予測し、
前記画像生成部は、前記接近判定部により前記接近が生じると判定された場合には、前記動作データに基づき前記ロボットの所定時間後の将来動作を表す仮想的なオブジェクトのデータを生成し、前記センサから得られたデータと前記仮想的なオブジェクトの前記データとに基づき複合現実のデータを合成するものであり、
前記画像表示装置は、前記複合現実の前記データに基づき前記ロボットの所定時間後の将来動作を表す前記仮想的なオブジェクトを含む前記複合現実の画像を表示するものであり、
前記接近判定部により前記接近が生じると判定された場合には、前記仮想的なオブジェクトを前記画像表示装置に表示する、ロボットシステム。 Equipped with a robot, a sensor, a control device, and an image display device,
The control device includes a robot control unit and an image display device control unit,
The robot control unit includes a motion planning unit that plans motions of the robot and creates motion data, and controls the robot based on the motion data,
The image display device control unit includes an approach determination unit and an image generation unit,
The approach determination unit determines whether or not the robot will approach the human using the sensor , and is based on the motion data from the motion planning unit and the worker position data from the sensor. Predicting future motions of the robot and the worker;
When the approach determination unit determines that the approach will occur, the image generation unit generates data of a virtual object representing a future motion of the robot after a predetermined time based on the motion data. synthesizing mixed reality data based on data obtained from a sensor and the data of the virtual object;
The image display device displays the mixed reality image including the virtual object representing the future motion of the robot after a predetermined time based on the mixed reality data,
The robot system displaying the virtual object on the image display device when the approach determining unit determines that the approach will occur.
Priority Applications (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2019203927A JP7282016B2 (en) | 2019-11-11 | 2019-11-11 | robot system |
| PCT/JP2020/031518 WO2021095316A1 (en) | 2019-11-11 | 2020-08-20 | Robot system |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2019203927A JP7282016B2 (en) | 2019-11-11 | 2019-11-11 | robot system |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2021074827A JP2021074827A (en) | 2021-05-20 |
| JP7282016B2 true JP7282016B2 (en) | 2023-05-26 |
Family
ID=75899917
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2019203927A Active JP7282016B2 (en) | 2019-11-11 | 2019-11-11 | robot system |
Country Status (2)
| Country | Link |
|---|---|
| JP (1) | JP7282016B2 (en) |
| WO (1) | WO2021095316A1 (en) |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2023017439A (en) * | 2021-07-26 | 2023-02-07 | 株式会社ダイヘン | Safety device |
| WO2024166238A1 (en) * | 2023-02-08 | 2024-08-15 | 三菱電機株式会社 | Robot control device, robot control system, and robot control method |
Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2011080882A1 (en) | 2009-12-28 | 2011-07-07 | パナソニック株式会社 | Operating space presentation device, operating space presentation method, and program |
| WO2013114737A1 (en) | 2012-01-31 | 2013-08-08 | 株式会社五合 | Display device for apparatus and apparatus provided with display device |
| JP2017523054A (en) | 2014-07-16 | 2017-08-17 | エックス デベロップメント エルエルシー | Virtual safety cage for robotic devices |
| JP2018128640A (en) | 2017-02-10 | 2018-08-16 | 富士ゼロックス株式会社 | Information processing apparatus, information processing system, and program |
-
2019
- 2019-11-11 JP JP2019203927A patent/JP7282016B2/en active Active
-
2020
- 2020-08-20 WO PCT/JP2020/031518 patent/WO2021095316A1/en not_active Ceased
Patent Citations (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2011080882A1 (en) | 2009-12-28 | 2011-07-07 | パナソニック株式会社 | Operating space presentation device, operating space presentation method, and program |
| WO2013114737A1 (en) | 2012-01-31 | 2013-08-08 | 株式会社五合 | Display device for apparatus and apparatus provided with display device |
| JP2017523054A (en) | 2014-07-16 | 2017-08-17 | エックス デベロップメント エルエルシー | Virtual safety cage for robotic devices |
| JP2018128640A (en) | 2017-02-10 | 2018-08-16 | 富士ゼロックス株式会社 | Information processing apparatus, information processing system, and program |
Also Published As
| Publication number | Publication date |
|---|---|
| WO2021095316A1 (en) | 2021-05-20 |
| JP2021074827A (en) | 2021-05-20 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US11020859B2 (en) | Integrated robotic system and method for autonomous vehicle maintenance | |
| US20190217472A1 (en) | Robot controlling device and automatic assembling system | |
| US10406686B2 (en) | Bare hand robot path teaching | |
| CN109822579A (en) | Vision-based collaborative robot safety control method | |
| US7653458B2 (en) | Robot device, movement method of robot device, and program | |
| KR101615687B1 (en) | Collision detection robot remote control system and method thereof | |
| JP2019518616A (en) | Method and device for controlling the movement of one or more cooperating robots | |
| CN111906778B (en) | Robot safety control method and device based on multiple perceptions | |
| JP2020516475A5 (en) | ||
| CN106325280A (en) | A multi-robot anti-collision method and system | |
| JP2012236244A (en) | Robot device, method of controlling the same, and program for controlling the same | |
| EP2810748A1 (en) | Communication draw-in system, communication draw-in method, and communication draw-in program | |
| JP7178066B2 (en) | Robot, its action planning device and action planning program | |
| JP6816070B2 (en) | Interference avoidance device and robot system | |
| KR20170014004A (en) | Virtual safety cages for robotic devices | |
| KR102452924B1 (en) | Force-sense visualization apparatus, robot, and force-sense visualization program | |
| CN111176293A (en) | Mobile cooperative control system and control method for distribution robot | |
| JP7282016B2 (en) | robot system | |
| KR20150121403A (en) | System and method for preventing collision between workers and robots | |
| US20210046643A1 (en) | Method and system for teaching robot | |
| JP2019198907A (en) | Robot system | |
| US20240131711A1 (en) | Control device, control method, and storage medium | |
| KR20220107344A (en) | Control system and method of mobile robots by obstacle | |
| JP7036399B2 (en) | Autonomous mobile robots, their control devices and motion control programs | |
| JP2010052116A (en) | Device and method for controlling interference check |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220215 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221122 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230112 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230425 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230516 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7282016 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |