JP2021074827A - ロボットシステム - Google Patents

ロボットシステム Download PDF

Info

Publication number
JP2021074827A
JP2021074827A JP2019203927A JP2019203927A JP2021074827A JP 2021074827 A JP2021074827 A JP 2021074827A JP 2019203927 A JP2019203927 A JP 2019203927A JP 2019203927 A JP2019203927 A JP 2019203927A JP 2021074827 A JP2021074827 A JP 2021074827A
Authority
JP
Japan
Prior art keywords
robot
data
unit
display device
image display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019203927A
Other languages
English (en)
Other versions
JP7282016B2 (ja
Inventor
翔一 半田
Shoichi Handa
翔一 半田
俊晴 菅原
Toshiharu Sugawara
俊晴 菅原
丸山 龍也
Tatsuya Maruyama
龍也 丸山
納谷 英光
Eiko Naya
英光 納谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2019203927A priority Critical patent/JP7282016B2/ja
Priority to PCT/JP2020/031518 priority patent/WO2021095316A1/ja
Publication of JP2021074827A publication Critical patent/JP2021074827A/ja
Application granted granted Critical
Publication of JP7282016B2 publication Critical patent/JP7282016B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)

Abstract

【課題】作業者に必要な危険のみを抽出して提示し、ロボットの緊急停止回数を減少させ、作業効率の向上及び安全性の向上を図る。【解決手段】ロボットと、センサと、制御装置と、画像表示装置と、を備えたロボットシステムであって、制御装置は、ロボット制御部と、画像表示装置制御部と、を含み、ロボット制御部は、ロボットの動作を計画し動作データを作成する動作計画部を含み、動作データに基づきロボットを制御するものであり、画像表示装置制御部は、接近判定部と、画像生成部と、を含み、接近判定部は、人とロボットとの接近が生じるかどうかを判定するものであり、画像生成部は、動作データに基づき仮想的なオブジェクトのデータを生成し、センサから得られたデータとオブジェクトのデータとに基づき複合現実のデータを合成するものであり、画像表示装置は、複合現実のデータに基づき複合現実の画像を表示するものであり、接近判定部により接近が生じると判定された場合には、オブジェクトを画像表示装置に表示する。【選択図】図2

Description

本発明は、ロボットシステムに関する。
近年、労働人口減少が問題になっており、製造業における人手不足の解消、生産性の向上等が求められている。これらの解決手段の一つとして、人とロボットが協調して作業する協働ロボットシステムの活用が期待されている。そして、このシステムの作業効率の向上は、喫緊の課題として挙げられている。
特許文献1には、ロボットの動作に伴う危険の状況を適切に提示することを目的として、人の位置である人位置を取得する人位置取得部と、人位置取得部で取得された人位置に依存させて、人の視界範囲を決定する人視界範囲決定部と、動作計画に従って動作するロボットの少なくとも一部が視界範囲に含まれる特定時刻におけるロボットの位置、および、特定時刻におけるロボットの姿勢のうち少なくとも一方を含む位置姿勢を決定する位置姿勢決定部と、位置姿勢決定部で決定された位置姿勢を示すための画像データを生成する画像生成部とを備える、危険提示装置が記載されている。
国際公開第2011/089885号
協働ロボットは、一定距離以上作業者と近づくと緊急停止するように設定されていることが多い。よって、作業者が協働ロボットの動作を予測できずに接近することにより、緊急停止が頻発すると、作業効率が低下する。
また、ロボットに設けた緊急停止機能が常に万全であるとは限らない。この場合は、作業者がロボットの行動を予測し衝突を回避する必要があるが、ロボットの動作を精度よく予測することは難しい。例えば、作業者の死角から移動ロボットが作業者に接近する場合には、作業者と移動ロボットとの出会い頭の衝突などが発生してしまうおそれがあった。
特許文献1に記載の危険提示装置は、ロボットの動作に伴う危険の状況を人に提示するものであり、これによって作業効率や安全性の向上を図ることが可能である。しかしながら、特許文献1においては、危険の状況について人に提示するか否かを判定することは記載されていない。このため、実際に衝突などを回避する必要がない状況についても人に提示してしまう場合があり、提示された状況のうち作業者が実際に回避する必要がある危険に対する注意力が低下してしまうおそれがある。
そこで、本発明の目的は、作業者に必要な危険のみを抽出して提示し、ロボットの緊急停止回数を減少させ、作業効率の向上及び安全性の向上を図ることにある。
本発明のロボットシステムは、ロボットと、センサと、制御装置と、画像表示装置と、を備え、制御装置は、ロボット制御部と、画像表示装置制御部と、を含み、ロボット制御部は、ロボットの動作を計画し動作データを作成する動作計画部を含み、動作データに基づきロボットを制御するものであり、画像表示装置制御部は、接近判定部と、画像生成部と、を含み、接近判定部は、人とロボットとの接近が生じるかどうかを判定するものであり、画像生成部は、動作データに基づき仮想的なオブジェクトのデータを生成し、センサから得られたデータとオブジェクトのデータとに基づき複合現実のデータを合成するものであり、画像表示装置は、複合現実のデータに基づき複合現実の画像を表示するものであり、接近判定部により接近が生じると判定された場合には、オブジェクトを画像表示装置に表示する。
本発明によれば、作業者に必要な危険のみを抽出して提示し、ロボットの緊急停止回数を減少させ、作業効率の向上及び安全性の向上を図ることができる。
実施例1のロボットシステムの概要を示す全体構成図である。 実施例1のロボットシステムの機能を示すブロック図である。 実施例1の接近判定部の機能を示すブロック図である。 実施例1の画像生成部の機能を示すブロック図である。 実施例1におけるロボットの動作計画から実行までの工程を示すフローチャートである。 実施例1における接近判定から三次元オブジェクトの表示までの工程を示すフローチャートである。 実施例1における接近判定処理の工程を示すフローチャートである。 実施例1における三次元オブジェクト生成処理の工程を示すフローチャートである。 実施例1における三次元オブジェクト表示及びロボット動作実行のタイミングを示すタイムチャートである。 実施例2のロボットシステムの機能を示すブロック図である。 実施例2の接近判定部の機能を示すブロック図である。 実施例2における接近判定処理の工程を示すフローチャートである。 実施例3の画像生成部の機能を示すブロック図である。 実施例3における三次元オブジェクト生成処理の工程を示すフローチャートである。 実施例4のロボットシステムの機能を示すブロック図である。 実施例4におけるロボットシステムの動作計画から実行までの工程を示すフローチャートである。 実施例4における三次元オブジェクト表示及びロボット動作実行のタイミングを示すタイムチャートである。 作業者が複数のロボットの間を移動する状況を示す模式構成図である。
以下、本発明の実施例について、図面を参照して説明する。
図1は、実施例1のロボットシステム100の全体構成を示したものである。
本図に示すように、ロボットシステム100は、制御装置101と、ロボット102と、センサ103と、画像表示装置104と、を含む。
制御装置101は、センサ103から送信される情報の受信、ロボット102の制御、画像表示装置104に表示する画像のデータの送信等の機能を有する。
ロボット102は、固定されていても移動可能でもよく、マニピュレータ、アームロボット、移動ロボット、自動運転車、無人搬送車(AGV)、人型ロボットなどの種類は問わない。
センサ103は、ロボット102の周囲の物、人、通路等に関する情報を検知する。センサ103は、ロボット102、画像表示装置104等に設置してもよく、複数箇所に配置されていてもよい。センサ103は、人との距離を測る距離センサでもよいし、画像認識するカメラでもよいし、Wi−fi(登録商標)やBluetooth(登録商標)などの無線通信を検知するものでもよいし、人とロボットの接近を検知する他の手段でもよい。
画像表示装置104は、複合現実を合成する仮想的なロボットを表示する。画像表示装置104は、ロボット102の将来動作を複合現実として表示する。本図においては、作業者105が装着するヘッドマウントディスプレイ(Head Mount Display:HMD)である。画像表示装置104は、スマートフォン等のモバイルデバイスでも、通路、壁等に設置された端末、スクリーン、壁、床等に画像を投影するプロジェクター等でもよく、その他の媒体でもよい。
なお、作業者105は、工場等の従業員だけでなく、ロボット102に接近する可能性のある人を代表的に表現した用語である。よって、ロボット102に接近する可能性のある人すべてが対象となる。
制御装置101は、画像表示装置104を制御する部分とロボット102を制御する部分とに分けて設置してもよく、そのような場合には、有線通信や無線通信などによって接続されるものとする。さらに、ロボット102の内部に制御装置101が組み込まれていてもよいし、画像表示装置104の内部に制御装置101が組み込まれていてもよい。
ロボットシステム100は、作業者105との効率的な協働や円滑な自動走行などを目的にしている。ロボット102の周りに柵はなく、作業者105は、ロボット102に接近可能である。画像表示装置104は、作業者105が複合現実を確認するものである。
次に、ロボットシステムの機能について説明する。
図2は、ロボットシステムの機能を示すブロック図である。
本図に示すロボットシステム100は、制御装置101にロボット102、センサ103及び画像表示装置104が接続されている。ここで、接続方法は、有線通信でも無線通信でもよい。
制御装置101は、ロボット制御部114と、画像表示装置制御部115と、を備える。ロボット制御部114は、動作計画部116と、遅延部117と、を備える。画像表示装置制御部115は、接近判定部118と、画像生成部119と、を備える。
動作計画部116は、ロボット102の動作を計画する部分である。この動作は、ロボット102が完遂すべきタスクを一度に達成する動作でもよいし、タスクの一部を達成するための動作でもよい。また、一度計画した動作の実行中に、途中から割り込んでロボットの動きを変更させるような動作でもよい。その際、必要であれば、センサ103あるいは図示しない別のセンサのデータを用いてもよい。
遅延部117は、ロボット102による動作データの実行を所定の時間だけ遅延させる機能を有する。この場合に、遅延部117は、動作データのロボット102への送信を所定の時間だけ遅延させてもよいし、ロボット102に送信した動作データのロボット102による実行を所定の時間だけ遅延させてもよい。
接近判定部118は、センサから得たロボット102若しくは作業者又はそれらの両方に関するデータを元に、ロボット102と作業者との距離を算出し、閾値と比較してロボット102と作業者が接近しているか否かを判定する部分である。
画像生成部119は、動作計画部116で計画された動作データを得て、それをオブジェクトに変換し、画像表示装置104に出力する部分である。画像表示装置104は、オブジェクトを表示する。オブジェクトは、三次元オブジェクトであることが望ましいが、二次元オブジェクトであってもよい。
ここで、動作計画部116から得る動作データは、ロボット102がアームロボットの場合は目標位置まで移動するための各ジョイントの角度情報、ロボット102がAGVの場合は移動する際の速度、加速度、移動方向などのデータが例として挙げられる。
ロボット制御部114及び画像表示装置制御部115は、物理的に別々のハードウェアに属していてもよい。その場合は、通信環境の通信帯域によって動作計画部116で計画された動作データが画像生成部119に送るデータが制限されるという課題も想定される。その課題を解決するためには、例えば、ロボット制御部114と画像表示装置制御部115との間において無線通信が届くときのみ、動作計画部116が画像生成部119に動作データを送ることにしてもよい。これにより、全てのロボットからの動作データの全てを送る必要がなくなり、上記の通信帯域の通信容量の上限値によりデータが制限される課題を解決することができる。
なお、接近判定部118は、センサ103で検知されたデータを受け取り、そのデータをもとに、作業者とロボット102の距離を算出し、それを閾値と比較することで、作業者とロボット102とが接近しているか否かを判定する部分である。ここで、データは、センサ103の種類に依存する。センサ103のデータは、例えば、センサ103がロボットに取り付けられているライダーの場合は、周辺の点群データなどである。また、ロボット102に取り付けられたカメラである場合は、撮影した作業者のRGB画像や距離画像である。また、画像表示装置104や作業者に取り付けられたカメラの場合は、ロボットのRGB画像や距離画像である。
画像生成部119は、接近判定部118から得た作業者とロボット102との接近判定結果と、動作計画部116から得たロボット102の動作データとを用いて、画像表示装置104に出力するための三次元オブジェクトを生成する部分である。
次に、接近判定部の詳細な構成について説明する。
図3は、接近判定部の機能を示すブロック図である。
本図においては、接近判定部118は、距離算出部130、閾値比較部131及び閾値記憶部132を備えている。
距離算出部130は、センサからのデータを用いて作業者とロボット102との距離を算出する。算出する方法としては、例えば、センサ103が作業者又は画像表示装置に取り付けられたカメラの場合は、カメラが撮影したロボット102の距離画像を用いて、画像認識によって距離画像の中でどれがロボット102にあたるのかを判定し、カメラからロボット102の距離を算出するなどの方法が挙げられる。作業者とロボット102との距離を算出する方法であれば、他の方法を用いてもよい。
閾値比較部131は、距離算出部130が算出した作業者とロボット102との距離を用いて、閾値と比較する部分である。閾値比較部131は、閾値よりも距離が小さい場合には、作業者とロボット102とが接近していると判定する。ここで用いる閾値は、閾値記憶部132に記憶されており、このロボットシステム100を利用する前にあらかじめ設定し、記憶させておくことが望ましい。
次に、画像生成部119の詳細な構成について説明する。
図4は、画像生成部の機能を示すブロック図である。
本図においては、画像生成部119は、動画生成部141、モデル記憶部142及び出力座標定義部143を備えている。
動画生成部141は、動作計画部116から読み込んだ動作データと、ロボット102のモデルデータとを用いて、ロボット102のモデルが動作データの動作をこなしている様を動的に表す三次元オブジェクト(アニメーション)を生成する部分である。ここで用いるロボット102のモデルデータは、モデル記憶部142に記憶されている。ロボットシステム100を利用する前にあらかじめロボット102の複合現実モデルを設定し、記憶させておくことが望ましい。なお、上記のアニメーションは、「動画モデル」とも呼ぶ。
例えば、ロボット102がアームロボットの場合、動作データを表示するためには、ロボット102のあらゆる姿勢の複合現実モデルをモデル記憶部142に記憶しておき、それを用いてアームロボットが動作データをこなす様を表す三次元オブジェクトを生成する。
出力座標定義部143は、動画生成部141が生成した三次元オブジェクトを、画像表示装置104に複合現実として出力する際に、作業者から見える三次元オブジェクトの場所を定義する部分である。例えば、ロボット102がアームロボットの場合は、ロボット102と三次元オブジェクトとが画像表示装置104の画像として重なって見えるように定義してもよい。また、ロボット102がAGVの場合は、ロボット102が実際に動作し移動する場所に三次元オブジェクトを表示するよう定義してもよい。これにより、作業者が直観的に将来のロボット102の場所及び動作を認識することができる。
図5は、ロボットの動作計画から実行までの工程を示すフローチャートである。
本図に示すように、まず、工程S001において、動作計画部116がロボット102の動作を計画する。ロボット102がアームロボットの場合は、先端の目標位置に対する各ジョイントの角度や角速度指令などを計画する。ロボット102がAGVの場合は、到達目標位置に対する速度やルート等の動作を計画する。ロボット102がアームロボットでもAGVでもない場合は、そのロボットに合った動作を計画する。
次いで、工程S002において、遅延部117に設定された時間だけ待ってから、遅延部117が動作データをロボット102に送信する。
次いで、工程S003において、ロボット102が動作データをもとにアクチュエートし、動作を実行する。
以上説明した工程S001からS003までの処理は、ロボットの一連の動作が完了してから、スタートに戻って行われる。ただし、本発明は、上記の工程に限定されるものではなく、周囲環境が動的な環境の場合は、計画を例えば100msecごとに繰り返し行ってもよい。
次に、ロボット102と作業者105との接近判定をし、三次元オブジェクトを表示するまでの工程について説明する。
図6は、接近判定から三次元オブジェクトの表示までの工程を示すフローチャートである。
本図に示すように、工程S004で、接近判定部118が作業者とロボット102との接近の有無の判定をする(接近判定処理)。工程S004の詳細については、図7を用いて後述する。
工程S004で判定した結果である接近の有無については、工程S005に示すとおりであり、作業者とロボット102との接近がある場合は、工程S006へ進む(S005のYES)。作業者とロボット102との接近がない場合は、工程S004に戻って接近判定処理を繰り返す(S005のNO)。
工程S006においては、計画した動作データを画像生成部119に送信する。
次いで、工程S007において、画像生成部119が画像表示装置104に出力する三次元オブジェクトを生成する。工程S007の詳細については、図8を用いて後述する。
次いで、工程S008においては、出力座標定義部143が、画像表示装置104に三次元オブジェクトを出力する際の出力場所(出力座標)を定義する。例えば、ロボット102がアームロボットで、作業者105が画像表示装置104から見たときに、三次元オブジェクトがロボット102と重なって見えるようにしたければ、画像表示装置104が認識可能なマーカーをロボット102に付けて、そのマーカーを基準に三次元オブジェクトを出力してもよい。また、この場合に、作業空間の中でロボット102の座標を定義し、画像表示装置104に設定し記憶しておき、画像表示装置104の自己位置推定機能なども利用して相対位置関係を割り出す方法などをとってもよい。
次いで、工程S009において、工程S007で生成した三次元オブジェクトと工程S008で定義した出力座標とを画像表示装置104に出力する。
次いで、工程S010において、画像表示装置104が三次元オブジェクトを定義した座標に見えるように表示する。
以上説明した工程S004からS010までの処理は、例えば、100msec程度の一定の周期で繰り返す。
次に、接近判定部118による作業者とロボット102との接近判定処理について説明する。図6の工程S004に相当する部分である。
図7は、接近判定処理の工程を示すフローチャートである。
本図に示すように、まず、工程S011において、センサ103のデータをもとに、距離算出部130が作業者105とロボット102との距離を算出する。例えば、センサ103がロボット102に取り付けられたカメラであり、距離画像のデータが受け取れる場合は、画像認識機能で距離画像の中の作業者105を判別し、距離を算出する方法を採用することができる。他にも、センサ103の種類に応じて距離を算出する方法であれば任意の方法をとってよい。
次いで、工程S012において、閾値記憶部132に記憶されている閾値と、S011において算出した作業者とロボット102との距離と、を比較し、閾値よりも距離が小さいか確認する。距離が閾値より小さい場合(工程S013におけるYES)は、工程S014に進む。距離が閾値より小さくない場合(工程S013におけるNO)は、工程S015へ進む。この場合の比較方法は、距離が閾値以下のときは、工程S013のYESとみなし、距離が閾値以下でないときは、工程S013のNOとみなすなど、距離と閾値の関係から作業者105とロボット102との接近関係を判定できるものであれば他の方法でもよい。
工程S014に進んだ場合は、作業者105とロボット102とは接近していると判定する。一方、工程S015に進んだ場合は、作業者105とロボット102とは接近していないと判定する。
次に、画像生成部119が三次元オブジェクトを生成する工程について説明する。図6のS007に相当する部分である。
図8は、三次元オブジェクト生成処理の工程を示すフローチャートである。
本図に示すように、まず、工程S021において、モデル記憶部142からロボット102のモデルデータを読み込む。ここで、読み込むモデルデータは、例えば、CADデータなど、画像表示装置104に出力するための三次元オブジェクトを生成するもとになれるものであればよい。
次いで、工程S022において、動作計画部116で計画された動作データを読み込む。
次いで、工程S023において、動画生成部141により、モデルが動作データを再現して動いて見えるように構成された三次元オブジェクトを生成する。
図9は、三次元オブジェクト表示及びロボット動作実行のタイミングを示すタイムチャートである。右に向かって時間が流れる図である。
本図においては、三次元オブジェクトが画像表示装置104に表示されてからロボット102が動作実行するまでを表している。
まず、動作計画部116で計画された動作データをロボット102のモデルデータが再現するように構成された三次元オブジェクトの表示が、画像表示装置104において開始される。その開始時点から、遅延部117が遅らせた時間(遅延時間)だけ遅れてロボット102の実際の動作が実行される。この場合において、接近判定の時間や動作データを送信する時間などは誤差とし、遅延時間としてカウントしないものとしている。
このように、作業者105が遅延時間分だけ先に、ロボット102の動作を三次元オブジェクトとして確認できるため、作業者105が直近のロボット102の動作(例えば数秒後の動作)を予測することができ、接近によるロボット102の緊急停止を避け、作業効率を向上させる効果を得ることができる。
さらに、接近判定部118によって、接近したロボット102の直近の動作についてのみ作業者105が確認可能になるため、作業者105が実際に回避する必要がある危険を容易に認識することができる。
(接近判定部で作業者及びロボットの将来位置を予測する例)
実施例1においては、接近判定処理において、作業者105とロボット102との距離のみを利用している。
これに対して、実施例2においては、接近判定処理をする際、作業者105及びロボット102の予測された将来動作を用いて、更に高精度な接近判定処理をする。
ロボットシステムの機能ブロックの概要については、図2と同様である。
本実施例においては、接近判定部の内部構成が実施例1とは若干異なる。また、動作計画部から接近判定部に動作データが送信される点が実施例1と異なる。
図10は、実施例2のロボットシステムの機能を示すブロック図である。
本図に示すロボットシステム200は、制御装置201にロボット202、センサ203及び画像表示装置204が接続されている。ここで、接続方法は、有線通信でも無線通信でもよい。
制御装置201は、ロボット制御部214と、画像表示装置制御部215と、を備える。ロボット制御部214は、動作計画部216と、遅延部217と、を備える。画像表示装置制御部215は、接近判定部218と、画像生成部219と、を備える。
本図においては、図2と異なり、上述のとおり、動作計画部216から接近判定部218に動作データが送信されるようになっている。
接近判定部218では、動作計画部216からのロボット202の動作データと、センサ203などからの作業者の位置データとを受け取り、ロボット202及び作業者の将来動作を予測することにより、双方の接近判定をする。
次に、接近判定部218の機能ブロックの構成について説明する。
図11は、本実施例の接近判定部の機能を示すブロック図である。
本図に示すように、接近判定部218は、将来ロボット位置算出部220と、危険エリア定義部221と、将来作業者位置算出部222と、将来位置重複判定部223と、を備える。
将来ロボット位置算出部220は、動作計画部216から受け取ったロボット202の動作データから、ロボット202が将来どの位置に移動するかを算出する部分である。
危険エリア定義部221は、将来ロボット位置算出部220が算出した将来のロボットの位置から、ロボット202がいずれその場所に移動してくるという意味で危険であると判定される場所を定義する部分である。
定義の方法は、例えば、ロボット202がAGVの場合は、将来位置の半径数メートル以内は全て危険エリアとする方法などであり、他の方法でもよい。
将来作業者位置算出部222は、センサ203から受け取った作業者に関するデータから作業者の位置を算出し、将来の作業者の位置を算出し予測する部分である。例えば、次のような方法で作業者の将来位置を算出する。
センサ203がカメラであって距離画像を取得可能である場合、画像認識により作業者の位置データを算出し、その数秒後の作業者の位置データを算出する。そして、例えば、作業者についての2つの位置データから生成できる直線上に、更に数秒後の作業者が移動していると仮定して、2つの位置データ間の距離と同じだけ離れた直線上の位置(延長線上の位置)を、更に数秒後の作業者の位置であると推定する。なお、作業者の将来位置を算出できる方法であれば、これに限らず、他の方法でもよい。
将来位置重複判定部223は、危険エリア定義部221が定義した危険エリアに、将来作業者位置算出部222が推定した将来の作業者の位置が入っているか否かを判定し、入っていれば、作業者とロボット202とが接近すると判定する部分である。
次に、接近判定部218による接近判定処理について説明する。
図12は、接近判定処理の工程を示すフローチャートである。
本図に示すように、まず、工程S031において、動作計画部216で計画されたロボットの動作データを接近判定部218が読み込む。
次いで、工程S032において、将来ロボット位置算出部220が、設定した時間だけ将来のロボット202の位置を上述のような方法によって推定する。
次いで、工程S033において、危険エリア定義部221が、工程S032で推定したロボット202の将来位置から、上述のような方法によって危険エリアを決定する。
次いで、工程S034において、センサ203が検知した作業者の位置データを読み込む。
次いで、工程S035において、将来作業者位置算出部222が、設定した時間だけ将来の作業者の位置データを上述のような方法で算出し予測する。
次いで、将来位置重複判定部223が、予測した作業者の位置が危険エリアに入るか否かを判定し、入る場合(工程S036のYES)は、工程S037に進み、ロボット202と作業者とが接近していると判定する。入らない場合(工程S036のNO)は、工程S038に進み、ロボット202と作業者とが接近していないと判定する。
このように、ロボット202及び作業者の将来位置を活用して接近判定をすることにより、接近判定の精度が向上する。すなわち、ロボット202が高速度で移動するような動的な環境においても、作業者が自身と接触するリスクの高いロボットのみを三次元オブジェクトとして確認することができる。これによって、接近判定処理中に、高速度で動作するロボット102が作業者105に急速に接近し、緊急停止する現象などを防止し、作業効率を更に向上させることができる。
(画像生成部で連続画像を生成する例)
実施例1においては、三次元オブジェクトとして、ロボット動作を表す動画モデルを表示したが、複数コマ送りのロボットの静止画(姿勢が異なるロボットの静止画)を重畳して表示し、ロボットの一連の動作を一度に全て把握できるシステムも考えられる。これによって、計画された動作を一目で全て把握することができ、複雑な動作や時間のかかる動作も作業者が把握しやすくなり、作業者とロボットとの接近による緊急停止を避け、作業効率を向上させる効果を得ることができる。
図13は、本実施例の画像生成部の機能を示すブロック図である。
本図に示す画像生成部319は、実施例1又は実施例2と同じロボットシステムに属するものであり、画像生成部319以外の機能ブロックは、実施例1又は実施例2のものと同じである。
画像生成部319は、連続画像生成部320と、モデル記憶部321と、出力座標定義部322と、を備える。実施例1における画像生成部119(図4)との違いは、動画生成部141の代わりに、連続画像生成部320を設けたことである。
連続画像生成部320は、動作計画部が計画した動作データを、モデル記憶部321に記憶されているロボットのモデルデータを用いて、動作をコマ送りのように表現する部分である。複数のロボットモデルデータを三次元オブジェクトとして表示し、例えば、動作をはじめから終わりまで一度に表す。動作の長さに対していくつのコマ割りでモデルを表示するかは任意である。
次に、連続画像生成部320による画像生成について説明する。
図14は、三次元オブジェクト生成処理の工程を示すフローチャートである。
本図においては、工程S041及びS042は、図8と同様であり、工程S043のモデルが動作している様子をコマ送りで表現し、それらを一度に表示するような三次元オブジェクトを生成する部分が図8とは異なる。
(動作実行前に承認処理を入れる例)
実施例1〜3においては、遅延部が遅延時間を設けて、ロボットの動作のタイミングを調整している。
これに対して、実施例4においては、作業者がロボットの将来動作について判断し、承認することを可能にしている。
図15は、本実施例のロボットシステムの機能を示すブロック図である。
本図に示すロボットシステム400は、制御装置401にロボット402、センサ403及び画像表示装置404が接続されている。ここで、接続方法は、有線通信でも無線通信でもよい。
制御装置401は、ロボット制御部414と、画像表示装置制御部415と、を備える。ロボット制御部414は、動作計画部416と、動作承認部417と、を備える。画像表示装置制御部415は、接近判定部418と、画像生成部419と、を備える。
本図に示すロボット制御部414は、図2と異なり、遅延部の代わりに動作承認部417を有している。そして、画像生成部419から動作承認部417に三次元オブジェクトの表示完了通知が送信されるようになっている。動作承認部417は、三次元オブジェクトの表示完了通知を受けて、作業者にその動作を実際にロボット402で実行するか否かの判断をさせる。この判断には、何らかの外部入力装置などを用いてする。作業者が動作実行の承認をしたとき、動作承認部417は、ロボット402に動作データを送信する。また、当該承認は、事前にロボット402に送信した動作データの実行の承認であってもよい。ここで、外部入力装置は、画像表示装置404に設けられたボタンでもよい。また、センサ403に対する合図(身振り、手振り等)により、作業者の承認としてもよい。また、承認する人は、ロボット402に接近する作業者だけでなく、監督等の第三者であってもよい。
図16は、本実施例におけるロボットシステムの動作計画から実行までの工程を示すフローチャートである。
本図においては、まず、工程S051において、動作計画部116がロボット102の動作を計画する。そして、工程S059において、画像生成部419から動作承認部417に三次元オブジェクトの表示完了通知を送信する。
工程S060において、作業者は、ロボット402が実際に動作を実行してよいかどうかの判断をし、動作承認部417が作業者の承認を受けた場合(工程S060のYES)は、工程S061に進み、動作承認部417からロボット402に指令を送信する。その後、工程S062において、ロボット402が動作データをもとにアクチュエートし、動作を実行する。
工程S060において作業者の承認が得られない場合(工程S060のNO)は、ロボット402の動作を実行しない。
図17は、本実施例における三次元オブジェクト表示及びロボット動作実行のタイミングを示すタイムチャートである。右に向かって時間が流れる図である。
本図においては、三次元オブジェクトが画像表示装置404に表示されてからロボット402が動作実行するまでを表している。
本図においては、三次元オブジェクト表示が完了した後、動作承認のプロセスを経て、ロボット402が実行される。
これにより、危険な動作が予想される場合は、事前にロボット402の動作の実行を中止し、作業者とロボットとの衝突等を防止し、安全を担保することができる。
なお、実際の工場等においては、複数のロボットが配置され、それぞれが異なる作業や動作を行う状況がある。このような場合においても、作業者(人)が複数のロボットの間に設けられた通路を通行する際、ロボットとの衝突等の危険を回避し、作業者が必要以上にストレスを感じることなく円滑に作業を進められる状況を維持するとともに、ロボットの緊急停止の回数を減らすことが必要である。
図18は、作業者が複数のロボットの間を移動する状況を示す模式構成図である。
本図においては、複数のロボット102a、102b、102c、102dが配置されている。作業者105は、画像表示装置104(HMD)を装着し、複数のロボット102a、102b、102c、102dの間に進入しようとしている。
このような状況において、接近判定部118により、ロボット102a、102b、102c、102dのいずれかと作業者105とが接近していると判定された場合には、HMDを介して的確な情報を作業者105に伝える。この場合に、ロボット102a、102b、102c、102dのうち作業者105に接近するものを、作業者105が判断しやすいように、HMDに表示することが望ましい。また、時々刻々と変化する状況に応じて、HMDに表示する内容を切り替えることが望ましい。
なお、この場合において、実施例1〜4に示すいずれの構成や方法を適用してもよい。
100、200、400:ロボットシステム、101、201、401:制御装置、102、202、402:ロボット、103、203、403:センサ、104、204、404:画像表示装置、105:作業者、114、214、414:ロボット制御部、115、215、415:画像表示装置制御部、116、216、416:動作計画部、117、217:遅延部、118、218、418:接近判定部、119、219、419:画像生成部、130:距離算出部、131:閾値比較部、132:閾値記憶部、141:動画生成部、142:モデル記憶部、143:出力座標定義部、220:将来ロボット位置算出部、221:危険エリア定義部、222:将来作業者位置算出部、223:将来位置重複判定部、319:画像生成部、320:連続画像生成部、321:モデル記憶部、322:出力座標定義部、417:動作承認部。

Claims (7)

  1. ロボットと、センサと、制御装置と、画像表示装置と、を備え、
    前記制御装置は、ロボット制御部と、画像表示装置制御部と、を含み、
    前記ロボット制御部は、前記ロボットの動作を計画し動作データを作成する動作計画部を含み、前記動作データに基づき前記ロボットを制御するものであり、
    前記画像表示装置制御部は、接近判定部と、画像生成部と、を含み、
    前記接近判定部は、人と前記ロボットとの接近が生じるかどうかを判定するものであり、
    前記画像生成部は、前記動作データに基づき仮想的なオブジェクトのデータを生成し、前記センサから得られたデータと前記オブジェクトの前記データとに基づき複合現実のデータを合成するものであり、
    画像表示装置は、前記複合現実の前記データに基づき前記複合現実の画像を表示するものであり、
    前記接近判定部により前記接近が生じると判定された場合には、前記オブジェクトを前記画像表示装置に表示する、ロボットシステム。
  2. 前記オブジェクトは、三次元オブジェクトである、請求項1記載のロボットシステム。
  3. 前記接近判定部により前記接近が生じないと判定された場合には、前記オブジェクトを前記画像表示装置に表示しない、請求項1記載のロボットシステム。
  4. 前記ロボット制御部は、前記ロボットによる前記動作データの実行を所定の時間だけ遅延させる機能を有する遅延部を更に含む、請求項1記載のロボットシステム。
  5. 前記ロボット制御部は、人の承認を受けてから前記ロボットに前記動作データの実行をさせる動作承認部を更に含む、請求項1記載のロボットシステム。
  6. 請求項1記載のロボットシステムに用いられる、画像表示装置。
  7. 請求項1記載のロボットシステムに用いられる、制御装置。
JP2019203927A 2019-11-11 2019-11-11 ロボットシステム Active JP7282016B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019203927A JP7282016B2 (ja) 2019-11-11 2019-11-11 ロボットシステム
PCT/JP2020/031518 WO2021095316A1 (ja) 2019-11-11 2020-08-20 ロボットシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019203927A JP7282016B2 (ja) 2019-11-11 2019-11-11 ロボットシステム

Publications (2)

Publication Number Publication Date
JP2021074827A true JP2021074827A (ja) 2021-05-20
JP7282016B2 JP7282016B2 (ja) 2023-05-26

Family

ID=75899917

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019203927A Active JP7282016B2 (ja) 2019-11-11 2019-11-11 ロボットシステム

Country Status (2)

Country Link
JP (1) JP7282016B2 (ja)
WO (1) WO2021095316A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011080882A1 (ja) * 2009-12-28 2011-07-07 パナソニック株式会社 動作空間提示装置、動作空間提示方法およびプログラム
WO2013114737A1 (ja) * 2012-01-31 2013-08-08 株式会社五合 機器の表示装置および表示装置を設けた機器
JP2017523054A (ja) * 2014-07-16 2017-08-17 エックス デベロップメント エルエルシー ロボット装置用仮想セーフティケージ
JP2018128640A (ja) * 2017-02-10 2018-08-16 富士ゼロックス株式会社 情報処理装置、情報処理システム及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011080882A1 (ja) * 2009-12-28 2011-07-07 パナソニック株式会社 動作空間提示装置、動作空間提示方法およびプログラム
WO2013114737A1 (ja) * 2012-01-31 2013-08-08 株式会社五合 機器の表示装置および表示装置を設けた機器
JP2017523054A (ja) * 2014-07-16 2017-08-17 エックス デベロップメント エルエルシー ロボット装置用仮想セーフティケージ
JP2018128640A (ja) * 2017-02-10 2018-08-16 富士ゼロックス株式会社 情報処理装置、情報処理システム及びプログラム

Also Published As

Publication number Publication date
WO2021095316A1 (ja) 2021-05-20
JP7282016B2 (ja) 2023-05-26

Similar Documents

Publication Publication Date Title
CN110561432B (zh) 一种基于人机共融的安全协作方法及装置
US11220002B2 (en) Robot simulation device
US11865732B2 (en) Integrated robotic system and method for autonomous vehicle maintenance
US10406686B2 (en) Bare hand robot path teaching
KR101539270B1 (ko) 충돌회피 및 자율주행을 위한 센서융합 기반 하이브리드 반응 경로 계획 방법, 이를 수행하기 위한 기록 매체 및 이동로봇
EP1586423B1 (en) Robot control device, robot control method, and robot control program
US8942850B2 (en) Method and system for assisting in the handling of robotized machines in a congested environment
US7653458B2 (en) Robot device, movement method of robot device, and program
JP6445092B2 (ja) ロボットの教示のための情報を表示するロボットシステム
JP2019518616A (ja) 1または複数の協働ロボットの運動を制御するための方法およびデバイス
JP2019123022A (ja) ロボット制御装置および自動組立システム
CN105479490A (zh) 一种双机器人实时动态避障装置及其避障方法
KR101650764B1 (ko) 작업자와 로봇 사이의 충돌 방지 시스템 및 방법
CN102448681A (zh) 动作空间提示装置、动作空间提示方法以及程序
JP2012223845A (ja) ロボットの着目部位と周辺物との干渉を予測する方法及び装置
KR20150136399A (ko) 충돌 예측 로봇 원격 제어 시스템 및 그 방법
JP6816070B2 (ja) 干渉回避装置およびロボットシステム
KR102452924B1 (ko) 역각 시각화 장치, 로봇 및 역각 시각화 프로그램
CN111176293A (zh) 配送机器人的移动协同控制系统及控制方法
JP2016209991A (ja) ロボットの制御装置、制御方法およびシステム
JP3768957B2 (ja) 移動ロボットの経路設定方法
WO2021095316A1 (ja) ロボットシステム
JP5803769B2 (ja) 移動ロボット
US20200246974A1 (en) Handling assembly comprising a handling device for carrying out at least one work step, method, and computer program
JP2020066080A (ja) 人と協働作業を行うロボットシステム、及びロボット制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230425

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230516

R150 Certificate of patent or registration of utility model

Ref document number: 7282016

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150