JP2022186476A - 情報処理装置、情報処理方法、及び、コンピュータプログラム - Google Patents

情報処理装置、情報処理方法、及び、コンピュータプログラム Download PDF

Info

Publication number
JP2022186476A
JP2022186476A JP2021094718A JP2021094718A JP2022186476A JP 2022186476 A JP2022186476 A JP 2022186476A JP 2021094718 A JP2021094718 A JP 2021094718A JP 2021094718 A JP2021094718 A JP 2021094718A JP 2022186476 A JP2022186476 A JP 2022186476A
Authority
JP
Japan
Prior art keywords
robot
display mode
model
environment
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021094718A
Other languages
English (en)
Inventor
純哉 桑田
Junya Kuwata
貴志 堀ノ内
Takashi Horinouchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2021094718A priority Critical patent/JP2022186476A/ja
Priority to PCT/JP2022/021465 priority patent/WO2022255206A1/ja
Publication of JP2022186476A publication Critical patent/JP2022186476A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/406Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by monitoring or safety
    • G05B19/4069Simulating machining process on screen

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Manufacturing & Machinery (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

Figure 2022186476000001
【課題】ロボットを設置する前に行われるロボットが周辺の物体に干渉するか否かの確認をより確実に行う。
【解決手段】情報処理装置は、プロセッサ及び表示装置を備え、プロセッサは、ロボットが設置される実環境をモデル化した環境モデル内に、ロボットをモデル化したロボットモデルを配置し、環境モデル内にてロボットモデルを動作させて、ロボットと実環境との関係性の表示態様を示すモードである表示モードに対応する表示モード関連情報を生成し、表示モード関連情報に基づく画像を、実環境内に存在するユーザが有する表示装置に表示する。
【選択図】図1

Description

本開示は、情報処理装置、情報処理方法、及び、コンピュータプログラムに関する。
工場設備等に作業用のロボット(例えばロボットアーム)を設置する場合、実際にロボットを設置する前に、ロボットが周辺の物体と干渉せずに目的の作業を実施可能であるか否かを確認することが行われる。
特許文献1には、仮想的なロボットの画像を、工場内に現実に存在する周辺機器、床面、フェンスといった周辺の物体に立体的に重ね合わせ、複合現実画像として透過型のHMD(Head Mounted Display)に表示し、HMDを装着した作業者に、仮想的なロボットが周辺の物体に干渉するか否かを目視で確認させる技術が開示される。
特開2019-8473号公報
しかし、特許文献1に開示される技術の場合、仮想的なロボットが周辺の物体に干渉するか否かの判断を、HMDを装着した作業者の目視に依存しているため、干渉チェックの漏れ又はミス等が発生しやすい。
本開示の目的は、ロボットを設置する前に行われる、ロボットが周辺の物体に干渉するか否かの確認を、より確実に行うことができる技術を提供することにある。
本開示の一態様に係る情報処理装置は、プロセッサ及び表示装置を備え、前記プロセッサは、ロボットが設置される実環境をモデル化した環境モデル内に、前記ロボットをモデル化したロボットモデルを配置し、前記環境モデル内にて前記ロボットモデルを動作させて、前記ロボットと前記実環境との関係性の表示態様を示すモードである表示モードに対応する表示モード関連情報を生成し、前記表示モード関連情報に基づく画像を、前記実環境内に存在するユーザが有する前記表示装置に表示する。
本開示の一態様に係る情報処理方法は、情報処理装置によって、ロボットが設置される実環境をモデル化した環境モデル内に、前記ロボットをモデル化したロボットモデルを配置し、前記環境モデル内にて前記ロボットモデルを動作させて、前記ロボットと前記実環境との関係性の表示態様を示すモードである表示モードに対応する表示モード関連情報を生成し、前記表示モード関連情報に基づく画像を、前記実環境内に存在するユーザが有する表示装置に表示する。
なお、これらの包括的又は具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラム又は記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。
本開示によれば、ロボットを設置する前に行われる、ロボットが周辺の物体に干渉するか否かの確認を、より確実に行うことができる。
本実施の形態に係るHMDの利用態様を示す図 本実施の形態に係るHMDのハードウェア構成の一例を示すブロック図 本実施の形態に係るHMDの機能構成の一例を示すブロック図 本実施の形態に係る環境モデル生成処理の一例を示すフローチャート 本実施の形態に係るMR画像表示処理の一例を示すフローチャート マーカが設置されている位置にロボットモデルを配置する場合を示す図 実際のロボットが設置されている位置にロボットモデルを配置する場合を示す図 ユーザが指定した位置にロボットモデルを配置する場合を示す図 干渉部位表示モード又は挟み込みリスク表示モードにおけるMR画像の一例を示す図 衝突リスク表示モード又は動作効率表示モードにおけるMR画像の一例を示す図 動作範囲表示モードにおけるMR画像の一例を示す図 ロボット動作軌跡表示モードにおけるMR画像の一例を示す図 作業可能範囲表示モードにおけるMR画像の一例を示す図 複数のHMDを連携して利用する方法を説明するための図
以下、図面を適宜参照して、本開示の実施の形態について、詳細に説明する。ただし、必要以上に詳細な説明は省略する場合がある。例えば、すでによく知られた事項の詳細説明及び実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。なお、添付図面及び以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより特許請求の記載の主題を限定することは意図されていない。
(本実施の形態)
<HMDの利用態様>
図1は、本実施の形態に係るHMD10の利用態様を示す図である。
情報処理装置の一例である透過型のHMD10は、ユーザ1に装着される。HMD10は、作業用のロボット(例えばロボットアーム)が設置される実際の環境である実環境100のロボットが設置される予定の位置に、そのロボットに対応するロボットモデルの画像(以下、ロボットモデル画像110と称する)を表示する。つまり、HMD10を装着したユーザ1は、実環境100のロボットが設置される予定の位置に、HMD10を通じて、MR(Mixed Reality;複合現実)画像の一例であるロボットモデル画像110が立体的に見える。ロボットモデル画像110は、ロボットのあるタイミングの姿勢を示す静止画であってもよいし、ロボットの作業動作を示す動画像であってもよい。
これにより、HMD10を装着したユーザ1は、ロボットを実環境100に設置する前に、HMD10を通じて、ロボットモデル画像110の動き等を見て、ロボットが実環境100の周辺の物体に干渉するか否か等の確認を行うことができる。以下では、このようなロボットモデル画像110を表示でき、HMD10を装着したユーザ1が、ロボットを設置する前に確認すべき事項を、視覚的にわかり易くかつ効率的に確認できるHMD10について説明する。
<HMDのハードウェア構成>
図2は、本実施の形態に係るHMD10のハードウェア構成の一例を示すブロック図である。
図2に示すように、HMD10は、ハードウェアとして、3次元スキャナ11、加速度センサ12、ジャイロセンサ13、地磁気センサ14、メモリ15、ストレージ16、操作装置17、表示装置18、通信装置19、プロセッサ20を備え、これらの構成要素は、双方向通信可能なバス21に接続される。
3次元スキャナ11は、実環境100の物体を立体的にスキャンして3次元データを生成する。3次元スキャナ11の例として、ToF(Time Of Flight)センサ、LiDAR(Laser Imaging Detection and Ranging)等が挙げられる。3次元データは、3次元座標を示す複数の点群によって構成されてよい。
加速度センサ12は、HMD10の加速度を測定する。
ジャイロセンサ13は、HMD10の角速度を測定する。なお、ジャイロセンサ13は、角速度センサと読み替えられてもよい。
地磁気センサ14は、HMD10の方位(向き)を測定する。なお、地磁気センサ14は、電子コンパスと読み替えられてもよい。
メモリ15は、プログラム及びデータ等を記憶する。メモリ15は、例えば、ROM(Read-Only Memory)、RAM(Random Access Memory)、又は、フラッシュメモリ等を含んで構成される。
ストレージ16は、不揮発性記憶媒体にて構成され、プログラム及びデータ等を格納する。ストレージ16は、例えば、フラッシュメモリを含んで構成される。
操作装置17は、ユーザ1からの入力操作を受け付ける。操作装置17の例として、コントローラ、タッチパネル、ジェスチャセンサ等が挙げられる。
表示装置18は、画像を表示する。表示装置18は、透過型ディスプレイを含んで構成され、ユーザ1は、表示装置18の透過先に実環境100を見ることができる。
通信装置19は、HMD10を所定のネットワークに接続するための装置である。通信装置19は、有線通信に対応する装置であってもよいし、無線通信に対応する装置であってもよい。有線通信の方式の例として、Ethernet(登録商標)が挙げられる。無線通信の方式の例として、Wi-Fi(登録商標)、LTE(Long Term Evolution)、4G、5G、Bluetooth(登録商標)が挙げられる。
プロセッサ20は、他の構成要素11~19と協働して、本実施の形態に係るHMD10が有する機能を実現する。例えば、プロセッサ20は、メモリ15又はストレージ16からプログラム及びデータを読み出して処理することにより、本実施の形態に係るHMD10が有する機能を実現する。HMD10が有する機能の詳細については後述する。なお、プロセッサ20は、CPU(Central Processing Unit)、制御部、制御回路といった他の用語に読み替えられてもよい。
<HMDの機能構成>
図3は、本実施の形態に係るHMD10の機能構成の一例を示すブロック図である。
HMD10は、機能として、操作取得部31、センシングデータ取得部32、視点算出部33、環境モデル生成部34、環境モデル格納部35、ロボットモデル格納部36、シミュレーション部37、MR画像生成部38を有する。
操作取得部31は、操作装置17から、当該操作装置17にユーザ1が行った入力操作を示す情報を取得する。
センシングデータ取得部32は、3次元スキャナから3次元データを取得する。加えて、センシングデータ取得部32は、加速度センサ12からHMD10の加速度の測定結果を取得し、ジャイロセンサ13からHMD10の角速度の測定結果を取得し、地磁気センサ14からHMD10の方位(向き)の測定結果を取得する。
視点算出部33は、センシングデータ取得部32が取得した3次元データ及び各種測定結果に基づいて、ユーザ1が装着しているHMD10の位置、視線(向き)及び傾き等を算出する。
環境モデル生成部34は、センシングデータ取得部32によって取得された3次元データに基づいて、実環境100の3次元モデルである環境モデルを生成する。環境モデル生成部34は、その生成した環境モデルを環境モデル格納部35に格納する。環境モデル格納部35には、ロボットが設置される予定の実環境100の環境モデルが格納される。
ロボットモデル格納部36には、ロボットの3次元モデルであるロボットモデルが格納される。ロボットモデルのデータは、ロボットを製造又は販売するメーカから得られてよい。また、ロボットモデルのデータには、ロボットの形状を示すデータに加えて、ロボットが可能な動作を示すデータも含まれてよい。
シミュレーション部37は、環境モデル格納部35から環境モデルを取得し、ロボットモデル格納部36からロボットモデルを取得する。そして、シミュレーション部37は、環境モデル内にロボットモデルを配置し、ロボットモデルを動作させて、ロボットモデルの動作と環境モデルとの関係性をシミュレーションする。これにより、ロボットモデルの動作が環境モデルの部位と干渉するか否か等を分析できる。なお、シミュレーション部37のさらなる機能については後述する。
MR画像生成部38は、視点算出部33による算出結果に基づいて、HMD10を装着しているユーザ1があたかも実環境100の所定の位置にロボットが存在しているように見えるロボットモデル画像110を生成する。なお、ロボットモデル画像110は、MR画像生成部38が生成するMR画像の一例である。他のMR画像については後述する。MR画像生成部38は、生成したMR画像を表示装置18に表示する。なお、MR画像生成部38のさらなる機能については後述する。
<環境モデル生成処理>
図4を参照して、環境モデルを生成する処理について説明する。図4は、本実施の形態に係る環境モデル生成処理の一例を示すフローチャートである。
操作取得部31が、HMD10を装着するユーザ1から、実環境100の3次元スキャンの開始指示を取得した場合、以下の処理が開始される(S11)。
環境モデル生成部34は、HMD10を装着するユーザ1に対して、位置及び視線の移動を指示する(S12)。つまり、環境モデル生成部34は、HMD10の位置及び向きの移動を指示する。これにより、3次元スキャナ11は、実環境100を様々な方向から3次元スキャンでき、様々な方向の3次元データを得ることができる。
センシングデータ取得部32は、3次元スキャナ11から3次元データを取得する(S13)。加えて、センシングデータ取得部32は、加速度センサ12、ジャイロセンサ13、及び、地磁気センサ14から測定結果を取得する。センシングデータ取得部32は、取得した3次元データと、取得した測定結果を対応付けて、メモリ15又はストレージ16に格納してよい。これにより、後述するステップS15において、それぞれの3次元データがいずれの位置からいずれの向き及び傾きにて得られたものであるかを特定できるので、複数の3次元データを結合して実環境100に対応する環境モデルを生成することができる。
環境モデル生成部34は、実環境100の3次元スキャンが完了したか否かを判定する(S14)。例えば、環境モデル生成部34は、ロボットを設置する場所の実環境100モデルを生成するに十分な3次元データを得られた場合、3次元スキャンが完了したと判定する。あるいは、操作取得部31が、ユーザ1から3次元スキャンの完了指示を取得した場合、環境モデル生成部34は、3次元スキャンが完了したと判定する。
実環境100の3次元スキャンが完了していない場合(S14:NO)、HMD10は、処理をステップS12に戻す。実環境100の3次元スキャンが完了した場合(S14:YES)、HMD10は、処理をステップS15に進める。
環境モデル生成部34は、メモリ15又はストレージ16格納された3次元データと各センサ12、13、14の測定結果とに基づいて環境モデルを生成し、環境モデル格納部35に格納する(S15)。
環境モデル生成部34は、環境モデル内におけるロボットモデルの配置位置を決定する(S16)。以下、ロボットモデルの配置位置を示す情報を、ロボット位置情報と称する。なお、環境モデル内におけるロボットモデルの配置位置の決定方法については後述する。
以上の処理により、ロボットを配置する予定の実環境100に対応する環境モデルを生成することができる。
<MR画像表示処理のフロー>
図5を参照して、MR画像を表示する処理について説明する。図5は、本実施の形態に係るMR画像表示処理の一例を示すフローチャートである。
操作取得部31は、ユーザ1が選択した表示モードを取得する(S21)。選択可能な表示モードには、干渉部位表示モード、挟み込みリスク表示モード、衝突リスク表示モード、動作効率表示モード、動作範囲表示モード、ロボット動作軌跡表示モード、作業可能範囲表示モードがある。なお、これらの表示モードの詳細については後述する。
シミュレーション部37は、ロボット位置情報が示す環境モデル内の位置にロボットモデルを配置して当該ロボットモデルを動作させ、選択された表示モードに対応する情報(以下、表示モード関連情報と称する)を生成する(S22)。なお、表示モード関連情報の詳細については後述する。
センシングデータ取得部32は、3次元スキャナ11から3次元データを取得する。加えて、センシングデータ取得部32は、加速度センサ12、ジャイロセンサ13及び地磁気センサ14から測定結果を取得する(S23)。
視点算出部33は、センシングデータ取得部32によって取得された3次元データ及び測定結果に基づいて、ユーザ1(HMD10)の位置及び視線方向を算出する(S24)。
MR画像生成部38は、算出された視線方向に見える実環境100と適切に重畳するMR画像を生成し、表示装置18に表示する(S25)。このMR画像の重畳位置及び画像内容は、S22にて生成された表示モード関連情報によって異なってよい。なお、MR画像の具体例については後述する。
HMD10は、MR画像の表示を終了するか否かを判定する(S26)。MR画像の表示を終了しない場合(S26:NO)、HMD10は、処理をステップS23に戻す。MR画像の処理を終了する場合(S26:YES)、HMD10は、本処理を終了する。
以上に処理により、HMD10を装着するユーザ1は、実環境100の適切な位置に重畳されたMR画像を見ることができる。
<環境モデル内におけるロボットモデルの配置位置の決定方法>
図6、図7、図8を参照して、環境モデル内におけるロボットモデルの配置位置の決定方法について説明する。なお、HMD10は、図6~図8に示すいずれの方法でロボットモデルの配置位置を決定してもよい。
図6は、マーカ102が設置されている位置にロボットモデルを配置する場合を示す図である。
ユーザ1は、実環境100においてロボットを設置する予定の作業台101の位置に所定のマーカ102(例えば二次元コード)を設置する。この場合、環境モデル生成部34は、図4のステップS16において、マーカ102を検出し、その検出されたマーカ102の位置をロボットモデルの配置位置に決定する。
図7は、実際のロボット103が設置されている位置にロボットモデルを配置する場合を示す図である。
環境モデル生成部34は、図4のステップS16において、実際のロボット103が設置されている位置を検出し、その検出された実際のロボット103の位置をロボットモデルの配置位置に決定する。なお、実際のロボット103が交換された場合、環境モデル生成部34は、交換後の実際のロボット103が設置されている位置を検出し直してよい。
図8は、ユーザ1が指定した位置にロボットモデルを配置する場合を示す図である。
環境モデル生成部34は、図4のステップS16において、ユーザ1に対して、実環境100においてロボットを設置する予定の位置を示すよう指示する。ユーザ1は、操作装置17を通じて、表示装置18に表示される矢印画像104を操作して、実環境100においてロボットを設置する予定の位置を指示する。この場合、環境モデル生成部34は、ユーザ1に指示された位置を、ロボットモデルの配置位置に決定する。なお、ロボットを設置する予定の位置をユーザ1の操作により指示する態様は、矢印画像104の操作に限られない。例えば、ユーザ1が、操作装置17を通じて、ロボットの配置位置に対応する座標を直接入力してもよい。あるいは、ユーザ1がロボットを設置する予定の位置に触れると、環境モデル生成部34は、そのユーザ1が触れた位置を検出し、その検出した位置を、ロボットモデルの配置位置に決定してもよい。また、ユーザ1の操作(例えばジェスチャ)により、決定されたロボットモデルの配置位置を修正してもよい。
<干渉部位表示モード又は挟み込みリスク表示モード>
図9を参照して、干渉部位表示モード及び挟み込みリスク表示モードについて説明する。図9は、干渉部位表示モード又は挟み込みリスク表示モードにおけるMR画像の一例を示す図である。
<<干渉部位の検出>>
シミュレーション部37は、ロボットモデルを動作シーケンスに基づいて動作させた場合に、ロボットモデルと干渉するおそれのある環境モデルの部位(以下、干渉部位と称する)を検出する。図5のステップS21にて干渉部位表示モードが選択された場合、シミュレーション部37は、図5のステップS22にて、以下のS101~S104の処理を実行してよい。
シミュレーション部37は、環境モデル格納部35から環境モデルを取得し、ロボットモデル格納部36からロボットモデルを取得する(S101)。
シミュレーション部37は、環境モデル内におけるロボットモデルの位置及び姿勢を算出する(S102)。
シミュレーション部37は、ロボットモデルの動作シーケンスを読み込む(S103)。
シミュレーション部37は、動作シーケンスに基づいてロボットモデルを動作させ、ロボットモデルと干渉する環境モデルの部位(干渉部位)と、動作シーケンスの時間におけるその干渉が発生したタイミング(以下、干渉タイミングと称する)とを特定し、それら特定した情報(以下、干渉情報と称する)を、メモリ15又はストレージ16に格納する(S104)。例えば、シミュレーション部37は、ロボットモデルとの距離が0以下である環境モデルの部位を、干渉部位に特定する。ただし、ロボットモデルの姿勢の制御誤差を考慮し、シミュレーション部37は、ロボットモデルとの距離が0以下である環境モデルの部位に限らず、ロボットモデルとの距離が所定の干渉閾値未満(ただし干渉閾値は0より大きい)である環境モデルの部位を、干渉部位に特定してもよい。
また、シミュレーション部37は、干渉閾値を、ロボットモデルの移動速度に応じて変化させてもよい。例えば、シミュレーション部37は、ロボットモデルの移動速度が速いほど、干渉閾値を大きく設定してもよい。ロボットモデルの移動速度が速いほど、現実の動作とシミュレーションの動作との間の誤差が大きくなり易いため、たとえシミュレーション上は干渉が発生していなくとも実環境では干渉が発生し易くなるためである。なお、干渉情報及び干渉閾値は、表示モード関連情報の一例である。
<<干渉部位のMR画像表示>>
図5のステップS21にて干渉部位表示モードが選択された場合、MR画像生成部38は、図5のステップS25にて、次の処理を実行してよい。
MR画像生成部38は、上述した干渉情報を用いて、実環境100におけるロボットの設置位置にロボットモデル画像110が重畳され、干渉部位に対応する実環境100の部位に干渉画像111が重畳されるようにMR画像を生成し、表示装置18に表示する。
MR画像生成部38は、動作シーケンスに従って、ロボットモデル画像110及び干渉画像111を変化させてよい。すなわち、MR画像生成部38は、動作シーケンスに従ってロボットモデルを動作させた場合における、ロボットモデルの姿勢の変化と干渉部位の時間変化とを示す動画像(以下、干渉動画像と称する)を、表示装置18に表示する。
MR画像生成部38は、操作装置17に対するユーザ1の操作に応じて、干渉動画像の再生、一時停止、巻き戻し等を行ってよい。
MR画像生成部38は、干渉タイミングで、干渉動画像の再生を自動的に一時停止してよい。これにより、HMD10を装着しているユーザ1は、操作装置17を操作せずに、干渉発生時のロボットの姿勢と干渉部位とを容易に確認できる。
MR画像生成部38は、干渉タイミングのリストを表示装置18に表示し、ユーザ1に1つの干渉タイミングを選択させてもよい。そして、MR画像生成部38は、ユーザ1が選択した干渉タイミングにおけるロボットモデル画像110及び干渉画像111を、表示装置18に表示してよい。これにより、ユーザ1は、複数の干渉タイミングが存在する場合に、所望の干渉タイミングにおけるロボットモデルの姿勢等を簡単に確認することができる。
MR画像生成部38は、複数の干渉タイミングのリストを表示し、ユーザ1に2以上の干渉タイミングを選択させてもよい。そして、MR画像生成部38は、ユーザ1が選択した2以上の干渉タイミングにおけるロボットモデル画像110及び干渉画像111を、まとめて(同時に)表示装置18に表示してよい。これにより、ユーザ1は、複数の干渉タイミングが存在する場合に、所望の2以上の干渉タイミングにおけるロボットモデルの姿勢等を、まとめて確認することができる。
ロボットモデル画像110は、ロボットモデルの輪郭部分を着色した画像であってよい。干渉画像111は、干渉部位の輪郭部分を着色した画像であってよい。ロボットモデル画像110は、ロボットモデルの輪郭部分を着色し、ロボットモデルの輪郭の内部の透過性を高めた画像であってよい。干渉画像111は、干渉部位の輪郭部分を着色し、干渉部位の輪郭の内部の透過性を高めた画像であってよい。ロボットモデルの輪郭部分の色、又は、干渉部位の輪郭部分の色は、干渉動画像の再生時間に応じて変化してよい。これにより、干渉部位の視認性が向上する。
<<挟み込み部位の検出>>
シミュレーション部37は、ロボットを動作シーケンスに基づいて動作させた場合に、作業者の身体の一部を挟み込んでしまうリスクのあるロボットモデルの部位と環境モデルの部位(挟み込み部位と称する)とを検出する。図5のステップS21にて挟み込み部位表示モードが選択された場合、シミュレーション部は、ステップS22にて、以下のS111~S114の処理を実行してよい。
シミュレーション部37は、環境モデル格納部35から環境モデルを取得し、ロボットモデル格納部36からロボットモデルを取得する(S111)。
シミュレーション部37は、環境モデル内におけるロボットモデルの位置及び姿勢を算出する(S112)。
シミュレーション部37は、ロボットモデルの動作シーケンスを読み込む(S113)。
シミュレーション部37は、動作シーケンスに基づいてロボットモデルを動作させ、ロボットモデルが環境モデルに接近し、かつ、その接近した際の距離が所定の挟み込み閾値未満となる部位(挟み込み部位)と、動作シーケンスの時間におけるその挟み込みが発生したタイミング(以下、挟み込みタイミングと称する)とを特定し、それら特定した情報(以下、挟み込み情報と称する)を、メモリ15又はストレージ16に格納する(S114)。挟み込み閾値は、作業者の身体のどの部位(例えば、胴体、腕、指)が挟まれる可能性があるかによって異なってよい。例えば、指が挟まれる可能性がある挟み込み部位に関する挟み込み閾値は、胴体が挟まれる可能性がある挟み込み部位に関する挟み込み閾値よりも、小さくてよい。また、この場合、作業者の体の各部位について挟まれる可能性を示す挟み込み情報を、それぞれメモリ15又はストレージ16に格納してもよい。
また、シミュレーション部37は、挟み込み閾値を、ロボットモデルの移動速度に応じて変化させてもよい。例えば、シミュレーション部37は、ロボットモデルの移動速度が速いほど、挟み込み閾値を大きくしてもよい。ロボットモデルの移動速度が速いほど、現実の動作とシミュレーションの動作との間の誤差が大きくなり易いため、たとえシミュレーション上は挟み込みが発生していなくとも実環境では挟み込みが発生し易くなるためである。なお、挟み込み情報及び挟み込み閾値は、表示モード関連情報の一例である。
<<挟み込み部位のMR画像表示>>
図5のステップS21にて挟み込み部位表示モードが選択された場合、MR画像生成部38は、図5のステップS25にて、次の処理を実行してよい。
MR画像生成部38は、上述した挟み込み情報を用いて、実環境100におけるロボットの設置位置にロボットモデル画像110が重畳され、挟み込み部位に対応するロボットモデルの部位及び実環境100の部位に挟み込み画像112が重畳されるようにMR画像を生成し、表示装置18に表示する。
MR画像生成部38は、動作シーケンスに従って、ロボットモデル画像110及び挟み込み画像112を変化させてよい。すなわち、MR画像生成部38は、動作シーケンスに従ってロボットモデルを動作させた場合における、ロボットモデルの姿勢と挟み込み部位との時間変化を示す動画像(以下、挟み込み動画像と称する)を、表示装置18に表示する。
MR画像生成部38は、操作装置17に対するユーザ1の操作に応じて、挟み込み動画像の再生、一時停止、巻き戻し等を行ってよい。これにより、ユーザ1は、挟み込みが発生する状況を詳細に確認することができる。
MR画像生成部38は、挟み込みタイミングで、挟み込み動画像の再生を自動的に一時停止してよい。これにより、HMD10を装着しているユーザ1は、操作装置17を操作せずに、挟み込み発生時のロボットの姿勢と挟み込み部位とを確認できる。
MR画像生成部38は、挟み込みタイミングのリストを表示装置18に表示し、ユーザ1に1つの挟み込みタイミングを選択させてもよい。そして、MR画像生成部38は、ユーザ1が選択した挟み込みタイミングにおけるロボットモデル画像110及び挟み込み画像112を、表示装置18に表示してよい。これにより、ユーザ1は、複数の挟み込みタイミングが存在する場合に、所望の挟み込みタイミングにおけるロボットモデルの姿勢等を簡単に確認することができる。
MR画像生成部38は、複数の挟み込みタイミングのリストを表示し、ユーザ1に2以上の挟み込みタイミングを選択させてもよい。そして、MR画像生成部38は、ユーザ1が選択した2以上の挟み込みタイミングにおけるロボットモデル画像110及び挟み込み画像112を、まとめて(同時に)表示装置18に表示してよい。これにより、ユーザ1は、複数の挟み込みタイミングが存在する場合に、所望の2以上の挟み込みタイミングにおけるロボットモデルの姿勢等をまとめて確認することができる。
MR画像生成部38は、ユーザ1が挟み込みリスクが低いとして選択した挟み込み画像112については、当該挟み込み画像112を非表示にしてよい。
MR画像生成部38は、作業者の体の各部位について挟まれる可能性を示す挟み込み情報を利用できる場合には、各部位のうちユーザ1に指定された部位に対応する挟み込み画像112を表示し、他の挟み込み画像112を非表示にしてもよい。また、MR画像生成部38は、複数の部位の挟み込み画像112を同時に表示してもよい。この場合、部位ごとに異なる態様(異なる色や透明度等)を用いて挟み込み画像112を表示してもよい。このようにすることで、ユーザ1は、部位ごとの挟み込みのリスクを容易に把握することができる。
ロボットモデル画像110は、ロボットモデルの輪郭部分を着色した画像であってよい。挟み込み画像112は、挟み込み部位の輪郭部分を着色した画像であってよい。ロボットモデル画像110は、ロボットモデルの輪郭部分を着色し、ロボットモデルの輪郭の内部の透過性を高めた画像であってよい。挟み込み画像112は、挟み込み部位の輪郭部分を着色し、挟み込み部位の輪郭の内部の透過性を高めた画像であってよい。ロボットモデルの輪郭部分の色、又は、挟み込み部位の輪郭部分の色は、挟み込み動画像の再生時間に応じて変化してよい。これにより、挟み込み部位の視認性が向上する。
<衝突リスク表示モード及び動作効率表示モード>
図10を参照して、衝突リスク表示モード及び動作効率表示モードについて説明する。図10は、衝突リスク表示モード又は動作効率表示モードにおけるMR画像の一例を示す図である。
<<衝突リスクの検出>>
ロボットと作業者が実環境100における作業空間の一部を共有する場合において、シミュレーション部37は、ロボット動作計画を自動生成し、ロボット動作時における作業者との衝突リスクを分析する。図5のステップS21にて衝突リスク表示モードが選択された場合、シミュレーション部37は、図5のステップS22にて、以下のS121~S126の処理を実行してよい。
シミュレーション部37は、環境モデル格納部35から環境モデルを取得し、ロボットモデル格納部36からロボットモデルを取得する(S121)。
シミュレーション部37は、環境モデル内におけるロボットモデルの位置及び姿勢を算出する(S122)。
ユーザ1は、作業者の作業時における位置及び姿勢等を、環境モデルに入力する(S123)。例えば、ユーザ1は、作業者が部品の取り出しを行う場所及び範囲、又は、作業者が作業を行う位置等を入力する。
ユーザ1は、ロボットと作業者が共同で作業を行う共同作業エリアを、環境モデルに入力する(S124)。
シミュレーション部37は、環境モデルと干渉しないようなロボット動作計画を自動生成する(S125)。このとき、シミュレーション部37は、ステップS123及びS124で入力された作業者の位置及び姿勢、並びに、共同作業エリアを考慮して、ロボット動作計画を生成してよい。
シミュレーション部37は、ロボット動作計画を生成する公知の技術を用いて、ロボット動作計画を生成してよい。ロボット動作計画を生成する公知の技術の例として、RRT(Rapidly-Exploring Random Tree)、RRT*、PRM(Probabilistic Roadmap Method)等のランダムサンプリングによる経路生成技術、CHOMP(Rapidly-Exploring Random Tree)、STOMP(Stochastic Trajectory Optimization for Motion Planning)、TrajOpt(Trajectory Optimization for Motion Planning)等の経路最適化による経路生成技術、ダイクストラ法、A*等のグラフ探索による経路生成技術が挙げられる。
シミュレーション部37は、ロボット動作計画に基づいてロボットモデルを動作させ、ロボットが動作する各タイミングにおいて当該ロボットが作業者と衝突するリスクを算出し、それら算出した情報(以下、衝突リスク情報と称する)をメモリ15又はストレージ16に格納する(S126)。なお、衝突リスク情報は、表示モード関連情報の一例である。
<<衝突リスクのMR画像表示>>
図5のステップS21にて衝突リスク表示モードが選択された場合、MR画像生成部38は、図5のステップS25にて、次の処理を実行してよい。
MR画像生成部38は、上述した衝突リスク情報を用いて、実環境100におけるロボットの設置位置にロボットモデル画像110が重畳され、衝突リスクがあるロボットの部位及び実環境100の部位に衝突リスク画像113が重畳されるようにMR画像を生成し、表示装置18に表示する。
MR画像生成部38は、衝突リスク画像113として、共同作業エリアにおける衝突リスクを示す情報を、表示装置18に表示してよい。MR画像生成部38は、衝突リスク画像113と合わせて、上述した挟み込み画像112を、表示装置18に表示してもよい。
MR画像生成部38は、共同作業エリアに作業者の腕が侵入する位置及び/又は速度を想定し、衝突リスク画像113として、その位置及び/又は速度で侵入した腕をロボットが自動で回避可能か否かを示す情報を、表示装置18に表示してよい。
MR画像生成部38は、共同作業エリアに作業者の腕が侵入する位置及び/又は速度を想定し、衝突リスク画像113として、その位置及び/又は速度で侵入した腕にロボットが衝突した場合の衝撃に大きさを示す情報を、表示装置18に表示してよい。
MR画像生成部38は、ユーザ1が作業空間に腕を入れたことを検知し、衝突リスク画像113として、検知した腕をロボットが自動で回避可能か否かを示す情報を、表示装置18に表示してよい。
MR画像生成部38は、ユーザ1が作業空間に腕を入れたことを検知し、衝突リスク画像113として、検知した腕にロボットが衝突した場合の衝撃に大きさを示す情報を、表示装置18に表示してよい。
<<動作効率の算出>>
シミュレーション部37は、ロボット動作計画を自動生成し、ロボット動作の効率を分析する。図5のステップS21にて動作効率表示モードが選択された場合、シミュレーション部37は、図5のステップS22にて、以下のS131~S136の処理を実行してよい。
シミュレーション部37は、環境モデル格納部35から環境モデルと取得し、ロボットモデル格納部36からロボットモデルを取得する(S131)。
シミュレーション部37は、環境モデル内におけるロボットモデルの位置及び姿勢を算出する(S132)。
ユーザ1は、作業者の作業時における位置及び姿勢等を、環境モデルに入力する(S133)。例えば、ユーザ1は、作業者が部品の取り出しを行う場所及び範囲、又は、作業者が作業を行う位置等を入力する。
シミュレーション部37は、環境モデルと干渉しないようなロボット動作計画を自動生成する(S134)。このとき、シミュレーション部37は、ステップS133で入力された作業者の位置及び姿勢を考慮して、ロボット動作計画を生成してよい。シミュレーション部37は、上述した公知の技術を用いて、ロボット動作計画を生成してよい。
シミュレーション部37は、ロボット動作計画に基づいてロボットモデルを動作させ、ロボットが動作する各タイミングにおけるロボットの動作速度を算出し、それら算出した情報(以下、基準動作効率情報と称する)をメモリ15又はストレージ16に格納する(S135)。
シミュレーション部37は、環境モデルを構成する一部の部位を除去し、ロボット動作計画に基づいてロボットモデルを動作させ、ロボットが動作する各タイミングにおけるロボットの動作速度を算出し、それら算出した情報(以下、改善動作効率情報と称する)をメモリ15又はストレージ16に格納する(S136)。以下、環境モデルにおいて除去された部位を、除去部位と称する。改善動作効率情報を算出するにあたり、シミュレーション部37は、以下の(A1)~(A4)の少なくとも1つを実行してよい。なお、基準動作効率情報及び改善動作効率情報は、表示モード関連情報の一例である。
(A1)シミュレーション部37は、除去部位を変更して、複数の改善動作効率情報を算出する。この場合、シミュレーション部37は、除去部位をランダムに選択してよい。
(A2)シミュレーション部37は、基準動作効率情報を生成した際にロボットと最も接近した部位を優先的に除去する。
(A3)シミュレーション部37は、環境モデルを構成する移動可能な物体の中から除去部位を選択する。この場合、シミュレーション部37は、画像認識処理等によって物体が移動可能か否を判定してよい。
(A4)シミュレーション部37は、ユーザ1に指示された環境モデルにおける物体を除去部位として除去する。
<<動作効率のMR画像表示>>
図5のステップS21にて動作効率表示モードが選択された場合、MR画像生成部38は、図5のステップS25にて、次の処理を実行してよい。
MR画像生成部38は、上述した基準動作効率情報及び改善動作効率情報を用いて、実環境100におけるロボットの設置位置にロボットモデル画像110が重畳され、動作改善前及び動作改善後のロボット動作の動画像が重畳されるようにMR画像を生成し、表示装置18に表示する。
MR画像生成部38は、動作改善前のロボット動作の動画像と、動作改善後のロボット動作の動画像とを、ユーザ1の指示により切り替えて表示装置18に表示してよい。
MR画像生成部38は、動作改善後のロボット動作の動画像を表示する際に、ロボット動作速度の改善の大きさを示す情報を合わせて表示装置18に表示してよい。
MR画像生成部38は、動作改善後のロボット動作の動画像を表示する際に、動作改善のために除去された除去部位に対応する実環境100における部位に、除去画像114を重畳して表示してよい。
MR画像生成部38は、改善の大きさに応じて、除去画像114の輪郭の色を変化させてもよい。
MR画像生成部38は、除去部位の位置と、除去部位を除去してロボットを動作させた場合における干渉画像111を、表示装置18に表示してもよい。
<動作範囲表示モード>
図11を参照して、動作範囲表示モードについて説明する。図11は、動作範囲表示モードにおけるMR画像の一例を示す図である。
<<動作範囲の検出>>
シミュレーション部37は、ロボットモデルを動作させて、ロボットが到達可能は範囲を検出する。図5のステップS21にて動作範囲表示モードが選択された場合、シミュレーション部37は、図5のステップS22にて、以下のS141~S143の処理を実行してよい。
シミュレーション部37は、環境モデル格納部35から環境モデルを取得し、ロボットモデル格納部36からロボットモデルを取得する(S141)。
シミュレーション部37は、環境モデル内におけるロボットモデルの位置及び姿勢を算出する(S142)。
シミュレーション部37は、ロボットモデルがとり得る様々な姿勢でロボットモデルを動作させて、環境モデル内においてロボットモデルが到達可能な範囲(つまり動作範囲)を検出し、その検出した動作範囲を示す情報(以下、動作範囲情報と称する)をメモリ15又はストレージ16に格納する(S143)。なお、動作範囲情報は、表示モード関連情報の一例である。
ステップS143において、シミュレーション部37は、環境モデルと干渉する姿勢を取らないように、ロボットモデルを動作させてよい。また、シミュレーション部37は、ロボットの設定により稼働可能な関節角及び制限領域等を考慮して、ロボットモデルを動作させてよい。
<<動作範囲のMR画像表示>>
図5のステップS21にて動作範囲表示モードが選択された場合、MR画像生成部38は、図5のステップS25にて、次の処理を実行してよい。
MR画像生成部38は、実環境100におけるロボットの設置位置にロボットモデル画像110が重畳され、上述した動作範囲情報が示すロボットの動作範囲を示す画像(以下、動作範囲画像115と称する)が重畳されるようにMR画像を生成し、表示装置18に表示する。
<ロボット動作軌跡表示モード>
図12を参照して、ロボット動作軌跡表示モードについて説明する。図12は、ロボット動作軌跡表示モードにおけるMR画像の一例を示す図である。
<<ロボット動作軌跡の特定>>
シミュレーション部37は、ロボットモデルを動作させて、ロボットの動作軌跡を特定する。図5のステップS21にて動作軌跡表示モードが選択された場合、シミュレーション部37は、図5のステップS22にて、以下のS151~S154の処理を実行してよい。
シミュレーション部37は、環境モデル格納部35から環境モデルを取得し、ロボットモデル格納部36からロボットモデルを取得する(S151)。
シミュレーション部37は、環境モデル内におけるロボットモデルの位置及び姿勢を算出する(S152)。
シミュレーション部37は、ロボットモデルの動作シーケンスを読み込む(S153)。
シミュレーション部37は、動作シーケンスに基づいてロボットモデルを動作させ、ロボットモデルの動作軌跡を示す情報(以下、動作軌跡情報と称する)をメモリ15又はストレージ16に格納する(S154)。なお、動作軌跡情報は、表示モード関連情報の一例である。
<<ロボット動作軌跡のMR画像表示>>
図5のステップS21にてロボット動作軌跡表示モードが選択された場合、MR画像生成部38は、図5のステップS25にて、次の処理を実行してよい。
MR画像生成部38は、実環境100におけるロボットの設置位置にロボットモデル画像110が重畳され、動作軌跡情報が示すロボットの動作軌跡画像116が重畳されるようにMR画像を生成し、表示装置18に表示する。
MR画像生成部38は、動作シーケンスの異なるタイミングにおける少なくとも2つの動作軌跡画像116を、同時に表示装置18に表示してもよい。これにより、ユーザ1は、複数のタイミングでの動作軌跡を同時に確認することが可能となる。また、この場合、MR画像生成部38は、各タイミングの動作軌跡画像116について、輪郭のみを表示したり、一部又は全体を半透明にして表示したりしてもよい。これにより、動作軌跡画像同士が重複している場合であっても、ユーザ1は、正確に各タイミングの動作軌跡を確認することができる。
MR画像生成部38は、ロボットの実時間の作業速度に応じて、動作軌跡画像116を動画像として再生し、表示装置18に表示してもよい。これにより、ユーザ1は、ロボットを実際に設定して動作させた場合の動作を確認することができる。
MR画像生成部38は、ロボットの実時間の作業速度とは異なる速度(例えば高速又は低速)にて、動作軌跡画像を動画像として再生し、表示装置18に表示してもよい。これにより、ユーザ1は、高速で動作軌跡画像を再生する場合、ロボットの動作軌跡を短時間で確認することができ、低速で動作軌跡画像を再生する場合、ロボットの動作軌跡を精緻に確認することができる。
<作業可能範囲表示モード>
図13を参照して、作業可能範囲表示モードについて説明する。図13は、作業可能範囲表示モードにおけるMR画像の一例を示す図である。
<<作業可能範囲の検出>>
シミュレーション部37は、ロボットモデルを動作させて、ロボットと共同作業する作業者又は機械(他のロボットや工作機械等)の作業可能範囲を特定する。図5のステップS21にて作業可能範囲表示モードが選択された場合、シミュレーション部37は、図5のステップS22にて、以下のS161~S164の処理を実行してよい。
シミュレーション部37は、環境モデル格納部35から環境モデルを取得し、ロボットモデル格納部36からロボットモデルを取得する(S161)。
シミュレーション部37は、環境モデル内におけるロボットモデルの位置及び姿勢を算出する(S162)。
シミュレーション部37は、ロボットモデルの動作シーケンスを読み込む(S163)。
シミュレーション部37は、動作シーケンスに基づいてロボットモデルを動作させ、ロボットモデルが環境モデルと干渉せずに到達可能な範囲を検出し、その検出した情報(以下、作業可能範囲情報と称する)をメモリ15又はストレージ16に格納する(S164)。なお、作業可能範囲情報は、表示モード関連情報の一例である。
<<作業可能範囲のMR画像表示>>
図5のステップS21にて作業可能範囲表示モードが選択された場合、MR画像生成部38は、図5のステップS25にて、次の処理を実行してよい。
MR画像生成部38は、実環境100におけるロボットの設置位置にロボットモデル画像110が重畳され、作業可能範囲情報が示す範囲に作業可能範囲画像117が重畳されるようにMR画像を生成し、表示装置18に表示する。
<複数HMDの連携利用>
図14を参照して、複数のHMD10を連携させて利用する方法について説明する。図14は、複数のHMD10を連携して利用する方法を説明するための図である。
例えば、環境モデル生成処理において、以下の(B1)又は(B2)のように、複数のHMD10が用いられてよい。
(B1)複数のユーザ1がそれぞれHMD10を装着して実環境100内を移動する。そして、各HMD10が取得した3次元データを統合して、実環境100に対応する環境モデルを生成する。これにより、より効率的に実環境100の3次元データを生成できる。
(B2)複数のユーザ1が異なる実環境100に存在し、各HMD10がそれぞれロボットの設置場所の周辺に配置される予定の実際の部材(以下、実部材と称する)を3次元スキャンして得た3次元データを統合して、環境モデルを生成する。この場合、異なる実部材の3次元データの位置合わせは、所定のマーカによって行われてもよいし、ユーザ1の操作によって行われてもよい。あるいは、異なる実部材の3次元データの位置合わせは、衝突が起こらないことを示す指標を目印として、自動で行われてもよい。
また、複数のHMD10が接続される所定のサーバ(図示しない)を設けてよい。この場合、サーバは、各HMD10から3次元データ等を受信し、その受信した複数の3次元データ等をリアルタイムで統合し、環境モデルを生成してもよい。なお、サーバは、情報処理装置の一例である。
サーバは、1又は複数のHMD10で取得した3次元データ等を蓄積し、その3次元データ等から生成した環境モデルを、異なる時刻又は場所の環境モデルと統合してもよい。
サーバは、あらかじめ設計されたオブジェクト(例えばCADデータ等)を、環境モデルに統合してもよい。
複数のHMD10を連携して利用する場合、あるユーザ1が選択した表示モードを他のHMD10にも送信し、複数のHMD10にて同じ表示モードのMR画像を表示してもよい。また、あるユーザ1による再生操作等を他のHMD10にも送信し、複数のHMD10にて同じ動画像を表示してもよい。
あるいは、複数のHMD10を連携して利用する場合、ユーザ1はそれぞれ個別にHMD10を操作し、HMD10はそれぞれ個別に動作してもよい。
<変形例>
HMD10は、非透過型であってもよい。この場合、HMD10は、実環境100を撮像した画像にMR画像を重畳して表示装置18に表示すればよい。
上述した実施の形態では、シミュレーション部37は、ロボットモデルを動作させている。しかし、ロボットモデルの正確な動きを検出する必要がなければ、ロボットモデルを実際に動作させなくともよい。例えば、ロボットモデルの基準姿勢を中心とした所定の距離内をロボットの動作範囲として推定することなどが考えられる。
上述した実施の形態では、ロボットが挟み込んだり衝突したりする対象として作業者を例に説明している。しかし、挟み込みや衝突の可能性がある物体は、作業者に限られず、ロボットモデルに対応するロボット以外の任意の物体(他の物体)について挟み込みや衝突の可能性を分析して表示してもよい。他の物体の例として、同じ実環境に設置されているロボットや設置される予定のロボット、または、コンベアなどの他の機械が考えられる。特に、他の物体が移動または変形する物体の場合、ロボットによる挟み込みや衝突が発生する可能性を予測しにくいため、MR画像として表示することは有益である。
上述した実施の形態では、ロボット動作計画の生成において、作業者の作業時における位置及び姿勢等を環境モデルに追加しているが、作業者以外の情報も環境モデルに追加してもよい。例えば、同じ環境で動作する他のロボットや機械の位置及び姿勢等を環境モデルに追加してもよい。このようにすることで、ロボットが他のロボットや機械と共同作業が行われる状況におけるロボット動作計画を生成することができる。
上述した実施の形態において、挟み込みまたは衝突のリスクを表示する場合、その状況におけるロボットモデルの動作速度に応じて表示の態様を変化させてもよい。一般的に、速い速度で挟み込みまたは衝突が発生する場合の方が、作業者等は回避の行動をとりにくいため、より高いリスクがあることを通知するとよいためである。
(本開示のまとめ)
本開示の内容は、以下のように表現することができる。
<表現1>
情報処理装置(例えばHMD)10は、プロセッサ20及び表示装置18を備え、プロセッサ20は、ロボットが設置される実環境100をモデル化した環境モデル内に、ロボットをモデル化したロボットモデルを配置し、環境モデル内にてロボットモデルを動作させて、ロボットと実環境100との関係性の表示態様を示すモードである表示モードに対応する表示モード関連情報を生成し、表示モード関連情報に基づく画像を、実環境100内に存在するユーザ1が有する表示装置18に表示する。
これにより、表示装置18を有するユーザ1は、ロボットを設置する前に、表示モードに対応するロボットと実環境との関係性を、表示装置18に表示される表示モードに対応する表示態様の画像にて、視覚的に確認することができる。
<表現2>
表現1に記載の情報処理装置10において、実環境100を3次元スキャンする3次元スキャナ11をさらに備え、プロセッサ20は、実環境100内に存在して3次元スキャナ11を有するユーザ1に移動を指示し、3次元スキャナ11から得られる3次元データに基づいて環境モデルを生成してよい。
これにより、情報処理装置10は、3次元スキャナ11を有するユーザ1を移動させて、様々な方向の3次元データを得ることができ、3次元の環境モデルを生成することができる。
<表現3>
表現1に記載の情報処理装置10において、表示モードが、動作中のロボットが実環境100の部位と干渉するリスクを表示する干渉部位表示モードである場合、表示モード関連情報は、動作中のロボットモデルが干渉するリスクを有する環境モデルの部位である干渉部位を示す情報を含み、表示モード関連情報に基づく画像は、環境モデルの干渉部位に対応する実環境の部位を示してよい。
これにより、表示装置18を有するユーザ1は、実環境100におけるロボットと干渉するリスクを有する部位を、表示装置18に表示される干渉部位を示す画像にて視覚的に確認することができる。
<表現4>
表現1に記載の情報処理装置10において、表示モードが、動作中のロボットが他の物体を挟み込むリスクを表示する挟み込みリスク表示モードである場合、表示モード関連情報は、動作中のロボットモデルが作業者を挟み込むリスクを有するロボットモデル又は環境モデルの部位である挟み込み部位を示す情報を含み、表示モード関連情報に基づく画像は、ロボットモデルの挟み込み部位、又は、環境モデルの挟み込み部位に対応する前記実環境の部位を示してよい。
これにより、表示装置18を有するユーザ1は、実環境100における他の物体を挟み込むリスクを有する部位を、表示装置18に表示される挟み込み部位を示す画像にて視覚的に確認することができる。
<表現5>
表現1に記載の情報処理装置10において、表示モードが、動作中のロボットが他の物体と衝突するリスクを表示する衝突リスク表示モードである場合、表示モード関連情報は、動作中のロボットモデルが他の物体と衝突するリスクを有するロボットモデル又は環境モデルの部位である衝突部位を示す情報を含み、表示モード関連情報に基づく画像は、ロボットモデルの衝突部位、又は、環境モデルの衝突部位に対応する実環境の部位を示してよい。
これにより、表示装置18を有するユーザ1は、実環境100における他の物体と衝突するリスクを有する部位を、表示装置18に表示される衝突部位を示す画像にて視覚的に確認することができる。
<表現6>
表現1に記載の情報処理装置10において、表示モードが、ロボットの動作の効率を低下させる要因を表示する動作効率表示モードである場合、表示モード関連情報は、除去した場合にロボットモデルの動作の効率が向上する環境モデルの部位である除去部位を示す情報を含み、表示モード関連情報に基づく画像は、環境モデルの除去部位に対応する実環境の部位を示してよい。
これにより、表示装置18を有するユーザ1は、実環境100における除去することによってロボットの動作効率が向上する部位を、表示装置18に表示される除去部位を示す画像にて視覚的に確認することができる。
<表現7>
表現1に記載の情報処理装置10において、表示モードが、ロボットの動作範囲を表示する動作範囲表示モードである場合、表示モード関連情報は、ロボットモデルを動作させた場合にロボットモデルが到達可能な範囲を示す情報を含み、表示モード関連情報に基づく画像は、実環境におけるロボットモデルが到達可能な範囲を示してよい。
これにより、表示装置18を有するユーザ1は、実環境100におけるロボットが到達可能な範囲を、表示装置18に表示されるロボットモデルが到達可能な範囲を示す画像にて視覚的に確認することができる。
<表現8>
表現1に記載の情報処理装置10において、表示モードが、ロボットの動作軌跡を表示するロボット動作軌跡表示モードである場合、表示モード関連情報は、ロボットモデルを動作させた場合のロボットモデルの動作軌跡を示す情報であり、表示モード関連情報に基づく画像は、実環境におけるロボットモデルの動作軌跡を示してよい。
これにより、表示装置18を有するユーザ1は、実環境100におけるロボットの動作軌跡を、表示装置18に表示されるロボットモデルの動作軌跡を示す画像にて視覚的に確認することができる。
<表現9>
表現1に記載の情報処理装置10において、表示モードが、ロボットと共同作業を行う作業者又は機械が作業可能な範囲を表示する作業可能範囲表示モードである場合、表示モード関連情報は、ロボットモデルを動作させた場合にロボットモデルが環境モデルと干渉せずに到達可能な範囲を示す情報を含み、表示モード関連情報に基づく画像は、実環境における、ロボットモデルが環境モデルと干渉せずに到達可能な範囲を示してよい。
これにより、表示装置18を有するユーザ1は、実環境100においてロボットが干渉せずに到達可能は範囲を、表示装置18に表示されるロボットモデルが環境モデルと干渉せずに到達可能な範囲を示す画像にて視覚的に確認することができる。
<表現10>
情報処理装置(例えばHMD)10による情報処理方法では、ロボットが設置される実環境をモデル化した環境モデル内に、ロボットをモデル化したロボットモデルを配置し、環境モデル内にてロボットモデルを動作させて、ロボットと実環境100との関係性の表示態様を示すモードである表示モードに対応する表示モード関連情報を生成し、表示モード関連情報に基づく画像を、実環境100内に存在するユーザ1が有する表示装置18に表示する。
これにより、表示装置18を有するユーザ1は、ロボットを設置する前に、表示モードに対応するロボットと実環境との関係性を、表示装置18に表示される表示モードに対応する表示態様の画像にて、視覚的に確認することができる。
以上、添付図面を参照しながら実施の形態について説明したが、本開示はかかる例に限定されない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても本開示の技術的範囲に属すると了解される。また、発明の趣旨を逸脱しない範囲において、上述した実施の形態における各構成要素を任意に組み合わせてもよい。
本開示の技術は、工場設備等にロボットを設置する際の事前確認に有用である。
1 ユーザ
10 HMD
11 3次元スキャナ
12 加速度センサ
13 ジャイロセンサ
14 地磁気センサ
15 メモリ
16 ストレージ
17 操作装置
18 表示装置
19 通信装置
20 プロセッサ
21 バス
31 操作取得部
32 センシングデータ取得部
33 視点算出部
34 環境モデル生成部
35 環境モデル格納部
36 ロボットモデル格納部
37 シミュレーション部
38 MR画像生成部
100 実環境
101 作業台
102 マーカ
103 実際のロボット
104 矢印画像
110 ロボットモデル画像
111 干渉画像
112 挟み込み画像
113 衝突リスク画像
114 除去画像
115 動作範囲画像
116 動作軌跡画像
117 作業可能範囲画像

Claims (10)

  1. 情報処理装置であって、プロセッサ及び表示装置を備え、
    前記プロセッサは、
    ロボットが設置される実環境をモデル化した環境モデル内に、前記ロボットをモデル化したロボットモデルを配置し、
    前記環境モデル内にて前記ロボットモデルを動作させて、前記ロボットと前記実環境との関係性の表示態様を示すモードである表示モードに対応する表示モード関連情報を生成し、
    前記表示モード関連情報に基づく画像を、前記実環境内に存在するユーザが有する前記表示装置に表示する、
    情報処理装置。
  2. 前記実環境を3次元スキャンする3次元スキャナをさらに備え、
    前記プロセッサは、
    前記実環境内に存在して前記3次元スキャナを有するユーザに移動を指示し、
    前記3次元スキャナから得られる3次元データに基づいて前記環境モデルを生成する、
    請求項1に記載の情報処理装置。
  3. 前記表示モードが、動作中の前記ロボットが前記実環境の部位と干渉するリスクを表示する干渉部位表示モードである場合、
    前記表示モード関連情報は、動作中の前記ロボットモデルが干渉するリスクを有する前記環境モデルの部位である干渉部位を示す情報を含み、
    前記表示モード関連情報に基づく画像は、前記環境モデルの前記干渉部位に対応する前記実環境の部位を示す、
    請求項1に記載の情報処理装置。
  4. 前記表示モードが、動作中の前記ロボットが他の物体を挟み込むリスクを表示する挟み込みリスク表示モードである場合、
    前記表示モード関連情報は、動作中の前記ロボットモデルが作業者を挟み込むリスクを有する前記ロボットモデル又は前記環境モデルの部位である挟み込み部位を示す情報を含み、
    前記表示モード関連情報に基づく画像は、前記ロボットモデルの前記挟み込み部位、又は、前記環境モデルの前記挟み込み部位に対応する前記実環境の部位を示す、
    請求項1に記載の情報処理装置。
  5. 前記表示モードが、動作中の前記ロボットが他の物体と衝突するリスクを表示する衝突リスク表示モードである場合、
    前記表示モード関連情報は、動作中の前記ロボットモデルが作業者と衝突するリスクを有する前記ロボットモデル又は前記環境モデルの部位である衝突部位を示す情報を含み、
    前記表示モード関連情報に基づく画像は、前記ロボットモデルの前記衝突部位、又は、前記環境モデルの前記衝突部位に対応する前記実環境の部位を示す、
    請求項1に記載の情報処理装置。
  6. 前記表示モードが、前記ロボットの動作の効率を低下させる要因を表示する動作効率表示モードである場合、
    前記表示モード関連情報は、除去した場合に前記ロボットモデルの動作の効率が向上する前記環境モデルの部位である除去部位を示す情報を含み、
    前記表示モード関連情報に基づく画像は、前記環境モデルの前記除去部位に対応する前記実環境の部位を示す、
    請求項1に記載の情報処理装置。
  7. 前記表示モードが、前記ロボットの動作範囲を表示する動作範囲表示モードである場合、
    前記表示モード関連情報は、前記ロボットモデルを動作させた場合に前記ロボットモデルが到達可能な範囲を示す情報を含み、
    前記表示モード関連情報に基づく画像は、前記実環境における前記ロボットモデルが到達可能な範囲を示す、
    請求項1に記載の情報処理装置。
  8. 前記表示モードが、前記ロボットの動作軌跡を表示するロボット動作軌跡表示モードである場合、
    前記表示モード関連情報は、前記ロボットモデルを動作させた場合の前記ロボットモデルの動作軌跡を示す情報であり、
    前記表示モード関連情報に基づく画像は、前記実環境における前記ロボットモデルの動作軌跡を示す、
    請求項1に記載の情報処理装置。
  9. 前記表示モードが、前記ロボットと共同作業を行う作業者又は機械が作業可能な範囲を表示する作業可能範囲表示モードである場合、
    前記表示モード関連情報は、前記ロボットモデルを動作させた場合に前記ロボットモデルが前記環境モデルと干渉せずに到達可能な範囲を示す情報を含み、
    前記表示モード関連情報に基づく画像は、前記実環境における、前記ロボットモデルが前記環境モデルと干渉せずに到達可能な範囲を示す、
    請求項1に記載の情報処理装置。
  10. 情報処理装置による情報処理方法であって、
    ロボットが設置される実環境をモデル化した環境モデル内に、前記ロボットをモデル化したロボットモデルを配置し、
    前記環境モデル内にて前記ロボットモデルを動作させて、前記ロボットと前記実環境との関係性の表示態様を示すモードである表示モードに対応する表示モード関連情報を生成し、
    前記表示モード関連情報に基づく画像を、前記実環境内に存在するユーザが有する表示装置に表示する、
    情報処理方法。
JP2021094718A 2021-06-04 2021-06-04 情報処理装置、情報処理方法、及び、コンピュータプログラム Pending JP2022186476A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021094718A JP2022186476A (ja) 2021-06-04 2021-06-04 情報処理装置、情報処理方法、及び、コンピュータプログラム
PCT/JP2022/021465 WO2022255206A1 (ja) 2021-06-04 2022-05-25 情報処理装置、情報処理方法、及び、コンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021094718A JP2022186476A (ja) 2021-06-04 2021-06-04 情報処理装置、情報処理方法、及び、コンピュータプログラム

Publications (1)

Publication Number Publication Date
JP2022186476A true JP2022186476A (ja) 2022-12-15

Family

ID=84324094

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021094718A Pending JP2022186476A (ja) 2021-06-04 2021-06-04 情報処理装置、情報処理方法、及び、コンピュータプログラム

Country Status (2)

Country Link
JP (1) JP2022186476A (ja)
WO (1) WO2022255206A1 (ja)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3529373B2 (ja) * 2001-11-09 2004-05-24 ファナック株式会社 作業機械のシミュレーション装置
JP6643000B2 (ja) * 2015-08-06 2020-02-12 キヤノン株式会社 仮想環境作成方法、ロボット装置の制御方法、ロボットシステム、および情報処理装置
EP3369534B1 (en) * 2015-10-30 2022-05-04 Kabushiki Kaisha Yaskawa Denki Robot teaching device, computer program, and robot teaching method
JP6385627B1 (ja) * 2017-11-07 2018-09-05 三菱電機株式会社 表示制御装置、表示制御方法および表示制御プログラム
JP7003633B2 (ja) * 2017-12-20 2022-01-20 セイコーエプソン株式会社 透過型表示装置、表示制御方法、およびコンピュータープログラム
JP2019171501A (ja) * 2018-03-27 2019-10-10 日本電産株式会社 ロボットの干渉判定装置、ロボットの干渉判定方法、プログラム
JP6895128B2 (ja) * 2018-11-09 2021-06-30 オムロン株式会社 ロボット制御装置、シミュレーション方法、及びシミュレーションプログラム

Also Published As

Publication number Publication date
WO2022255206A1 (ja) 2022-12-08

Similar Documents

Publication Publication Date Title
CN110394780B (zh) 机器人的仿真装置
CN110977931B (zh) 使用了增强现实和混合现实的机器人控制装置及显示装置
JP6898012B2 (ja) 作業空間安全監視および機器制御
US20160207198A1 (en) Method And Device For Verifying One Or More Safety Volumes For A Movable Mechanical Unit
JP4153528B2 (ja) ロボットシミュレーションのための装置、プログラム、記録媒体及び方法
CN104936748B (zh) 徒手机器人路径教导
EP3342562A1 (en) Remote control robot system
CN108687767B (zh) 离线编程装置以及离线编程方法
CN109972674B (zh) 基于自然交互的复杂施工环境下的无人挖掘系统及方法
CN105247429A (zh) 机器人定位
US20220292234A1 (en) Simulation apparatus, recording medium, and simulation method
CN107257946B (zh) 用于虚拟调试的系统
KR20150136399A (ko) 충돌 예측 로봇 원격 제어 시스템 및 그 방법
WO2013116180A1 (en) Semi-autonomous digital human posturing
US20220019939A1 (en) Method and system for predicting motion-outcome data of a robot moving between a given pair of robotic locations
WO2022255206A1 (ja) 情報処理装置、情報処理方法、及び、コンピュータプログラム
JP2020011357A (ja) 制御装置、ヘッドマウントディスプレイおよびロボットシステム
US20200201268A1 (en) System and method for guiding a sensor around an unknown scene
WO2017032407A1 (en) An industrial robot system and a method for programming an industrial robot
Kidiraliev et al. Using optical sensors for industrial robot-human interactions in a Gazebo environment
Pol et al. Autonomous Differential Drive Mobile Robot Navigation with SLAM, AMCL using ROS
Landa-Hurtado et al. Kinect-based trajectory teaching for industrial robots
WO2022259600A1 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
KR101439249B1 (ko) 공간 점유 정보를 이용한 로봇 동작 생성 장치 및 방법
JP7068416B2 (ja) 拡張現実と複合現実を用いたロボット制御装置、ロボットの位置姿勢規定用コンピュータプログラム及びロボットの位置姿勢規定方法、相対位置姿勢取得用コンピュータプログラム及び相対位置姿勢取得方法