JP2017091091A - 作業情報生成装置 - Google Patents
作業情報生成装置 Download PDFInfo
- Publication number
- JP2017091091A JP2017091091A JP2015218609A JP2015218609A JP2017091091A JP 2017091091 A JP2017091091 A JP 2017091091A JP 2015218609 A JP2015218609 A JP 2015218609A JP 2015218609 A JP2015218609 A JP 2015218609A JP 2017091091 A JP2017091091 A JP 2017091091A
- Authority
- JP
- Japan
- Prior art keywords
- work
- state
- information generation
- work information
- generation device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Abstract
【課題】作業のポイントを含んだ、3次元モデルを用いた作業情報を容易に生成可能とする作業情報生成装置を提供する。
【解決手段】作業情報生成装置10は、ウエアラブル端末20から順次画像データ31を取得し、取得した画像データ31に示された作業対象物に対応する3次元モデルを特定するとともに、各画像データ31から作業対象物の移動軌跡を特定する。又、作業情報生成装置10は、作業対象物に対して作業する作業者の状態を作業状態として特定し、3次元モデルと移動軌跡と作業状態とを関連付けて作業情報33を生成する。
【選択図】図1
【解決手段】作業情報生成装置10は、ウエアラブル端末20から順次画像データ31を取得し、取得した画像データ31に示された作業対象物に対応する3次元モデルを特定するとともに、各画像データ31から作業対象物の移動軌跡を特定する。又、作業情報生成装置10は、作業対象物に対して作業する作業者の状態を作業状態として特定し、3次元モデルと移動軌跡と作業状態とを関連付けて作業情報33を生成する。
【選択図】図1
Description
この発明は、分解、組立といった作業手順を示した作業情報を3次元モデルを用いて生成する技術に関する。
3次元モデルを用いて、分解、組立といった作業手順を示す作業情報が生成される場合がある。この場合、作業の流れに沿って、分解、組立される作業対象物の各部品の3次元モデルが指定され、分解、組立の方向が示されて、作業情報が生成される。
3次元モデルを用いて作業情報を生成するのではなく、作業の手順を映像で記録することにより作業情報を生成する方法もある。しかし、3次元モデルを用いて作業情報を生成することには、作業の手順を映像で記録することにより作業情報を生成することに比べて、以下の(1)〜(3)の利点がある。(1)周囲の設備との干渉確認といった組立性検証が可能である。(2)設計変更及び設計流用の際に部品が変わっても変更部品に関して修正するだけで済む。(3)作業手順を示すアニメーション作成に流用可能である。
3次元モデルを用いて作業情報を生成するのではなく、作業の手順を映像で記録することにより作業情報を生成する方法もある。しかし、3次元モデルを用いて作業情報を生成することには、作業の手順を映像で記録することにより作業情報を生成することに比べて、以下の(1)〜(3)の利点がある。(1)周囲の設備との干渉確認といった組立性検証が可能である。(2)設計変更及び設計流用の際に部品が変わっても変更部品に関して修正するだけで済む。(3)作業手順を示すアニメーション作成に流用可能である。
また、熟練した作業者が作業を実施する際のポイントについても作業情報に盛り込んでおけば、作業情報に従い円滑に作業を行うことが可能になる。特許文献1には、教示者の動きを伝えるに当たり、教示者の動きとともに、注視している位置といった勘所も伝えることが記載されている。
3次元モデルを用いた作業情報を生成するには、3次元モデルを操作する技術が必要であり、個々の部品について分解、組立の方向を定義するといった煩雑な作業が必要になる。また、作業のポイントを作業情報に盛り込むためには、熟練した作業員から聞き込みを行い、作業情報に追加するといった煩雑な作業が必要になる。
この発明は、作業のポイントを含んだ、3次元モデルを用いた作業情報を容易に生成可能とすることを目的とする。
この発明は、作業のポイントを含んだ、3次元モデルを用いた作業情報を容易に生成可能とすることを目的とする。
この発明に係る作業情報生成装置は、
作業領域を撮像した画像データを順次取得する画像取得部と、
前記画像取得部によって取得された各画像データに示された作業対象物に対応する3次元モデルを特定するモデル特定部と、
前記各画像データから前記作業対象物の移動軌跡を特定する移動軌跡特定部と、
前記作業対象物に対して作業する作業者の状態を作業状態として特定する作業状態取得部と、
前記モデル特定部によって特定された前記3次元モデルと、前記移動軌跡特定部によって特定された前記移動軌跡と、前記作業状態取得部によって取得された作業状態とを関連付けて作業情報を生成する作業情報生成部と
を備える。
作業領域を撮像した画像データを順次取得する画像取得部と、
前記画像取得部によって取得された各画像データに示された作業対象物に対応する3次元モデルを特定するモデル特定部と、
前記各画像データから前記作業対象物の移動軌跡を特定する移動軌跡特定部と、
前記作業対象物に対して作業する作業者の状態を作業状態として特定する作業状態取得部と、
前記モデル特定部によって特定された前記3次元モデルと、前記移動軌跡特定部によって特定された前記移動軌跡と、前記作業状態取得部によって取得された作業状態とを関連付けて作業情報を生成する作業情報生成部と
を備える。
この発明では、一連の画像データから作業対象物の3次元モデル及び移動軌跡を特定して作業情報を生成する。また、作業対象物に対して作業する作業者の状態を作業状態として検出し、作業情報に含める。これにより、熟練した作業者が分解、組立といった作業を行うだけで、作業のポイントを示す作業状態を含んだ、3次元モデルを用いた作業情報を生成できる。
実施の形態1.
***構成の説明***
図1は、実施の形態1に係る作業情報生成システム1の構成図である。
作業情報生成システム1は、作業情報生成装置10と、ウエアラブル端末20とを備える。作業情報生成装置10とウエアラブル端末20とは、ネットワーク30を介して接続されている。
作業情報生成装置10は、ウエアラブル端末20から画像データ31及び作業時データ32を取得して、分解、組立といった作業手順を示した作業情報33を、3次元モデルを用いて生成する装置である。
ウエアラブル端末20は、メガネ型の端末のように作業者の身に着けられる装置である。ウエアラブル端末20は、作業者が作業している際、作業領域を撮像した画像データ31を生成するとともに、作業対象物に対して作業する作業者と、作業対象物及び作業対象物の周辺とについての作業時データ32を検出する装置である。ここでは、ウエアラブル端末20は、作業領域を撮像するための撮像装置21と、ウエアラブル端末20の位置を検出するための位置検出装置22と、温度を検出するための温度検出装置23と、作業時間を検出するための時間検出装置24とを備える。ここでは、撮像装置21はカメラであり、位置検出装置はジャイロセンサであり、温度検出装置はサーモカメラであり、時間検出装置はタイマーである。
***構成の説明***
図1は、実施の形態1に係る作業情報生成システム1の構成図である。
作業情報生成システム1は、作業情報生成装置10と、ウエアラブル端末20とを備える。作業情報生成装置10とウエアラブル端末20とは、ネットワーク30を介して接続されている。
作業情報生成装置10は、ウエアラブル端末20から画像データ31及び作業時データ32を取得して、分解、組立といった作業手順を示した作業情報33を、3次元モデルを用いて生成する装置である。
ウエアラブル端末20は、メガネ型の端末のように作業者の身に着けられる装置である。ウエアラブル端末20は、作業者が作業している際、作業領域を撮像した画像データ31を生成するとともに、作業対象物に対して作業する作業者と、作業対象物及び作業対象物の周辺とについての作業時データ32を検出する装置である。ここでは、ウエアラブル端末20は、作業領域を撮像するための撮像装置21と、ウエアラブル端末20の位置を検出するための位置検出装置22と、温度を検出するための温度検出装置23と、作業時間を検出するための時間検出装置24とを備える。ここでは、撮像装置21はカメラであり、位置検出装置はジャイロセンサであり、温度検出装置はサーモカメラであり、時間検出装置はタイマーである。
図2は、実施の形態1に係る作業情報生成装置10の構成図である。
作業情報生成装置10は、コンピュータである。
作業情報生成装置10は、プロセッサ11と、記憶装置12と、通信装置13とのハードウェアを備える。プロセッサ11は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
作業情報生成装置10は、コンピュータである。
作業情報生成装置10は、プロセッサ11と、記憶装置12と、通信装置13とのハードウェアを備える。プロセッサ11は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
作業情報生成装置10は、機能構成として、画像取得部111と、モデル特定部112と、移動軌跡特定部113と、作業状態特定部114と、作業情報生成部115とを備える。画像取得部111と、モデル特定部112と、移動軌跡特定部113と、作業状態特定部114と、作業情報生成部115との各部の機能はソフトウェアにより実現される。
記憶装置12には、上記各部の機能を実現するプログラムが記憶されている。このプログラムは、プロセッサ11に読み込まれ、プロセッサ11によって実行される。これにより、上記各部の機能が実現される。
また、記憶装置12には、作業で使用される各部品の3次元モデル34が予め記憶されている。3次元モデル34は、部品を3次元で表したデータであり、少なくとも部品の形状及び大きさが表されたデータである。
記憶装置12には、上記各部の機能を実現するプログラムが記憶されている。このプログラムは、プロセッサ11に読み込まれ、プロセッサ11によって実行される。これにより、上記各部の機能が実現される。
また、記憶装置12には、作業で使用される各部品の3次元モデル34が予め記憶されている。3次元モデル34は、部品を3次元で表したデータであり、少なくとも部品の形状及び大きさが表されたデータである。
プロセッサ11は、プロセッシングを行うICである。ICは、Integrated Circuitの略である。プロセッサ11は、具体的には、CPU、DSP、GPUである。CPUは、Central Processing Unitの略である。DSPは、Digital Signal Processorの略である。GPUは、Graphics Processing Unitの略である。
記憶装置12は、具体的には、RAM及びHDDである。RAMは、Random Access Memoryの略である。HDDは、Hard Disk Driveの略である。記憶装置は、ROM及びフラッシュメモリといった他のハードウェアで構成されてもよい。ROMは、Read Only Memoryの略である。
通信装置13は、データを受信するレシーバー及びデータを送信するトランスミッターを含む装置である。通信装置13は、具体的には、通信チップ又はNICである。NICは、Network Interface Cardの略である。
記憶装置12は、具体的には、RAM及びHDDである。RAMは、Random Access Memoryの略である。HDDは、Hard Disk Driveの略である。記憶装置は、ROM及びフラッシュメモリといった他のハードウェアで構成されてもよい。ROMは、Read Only Memoryの略である。
通信装置13は、データを受信するレシーバー及びデータを送信するトランスミッターを含む装置である。通信装置13は、具体的には、通信チップ又はNICである。NICは、Network Interface Cardの略である。
プロセッサ11によって実現される各機能の処理の結果を示す情報とデータと信号値と変数値は、記憶装置12、又は、プロセッサ11内のレジスタ又はキャッシュメモリに記憶される。以下の説明では、各機能の処理の結果を示す情報とデータと信号値と変数値は、記憶装置12に記憶されるものとして説明する。
プロセッサ11によって実現される各機能を実現するプログラムは、記憶装置12に記憶されているとした。しかし、このプログラムは、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVDといった可搬記憶媒体に記憶されてもよい。
図2では、プロセッサ11は、1つだけ示されていた。しかし、プロセッサ11は、複数であってもよく、複数のプロセッサ11が、各機能を実現するプログラムを連携して実行してもよい。
***動作の説明***
図3は、実施の形態1に係る作業情報生成装置10の動作の流れを示すフローチャートである。
実施の形態1に係る作業情報生成装置10の動作は、実施の形態1に係る作業情報生成方法に相当する。また、実施の形態1に係る作業情報生成装置10の動作は、実施の形態1に係る作業情報生成プログラムの処理に相当する。
作業者は、ウエアラブル端末20を身に着けて、作業対象物に対して一連の作業しているものとする。
図3は、実施の形態1に係る作業情報生成装置10の動作の流れを示すフローチャートである。
実施の形態1に係る作業情報生成装置10の動作は、実施の形態1に係る作業情報生成方法に相当する。また、実施の形態1に係る作業情報生成装置10の動作は、実施の形態1に係る作業情報生成プログラムの処理に相当する。
作業者は、ウエアラブル端末20を身に着けて、作業対象物に対して一連の作業しているものとする。
ステップS11の画像取得処理では、画像取得部111は、作業領域を撮像した画像データ31を取得する。
具体的には、画像取得部111は、ウエアラブル端末20に、撮像装置21により作業領域を撮像して画像データ31を順次生成させる。そして、画像取得部111は、ウエアラブル端末20によって生成された画像データ31を通信装置13によりネットワーク30を介して受信する。画像取得部111は、取得した画像データ31を記憶装置12に書き込む。
具体的には、画像取得部111は、ウエアラブル端末20に、撮像装置21により作業領域を撮像して画像データ31を順次生成させる。そして、画像取得部111は、ウエアラブル端末20によって生成された画像データ31を通信装置13によりネットワーク30を介して受信する。画像取得部111は、取得した画像データ31を記憶装置12に書き込む。
ステップS12の状態特定処理では、作業状態特定部114は、作業対象物及び作業対象物の周辺の状態を作業状態として特定する。
具体的には、作業状態特定部114は、ウエアラブル端末20に、位置検出装置22と温度検出装置23と時間検出装置24とにより、作業対象物に対して作業する作業者と、作業対象物及び作業対象物の周辺とを示す作業時データ32を検出させる。そして、作業状態特定部114は、ウエアラブル端末20によって検出された作業時データ32を通信装置13によりネットワーク30を介して受信する。作業状態取得部114は、直前に実行されたステップS11で記憶装置12に書き込まれた画像データ31と、受信した作業時データ32とから、作業対象物に対して作業する作業者の状態と、作業対象物及び前記作業対象物の周辺の状態とを作業状態36として特定する。作業状態特定部114は、特定した作業状態36を記憶装置12に書き込む。
作業状態36について詳しくは後述する。
具体的には、作業状態特定部114は、ウエアラブル端末20に、位置検出装置22と温度検出装置23と時間検出装置24とにより、作業対象物に対して作業する作業者と、作業対象物及び作業対象物の周辺とを示す作業時データ32を検出させる。そして、作業状態特定部114は、ウエアラブル端末20によって検出された作業時データ32を通信装置13によりネットワーク30を介して受信する。作業状態取得部114は、直前に実行されたステップS11で記憶装置12に書き込まれた画像データ31と、受信した作業時データ32とから、作業対象物に対して作業する作業者の状態と、作業対象物及び前記作業対象物の周辺の状態とを作業状態36として特定する。作業状態特定部114は、特定した作業状態36を記憶装置12に書き込む。
作業状態36について詳しくは後述する。
ステップS13の工程終了判定処理では、現在の作業工程が終了していない場合には、処理がS1に戻され、現在の作業工程が終了した場合には、処理がS4に進められる。
工程が終了したか否かは、作業者がウエアラブル端末20に工程終了を示す情報を入力したか否かによって特定される。
工程が終了したか否かは、作業者がウエアラブル端末20に工程終了を示す情報を入力したか否かによって特定される。
ステップS14のモデル特定処理では、モデル特定部112は、ステップS11で画像取得部111によって取得された各画像データ31に示された作業対象物に対応する3次元モデル34を特定する。
具体的には、モデル特定部112は、ステップS11で記憶装置12に書き込まれた各画像データ31を読み込む。そして、モデル特定部112は、予め記憶装置12に記憶された3次元モデル34から、読み込んだ各画像データ31に示された作業対象物と類似する形状及び大きさを有する3次元モデル34を検索する。これにより、モデル特定部112は、作業対象物に対応する3次元モデル34を特定する。モデル特定部112は、特定した3次元モデル34を記憶装置12に書き込む。
具体的には、モデル特定部112は、ステップS11で記憶装置12に書き込まれた各画像データ31を読み込む。そして、モデル特定部112は、予め記憶装置12に記憶された3次元モデル34から、読み込んだ各画像データ31に示された作業対象物と類似する形状及び大きさを有する3次元モデル34を検索する。これにより、モデル特定部112は、作業対象物に対応する3次元モデル34を特定する。モデル特定部112は、特定した3次元モデル34を記憶装置12に書き込む。
ステップS15の移動軌跡特定処理では、移動軌跡特定部113は、ステップS11で画像取得部111によって取得された各画像データ31から作業対象物の移動軌跡35を特定する。
具体的には、移動軌跡特定部113は、ステップS11で記憶装置12に書き込まれた各画像データ31を読み込む。そして、移動軌跡特定部113は、時間経過に沿った順で画像データ31を参照して、各画像データ31における作業対象物の位置を特定する。これにより、移動軌跡特定部113は、作業対象物の移動軌跡35を特定する。移動軌跡特定部113は、特定した移動軌跡35を記憶装置12に書き込む。
具体的には、移動軌跡特定部113は、ステップS11で記憶装置12に書き込まれた各画像データ31を読み込む。そして、移動軌跡特定部113は、時間経過に沿った順で画像データ31を参照して、各画像データ31における作業対象物の位置を特定する。これにより、移動軌跡特定部113は、作業対象物の移動軌跡35を特定する。移動軌跡特定部113は、特定した移動軌跡35を記憶装置12に書き込む。
ステップS16の作業情報生成処理では、作業情報生成部115は、モデル特定部112によって特定された3次元モデル34と、移動軌跡特定部113によって特定された移動軌跡35と、作業状態特定部114によって特定された作業状態36とを関連付けて作業情報33を生成する。
具体的には、作業情報生成部115は、ステップS14で記憶装置12に書き込まれた3次元モデル34を読み出すとともに、ステップS15で記憶装置12に書き込まれた移動軌跡35を読み出す。そして、作業情報生成部115は、読み出した3次元モデル34を移動軌跡35に沿って移動させたアニメーションを生成する。さらに、作業情報生成部115は、ステップS12で記憶装置12に書き込まれた作業状態36を読み出す。そして、作業情報生成部115は、読み出した作業状態36を、アニメーションにおける各時点に追加する。作業情報生成部115は、この作業状態36が追加されたアニメーションを作業情報33とする。
具体的には、作業情報生成部115は、ステップS14で記憶装置12に書き込まれた3次元モデル34を読み出すとともに、ステップS15で記憶装置12に書き込まれた移動軌跡35を読み出す。そして、作業情報生成部115は、読み出した3次元モデル34を移動軌跡35に沿って移動させたアニメーションを生成する。さらに、作業情報生成部115は、ステップS12で記憶装置12に書き込まれた作業状態36を読み出す。そして、作業情報生成部115は、読み出した作業状態36を、アニメーションにおける各時点に追加する。作業情報生成部115は、この作業状態36が追加されたアニメーションを作業情報33とする。
ステップS17の次工程判定処理では、次の工程がある場合には、処理がS1に戻され、次の工程がない場合には、処理が終了される。
次工程があるか否かは、作業者がウエアラブル端末20に次の工程があることを示す情報を入力したか否かによって特定される。
次工程があるか否かは、作業者がウエアラブル端末20に次の工程があることを示す情報を入力したか否かによって特定される。
図4は、実施の形態1に係る作業情報生成装置10の動作の説明図である。
処理1がステップS14に対応する処理であり、処理2がステップS15に対応する処理であり、処理3〜8がステップS13に対応する処理である。
処理1がステップS14に対応する処理であり、処理2がステップS15に対応する処理であり、処理3〜8がステップS13に対応する処理である。
処理1では、モデル特定部112は、撮像装置21によって撮像され生成された画像データ31に示された作業対象物と、予め記憶装置12に記憶された3次元モデル34とを照合して、作業対象物に対応する3次元モデル34を特定する。この際、モデル特定部112は、移動する物を作業対象物として特定する。
処理2では、移動軌跡特定部113は、撮像装置21によって撮像され生成された各画像データ31に示された作業対象物の移動を検出して移動軌跡35を特定する。
処理3では、作業状態特定部114は、位置検出装置22により作業者の目の位置と、作業者の目線とを検出させる。作業者の目線は、作業者の顔の傾きといった情報から特定される。ウエアラブル端末20がメガネ型の装置の場合には、作業状態特定部114は、作業者の目の位置を検出して、作業者の目線を特定してもよい。作業状態取得部114は、検出された目の位置及び目線と、撮像装置21によって撮像され生成された画像データ31に示された作業対象物とを照合して、作業者が作業対象物のどの位置を見ているかを示す視点を作業状態36として特定する。
また、作業状態取得部114は、視点と合わせて、作業者の身体の位置及び姿勢も作業状態36として特定する。
また、作業状態取得部114は、視点と合わせて、作業者の身体の位置及び姿勢も作業状態36として特定する。
処理4では、作業状態取得部114は、撮像装置21によって撮像され生成された画像データ31から、作業に使用される工具を特定する。具体的には、作業状態取得部114は、予め記憶された工具の工具画像を画像データ31から検索することにより、工具を特定する。そして、作業状態取得部114は、画像データ31から特定した工具の位置及び形状を作業状態36として特定する。工具の位置は、絶対的な位置であってもよいし、作業対象物に対する相対的な位置であってもよい。
処理5では、作業状態取得部114は、撮像装置21によって撮像され生成された画像データ31から、作業者の手を特定する。具体的には、作業状態取得部114は、予め記憶された手の手画像を画像データ31から検索することにより、手を特定する。そして、作業状態取得部114は、画像データ31から特定した手の位置及び形状を作業状態36として特定する。この際、作業状態取得部114は、手の形状から指さし確認を行っていることを検出してもよい。
処理6では、作業状態取得部114は、撮像装置21によって撮像され生成された画像データ31から、作業対象物における可動部分を特定する。具体的には、作業状態取得部114は、時間経過に沿った順で画像データ31を参照して、前後の画像データ31における作業対象物の差異を特定することにより、作業対象物が稼働した部分を特定する。
処理7では、作業状態取得部114は、温度検出装置23により作業対象物の温度を検出させる。そして、作業状態取得部114は、検出された温度から作業対象物における閾値よりも高い温度の部分を作業状態36として特定する。閾値は、事前に設定され、記憶装置12に記憶されているものとする。具体的には、作業者が触れると短時間で火傷する恐れのある温度が閾値として設定される。
処理8では、作業状態取得部114は、時間検出装置24により工程の開始時点から工程の終了時点までの時間を検出させる。ここでは、時間検出装置24は、作業の開始時点及び終了時点で作業者に何らかの入力をウエアラブル端末20に対してさせることにより、工程の開始時点及び終了時点を特定する。そして、作業状態取得部114は検出された時間を作業状態36として特定する。
つまり、作業状態取得部114は、作業者がどの位置から作業対象物のどの部分を見ているかという作業者の位置及び姿勢及び視点を作業状態36として特定する。また、作業状態取得部114は、作業対象物における可動部分及び高温部分といった危険個所を作業状態36として特定する。また、作業状態取得部114は、作業者の手の位置及び形状と、工具の位置及び形状といった作業内容を作業状態36として特定する。
そして、作業情報生成部115は、これらの特定した作業状態36を、3次元モデル34を移動軌跡35に沿って移動させたアニメーションに関連付けて作業情報33とする。この際、作業情報生成部115は、アニメーション中に、作業者の位置及び姿勢及び視点、作業対象物における可動部分及び高温部分、作業者の手の位置及び形状、工具の位置及び形状を表示する。
そして、作業情報生成部115は、これらの特定した作業状態36を、3次元モデル34を移動軌跡35に沿って移動させたアニメーションに関連付けて作業情報33とする。この際、作業情報生成部115は、アニメーション中に、作業者の位置及び姿勢及び視点、作業対象物における可動部分及び高温部分、作業者の手の位置及び形状、工具の位置及び形状を表示する。
***実施の形態1の効果***
以上のように、実施の形態1に係る作業情報生成システム1では、熟練した作業員が作業を行うことにより、3次元モデル34を用いた作業情報33が生成される。
3次元モデルを用いて作業情報33が生成されるため、作業の手順を映像で記録することにより作業情報を生成することに比べて、以下の(1)〜(3)の利点がある。(1)周囲の設備との干渉確認など組立性検証が可能である。(2)設計変更及び設計流用の際に部品が変わっても変更部品に関して修正するだけで済む。(3)作業手順を示すアニメーション作成に流用可能である。
以上のように、実施の形態1に係る作業情報生成システム1では、熟練した作業員が作業を行うことにより、3次元モデル34を用いた作業情報33が生成される。
3次元モデルを用いて作業情報33が生成されるため、作業の手順を映像で記録することにより作業情報を生成することに比べて、以下の(1)〜(3)の利点がある。(1)周囲の設備との干渉確認など組立性検証が可能である。(2)設計変更及び設計流用の際に部品が変わっても変更部品に関して修正するだけで済む。(3)作業手順を示すアニメーション作成に流用可能である。
また、作業情報33には、作業をする際のポイント、ノウハウとなる作業状態36が含まれている。そのため、作業情報33を参照することにより、他の作業員が容易に作業をすることが可能になる。
***他の構成***
実施の形態1では、作業情報生成装置10の各機能がソフトウェアで実現された。しかし、変形例として、作業情報生成装置10の各機能はハードウェアで実現されてもよい。この変形例について、実施の形態1と異なる点を説明する。
実施の形態1では、作業情報生成装置10の各機能がソフトウェアで実現された。しかし、変形例として、作業情報生成装置10の各機能はハードウェアで実現されてもよい。この変形例について、実施の形態1と異なる点を説明する。
図5は、各部の機能がハードウェアで実現される場合の作業情報生成装置10の構成図である。
各部の機能がハードウェアで実現される場合、作業情報生成装置10は、通信装置13と、処理回路14とを備える。処理回路14は、作業情報生成装置10の各部の機能及び記憶装置12の機能を実現する専用の電子回路である。
処理回路14は、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ロジックIC、GA、ASIC、FPGAが想定される。GAは、Gate Arrayの略である。ASICは、Application Specific Integrated Circuitの略である。FPGAは、Field−Programmable Gate Arrayの略である。
各部の機能を1つの処理回路14で実現してもよいし、各部の機能を複数の処理回路14に分散させて実現してもよい。
各部の機能を1つの処理回路14で実現してもよいし、各部の機能を複数の処理回路14に分散させて実現してもよい。
また、別の変形例として、一部の機能がハードウェアで実現され、他の機能がソフトウェアで実現されてもよい。つまり、作業情報生成装置10の各部のうち、一部の機能がハードウェアで実現され、他の機能がソフトウェアで実現されてもよい。
プロセッサ11と記憶装置12と処理回路14とを、総称して「プロセッシングサーキットリー」という。つまり、各部の機能は、プロセッシングサーキットリーにより実現される。すなわち、作業情報生成装置10が図1及び図5のいずれに示した構成であっても、各部の機能はプロセッシングサーキットリーにより実現される。
実施の形態2.
実施の形態1では、作業情報33を生成する方法について説明した。実施の形態2は、作業状態36として特定された情報に応じて作業者に通知する点が実施の形態1と異なる。実施の形態2では、この異なる点について説明する。
実施の形態1では、作業情報33を生成する方法について説明した。実施の形態2は、作業状態36として特定された情報に応じて作業者に通知する点が実施の形態1と異なる。実施の形態2では、この異なる点について説明する。
***構成の説明***
図6は、実施の形態2に係る作業情報生成システム1の構成図である。
ウエアラブル端末20は、図1に示す構成に加え、有毒ガス及び煙を検出する臭気検出装置25と、作業領域の照度を検出する照度検出装置26とを備える。
図6は、実施の形態2に係る作業情報生成システム1の構成図である。
ウエアラブル端末20は、図1に示す構成に加え、有毒ガス及び煙を検出する臭気検出装置25と、作業領域の照度を検出する照度検出装置26とを備える。
図7は、実施の形態2に係る作業情報生成装置10の構成図である。
作業情報生成装置10は、図2に示す機能構成に加え、通知部116を備える。通知部116の機能は、作業情報生成装置10の他の機能と同様にソフトウェアで実現される。
作業情報生成装置10は、図2に示す機能構成に加え、通知部116を備える。通知部116の機能は、作業情報生成装置10の他の機能と同様にソフトウェアで実現される。
***動作の説明***
図8は、実施の形態2に係る作業情報生成装置10の動作の流れを示すフローチャートである。
実施の形態2に係る作業情報生成装置10の動作は、実施の形態2に係る作業情報生成方法に相当する。また、実施の形態2に係る作業情報生成装置10の動作は、実施の形態2に係る作業情報生成プログラムの処理に相当する。
ここでは、実施の形態1で説明した作業情報33を生成する動作において、作業者に通知する場合を説明する。
図8は、実施の形態2に係る作業情報生成装置10の動作の流れを示すフローチャートである。
実施の形態2に係る作業情報生成装置10の動作は、実施の形態2に係る作業情報生成方法に相当する。また、実施の形態2に係る作業情報生成装置10の動作は、実施の形態2に係る作業情報生成プログラムの処理に相当する。
ここでは、実施の形態1で説明した作業情報33を生成する動作において、作業者に通知する場合を説明する。
ステップS21〜S22の処理は、図3に示すステップS11〜S12の処理と同じであり、ステップステップS24〜S28の処理は、図3に示すステップS13〜S17の処理と同じである。
ステップS23では、通知部116は、S22で特定された作業状態36に応じて、作業者に通知データ37を通知する。
具体的には、通知部116は、通知が必要な状態を作業状態36が示す場合には、その内容に応じて通知データ37をウエアラブル端末20に出力して、ウエアラブル端末20から音や光を出力させ、作業者にその状態を通知する。
ステップS23では、通知部116は、S22で特定された作業状態36に応じて、作業者に通知データ37を通知する。
具体的には、通知部116は、通知が必要な状態を作業状態36が示す場合には、その内容に応じて通知データ37をウエアラブル端末20に出力して、ウエアラブル端末20から音や光を出力させ、作業者にその状態を通知する。
ここでは、図4に基づき説明した作業状態36に加え、以下の状態も作業状態36として特定する。
作業状態取得部114は、臭気検出装置25により作業領域における有毒ガス及び煙を検出させる。そして、作業状態取得部114は、検出された有毒ガス又は煙の濃度が閾値よりも高い場合に、有毒ガスが発生したことを作業状態36として特定する。また、作業状態取得部114は、照度検出装置26により作業領域の照度を検出させる。そして、作業状態取得部114は、検出された照度が閾値よりも低い場合に、照度が低いことを作業状態36として特定する。また、作業状態取得部114は、撮像装置21によって撮像され生成された画像データ31から、作業対象物のクラックが閾値よりも大きい場合に、大きいクラックがあることを作業状態36として特定する。
通知部116は、作業状態36として、有毒ガスが発生したこと、又は、照度が低いこと、又は、大きいクラックがあることが特定された場合に、その内容に応じた通知データ37をウエアラブル端末20に送信して、作業者に状態を通知する。
作業状態取得部114は、臭気検出装置25により作業領域における有毒ガス及び煙を検出させる。そして、作業状態取得部114は、検出された有毒ガス又は煙の濃度が閾値よりも高い場合に、有毒ガスが発生したことを作業状態36として特定する。また、作業状態取得部114は、照度検出装置26により作業領域の照度を検出させる。そして、作業状態取得部114は、検出された照度が閾値よりも低い場合に、照度が低いことを作業状態36として特定する。また、作業状態取得部114は、撮像装置21によって撮像され生成された画像データ31から、作業対象物のクラックが閾値よりも大きい場合に、大きいクラックがあることを作業状態36として特定する。
通知部116は、作業状態36として、有毒ガスが発生したこと、又は、照度が低いこと、又は、大きいクラックがあることが特定された場合に、その内容に応じた通知データ37をウエアラブル端末20に送信して、作業者に状態を通知する。
***実施の形態2の効果***
以上のように、実施の形態2に係る作業情報生成システム1では、作業者に危険が及ぶ場合、及び、作業者に害がある場合に、作業者に通知をする。そのため、作業者は、危険及び害を回避することが可能となる。
以上のように、実施の形態2に係る作業情報生成システム1では、作業者に危険が及ぶ場合、及び、作業者に害がある場合に、作業者に通知をする。そのため、作業者は、危険及び害を回避することが可能となる。
***他の構成***
実施の形態2では、実施の形態1と同様に、作業情報生成装置10の各部の機能がソフトウェアで実現された。しかし、実施の形態1の変形例と同様に、作業情報生成装置10の各部の機能がハードウェアで実現されてもよい。また、作業情報生成装置10の各部のうち、一部の機能がハードウェアで実現され、他の機能がソフトウェアで実現されてもよい。
実施の形態2では、実施の形態1と同様に、作業情報生成装置10の各部の機能がソフトウェアで実現された。しかし、実施の形態1の変形例と同様に、作業情報生成装置10の各部の機能がハードウェアで実現されてもよい。また、作業情報生成装置10の各部のうち、一部の機能がハードウェアで実現され、他の機能がソフトウェアで実現されてもよい。
1 作業情報生成システム、10 作業情報生成装置、11 プロセッサ、111 画像取得部、112 モデル特定部、113 移動軌跡特定部、114 作業状態特定部、115 作業情報生成部、116 通知部、12 記憶装置、13 通信装置、14 処理回路、20 ウエアラブル端末、21 撮像装置、22 位置検出装置、23 温度検出装置、24 時間検出装置、25 臭気検出装置、26 照度検出装置、31 画像データ、32 作業時データ、33 作業情報、34 3次元モデル、35 移動軌跡、36 作業状態、37 通知データ。
Claims (8)
- 作業領域を撮像した画像データを順次取得する画像取得部と、
前記画像取得部によって取得された各画像データに示された作業対象物に対応する3次元モデルを特定するモデル特定部と、
前記各画像データから前記作業対象物の移動軌跡を特定する移動軌跡特定部と、
前記作業対象物に対して作業する作業者の状態を作業状態として特定する作業状態特定部と、
前記モデル特定部によって特定された前記3次元モデルと、前記移動軌跡特定部によって特定された前記移動軌跡と、前記作業状態特定部によって特定された作業状態を示す状態情報とを関連付けて作業情報を生成する作業情報生成部と
を備える作業情報生成装置。 - 前記作業状態特定部は、前記作業対象物に対して作業する作業者の身体の位置及び姿勢と、前記作業者の視点と、前記作業者の手の位置及び形状との少なくともいずれかを前記作業状態として特定する
請求項1に記載の作業情報生成装置。 - 前記作業状態特定部は、さらに、前記作業対象物及び前記作業対象物の周辺の状態を前記作業状態として特定する
請求項1又は2に記載の作業情報生成装置。 - 前記作業状態特定部は、前記作業対象物における閾値よりも高い温度の部分と、前記作業対象物における可動部分と、前記作業に使用される工具の位置及び形状との少なくともいずれかを前記作業状態として特定する
請求項3に記載の作業情報生成装置。 - 前記作業状態特定部は、さらに、前記作業対象物に対する作業時間を前記作業状態として特定する
請求項1から4までのいずれか1項に記載の作業情報生成装置。 - 前記作業状態特定部は、さらに、ガスと、煙と、照度と、前記作業対象物のクラックとの少なくともいずれかを前記作業状態として特定する
請求項1から5までのいずれか1項に記載の作業情報生成装置。 - 前記作業情報生成装置は、さらに、
前記作業状態特定部によって特定された前記ガスと、前記煙と、前記照度と、前記クラックとの少なくともいずれかが閾値を超えた場合に、前記作業対象物に対して作業する作業者に通知する通知部
を備える請求項6に記載の作業情報生成装置。 - 前記作業情報生成部は、前記3次元モデルを前記移動軌跡に沿って移動させつつ、前記状態情報を示したアニメーションを前記作業情報として生成する
請求項1に記載の作業情報生成装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015218609A JP2017091091A (ja) | 2015-11-06 | 2015-11-06 | 作業情報生成装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015218609A JP2017091091A (ja) | 2015-11-06 | 2015-11-06 | 作業情報生成装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017091091A true JP2017091091A (ja) | 2017-05-25 |
Family
ID=58769163
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015218609A Pending JP2017091091A (ja) | 2015-11-06 | 2015-11-06 | 作業情報生成装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017091091A (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020149546A (ja) * | 2019-03-15 | 2020-09-17 | ダイダン株式会社 | 施工支援システムおよび施工支援装置 |
CN112309025A (zh) * | 2020-10-30 | 2021-02-02 | 北京市商汤科技开发有限公司 | 信息展示方法、装置、电子设备及存储介质 |
JP2022522159A (ja) * | 2019-04-19 | 2022-04-14 | ナノトロニクス イメージング インコーポレイテッド | 組立てラインのための組立てエラー修正 |
US11675330B2 (en) | 2019-02-28 | 2023-06-13 | Nanotronics Imaging, Inc. | System and method for improving assembly line processes |
US11703824B2 (en) | 2019-02-28 | 2023-07-18 | Nanotronics Imaging, Inc. | Assembly error correction for assembly lines |
-
2015
- 2015-11-06 JP JP2015218609A patent/JP2017091091A/ja active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11675330B2 (en) | 2019-02-28 | 2023-06-13 | Nanotronics Imaging, Inc. | System and method for improving assembly line processes |
US11703824B2 (en) | 2019-02-28 | 2023-07-18 | Nanotronics Imaging, Inc. | Assembly error correction for assembly lines |
JP2020149546A (ja) * | 2019-03-15 | 2020-09-17 | ダイダン株式会社 | 施工支援システムおよび施工支援装置 |
JP7240573B2 (ja) | 2019-03-15 | 2023-03-16 | ダイダン株式会社 | 施工支援システムおよび施工支援装置 |
JP2022522159A (ja) * | 2019-04-19 | 2022-04-14 | ナノトロニクス イメージング インコーポレイテッド | 組立てラインのための組立てエラー修正 |
JP7207790B2 (ja) | 2019-04-19 | 2023-01-18 | ナノトロニクス イメージング インコーポレイテッド | 組立てラインのための組立てエラー修正 |
CN112309025A (zh) * | 2020-10-30 | 2021-02-02 | 北京市商汤科技开发有限公司 | 信息展示方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2017091091A (ja) | 作業情報生成装置 | |
US20230215294A1 (en) | Weld Training Systems to Synchronize Weld Data for Presentation | |
TW201947451A (zh) | 車輛定損的交互處理方法、裝置、處理設備及客戶端 | |
US10076840B2 (en) | Information processing apparatus, information processing method, and program | |
US11670191B2 (en) | Systems and methods to provide weld training | |
EP3400587B1 (en) | Systems and methods to provide weld training | |
JP6323202B2 (ja) | 映像を取得するシステム、方法及びプログラム | |
US10942576B2 (en) | Techniques for real object and hand representation in virtual reality content | |
JP2014116722A5 (ja) | ||
US20210067894A1 (en) | Audio Rendering for Augmented Reality | |
CN105827261A (zh) | 信息发送方法及装置 | |
US20170316240A1 (en) | Controlling the output of contextual information using a computing device | |
WO2019246613A1 (en) | Method and system for performing eye tracking using an off-axis camera | |
JP2017143387A (ja) | 画像処理制御方法、画像処理制御プログラムおよび画像処理制御装置 | |
US9727778B2 (en) | System and method for guided continuous body tracking for complex interaction | |
WO2022046227A1 (en) | Mixed reality image capture and smart inspection | |
EP3432204B1 (en) | Telepresence framework for region of interest marking using headmount devices | |
CN112262373A (zh) | 基于视图的断点 | |
JP2020119495A (ja) | ウェアラブル検索システム、検索方法、及び、検索プログラム | |
US10268265B2 (en) | Information processing method, information processing apparatus and user equipment | |
WO2023089692A1 (ja) | 異常判定方法、異常判定装置、異常判定システム及び非一時的なコンピュータ可読媒体 | |
JPWO2020031493A1 (ja) | 端末装置および端末装置の制御方法 | |
KR102377988B1 (ko) | 로봇과의 협업 보조 방법 및 장치 | |
KR102337908B1 (ko) | 작업 보조 방법 및 장치 | |
JP2017092866A (ja) | 表示制御方法、表示制御プログラムおよび情報処理装置 |