JP2020149349A - 点検支援システムおよび点検支援方法 - Google Patents

点検支援システムおよび点検支援方法 Download PDF

Info

Publication number
JP2020149349A
JP2020149349A JP2019046232A JP2019046232A JP2020149349A JP 2020149349 A JP2020149349 A JP 2020149349A JP 2019046232 A JP2019046232 A JP 2019046232A JP 2019046232 A JP2019046232 A JP 2019046232A JP 2020149349 A JP2020149349 A JP 2020149349A
Authority
JP
Japan
Prior art keywords
inspection
unit
information
virtual reality
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019046232A
Other languages
English (en)
Other versions
JP7246211B2 (ja
Inventor
進 矢田
Susumu Yada
進 矢田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2019046232A priority Critical patent/JP7246211B2/ja
Publication of JP2020149349A publication Critical patent/JP2020149349A/ja
Application granted granted Critical
Publication of JP7246211B2 publication Critical patent/JP7246211B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing And Monitoring For Control Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • User Interface Of Digital Computer (AREA)
  • Testing Of Devices, Machine Parts, Or Other Structures Thereof (AREA)

Abstract

【課題】遠隔地において点検作業をより適切に支援することができる点検支援システムおよび点検支援方法を得ること。【解決手段】点検支援システム1は、無人移動体10を含む現場装置6と、仮想現実デバイス20を含む遠隔地装置7とを備える。無人移動体10は、駆動機構11と、点検現場2を撮像する仮想現実カメラ12と、点検現場2の音を収集するマイク13と、アーム14と、駆動機構11を制御して無人移動体10を移動させると共に、アーム14を制御して点検対象機器5を操作する制御部16とを備える。仮想現実デバイス20は、仮想現実カメラ12で得られる画像の情報に基づいて、点検員4の向きに応じた点検現場2の画像を表示部22により点検員4に視認可能に表示する表示処理部82と、マイク13で得られる音の情報に基づいて、点検現場2の音をスピーカ23から出力する音出力処理部83とを備える。【選択図】図1

Description

本発明は、点検対象機器に対する遠隔地での点検を支援する点検支援システムおよび点検支援方法に関する。
従来、遠隔地から点検対象機器の点検を行う技術が知られている。例えば、特許文献1には、巡視ロボットに点検現場を自動巡視させ、現場の映像および音声などをリアルタイムに取得し、遠隔にある操作室において運転員が機器の現状況を確認することができる技術が開示されている。
特開2000−39914号公報
しかしながら、特許文献1に記載の発明では、遠隔にある操作室において現場の映像および音声を監視することができるが、実際に現場を訪れて行う点検作業によって点検員が感じられる状況を適切に再現できない場合がある。
本発明は、上記に鑑みてなされたものであって、遠隔地からの点検作業をより適切に支援することができる点検支援システムを得ることを目的とする。
上述した課題を解決し、目的を達成するために、本発明の点検支援システムは、点検現場に配置される無人移動体を含む現場装置と、点検現場から離れた遠隔地で点検員に装着される仮想現実デバイスを含む遠隔地装置とを備える。無人移動体は、点検現場を移動するための駆動機構と、点検現場を撮像する仮想現実カメラと、点検現場の音を収集するマイクと、点検現場に設置される点検対象機器を操作可能なアームと、駆動機構を制御して無人移動体を移動させると共に、アームを制御して点検対象機器を操作する制御部とを備える。仮想現実デバイスは、仮想現実カメラで得られる画像の情報に基づいて、点検員の向きに応じた点検現場の画像を表示部により点検員に視認可能に表示する表示処理部と、マイクで得られる音の情報に基づいて、点検現場の音をスピーカから出力する音出力処理部とを備える。
本発明によれば、遠隔地からの点検作業をより適切に支援することができる、という効果を奏する。
本発明の実施の形態1にかかる点検支援システムを説明するための図 実施の形態1にかかる点検支援システムの構成例を示す図 実施の形態1にかかる無人移動体の構成例を示す図 実施の形態1にかかる現場装置に含まれる端末装置の構成例を示す図 実施の形態1にかかるサーバの構成例を示す図 実施の形態1にかかる仮想現実デバイスの構成例を示す図 実施の形態1にかかる仮想現実デバイスの表示部によって点検員に視認される画像の一例を示す図 実施の形態1にかかる仮想現実デバイスの表示部によって点検員に視認される画像の他の例を示す図 実施の形態1にかかる無人移動体の処理の一例を示すフローチャート 実施の形態1にかかる現場装置における端末装置の処理の一例を示すフローチャート 実施の形態1にかかるサーバの処理の一例を示すフローチャート 実施の形態1にかかる仮想現実デバイスの処理の一例を示すフローチャート 実施の形態1にかかる仮想現実デバイスの処理部のハードウェア構成の一例を示す図
以下に、本発明の実施の形態にかかる点検支援システムおよび点検支援方法を図面に基づいて詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。
実施の形態1.
図1は、本発明の実施の形態1にかかる点検支援システムを説明するための図である。図1に示す点検支援システム1は、点検現場2から遠隔にある監視場所3で点検員4が点検現場2の機器を点検可能にする。なお、点検とは、点検現場2の各機器を検査することを意味し、かかる検査には、例えば、視覚による機器状態の確認および聴覚による機器状態の確認などがある。かかる点検支援システム1では、点検員4の視覚および聴覚などによる機器状態の確認を支援することができる。
点検現場2は、例えば、工場、発電所、変電所、または精油施設などのプラントであり、点検員4による点検対象となる点検対象機器5〜5が設置されている。nは、2以上の整数である。以下、点検対象機器5〜5の各々を区別せずに示す場合、点検対象機器5と記載する場合がある。
点検支援システム1は、点検現場2に配置され無人移動体10を含む現場装置6と、監視場所3に配置され点検員4に装着される仮想現実デバイス20を含む遠隔地装置7とを備える。無人移動体10は、例えば、空中を移動する空中ドローン、水中を移動する水中ドローン、または床を走行する自走式ロボットなどである。
かかる無人移動体10は、駆動機構11と、点検現場2を撮像する仮想現実カメラ12と、点検現場2の音を収集するマイク13と、点検対象機器5を操作可能なアーム14と、制御部16とを備える。駆動機構11は、無人移動体10を移動させるための機構である。無人移動体10が空中ドローンである場合、駆動機構11は、例えば、回転翼と、回転翼を回転させるモータとを含む。また、無人移動体10が自走式ロボットである場合、駆動機構11は、例えば、車輪と、車輪を回転させるモータとを含む。
仮想現実カメラ12は、VRカメラとも呼ばれ、例えば、無人移動体10の周囲を2次元または3次元で180度撮影または360度撮影を行うカメラである。例えば、仮想現実カメラ12は、周方向に配置された複数のレンズを有しており、かかる複数のレンズを通じて撮像される画像を繋ぎ合せた画像の情報を出力する。以下、仮想現実カメラ12で得られる画像を撮像画像と記載する場合がある。
アーム14は、例えば、複数のリンクが連結された多関節型のアームである。制御部16は、アーム14を制御することで、アーム14に点検対象機器5を操作させることができる。また、制御部16は、駆動機構11を制御して無人移動体10を移動させることができる。
制御部16は、例えば、駆動機構11を制御して予め設定された移動経路を無人移動体10に移動させると共に、アーム14を制御して点検対象機器5を予め設定された手順で操作することができる。これにより、無人移動体10は、自動的に予め設定された移動経路で移動しつつ予め設定された手順で点検対象機器5の点検を行うことができる。
遠隔地装置7に含まれる仮想現実デバイス20は、仮想現実を点検員4に提示するデバイスであり、例えば、スマートグラスである。仮想現実デバイス20は、表示部22と、スピーカ23と、表示処理部82と、音出力処理部83とを備える。表示処理部82は、仮想現実カメラ12で得られる撮像画像の情報に基づいて、点検員4の向きに応じた点検現場2の撮像画像を表示部22により点検員4に視認可能に表示する。音出力処理部83は、マイク13で得られる音の情報に基づいて、点検現場2の音をスピーカ23から出力する。
仮想現実カメラ12で得られる撮像画像は、例えば、2次元パノラマ画像または3次元パノラマ画像であり、表示処理部82は、かかるパノラマ画像のうち、点検員4の向きに応じた領域の画像を表示部22により点検員4に視認可能に表示することができる。表示部22は、例えば、点検員4の向きに応じた領域の画像を点検員4に視認可能に表示する。仮想現実デバイス20がスマートグラスである場合、表示部22は、例えば、点検員4の向きに応じた領域の画像を外景に重ねて点検員4に視認させる拡張現実ディスプレイである。
点検員4は、仮想現実デバイス20によって、頭の向きを変えることで、あたかも実際に点検現場2に居るかのように点検現場2の画像を視認することができる。また、点検員4は、無人移動体10が点検作業を行っている状態における点検現場2の画像を視認することができる。したがって、点検支援システム1では、点検員4が実際に点検現場2を訪れて行う点検作業によって感じられる状況を適切に再現することができる。これにより、遠隔地からの点検作業をより適切に支援することができる。
また、仮想現実デバイス20が3次元のVRカメラである場合、点検員4は点検現場2の画像を立体的に視認することができる。これにより、実際の現場での点検作業によって点検員4が感じられる状況をさらに適切に再現することができる。
以下、実施の形態1にかかる点検支援システム1をさらに具体的に説明する。図2は、実施の形態1にかかる点検支援システムの構成例を示す図である。図2に示す点検支援システム1は、点検現場2に配置される現場装置6と、監視場所3に配置される遠隔地装置7と、クラウド8に配置されるサーバ40とを備える。
現場装置6とサーバ40とは、通信ネットワーク9を介して通信可能に接続され、遠隔地装置7とサーバ40とは、通信ネットワーク9を介して通信可能に接続される。通信ネットワーク9,9は、例えば、インターネットなどのWAN(Wide Area Network)またはLAN(Local Area Network)である。なお、通信ネットワーク9,9は、図2に示す例では、互いに異なるネットワークであるが、互いに同一のネットワークであってもよい。また、通信ネットワーク9,9は各々専用線であってもよい。以下、通信ネットワーク9,9の各々を区別せずに示す場合、通信ネットワーク9と記載する場合がある。
現場装置6は、無人移動体10と、端末装置30と、ゲートウェイ装置61と、充電ステーション62と、センサ部63とを備える。ゲートウェイ装置61は、通信ネットワーク9に接続される。端末装置30は、例えば、ノート型PC(Personal Computer)、デスクトップPC、タブレット型端末、またはPDA(Personal Digital Assistant)である。
端末装置30は、無人移動体10から情報を取得し、取得した情報をサーバ40へゲートウェイ装置61から送信することができる。また、端末装置30は、遠隔地装置7から送信される情報をサーバ40およびゲートウェイ装置61を介して取得し、取得した情報を無人移動体10へ送信することができる。
充電ステーション62は、無人移動体10を充電する。無人移動体10は、点検作業を行わない期間は、充電ステーション62の設置領域に停止しており、充電ステーション62から充電される。
センサ部63は、例えば、点検対象機器5の温度を検出するサーモセンサ、点検現場2の温度を検出する温度センサ、点検現場2の湿度を検出する湿度センサ、および点検現場2の臭気を検出する臭気センサなどの複数のセンサを含む。センサ部63は、これら複数のセンサで検出される情報を端末装置30へ出力する。なお、センサ部63における各センサは、点検現場2で固定位置に配置されるが、無人移動体10に設けられてもよい。
遠隔地装置7は、仮想現実デバイス20と、端末装置50とを備える。仮想現実デバイス20および端末装置50は、点検員4によって使用される。端末装置50は、例えば、ノート型PC、デスクトップPC、タブレット型端末、またはPDAである。
図3は、実施の形態1にかかる無人移動体の構成例を示す図である。図3に示すように、実施の形態1にかかる無人移動体10は、駆動機構11と、仮想現実カメラ12と、複数のマイク13〜13と、アーム14と、第1通信部15と、制御部16と、処理部17と、第2通信部18とを備える。mは2以上の整数である。
複数のマイク13〜13は、無人移動体10の外周に沿って間隔を空けて配列され、無人移動体10の周囲の音を収集する。なお、複数のマイク13〜13は、マイクアレイによって構成されてもよい。なお、複数のマイク13〜13の各々を区別せずに示す場合、マイク13と記載する場合がある。
第1通信部15は、例えば、Bluetooth(登録商標)またはNFC(Near Field Communication)の技術を適宜用いて、他の装置と通信を行う。なお、第1通信部15による通信は、電波に限定されるものではなく、例えば、赤外線通信、可視光通信、音波などを用いることもできる。また、第2通信部18は、無線LANまたはBluetoothなどによって端末装置30と通信することができる。
制御部16は、自律制御モードおよび外部制御モードのうち設定されたモードで駆動機構11およびアーム14を制御することができる。制御部16は、自律的に移動し且つ点検対象機器5を操作するための自動点検シナリオの情報を有している。制御部16は、自律制御モードに設定された場合、自動点検シナリオの情報に基づいて、駆動機構11を制御して予め設定された移動経路を無人移動体10に移動させると共に、アーム14を制御して点検対象機器5を予め設定された手順で操作する。なお、点検対象機器5の操作は、例えば、点検対象機器5の鍵および扉などを開ける操作、点検対象機器5のタッチパネルへの操作、または点検対象機器5のレバーへの操作などである。制御部16は、自律制御モードにおいて、予め設定された移動経路に障害物がある場合、かかる障害物を避けるように駆動機構11を制御することができる。
また、制御部16は、無人移動体10または仮想現実デバイス20からの要求によって自律制御モードから外部制御モードに切り替えられた場合、外部からの要求に基づいて、駆動機構11およびアーム14を制御する。これにより、例えば、遠隔地装置7から無人移動体10へ制御指令を送信することによって、遠隔地装置7から無人移動体10を制御することができる。
処理部17は、仮想現実カメラ12から撮像画像の情報を取得し、取得した撮像画像の情報を端末装置30へ第2通信部18を介して送信することができる。また、処理部17は、マイク13から音の情報を取得し、取得した音の情報を端末装置30へ第2通信部18を介して送信することができる。
次に、端末装置30について具体的に説明する。図4は、実施の形態1にかかる現場装置に含まれる端末装置の構成例を示す図である。図4に示すように、端末装置30は、第1通信部31と、第2通信部32と、記憶部33と、処理部34とを備える。第1通信部31は、無線または有線によってゲートウェイ装置61と通信する。第2通信部32は、無線LANまたはBluetoothなどによって無人移動体10と通信する。
記憶部33は、履歴情報および3次元モデル情報を記憶する。履歴情報は、処理部34によって無人移動体10から取得された過去の撮像画像の情報および音の情報などである。処理部34は、無人移動体10から情報を取得する毎に、取得した情報を履歴情報に追加することができる。3次元モデル情報は、点検現場2の3次元モデルの情報であり、点検対象機器5〜5を含む領域を3次元モデルで表した情報である。
処理部34は、取得部71と、音判定部72と、図形付加部73と、送信部74と、状態判定部75と、推定部76と、移動体制御部77とを備える。取得部71は、第2通信部32を介して無人移動体10から撮像画像の情報および音の情報などを取得し、取得した情報を履歴情報に追加する。また、取得部71は、センサ部63から各センサが検出した情報である検出情報を取得し、取得した検出情報を履歴情報に追加することができる。また、取得部71は、サーバ40から第1通信部31を介して後述する第1計算モデルの情報および第2計算モデルの情報などを取得し、取得した第1計算モデルの情報および第2計算モデルの情報を記憶部33に記憶することができる。取得部71は、第1通信部31を介して遠隔地装置7からの情報を取得することもできる。
音判定部72は、無人移動体10から取得部71で取得された音の情報に基づいて、音源方向、音源位置、および音の大きさを判定する。音源方向は、無人移動体10に対する音源の方向である。音源位置は、点検現場2における音源の位置である。音の大きさは、無人移動体10のマイク13で収集される音の大きさである。無人移動体10からの音の情報には、複数のマイク13〜13で各々取得された音の情報が含まれており、音判定部72は、これらの音の情報に基づいて、音源方向、音源位置、および音の大きさを判定することができる。
図形付加部73は、音判定部72による判定結果に基づいて、無人移動体10から取得した撮像画像に、音源の位置を表す図形および音の大きさを表す図形のうち少なくとも一つを表す図形を付加する。例えば、図形付加部73は、音源の位置を表す図形を撮像画像のうち点検現場2における音源の位置に重畳することで、音源の位置を表す図形を撮像画像に付加する。また、図形付加部73は、音源の位置を表す図形が重畳された撮像画像と音の大きさを表す図形を関連付けた情報を生成することができる。なお、音判定部72は音源における音の大きさを上述した音の大きさとして判定することもできる。この場合、図形付加部73は、音源における音の大きさが大きくなるほど音源の位置を表す図形が大きくして撮像画像に重畳することができる。
また、図形付加部73は、取得部71がセンサ部63から取得した検出情報に応じた図形を撮像画像に付加することもできる。例えば、図形付加部73は、センサ部63に含まれるサーモセンサによって検出される点検対象機器5の温度を表す図形、およびセンサ部63に含まれる臭気センサによって検出される点検現場2の臭気の種類および大きさを表す図形などを撮像画像に付加することができる。なお、撮像画像への図形の付加は、仮想現実デバイス20で撮像画像に図形を重畳表示できる形式であればよい。また、図形付加部73は、点検員4によって設定されたメモの内容を示す情報を撮像画像に付加することもできる。
送信部74は、図形付加部73によって図形が付加された撮像画像の情報と取得部71によって取得された音の情報とを含む現場情報を第1通信部31からゲートウェイ装置61を介してサーバ40へ送信する。また、送信部74は、取得部71によって取得された検出情報を第1通信部31からゲートウェイ装置61を介してサーバ40へ送信することができる。
状態判定部75は、点検対象機器5の異常を判定する第1計算モデルと、点検対象機器5の劣化を判定する第2計算モデルとを有する。状態判定部75は、仮想現実カメラ12で取得された撮像画像の情報とマイク13で取得された音の情報を第1計算モデルへ特徴情報として入力することで、点検対象機器5の異常を判定することができる。点検対象機器5の異常は、例えば、点検対象機器5に生じるひび、漏れ水、破損、または点検対象機器5の停止などである。
状態判定部75は、仮想現実カメラ12で取得された撮像画像の情報とマイク13で取得された音の情報を第2計算モデルへ特徴情報として入力することで、点検対象機器5の劣化を判定することができる。点検対象機器5の劣化は、例えば、発熱、異音、異臭、計測値の増加または低下などであり、点検対象機器5が一定期間内に異常が発生する可能性が高い状態を示す。かかる点検対象機器5の劣化は、異常の兆候ともいうことができる。
なお、第1計算モデルは、仮想現実カメラ12で取得された撮像画像の情報とマイク13で取得された音の情報に加えまたは代えて、センサ部63の検出情報を特徴量として点検対象機器5の異常を判定することができる。これにより、状態判定部75は、例えば、点検対象機器5に生じる異常温度などを点検対象機器5の異常として判定することができる。同様に、第2計算モデルは、仮想現実カメラ12で取得された撮像画像の情報とマイク13で取得された音の情報に加えまたは代えて、センサ部63の検出情報を特徴量として点検対象機器5の劣化を判定することができる。
また、状態判定部75は、第2計算モデル以外の判定処理によって、点検対象機器5の劣化を検出することができる。例えば、状態判定部75は、仮想現実カメラ12で取得された撮像画像の情報に基づいて、点検対象機器5の振動を検出し、かかる検出結果に基づいて点検対象機器5に劣化を示す振動が発生しているか否かを判定することができる。また、状態判定部75は、臭気センサの検出結果に基づいて、点検対象機器5からの臭気の種別および強さを判定し、かかる判定結果に基づいて点検対象機器5から異臭が発生しているか否かを判定することができる。また、状態判定部75は、マイク13で取得された音の情報に基づいて、点検対象機器5からの音の種別および大きさを判定し、かかる判定結果に基づいて点検対象機器5から異音が発生しているか否かを判定することができる。また、状態判定部75は、サーモセンサの検出結果に基づいて、点検対象機器5の温度分布を判定し、かかる判定結果に基づいて点検対象機器5に発熱があるか否かを判定することができる。
送信部74は、状態判定部75によって判定された点検対象機器5の異常および劣化を示す情報である状態情報を第1通信部31からゲートウェイ装置61を介してサーバ40へ送信することができる。
推定部76は、仮想現実カメラ12で取得された撮像画像の情報と記憶部33に記憶された3次元モデルの情報とを比較し、無人移動体10の位置および向きを推定する。例えば、推定部76は、仮想現実カメラ12で取得された画像が、3次元モデルのどの位置およびどの方向から見た画像であるかを判定し、かかる判定結果に基づいて、無人移動体10の位置および向きを推定することができる。
移動体制御部77は、無人移動体10から要求があった場合に、推定部76によって推定された無人移動体10の位置および向きに基づいて、無人移動体10への指令情報を生成する。移動体制御部77は、無人移動体10において予め設定されている移動経路の情報を有しており、無人移動体10が移動経路から外れた位置にある場合、予め設定された移動経路を戻す指令情報を生成することができる。移動体制御部77によって生成された指令情報は、送信部74から第2通信部32を介して無人移動体10へ送信される。無人移動体10の制御部16は、移動体制御部77からの指令情報に基づいて、駆動機構11およびアーム14などを制御する。
例えば、移動体制御部77は、推定された無人移動体10の位置および向きに基づいて、無人移動体10が予め設定された移動経路を移動し、かつ無人移動体10のアーム14によって点検対象機器5が予め設定された手順で操作されるように指令情報を生成する。これにより、無人移動体10は、予め設定された移動経路を移動し、かつアーム14によって点検対象機器5を予め設定された手順で操作することができる。
次に、サーバ40の構成について具体的に説明する。図5は、実施の形態1にかかるサーバの構成例を示す図である。図5に示すように、サーバ40は、第1通信部41と、第2通信部42と、記憶部43と、処理部44とを備える。第1通信部41は、通信ネットワーク9に有線または無線で接続されており、現場装置6の端末装置30との間で情報の送受信を行う。第2通信部42は、通信ネットワーク9に有線または無線で接続されており、遠隔地装置7における仮想現実デバイス20または端末装置50との間で情報の送受信を行う。
記憶部43は、第1通信部41を介して処理部44によって取得された過去の現場情報および過去の検出情報を含む履歴情報と、処理部44によって生成された第1計算モデルの情報および第2計算モデルの情報を含む学習モデル情報を記憶する。また、履歴情報には、点検対象機器5の過去の点検履歴の情報も含まれる。
処理部44は、第1通信部41を介して取得した現場情報を、リアルタイムに第2通信部42から仮想現実デバイス20へ送信したり、記憶部43に記憶したりすることができる。また、処理部44は、第1通信部41を介して取得した状態情報をリアルタイムに第2通信部42から仮想現実デバイス20へ送信することができる。また、処理部44は、第2通信部42を介して仮想現実デバイス20または端末装置50から取得した指令情報をリアルタイムに第1通信部41から端末装置30へ送信することができる。
かかる処理部44は、取得部45と、送信部46と、画像生成部47と、第1学習部48と、第2学習部49とを備える。取得部45は、第1通信部41を介して端末装置30から現場情報および検出情報を取得し、取得した現場情報および検出情報を記憶部43に記憶される履歴情報に追加する。また、取得部45は、第2通信部42を介して仮想現実デバイス20または端末装置50から送信される指令情報を取得する。
送信部46は、取得部45によって取得された現場情報を仮想現実デバイス20へ第2通信部42を介して送信する。また、送信部46は、記憶部43に記憶された第1計算モデルの情報および第2計算モデルの情報を端末装置30へ第1通信部41を介して送信する。また、送信部46は、取得部45によって取得された指令情報を端末装置30へ第1通信部41を介して送信する。
画像生成部47は、仮想現実デバイス20または端末装置50からの要求があった場合に、履歴情報に含まれる点検対象機器5の過去の点検履歴の情報に基づいて、かかる点検履歴に応じた図形である点検図形の情報を生成する。点検履歴に応じた図形は、例えば、点検結果のグラフを表す図形、点検結果の年表を表す図形、点検結果が良好であったか否かを表す図形、交換した部品を示す図形、または修理をしたことを表す図形などである。送信部46は、画像生成部47によって生成された点検履歴に応じた図形の情報を要求元の装置である仮想現実デバイス20または端末装置50へ第2通信部42を介して送信する。
第1学習部48は、第1計算モデルの機械学習を行う。具体的には、第1学習部48は、点検現場2において各点検対象機器5が正常状態のときに端末装置30から送信される現場情報および検出情報を記憶部43から取得し、取得した現場情報を学習データとして機械学習によって第1計算モデルを生成することができる。
なお、第1学習部48は、点検対象機器5の異常毎に第1計算モデルを生成することができる。例えば、第1学習部48は、ひびがある場合とない場合とにおける現場情報および検出情報を特徴量とし、ひびの有無を教師データとする機械学習によってひびの第1計算モデルを生成することができる。また、第1学習部48は、漏れ水がある場合とない場合とにおける現場情報および検出情報を特徴量とし、漏れ水の有無を教師データとする機械学習によって変色の第1計算モデルを生成することができる。なお、点検対象機器5の異常は、ひびおよび漏れ水などに限定されない。例えば、点検対象機器5の異常は、破損または点検対象機器5の停止などであってもよい。
第2学習部49は、第2計算モデルの機械学習を行う。具体的には、第2学習部49は、点検現場2において各点検対象機器5が正常状態のときに端末装置30から送信される現場情報および検出情報を記憶部43から取得し、取得した現場情報および検出情報を学習データとして機械学習によって第2計算モデルを生成することができる。また、第2学習部49は、劣化がある場合とない場合とにおける現場情報および検出情報を特徴量とし、劣化の有無を教師データとする機械学習によって劣化を判定する第2計算モデルを生成することができる。
第1学習部48によって生成された第1計算モデルの情報および第2学習部49によって生成された第2計算モデルの情報は、送信部46によって第1通信部41から端末装置30へ送信される。第1学習部48は、第1計算モデルの生成または更新を予め設定された期間毎に行う。同様に、第2学習部49は、第2計算モデルの生成または更新を予め設定された期間毎に行う。送信部46は、第1学習部48によって第1計算モデルが生成または更新される毎に、生成または更新された第1計算モデルを端末装置30へ送信する。同様に、送信部46は、第2学習部49によって第2計算モデルが生成または更新される毎に、生成または更新された第2計算モデルを端末装置30へ送信する。
次に、仮想現実デバイス20の構成について具体的に説明する。図6は、実施の形態1にかかる仮想現実デバイスの構成例を示す図である。図6に示すように、仮想現実デバイス20は、通信部21と、表示部22と、スピーカ23と、ジャイロセンサ24と、入力部25と、処理部26とを備える。通信部21は、通信ネットワーク9に無線または有線で接続され、サーバ40との間で情報の送受信を行う。
表示部22は、例えば、上述した拡張現実ディスプレイである。スピーカ23は、例えば、ステレオスピーカである。ジャイロセンサ24は、例えば、6軸角加速度センサであり、XYZ方向の加速度と角速度を検出する。入力部25は、例えば、複数のボタンなどを有する入力部である。なお、入力部25は、点検員4を撮像し、撮像した結果から点検員4のジェスチャーに応じた入力操作を検出することができる。
処理部26は、向き判定部81と、表示処理部82と、音出力処理部83と、指令処理部84とを備える。向き判定部81は、ジャイロセンサ24によって検出された加速度および角速度に基づいて、点検員4の向きを判定する。向き判定部81は、仮想現実デバイス20が点検員4の頭部に装着されている場合、点検員4の顔の向きを判定することができる。
表示処理部82は、サーバ40から送信される現場情報に含まれる撮像画像を通信部21から取得し、取得した撮像画像の情報に基づいて、向き判定部81によって判定された点検員4の向きに応じた点検現場2の画像を表示部22により点検員4に視認可能に表示する。これにより、点検員4は、実際に点検現場2を訪れているような感覚で点検作業の状況を把握することができる。
図7は、実施の形態1にかかる仮想現実デバイスの表示部によって点検員に視認される画像の一例を示す図である。図7に示すように、仮想現実デバイス20の表示部22によって点検員4に視認される画像90には、点検対象機器5の3次元画像91と、音源の位置および音源の音の大きさを表す図形92と、臭いの種類および大きさを表す図形93とが含まれる。図形92は、音源の位置に配置され、音源の音の大きさに正比例して濃度が濃くなるタイル状の図形を1以上含む図形である。
画像90には、音源を示す図形92を表示させるための選択ボタン94aと、温度を示す不図示の図形を表示させるための選択ボタン94bとを含む。表示処理部82は、選択ボタン94aを点検員4が視認した場合に音源を示す図形92を表示し、選択ボタン94bを点検員4が視認した場合に温度を示す図形を表示することができる。なお、温度を示す図形は、例えば、温度が閾値以上の位置に配置され、温度の高さに正比例して濃度が濃くなるタイル状の図形を含む。表示処理部82は、選択ボタン94a,94bを点検員4が視認したかどうかを、例えば、不図示の視線センサによって検出された点検員4の視線位置に基づいて判定することができる。
図形93は、臭気の種類毎の図形93a,93b,93c,94dを含み、各図形93a,93b,93c,93dは臭気の大きさに正比例して大きくなる。図形93は、予め決められた位置に配置される。
なお、表示処理部82は、サーバ40から送信される状態情報を通信部21から取得し、取得した状態情報を点検現場2の画像に重畳して表示部22により点検員4に視認可能に表示することができる。これにより、点検員4は、各点検対象機器5の異常および劣化などを把握することができる。
また、点検員4は、入力部25への操作によって、点検対象機器5の点検履歴の情報を確認することができる。例えば、点検員4が入力部25へ特定の操作を行うと、点検履歴の情報の送信要求が通信部21からサーバ40へ送信される。表示処理部82は、かかる送信要求に応じてサーバ40から送信される図形の情報を表示部22によって点検員4に視認可能に表示させることができる。
図8は、実施の形態1にかかる仮想現実デバイスの表示部によって点検員に視認される画像の他の例を示す図である。図8に示すように、仮想現実デバイス20の表示部22によって点検員4に視認される画像94には、点検対象機器5の3次元画像95と、点検履歴に応じた図形96aと、点検履歴の情報97aとが含まれる。図形96aは、故障したことを示す図形である。点検履歴に応じた図形には、例えば、点検をした回数を示す図形、交換をした回数を示す図形、または交換者に応じた図形などである。なお、表示処理部82は、図形96aを点検員4が視認した場合に点検履歴の情報97aを表示することもできる。表示処理部82は、図形96aを点検員4が視認したかどうかを、例えば、不図示の視線センサによって検出された点検員4の視線位置に基づいて判定することができる。
また、画像94には、注意すべき箇所に配置される図形96bと、注意すべき内容を示す情報97bと、メモがあることを示す図形96cと、メモの内容を示す情報97cとが含まれる。表示処理部82は、図形96bを点検員4が視認した場合に注意すべき内容を示す情報97bを表示することもでき、図形96cを点検員4が視認した場合にメモの内容を示す情報97cを表示することもできる。表示処理部82は、図形96b,96cを点検員4が視認したかどうかを、例えば、不図示の視線センサによって検出された点検員4の視線位置に基づいて判定することができる。
図6に示す音出力処理部83はサーバ40から送信される現場情報に含まれる音の情報を通信部21から取得し、取得した音の情報および方向情報に基づいて、現場情報に含まれる音の情報に対応する音が方向情報で規定される方向から点検員4に聞こえるようにスピーカ23から音を出力させる。例えば、音出力処理部83は、点検員4の右耳と左耳とで聞こえる音を変えることで、点検員4に音の方向を把握させることができる。また、点検員4が向きを変更した場合に、変更前後で点検員4の右耳と左耳とで聞こえる音を変えることで、点検員4に音の方向をさらに精度よく把握させることができる。これにより、点検員4は、実際に点検現場2を訪れているような感覚で点検作業の状況を把握することができる。
指令処理部84は、入力部25への点検員4の操作に基づいて、無人移動体10を制御するための指令情報を通信部21へ送信することができる。かかる指令情報は、サーバ40および端末装置30によって中継され、無人移動体10によって受信される。無人移動体10の制御部16は、指令情報に基づいて外部制御モードで駆動機構11およびアーム14を制御する。かかる指令情報には、例えば、モードを切り替える切り替え指令の情報、無人移動体10を移動させるための移動指令の情報、およびアーム14を動作させるためのアーム動作指令の情報などが含まれる。これにより、例えば、点検員4が無人移動体10による自動点検手順を停止させ、点検対象機器5をさらに詳細に確認することができる。
なお、指令処理部84は、通信部21を介してサーバ40から取得した状態情報が予め設定された条件を満たす場合のみ、モードを切り替える切り替え指令の情報を送信することができる。すなわち、指令処理部84は、入力部25への点検員4の操作が切り替え指令のための操作である場合であっても、状態情報が予め設定された条件を満たさない場合、切り替え指令の情報を送信しないことができる。これにより、点検員4が意図せずに切り替え指令のための操作を行った場合でも、無人移動体10のモードが外部制御モードに切り替わることを防止することができる。なお、状態情報が予め設定された条件を満たす場合とは、例えば、点検対象機器5の異常が検出された場合、または点検対象機器5の劣化が検出された場合などである。
端末装置50は、端末装置30およびサーバ40から各種の情報を取得し、取得した情報を表示することができる。また、端末装置50は、指令情報をサーバ40および端末装置30を介して無人移動体10へ送信することもできる。図2に示す例では、遠隔地装置7は、通信ネットワーク9に接続される仮想現実デバイス20および端末装置50を有するが、仮想現実デバイス20は、端末装置50を介して通信ネットワーク9に接続されてもよい。この場合、仮想現実デバイス20は、端末装置50を介してサーバ40との間で情報の送受信を行うことができる。
つづいて、無人移動体10の動作を、フローチャートを用いて説明する。図9は、実施の形態1にかかる無人移動体の処理の一例を示すフローチャートである。
図9に示すように、無人移動体10の制御部16は、点検開始タイミングになったか否かを判定する(ステップS10)。制御部16は、点検開始タイミングになったと判定した場合(ステップS10:Yes)、点検処理を行う(ステップS11)。かかる点検処理は、制御部16が駆動機構11およびアーム14を制御することによって行われる。
また、無人移動体10の処理部17は、仮想現実カメラ12で得られる撮像画像の情報とマイク13で得られる音の情報とを取得し(ステップS12)、取得した撮像画像の情報と音の情報とを端末装置30へ送信する(ステップS13)。無人移動体10の制御部16は、点検処理が終了したか否かを判定する(ステップS14)。制御部16は、点検処理が終了していないと判定した場合(ステップS14:No)、処理をステップS11へ移行する。
制御部16は、点検開始タイミングになっていないと判定した場合(ステップS10:No)、または点検処理が終了したと判定した場合(ステップS14:Yes)、図9に示す処理を終了する。
つづいて、端末装置30の動作を、フローチャートを用いて説明する。図10は、実施の形態1にかかる現場装置における端末装置の処理の一例を示すフローチャートである。
図10に示すように、端末装置30の処理部34は、無人移動体10およびセンサ部63から情報を取得したか否かを判定する(ステップS20)。処理部34は、情報を取得したと判定した場合(ステップS20:Yes)、取得した音の情報に応じた図形を撮像画像に付加する(ステップS21)。そして、処理部34は、図形を付加した撮像画像の情報と音の情報とを含む現場情報および検出情報をサーバ40へ送信する(ステップS22)。
処理部34は、ステップS22の処理が終了した場合、または情報を取得していないと判定した場合(ステップS20:No)、無人移動体10が制御対象であるか否かを判定する(ステップS23)。処理部34は、例えば、無人移動体10に不測の事態が発生し、無人移動体10が設定されていない場所に移動してしまった場合に、無人移動体10が制御対象であると判定する。無人移動体10は、障害物などを避けるなどによって設定されていない場所に移動した場合、端末装置30へ制御を要求することができる。処理部34は、無人移動体10が制御対象であると判定した場合(ステップS23:Yes)、無人移動体10の撮像画像と3次元モデルを比較し、無人移動体10の移動を制御する(ステップS24)。
処理部34は、ステップS24の処理が終了した場合、または無人移動体10が制御対象ではないと判定した場合(ステップS23:No)、サーバ40から計算モデルを取得したか否かを判定する(ステップS25)。処理部34は、計算モデルを取得したと判定した場合(ステップS25:Yes)、計算モデルを更新する(ステップS26)。かかる計算モデルは上述した第1計算モデルおよび第2計算モデルである。
処理部34は、ステップS26の処理が終了した場合、または計算モデルを取得していないと判定した場合(ステップS25:No)、点検対象機器5の異常および劣化を判定する判定タイミングであるか否かを判定する(ステップS27)。処理部34は、判定タイミングであると判定した場合(ステップS27:Yes)、点検対象機器5の異常および劣化を判定する(ステップS28)。そして、処理部34は、点検対象機器5の異常の情報および劣化の情報を含む状態情報をサーバ40へ送信する(ステップS29)。処理部34は、ステップS29の処理が終了した場合、または判定タイミングではないと判定した場合(ステップS27:No)、図10に示す処理を終了する。なお、処理部34は、図10に示すステップS20〜S22の処理、ステップS23,S24の処理、ステップS25,S26の処理、およびステップS27〜S29の処理を並行して行うことができる。
つづいて、サーバ40の動作を、フローチャートを用いて説明する。図11は、実施の形態1にかかるサーバの処理の一例を示すフローチャートである。
図11に示すように、サーバ40の処理部44は、現場装置6から情報を取得したか否かを判定する(ステップS30)。処理部44は、現場装置6から情報を取得したと判定した場合(ステップS30:Yes)、取得した情報を遠隔地装置7へ転送し且つ記憶部43に記憶する(ステップS31)。
処理部44は、ステップS31の処理が終了した場合、または現場装置6から情報を取得していないと判定した場合(ステップS30:No)、遠隔地装置7から情報を取得したか否かを判定する(ステップS32)。処理部44は、遠隔地装置7から情報を取得したと判定した場合(ステップS32:Yes)、取得した情報を現場装置6へ転送する(ステップS33)。
処理部44は、ステップS33の処理を終了した場合、または遠隔地装置7から情報を取得していないと判定した場合(ステップS32:No)、計算モデル更新タイミングであるか否かを判定する(ステップS34)。処理部44は、計算モデル更新タイミングであると判定した場合(ステップS34:Yes)、記憶部43に記憶されている履歴情報に基づいて計算モデルを更新し、更新した計算モデルの情報を現場装置6へ送信する(ステップS35)。処理部44は、ステップS35の処理が終了した場合、または計算モデル更新タイミングではないと判定した場合(ステップS34:No)、図11に示す処理を終了する。なお、処理部44は、図11に示すステップS30,S31の処理、ステップS32,S33の処理、およびステップS34,S35の処理を並行して行うことができる。
つづいて、仮想現実デバイス20の動作を、フローチャートを用いて説明する。図12は、実施の形態1にかかる仮想現実デバイスの処理の一例を示すフローチャートである。
図12に示すように、仮想現実デバイス20の処理部26は、サーバ40から情報を取得したか否かを判定する(ステップS40)。処理部26は、情報を取得したと判定した場合(ステップS40:Yes)、撮像画像の情報および点検員4の向きに応じた画像を表示部22により点検員4に視認可能に表示し(ステップS41)、音の情報および音源方向に応じた音をスピーカ23から出力する(ステップS42)。
処理部26は、ステップS42の処理が終了した場合、または情報を取得していないと判定した場合(ステップS40:No)、指令操作があるか否かを判定する(ステップS43)。処理部26は、例えば、入力部25への操作として、切り替え指令のための操作、移動指令のための操作、またはアーム動作指令のための操作がある場合に、指令操作があると判定する。処理部26は、指令操作があると判定した場合(ステップS43:Yes)、指令操作に応じた指令情報をサーバ40へ送信する(ステップS44)。処理部26は、ステップS44の処理が終了した場合、または指令操作がないと判定した場合(ステップS43:No)、図12に示す処理を終了する。なお、処理部26は、図12に示すステップS40〜S42の処理、およびステップS43,S44の処理を並行して行うことができる。
図13は、実施の形態1にかかる仮想現実デバイスの処理部のハードウェア構成の一例を示す図である。図13に示すように、仮想現実デバイス20の処理部26は、プロセッサ101と、メモリ102と、入出力回路103とを備えるコンピュータを含む。
プロセッサ101、メモリ102、および入出力回路103は、例えば、バス104によって互いにデータの送受信が可能である。プロセッサ101は、メモリ102に記憶されたプログラムを読み出して実行することによって、向き判定部81、表示処理部82、音出力処理部83、および指令処理部84の機能を実行する。プロセッサ101は、例えば、処理回路の一例であり、CPU(Central Processing Unit)、DSP(Digital Signal Processer)、およびシステムLSI(Large Scale Integration)のうち一つ以上を含む。
メモリ102は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、およびEEPROM(登録商標)(Electrically Erasable Programmable Read Only Memory)のうち一つ以上を含む。また、メモリ102は、コンピュータが読み取り可能なプログラムが記録された記録媒体を含む。かかる記録媒体は、不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルメモリ、光ディスク、コンパクトディスク、およびDVD(Digital Versatile Disc)のうち一つ以上を含む。
また、無人移動体10の制御部16、無人移動体10の処理部17、端末装置30の処理部34、およびサーバ40の処理部44も、仮想現実デバイス20の処理部26と同様に、図13に示すハードウェア構成を有する。例えば、処理部34は、プロセッサ101がメモリ102に記憶されたプログラムを読み出して実行することによって、取得部71、音判定部72、図形付加部73、送信部74、状態判定部75、推定部76、および移動体制御部77の機能を実行する。また、処理部44は、プロセッサ101がメモリ102に記憶されたプログラムを読み出して実行することによって、取得部45、送信部46、画像生成部47、第1学習部48、および第2学習部49の機能を実行する。なお、処理部17,34,44および制御部16の各々は、ASIC(Application Specific Integrated Circuit)およびFPGA(Field Programmable Gate Array)などの集積回路を含んでいてもよい。
上述した例では、クラウド8にサーバ40を設け、現場装置6と遠隔地装置7との間の情報を中継するが、サーバ40を設けずに、現場装置6と遠隔地装置7との間で直接情報の送受信を行う構成であってもよい。また、端末装置30は、上述したサーバ40の機能を有する構成であってもよい。また、無人移動体10および端末装置30は一体化されていてもよい。
また、上述した例では、無人移動体10で得られる現場情報が端末装置30およびサーバ40を介してリアルタイムで仮想現実デバイス20へ送信されるが、かかる例に限定されない。例えば、サーバ40は、仮想現実デバイス20からの要求に応じた期間の現場情報を記憶部43から取得し、取得した現場情報を仮想現実デバイス20へ送信することもできる。同様に、端末装置30は、仮想現実デバイス20からの要求に応じた期間の現場情報を記憶部33から取得し、取得した現場情報を仮想現実デバイス20へ送信することもできる。
また、端末装置30は、点検現場2を訪れた点検員4からの要求に応じて、点検現場2における無人移動体10の過去の移動状態を無人移動体10に再現させることができる。この場合、端末装置30の記憶部33は、無人移動体10の過去の移動履歴の情報を記憶する。移動履歴の情報には、例えば、無人移動体10の過去の移動軌跡の情報が含まれる。処理部34は、記憶部33に記憶された移動履歴の情報に基づいて、無人移動体10の過去の移動軌跡に沿って無人移動体10を移動させる指令情報を無人移動体10へ第2通信部32を介して送信する。無人移動体10は、端末装置30からの指令情報に基づいて、過去の移動軌跡に沿って移動する。これにより、例えば、無人移動体10が空中ドローンのような場合に、空中ドローンがどのような高さおよび姿勢で点検現場2を移動しているかを把握することができる。そのため、空中ドローンによって得られる撮像画像および音などで点検対象機器5に異常または劣化が確認される場合において、点検員4は、点検対象機器5の異常または劣化が把握できるときの空中ドローンの高さおよび姿勢を確認することで、どのような位置および姿勢で点検対象機器5を見れば異常または劣化を確認できるかを把握することができる。なお、端末装置30は、点検対象機器5の異常または劣化が検出されたタイミングの前後の予め設定された期間における無人移動体10の過去の移動履歴のみを記憶部33に記憶することもできる。
また、遠隔地装置7には、仮想現実デバイス20が複数設けられていてもよい。この場合、複数の点検員4でそれぞれ異なる期間の現場情報などを仮想現実デバイス20で把握することができる。例えば、仮想現実デバイス20は、点検員4毎の点検レベルの情報を記憶しており、点検員4に応じた動作を行うことができる。例えば、仮想現実デバイス20は、点検レベルが低い点検員4に対しては、過去の移動情報をサーバ40から取得して再生し、点検レベルが高い点検員4に対しては、リアルタイムの移動情報をサーバ40から取得して再生することができる。
なお、仮想現実デバイス20の処理部26は、点検員4の向きの情報を含む点検員情報をサーバ40および端末装置30を介して無人移動体10へ送信することができる。無人移動体10の制御部16は、例えば、点検員4の向きに応じて無人移動体10の移動速度または移動方向を変更することができる。例えば、制御部16は、点検員4の向きが横向きである場合、点検員4の向きが前向きである場合に比べて、無人移動体10の移動速度を遅くすることができる。なお、前向きとは無人移動体10の移動方向と一致する方向である。また、制御部16は、点検員4の向きが後向きである場合、無人移動体10の移動方向を逆方向にすることができる。
以上のように、実施の形態1にかかる点検支援システム1は、点検現場2に配置される無人移動体10を含む現場装置6と、点検現場2から離れた遠隔地である監視場所3で点検員4に装着される仮想現実デバイス20を含む遠隔地装置7とを備える。無人移動体10は、点検現場2を移動するための駆動機構11と、点検現場2を撮像する仮想現実カメラ12と、点検現場2の音を収集するマイク13と、点検現場2に設置される点検対象機器5を操作可能なアーム14とを備える。また、無人移動体10は、駆動機構11を制御して無人移動体10を移動させると共に、アーム14を制御して点検対象機器5を操作する制御部16を備える。仮想現実デバイス20は、表示処理部82と、音出力処理部83とを備える。表示処理部82は、仮想現実カメラ12で得られる画像の情報に基づいて、点検員4の向きに応じた点検現場2の画像を表示部22により点検員4に視認可能に表示する。音出力処理部83は、マイク13で得られる音の情報に基づいて、点検現場2の音をスピーカ23から出力する。これにより、点検員4が実際に点検現場2を訪れて行う点検作業によって感じられる状況を適切に再現することができ、遠隔地における点検作業をより適切に行うことを支援することができる。
また、無人移動体10は、複数のマイク13〜13を有する。現場装置6は、無人移動体10に通信可能に接続された端末装置30を有する。端末装置30は、無人移動体10から画像の情報と音の情報とを取得する取得部71と、音の情報に基づいて、音源の方向である音源方向を判定する音判定部72とを備える。仮想現実デバイス20の音出力処理部83は、音源方向の情報と点検員4の向きに基づいて、スピーカ23から出力する音の方向を変更する。これにより、実際の現場での点検作業によって点検員4が感じられる状況をさらに適切に再現することができる。
また、音判定部72は、音の情報に基づいて、音源の位置および音の大きさのうち少なくとも一つを判定する。端末装置30は、音判定部72による判定結果に基づいて、音源の位置を表す図形および音の大きさを表す図形のうち少なくとも一つを表す図形を画像に付加する図形付加部73を備える。仮想現実デバイス20の表示処理部82は、図形が付加された画像を表示部22により点検員4に視認可能に表示する。これにより、点検員4は、表示部22により点検員4に視認可能に表示される図形によって点検現場2の音を視覚的に把握することができる。
また、現場装置6は、点検現場2の温度を検出する温度センサ、点検現場2の湿度を検出する湿度センサ、点検現場2の臭気を検出する臭気センサ、および点検対象機器5の温度を検出するサーモセンサのうち少なくとも一つのセンサを含むセンサ部63を備える。取得部71は、センサ部63からの検出情報を取得する。図形付加部73は、検出情報に応じた図形を画像に付加する。これにより、点検員4は、表示部22により点検員4に視認可能に表示される図形によって点検現場2の温度、湿度、または臭気などを把握することができる。
また、端末装置30は、記憶部33と、推定部76と、移動体制御部77とを備える。記憶部33は、点検現場2の3次元モデルの情報を記憶する。推定部76は、仮想現実カメラ12で取得された画像の情報と記憶部33に記憶された3次元モデルの情報とを比較し、無人移動体10の位置および向きを推定する。移動体制御部77は、推定部76によって推定された無人移動体10の位置および向きに基づいて、無人移動体10を制御する。これにより、例えば、無人移動体10に不測の事態が発生し、無人移動体10が設定されていない場所に移動してしまった場合であっても、無人移動体10を適切に移動させることができる。
また、端末装置30は、状態判定部75を備える。状態判定部75は、点検対象機器5の異常を判定する第1計算モデルと、点検対象機器5の劣化を判定する第2計算モデルとを有する。状態判定部75は、仮想現実カメラ12で取得された画像の情報とマイク13で取得された音の情報とを第1計算モデルおよび第2計算モデルへ入力して点検対象機器5の異常と劣化とを判定する。これにより、点検現場2の置かれた環境によって挙動が異なる点検対象機器5に対して適切に異常または劣化を判定することができる。
また、点検支援システム1は、現場装置6と遠隔地装置7とに通信可能に接続されるサーバ40を備える。サーバ40は、第1計算モデルの機械学習を行う第1学習部48と、第2計算モデルの機械学習を行う第2学習部49とを備える。送信部46は、第1学習部48によって第1計算モデルが更新された場合、更新された第1計算モデルを端末装置30へ送信し、第2学習部49によって第2計算モデルが更新された場合、更新された第2計算モデルを端末装置30へ送信する。端末装置30の状態判定部75は、サーバ40によって更新された第1計算モデルおよび第2計算モデルに基づいて、点検対象機器5の異常と劣化とを判定する。これにより、例えば、点検現場2の環境が変わった場合であっても、適切に点検対象機器5の異常または劣化を判定することができる。
また、サーバ40は、仮想現実カメラ12で取得された画像の情報とマイク13で取得された音の情報とを現場装置6から取得する取得部45と、取得部45で取得された画像の情報と音の情報とを遠隔地装置7へ送信する送信部46とを備える。これにより、現場装置6および遠隔地装置7は各々サーバ40と通信することで、仮想現実カメラ12で取得された画像の情報とマイク13で取得された音の情報とを遠隔地装置7で容易に取得することができる。
また、サーバ40は、点検対象機器5の過去の点検結果を示す点検履歴の情報を記憶する記憶部43と、遠隔地装置7からの要求があった場合に、点検履歴に応じた図形の情報を生成する画像生成部47とを備える。送信部46は、画像生成部47によって生成された点検履歴に応じた図形の情報を遠隔地装置7へ送信する。仮想現実デバイス20の表示処理部82は、点検履歴に応じた図形を含む画像を表示部22により点検員4に視認可能に表示する。これにより、点検員4は、参考情報として過去のデータを参照できるようになり、点検員4が点検対象機器5の状態をより適切に判断することを支援することができる。
以上の実施の形態に示した構成は、本発明の内容の一例を示すものであり、別の公知の技術と組み合わせることも可能であるし、本発明の要旨を逸脱しない範囲で、構成の一部を省略、変更することも可能である。
1 点検支援システム、2 点検現場、3 監視場所、4 点検員、5,5〜5 点検対象機器、6 現場装置、7 遠隔地装置、8 クラウド、9,9,9 通信ネットワーク、10 無人移動体、11 駆動機構、12 仮想現実カメラ、13,13〜13 マイク、14 アーム、15,31,41 第1通信部、16 制御部、17,26,34,44 処理部、18,32,42 第2通信部、20 仮想現実デバイス、21 通信部、22 表示部、23 スピーカ、24 ジャイロセンサ、25 入力部、30,50 端末装置、33,43 記憶部、40 サーバ、45,71 取得部、46,74 送信部、47 画像生成部、48 第1学習部、49 第2学習部、61 ゲートウェイ装置、62 充電ステーション、63 センサ部、72 音判定部、73 図形付加部、75 状態判定部、76 推定部、77 移動体制御部、81 向き判定部、82 表示処理部、83 音出力処理部、84 指令処理部、90,94 画像、91,95 3次元画像、92,93,93a,93b,93c,93d,96a,96b,96c 図形、94a,94b 選択ボタン、97a,97b,97c 情報。

Claims (10)

  1. 点検現場に配置される無人移動体を含む現場装置と、前記点検現場から離れた遠隔地で点検員に装着される仮想現実デバイスを含む遠隔地装置と、を備え、
    前記無人移動体は、
    前記点検現場を移動するための駆動機構と、
    前記点検現場を撮像する仮想現実カメラと、
    前記点検現場の音を収集するマイクと、
    前記点検現場に設置される点検対象機器を操作可能なアームと、
    前記駆動機構を制御して前記無人移動体を移動させると共に、前記アームを制御して前記点検対象機器を操作する制御部と、を備え、
    前記仮想現実デバイスは、
    前記仮想現実カメラで得られる画像の情報に基づいて、前記点検員の向きに応じた前記点検現場の画像を表示部により前記点検員に視認可能に表示する表示処理部と、
    前記マイクで得られる前記音の情報に基づいて、前記点検現場の音をスピーカから出力する音出力処理部と、を備える
    ことを特徴とする点検支援システム。
  2. 前記無人移動体は、
    複数の前記マイクを有し、
    前記現場装置は、
    前記無人移動体に通信可能に接続された端末装置を有し、
    前記端末装置は、
    前記無人移動体から前記画像の情報と前記音の情報とを取得する取得部と、
    前記音の情報に基づいて、音源の方向である音源方向を判定する音判定部と、を備え、
    前記仮想現実デバイスの前記音出力処理部は、
    前記音源方向の情報と前記点検員の向きに基づいて、前記スピーカから出力する音の方向を変更する
    ことを特徴とする請求項1に記載の点検支援システム。
  3. 前記音判定部は、
    前記音の情報に基づいて、前記音源の位置および前記音の大きさのうち少なくとも一つを判定し、
    前記端末装置は、
    前記音判定部による判定結果に基づいて、前記音源の位置を表す図形および前記音の大きさを表す図形のうち少なくとも一つを表す図形を前記画像に付加する図形付加部を備え、
    前記仮想現実デバイスの前記表示処理部は、
    前記図形が付加された前記画像を前記表示部により前記点検員に視認可能に表示する
    ことを特徴とする請求項2に記載の点検支援システム。
  4. 前記現場装置は、
    前記点検現場の温度を検出する温度センサ、前記点検現場の湿度を検出する湿度センサ、前記点検現場の臭気を検出する臭気センサ、および前記点検対象機器の温度を検出するサーモセンサのうち少なくとも一つのセンサを備え、
    前記取得部は、
    前記少なくとも一つのセンサからの検出情報を取得し、
    前記図形付加部は、
    前記検出情報に応じた図形を前記画像に付加する
    ことを特徴とする請求項3に記載の点検支援システム。
  5. 前記端末装置は、
    前記点検現場の3次元モデルの情報を記憶する記憶部と、
    前記仮想現実カメラで取得された画像の情報と前記3次元モデルの情報とを比較し、前記無人移動体の位置および向きを推定する推定部と、
    前記推定部によって推定された前記無人移動体の位置および向きに基づいて、前記無人移動体を制御する移動体制御部と、を備える
    ことを特徴とする請求項2から4のいずれか一つに記載の点検支援システム。
  6. 前記端末装置は、
    前記点検対象機器の異常を判定する第1計算モデルと、前記点検対象機器の劣化を判定する第2計算モデルとを有する状態判定部を備え、
    前記状態判定部は、
    前記仮想現実カメラで取得された画像の情報と前記マイクで取得された音の情報とを前記第1計算モデルおよび前記第2計算モデルに入力して前記異常と前記劣化とを判定する
    ことを特徴とする請求項2から5のいずれか一つに記載の点検支援システム。
  7. 前記現場装置と前記遠隔地装置とに通信可能に接続されるサーバを備え、
    前記サーバは、
    前記第1計算モデルの機械学習を行う第1学習部と、
    前記第2計算モデルの機械学習を行う第2学習部と、
    前記第1学習部によって前記第1計算モデルが更新された場合、更新された前記第1計算モデルを前記端末装置へ送信し、前記第2学習部によって前記第2計算モデルが更新された場合、更新された前記第2計算モデルを前記端末装置へ送信する送信部と、を備え、
    前記端末装置の状態判定部は、
    前記サーバによって更新された前記第1計算モデルおよび前記第2計算モデルに基づいて、前記異常と前記劣化とを判定する
    ことを特徴とする請求項6に記載の点検支援システム。
  8. 前記現場装置と前記遠隔地装置とに通信可能に接続されるサーバを備え、
    前記サーバは、
    前記仮想現実カメラで取得された画像の情報と前記マイクで取得された音の情報とを前記現場装置から取得する取得部と、
    前記取得部で取得された前記画像の情報と前記音の情報とを前記遠隔地装置へ送信する送信部と、を備える
    ことを特徴とする請求項1から6のいずれか一つに記載の点検支援システム。
  9. 前記サーバは、
    前記点検対象機器の過去の点検結果を示す点検履歴の情報を記憶する記憶部と、
    前記遠隔地装置からの要求があった場合に、前記点検履歴に応じた図形の情報を生成する画像生成部と、を備え、
    前記送信部は、
    前記画像生成部によって生成された前記点検履歴に応じた図形の情報を前記遠隔地装置へ送信し、
    前記仮想現実デバイスの前記表示処理部は、
    前記点検履歴に応じた図形を含む画像を前記表示部により前記点検員に視認可能に表示する
    ことを特徴とする請求項7または8に記載の点検支援システム。
  10. 点検現場に配置され且つ仮想現実カメラおよびマイクを有する無人移動体が、前記点検現場の移動および点検対象機器の操作を行いながら、前記仮想現実カメラによって前記点検現場を撮像し且つ前記マイクによって前記点検現場の音を収集するステップと、
    前記点検現場から離れた遠隔地で点検員に装着される仮想現実デバイスが、前記仮想現実カメラで得られる画像の情報と、前記マイクで得られる前記音の情報とを取得するステップと、
    前記仮想現実デバイスが、前記仮想現実カメラで得られる画像の情報に基づいて、前記点検員の向きに応じた前記点検現場の画像を表示部により前記点検員に視認可能に表示するステップと、
    前記仮想現実デバイスが、前記マイクで得られる前記音の情報に基づいて、前記点検現場の音をスピーカから出力するステップと、を含む
    ことを特徴とする点検支援方法。
JP2019046232A 2019-03-13 2019-03-13 点検支援システムおよび点検支援方法 Active JP7246211B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019046232A JP7246211B2 (ja) 2019-03-13 2019-03-13 点検支援システムおよび点検支援方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019046232A JP7246211B2 (ja) 2019-03-13 2019-03-13 点検支援システムおよび点検支援方法

Publications (2)

Publication Number Publication Date
JP2020149349A true JP2020149349A (ja) 2020-09-17
JP7246211B2 JP7246211B2 (ja) 2023-03-27

Family

ID=72430603

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019046232A Active JP7246211B2 (ja) 2019-03-13 2019-03-13 点検支援システムおよび点検支援方法

Country Status (1)

Country Link
JP (1) JP7246211B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04354275A (ja) * 1991-05-30 1992-12-08 Meitec Corp ヘッドモ−ション追従型映像システム
JP2001315080A (ja) * 2000-05-10 2001-11-13 Nippon Telegr & Teleph Corp <Ntt> 遠隔地観測装置
JP2010066934A (ja) * 2008-09-10 2010-03-25 Nippon Yusoki Co Ltd 3次元モデルを用いた自己位置認識手法及び自己位置認識システム
JP2016192000A (ja) * 2015-03-31 2016-11-10 横河電機株式会社 業務支援装置及び業務支援方法
WO2017196821A1 (en) * 2016-05-09 2017-11-16 Strong Force Iot Portfolio 2016, Llc Methods and systems for the industrial internet of things

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04354275A (ja) * 1991-05-30 1992-12-08 Meitec Corp ヘッドモ−ション追従型映像システム
JP2001315080A (ja) * 2000-05-10 2001-11-13 Nippon Telegr & Teleph Corp <Ntt> 遠隔地観測装置
JP2010066934A (ja) * 2008-09-10 2010-03-25 Nippon Yusoki Co Ltd 3次元モデルを用いた自己位置認識手法及び自己位置認識システム
JP2016192000A (ja) * 2015-03-31 2016-11-10 横河電機株式会社 業務支援装置及び業務支援方法
WO2017196821A1 (en) * 2016-05-09 2017-11-16 Strong Force Iot Portfolio 2016, Llc Methods and systems for the industrial internet of things

Also Published As

Publication number Publication date
JP7246211B2 (ja) 2023-03-27

Similar Documents

Publication Publication Date Title
US20230215294A1 (en) Weld Training Systems to Synchronize Weld Data for Presentation
CN108628286A (zh) 机台维修系统与方法
US10712391B2 (en) Localization, mapping and haptic feedback for inspection of a confined space in machinery
CN105666505A (zh) 具备扩展现实对应显示器的机器人系统
JP5038234B2 (ja) サーバーコンピュータの温度監視方法、及びその装置
JP6677198B2 (ja) ロボットの故障診断支援システム及び故障診断支援方法
CN108627349B (zh) 用于识别机动车的特殊运行状态的方法和移动设备
CN114093052A (zh) 适用于机房管理的智能巡检方法及系统
KR20190088824A (ko) 로봇 청소기 및 그 제어 방법
CN100521736C (zh) 摄像机装置、摄像机系统及控制摄像机系统的方法
JPWO2020021589A1 (ja) 情報処理装置、情報処理システム、方法、及びプログラム
US20210272269A1 (en) Control device, control method, and program
JP7246211B2 (ja) 点検支援システムおよび点検支援方法
JP2023179623A (ja) 移動体、巡回点検システム及び巡回点検方法
TWI721523B (zh) 訓練處理裝置、中介裝置、訓練系統以及訓練處理方法
TW202017626A (zh) 資訊處理裝置、中介裝置、模擬系統以及資訊處理方法
KR102487554B1 (ko) 자율형 이동체와 다자유도 머니퓰레이터를 활용한 공동구 내부 손상 탐지 시스템, 방법 및 상기 방법을 실행시키기 위한 컴퓨터 판독 가능한 프로그램을 기록한 기록 매체
US20230185267A1 (en) Malfunction analysis support program storage medium and malfunction analysis support apparatus
KR20220100865A (ko) 제어 방법, 제어 장치, 로봇 시스템, 프로그램 및 기록 매체
JP2019085059A (ja) 走行状態再現システム
CN113840008A (zh) 采煤机沉浸式远程操控装置、采煤机远程操控系统和方法
JP2006000999A (ja) 監視システム、その方法、監視ロボットおよびプログラム
JP7317271B2 (ja) 遠隔支援装置および遠隔支援方法
JP2006173999A (ja) カメラ装置および遠隔装置
US20240074823A1 (en) Robotic bronchoscopy navigation method and system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220920

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230314

R150 Certificate of patent or registration of utility model

Ref document number: 7246211

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150