JP7337654B2 - 保全活動サポートシステムおよび保全活動サポート方法 - Google Patents

保全活動サポートシステムおよび保全活動サポート方法 Download PDF

Info

Publication number
JP7337654B2
JP7337654B2 JP2019192706A JP2019192706A JP7337654B2 JP 7337654 B2 JP7337654 B2 JP 7337654B2 JP 2019192706 A JP2019192706 A JP 2019192706A JP 2019192706 A JP2019192706 A JP 2019192706A JP 7337654 B2 JP7337654 B2 JP 7337654B2
Authority
JP
Japan
Prior art keywords
information
target portion
terminal
image
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019192706A
Other languages
English (en)
Other versions
JP2020080147A (ja
Inventor
朋美 菱沼
健司 尾崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Energy Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Energy Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Energy Systems and Solutions Corp filed Critical Toshiba Corp
Priority to US16/671,325 priority Critical patent/US11481999B2/en
Priority to MYPI2019006576A priority patent/MY201621A/en
Publication of JP2020080147A publication Critical patent/JP2020080147A/ja
Application granted granted Critical
Publication of JP7337654B2 publication Critical patent/JP7337654B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

特許法第30条第2項適用 令和30年7月10日に日本保全学会第15回学術講演会で発表
本発明の実施形態は、保全活動サポートシステムおよび保全活動サポート方法に関する。
従来の保全活動では、作業者が点検対象を目視で確認し、現場で点検結果を手書きで記録シートに記載し、さらに作業者が事務所に戻ってきた後に、記録をパソコンで入力するようにしている。このような従来の方法では、作業者の負荷が高く入力ミスなどのヒューマンエラーが発生する懸念がある。そこで、負荷を下げる対策として、RFID(Radio Frequency Identification)タグを用いる技術が知られている。この技術では、点検対象となる複数の機器にそれぞれ取り付けられたRFIDタグと、RFIDタグとの間でデータを非接触方式で送受信可能な携帯情報端末と、携帯情報端末の点検データを蓄積可能な管理用PCとを備える装置を用いて巡視点検を行うようにしている。なお、点検者は、目視で読み取った機器の点検値を携帯情報端末に書き込む際に、その機器の特定情報と照合して最新の点検値をRFIDタグにも書き込むようにしている。
特開2010-61262号公報
前述の技術を機器の点検または保守などの保全活動に用いたいという要望がある。しかしながら、前述の技術では、RFIDタグを用いることによって、点検対象と点検値を書き込む記入欄との対応関係の誤りを防止できるものの、点検すべき点検対象とは異なる機器を点検してしまう可能性、点検値の読み間違い、または記入値の書き間違いなどのヒューマンエラーを起こす可能性がある。さらに、検出器にタグを接触させる必要があり、点検対象の認識に時間がかかってしまうという課題がある。
本発明の実施形態は、このような事情を考慮してなされたもので、ヒューマンエラーを低減させるとともに作業の効率化を図れる保全活動サポート技術を提供することを目的とする。
本発明の実施形態に係る保全活動サポートシステムは、保全活動をサポートするサポート情報と前記保全活動のエリアに関する位置情報とが登録されたデータベースと、前記保全活動を行う作業者が所持する端末に搭載されたカメラにより撮影された撮影画像を取得する撮影画像取得部と、前記撮影画像に写る前記保全活動の対象となる対象部分に対応する前記位置情報を前記データベースから取得する対象位置取得部と、前記端末に搭載されたデバイスであり、加速度センサおよび角速度センサを含み、さらに深度センサまたは前記カメラの少なくとも一方を含む前記デバイスにより得られた情報に基づいて前記端末の位置および姿勢を推定するとともに前記端末の周辺環境に関する物体の3次元形状情報を含む環境地図の作成を行う位置姿勢推定部と、前記端末の位置および姿勢と前記対象部分に対応する前記位置情報と前記環境地図とに基づいて、前記撮影画像に写る前記保全活動の対象となる前記対象部分を認識する対象認識部と、前記作業者が視認する前記対象部分の像の少なくとも一部に前記データベースから取得した前記対象部分に対応する前記サポート情報を重ねて表示する重畳表示部と、前記作業者が前記保全活動のエリアで撮影を行うことを制限する写真記録限定部と、を備え、前記写真記録限定部は、前記カメラにより撮影された前記撮影画像を取得したときに、前記撮影画像に写る前記対象部分が、前記サポート情報に関連しているか否かを判定し、前記撮影画像に写る前記対象部分が、前記サポート情報に関連している場合に、写真撮影ボタンを前記端末に表示し、前記作業者により前記写真撮影ボタンが操作されたときに前記撮影画像を記憶し、前記撮影画像に写る前記対象部分が、前記サポート情報に関連していない場合に、前記写真撮影ボタンを前記端末に表示しない、処理を実行するように構成されている
本発明の実施形態により、ヒューマンエラーを低減させるとともに作業の効率化を図れる保全活動サポート技術が提供される。
第1実施形態の保全活動サポートシステムを示すシステム構成図。 保全活動サポートシステムを示すブロック図。 保全活動サポートシステムが用いられる作業現場を示す平面図。 (A)は基準位置管理テーブル、(B)は対象機器管理テーブルを示す説明図。 携帯端末に表示されるナビゲーション画面を示す画像図。 携帯端末に表示される計器読取支援画面を示す画像図。 携帯端末に表示されるアイソレーション支援画面を示す画像図。 携帯端末に表示されるバルブラインナップ支援画面を示す画像図。 携帯端末に表示されるセンサ取り付け支援画面を示す画像図。 携帯端末に表示される保全対象確認支援画面を示す画像図。 携帯端末に表示されるARタグ貼付画面を示す画像図。 携帯端末に表示される報告書自動生成画面を示す画像図。 管理コンピュータが実行する事前情報登録処理を示すフローチャート。 携帯端末が実行する端末制御処理を示すフローチャート。 携帯端末が実行するデータベースアクセス処理を示すフローチャート。 携帯端末が実行するマーカ認識処理を示すフローチャート。 携帯端末が実行する自己位置推定処理を示すフローチャート。 携帯端末が実行する対象認識処理を示すフローチャート。 携帯端末が実行する保全サポート処理を示すフローチャート。 第2実施形態の保全活動サポートシステムを示すブロック図。 携帯端末が実行する自己位置推定処理を示すフローチャート。 管理コンピュータが実行する端末位置推定処理を示すフローチャート。
(第1実施形態)
以下、図面を参照しながら、保全活動サポートシステムおよび保全活動サポート方法の実施形態について詳細に説明する。まず、第1実施形態の保全活動サポートシステムおよび保全活動サポート方法について図1から図19を用いて説明する。図1の符号1は、本実施形態の保全活動サポートシステムである。
従来、原子力発電所、火力発電所、化学プラント、または工場では、安定的な運転のため定期的な点検または保守が行われる。点検または保守の作業では、作業の効率化、情報管理の強化、ヒューマンエラーの低減による工事の品質向上が必要とされる。従来の点検作業では、作業者が点検対象を目視で確認し、現場で点検結果を手書きで記録シートに記載している。さらに、作業者が事務所に戻ってきた後に、記録をパソコンで入力する作業をしている。このような従来の方法では、記録シートへの記載ミスまたはパソコンへの入力ミスなどのヒューマンエラーが発生してしまう。さらに、作業現場と事務所で二重に入力作業が発生してしまうため作業者の負荷が高い。また、どのような作業をしていたか、報告書の記載を見るしかない。また、技術若年者による見落とし、操作ミスなどの技量による作業のばらつきが発生してしまう可能性がある。さらに、検出器にタグを接触させる必要があり、点検対象の認識に時間がかかってしまう。本実施形態の保全活動サポートシステム1は、このような課題を解決することができる。
本実施形態の保全活動サポートシステム1では、点検に伴うヒューマンエラーを低減させるために、点検対象を自動認識し、端末画面上に点検に必要な情報を現場の映像に重畳表示させる。また、この重畳表示は、位置情報またはマーカ情報をキーとしてシステム側(データベース)と相互連携をすることにより実現される。また、データベースから端末への表示内容の制御、または、効率的なデータ収集を支援し、記録をデータベース側に登録して情報を一元管理する。
図1に示すように、本実施形態の保全活動サポートシステム1は、作業現場にて保全活動を行う作業者Wが所持する携帯端末2と、作業を管理する管理者Mが扱う管理コンピュータ3とを備える。
本実施形態の携帯端末2は、スマートフォン2Aで構成される。また、携帯端末2は、作業者Wに装着されて光学透過が可能な透過型ヘッドマウントディスプレイ4を備えるウェアラブルコンピュータ2B(スマートグラス)で構成されても良い。なお、携帯端末2は、タブレット型PCまたはノートPCで構成されても良い。その他、撮影機能、通話機能、通信機能を持つ機器で構成されるものであり、それぞれの機能を持つ複数の機器で構成されるものでも良い。以下の説明では、スマートフォン2Aで構成される携帯端末2を例示する。
管理コンピュータ3は、管理者Mが扱うコンピュータ本体5と、管理者Mが視認を行うディスプレイ6と、携帯端末2と無線通信を行う無線通信装置7を備える。なお、本実施形態の管理コンピュータ3は、例えば、デスクトップPCでも良いし、ノートPCでも良い。
保全活動サポートシステム1は、原子力発電所、火力発電所、化学プラント、または工場などの作業現場において、作業者Wの保全活動をサポートするシステムである。作業現場には、点検または検査などの保全活動の対象となる対象部分としての多数の対象機器8(図3参照)が配置されている。
作業者Wは、保全活動を行う際に携帯端末2を用いる。この携帯端末2を介して対象機器8(図3参照)に関するサポート情報を得ることができる。本実施形態では、現実の世界の物事に対して仮想の情報を付加するAR(Augmented Reality:拡張現実)技術を用いてサポート情報を作業者Wに提供する。なお、MR(Mixed Reality:複合現実)技術を用いても良い。
サポート情報を提供するときには、携帯端末2で撮影した画像を表示しながら、サポート情報を含むAR画像表示を行う。なお、AR画像表示とは、例えば、対象機器8の点検個所を指定するサポート画像9(図7および図8参照)、対象機器8の点検状態を示すサポート画像9(図9および図10参照)の表示を示す。つまり、携帯端末2で撮影した対象機器8の画像にサポート画像9を重ねて表示する。
AR技術とは、現実環境が映された画像における所定の物体の位置などに対応して、3Dモデル、テキストなどの所定のコンテンツ(サポート情報)を表示させる技術である。このAR技術において、端末が備えるカメラにより撮影された画像に基づいてコンテンツの提供を行うものはビジョンベースAR(画像認識型AR)と呼ばれる。また、加速度センサ、角速度センサ、GNSS(Global Navigation Satellite System)などの端末の位置情報および姿勢情報に基づいてコンテンツの提供を行うものはロケーションARと呼ばれる。
なお、携帯端末2の自位置および自姿勢の変位の算出に用いる位置推定技術には、SLAM(Simultaneous Localization and Mapping)技術、またはSfM(Structure from Motion)技術などの公知の技術を用いることができる。特に、本実施形態では、VSLAM(Visual SLAM)技術を用いて、携帯端末2で撮影された画像に基づいて、その位置および姿勢の変位を算出する。
本実施形態の保全活動サポートシステム1は、AR技術(拡張現実技術)およびVSLAM技術(位置推定技術)を活用して、作業現場での点検または記録などの保全活動の効率化(負荷軽減)と、ヒューマンエラーの発生を機械化により低減させる。
図3に示すように、作業者Wが保全活動を行う作業現場(エリア)として所定の建物10を例示する。例えば、原子力プラントにおける所定の区画に設けられた建物10が作業現場となっている。この作業現場は、壁11で囲まれた複数の部屋12がある。それぞれの部屋12に保全活動の対象となる対象部分としての対象機器8が配置される。これらの対象機器8は、計器でも良いし、操作スイッチでも良いし、バルブでも良いし、配管でも良いし、装置でも良いし、センサでも良い。
なお、本実施形態では、対象部分として対象機器8を例示しているが、対象部分は建物10の所定の部分、例えば、窓、扉、壁、天井、床、通路、壁の開口部、室内空間の一部の範囲であっても良い。また、巨大な1つの装置の一部が対象部分であっても良い。さらに、1つの装置の複数箇所が対象部分であっても良い。
建物10の出入口13は、携帯端末2の位置を推定する基準となる基準位置として設定される。この建物10の出入口13には、基準マーカ15が配置される。また、それぞれの部屋12の出入口14も、携帯端末2の位置を推定する基準となる基準位置として設定される。これらの部屋12の出入口14にも、基準マーカ15が配置される。なお、基準マーカ15は、出入口13,14の近傍の壁面に設けられても良いし、出入口13,14の扉面に設けられても良い。
作業者Wは、保全活動を開始するときに、まず、建物10の出入口13で基準マーカ15を撮影する。ここで、携帯端末2は、基準マーカ15が写った撮影画像に基づいて、自位置および自姿勢を推定する。なお、建物10の出入口13で基準マーカ15の撮影を開始し、移動中も撮影を継続することで、基準位置から携帯端末2が移動した移動経路17を推定できる。
また、それぞれの部屋12に配置された対象機器8またはその近接位置には、対象マーカ16が配置される。なお、対象機器8の近接位置とは、携帯端末2により対象機器8を撮影したときに対象機器8と同時に写る範囲内にある位置のことを示す。この対象マーカ16は、ARマーカとして機能する。つまり、サポート画像9は、対象マーカ16と相対位置関係に基づいて指定された座標に表示される。
なお、マーカ15,16は、画像認識が可能な図形である。例えば、マトリックス型二次元コード、所謂QRコード(登録商標)をマーカ15,16として用いる。また、マーカ15,16には、対応するマーカ15,16を個々に識別可能なマーカIDを示す情報が含まれる。このようにすれば、複数のマーカ15,16をそれぞれ識別することができる。管理コンピュータ3の管理データベース20には、それぞれのマーカIDに対応して対象機器8に関する情報が登録される。
マーカ15,16を設ける態様としては、例えば、マーカ15,16が印刷されたパネルを作成し、このパネルを、作業開始前に作業現場の壁面または対象機器8の近傍に配置しておく。なお、壁面または対象機器8にマーカ15,16を直接印刷しても良い。
本実施形態の携帯端末2は、対象マーカ16に基づいて対象機器8を認識することができる。また、携帯端末2は、作業前に予め撮影された対象機器8の外観を写した外観画像に基づいて対象機器8を認識することができる。さらに、作業前に予め取得された対象機器8の3次元形状情報に基づいて対象機器8を認識することができる。なお、対象機器8の外観画像および3次元形状情報は、管理データベース20に予め登録されている。
なお、携帯端末2は、外観画像に基づく対象機器8の認識結果よりも、3次元形状情報に基づく対象機器8の認識結果を優先する制御を行う。また、3次元形状情報に基づく対象機器8の認識結果よりも、対象マーカ16に基づく対象機器8の認識結果を優先する制御を行う。
次に、保全活動サポートシステム1のシステム構成を図2に示すブロック図を参照して説明する。
管理コンピュータ3は、管理通信部18と管理制御部19と管理データベース20とを備える。この管理コンピュータ3は、作業現場から離れた遠隔地にある管理センタに設けられても良いし、作業現場の近傍に設けられても良い。
管理通信部18は、通信回線を介して携帯端末2と通信を行う。この管理通信部18は、無線通信装置7に搭載されている。また、管理通信部18は、所定のネットワーク機器、例えば、無線LANアクセスポイントまたはアンテナに搭載されても良い。なお、管理通信部18は、WAN(Wide Area Network)、インターネット回線、または携帯通信網を介して携帯端末2と通信を行っても良い。その他にも、LANケーブルまたはUSBケーブルにより携帯端末2と接続して通信を行っても良い。
管理制御部19は、管理コンピュータ3を統括して制御する。管理制御部19において、メモリまたはHDDに記憶されたプログラムがCPUによって実行されることで所定の機能が実現される。
管理データベース20は、サポート情報および対象機器8の点検情報などの保全活動に必要な情報が登録される。例えば、対象機器8の点検に必要なサポート情報および対象機器8の状態を示す状態情報が登録される。この状態情報には、点検計画または前回の点検記録の情報が含まれても良いし、最新の状態を示す時刻情報が含まれても良いし、点検履歴が含まれても良い。
また、管理データベース20には、保全活動のエリアに関する位置情報が登録されている。例えば、基準位置の位置情報および対象機器8の位置情報が登録される。この管理データベース20は、管理コンピュータ3のHDDなどの記憶部に設けられる。
本実施形態の保全活動サポートシステム1では、作業現場に設置されたマーカ15,16と管理データベース20とを連携させることで、様々な保全活動のサポートが行える。
例えば、管理データベース20には、建物10または対象機器8の3次元CADデータ、配管結線図、機器配置図、機器情報、点検履歴、点検に必要な所定の映像をなどのサポート情報が登録される。
また、作業現場において携帯端末2と管理コンピュータ3とがオンライン接続できる場合は、携帯端末2と管理データベース20とをリアルタイムで連携させることができる。一方、作業現場において携帯端末2と管理コンピュータ3とがオンライン接続できない場合は、予めオンライン接続される環境にて管理コンピュータ3から各種データを携帯端末2にダウンロードしておく。そして、オフライン状態で携帯端末2を使用する。作業現場でデータを収集した後、再びオンライン接続される環境になったら、携帯端末2から管理データベース20にデータをアップロードする。
携帯端末2は、デバイスとしてのステレオカメラ21と加速度センサ22と角速度センサ23と3次元測定センサ24とディスプレイ25と操作入力部26と記憶部27と計時部28と端末通信部29と端末制御部30とを備える。
ステレオカメラ21は、このステレオカメラ21は、携帯端末2に搭載され、携帯端末2の周辺の物体を可視光により撮影する。このステレオカメラ21は、筐体の背面側に設けられるレンズ付きの2つの画像素子を備えている。ステレオカメラ21は、物体を複数の異なる方向から同時に撮影することにより、その物体までの奥行き方向の情報が取得可能となっている。
また、ステレオカメラ21のそれぞれの画像素子により取得される画像は2次元画像であるが、これら2つの2次元画像に写る像の差異に基づいて、立体的な空間把握が可能な立体写真の生成が可能になっている。なお、ステレオカメラ21で撮影された撮影画像は、端末制御部30に入力される。
加速度センサ22は、携帯端末2に搭載され、この携帯端末2が移動したときに生じる加速度を検出する。また、この加速度センサ22により重力加速度の検出も行える。なお、この加速度センサ22で検出された加速度の値を示す加速度情報は、端末制御部30に入力される。
角速度センサ23(ジャイロセンサ)は、携帯端末2に搭載され、この携帯端末2の筐体の姿勢が変化したときに生じる角速度を検出する。この携帯端末2の筐体の姿勢によりステレオカメラ21の撮影方向を把握することができる。なお、この角速度センサ23で検出された角速度の値を示す角速度情報は、端末制御部30に入力される。
なお、慣性センサ(3軸加速度センサと3軸角速度センサ)と3軸地磁気センサを組み合わせた9軸センサであるモーションセンサを携帯端末2に搭載しても良い。
3次元測定センサ24は、携帯端末2の周辺の物体の3次元形状を測定する。3次元測定センサ24としては、例えば、深度センサが用いられる。なお、3次元測定センサ24として赤外線センサまたはLiDARなどのレーザセンサを用いても良い。
3次元測定センサ24は、携帯端末2の筐体の背面側に設けられる。この3次元測定センサ24は、例えば、物体にレーザを投光してその反射光を受光素子により受光することで、携帯端末2から物体までの距離を測定することができる。本実施形態では、3次元測定センサ24は、投光パルスに対する受光パルスの遅れ時間を距離に換算するToF(Time of Flight)方式を用いて、携帯端末2から周辺の物体までの距離を測定して3次元点群化する。なお、ステレオカメラ21による撮像方向と3次元測定センサ24による測定方向は一致している。
ディスプレイ25は、ステレオカメラ21で撮影された撮影画像を表示する。なお、レンズ付きの2つの画像素子のうち、いずれか一方の画像素子で撮影した撮影画像を表示すれば良い。
操作入力部26は、作業者Wにより操作され、所定の情報の入力操作が行えるようにしたデバイスである。本実施形態では、操作入力部26がディスプレイ25と一体的に設けられるタッチパネルで構成される。なお、携帯端末2としてウェアラブルコンピュータ2Bを用いる場合は、操作入力部26が作業者Wの手元に配置され、入力操作が適宜可能となっている。
記憶部27は、所定のデータまたはステレオカメラ21で撮影した撮影画像を記憶する。なお、記憶部27に記憶される画像は、動画像であっても良いし、静止画像であっても良い。さらに、オフラインで携帯端末2を使用する場合には、予め管理コンピュータ3からダウンロードされた各種データが記憶部27に記憶される。なお、管理データベース20に登録された一部のデータを記憶部27に記憶させても良いし、全てのデータを記憶部27に記憶させても良い。
計時部28(RTC:Real-Time Clock)は、時間の経過を計時する。例えば、現在時刻を示す時刻情報と、日付と曜日とを示すカレンダ情報とを出力する。また、計時部28は、所定の開始時刻から所定の終了時刻までの時間を積算するタイマ機能を備えても良い。
端末通信部29は、通信回線を介して管理コンピュータ3と通信を行う。本実施形態の端末通信部29には、ネットワーク機器、例えば、無線LANのアンテナが含まれる。その他にも、LANケーブルまたはUSBケーブルを用いて通信を行う場合もある。この端末通信部29を介して携帯端末2は、管理コンピュータ3の管理データベース20にアクセスする。
端末制御部30は、携帯端末2を統括して制御する。この端末制御部30は、撮影画像取得部31と加速度情報取得部32と角速度情報取得部33と重畳表示部34と表示内容制御部35と情報貼付部36と結果記録部37と報告書作成部38とデータベース登録部39と位置姿勢推定部40と3次元形状測定部41と対象認識部42と写真記録限定部43と対象情報取得部44とマーカ情報取得部45と外観画像取得部46と形状情報取得部47とサポート情報取得部48とを備える。これらは、メモリまたはHDDに記憶されたプログラムがCPUによって実行されることで実現される。
撮影画像取得部31は、ステレオカメラ21により撮影された撮影画像を取得する制御を行う。なお、撮影画像取得部31で取得される撮影画像は、動画像であっても良いし、静止画像であっても良い。
加速度情報取得部32は、加速度センサ22で検出された加速度の値を示す加速度情報を取得する制御を行う。
角速度情報取得部33は、角速度センサ23で検出された角速度の値を示す角速度情報を取得する制御を行う。
重畳表示部34は、携帯端末2を介して作業者Wが視認する対象部分である対象機器8の像に管理データベース20から取得した対象機器8に対応するサポート画像9(図6参照)を重ねて表示する制御を行う。また、オフラインで携帯端末2を使用する場合には、予め記憶部27に記憶された対象機器8に対応するサポート情報を用いる。
また、重畳表示部34は、例えば、対象機器8の位置を示すサポート情報を表示する。このようにすれば、作業者Wが対象機器を識別することができる。また、重畳表示部34は、例えば、対象機器8の状態を示すサポート情報を表示する。このようにすれば、作業者Wが対象機器8の状態を把握することができる。また、重畳表示部34は、例えば、対象機器8の保全活動の結果を示すサポート情報を表示する。このようにすれば、作業者Wが対象機器8の保全活動の結果を把握することができる。
なお、「作業者が視認する対象部分の像」とは、ディスプレイ25に表示される対象機器8の「画像」であっても良いし、透過型ヘッドマウントディスプレイ4を介して直接に視認される対象機器8の「実物の像」であっても良い。また、ディスプレイ25は、反射型ヘッドマウントディスプレイでも良い。
表示内容制御部35は、作業者Wの所属または計画内容に応じてサポート画像9の表示内容を変更する制御を行う。また、表示内容制御部35は、サポート画像9の表示が許可された作業者Wであるか否かの判定を行う。つまり、サポート画像9の表示内容を変更する処理には、サポート画像9を表示すること、または、サポート画像9を表示しないことを決定する処理を含む。
情報貼付部36は、携帯端末2で撮影した対象機器8の画像に所定の情報を記載したARタグ49(図11参照)の画像を重ねて表示する制御を行う。このARタグ49は、仮想の附箋であり、作業者Wが所定の情報を記載して対象機器8に仮想的に貼り付けることができる。そして、次に他の作業者Wが保全作業を行うときに、このARタグ49に記載された情報を参照することができる。
結果記録部37は、ステレオカメラ21で撮影した対象機器8の撮影画像に基づいて、対象機器8の状態を示す情報を自動的に読み取る制御を行う。例えば、対象機器8が計器である場合に、この計器の画像に基づいて計器が表示している値を記録する(図6参照)。つまり、結果記録部37は、対象機器8の位置と時刻情報ともに確認結果を記録する制御を行う。
報告書作成部38は、記録された点検内容と位置情報とに基づいて、保全活動の終了後に報告書を自動作成する制御を行う(図12参照)。
データベース登録部39は、管理コンピュータ3の管理データベース20に、携帯端末2で取得した所定の情報を登録する制御を行う。
なお、オフラインで携帯端末2を使用する場合にデータベース登録部39は、携帯端末2で取得した所定の情報を記憶部27に記憶する制御を行う。そして、管理コンピュータ3とオンライン接続されたときに、記憶部27に記憶された所定の情報を管理データベース20に登録する制御を行う。
位置姿勢推定部40は、撮影画像と加速度情報と角速度情報とに基づいて携帯端末2の位置および姿勢を推定する制御を行う。この位置姿勢推定部40は、携帯端末2の位置および姿勢の推定と同時に携帯端末2の周辺環境の情報を含む環境地図の作成を行う。つまり、位置姿勢推定部40では、VSLAM技術を用いている。なお、携帯端末2で作成された環境地図を管理コンピュータ3に送信しても良い。そして、管理コンピュータ3は、管理データベース20に環境地図を記憶しても良い。
VSLAM技術では、携帯端末2のステレオカメラ21および3次元測定センサ24で取得した情報を用いて、携帯端末2の周辺の物体の特徴点を抽出することができる。この特徴点の集合させたものを3次元特徴点群データと称する。そして、ステレオカメラ21で撮影した撮影画像(動画像)を解析し、物体の特徴点(例えば、箱状の物体の辺または角の部分)をリアルタイムに追跡する。この3次元特徴点群データに基づいて、携帯端末2の位置および姿勢の3次元情報を推定することができる。さらに、この3次元特徴点群データに基づいて、環境地図を作成することができる。
また、携帯端末2の周辺の物体の3次元特徴点群データを所定の時間毎に検出し、時系列において前後する3次元特徴点群データ間の変位に基づいて、携帯端末2の位置および姿勢の変位を算出することができる。また、時系列に得られる一連の自位置および自姿勢から、現在位置および現在姿勢に先立つ携帯端末2の移動経路17が得られる。
つまり、位置姿勢推定部40は、基準位置から携帯端末2が移動するときに連続的に撮影された撮影画像に基づいて、携帯端末2の位置および姿勢を推定する制御を行う。このようにすれば、基準位置から携帯端末2が移動した経路17(図3参照)を撮影画像により推定できるので、携帯端末2の位置および姿勢の推定精度を向上させることができる。
なお、本実施形態では、ステレオカメラ21および3次元測定センサ24で取得した情報に基づいて、携帯端末2の位置および姿勢を推定するVSLAM技術を例示しているが、その他の態様であっても良い。例えば、RGBカメラ、魚眼カメラ、ジャイロセンサ、赤外線センサで取得した情報に基づいて、携帯端末2の位置および姿勢を推定するVSLAM技術を用いても良い。このVSLAM技術は、屋内での位置計測が可能であり、ビーコンまたは歩行者自律航法(PDR:Pedestrian Dead Reckoning)などの屋内で使用可能な位置情報計測技術の中で、最も精度よく3次元座標を算出することができる。
なお、携帯端末2の位置および姿勢は、それぞれ算出または更新された時点の時刻と対応付けて記録される。
3次元形状測定部41は、ステレオカメラ21の撮影画像に基づいて携帯端末2の周辺の物体の3次元形状を測定する制御を行う。また、3次元測定センサ24の測定に基づいて携帯端末2の周辺の物体の3次元形状を取得しても良い。
対象認識部42は、撮影画像に写る保全活動の対象となる対象部分としての対象機器8を認識する制御を行う。この対象認識部42は、例えば、携帯端末2の位置および姿勢(撮影方向)と対象機器8に対応する位置とに基づいて、撮影画像に写る物体のうち、いずれの物体が対象機器8であるかを認識する制御を行う。
また、対象認識部42は、環境地図に基づいて対象機器8を認識する制御を行う。このようにすれば、携帯端末2の位置および姿勢の推定精度と対象機器8の認識精度とを向上させることができる。本実施形態では、衛星測位システムが使用できない屋内であっても、携帯端末2の位置を特定することができる。なお、本実施形態で用いられる環境地図は、作業前に予め作成されたものでも良いし、作業中に携帯端末2で作成されたものでも良いし、作業前に予め作成されたものを作業中に携帯端末2で更新したものでも良い。
また、対象認識部42は、対象マーカ16に対応する位置情報に基づいて対象機器8を認識する制御を行う。このようにすれば、対象マーカ16に基づいて対象機器8を認識することができるので、対象機器8の認識精度を向上させることができる。
また、対象認識部42は、対象マーカ16が写る撮影画像に基づいて対象機器8を認識する制御を行う。このようにすれば、対象マーカ16により対象機器8を認識できるので、対象機器8の認識精度を向上させることができる。
また、対象認識部42は、予め撮影された外観画像に基づいて対象機器8を認識する制御を行う。この制御には、ステレオカメラ21で撮影された撮影画像に写る物体が対象機器8であるか否かを識別する制御が含まれる。このようにすれば、物体の外観に基づいて対象機器8を認識できるので、対象機器8の認識精度を向上させることができる。なお、対象機器8に関する物体に対象マーカ16を設ける必要がないので、対象マーカ16を設ける手間を省略することができる。つまり、対象機器8の外観自体を対象マーカ16の替りとして用いることができる。
また、対象認識部42は、3次元形状情報に基づいて対象機器8を認識する制御を行う。この制御には、携帯端末2の周辺の物体が対象機器であるか否かを識別する制御が含まれる。このようにすれば、物体の3次元形状に基づいて対象機器8を認識させるので、対象機器8の認識精度を向上させることができる。なお、対象機器8に関する物体に対象マーカ16を設ける必要がないので、対象マーカ16を設ける手間を省略することができる。つまり、対象機器8の3次元形状自体を対象マーカ16の替りとして用いることができる。また、3次元形状情報は、ステレオカメラ21で撮影された撮影画像に基づいて取得されても良いし、3次元測定センサ24に基づいて取得されても良い。
写真記録限定部43は、作業現場において対象機器8の画像記録機能(写真撮影機能)を限定する制御を行う。なお、画像記録機能とは、携帯端末2のステレオカメラ21を用いて撮影した画像を記憶部27に記憶させる機能をいう。つまり、写真記録限定部43は、作業者Wが作業現場で写真撮影を行うことを一定の条件下で制限する制御を行う。
例えば、通常時に、携帯端末2のステレオカメラ21で撮影をした場合には、その撮影画像はディスプレイ25に表示され、記憶部27に記憶されることがない。なお、撮影画像は動画像を例示する。ここで、作業者Wがディスプレイ25に表示された写真撮影ボタン50(図6から図11参照)をタッチ操作すると、そのときに撮影されていた撮影画像が記憶部27に記憶される。なお、この画像は静止画像を例示する。本実施形態では、写真撮影ボタン50の表示の有無により、画像記録機能の可否の切り換えを行う。なお、写真撮影ボタン50により記録可能となる画像は、静止画像のみならず、ビデオ映像(動画像)であっても良い。
対象情報取得部44(対象位置取得部)は、撮影画像に写る対象機器8に対応する位置情報を管理コンピュータ3の管理データベース20から取得する制御を行う。なお、オフラインで携帯端末2を使用する場合には、予め管理コンピュータ3からダウンロードされた対象機器8に対応する位置情報を用いる。また、対象情報取得部44は、位置情報以外の情報をダウンロードしても良い。このダウンロードされる情報には、外観画像と3次元形状情報とサポート情報と状態情報とが含まれる。さらに、予め作成された環境地図が管理コンピュータ3に記憶されている場合には、その環境地図をダウンロードしても良い。なお、ダウンロードされた情報は、記憶部27に記憶される。オンライン状態で携帯端末2を使用する場合には、管理コンピュータ3からダウンロードした情報を用いても良いし、予め記憶部27に記憶された情報を用いても良い。オフライン状態で携帯端末2を使用する場合には、記憶部27に記憶された情報を用いる。
マーカ情報取得部45(マーカ位置取得部)は、撮影画像に写るマーカ15,16に対応する位置情報を管理コンピュータ3の管理データベース20から取得する制御を行う。なお、オフラインで携帯端末2を使用する場合には、予め管理コンピュータ3からダウンロードされたマーカ15,16に対応する位置情報を用いる。なお、マーカ情報取得部45は、マーカ15,16の図形に含まれるマーカIDを読み取る制御を行う。
外観画像取得部46は、対象認識部42にて対象機器8を認識するために必要な情報であって、この対象機器8の外観画像を管理コンピュータ3の管理データベース20から取得する制御を行う。なお、オフラインで携帯端末2を使用する場合には、予め管理コンピュータ3からダウンロードされた対象機器8の外観画像を用いる。
形状情報取得部47は、対象認識部42にて対象機器8を認識するために必要な情報であって、この対象機器8の3次元形状情報を管理コンピュータ3の管理データベース20から取得する制御を行う。なお、オフラインで携帯端末2を使用する場合には、予め管理コンピュータ3からダウンロードされた対象機器8の3次元形状情報を用いる。
サポート情報取得部48は、対象認識部42にて認識された対象機器8のサポート情報を管理コンピュータ3の管理データベース20から取得する制御を行う。なお、オフラインで携帯端末2を使用する場合には、予め管理コンピュータ3からダウンロードされた対象機器8のサポート情報を用いる。
図4(A)に示すように、管理コンピュータ3の管理データベース20は、基準位置管理テーブルを含む。この基準位置管理テーブルには、基準位置IDに対応付けて、3D位置情報とマーカIDと対象機器IDとが登録されている。
基準位置IDは、複数の基準位置を個々に識別可能な識別情報である。なお、1つの基準位置に対して1つの基準位置IDが付与される。
基準位置管理テーブルに登録される3D位置情報は、基準位置が設けられた位置を指定する3次元座標の情報である。なお、座標の情報には、水平方向(X軸,Y軸)と垂直方向(Z軸)の位置を指定する情報を含む。また、この3D位置情報には、基準位置の姿勢または向きに関する情報が含まれる。
本実施形態では、建物10の出入口13に設けられた1つの基準マーカ15を原点(起点)として座標を設定する。なお、座標は、基準マーカ15を原点としなくても良く、建物10の所定の位置を座標の原点としても良い。また、3D位置情報は、建物10の設計段階で作成された3次元CADに基づいて構成されても良い。
基準位置管理テーブルに登録されるマーカIDは、複数の基準マーカ15を個々に識別可能な識別情報である。なお、1つの基準マーカ15に対して1つのマーカIDが付与される。さらに、基準位置管理テーブルでは、1つの基準位置に対して1つのマーカIDが付与される。
対象機器IDは、複数の対象機器8を個々に識別可能な識別情報である。なお、1つの対象機器8に対して1つの対象機器IDが付与される。
基準位置管理テーブルでは、1つの基準位置IDに対応して複数の対象機器IDが登録されても良い。例えば、建物10の出入口13の基準マーカ15のマーカIDに対応付けて、その建物10の内部に配置された全ての対象機器8の対象機器IDが登録される。また、部屋12の出入口14の基準マーカ15のマーカIDに対応付けて、その部屋12の内部に配置された全ての対象機器8の対象機器IDが登録される。
図4(B)に示すように、管理コンピュータ3の管理データベース20は、対象機器管理テーブルを含む。この対象機器管理テーブルには、対象機器IDに対応付けて、3D位置情報とマーカIDと外観画像IDと3D形状IDとサポート情報IDと状態情報IDと端末IDとユーザIDとが登録されている。
対象機器管理テーブルに登録される3D位置情報は、対象機器8の位置を指定する座標を示す位置情報である。なお、3D位置情報は、水平方向(X軸,Y軸)と垂直方向(Z軸)の位置を指定する情報を含む。また、この3D位置情報には、対象機器8の姿勢または向きに関する情報が含まれる。
対象機器管理テーブルに登録されるマーカIDは、複数の対象マーカ16を個々に識別可能な識別情報である。なお、1つの対象マーカ16に対して1つのマーカIDが付与される。さらに、対象機器管理テーブルでは、1つの対象機器8に対して1つのマーカIDが付与されても良いし、複数の対象機器8に対して1つのマーカIDが付与されても良い。
なお、対象機器8に対しては、マーカIDが付与されなくても良い。つまり、対象機器8またはその近接位置に対象マーカ16が配置されなくても良い。この場合には、外観画像または3次元形状情報に基づいて対象機器8の認識が成される。
外観画像IDは、管理データベース20に予め登録された複数の対象機器8の外観画像を個々に識別可能な識別情報である。なお、1つの対象機器IDに対応付けて複数の外観画像IDが登録されても良い。つまり、1つの対象機器8に対して異なる方向から撮影された複数の外観画像が管理データベース20に予め登録されても良い。
なお、対象機器8に、外観画像IDが付与されなくても良い。つまり、対象機器8の外観画像が管理データベース20に登録されていなくても良い。この場合には、対象マーカまたは3次元形状情報に基づいて対象機器8の認識が成される。
3D形状IDは、管理データベース20に予め登録された複数の対象機器8の3次元形状情報を個々に識別可能な識別情報である。
なお、対象機器8に、3D形状IDが付与されなくても良い。つまり、対象機器8の3次元形状情報が管理データベース20に登録されていなくても良い。この場合には、対象マーカまたは外観画像に基づいて対象機器8の認識が成される。
サポート情報IDは、管理データベース20に予め登録された複数の対象機器8に対応するサポート情報を個々に識別可能な識別情報である。
状態情報IDは、管理データベース20に登録された複数の対象機器8に対応する状態情報を個々に識別可能な識別情報である。
端末IDは、複数の携帯端末2を個々に識別可能な識別情報である。対象機器管理テーブルには、対象機器IDに対応付けて、対応する対象機器8のサポート情報の提供が許可されている携帯端末2の端末IDが登録される。
ユーザIDは、複数の作業者Wを個々に識別可能な識別情報である。対象機器管理テーブルには、対象機器IDに対応付けて、対応する対象機器8のサポート情報の提供が許可されている作業者WのユーザIDが登録される。なお、ユーザIDは、携帯端末2にログインするときに使用するものであっても良いし、それぞれの作業者Wが所持するIDカードに登録されるものであっても良い。
このように、管理データベース20には、対象機器8に対応付けて保全活動のエリアである作業現場の建物10に予め設けられたマーカ15,16に関する位置情報が登録される。さらに、対象機器8の位置情報も登録される。このようにすれば、管理データベース20を用いてサポート情報と対象機器に対応する位置情報とを一元的に管理できるので、保全活動の効率を向上させることができる。なお、基準位置ID、対象機器ID、または3次元位置情報に基づいて、管理データベース20に登録された各種データを検索することができる。
図5に示すように、携帯端末2は、作業現場である保全エリアのナビゲーション機能を有する。作業者Wは、建物10の出入口13の基準マーカ15を携帯端末2で読み取る。ここで、位置姿勢推定部40は、この基準マーカ15に基づいて携帯端末2の位置、つまり、作業者Wの位置を把握する。そして、携帯端末2のディスプレイ25には、点検内容および点検場所を確認するためのナビゲーション画面が表示される。
ナビゲーション画面には、建物10の見取図51と、作業者Wの現在位置を示すマーク画像52と、点検対象となる対象機器8がある点検箇所を示すマーク画像53と、点検計画を表示するための選択入力部54と、点検に関する処理を開始するための選択入力部55とが表示される。さらに、点検箇所を示すマーク画像53をタッチ操作すると、点検内容を示す項目56が表示される。このナビゲーション画面によって作業者Wを点検箇所へ誘導する。このナビゲーション機能を用いることで、点検場所を確認できるとともに、後戻り作業を防止することができる。
図6に示すように、携帯端末2は、対象機器8としてのアナログ計器8Aの数値を読み取る計器読取支援機能を有する。例えば、所定の1つの装置57に圧力計などで構成される複数のアナログ計器8Aが設けられている。なお、携帯端末2は、ステレオカメラ21で装置57を継続的に撮影し、その撮影画像をリアルタイムでディスプレイ25に表示する。
対象認識部42は、携帯端末2の位置および姿勢と対象機器8の位置情報とに基づいて、撮影画像に写る対象機器8(アナログ計器8A)を認識する。なお、対象認識部42は、対象マーカ16が無くても、対象機器8の外観画像または3次元形状に基づいて対象機器8を認識することができる。
携帯端末2は、対象機器8が点検対象であることを示すサポート画像9の表示を行う。例えば、それぞれの対象機器8を枠で囲む表示を行うとともに、それぞれの対象機器8に番号を付けて可視化したサポート画像9の表示を行う。作業者Wは、サポート画像9により対象機器8を認識することができる。いずれの対象機器8が点検の対象であるかは、管理者Mが予め管理データベース20に登録しておく。
また、結果記録部37は、画像認識技術を用いて撮影画像から対象機器8としてのアナログ計器8Aの数値を読み取る。そして、記録用リスト58に読み取った数値を記録する。作業者Wは、目視でもアナログ計器8Aの数値を読み取り、記録用リスト58の記録が正しい場合にチェックボックス59にチェックを入れるようにする。
さらに、結果記録部37は、アナログ計器8Aの数値を読み取ったときの携帯端末2の位置情報および時刻情報とともに、その確認結果を記憶部27に記憶させる。なお、携帯端末2が管理コンピュータ3に接続中である場合には、その確認結果を管理データベース20に登録させる。
本実施形態では、対象機器8としてのアナログ計器8Aの数値の計器読取支援機能を用いることで、対象機器8に関する記録を確実かつ効率的に実行できるようになり、数値の読み取りまたは入力ミスなどのヒューマンエラーを防止できる。
図7に示すように、携帯端末2は、アイソレーション支援機能を有する。なお、発電所などのプラントは、配電システム、運転機器、監視機器などの複数の要素を用いて構築される。このようなプラントにおいて、機器またはシステムなどの工事、保守点検、修理などを行う際に、作業者の安全確保、他の機器または他のシステムに与える影響を最小限に抑える必要がある。そのため、作業の対象となる機器またはシステムを、他の機器または他のシステムから電気的に隔離して停止(停電)させる。このような作業をアイソレーションと称する。
例えば、1つの配電装置60に対象機器8としての複数のスイッチ8Bが設けられている。なお、携帯端末2は、ステレオカメラ21で配電装置60を撮影し、その撮影画像をリアルタイムでディスプレイ25に表示する。
対象認識部42は、携帯端末2の位置および姿勢と対象機器8の位置情報とに基づいて、撮影画像に写るそれぞれのスイッチ8Bを認識する。なお、撮影画像に写る対象マーカ16に基づいてそれぞれのスイッチ8Bを認識しても良い。そして、携帯端末2は、アイソレーション作業により操作が必要なスイッチ8Bにサポート画像9を重ねて表示する。例えば、スイッチ8Bを枠で囲む表示を行う。
また、作業者Wがスイッチ8BのONまたはOFFの操作をした場合には、結果記録部37によりその結果が記録される。また、チェックリスト61を表示して、作業者Wが作業を行ったスイッチ8Bに対応するチェックボックス62にチェックを入れるようにする。
さらに、結果記録部37は、携帯端末2の位置情報および時刻情報とともに、そのアイソレーションの作業結果を記憶部27に記憶する。なお、携帯端末2が管理コンピュータ3に接続中である場合には、その作業結果を管理データベース20に登録する。本実施形態では、アイソレーション支援機能により、スイッチ操作ミスの防止と作業効率化が可能となる。
また、携帯端末2は、対象認識部42が対象機器8を認識しているときに、写真撮影ボタン50(静止画記録ボタン)を表示する。本実施形態では、対象認識部42が対象機器8を認識しているときのみ、つまり、ディスプレイ25に対象機器8が写っているときのみ、対象機器8の画像記録機能(写真撮影機能)が有効になる。なお、ディスプレイ25に対象マーカ16が写っているときのみ、対象機器8の画像記録機能が有効になる態様であっても良い。
図8に示すように、携帯端末2は、バルブラインナップ支援機能を有する。例えば、配管63に対象機器8としての複数のバルブ8Cが設けられている。なお、携帯端末2は、ステレオカメラ21で配管63を継続的に撮影し、その撮影画像をリアルタイムでディスプレイ25に表示する。
対象認識部42は、携帯端末2の位置および姿勢と対象機器8の位置情報とに基づいて、撮影画像に写るそれぞれのバルブ8Cを認識する。なお、撮影画像に写る対象マーカ16に基づいてそれぞれのバルブ8Cを認識しても良い。そして、携帯端末2は、開閉確認が必要なバルブ8Cにサポート画像9を重ねて表示する。例えば、バルブ8Cを枠で囲む表示を行う。
結果記録部37は、撮影画像に基づいてそれぞれのバルブ8Cの開閉状態を認識し、その状態が記録される。さらに、結果記録部37は、携帯端末2の位置情報および時刻情報とともに、それぞれのバルブ8Cの開閉状態を記憶部27に記憶する。なお、管理コンピュータ3に接続中である場合には、それぞれのバルブ8Cの開閉状態を管理データベース20に登録する。本実施形態では、バルブラインナップ支援機能により、確認ミスの防止と、確認作業時間の短縮ができる。
図9に示すように、携帯端末2は、センサ取り付け支援機能を有する。例えば、ポンプなどの駆動装置64の定期点検時には、振動検出用の振動センサを所定の位置に取り付けて、振動の計測が行われる。このとき、振動センサの取り付け位置の確認を支援する。なお、携帯端末2は、ステレオカメラ21で駆動装置64を撮影し、その撮影画像をリアルタイムでディスプレイ25に表示する。
対象認識部42は、携帯端末2の位置および姿勢と対象機器8の位置情報とに基づいて、撮影画像に写る駆動装置64を認識する。なお、撮影画像に写る対象マーカ16に基づいて駆動装置64を認識しても良い。なお、駆動装置64は、対象機器8としての複数個の部品8Dで構成されており、それぞれの部品8Dで振動数が異なる。
対象認識部42は、携帯端末2の位置および姿勢と対象機器8の位置情報とに基づいて、撮影画像に写るそれぞれの部品8Dを認識する。なお、撮影画像に写る対象マーカ16に基づいてそれぞれの部品8Dを認識しても良い。
携帯端末2は、それぞれの部品8Dを示すサポート画像9の表示を行う。例えば、それぞれの部品8Dに番号を付けて位置を示す表示を行う。そして、前回の定期点検時に振動センサを取り付けた部品8Dのサポート画像9の態様は、他のサポート画像9とは異なる態様にされる。例えば、サポート画像9を色分けして示す。作業者Wは、前回の定期点検時に振動センサを取り付けた部品8Dに振動センサを取り付けるようにする。このようにすれば、計測者または計測時期の違いによる計測のばらつきを防ぐことができる。本実施形態では、センサ取り付け支援機能により、センサの適切な取り付け位置の可視化することができる。
図10に示すように、携帯端末2は、保全対象確認支援機能を有する。この機能では、流量計または計器などの定期的な点検対象計器の確認作業を支援する。例えば、配管65に対象機器8としての複数の計器8Eが設けられている。なお、携帯端末2は、ステレオカメラ21で配管65を撮影し、その撮影画像をリアルタイムでディスプレイ25に表示する。
対象認識部42は、携帯端末2の位置および姿勢と対象機器8の位置情報とに基づいて、撮影画像に写るそれぞれの計器8Eを認識する。なお、撮影画像に写る対象マーカ16に基づいてそれぞれの計器8Eを認識しても良い。そして、携帯端末2は、開閉確認が必要な計器8Eにサポート画像9を重ねて表示する。例えば、管理データベース20に保存された計画に従って、校正時期を色分けして可視化する。
本実施形態では、保全対象確認支援機能により、確認ミスの防止、確実な計器校正の実施と記録が可能となる。また、計器校正などの保全計画について、作業現場で実物の計器8Eと合わせて直感的に作業内容を把握することができる。
図11に示すように、携帯端末2は、ARタグ貼付機能を有する。この機能により仮想の附箋の表示形態を成すARタグ49を、対象機器8の画像に重ねて表示させることができる。例えば、対象機器8としての複数の計器8Eに、恰も附箋が貼り付けられているように表示される。
情報貼付部36は、ディスプレイ25に表示中の計器8Eの画像にARタグ49の画像を重ねて表示する。作業者Wは、ディスプレイ25に表示中の計器8Eの部分をタッチ操作すると、文字入力画面に切り換わる。そして、点検作業または現場作業で、作業者Wが気付いた点または注意事項を記録する。この記録はテキストデータとしてARタグ49に書き込まれる。なお、テキストデータの入力は、音声によるテキスト変換で入力しても良い。
また、情報貼付部36は、ARタグ49に書き込まれたデータを携帯端末2の位置情報および時刻情報とともに記憶部27に記憶する。なお、管理コンピュータ3に接続中である場合には、ARタグ49に書き込まれたデータを管理データベース20に登録する。このARタグ49に書き込まれたデータは、サポート情報の一部として登録される。
本実施形態では、ARタグ貼付機能により、点検箇所の確実な記録と、確実な是正処理の管理が可能となる。さらに、管理データベース20では、ARタグ49に書き込まれたデータを一覧で管理する。また、携帯端末2のディスプレイ25に表示されるナビゲーション画面(図5参照)の地図上にARタグ49の位置を表示させ、他の作業者WがARタグ49に書き込まれたデータを簡易に確認できるようにしても良い。
図12に示すように、携帯端末2は、報告書自動生成機能を有する。この機能により、記録された点検内容と位置情報とに基づいて、保全活動の終了後に報告書を自動的に作成することができる。
作業者Wが点検に関する処理を終了するための選択入力部66をタッチ操作すると、点検結果リスト68が表示される。なお、対象機器8の写真撮影を行った場合には、点検結果に対象機器8の画像が含まれる。作業者Wが点検結果を確認したことを示すための「OK」の選択入力部67をタッチ操作すると、報告書作成部38が報告書を自動的に作成する。
また、報告書作成部38は、作成した報告書のデータを携帯端末2の位置情報および時刻情報とともに記憶部27に記憶する。なお、携帯端末2が管理コンピュータ3に接続中である場合には、報告書のデータを管理データベース20に登録する。本実施形態では、報告書自動生成機能により、事務所での点検記録の再入力、報告書作成の手間を省くことができ、作業者Wの負荷低減が可能となる。
なお、携帯端末2と管理コンピュータ3とが常時接続可能な環境である場合には、管理コンピュータ3にて報告書を自動的に作成しても良い。
本実施形態のシステムは、CPU、ROM、RAM、HDDなどのハードウェア資源を有し、CPUが各種プログラムを実行することで、ソフトウェアによる情報処理がハードウェア資源を用いて実現されるコンピュータで構成される。さらに、本実施形態の保全活動サポート方法は、プログラムをコンピュータに実行させることで実現される。
次に、管理コンピュータ3が実行する事前情報登録処理について図13のフローチャートを用いて説明する。なお、図2に示すブロック図を適宜参照する。この処理は、管理データベース20に対するデータの登録を開始する旨の操作があった場合に実行される処理である。
図13に示すように、まず、ステップS11において、管理制御部19は、管理データベース20に登録するデータの入力を受け付ける。なお、データの入力操作は、管理コンピュータ3がマウスまたはキーボードなどの入力装置を用いて行われても良いし、ネットワークを介して接続された他のコンピュータから入力操作が行われても良い。
次のステップS12において、管理制御部19は、入力を受け付けたデータに含まれる対象機器IDを対象機器管理テーブル(図4(B)参照)に登録する。
次のステップS13において、管理制御部19は、入力を受け付けたデータに含まれる対象機器8の3D位置情報を対象機器管理テーブル(図4(B)参照)に登録する。
次のステップS14において、管理制御部19は、入力を受け付けたデータに含まれる対象機器8のサポートIDを対象機器管理テーブル(図4(B)参照)に登録するとともに、このサポートIDに対応するサポート情報を管理データベース20に登録する。
次のステップS15において、管理制御部19は、入力を受け付けたデータに含まれる対象機器8に関連する情報を対象機器管理テーブル(図4(B)参照)に登録する。例えば、マーカIDと外観画像IDと3D形状IDと状態情報IDと端末IDとユーザIDとを対象機器管理テーブルに登録する。
なお、詳しい説明を省略するが、この事前情報登録処理において、基準位置管理テーブル(図4(A)参照)に、基準位置IDと3D位置情報とマーカIDと対象機器IDとを登録する処理を実行しても良い。
次に、携帯端末2が実行する端末制御処理について図14のフローチャートを用いて説明する。なお、図2に示すブロック図を適宜参照する。この処理は、一定時間毎に繰り返される処理である。他の処理を実行中に、この処理を割り込ませて実行しても良い。
図14に示すように、まず、ステップS21において、端末制御部30は、メイン制御処理を実行する。このメイン制御処理では、携帯端末2に搭載されるディスプレイ25などの各種デバイスを制御する処理が行われる。
次のステップS22において、端末制御部30は、操作受付処理を実行する。この操作受付処理では、操作入力部26により所定の入力操作を受け付ける処理が行われる。
次のステップS23において、端末制御部30は、データベースアクセス処理を実行する。このデータベースアクセス処理では、管理コンピュータ3の管理データベース20にアクセスし、各種データのダウンロード処理またはアップロード処理が行われる。
次のステップS24において、端末制御部30は、マーカ認識処理を実行する。このマーカ認識処理では、ステレオカメラ21で撮影された撮影画像に基づいて、マーカ15,16を認識する処理が行われる。
次のステップS25において、端末制御部30は、自己位置推定処理を実行する。この自己位置推定処理では、撮影画像と加速度情報と角速度情報とに基づいて携帯端末2の位置および姿勢を推定する処理が行われる。
次のステップS26において、端末制御部30は、ナビゲーション表示処理を実行する。このナビゲーション表示処理では、ディスプレイ25にナビゲーション画面(図5参照)を表示させてナビゲーション機能を実現する処理が行われる。
次のステップS27において、端末制御部30は、対象認識処理を実行する。この対象認識処理では、撮影画像に写る保全活動の対象となる対象部分としての対象機器8を認識する処理が行われる。
次のステップS28において、端末制御部30は、保全サポート処理を実行する。この保全サポート処理では、ディスプレイ25にサポート情報を含むサポート画像9を表示する処理が行われる。
次のステップS29において、端末制御部30は、報告書作成処理を実行する。この報告書作成処理では、報告書作成部38により報告書を自動作成する処理が行われる。
次に、携帯端末2が実行するデータベースアクセス処理について図15のフローチャートを用いて説明する。なお、図2に示すブロック図を適宜参照する。
図15に示すように、まず、ステップS31において、端末制御部30は、携帯端末2が管理コンピュータ3とオンライン接続中であり、管理データベース20にアクセス中であるか否かを判定する。ここで、管理データベース20にアクセス中でない場合(ステップS31がNO)は、処理を終了する。一方、管理データベース20にアクセス中である場合(ステップS31がYES)は、ステップS32に進む。
次のステップS32において、端末制御部30は、作業者Wにより携帯端末2が操作されて作業開始の入力操作を受け付けたか否かを判定する。ここで、作業開始の入力操作を受け付けていない場合(ステップS32がNO)は、後述のステップS35に進む。一方、作業開始の入力操作を受け付けた場合(ステップS32がYES)は、ステップS33に進む。
次のステップS33において、端末制御部30は、作業現場で携帯端末2が管理コンピュータ3と接続していない状態、つまり、オフラインで作業する予定であるか否かを判定する。ここで、オフラインで作業する予定でない場合(ステップS33がNO)は、後述のステップS35に進む。一方、オフラインで作業する予定である場合(ステップS33がYES)は、ステップS34に進む。
次のステップS34において、端末制御部30(対象情報取得部44)は、データのダウンロード処理を実行する。このデータのダウンロード処理では、管理データベース20に登録された各種データをダウンロードし、記憶部27に記憶させる処理を行う。このダウンロードされるデータには、外観画像と3次元形状情報とサポート情報と状態情報とが含まれる。さらに、基準位置管理テーブル(図4(A))と対象機器管理テーブル(図4(B))とがダウンロードされる。
次のステップS35において、端末制御部30は、作業者Wにより携帯端末2が操作されて作業終了の入力操作を受け付けたか否かを判定する。ここで、作業終了の入力操作を受け付けていない場合(ステップS35がNO)は、処理を終了する。一方、作業終了の入力操作を受け付けた場合(ステップS35がYES)は、ステップS36に進む。
次のステップS36において、端末制御部30は、オフライン状態で作業したときのデータが記憶部27に記憶されているか否かを判定する。ここで、オフライン状態で作業したときのデータがない場合(ステップS36がNO)は、処理を終了する。一方、オフライン状態で作業したときのデータがある場合(ステップS36がYES)は、ステップS37に進む。
次のステップS37において、データベース登録部39は、データのアップロード処理を実行する。このデータのアップロード処理では、記憶部27に記憶されたオフライン状態で作業したときのデータを管理コンピュータ3にアップロードし、管理データベース20に登録する処理を行う。このアップロードされるデータに対象機器8の状態情報が含まれる。そして、処理を終了する。
次に、携帯端末2が実行するマーカ認識処理について図16のフローチャートを用いて説明する。なお、図2に示すブロック図を適宜参照する。
図16に示すように、まず、ステップS41において、撮影画像取得部31は、ステレオカメラ21により撮影された撮影画像を取得する。
次のステップS42において、端末制御部30は、取得した撮影画像にマーカ15,16が写っているか否かを判定する。ここで、撮影画像にマーカ15,16が写っていない場合(ステップS42がNO)は、処理を終了する。一方、撮影画像にマーカ15,16が写っている場合(ステップS42がYES)は、ステップS43に進む。
次のステップS43において、マーカ情報取得部45は、マーカ15,16の図形に含まれるマーカIDを読み取る。
次のステップS44において、端末制御部30は、撮影画像に写っているものが基準位置に対応する基準マーカ15であるか否かを判定する。ここで、基準マーカ15でない場合(ステップS44がNO)は、後述のステップS46に進む。一方、基準マーカ15である場合(ステップS44がYES)は、ステップS45に進む。
次のステップS45において、マーカ位置取得部としてのマーカ情報取得部45は、読み取ったマーカIDに対応する基準位置IDの3D位置情報を管理データベース20または記憶部27から取得する。そして、処理を終了する。
ステップS44がNOの場合に進むステップS46において、端末制御部30は、撮影画像に写っているものが対象機器8に対応する対象マーカ16であるか否かを判定する。ここで、対象マーカ16でない場合(ステップS46がNO)は、処理を終了する。一方、対象マーカ16である場合(ステップS46がYES)は、ステップS47に進む。
次のステップS47において、マーカ情報取得部45は、読み取ったマーカIDに対応する対象機器IDの3D位置情報を管理データベース20または記憶部27から取得する。そして、処理を終了する。
次に、携帯端末2が実行する自己位置推定処理について図17のフローチャートを用いて説明する。なお、図2に示すブロック図を適宜参照する。
図17に示すように、まず、ステップS51において、位置姿勢推定部40は、座標の原点となる基準位置の設定に基づく座標の確認処理を行う。例えば、建物10の出入口13に設けられた1つの基準マーカ15を原点として基準位置を設定する。なお、基準マーカ15の撮影画像が取得されるまでの間、ディスプレイ25に基準マーカ15の撮影を促す旨の表示を行っても良い。
次のステップS52において、撮影画像取得部31は、ステレオカメラ21により撮影された撮影画像を取得する。
次のステップS53において、加速度情報取得部32は、加速度センサ22で検出された加速度の値を示す加速度情報を取得する。
次のステップS54において、角速度情報取得部33は、角速度センサ23で検出された角速度の値を示す角速度情報を取得する。
次のステップS55において、3次元形状測定部41は、ステレオカメラ21の撮影画像に基づいて携帯端末2の周辺の物体の3次元形状を測定する。また、3次元測定センサ24の測定に基づいて携帯端末2の周辺の物体の3次元形状を取得しても良い。
次のステップS56において、位置姿勢推定部40は、携帯端末2の周辺環境の情報を含む環境地図を作成する。なお、予め作成された環境地図がある場合には、その環境地図を更新する。
次のステップS57において、位置姿勢推定部40は、基準位置から携帯端末2が移動するときに連続的に撮影された撮影画像に基づいて、携帯端末2の位置および姿勢を推定する。この移動中の携帯端末2の位置および姿勢を時刻情報とともに記録することで、携帯端末2の移動経路17(図3参照)が記録される。
次のステップS58において、位置姿勢推定部40は、携帯端末2の現在の位置および姿勢を推定する。そして、処理を終了する。
次に、携帯端末2が実行する対象認識処理について図18のフローチャートを用いて説明する。なお、図2に示すブロック図を適宜参照する。
図18に示すように、まず、ステップS61において、撮影画像取得部31は、ステレオカメラ21により撮影された撮影画像を取得する。
次のステップS62において、外観画像取得部46は、保全活動の対象となる対象機器8の外観画像を管理データベース20または記憶部27から取得する。
次のステップS63において、対象認識部42は、外観画像に基づく対象機器8の認識処理を実行する。この認識処理では、作業前に予め撮影された対象機器8の外観を写した外観画像に基づいて対象機器8が認識される。
次のステップS64において、3次元形状測定部41は、ステレオカメラ21の撮影画像に基づいて携帯端末2の周辺の物体の3次元形状を測定する。また、3次元測定センサ24の測定に基づいて携帯端末2の周辺の物体の3次元形状を取得しても良い。
次のステップS65において、形状情報取得部47は、保全活動の対象となる対象機器8の3次元形状情報を管理データベース20または記憶部27から取得する。
次のステップS66において、対象認識部42は、3次元形状情報に基づく対象機器8の認識処理を実行する。この認識処理では、作業前に予め取得された対象機器8の3次元形状情報に基づいて対象機器8が認識される。
次のステップS67において、端末制御部30は、撮影画像に対象マーカ16が写っており、そのマーカIDが読み取られているか否かを判定する。ここで、マーカIDが読み取られていない場合(ステップS67がNO)は、後述のステップS69に進む。一方、マーカIDが読み取られている場合(ステップS67がYES)は、ステップS68に進む。
次のステップS68において、対象認識部42は、対象マーカ16に基づく対象機器8の認識処理を実行する。この認識処理では、対象マーカ16に基づいて対象機器8が認識される。
次のステップS69において、対象位置取得部としての対象情報取得部44は、保全活動の対象となる対象機器8の3D位置情報を管理データベース20または記憶部27から取得する。
次のステップS70において、対象認識部42は、携帯端末2の位置および姿勢に基づく対象機器8の認識処理を実行する。この認識処理では、携帯端末2の位置および姿勢に基づいて対象機器8が認識される。
なお、対象認識処理では、複数の認識処理が実行されるが、先の認識処理で既に対象機器8が認識されている場合は、後の認識処理を省略しても良い。また、先の認識処理で既に対象機器8が認識されており、その認識結果と後の認識結果が異なる場合は、いずれかの1つの認識結果を優先して処理を継続する。
次のステップS71において、前述の認識処理で対象機器8が認識されたか否かを判定する。ここで、対象機器8が認識されていない場合(ステップS71がNO)は、処理を終了する。一方、対象機器8が認識された場合(ステップS71がYES)は、ステップS72に進む。
次のステップS72において、端末制御部30は、認識された対象機器8をサポート情報の提供の対象として設定する。そして、処理を終了する。
次に、携帯端末2が実行する保全サポート処理について図19のフローチャートを用いて説明する。なお、図2に示すブロック図を適宜参照する。
図19に示すように、まず、ステップS81において、撮影画像取得部31は、ステレオカメラ21により撮影された撮影画像を取得する。
次のステップS82において、端末制御部30は、サポート情報の提供の対象として設定された対象機器8があるか否かを判定する。ここで、サポート情報の提供の対象として設定された対象機器8がない場合(ステップS82がNO)は、後述のステップS93に進む。一方、サポート情報の提供の対象として設定された対象機器8がある場合(ステップS82がYES)は、ステップS83に進む。
次のステップS83において、写真記録限定部43は、写真撮影ボタン50(図6から図11参照)をディスプレイ25に表示する。つまり、写真撮影ボタン50がディスプレイ25に表示されていないときには、その表示を開始するとともに、写真撮影ボタン50のタッチ操作の受け付けも開始する。
次のステップS84において、端末制御部30は、写真撮影ボタン50がタッチ操作されたか否かを判定する。ここで、写真撮影ボタン50がタッチ操作されていない場合(ステップS84がNO)は、処理を終了する。一方、写真撮影ボタン50がタッチ操作された場合(ステップS84がYES)は、ステップS85に進む。
次のステップS85において、端末制御部30は、写真記録処理を実行する。この写真記録処理では、写真撮影ボタン50がタッチ操作されたときにステレオカメラ21で撮影されていた撮影画像を記憶部27に記憶する処理が行われる。
次のステップS86において、サポート情報取得部48は、認識された対象機器8のサポート情報を管理データベース20または記憶部27から取得する。
次のステップS87において、表示内容制御部35は、対象機器管理テーブル(図4(B))を参照し、サポート画像9の提供対象として設定された対象機器8の対象機器IDに対応付けて、携帯端末2の端末IDまたは作業者WのユーザIDが登録されているか否かの判定を行う。つまり、サポート画像9の表示が許可されているか否かの判定を行う。ここで、サポート画像9の表示が許可されていない場合(ステップS87がNO)は、処理を終了する。一方、サポート画像9の表示が許可されている場合(ステップS87がYES)は、ステップS88に進む。
次のステップS88において、重畳表示部34は、重畳表示処理を実行する。この重畳表示処理では、ディスプレイ25に写る対象機器8にサポート画像9を重ねて表示する処理が行われる。
次のステップS89において、結果記録部37は、計器読取処理を実行する。この計器読取処理では、例えば、ステレオカメラ21で撮影したアナログ計器8A(図6参照)の数値を自動的に読み取る処理が行われる。
次のステップS90において、結果記録部37は、結果記録処理を実行する。この結果記録処理では、例えば、読み取られたアナログ計器8Aの数値を記憶部27に記憶させる処理が行われる。また、管理コンピュータ3に接続中である場合には、読み取られたアナログ計器8Aの数値を管理データベース20に登録させる処理が行われる。
次のステップS91において、情報貼付部36は、ディスプレイ25に表示中の対象機器8の部分がタッチ操作されたか否か、つまり、ARタグ49(図11参照)の貼付操作の入力があるか否かを判定する。ここで、ARタグ49の貼付操作の入力がない場合(ステップS91がNO)は、処理を終了する。一方、ARタグ49の貼付操作の入力がある場合(ステップS91がYES)は、ステップS92に進む。
次のステップS92において、情報貼付部36は、情報貼付処理を実行する。この情報貼付処理では、文字入力画面を表示し、テキストデータの入力を受け付ける。そして、このとき入力されたテキストデータがARタグ49に書き込まれる。このARタグ49に書き込まれたデータは、サポート情報の一部として登録される。つまり、前述の重畳表示処理にて、ディスプレイ25に表示中の対象機器8の画像にARタグ49の画像を重ねて表示する処理が実行される。そして、処理を終了する。
前述のステップS82がNOの場合に進むステップS93において、写真記録限定部43は、写真撮影ボタン50(図6から図11参照)を非表示にする。つまり、写真撮影ボタン50がディスプレイ25に表示中であるときには、その表示を終了するとともに、写真撮影ボタン50のタッチ操作の受け付けも終了する。そして、処理を終了する。
(第2実施形態)
次に、第2実施形態の保全活動サポートシステム1Aおよび保全活動サポート方法について図20から図22を用いて説明する。なお、前述した実施形態に示される構成部分と同一構成部分については同一符号を付して重複する説明を省略する。
前述の第1実施形態では、携帯端末2にて環境地図の作成が行われるが、第2実施形態では、管理コンピュータ3にて環境地図の作成が行われる点が異なる。第2実施形態では、端末制御部30Aに位置姿勢推定部40(図2参照)が設けられておらず、その替りに管理制御部19Aに位置姿勢推定部69(図20参照)が設けられている。
なお、第2実施形態では、作業現場において携帯端末2と管理コンピュータ3とが常時オンライン接続可能な環境で使用される態様を例示する。
図20に示すように、管理コンピュータ3の管理制御部19Aは、携帯端末2に搭載されたデバイスにより得られた情報に基づいて携帯端末2の位置および姿勢を推定する位置姿勢推定部69を備える。ここで、携帯端末2に搭載されたデバイスとは、ステレオカメラ21と加速度センサ22と角速度センサ23と3次元測定センサ24とを含む。
管理コンピュータ3は、管理通信部18により携帯端末2と通信を行い、携帯端末2にて取得された撮影画像と加速度情報と角速度情報と3次元特徴点群データとを受信する。なお、携帯端末2が基準マーカ15に基づいて設定した基準位置を示す情報を受信しても良い。
位置姿勢推定部69は、携帯端末2から取得した撮影画像と加速度情報と角速度情報と3次元特徴点群データとに基づいて携帯端末2の位置および姿勢を推定する。さらに、この位置姿勢推定部69は、携帯端末2の位置および姿勢の推定と同時に携帯端末2の周辺環境の情報を含む環境地図の作成を行う。つまり、位置姿勢推定部69では、VSLAM技術を用いている。なお、位置姿勢推定部69にて作成された環境地図は、管理データベース20に登録される。
携帯端末2では、ステレオカメラ21および3次元測定センサ24で取得した情報を用いて、携帯端末2の周辺の物体の特徴点を抽出することができる。この特徴点の集合させた3次元特徴点群データが、管理コンピュータ3に送信される。管理コンピュータ3は、ステレオカメラ21で撮影した撮影画像(動画像)を解析し、物体の特徴点をリアルタイムに追跡する。この3次元特徴点群データに基づいて、携帯端末2の位置および姿勢の3次元情報を推定することができる。さらに、この3次元特徴点群データに基づいて、環境地図を作成することができる。また、時系列に得られる一連の携帯端末2の位置および姿勢から、携帯端末2の現在位置および現在姿勢に先立つ携帯端末2の移動経路17(図3参照)が得られる。
次に、携帯端末2が実行する自己位置推定処理について図21を用いて説明する。なお、図20に示すブロック図を適宜参照する。
図21に示すように、まず、ステップS51Aにおいて、端末制御部30Aは、基準位置を取得する。例えば、建物10の出入口13に設けられた1つの基準マーカ15を原点として基準位置を取得する。
次のステップS52において、撮影画像取得部31は、ステレオカメラ21により撮影された撮影画像を取得する。
次のステップS53において、加速度情報取得部32は、加速度センサ22で検出された加速度の値を示す加速度情報を取得する。
次のステップS54において、角速度情報取得部33は、角速度センサ23で検出された角速度の値を示す角速度情報を取得する。
次のステップS55において、3次元形状測定部41は、ステレオカメラ21の撮影画像に基づいて携帯端末2の周辺の物体の3次元形状を測定する。また、3次元測定センサ24の測定に基づいて携帯端末2の周辺の物体の3次元形状を取得しても良い。
次のステップS56Aにおいて、端末制御部30Aは、携帯端末2のデバイスで取得したデータを管理コンピュータ3に送信する。この取得したデータには、基準位置と撮影画像と加速度情報と角速度情報と携帯端末2の周辺の物体の3次元形状とが含まれる。そして、管理コンピュータ3が実行する後述の端末位置推定処理にて携帯端末2の位置および姿勢が推定される。
次のステップS57Aにおいて、端末制御部30Aは、管理コンピュータ3から携帯端末2の位置および姿勢を示すデータを受信する。そして、処理を終了する。
次に、管理コンピュータ3が実行する端末位置推定処理について図22のフローチャートを用いて説明する。なお、図20に示すブロック図を適宜参照する。この処理は、管理データベース20に対して携帯端末2からアクセスがあった場合に実行される処理である。
図22に示すように、まず、ステップS101において、管理制御部19Aは、携帯端末2からデータを受信する。このデータには、携帯端末2のデバイスで取得された基準位置と撮影画像と加速度情報と角速度情報と携帯端末2の周辺の物体の3次元形状とが含まれる。ここで、位置姿勢推定部69は、携帯端末2の座標の原点となる基準位置の設定に基づく座標の確認処理を行う。
次のステップS102において、位置姿勢推定部69は、携帯端末2の周辺環境の情報を含む環境地図を作成する。この作成された環境地図は、管理データベース20に登録される。なお、予め作成された環境地図がある場合には、その環境地図を更新する。
次のステップS103において、位置姿勢推定部69は、基準位置から携帯端末2が移動するときに連続的に撮影された撮影画像に基づいて、携帯端末2の位置および姿勢を推定する。この移動中の携帯端末2の位置および姿勢を時刻情報とともに記録することで、携帯端末2の移動経路17(図3参照)が記録される。
次のステップS104において、位置姿勢推定部69は、携帯端末2の現在の位置および姿勢を示すデータを携帯端末2に送信する。そして、処理を終了する。
第2実施形態では、携帯端末2の位置および姿勢を推定する処理と、環境地図を作成する処理とが管理コンピュータ3で実行されるため、携帯端末2の処理負荷を低減させることができる。また、携帯端末2に環境地図が記憶されないため、万が一、携帯端末2が外部に持ち出されたとしても、環境地図などの作業現場の状況が分かる機密情報が外部に漏洩されずに済むようになる。
本実施形態に係る保全活動サポートシステムおよび保全活動サポート方法を第1実施形態から第2実施形態に基づいて説明したが、いずれか1の実施形態において適用された構成を他の実施形態に適用しても良いし、各実施形態において適用された構成を組み合わせても良い。
例えば、作業現場において携帯端末2と管理コンピュータ3とが常時オンライン接続可能な環境で使用する場合には、第2実施形態を用いるようにし、オンライン接続ができなくなる可能性がある場合には、第1実施形態を用いるように、実施形態を切り換えられるようにしても良い。
なお、本実施形態のフローチャートにおいて、各ステップが直列に実行される形態を例示しているが、必ずしも各ステップの前後関係が固定されるものでなく、一部のステップの前後関係が入れ替わっても良い。また、一部のステップが他のステップと並列に実行されても良い。
本実施形態のシステムは、専用のチップ、FPGA(Field Programmable Gate Array)、GPU(Graphics Processing Unit)、またはCPU(Central Processing Unit)などのプロセッサを高集積化させた制御装置と、ROM(Read Only Memory)またはRAM(Random Access Memory)などの記憶装置と、HDD(Hard Disk Drive)またはSSD(Solid State Drive)などの外部記憶装置と、ディスプレイなどの表示装置と、マウスまたはキーボードなどの入力装置と、通信インターフェースとを備える。このシステムは、通常のコンピュータを利用したハードウェア構成で実現できる。
なお、本実施形態のシステムで実行されるプログラムは、ROMなどに予め組み込んで提供される。もしくは、このプログラムは、インストール可能な形式または実行可能な形式のファイルでCD-ROM、CD-R、メモリカード、DVD、フレキシブルディスク(FD)などのコンピュータで読み取り可能な非一過性の記憶媒体に記憶されて提供するようにしても良い。
また、このシステムで実行されるプログラムは、インターネットなどのネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせて提供するようにしても良い。また、このシステムは、構成要素の各機能を独立して発揮する別々のモジュールを、ネットワークまたは専用線で相互に接続し、組み合わせて構成することもできる。
なお、携帯端末2が魚眼レンズ付カメラを備えても良い。例えば、2つの魚眼レンズ付カメラを用いて作業者Wの上下左右全方位の360度パノラマ画像である全天球画像の同時撮影を行っても良い。そして、全天球画像に写る対象機器8を認識する処理を行っても良い。
なお、携帯端末2または管理コンピュータ3には、機械学習を行う人工知能(AI:Artificial Intelligence)を備えるコンピュータが含まれても良い。例えば、対象認識部42が人工知能を備えても良い。また、携帯端末2または管理コンピュータ3には、深層学習に基づいて、複数のパターンから特定のパターンを抽出する深層学習部が含まれても良い。そして、撮影画像に写った対象機器8に関する外観画像または3次元形状を人工知能に機械学習させるようにし、この機械学習に基づいて、撮影画像に写った対象機器8を認識させるようにしても良い。
本実施形態のコンピュータを用いた解析には、人工知能の学習に基づく解析技術を用いることができる。例えば、ニューラルネットワークによる機械学習により生成された学習モデル、その他の機械学習により生成された学習モデル、深層学習アルゴリズム、回帰分析などの数学的アルゴリズムを用いることができる。また、機械学習の形態には、クラスタリング、深層学習などの形態が含まれる。
本実施形態のシステムは、機械学習を行う人工知能を備えるコンピュータを含む。例えば、ニューラルネットワークを備える1台のコンピュータでシステムを構成しても良いし、ニューラルネットワークを備える複数台のコンピュータでシステムを構成しても良い。
ここで、ニューラルネットワークとは、脳機能の特性をコンピュータによるシミュレーションによって表現した数学モデルである。例えば、シナプスの結合によりネットワークを形成した人工ニューロン(ノード)が、学習によってシナプスの結合強度を変化させ、問題解決能力を持つようになるモデルを示す。さらに、ニューラルネットワークは、深層学習(Deep Learning)により問題解決能力を取得する。
例えば、ニューラルネットワークには、6層のレイヤーを有する中間層が設けられる。この中間層の各レイヤーは、300個のユニットで構成されている。また、多層のニューラルネットワークに学習用データを用いて予め学ばせておくことで、回路またはシステムの状態の変化のパターンの中にある特徴量を自動で抽出することができる。なお、多層のニューラルネットワークは、ユーザインターフェース上で、任意の中間層数、ユニット数、学習率、学習回数、活性化関数を設定することができる。
なお、保全活動サポートシステムでは、学習対象となる各種情報項目に報酬関数が設定されるとともに、報酬関数に基づいて価値が最も高い情報項目が抽出される深層強化学習をニューラルネットワークに用いても良い。
例えば、画像認識で実績のあるCNN(Convolution Neural Network)を用いる。このCNNでは、中間層が畳み込み層とプーリング層で構成される。畳み込み層は、前の層で近くにあるノードにフィルタ処理を施すことで特徴マップを取得する。プーリング層は、畳込み層から出力された特徴マップを、さらに縮小して新たな特徴マップとする。この際に特徴マップにおいて着目する領域に含まれる画素の最大値を得ることで、特徴量の位置の多少のずれも吸収することができる。
畳み込み層は、画像の局所的な特徴を抽出し、プーリング層は、局所的な特徴をまとめる処理を行う。これらの処理では、入力画像の特徴を維持しながら画像を縮小処理する。つまり、CNNでは、画像の持つ情報量を大幅に圧縮(抽象化)することができる。そして、ニューラルネットワークに記憶された抽象化された画像イメージを用いて、入力される画像を認識し、画像の分類を行うことができる。
なお、深層学習には、オートエンコーダ、RNN(Recurrent Neural Network)、LSTM(Long Short-Term Memory)、GAN(Generative Adversarial Network)などの各種手法がある。これらの手法を本実施形態の深層学習に適用しても良い。
なお、本実施形態に適用可能な透過型ヘッドマウントディスプレイ4は、透過型スクリーン(例えば、ハーフミラー)と、この透過型スクリーンに画像を投影する投影機器(例えば、プロジェクタ)とを備える。作業者Wは、透過型ヘッドマウントディスプレイ4を通して外部の風景を視認しつつ、表示される画像を視認することができる。透過型ヘッドマウントディスプレイ4に表示される画像は、背景が見える所定の透過率を有する態様で表示される。また、背景が見えなくなる非透過の態様で表示しても良い。
なお、本実施形態のウェアラブルコンピュータ2Bが備えるヘッドマウントディスプレイ4は、人間の網膜に直接映像を投影する網膜投影型ヘッドマウントディスプレイであっても良い。このようにすれば、作業者の視力に左右されずにクリアなサポート画像9を見ることができる。また、サポート画像9が表示される範囲、つまり、視野角を大きくすることができる。また、ヘッドマウントディスプレイの省電力化、小型化、または軽量化を図ることができる。
なお、本実施形態の携帯端末2は、周辺の物体に映像を投影(表示)するプロジェクタを備えても良い。そして、プロジェクションマッピング技術を用いて携帯端末2が周辺の物体にサポート画像9の映像を投影するようにしても良い。このようにすれば、携帯端末2を所持する作業者以外の周辺の作業者に対してもサポート情報を提供することができる。
なお、本実施形態の携帯端末2は、作業者が持運びできる大きさおよび重さであれば良い。例えば、作業現場において、三脚などの固定器具を用いて携帯端末2を固定的に設置して使用しても良い。
なお、本実施形態の携帯端末2の位置を特定するために、衛星測位システムを補助的に用いても良い。
なお、本実施形態の携帯端末2に搭載されたデバイスとして、レンズ付きの2つの画像素子を備えるステレオカメラ21を例示しているが、その他の態様であっても良い。例えば、レンズ付きの1つの画像素子を備える通常のカメラを携帯端末2に搭載しても良い。この通常のカメラを携帯端末2に搭載してVSLAM技術を用いる場合には、通常のカメラおよび3次元測定センサ24で取得した情報を用いて、携帯端末2の周辺の物体の特徴点を抽出し、携帯端末2の位置および姿勢を推定する。
なお、本実施形態では、携帯端末2のステレオカメラ21および3次元測定センサ24で取得した情報を用いて、携帯端末2の周辺の物体の特徴点を抽出しているが、その他の態様であっても良い。例えば、ステレオカメラ21のみで取得した情報を用いて、携帯端末2の周辺の物体の特徴点を抽出しても良い。ステレオカメラ21は、物体を複数の異なる方向から同時に撮影することにより、その物体までの奥行き方向の情報が取得可能となっている。そのため、3次元測定センサ24を用いなくても、携帯端末2の周辺の物体の特徴点を抽出することができる。そして、携帯端末2の位置および姿勢を推定することができる。
以上説明した実施形態によれば、端末に搭載されたデバイスにより得られた情報に基づいて端末の位置および姿勢を推定する位置姿勢推定部を備えることにより、ヒューマンエラーを低減させるとともに作業の効率化を図れる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更、組み合わせを行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
1(1A)…保全活動サポートシステム、2…携帯端末、2A…スマートフォン、2B…ウェアラブルコンピュータ、3…管理コンピュータ、4…ヘッドマウントディスプレイ、5…コンピュータ本体、6…ディスプレイ、7…無線通信装置、8…対象機器、8A…アナログ計器、8B…スイッチ、8C…バルブ、8D…部品、8E…計器、9…サポート画像、10…建物、11…壁、12…部屋、13…建物の出入口、14…部屋の出入口、15…基準マーカ、16…対象マーカ、17…移動経路、18…管理通信部、19(19A)…管理制御部、20…管理データベース、21…ステレオカメラ、22…加速度センサ、23…角速度センサ、24…3次元測定センサ、25…ディスプレイ、26…操作入力部、27…記憶部、28…計時部、29…端末通信部、30(30A)…端末制御部、31…撮影画像取得部、32…加速度情報取得部、33…角速度情報取得部、34…重畳表示部、35…表示内容制御部、36…情報貼付部、37…結果記録部、38…報告書作成部、39…データベース登録部、40…位置姿勢推定部、41…3次元形状測定部、42…対象認識部、43…写真記録限定部、44…対象情報取得部、45…マーカ情報取得部、46…外観画像取得部、47…形状情報取得部、48…サポート情報取得部、49…ARタグ、50…写真撮影ボタン、51…見取図、52,53…マーク画像、54,55…選択入力部、56…項目、57…装置、58…記録用リスト、59…チェックボックス、60…配電装置、61…チェックリスト、62…チェックボックス、63…配管、64…駆動装置、65…配管、66,67…選択入力部、68…点検結果リスト、69…位置姿勢推定部、M…管理者、W…作業者。

Claims (13)

  1. 保全活動をサポートするサポート情報と前記保全活動のエリアに関する位置情報とが登録されたデータベースと、
    前記保全活動を行う作業者が所持する端末に搭載されたカメラにより撮影された撮影画像を取得する撮影画像取得部と、
    前記撮影画像に写る前記保全活動の対象となる対象部分に対応する前記位置情報を前記データベースから取得する対象位置取得部と、
    前記端末に搭載されたデバイスであり、加速度センサおよび角速度センサを含み、さらに深度センサまたは前記カメラの少なくとも一方を含む前記デバイスにより得られた情報に基づいて前記端末の位置および姿勢を推定するとともに前記端末の周辺環境に関する物体の3次元形状情報を含む環境地図の作成を行う位置姿勢推定部と、
    前記端末の位置および姿勢と前記対象部分に対応する前記位置情報と前記環境地図とに基づいて、前記撮影画像に写る前記保全活動の対象となる前記対象部分を認識する対象認識部と、
    前記作業者が視認する前記対象部分の像の少なくとも一部に前記データベースから取得した前記対象部分に対応する前記サポート情報を重ねて表示する重畳表示部と、
    前記作業者が前記保全活動のエリアで撮影を行うことを制限する写真記録限定部と、
    を備え
    前記写真記録限定部は、
    前記カメラにより撮影された前記撮影画像を取得したときに、前記撮影画像に写る前記対象部分が、前記サポート情報に関連しているか否かを判定し、
    前記撮影画像に写る前記対象部分が、前記サポート情報に関連している場合に、写真撮影ボタンを前記端末に表示し、前記作業者により前記写真撮影ボタンが操作されたときに前記撮影画像を記憶し、
    前記撮影画像に写る前記対象部分が、前記サポート情報に関連していない場合に、前記写真撮影ボタンを前記端末に表示しない、
    処理を実行するように構成されている、
    保全活動サポートシステム。
  2. 前記データベースには、前記対象部分に対応付けて前記保全活動のエリアに予め設けられたマーカに関する前記位置情報が登録されており、
    前記撮影画像に写る前記マーカに対応する前記位置情報を前記データベースから取得するマーカ位置取得部を備え、
    前記対象認識部は、前記マーカに対応する前記位置情報に基づいて前記対象部分を認識する、
    請求項に記載の保全活動サポートシステム。
  3. 前記マーカは、複数の前記マーカを個々に識別可能な識別情報を含む、
    請求項に記載の保全活動サポートシステム。
  4. 前記マーカは、前記対象部分または前記対象部分の近接位置に設けられており、
    前記対象認識部は、前記マーカが写る前記撮影画像に基づいて前記対象部分を認識する、
    請求項または請求項に記載の保全活動サポートシステム。
  5. 前記マーカは、前記保全活動のエリアの基準位置に設けられており、
    前記位置姿勢推定部は、前記基準位置から前記端末が移動するときに連続的に撮影された前記撮影画像に基づいて前記端末の位置および姿勢を推定する、
    請求項または請求項に記載の保全活動サポートシステム。
  6. 前記データベースには、予め撮影された前記対象部分に関する物体の外観を写した外観画像が登録されており、
    前記外観画像を前記データベースから取得する外観画像取得部を備え、
    前記対象認識部は、前記外観画像に基づいて前記対象部分を認識する、
    請求項に記載の保全活動サポートシステム。
  7. 前記データベースには、予め取得された前記対象部分に関する物体の前記3次元形状情報が登録されており、
    前記3次元形状情報を前記データベースから取得する形状情報取得部と、
    前記撮影画像に基づいて前記端末の周辺の物体の3次元形状を測定する3次元形状測定部と、
    を備え、
    前記対象認識部は、前記3次元形状情報に基づいて前記対象部分を認識する、
    請求項に記載の保全活動サポートシステム。
  8. 前記重畳表示部は、前記対象部分の位置を示す前記サポート情報を表示する、
    請求項1から請求項のいずれか1項に記載の保全活動サポートシステム。
  9. 前記重畳表示部は、前記対象部分の状態を示す前記サポート情報を表示する、
    請求項1から請求項のいずれか1項に記載の保全活動サポートシステム。
  10. 前記重畳表示部は、前記対象部分の前記保全活動の結果を示す前記サポート情報を表示する、
    請求項1から請求項のいずれか1項に記載の保全活動サポートシステム。
  11. 保全活動を行う作業者が所持する端末は、
    前記保全活動をサポートするサポート情報と前記保全活動のエリアに関する位置情報とが登録されたデータベースを有する管理コンピュータと通信を行う端末通信部と、
    加速度センサおよび角速度センサを含み、さらに深度センサまたはカメラの少なくとも一方を含むデバイスと、
    記カメラにより撮影された撮影画像を取得する撮影画像取得部と、
    前記撮影画像に写る前記保全活動の対象となる対象部分に対応する前記位置情報を前記データベースから取得する対象位置取得部と、
    記デバイスにより得られた情報に基づいて前記端末の位置および姿勢を推定するとともに前記端末の周辺環境に関する物体の3次元形状情報を含む環境地図の作成を行う位置姿勢推定部と、
    前記端末の位置および姿勢と前記対象部分に対応する前記位置情報と前記環境地図とに基づいて、前記撮影画像に写る前記保全活動の対象となる前記対象部分を認識する対象認識部と、
    前記作業者が視認する前記対象部分の像の少なくとも一部に前記データベースから取得した前記対象部分に対応する前記サポート情報を重ねて表示する重畳表示部と、
    前記作業者が前記保全活動のエリアで撮影を行うことを制限する写真記録限定部と、
    を備え
    前記写真記録限定部は、
    前記カメラにより撮影された前記撮影画像を取得したときに、前記撮影画像に写る前記対象部分が、前記サポート情報に関連しているか否かを判定し、
    前記撮影画像に写る前記対象部分が、前記サポート情報に関連している場合に、写真撮影ボタンを前記端末に表示し、前記作業者により前記写真撮影ボタンが操作されたときに前記撮影画像を記憶し、
    前記撮影画像に写る前記対象部分が、前記サポート情報に関連していない場合に、前記写真撮影ボタンを前記端末に表示しない、
    処理を実行するように構成されている、
    保全活動サポートシステム。
  12. 保全活動を行う作業者が所持する端末を管理する管理コンピュータは、
    前記端末と通信を行う管理通信部と、
    前記保全活動をサポートするサポート情報と前記保全活動のエリアに関する位置情報とが登録されたデータベースと、
    前記端末に搭載されたデバイスであり、加速度センサおよび角速度センサを含み、さらに深度センサまたはカメラの少なくとも一方を含む前記デバイスにより得られた情報に基づいて前記端末の位置および姿勢を推定するとともに前記端末の周辺環境に関する物体の3次元形状情報を含む環境地図の作成を行う位置姿勢推定部と、
    を備え、
    前記端末は、
    記カメラにより撮影された撮影画像を取得し、
    前記撮影画像に写る前記保全活動の対象となる対象部分に対応する前記位置情報を前記データベースから取得し、
    前記端末の位置および姿勢と前記対象部分に対応する前記位置情報と前記環境地図とに基づいて、前記撮影画像に写る前記保全活動の対象となる前記対象部分を認識し、
    前記作業者が視認する前記対象部分の像の少なくとも一部に前記データベースから取得した前記対象部分に対応する前記サポート情報を重ねて表示
    前記作業者が前記保全活動のエリアで撮影を行うことを制限する、
    処理を実行するように構成されており、
    前記制限する処理は、
    前記カメラにより撮影された前記撮影画像を取得したときに、前記撮影画像に写る前記対象部分が、前記サポート情報に関連しているか否かを判定し、
    前記撮影画像に写る前記対象部分が、前記サポート情報に関連している場合に、写真撮影ボタンを前記端末に表示し、前記作業者により前記写真撮影ボタンが操作されたときに前記撮影画像を記憶し、
    前記撮影画像に写る前記対象部分が、前記サポート情報に関連していない場合に、前記写真撮影ボタンを前記端末に表示しない、
    処理である、
    保全活動サポートシステム。
  13. コンピュータが以下のステップを実行する方法であって、
    保全活動をサポートするサポート情報と前記保全活動のエリアに関する位置情報とをデータベースに登録するステップと、
    前記保全活動を行う作業者が所持する端末に搭載されたカメラにより撮影された撮影画像を取得するステップと、
    前記撮影画像に写る前記保全活動の対象となる対象部分に対応する前記位置情報を前記データベースから取得するステップと、
    前記端末に搭載されたデバイスであり、加速度センサおよび角速度センサを含み、さらに深度センサまたは前記カメラの少なくとも一方を含む前記デバイスにより得られた情報に基づいて前記端末の位置および姿勢を推定するとともに前記端末の周辺環境に関する物体の3次元形状情報を含む環境地図の作成を行うステップと、
    前記端末の位置および姿勢と前記対象部分に対応する前記位置情報と前記環境地図とに基づいて、前記撮影画像に写る前記保全活動の対象となる前記対象部分を認識するステップと、
    前記作業者が視認する前記対象部分の像の少なくとも一部に前記データベースから取得した前記対象部分に対応する前記サポート情報を重ねて表示するステップと、
    前記作業者が前記保全活動のエリアで撮影を行うことを制限するステップと、
    を含
    前記制限するステップは、
    前記カメラにより撮影された前記撮影画像を取得したときに、前記撮影画像に写る前記対象部分が、前記サポート情報に関連しているか否かを判定し、
    前記撮影画像に写る前記対象部分が、前記サポート情報に関連している場合に、写真撮影ボタンを前記端末に表示し、前記作業者により前記写真撮影ボタンが操作されたときに前記撮影画像を記憶し、
    前記撮影画像に写る前記対象部分が、前記サポート情報に関連していない場合に、前記写真撮影ボタンを前記端末に表示しない、
    ことを含む、
    保全活動サポート方法。
JP2019192706A 2018-11-13 2019-10-23 保全活動サポートシステムおよび保全活動サポート方法 Active JP7337654B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/671,325 US11481999B2 (en) 2018-11-13 2019-11-01 Maintenance work support system and maintenance work support method
MYPI2019006576A MY201621A (en) 2018-11-13 2019-11-11 Maintenance work support system and maintenance work support method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018213225 2018-11-13
JP2018213225 2018-11-13

Publications (2)

Publication Number Publication Date
JP2020080147A JP2020080147A (ja) 2020-05-28
JP7337654B2 true JP7337654B2 (ja) 2023-09-04

Family

ID=70801835

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019192706A Active JP7337654B2 (ja) 2018-11-13 2019-10-23 保全活動サポートシステムおよび保全活動サポート方法

Country Status (1)

Country Link
JP (1) JP7337654B2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7366618B2 (ja) 2019-07-23 2023-10-23 東芝エネルギーシステムズ株式会社 現場連携システムおよび管理装置
CN111649724B (zh) * 2020-06-04 2022-09-06 百度在线网络技术(北京)有限公司 基于移动边缘计算的视觉定位方法和装置
WO2022014322A1 (ja) * 2020-07-14 2022-01-20 株式会社Preferred Networks 情報処理システム、及び情報処理装置
JP7000513B1 (ja) * 2020-08-07 2022-01-19 株式会社インフォマティクス 構造物管理業務支援システム
JP7463263B2 (ja) * 2020-12-10 2024-04-08 株式会社日立ビルシステム 保守作業遠隔管理サーバおよび保守作業遠隔管理方法
EP4016251A1 (en) 2020-12-16 2022-06-22 Hitachi Energy Switzerland AG Portable display device with overlaid virtual information
JPWO2022195954A1 (ja) * 2021-03-17 2022-09-22
JP6990482B1 (ja) 2021-03-26 2022-01-12 株式会社オプティム 検査システム、方法及びプログラム
JP7176792B1 (ja) * 2021-09-09 2022-11-22 株式会社Synamon 情報処理システム及び情報処理方法
JP7200414B1 (ja) 2022-03-03 2023-01-06 旭国際テクネイオン株式会社 情報処理装置及び保全支援システム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002352224A (ja) 2001-05-29 2002-12-06 Topcon Corp 画像測定表示装置、画像測定表示システム、施工管理方法、施工状態監視システム
US20150302650A1 (en) 2014-04-16 2015-10-22 Hazem M. Abdelmoati Methods and Systems for Providing Procedures in Real-Time
US20160247324A1 (en) 2015-02-25 2016-08-25 Brian Mullins Augmented reality content creation
WO2017119127A1 (ja) 2016-01-08 2017-07-13 三菱電機株式会社 作業支援装置、作業学習装置及び作業支援システム
WO2017158718A1 (ja) 2016-03-15 2017-09-21 三菱電機株式会社 遠隔作業支援装置、指示用端末及び現場用端末
JP2018025890A (ja) 2016-08-08 2018-02-15 日揮株式会社 設備点検システム、サーバ、設備点検方法、及び制御プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002352224A (ja) 2001-05-29 2002-12-06 Topcon Corp 画像測定表示装置、画像測定表示システム、施工管理方法、施工状態監視システム
US20150302650A1 (en) 2014-04-16 2015-10-22 Hazem M. Abdelmoati Methods and Systems for Providing Procedures in Real-Time
US20160247324A1 (en) 2015-02-25 2016-08-25 Brian Mullins Augmented reality content creation
WO2017119127A1 (ja) 2016-01-08 2017-07-13 三菱電機株式会社 作業支援装置、作業学習装置及び作業支援システム
WO2017158718A1 (ja) 2016-03-15 2017-09-21 三菱電機株式会社 遠隔作業支援装置、指示用端末及び現場用端末
JP2018025890A (ja) 2016-08-08 2018-02-15 日揮株式会社 設備点検システム、サーバ、設備点検方法、及び制御プログラム

Also Published As

Publication number Publication date
JP2020080147A (ja) 2020-05-28

Similar Documents

Publication Publication Date Title
JP7337654B2 (ja) 保全活動サポートシステムおよび保全活動サポート方法
US11481999B2 (en) Maintenance work support system and maintenance work support method
US11010501B2 (en) Monitoring users and conditions in a structure
US11188686B2 (en) Method and apparatus for holographic display based upon position and direction
US10268782B1 (en) System for conducting a service call with orienteering
Neges et al. Combining visual natural markers and IMU for improved AR based indoor navigation
CN110458961B (zh) 基于增强现实的系统
Zollmann et al. Augmented reality for construction site monitoring and documentation
US9448758B2 (en) Projecting airplane location specific maintenance history using optical reference points
CN113196208A (zh) 通过使用采集装置传感器对图像采集的自动化控制
JP2020106513A (ja) 工業用拡張現実アプリケーションのためのドリフト補正
US10732001B1 (en) Methods and systems for response vehicle deployment
US20190377330A1 (en) Augmented Reality Systems, Methods And Devices
US11395102B2 (en) Field cooperation system and management device
JPWO2019107420A1 (ja) 設備管理システム
JP6725736B1 (ja) 画像特定システムおよび画像特定方法
JP2021131652A (ja) データ構造、記録媒体、プログラム、及びシステム
US10433112B2 (en) Methods and apparatus for orienteering
Cyrus et al. Hololens used for precise position tracking of the third party devices-autonomous vehicles
Scheuermann et al. Mobile augmented reality based annotation system: A cyber-physical human system
JP7508271B2 (ja) 画像特定システムおよび画像特定方法
Lahemer et al. HoloSLAM: A novel approach to virtual landmark-based SLAM for indoor environments
JP7293057B2 (ja) 放射線量分布表示システムおよび放射線量分布表示方法
JP7467206B2 (ja) 映像管理支援システムおよび映像管理支援方法
JP7467311B2 (ja) 点検システムおよび点検方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230725

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230823

R150 Certificate of patent or registration of utility model

Ref document number: 7337654

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150