JP7317271B2 - 遠隔支援装置および遠隔支援方法 - Google Patents

遠隔支援装置および遠隔支援方法 Download PDF

Info

Publication number
JP7317271B2
JP7317271B2 JP2023531298A JP2023531298A JP7317271B2 JP 7317271 B2 JP7317271 B2 JP 7317271B2 JP 2023531298 A JP2023531298 A JP 2023531298A JP 2023531298 A JP2023531298 A JP 2023531298A JP 7317271 B2 JP7317271 B2 JP 7317271B2
Authority
JP
Japan
Prior art keywords
information
icon
unit
sensory
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023531298A
Other languages
English (en)
Other versions
JPWO2023276116A1 (ja
JPWO2023276116A5 (ja
Inventor
剛久 三輪
守真 横田
光貴 岩村
輔祐太 渡邉
仁 川▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Mitsubishi Electric Building Solutions Corp
Original Assignee
Mitsubishi Electric Corp
Mitsubishi Electric Building Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp, Mitsubishi Electric Building Solutions Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2023276116A1 publication Critical patent/JPWO2023276116A1/ja
Application granted granted Critical
Publication of JP7317271B2 publication Critical patent/JP7317271B2/ja
Publication of JPWO2023276116A5 publication Critical patent/JPWO2023276116A5/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Selective Calling Equipment (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本開示は、遠隔支援装置および遠隔支援方法に関する。
ビル設備などの故障または異常時において、現場作業員所有のウェアラブルデバイスで取得した動画像情報、またはモーション情報を遠隔地の作業支援者と共有するシステムが知られている。作業支援者は、共有した情報をもとに、音声通話などで現場作業員を支援する。このようなシステムでは、現場作業員は、現場作業員が得た感覚を音声通話だけで作業支援者に伝えなければならず、現場状況を作業支援者に適切に伝えることが困難である。
一方、感覚情報を取得した後、感覚情報を再現するための技術が知られている。
たとえば、特許文献1のシステムは、触感センサによって、対象物から触感情報を検出し、カメラによって触感センサが触感情報を検出する対象物の画像情報を取得する。このシステムは、画像情報に基づいて対象物の名称を特定し、対象物の名称と、その対象物の触感情報とを関連付けて記憶する。その後、このシステムは、所定の名称の対象物について触感の再現をユーザから要求された場合、触感再現装置によって、所定の名称に関連付けられた触感情報に基づいて触感を再現する。
特許文献2には、プロセッサと、プロセッサがアクセスする記憶装置とを有する感覚情報提示システムが記載されている。記憶装置は、五感のうち少なくとも一つの感覚を表現する複数の感覚情報と、複数の感覚情報の各々と対象物と個人の特性とを対応付ける対象物プロパティ情報とを保持する。プロセッサは、対象物を指定する情報が入力されると、対象物プロパティ情報に基づいて、指定された対象物と、対象物を指定した個人の特性との組合せに対応する感覚情報を特定し、特定された感覚情報を出力する。
特開2019-160036号公報 特開2018-073019号公報
しかしながら、特許文献1および特許文献2のシステムでは、遠隔の支援者は、現場状況を容易に把握することができない。たとえば、遠隔の支援者は、現場のどの位置に現場において取得された感覚情報が存在するのかを判断することができない。遠隔の支援者は、ある位置で感覚情報が再現されて初めて、その位置に感覚情報が存在していたことがわかる。
それゆえに、本開示も目的は、遠隔の支援者が、現場状況を容易に把握することができる遠隔支援装置および遠隔支援方法を提供することである。
本開示の遠隔支援装置は、現場において測定された感覚情報と、感覚情報の測定位置とを取得する取得部と、支援者の入力を受け付けるユーザ入力部と、表示部と、感覚情報を再現する感覚再現部と、取得した測定位置に基づいて、現場または現場を模擬した模擬現場内の感覚情報の測定位置を表わすためのアイコンを表示部に表示し、ユーザ入力部を通じて支援者がアイコンを選択したことにより、感覚再現部に感覚情報を再現させる制御部とを備える。
本開示の遠隔支援方法は、現場において測定された感覚情報と、感覚情報の測定位置とを取得するステップと、取得した測定位置に基づいて、現場または現場を模擬した模擬現場内の感覚情報の測定位置を表わすためのアイコンを表示部に表示するステップと、ユーザ入力部を通じて支援者がアイコンを選択したことにより、感覚再現部に感覚情報を再現させるステップとを備える。
本開示によれば、現場または模擬現場内の感覚情報の測定位置を表わすためのアイコンを表示部に表示し、ユーザ入力部を通じて支援者がアイコンを選択したことにより、感覚再現部に感覚情報を再現させる。これによって、遠隔の支援者が、現場状況を容易に把握することができる。
実施の形態の遠隔支援装置1による遠隔支援の概要を説明するための図である。 実施の形態の遠隔支援装置1の構成を表わす図である。 測定データの構成例を表わす図である。 測定データの第1例を表わす図である。 測定データの第2例を表わす図である。 測定データの第3例を表わす図である。 感覚再現情報の構成例を表わす図である。 感覚の種類と、センサの種類と、感覚再現装置との対応関係を表わす図である。 感覚情報が再現される第1の例を表わす図である。 感覚情報が再現される第2の例を表わす図である。 感覚情報が再現される第3の例を表わす図である。 実施の形態1の遠隔支援装置1の処理手順を表わすフローチャートである。 実施の形態2の遠隔支援装置1の処理手順を表わすフローチャートである。 実施の形態3の感覚再現情報の例を表わす図である。 作業名の例を表わす図である。 実施の形態3の遠隔支援装置1の処理手順を表わすフローチャートである。 実施の形態4の遠隔支援装置1Aの構成を表わす図である。 実施の形態4の遠隔支援装置1Aの処理手順を表わすフローチャートである。 遠隔支援装置の一部または全部をソフトウェアを用いて実現する場合の構成を示す図である。
以下、実施の形態について図面を参照して説明する。
実施の形態1.
図1は、実施の形態の遠隔支援装置1による遠隔支援の概要を説明するための図である。
第1現場において、カメラ151aおよびカメラ151bが設置される。作業員が振動センサ100を室外機の上に置く。振動センサ100が室外機の振動を検出する。カメラ151aおよびカメラ151bが、振動センサ100の3次元位置を検出する。振動センサ100および振動センサ100の制御部が、検出した振動を表わすデータ、および振動センサ100の位置を表わすデータなどを遠隔支援装置1に送信する。遠隔支援装置1は、取得したデータに基づいて、室外機の振動を再現する。遠隔の支援者は、再現された振動によって、室外機の故障箇所、および故障の原因を診断することができる。
第2現場には、室内機A、B、C、およびマイク101が設置される。マイク101が、第2現場で発生した音を検出する。マイク101およびマイク101の制御部が、検出した音を表わすデータ、マイク101の位置を表わすデータ、および音が発生した方向を表わすデータなどを遠隔支援装置1に送信する。遠隔支援装置1は、取得したデータに基づいて、第2現場において測定された音を再現する。音および音が発生した方向を再現することによって、遠隔の支援者は、どの室内機が、どのような原因で故障しているかを診断することができる。
第3現場において、室内機A、B、C、および臭気センサ102が設置される。臭気センサ102が匂いを検出する。臭気センサ102および臭気センサ102の制御部が、検出した匂いを表わすデータ、臭気センサ102の位置を表わすデータ、および匂いが発生した方向を表わすデータなどを遠隔支援装置1に送信する。遠隔支援装置1は、取得したデータに基づいて、第2現場において測定された匂いを再現する。匂いおよび匂いが発生した方向を再現することによって、遠隔の支援者は、どの室内機が、どのような原因で故障しているかを診断することができる。
図2は、実施の形態の遠隔支援装置1の構成を表わす図である。
遠隔支援装置1は、取得部2と、感覚再現情報記憶部4と、ユーザ入力部5と、制御部6と、表示部7と、感覚再現部8とを備える。
取得部2は、現場における測定データを取得する。取得部2は、たとえば、現場のセンサなどの装置と通信する通信装置である。測定データは、少なくとも現場において測定された感覚情報と、感覚情報が測定された位置とを含む。測定データは、センサおよびセンサを制御する装置によって自動的に作成されるものとしてもよい。あるいは、測定データの一部は、現場の作業員がセンサまたはセンサを制御する装置にデータを入力することによって、作成されるものとしてもよい。
図3は、測定データの構成例を表わす図である。
測定データは、感覚が測定された日時(測定日時)と、感覚の測定時間と、感覚の種類と、感覚を測定するセンサの種類と、感覚情報を記録したデータファイルと、感覚が測定された位置(測定位置)と、発生源の方向(発生方向)と、測定位置の基準となる座標系(基準座標系)である。発生方向は、測定位置を基準とした方向角と仰角で表される。
センサが固定式の場合には、測定位置は、設定されたセンサの位置とすることができる。センサが移動式の場合には、測定位置は、位置を検出する手段によって、検出されたセンサの位置とすることができる。位置を検出する手段として、複数のカメラ、またはGPS(Global Positioning System)などを用いることができる。
発生方向は、感覚の種類が、音および匂いの場合に有効となる。音の発生源の方向は、複数のマイクの検出値から推定することができる。匂いの発生方向は、現場の作業員による入力によって特定することができる。
基準座標系は、「測定位置」の基準となる座標系を表わす。基準座標系は、画像、または実物である。実物は、敷地、建物、階、部屋、設備の模型、または設備の実機などである。設備には、空調装置、換気扇、照明装置、または昇降機などのビル設備が含まれる。基準座標系が、画像の場合に、「測定位置」は、測定された位置を表わす画素の位置となる。基準座標系が、実物の場合に、「測定位置」は、実物のある位置を基準位置とした実際の2次元または3次元の位置を表わす。
図4は、測定データの第1例を表わす図である。
この測定データにおいて、測定日時は「2020/12/02の18:53:30」、測定時間は「30秒」、感覚の種類は「振動」、センサの種類は「振動センサ」、感覚情報を記録したデータファイルのファイル名は「xx1.csv」、測定位置の画素の位置は「30,20,70」、発生方向は「N/A」(該当なし)、基準座標系が画像Aである。
図5は、測定データの第2例を表わす図である。
この測定データにおいて、測定日時は「2020/12/02の19:50:40」、測定時間は「20秒」、感覚の種類は「臭覚」、センサの種類は「臭気センサ」、感覚情報を記録したデータファイルのファイル名は「xx3.csv」、部屋Xの基準位置と測定位置との距離は「10cm,30cm,50cm」、発生方向は「50°(仰角),90°(方位角)」、基準座標系が部屋Xである。
図6は、測定データの第3例を表わす図である。
この測定データにおいて、測定日時は「2020/12/01の3:21:45」、測定時間は「60秒」、感覚の種類は「音」、センサの種類は「マイク」、感覚情報を記録したデータファイルのファイル名は「xx2.mp3」、部屋Yの基準位置と測定位置との距離は「50cm,40cm,30cm」、発生方向は「40°(仰角),120°(方位角)」、基準座標系が部屋Yである。
制御部6は、取得した測定データと、測定データに含まれる感覚情報を再現するためのデータとを含む感覚再現情報を生成する。
図7は、感覚再現情報の構成例を表わす図である。
感覚再現情報は、測定データと、現場または模擬現場を表わすための背景と、画像データと、画像または実物に表示するアイコンの位置と、感覚情報を再現する感覚再現装置の種類とを含む。現場または模擬現場を表わすための背景は、画像または実物である。現場または撮影現場を表わす画像には、静止画像、動画像、または3次元仮想空間などが含まれる。現場または模擬現場を表わす実物には、実際の設備(実機)、または実際の設備の模型などが含まれる。感覚再現情報は、現場または模擬現場を表わすための背景が画像の場合に、画像データを含む。
図8は、感覚の種類と、センサの種類と、感覚再現装置との対応関係を表わす図である。
感覚が「音」の場合に、センサの種類が「マイク」で、感覚再現装置の種類が「スピーカ」である。複数の「スピーカ」を設けて、制御部6が、感覚再現情報に含まれる発生方向に基づいて、各スピーカから発生する音の大きさを制御することによって、音の発生方向を再現することができる。
感覚が「臭覚」の場合に、センサの種類が「匂いセンサ」、「臭気センサ」、または「ガスセンサ」で、感覚再現装置の種類が「臭覚再現デバイス」である。「臭覚再現デバイス」は、たとえば、VAQSO社製の(VAQSO VR)を用いることができる。複数の「臭覚再現デバイス」を設けて、制御部6が、感覚再現情報に含まれる発生方向に基づいて、各臭覚再現デバイスから発生する匂いの量を制御することによって、匂いの発生方向を再現することができる。あるいは、制御部6が、気流を制御することによって、匂いの発生方向を再現してもよい。
感覚が「温冷覚」の場合に、センサの種類が「温度センサ」で、感覚再現装置の種類が「ヒータ」、「ファン」、「空調装置」、「換気扇」、または「ペルチェ素子」である。
感覚が「振動」の場合に、センサの種類が「振動センサ」で、感覚再現装置の種類が「バイブレータ」である。
感覚が「触覚または力覚」の場合に、センサの種類が「触覚センサ」、「圧力センサ」、「力センサ」、「グローブ」で、感覚再現装置の種類が「グローブ型提示装置」である。「グローブ」として、ManusVR社製のグローブ型VR向けデバイスを用いることができる。「グローブ型提示装置」として、たとえば、HaptX社製のグローブ型触覚デバイスを用いることができる。
感覚再現情報記憶部4は、感覚再現情報を記憶する。
ユーザ入力部5は、遠隔の支援者の入力を受け付ける。ユーザ入力部5は、たとえば、マウス、またはキーボードなどである。
表示部7は、たとえばディスプレイである。
感覚再現部8は、感覚情報を再現する。感覚再現部8は、複数の感覚再現装置3-1~3-Nを備える。各々の感覚再現装置3は、対応する種類の感覚情報を再現する。たとえば、感覚再現装置3-1は、音を再現し、感覚再現装置3-2は、臭覚を再現し、感覚再現装置3-3は、振動を再現する。
制御部6は、感覚再現情報に基づいて、現場または摸擬現場を表わす画像を表示部7に表示するとともに、感覚再現情報に基づいて、現場または模擬現場内の感覚情報の測定位置を表わすためのアイコンを表示部7に表示する。制御部6は、感覚再現情報に基づいて、アイコンとともに、感覚の種類、測定日時および測定時間のうちの少なくとも1つを表示部7に表示してもよい。
制御部6は、ユーザ入力部5を通じて遠隔の支援者がアイコンを選択すると、感覚再現情報を参照して、アイコンに対応する感覚情報の種類に応じた感覚再現装置3に感覚を再現させる。
図9は、感覚情報が再現される第1の例を表わす図である。
制御部6は、感覚再現情報に基づいて、現場を表す画像または動画像を表示部7に表示する。画像または動画像には、室内機が含まれる。制御部6は、感覚再現情報に基づいて、触覚の測定位置を表わすためのアイコンA1、A2を画像または動画像に重畳表示する。制御部6は、アイコンA1、A2とともに、感覚再現情報に基づいて、測定日時「17:27」、測定時間「30秒」を表示する。図9に示すように、アイコンA1とは別に、アイコンA1によって選択される位置を示すためのマークM1も表示し、アイコンA2とは別に、アイコンA2によって選択される位置を示すためのマークM2も表示することとしてもよい。
遠隔の支援者が、ユーザ入力部5であるグローブ型提示装置91を動かすことによって、ポインタPが移動する。グローブ型提示装置91の移動は、グローブ型提示装置91に取り付けられた位置センサ、またはグローブ型提示装置91を撮影する複数個のカメラによって検出することができる。遠隔の支援者がポインタPによってアイコンA1またはマークM1を選択すると、アイコンA1によって特定される感覚である触覚が感覚再現装置3であるグローブ型提示装置91によって再現される。遠隔の支援者がポインタPによってアイコンA2またはマークM2を選択すると、アイコンA2によって特定される感覚である触覚が感覚再現装置3であるグローブ型提示装置91によって再現される。
図10は、感覚情報が再現される第2の例を表わす図である。
制御部6は、感覚再現情報に基づいて、現場を模擬した模擬現場を表わす3次元仮想空間を表示部7であるヘッドマウントディスプレイ92に表示する。3次元仮想空間には室内機が含まれる。制御部6は、感覚再現情報に基づいて、触覚の測定位置を表わすためのアイコンA1、A2を3次元仮想空間に重畳表示する。制御部6は、アイコンA1、A2とともに、感覚再現情報に基づいて、測定日時「17:27」、測定時間「30秒」を表示する。図10に示すように、アイコンA1とは別に、アイコンA1によって選択される位置を示すためのマークM1も表示し、アイコンA2とは別に、アイコンA2によって選択される位置を示すためのマークM2も表示することとしてもよい。
遠隔の支援者が、ユーザ入力部5であるグローブ型提示装置91を動かすことによって、ポインタPが移動する。グローブ型提示装置91の移動は、グローブ型提示装置91に取り付けられた位置センサ、またはグローブ型提示装置91を撮影する複数個のカメラによって検出することができる。図10では、ポインタPは、グローブ型提示装置91を示す図形によって表されている。遠隔の支援者がポインタPによってアイコンA1またはマークM1を選択すると、アイコンA1によって特定される感覚である触覚が感覚再現装置3であるグローブ型提示装置91によって再現される。遠隔の支援者がポインタPによってアイコンA2またはマークM2を選択すると、アイコンA2によって特定される感覚である触覚が感覚再現装置3であるグローブ型提示装置91によって再現される。
図11は、感覚情報が再現される第3の例を表わす図である。
遠隔の支援者は、表示部7であるヘッドマウントディスプレイ92を通して、現場における設備である室内機と同一種類の室内機の実機または模型を直接視認することができる。制御部6は、感覚再現情報に基づいて、触覚の測定位置を表わすためのアイコンA1、A2を表示部7であるヘッドマウントディスプレイ92に表示する。制御部6は、アイコンA1、A2とともに、感覚再現情報に基づいて、測定日時「17:27」、測定時間「30秒」を表示する。図11に示すように、アイコンA1とは別に、アイコンA1によって選択される位置を示すためのマークM1も表示し、アイコンA2とは別に、アイコンA2によって選択される位置を示すためのマークM2も表示することとしてもよい。
遠隔の支援者が、ユーザ入力部5であるグローブ型提示装置91を動かすことによって、ポインタPが移動する。グローブ型提示装置91の移動は、グローブ型提示装置91に取り付けられた位置センサ、またはグローブ型提示装置91を撮影する複数個のカメラによって検出することができる。図11では、ポインタPは、グローブ型提示装置91を示す図形によって表されている。遠隔の支援者がポインタPによってアイコンA1またはマークM1を選択すると、アイコンA1によって特定される感覚である触覚が感覚再現装置3であるグローブ型提示装置91によって再現される。遠隔の支援者がポインタPによってアイコンA2またはマークM2を選択すると、アイコンA2によって特定される感覚である触覚が感覚再現装置3であるグローブ型提示装置91によって再現される。
図12は、実施の形態1の遠隔支援装置1の処理手順を表わすフローチャートである。
ステップS101において、取得部2は、現場における測定データを取得する。
ステップS102において、制御部6は、取得した測定データと、測定データに含まれる感覚情報を再現するためのデータとを含む感覚再現情報を生成して、感覚再現情報記憶部4に記憶する。
ステップS103において、制御部6は、感覚再現情報に画像データが含まれる場合に、現場または摸擬現場を表わす画像を表示部7に表示する。制御部6は、感覚再現情報に含まれるアイコンの位置に基づいて、現場または模擬現場内の感覚情報の測定位置を表わすためのアイコンを表示部7に表示する。
ステップS104において、ユーザ入力部5を通じて、遠隔の支援者がいずれかのアイコンを選択した場合に、処理がステップS105に進む。
ステップS105において、制御部6は、感覚再現情報を参照して、選択されたアイコンに対応する感覚情報を再現するための感覚再現装置3を特定する。制御部6は、選択されたアイコンに対応するデータファイルを特定した感覚再現装置3に送ることによって、特定した感覚再現装置3に感覚情報を再現させる。
以上のように、本実施の形態によれば、感覚がいつ(日時)、どこ(位置)で得られたどんな情報か(種類、測定時間)をわかり易く遠隔の支援者に伝える(表示、選択、再現)することができる。これによって、遠隔の支援者は、現場状況を容易に把握することができる。
特に、ビル設備に故障などの異常が生じた場合には、現場において得られた感覚情報を遠隔において再現することによって、遠隔の支援者は、異常の原因を特定して、現場の作業者に異常の原因およびその対策を知らせることができる。その結果、現場の作業者の作業を円滑に支援することができるとともに、ビル設備などの保守作業の品質を向上させることができる。
実施の形態2.
本実施の形態では、制御部6は、ユーザ入力部5を通じて遠隔の支援者が選択した日時において測定された感覚情報の所在を表わすアイコンを表示部7に表示する。
図13は、実施の形態2の遠隔支援装置1の処理手順を表わすフローチャートである。
ステップS201において、取得部2は、現場における測定データを複数個取得する。
ステップS202において、制御部6は、取得した測定データと、測定データに含まれる感覚情報を再現するためのデータとを含む感覚再現情報を複数個生成して、感覚再現情報記憶部4に記憶する。
ステップS203において、ユーザ入力部5を通じて、遠隔の支援者が測定日時を選択する。制御部6は、選択した測定日時を含む感覚再現情報を選択する。
ステップS204において、制御部6は、感覚再現情報に画像データが含まれる場合に、現場または摸擬現場を表わす画像を表示部7に表示する。制御部6は、選択した感覚再現情報に含まれるアイコンの位置に基づいて、現場または模擬現場内の感覚情報の測定位置を表わすためのアイコンを表示部7に表示する。
ステップS205において、ユーザ入力部5を通じて、遠隔の支援者がいずれかのアイコンを選択した場合に、処理がステップS206に進む。
ステップS206において、制御部6は、感覚再現情報を参照して、選択されたアイコンに対応する感覚情報を再現するための感覚再現装置3を特定する。制御部6は、選択されたアイコンに対応するデータファイルを特定した感覚再現装置に送ることによって、特定した感覚再現装置3に感覚情報を再現させる。
実施の形態3.
本実施の形態では、取得部2は、感覚情報が測定されたときの現場の作業を特定する情報を含む測定データを取得する。現場の作業を特定する情報は、たとえば、作業名である。制御部6は、ユーザ入力部5を通じて遠隔の支援者が選択した現場の作業において測定された感覚情報の所在を表わすアイコンを表示部7に表示する。
図14は、実施の形態3の感覚再現情報の例を表わす図である。
感覚再現情報は、作業名を含む。作業名は、感覚情報が測定されたとの現場の作業を特定するための名称である。図15は、作業名の例を表わす図である。作業名とは、たとえば、作業場所と作業内容によって特定される。
図16は、実施の形態3の遠隔支援装置1の処理手順を表わすフローチャートである。
ステップS301において、取得部2は、現場における測定データを複数個取得する。
ステップS302において、制御部6は、取得した測定データと、測定データに含まれる感覚情報を再現するためのデータとを含む感覚再現情報を複数個生成して、感覚再現情報記憶部4に記憶する。
ステップS303において、ユーザ入力部5を通じて、遠隔の支援者が作業名を選択する。制御部6は、選択した作業名を含む感覚再現情報を選択する。
ステップS304において、制御部6は、感覚再現情報に画像データが含まれる場合に、現場または摸擬現場を表わす画像を表示部7に表示する。制御部6は、感覚再現情報に含まれるアイコンの位置に基づいて、現場または模擬現場内の感覚情報の測定位置を表わすためのアイコンを表示部7に表示する。
ステップS305において、ユーザ入力部5を通じて、遠隔の支援者がいずれかのアイコンを選択した場合に、処理がステップS306に進む。
ステップS306において、制御部6は、感覚再現情報を参照して、選択されたアイコンに対応する感覚情報を再現するための感覚再現装置3を特定する。制御部6は、選択されたアイコンに対応するデータファイルを特定した感覚再現装置3に送ることによって、特定した感覚再現装置3に感覚情報を再現させる。
実施の形態4.
図17は、実施の形態4の遠隔支援装置1Aの構成を表わす図である。
実施の形態4の遠隔支援装置1Aが、実施の形態1の遠隔支援装置1と相違する点は、実施の形態4の遠隔支援装置1Aが、ユーザ位置および姿勢検出部9を備える点である。本実施の形態は、特にアイコンの背景に模擬現場を表わす3次元仮想空間が表示される場合、または遠隔の支援者がヘッドマウントディスプレイを通して実物を表わす実機または模型を直接視認し、ヘッドマウントディスプレイにアイコンが表示される場合に適用される。
ユーザ位置および姿勢検出部9は、遠隔の支援者の位置および姿勢を検出する。制御部6は、遠隔の支援者の位置または姿勢の変化に応じて、アイコンの位置または向きなどのアイコンの表示を変化させる。たとえば、遠隔の支援者がヘッドマウントディスプレイを通して実機または模型を直接視認している場合に、遠隔の支援者の位置または姿勢が変化すると、遠隔の支援者がヘッドマウントディスプレイを通して直接視認する実機または模型の位置が変化する。制御部6は、ヘッドマウントディスプレイを通して直接視認する実機または模型の位置の変化に追従してアイコンの位置または向きを変化させる。
遠隔の支援者がヘッドマウントディスプレイを通して3次元仮想空間を視認している場合に、遠隔の支援者の位置または姿勢が変化すると、遠隔の支援者がヘッドマウントディスプレイを通して視認する3次元仮想空間の位置が変化する。制御部6は、ヘッドマウントディスプレイを通して視認する3次元仮想空間の位置の変化に追従してアイコンの位置または向きを変化させる。
また、遠隔の支援者の位置または姿勢が変化した場合、音または匂いの発生方向の再現も変化させる必要がある。制御部6は、感覚再現部8に、遠隔の支援者の位置および姿勢に基づいて、感覚情報を再現させることとしてもよい。
図18は、実施の形態4の遠隔支援装置1Aの処理手順を表わすフローチャートである。
ステップS101において、取得部2は、現場における測定データを取得する。
ステップS102において、制御部6は、取得した測定データと、測定データに含まれる感覚情報を再現するためのデータとを含む感覚再現情報を生成して、感覚再現情報記憶部4に記憶する。
ステップS103において、制御部6は、感覚再現情報に画像データが含まれる場合に、現場または摸擬現場を表わす画像を表示部7に表示する。制御部6は、感覚再現情報に含まれるアイコンの位置に基づいて、現場または模擬現場内の感覚情報の測定位置を表わすためのアイコンを表示部7に表示する。
ステップS401において、ユーザ位置および姿勢検出部9が、遠隔の支援者の位置または姿勢の変化を検出したときに、処理がステップS402に進む。
ステップS402において、制御部6は、遠隔の支援者の位置または姿勢の変化に応じて、アイコンの表示を変化させる。
ステップS104において、ユーザ入力部5を通じて、遠隔の支援者がアイコンを選択した場合に、処理がステップS403に進む。
ステップS403において、制御部6は、感覚再現情報を参照して、選択されたアイコンに対応する感覚情報を再現するための感覚再現装置3を特定する。制御部6は、選択されたアイコンに対応するデータファイルを特定した感覚再現装置3に送る。制御部6は、感覚再現部8に、遠隔の支援者の位置および姿勢に応じて、感覚情報を再現させる。
図19は、遠隔支援装置の一部または全部をソフトウェアを用いて実現する場合の構成を示す図である。遠隔支援装置は、バス1003に接続されたプロセッサ1001およびメモリ1002を備える。メモリ1002に記憶されたプログラムをプロセッサ1001が実行する。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本開示の範囲は、上記した説明ではなくて請求の範囲によって示され、請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
1,1A 遠隔支援装置、2 取得部、3 感覚再現装置、4 感覚再現情報記憶部、5 ユーザ入力部、6 制御部、7 表示部、8 感覚再現部、9 姿勢検出部、91 グローブ型提示装置、92 ヘッドマウントディスプレイ、100 振動センサ、101 マイク、102 臭気センサ、151a,151b カメラ、1001 プロセッサ、1002 メモリ、1003 バス。

Claims (10)

  1. 現場において測定された感覚情報と、前記感覚情報の測定位置とを取得する取得部と、
    支援者の入力を受け付けるユーザ入力部と、
    表示部と、
    前記感覚情報を再現する感覚再現部と、
    前記取得した測定位置に基づいて、前記現場または前記現場を模擬した模擬現場内の感覚情報の測定位置を表わすためのアイコンを前記表示部に表示し、前記ユーザ入力部を通じて前記支援者が前記アイコンを選択したことにより、前記感覚再現部に前記感覚情報を再現させる制御部と、を備え
    前記取得部は、さらに前記感覚情報が測定された日時および測定時間を取得し、
    前記制御部は、前記アイコンとともに前記日時および前記測定時間を前記表示部に表示し、
    前記制御部は、前記ユーザ入力部を通じて前記支援者が選択した日時において測定された感覚情報の所在を表わすアイコンを前記表示部に表示する、遠隔支援装置。
  2. 前記制御部は、前記現場を表わす画像に前記アイコンを重畳表示する、請求項1記載の遠隔支援装置。
  3. 前記制御部は、前記現場を模擬した3次元仮想空間に前記アイコンを重畳表示する、請求項1記載の遠隔支援装置。
  4. 前記表示部は、ヘッドマウントデバイスであり、
    前記制御部は、前記現場における設備と同一の種類の実物または模型を直接視認することが可能なヘッドマウントディスプレイに前記アイコンを表示する、請求項1記載の遠隔支援装置。
  5. 前記感覚情報は、触覚情報であり、
    前記ユーザ入力部および前記感覚再現部は、グローブ型提示装置であって、
    前記制御部は、前記支援者が前記グローブ型提示装置を通じて前記アイコンを選択することによって、前記グローブ型提示装置に前記触覚情報を再現させる、請求項4記載の遠隔支援装置。
  6. 前記取得部は、さらに前記感覚情報の種類を取得し、
    前記感覚再現部は、各々が、対応する種類の感覚情報を再現する複数個の感覚再現装置を備え、
    前記制御部は、前記選択されたアイコンに対応する感覚情報の種類に応じた前記感覚再現装置に前記感覚情報を再現させる、請求項1~のいずれか1項に記載の遠隔支援装置。
  7. 前記取得部は、さらに前記感覚情報が測定されたときの現場の作業を特定する情報を取得し、
    前記制御部は、前記ユーザ入力部を通じて前記支援者が選択した現場の作業において測定された感覚情報の所在を表わすアイコンを前記表示部に表示する、請求項1~5のいずれか1項に記載の遠隔支援装置。
  8. 前記取得部は、さらに前記感覚情報の発生方向を取得し、
    前記制御部は、前記感覚情報の発生方向に基づいて、前記感覚再現部を制御する、請求項1~のいずれか1項に記載の遠隔支援装置。
  9. 前記支援者の位置および姿勢を検出する検出部と、
    前記制御部は、前記支援者の位置または姿勢の変化に応じて、アイコンの表示を変化させる、請求項記載の遠隔支援装置。
  10. 前記制御部は、前記感覚再現部に、前記位置および姿勢に基づいて、前記感覚情報を再現させる、請求項記載の遠隔支援装置。
JP2023531298A 2021-07-01 2021-07-01 遠隔支援装置および遠隔支援方法 Active JP7317271B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/024986 WO2023276116A1 (ja) 2021-07-01 2021-07-01 遠隔支援装置および遠隔支援方法

Publications (3)

Publication Number Publication Date
JPWO2023276116A1 JPWO2023276116A1 (ja) 2023-01-05
JP7317271B2 true JP7317271B2 (ja) 2023-07-28
JPWO2023276116A5 JPWO2023276116A5 (ja) 2023-07-28

Family

ID=84692571

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023531298A Active JP7317271B2 (ja) 2021-07-01 2021-07-01 遠隔支援装置および遠隔支援方法

Country Status (3)

Country Link
JP (1) JP7317271B2 (ja)
TW (1) TW202303352A (ja)
WO (1) WO2023276116A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016110383A (ja) 2014-12-05 2016-06-20 コニカミノルタ株式会社 触覚伝達装置
WO2018150831A1 (ja) 2017-02-16 2018-08-23 ソニー株式会社 情報処理装置、情報処理方法及び記録媒体
JP2019160036A (ja) 2018-03-15 2019-09-19 東京瓦斯株式会社 触感情報システム、触感情報処理装置およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016110383A (ja) 2014-12-05 2016-06-20 コニカミノルタ株式会社 触覚伝達装置
WO2018150831A1 (ja) 2017-02-16 2018-08-23 ソニー株式会社 情報処理装置、情報処理方法及び記録媒体
JP2019160036A (ja) 2018-03-15 2019-09-19 東京瓦斯株式会社 触感情報システム、触感情報処理装置およびプログラム

Also Published As

Publication number Publication date
JPWO2023276116A1 (ja) 2023-01-05
WO2023276116A1 (ja) 2023-01-05
TW202303352A (zh) 2023-01-16

Similar Documents

Publication Publication Date Title
US20190355177A1 (en) Building system maintenance using mixed reality
US9829873B2 (en) Method and data presenting device for assisting a remote user to provide instructions
US7728853B2 (en) Systems and methods for changing view perspective in 3-D graphical displays of buildings with stepped rotation
CN111183401B (zh) 监视系统及监视方法
JP2018073377A (ja) 3d情報モデルを基礎とした総合感知位置決め技術の応用システム
US20200005540A1 (en) Systems, methods, and apparatus for managing augmented reality environments
JPWO2017169276A1 (ja) プラント管理システム、プラント管理方法、プラント管理装置、および、プラント管理プログラム
US9472119B2 (en) Computer-implemented operator training system and method of controlling the system
JP2013097810A (ja) 緊急指令システム及びその方法
WO2018194137A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US11282286B1 (en) Systems and methods for employing augmented reality in appraisal and assessment operations
JP5013398B2 (ja) 複合現実感システムとそのイベント入力方法
JP2019188531A (ja) ロボットのシミュレーション装置
US20210201273A1 (en) Ductwork and fire suppression system visualization
JP2009194597A (ja) 送受信システム、送信装置、送信方法、受信装置、受信方法、提示装置、提示方法、プログラム、及び記録媒体
JP7317271B2 (ja) 遠隔支援装置および遠隔支援方法
JP2004240264A (ja) 体感型訓練システム
WO2023238759A1 (ja) 情報処理方法、情報処理装置、及び情報処理プログラム
JP2021152625A (ja) 防災設備シミュレーションシステム
US20230130815A1 (en) Image processing apparatus, image processing method, and program
WO2023224033A1 (ja) 情報処理方法、情報処理装置、及び情報処理プログラム
JP7489019B2 (ja) 情報処理装置および情報処理方法
WO2024166580A1 (ja) 状況把握支援装置、状況把握支援方法、及びコンピュータ読み取り可能な記憶媒体
JP2003159673A (ja) バーチャル空間提供システム、バーチャル空間提供方法、および、バーチャル空間提供プログラム
JP3279627B2 (ja) 監視情報提示装置および方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230606

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230606

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230606

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230718

R150 Certificate of patent or registration of utility model

Ref document number: 7317271

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150