JP2023021806A - 支援システム、支援側装置、支援方法、およびプログラム - Google Patents

支援システム、支援側装置、支援方法、およびプログラム Download PDF

Info

Publication number
JP2023021806A
JP2023021806A JP2021126900A JP2021126900A JP2023021806A JP 2023021806 A JP2023021806 A JP 2023021806A JP 2021126900 A JP2021126900 A JP 2021126900A JP 2021126900 A JP2021126900 A JP 2021126900A JP 2023021806 A JP2023021806 A JP 2023021806A
Authority
JP
Japan
Prior art keywords
support
image
unit
virtual model
equipment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021126900A
Other languages
English (en)
Inventor
武志 城戸
Takeshi Kido
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Electric Co Ltd
Original Assignee
Fuji Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Electric Co Ltd filed Critical Fuji Electric Co Ltd
Priority to JP2021126900A priority Critical patent/JP2023021806A/ja
Publication of JP2023021806A publication Critical patent/JP2023021806A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

Figure 2023021806000001
【課題】遠隔支援システムにおいて、設備の操作を伴う作業内容を効率的に伝える。
【解決手段】設備を模した仮想モデルを表示する支援側表示部と、仮想モデルに対する支援者の身体動作を検出する検出部と、仮想モデルに対する身体動作の情報を送信する送信部と、を有する支援側装置と、受信した身体動作の情報に基づいて身体動作を示す仮想化された画像を表示する作業側表示部を備える作業側装置と、を備える支援システムを提供する。支援者の身体動作を仮想化して送信することで設備の操作を伴う作業内容を効率的に伝えることができる
【選択図】図2

Description

本発明は、支援システム、支援側装置、支援方法、およびプログラムに関する。
作業者が観察している映像を遠隔地にいる支援者へ伝送するとともに、支援者が、この映像を観察しながら、スライタスを用いて作業者に指示を与える支援システムが知られている(例えば、特許文献1参照)。また、関連する技術として特許文献2がある。
特許文献1 特開2006-209664号公報
特許文献2 特開2012-18605号公報
支援システムにおいては、設備の操作を伴う作業内容を伝えることができることが望ましい。スライタスを支援者側と作業者側とで共有するだけでは、設備の操作を伴う作業内容を伝えることが難しい。
上記課題を解決するために、本発明の第1の態様においては、支援側装置と作業側装置を備える支援システムを提供する。支援側装置は、支援側表示部を備えてよい。支援側表示部は、設備を模した仮想モデルを表示してよい。支援側装置は、検出部を備えてよい。検出部は、仮想モデルに対する支援者の身体動作を検出してよい。支援側装置は、送信部を備えてよい。送信部は、仮想モデルに対する身体動作の情報を送信してよい。作業側装置は、作業側表示部を備えてよい。作業側装置は、受信した身体動作の情報に基づいて身体動作を示す仮想化された画像を表示してよい。
検出部によって検出される身体動作は、三次元空間における支援者の身体の少なくとも一部についての位置情報を含んでよい。
設備において予め定められた位置に基準点マーカーが設けられてよい。仮想モデルは、基準点マーカーに対応する位置に設けられた基準点と、基準点に基づく三次元座標である基準座標とに対応づけられてよい。検出部によって検出される身体動作は、基準座標における、支援者の身体の少なくとも一部についての位置情報を含んでよい。作業側装置は、マーカー検出部を備えてよい。マーカー検出部は、設備における基準点マーカーを検出してよい。作業側装置は、調整部を備えてよい。調整部は、設備の画像に対して仮想化された画像を合成する位置を、基準点マーカーの検出結果と、受信した身体動作の情報に含まれる位置情報とに基づいて調整してよい。
支援側装置は、選択部を更に備えてよい。選択部は、複数の仮想モデルの中から設備に対応する仮想モデルを選択してよい。
選択部は、支援者の指示に基づいて複数の仮想モデルの中から設備に対応した仮想モデルを選択してよい。
設備には、設備を識別するための識別画像が表示されていてよい。作業側装置は、読取部を備えてよい。読取部は、識別画像を読み取ってよい。作業側装置は、識別情報送信部をさらに備えてよい。識別情報送信部は、読取部によって識別画像を読み取って得られた識別情報を支援側装置に送信してよい。選択部は、作業側装置から受信した識別情報によって複数の仮想モデルの中から設備に対応する仮想モデルを選択してよい。
作業側装置は、撮像部をさらに備えてよい。撮像部は、設備を撮像して設備画像を得てよい。作業側装置は、設備画像送信部をさらに備えてよい。設備画像送信部は、設備画像を支援側装置に送信してよい。支援側装置は、モデル生成部を備えてよい。モデル生成部は、作業側装置から受信した設備画像に基づいて仮想モデルを生成してよい。
作業側装置は、撮像部をさらに備えてよい。撮像部は、設備を撮像して設備画像を得てよい。作業側装置は、補正用情報生成部をさらに備えてよい。補正用情報生成部は、設備画像に基づいて補正用情報を生成してよい。作業側装置は、補正用情報送信部をさらに備えてよい。補正用情報送信部は、補正用情報を支援側装置に送信してよい。支援側装置は、モデル補正部を備えてよい。モデル補正部は、作業側装置から受信した補正用情報に基づいて仮想モデルを補正してよい。補正用情報生成部は、支援側装置から受信した仮想モデルと設備画像とを比較して補正用情報を生成してよい。
本発明の第2の態様においては、支援側装置と、支援側装置と通信可能な作業側装置とにより作業を支援する支援方法を提供する。支援方法は、支援側装置において、設備を模した仮想モデルを表示する段階を備えてよい。支援方法は、支援側装置において、仮想モデルに応じた支援者の身体動作を検出する段階を備えてよい。支援方法は、支援側装置において、仮想モデルに対する支援者の身体動作の情報を送信する段階を備えてよい。支援方法は、身体動作の情報を作業側装置が受信する段階を備えてよい。支援方法は、作業側装置において、受信した身体動作の情報に基づいて身体動作を示す仮想化された画像を表示する段階を備えてよい。
本発明の第3の態様においては、支援側装置を提供する。支援側装置は、設備が設けられた作業現場における作業側装置との間でネットワークを介して通信可能に接続されてよい。支援側装置は、支援側表示部を備えてよい。支援側表示部は、設備を模した仮想モデルを表示してよい。支援側装置は、検出部を備えてよい。検出部は、仮想モデルに応じた支援者の身体動作を検出してよい。支援側装置は、送信部を備えてよい。送信部は、仮想モデルに対する支援者の身体動作の情報を作業側装置に送信してよい。
本発明の第4の態様においては、コンピュータを上記の支援側装置として機能させるためのプログラムを提供する。
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
本発明の第1実施形態における遠隔支援システム1の概要を示す図である。 本発明の第1実施形態における遠隔支援システム1の一例を示す図である。 支援側装置における仮想モデル7の一例を示す模式図である。 作業側装置における合成画像10の一例を示す模式図である。 支援者の動作を表現する姿勢データの一例を示す図である。 支援者の動作を表現する点群データの一例を示す図である。 第1実施形態の遠隔支援方法における支援側装置の処理内容の一例を示すフローチャートである。 図7のステップS50における処理内容の一例を示すフローチャートである。 第1実施形態の遠隔支援方法における作業側装置の処理内容の一例を示すフローチャートである。 図9のステップS80における処理内容の一例を示すフローチャートである。 本発明の第1実施形態における遠隔支援システム1の他の例を示す図である。 本発明の第2実施形態における支援側装置における仮想モデル7の一例を示す模式図である。 本発明の第2実施形態における作業側装置における合成画像80の一例を示す模式図である。 本発明の第2実施形態における遠隔支援システム1の一例を示す図である。 本発明の第2実施形態における遠隔支援システム1の他の例を示す図である。 第2実施形態の遠隔支援方法における支援側装置の処理内容の一例を示すフローチャートである。 図16のステップS160における処理内容の一例を示すフローチャートである。 第2実施形態の遠隔支援方法における作業側装置の処理内容の一例を示すフローチャートである。 図18のステップS310における処理内容の一例を示すフローチャートである。 本発明の第3実施形態における作業側装置における合成画像90の一例を示す模式図である。 本発明の複数の態様が全体的または部分的に具現化されてよいコンピュータ2200の例を示す。
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
図1は、本発明の第1実施形態における遠隔支援システム1の概要を示す図である。遠隔支援システム1は、支援側装置2および作業側装置3を備える。支援側装置2および作業側装置3は通信ネットワーク4を介して互いに通信可能に接続されている。一例において、支援側装置2は、ヘッドマウントディスプレイ(HMD)方式の仮想現実ウェアラブルコンピュータ端末である。支援側装置2は、設備5を模した仮想モデル7を支援者に表示する。仮想モデル7は、3Dホログラム画像であってよい。
支援者は、仮想モデル7を見ながら、実際に指および手等を動作させて仮想空間において操作して、作業者に対して手本を見せる。支援側装置2は、モーションキャプチャ技術によって、仮想モデル7に対する支援者の身体動作を検出する。そして、支援側装置2は、通信ネットワーク4を介して、仮想モデル7に対する身体動作の情報を作業側装置3に送信する。
作業側装置3は、受信した身体動作の情報に基づいて身体動作を示す仮想化された画像である身体動作画像を表示する。身体動作画像は、支援者の指や手等の動きを仮想化して再現した動画であってよい。一例において、作業側装置3は、ヘッドマウントディスプレイ(HMD)方式の拡張現実ウェアラブルコンピュータ端末である。作業者は、作業側装置3に表示された画像等によって支援をうけて、設備5に対する操作を実行する。
設備5において予め定められた位置PM0に基準点マーカー6が設けられてよい。基準点マーカー6の位置PM0に基づいて、マーカー座標(X、Y、Z)が設定されていてよい。仮想モデル7には、基準点マーカー6の位置PM0に対応する位置Pに基準点8が設けられてよい。また、仮想モデル7において、基準点Pにおける三次元座標である基準座標(X、Y、Z)が設けられてよい。検出される身体動作は、基準座標(X、Y、Z)に対する、支援者の身体の少なくとも一部についての位置情報を含んでよい。本例では、支援側装置2の座標において、支援者から仮想モデル7に向かう方向をZ軸方向とし、Z軸方向に対して垂直な面をXY平面とする。XY平面内において、X軸方向とY軸方向とは互いに直交する方向とする。同様に、作業側装置3の座標において、作業者から設備に向かう方向をZ軸方向とし、Z軸方向に対して垂直な面をXY平面とする。XY平面内において、X軸方向とY軸方向とは互いに直交する方向とする。
図2は、本発明の第1実施形態における遠隔支援システム1の一例を示す図である。本例の支援側装置2は、通信制御部101、検出部102、および支援側表示部103を備える。支援側表示部103は、設備5を模した仮想モデル7を表示する。支援側表示部103は、ホログラフィックレンズディスプレイを有してよい。検出部102は、仮想モデル7に対する支援者の身体動作を検出する。検出部102は、モーションキャプチャデバイス106から支援者の動作を示すモーションキャプチャデータを取り込む。通信制御部101は、仮想モデル7(設備モデル)に対する身体動作の情報を送信する送信部として機能する。この結果、支援側装置2は、仮想空間内において、設備5を模した仮想モデル7に対する支援者の相対的な動きを検出して、作業側装置3に送ることができる。
本例の支援側装置2は、仮想モデル格納部104、選択部105、画面制御部110、センサ112、マイク114、スピーカ116、および音声制御部118を備えてよい。仮想モデル格納部104は、仮想モデル7の情報について予め格納しているデータベースである。仮想モデル格納部104には、複数種類の設備5に応じて複数種類の仮想モデル7が格納されてよい。但し、仮想モデル格納部104は、支援側装置2に含まれていなくてもよい。この場合、外部から仮想モデル7がダウンロードされる。選択部105は、複数の仮想モデルの中から設備5に対応する仮想モデル7を選択する。選択部105は、支援者の指示に基づいて複数の仮想モデルの中から設備5に対応する仮想モデル7を選択してもよい。これに代えて、選択部105は、作業側装置3から受信した識別情報によって複数の仮想モデルの中から設備5に対応する仮想モデル7を選択してもよい。
画面制御部110は、3Dホログラム画である仮想モデル7とモーションキャプチャデータとを統合することによって、仮想現実を実現してよい。画面制御部110は、ホログラム画像と、撮像部およびトラッキング用可視光カメラによって認識された物理環境とを結合させてよい。画面制御部110は、センサ112から慣性計測情報を受け取り、環境を認識する撮像部およびトラッキング用可視光カメラからのデータと組み合わせて、透明レンズであるホログラフィックレンズディスプレイである支援側表示部103にホログラム画像を表示してよい。マイク114、スピーカ116、および音声制御部118は、作業側装置3との間において、支援者と作業者との会話を可能とする。
センサ112は、深度センサ(距離センサ)、撮像部(カメラ)、および慣性計測部、複数のトラッキング用可視光カメラ、および環境認識部を備えてよい。トラッキング用可視光カメラは、頭の動きを感知する。視線計測(アイ トラッキング)用の2台の赤外光カメラは、眼球の動きを感知する。深度センサは、光源から物体にレーザを照射し、その反射光を計測することで、物体までの距離や形状等を算出する。慣性計測部は、加速度計、ジャイロスコープ、および磁力計を備えてよい。慣性計測部は、3次元の慣性運動(直行3軸方向の並進運動および回転運動)を検出する。加速度計により並進運動を検出し、ジャイロスコープにより回転運動を検出してよい。
作業側装置3は、通信制御部201および作業側表示部202を備える、作業側装置3は、撮像部204、画面制御部210、センサ212、マイク214、スピーカ216、および音声制御部218を備えてよい。
通信制御部201は、支援側装置2から身体動作の情報を受信する受信部として機能する。作業側表示部202は、受信した身体動作の情報に基づいて身体動作を示す仮想化された画像(身体動作画像)を表示する。特に、作業側表示部202は、身体動作画像を、設備5を撮影して得られた設備画像に重畳して表示してよい。撮像部204は、カメラであってよい。撮像部204は、設備5を撮像することによって設備画像を生成してよい。設備画像には、設備5のみならず、設備5の周辺環境の背景画像を含んでいてもよい。
センサ212は、上述したセンサ112と同様であってよい。センサ212は、深度センサ(距離センサ)、慣性計測部、複数のトラッキング用可視光カメラ、および環境認識部を備えてよい。トラッキング用可視光カメラは、頭の動きを感知する。視線計測(アイ トラッキング)用の2台の赤外光カメラは、眼球の動きを感知する。深度センサは、光源から物体にレーザを照射し、その反射光を計測することで、物体までの距離や形状等を算出する。慣性計測部は、加速度計、ジャイロスコープ、および磁力計を備えてよい。慣性計測部は、3次元の慣性運動(直行3軸方向の並進運動および回転運動)を検出する。加速度計により並進運動を検出し、ジャイロスコープにより回転運動を検出してよい。
マイク214、スピーカ216、および音声制御部218は、支援側装置2との間において、支援者と作業者との会話を可能とする。画面制御部210は、マーカー検出部241、調整部242、読取部243等の各機能を有する。これらの機能については後述する。
図3は、支援側装置2における仮想モデル7の一例を示す模式図である。図4は、作業側装置3における合成画像10の一例を示す模式図である。なお、図3および図4には、説明のための各座標が表示されている。実際の仮想モデル7および合成画像10には、座標は表示されなくてよい。
図4における合成画像10は、撮像部204によって設備5を撮像して得られた設備画像11と、身体動作を示す仮想化された画像である身体動作画像12とを重ねあわして合成した画像であってよい。図4に示されているとおり、設備5においては、予め定められた位置PM0に基準点マーカー6が設けられている。基準点マーカー6は、設備5を識別するための識別画像9を有してよい。識別画像9は、一例において、バーコード画像であってよい。図4の場合と異なり、基準点マーカー6と識別画像9とは別々に設けられてよい。図4に示される例では、身体動作画像12は、支援者の手および指の動きを仮想化した画像である。
図2に示される画面制御部210は、設備5における基準点マーカー6を検出するマーカー検出部241として機能してよい。また、画面制御部210は、調整部242として機能してよい。調整部242は、設備画像11に対して身体動作画像12を合成する位置を、基準点マーカー6の検出結果と、受信した身体動作の情報に含まれる位置情報とに基づいて調整してよい。画面制御部210は、識別画像9を読み取る読取部243として機能してもよい。この場合、通信制御部201は、読取部243によって識別画像9を読み取って得られた識別情報を支援側装置2に送信する識別情報送信部としても機能する。支援側装置2における選択部105は、作業側装置3から受信した識別情報によって複数の仮想モデルの中から設備5に対応する仮想モデル7を選択する。
検出部102によって検出される身体動作の情報は、三次元空間における支援者の身体の少なくとも一部についての位置情報を含んでよい。位置情報には、図3に示される身体動作点座標値(XRi、YRi、ZRi)を含んでよい。身体動作点座標値(XRi、YRi、ZRi)は、基準座標(X、Y、Z)において、基準点(X、Y、Z)を基準としたときの身体における各身体動作点24の座標(X、Y、Z)を意味する。なお、図3および図4においては、紙面に垂直な方向がZ軸方向である。身体動作座標値(XRi、YRi、ZRi)は、XRi=X―X、YRi=Yi―Y、ZRi=Zi―Zで表される。
画面制御部210は、設備画像11に対して身体動作画像12を合成する位置を、基準点マーカー6の検出結果(マーカー座標X、Y、Z)と、受信した身体動作の情報に含まれる身体動作点24の座標値(XRi、YRi、ZRi)とに基づいて、身体動作画像12を合成する位置(X+XRi、Y+YRi、Z+ZRi)を調整してよい。
図5は、支援者の動作を表現する姿勢データの一例を示す図である。図6は、支援者の動作を表現する点群データの一例を示す図である。モーションキャプチャ技術によって、作業者の動作を読み取って得られたモーションキャプチャデータは、図5に示されるように姿勢データであってもよく、図6に示されるような点群データであってもよい。
姿勢データは、手の指の関節など動作の基本要素となる部分(図中、黒丸で表示)の位置の認識結果に基づいて動作を表現する。姿勢データは、基本要素となる複数の部分の各位置の3次元座標によって表現されてよい。動作の基本要素となる点を身体動作点24と呼ぶ。位置情報は、身体動作点24(n個)の各位置の身体動作座標値(XRi、YRi、ZRi)(i=1、2、3・・・n)で表されてよい。
図6に示されるような点群データは、複数の抽出点(図中の点で表示)の挙動を示す。したがって、各抽出点を身体動作点24としてよい。点群データは、抽出点の身体動作座標値(XRi、YRi、ZRi)(i=1、2、3・・・N)で位置情報が表現されてよい。
図7は、第1実施形態の遠隔支援方法における支援側装置2の処理内容の一例を示すフローチャートである。遠隔支援方法は、支援側装置2と作業側装置3とにより作業を支援する。選択部105は、支援者の指示に基づいて現場作業者を選択する(ステップS10)。支援者は、ポインティングデバイス等により現場作業者を指示することができる。音声制御部118は、選択された現場作業者と支援者との間で音声通話を開始する(ステップS20)。選択部105は、仮想モデル格納部104に格納されている複数の仮想モデルの中から、支援対象の設備5に対応する仮想モデル7を選択する(ステップS30)。
選択部105は、支援者の指示に基づいて仮想モデルを選択してもよい。選択部105は、ポインティングデバイス等からの信号に基づいて仮想モデルを指示することができる。選択部105は、作業側装置3から受信した識別情報によって複数の仮想モデルの中から設備に対応する仮想モデル7を選択してもよい。
支援側表示部103は、設備5を模した仮想モデル7を表示する(ステップS40)。支援者は表示された仮想モデル7を用いて仮想空間において操作する。検出部102は、仮想モデル7に対する支援者の身体動作を検出し、検出された身体動作の情報を作業側装置3に送信する(ステップS50)。音声制御部118は、音声通話を終了する(ステップS60)。なお、音声通話によって設備の識別情報が作業者から支援者に伝えられてもよい。但し、音声通話の処理(ステップS20およびステップS60)および現場作業者の選択処理(ステップS10)は省略されてもよい。
図8は、図7のステップS50における処理内容の一例を示すフローチャートである。通信制御部101は、開始コードを送信する(ステップS51)。開始コードは、処理の開始を示す情報である。操作が終了するまでの間(ステップS52:NO)、送信周期に到達するごとに(ステップS53:YES)、身体動作点24の総数(n)を取得する(ステップS54)。初期値として、i=nとする。次に、i=0でない限り(ステップS55:NO)、検出部102は、モーションキャプチャデータを用いて一つの身体動作点24(X、Y、Z)における身体動作座標(XRi=X―X、YRi=Yi―Y、ZRi=Zi―Z)を取得する(ステップS56)。検出部102は、i=i-1とする(ステップS57)。iは初期値nから、n-1にデクリメントされる。i=0となるまでの間(ステップS55:NO)、検出部102は、ステップS55からステップS57の処理を繰り返す。
ステップS54から57の結果、検出部102は、i=1、2、・・・nの身体動作点24のそれぞれについて、モーションキャプチャデータに基づいて身体動作座標(XRi=X―X、YRi=Yi―Y、ZRi=Zi―Z)を取得することができる。i=0となると(ステップS55:YES)、身体動作点の数(n個)のすべてについて、身体動作座標を取得し終わる。通信制御部101は、身体動作点24の総数(n個)の情報と、身体動作座標(XRi=X―X、YRi=Yi―Y、ZRi=Zi―Z)の情報を、位置情報として送信する(ステップS58)。
操作終了の指示がされると(ステップS52:YES)、通信制御部101は、作業側装置3に対して終了コードを送信する(ステップS59)。そして、処理はリターンする。
図9は、第1実施形態の遠隔支援方法における作業側装置3の処理内容の一例を示すフローチャートである。音声制御部218は、支援者と作業者との間で音声通話を開始する(ステップS70)。通信制御部201は、支援側装置2から身体動作の情報を受信し、作業側表示部202は、受信した身体動作の情報に基づいて身体動作を示す仮想化された画像である身体動作画像を表示する(ステップS80)。支援処理が完了すると、音声制御部218は、音声通話を終了する(ステップS90)。
図10は、図9のステップS80における処理内容の一例を示すフローチャートである。通信制御部201は、支援側装置2から各種の情報を受信する受信部として機能する。通信制御部201は、支援側装置2から開始コードを受信すると(ステップS101:YES)、撮像部204を起動する(ステップS102)。撮像部204は、設備5を含む周辺環境の画像を撮影して画像データを生成する。画面制御部210は、生成された画像データを設備画像11として取得する。
通信制御部201が終了コードを受信した場合(ステップS103:Yes)、支援処理が終了したものとして、撮像部204を停止する(ステップS104)。そして、処理がリターンする。通信制御部201が終了コードを受信するまでの間は(ステップS103:NO)、通信制御部201が身体動作の情報を受信すると(ステップ105:YES)、画面制御部210は、身体動作点24の総数(n)および身体動作点24(i=1、2、・・・n)ごとの身体動作座標(XRi=X―X、YRi=Yi―Y、ZRi=Zi―Z)を取得する(ステップS106)。初期値としてi=nとしてよい。
そして、画面制御部210は、基準点マーカー6を検出するマーカー検出部241としても機能する。画面制御部210は、基準点マーカー6の検出結果として、基準点マーカー6の位置を示すマーカー座標(X、Y、Z)を取得する(ステップS107)。次に、i=0でない限り(ステップS108:NO)、画面制御部210は、身体動作の情報に基づいて身体動作画像12を描画する。画面制御部210は、設備画像11と身体動作画像12を重ね合わせて合成した合成画像10を生成する。作業側表示部202は、合成画像12を表示する(ステップS109)。画面制御部210は、基準点マーカーの検出結果であるマーカー座標(X、Y、Z)と、受信された位置情報に含まれる身体動作座標(XRi=X―X、YRi=Yi―Y、ZRi=Zi―Z)とによって、設備画像11に対して身体動作画像12を合成する位置を(X+XRi、Y+YRi、Z+ZRi)に調整する。
次いで、画面制御部210は、i=i-1とする(ステップS110)。iは初期値nから、n-1にデクリメントされる。i=0となるまでの間(ステップS108:NO)、検出部102は、ステップS109およびS110の処理を繰り返す。この結果、画面制御部210は、i=1、2、・・・nの身体動作点24のそれぞれについて、仮想化された身体動作画像12を設備画像11に対して重ねわせて表示することができる。
図11は、本発明の第1実施形態における遠隔支援システム1の他の例を示す図である図11における遠隔支援システム1において、作業側装置3は、補正用情報生成部220を備える。また、作業側装置3において、通信制御部201は、設備を撮像して得られた設備画像11を支援側装置2に送信する設備画像送信部として機能してよい。また、これに代えて、通信制御部201は、補正用情報生成部220によって生成された補正用情報を支援側装置2に送信する補正用情報送信部として機能してよい。補正用情報生成部220は、設備画像11に基づいて補正用情報を生成してよい。一例において、作業側装置3は、通信制御部201を通じて、支援側装置2から仮想モデル7を受信する。補正用情報生成部220が仮想モデル7と設備画像11とを比較して、補正用情報を作成してもよい。また、補正用情報は、解像度を低くしてデータ量を削減した設備画像11であってもよい。
支援側装置2は、モデル生成部120を備えてよい。モデル生成部120は、作業側装置3から受信した設備画像11に基づいて仮想モデル7を生成する。モデル生成部120は、作業側装置3において撮影された画像に基づいて設備5の動的な状態を検出することができる。モデル生成部120は、設備5の動的な状態に応じて、設備を模した仮想モデルを生成することができる。
支援側装置2は、モデル補正部122を備えてよい。モデル補正部122は、作業側装置3から受信した補正用情報に基づいて仮想モデル7を補正してよい。一例において、補正用情報は、設備5についての画質の粗い二次元画像であってよい。一例において、仮想モデル7には、各部分の取り得る状態が設定されている。モデル生成部120は、補正用情報に基づいて、設備5の各部分の状態を検出し、検出結果に基づいて、各部分の状態を変化させることに仮想モデル7を補正してよい。
本発明の第1実施形態の遠隔支援システム1によれば、スライタス等を仮想化して利用する場合に比べて、支援者の身体動作を仮想化して利用するので、直感的に操作内容を伝えることが可能となる。したがって、現場の作業者および作業の支援者の作業効率を向上することができる。また、単なるクロマキー合成に比べて、支援者を特定色の背景に立たせて動作させる必要もない。
図12は、本発明の第2実施形態における支援側装置2における仮想モデル7の一例を示す模式図である。図13は、本発明の第2実施形態における作業側装置3における合成画像80の一例を示す模式図である。
図12に示されるとおり、本実施形態において仮想モデル7は、取っ手25が設けられた扉を含んでよい。仮想モデル7は、複数の操作部位、すなわち、操作部位21および操作部位22を含んでいる。支援者は、仮想空間において、操作部位22を指定することによって、操作部位22の状態を変化させる。図12の例では、操作部位22は扉であり、支援者は、仮想空間内で特定の回転位置まで操作部位22を回動させるという支援操作を実行することができる。設備5の操作部位22における支援操作の内容を示す操作情報が支援側装置2から作業側装置3へ送信される。操作情報には、操作部位22の位置23(X、Y、Z)に関する情報と、操作部位回転角(R、R、R)が含まれていてよい。操作部位22の位置23(X、Y、Z)に関する情報は、基準点Pを基準とした操作部位22の位置23の操作部位相対座標(X、Y、Z)であってよい。操作部位相対座標(X、Y、Z)は、X=X―X、Y=Y―Y、Z=Z―Zで表される。
作業側装置3は、図13に示されるように、撮像部204によって設備5を撮像して得られた設備画像11と、支援操作後の設備5の状態を示す操作状態画像30とを合成した合成画像80を表示する作業側表示部202を有する。本例では、合成画像80は、取っ手33を含む扉の画像を含んでよい。作業側装置3は、操作情報として、操作部位22の座標(X、Y、Z)に関する情報と、操作部位回転角(R、R、R)とを受信する。作業側装置3は、操作情報に基づいて、操作状態画像30を生成する。そして、作業側表示部202は、設備画像11に対して、操作状態画像30を重ねて生成された合成画像80を表示する。操作状態画像30は、複数の操作部位の画像31、32を含んでいる。操作部位の画像32は、複数の状態を取り得る。本例では、操作部位の画像32は、扉の開閉具合の状態を示す。作業側表示部202は、操作状態画像30とともに、支援操作の内容に関するメッセージ35および記号36を表示してもよい。これにより作業者に対して操作状態がより伝わりやすくなる。
図14は、本発明の第2実施形態における遠隔支援システム1の一例を示す図である。遠隔支援システム1は、支援側装置2と作業側装置3を備える。支援側装置2と作業側装置3は通信ネットワーク4を通じて通信可能に接続されてよい。支援側装置2は、ヘッドマウントディスプレイ(HMD)方式の仮想現実ウェアラブルコンピュータ端末であってよい。
本例の支援側装置2は、通信制御部131、操作部位検出部130および支援側表示部103を備える。本例では、支援側表示部103は、図12に示されるように仮想モデル7を表示する。支援側表示部103は、ホログラフィックレンズディスプレイを有してよい。操作部位検出部130は、設備5の操作部位における支援操作の内容を検出する。図12に示された例では、操作部位検出部130は、設備5の操作部位22における扉を操作部位回転角まで回転するという支援操作の内容を検出する。
操作部位検出部130は、モーションキャプチャデバイス106から、支援操作の内容を示すモーションキャプチャデータを取り込む。操作部位検出部130は、仮想モデル7と支援者の身体に対応する身体領域との衝突判定、または仮想モデル7と支援者の操作する指示画像(たとえば、スライタス、ポインタ等)との衝突判定により、支援者が指定する操作部位を特定してよい。操作部位検出部130は、第1実施形態における検出部102と同様に仮想モデル7に対する支援者の身体動作を検出してもよい。この場合、操作部位検出部130は、第1実施形態における身体動作の検出技術を利用して身体動作を検出することによって、支援操作の内容を検出してよい。
通信制御部131は、支援操作の内容を示す操作情報を送信する操作情報送信部として機能する。この結果、支援側装置2は、設備5を模した仮想モデル7の操作部位における操作内容を検出して作業側装置3に送ることができる。通信制御部131は、操作情報として、操作部位22の座標(X、Y、Z)に関する情報と、操作部位回転角(R、R、R)とを作業側装置3に送信することができる。
本例の支援側装置2は、仮想モデル格納部104、選択部105、画面制御部110、センサ112、マイク114、スピーカ116、および音声制御部118を備えてよい。これらの構成は、図2に示される構成と同様であってよい。したがって、繰り返しの説明を省略する。
作業側装置3は、通信制御部231および作業側表示部202を備える。作業側装置3は、撮像部204、画面制御部210、センサ212、マイク214、スピーカ216、および音声制御部218を備えてよい。通信制御部231は、操作情報を受信する受信部として機能する。画面制御部210は、支援操作後の設備5の状態を示す操作状態画像30を設備画像11に重ねて合成する。作業側表示部202は、支援操作後の設備5の状態を示す操作状態画像30を設備5の画像に重ねて表示する。具体的には、作業側表示部202は、合成画像80を表示する。作業側表示部202は、操作状態画像30とともに、支援操作の内容に関するメッセージ35および記号36を表示してもよい。
作業側装置3は、画像生成部230および作業側仮想モデル格納部232を備えてよい。作業側仮想モデル格納部232は、設備5を模した作業側仮想モデルを格納する。画像生成部230は、操作部位21、22ごとに指定された支援内容に応じて、支援操作後の設備の状態を示す操作状態画像30を生成する。画像生成部230は、操作情報に基づいて作業側仮想モデルを変形する変形部として機能してよい。作業側表示部202は、変形された作業側仮想モデルを操作状態画像30として表示してもよい。作業側表示部202は、身体領域または指示画像が仮想モデル7に接触する部位の表示を変化させて表示してもよい。図13に示される例では、支援動作がされている操作部位の画像32を点線で表示している。
これらの点を除いて、撮像部204、画面制御部210、センサ212、マイク214、スピーカ216、および音声制御部218については、図2に示される構成と同様である。したがって、繰り返しの説明を省略する。
図15は、本発明の第2実施形態における遠隔支援システム1の他の例を示す図である。図14に示される場合には、操作部位検出部130は、仮想モデル7に対する支援者の身体動作を検出する。但し、本実施形態の遠隔支援システム1は、この場合に限られない。
図15に示される例では、センサ112が省略されている。支援側装置2は、ポインティングデバイス132を備える。ポインティングデバイス132は、たとえばマウスであってよい。支援者は、ポインティングデバイス132を操作する。操作部位検出部130は、ポインティングデバイス132からの信号に基づいて操作部位を検出する。具体的には、操作部位検出部130は、ポインティングデバイス132のカーソル画像と仮想モデル7との衝突判定により、操作部位を検出してよい。他の構造は、図14に示された構造と同様であるので、繰り返しの説明を省略する。
図16は、第2実施形態の遠隔支援方法における支援側装置の処理内容の一例を示すフローチャートである。遠隔支援方法は、支援側装置2と作業側装置3とにより作業を支援する。選択部105は、支援者の指示に基づいて現場作業者を選択する(ステップS120)。支援者は、ポインティングデバイス等により現場作業者を指示することができる。音声制御部118は、選択された現場作業者と支援者との間で音声通話を開始する(ステップS130)。選択部105は、仮想モデル格納部104に格納されている複数の仮想モデルの中から、支援対象の設備5に対応する仮想モデル7を選択する(ステップS140)。選択部105は、設備5の識別情報を作業側装置3から受信し、識別情報に基づいて仮想モデル7を選択してよい。但し、選択部105は、支援者の指示に基づいて仮想モデルを選択してもよい。支援者は、ポインティングデバイス等により仮想モデル7を指示することができる。
支援側表示部103は、設備5を模した仮想モデル7を表示する(ステップS150)。仮想モデル7は、仮想モデル格納部104に格納されていてもよく、ダウンロードしてもよい。支援者は表示された仮想モデル7を用いて仮想空間において操作する。操作部位検出部130は、設備の操作部位22における支援操作の内容を検出する。支援操作の内容を示す操作情報を作業側装置3に送信する(ステップS160)音声制御部118は、音声通話を終了する(ステップS170)。なお、音声通話によって設備の識別情報が作業者から支援者に伝えられてもよい。但し、音声通話の処理(ステップS130およびステップS170)および現場作業者の選択処理(ステップS120)は省略されてもよい。
図17は、図16のステップS160における処理内容の一例を示すフローチャートである。通信制御部101は、開始コードおよび設備IDを送信する(ステップS200)。開始コードは、処理の開始を示す情報である。設備IDは、設備を特定するための識別情報である。操作が終了するまでの間(ステップS201:NO)、送信周期に到達するごとに(ステップS202:YES)、操作部位検出部130は、衝突判定を実行する(ステップS203)。
本実施形態において仮想モデル7は、設備5を模してしる。仮想モデル7は、複数の操作部位、すなわち、操作部位21および操作部位22を備える。身体動作により操作部位21および操作部位22を特定する場合には、操作部位検出部130は、モーションキャプチャデバイス106からのデータに基づいて、支援者の身体に対応する身体領域画像を取得する。身体領域画像は、身体動作点24の座標に基づいて生成されてよい。一例において、身体領域画像は、図5に示される姿勢データまたは図6に示される点群データであってよい。
操作部位検出部130は、仮想モデル7と支援者の身体に対応する身体領域画像との衝突判定を実行する(ステップS203)。複数の操作部位21および22の中で、支援者の身体領域画像と衝突する場合、衝突している操作部位22が選択される。ポインティングデバイス132によって操作部位21が選択される場合には、操作部位検出部130は、ポインティングデバイス132のカーソル画像と仮想モデル7との衝突判定により、操作部位を検出してよい。衝突判定(ステップS203)は、送信周期(ステップS202:YES)ごとに実行されてよい。
操作部位がある場合(ステップS203:YES)、操作部位検出部130は操作部位22の識別情報(ID)を取得する(ステップS204)。そして、操作部位検出部130は、基準点P(X、Y、Z)を基準とした操作部位22の位置23(X、Y、Z)の相対座標である操作部位相対座標(X、Y、Z)(但し、X=X―X、Y=Y―Y、Z=Z―Z)を取得してよい。さらに、操作部位検出部130は、操作部位22の姿勢を示す操作部位回転角(R、R、R)を取得する(ステップS206)。操作部位回転角(R、R、R)は、X軸、Y軸およびZ軸の回転角を意味する。
通信制御部131は、操作情報を作業側装置3に対して送信する。操作情報には、操作部位の識別情報(ID)、操作部位相対座標(X、Y、Z)、および操作部位回転角(R、R、R)が含まれてよい。
操作終了の指示がされると(ステップS201:NO)、通信制御部131は、作業側装置3に対して終了コードを送信する(ステップS208)。そして、処理はリターンする。
図18は、第2実施形態の遠隔支援方法における作業側装置3の処理内容の一例を示すフローチャートである。音声制御部218は、支援者と作業者との間で音声通話を開始する(ステップS300)。通信制御部201は、支援側装置2から、操作情報を受信する。作業側表示部202は、受信した操作情報に基づいて、支援操作後の設備の状態を示す操作状態画像30を設備画像11に重ねて表示する(ステップS310)。支援処理が完了すると、音声制御部218は、音声通話を終了する(ステップS320)。
図19は、図18のステップS310における処理内容の一例を示すフローチャートである。通信制御部201は、支援側装置2から各種の情報を受信する受信部として機能する。通信制御部201は、支援側装置2から開始コードを受信すると(ステップS401:YES)、仮想モデル7を取得する(ステップS402)。仮想モデル7は、外部からダウンロードしてもよく、支援側装置2から受信してもよく、作業側装置3内の作業側仮想モデル格納部232から取得してもよい。
次いで、通信制御部201は、支援側装置2から開始コードを受信すると、撮像部204を起動する(ステップS403)。撮像部204は、設備5を含む周辺環境の画像を撮影して画像データを生成する。画面制御部210は、生成された画像データを設備画像11として取得する。
画面制御部210は、基準点マーカー6を検出するマーカー検出部241としても機能する。画面制御部210は、基準点マーカー6の検出結果として、基準点マーカー6の位置を示すマーカー座標(X、Y、Z)を取得する(ステップS404)。画面制御部210は、設備5を含む周辺環境の画像を撮影して得られた設備画像11に対して、仮想モデル7を合成して、作業側表示部202に表示させてよい(ステップS405)。
通信制御部201が終了コードを受信するまでの間は(ステップS406:NO)、通信制御部201が操作情報(操作部位情報)を受信すると(ステップS407:YES)、画像生成部230は、操作部位22の識別情報(ID)、操作部位相対座標(X、Y、Z)、および操作部位回転角(R、R、R)を取得する(ステップS408)。
画像生成部230は、操作部位22の識別情報(ID)、操作部位相対座標(X、Y、Z)、および操作部位回転角(R、R、R)に基づいて、支援操作後の設備5の状態を示す操作状態画像30を描画する。換言すれば、画像生成部230は、ステップS405で合成した仮想モデル7を変形して操作状態画像30を描画(再描画)してよい。
画面制御部210は、設備画像11に対して、操作状態画像30を重ねて合成することによって合成画像80を生成する。作業側表示部202は、合成画像80を表示する(ステップS409)。時刻ごとに操作部位回転角(R、R、R)が変化すると、それに応じて、操作状態画像30も変化して表示されてよい。設備画像11、操作状態画像30、および合成画像80は三次元画像であってよい。
通信制御部201が終了コードを受信した場合(ステップS406:Yes)、支援処理が終了したものとして、撮像部204を停止する(ステップS410)。そして、処理がリターンする。
本発明の第2実施形態の遠隔支援システム1によれば、仮想物体を動的に変化させて提示することができるので、直感的に操作内容を伝えることが可能となる。したがって、現場の作業者および作業の支援者の作業効率を向上することができる。特に、支援者の身体動作および設備の動作を伴うような複雑な作業内容を的確に作業者に伝えることが可能になる。具体的には、設備の状態および設備の動きを作業者に適確に伝えることが可能になる。設備状態画像を、設備画像を含む背景に重ねて表示することができるので、どの部分の設備状態なのかを的確に伝えることが容易になる。
また、単なるクロマキー合成に比べて、支援者を特定色の背景に立たせて動作させる必要もない。
図20は、本発明の第3実施形態における作業側装置3における合成画像90の一例を示す模式図である。図20に示されるとおり、第1実施形態の内容と第2実施形態の内容を統合して、作業側装置3において合成画像90を表示することができる。具体的には、作業側表示部202は、第1実施形態における身体動作画像12と、第2実施形態における操作状態画像30とを共に表示してよい。この場合、遠隔支援システム1は、図2および図11に示される構成と、図14および図15に示される構成とを有してよい。繰り返しの説明を省略する。
図21は、本発明の複数の態様が全体的または部分的に具現化されてよいコンピュータ2200の例を示す。コンピュータ2200にインストールされたプログラムは、コンピュータ2200に、本発明の実施形態に係る装置に関連付けられる操作または当該装置の1または複数のセクションとして機能させることができ、または当該操作または当該1または複数のセクションを実行させることができ、および/またはコンピュータ2200に、本発明の実施形態に係る方法または当該方法の段階を実行させることができる。そのようなプログラムは、コンピュータ2200に、本明細書に記載のフローチャートおよびブロック図のブロックのうちのいくつかまたはすべてに関連付けられた特定の操作を実行させるべく、CPU2212によって実行されてよい。
本実施形態によるコンピュータ2200は、CPU2212、RAM2214、グラフィックコントローラ2216、およびディスプレイデバイス2218を含み、それらはホストコントローラ2210によって相互に接続されている。コンピュータ2200はまた、通信インタフェース2222、ハードディスクドライブ2224、DVD-ROMドライブ2226、およびICカードドライブのような入/出力ユニットを含み、それらは入/出力コントローラ2220を介してホストコントローラ2210に接続されている。コンピュータはまた、ROM2230およびキーボード2242のようなレガシの入/出力ユニットを含み、それらは入/出力チップ2240を介して入/出力コントローラ2220に接続されている。
CPU2212は、ROM2230およびRAM2214内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。グラフィックコントローラ2216は、RAM2214内に提供されるフレームバッファ等またはそれ自体の中にCPU2212によって生成されたイメージデータを取得し、イメージデータがディスプレイデバイス2218上に表示されるようにする。
通信インタフェース2222は、ネットワークを介して他の電子デバイスと通信する。ハードディスクドライブ2224は、コンピュータ2200内のCPU2212によって使用されるプログラムおよびデータを格納する。DVD-ROMドライブ2226は、プログラムまたはデータをDVD-ROM2201から読み取り、ハードディスクドライブ2224にRAM2214を介してプログラムまたはデータを提供する。ICカードドライブは、プログラムおよびデータをICカードから読み取り、および/またはプログラムおよびデータをICカードに書き込む。
ROM2230はその中に、アクティブ化時にコンピュータ2200によって実行されるブートプログラム等、および/またはコンピュータ2200のハードウェアに依存するプログラムを格納する。入/出力チップ2240はまた、様々な入/出力ユニットをパラレルポート、シリアルポート、キーボードポート、マウスポート等を介して、入/出力コントローラ2220に接続してよい。
プログラムが、DVD-ROM2201またはICカードのようなコンピュータ可読媒体によって提供される。プログラムは、コンピュータ可読媒体から読み取られ、コンピュータ可読媒体の例でもあるハードディスクドライブ2224、RAM2214、またはROM2230にインストールされ、CPU2212によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ2200に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置または方法が、コンピュータ2200の使用に従い情報の操作または処理を実現することによって構成されてよい。
例えば、通信がコンピュータ2200および外部デバイス間で実行される場合、CPU2212は、RAM2214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース2222に対し、通信処理を命令してよい。通信インタフェース2222は、CPU2212の制御下、RAM2214、ハードディスクドライブ2224、DVD-ROM2201、またはICカードのような記録媒体内に提供される送信バッファ処理領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、またはネットワークから受信された受信データを記録媒体上に提供される受信バッファ処理領域等に書き込む。
また、CPU2212は、ハードディスクドライブ2224、DVD-ROMドライブ2226(DVD-ROM2201)、ICカード等のような外部記録媒体に格納されたファイルまたはデータベースの全部または必要な部分がRAM2214に読み取られるようにし、RAM2214上のデータに対し様々なタイプの処理を実行してよい。CPU2212は次に、処理されたデータを外部記録媒体にライトバックする。
様々なタイプのプログラム、データ、テーブル、およびデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU2212は、RAM2214から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプの操作、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM2214に対しライトバックする。また、CPU2212は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU2212は、第1の属性の属性値が指定される、条件に一致するエントリを当該複数のエントリの中から検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。
上で説明したプログラムまたはソフトウェアモジュールは、コンピュータ2200上またはコンピュータ2200近傍のコンピュータ可読媒体に格納されてよい。また、専用通信ネットワークまたはインターネットに接続されたサーバーシステム内に提供されるハードディスクまたはRAMのような記録媒体が、コンピュータ可読媒体として使用可能であり、それによりプログラムを、ネットワークを介してコンピュータ2200に提供する。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順序で実施することが必須であることを意味するものではない。
1・・・遠隔支援システム、2・・・支援側装置、3・・・作業側装置、4・・・通信ネットワーク、5・・・設備、6・・・基準点マーカー、7・・・仮想モデル、8・・・基準点、9・・・識別画像、10・・・合成画像、11・・・設備画像、12・・・身体動作画像、21・・・操作部位、22・・・操作部位、23・・・位置、24・・・身体動作点、25・・・取っ手、30・・・操作状態画像、31・・・画像、32・・・画像、33・・・取っ手、35・・・メッセージ、36・・・記号、80・・・合成画像、90・・・合成画像、101・・・通信制御部、102・・・検出部、103・・・支援側表示部、104・・・仮想モデル格納部、105・・・選択部、106・・・モーションキャプチャデバイス、110・・・画面制御部、112・・・センサ、114・・・マイク、116・・・スピーカ、118・・・音声制御部、120・・・モデル生成部、122・・・モデル補正部、130・・・操作部位検出部、131・・・通信制御部、132・・・ポインティングデバイス、201・・・通信制御部、202・・・作業側表示部、204・・・撮像部、210・・・画面制御部、212・・・センサ、214・・・マイク、216・・・スピーカ、218・・・音声制御部、220・・・補正用情報生成部、230・・・画像生成部、231・・・通信制御部、232・・・作業側仮想モデル格納部、241・・・マーカー検出部、242・・・調整部、243・・・読取部、2200・・・コンピュータ、2201・・・DVD-ROM、2210・・・ホストコントローラ、2212・・・CPU、2214・・・RAM、2216・・・グラフィックコントローラ、2218・・・ディスプレイデバイス、2220・・・入/出力コントローラ、2222・・・通信インタフェース、2224・・・ハードディスクドライブ、2226・・・DVD-ROMドライブ、2230・・・ROM、2240・・・入/出力チップ、2242・・・キーボード

Claims (12)

  1. 設備を模した仮想モデルを表示する支援側表示部と、前記仮想モデルに対する支援者の身体動作を検出する検出部と、前記仮想モデルに対する前記身体動作の情報を送信する送信部と、を有する支援側装置と、
    受信した前記身体動作の情報に基づいて前記身体動作を示す仮想化された画像を表示する作業側表示部を備える作業側装置と、を備える支援システム。
  2. 前記検出部によって検出される前記身体動作は、三次元空間における前記支援者の身体の少なくとも一部についての位置情報を含む、
    請求項1に記載の支援システム。
  3. 前記設備において予め定められた位置に基準点マーカーが設けられており、
    前記仮想モデルは、前記基準点マーカーに対応する位置に設けられた基準点と、前記基準点に基づく三次元座標である基準座標とが設けられており、
    前記検出部によって検出される前記身体動作は、前記基準座標における、前記支援者の身体の少なくとも一部についての位置情報を含んでおり、
    前記作業側装置は、
    前記設備における基準点マーカーを検出するマーカー検出部と、
    前記設備の画像に対して前記仮想化された画像を合成する位置を、前記基準点マーカーの検出結果と、受信した前記身体動作の情報に含まれる前記位置情報とに基づいて調整する調整部と、を備える、
    請求項1または2に記載の支援システム。
  4. 前記支援側装置は、複数の仮想モデルの中から前記設備に対応する前記仮想モデルを選択する選択部をさらに備える
    請求項1から3のいずれか一項に記載の支援システム。
  5. 前記選択部は、前記支援者の指示に基づいて前記複数の仮想モデルの中から前記設備に対応する前記仮想モデルを選択する、
    請求項4に記載の支援システム。
  6. 前記設備には、設備を識別するための識別画像が表示されており、
    前記作業側装置は、前記識別画像を読み取る読取部と、
    前記読取部によって前記識別画像を読み取って得られた識別情報を前記支援側装置に送信する識別情報送信部と、をさらに備えており、
    前記選択部は、前記作業側装置から受信した前記識別情報によって複数の仮想モデルの中から前記設備に対応する仮想モデルを選択する、
    請求項4に記載の支援システム。
  7. 前記作業側装置は、前記設備を撮像して設備画像を得る撮像部と、
    前記設備画像を前記支援側装置に送信する設備画像送信部と、をさらに備えており、
    前記支援側装置は、前記作業側装置から受信した前記設備画像に基づいて前記仮想モデルを生成するモデル生成部をさらに備える、
    請求項1から3のいずれか一項に記載の支援システム。
  8. 前記作業側装置は、前記設備を撮像して設備画像を得る撮像部と、
    前記設備画像に基づいて補正用情報を生成する補正用情報生成部と、
    前記補正用情報を前記支援側装置に送信する補正用情報送信部と、をさらに備えており、
    前記支援側装置は、前記作業側装置から受信した前記補正用情報に基づいて前記仮想モデルを補正するモデル補正部をさらに備える、
    請求項1から3のいずれか一項に記載の支援システム。
  9. 前記補正用情報生成部は、前記支援側装置から受信した仮想モデルと前記設備画像とを比較して前記補正用情報を生成する、
    請求項8に記載の支援システム。
  10. 支援側装置と、前記支援側装置と通信可能な作業側装置とにより作業を支援する支援方法であって、
    前記支援側装置において、設備を模した仮想モデルを表示する段階と、
    前記仮想モデルに応じた支援者の身体動作を検出する段階と、
    前記仮想モデルに対する前記支援者の前記身体動作の情報を送信する段階と、
    前記身体動作の情報を前記作業側装置が受信する段階と、
    前記作業側装置において、受信した前記身体動作の情報に基づいて前記身体動作を示す仮想化された画像を表示する段階と、
    を備える支援方法。
  11. 設備が設けられた作業現場における作業側装置との間でネットワークを介して通信可能に接続される支援側装置であって、
    前記設備を模した仮想モデルを表示する支援側表示部と、
    前記仮想モデルに応じた支援者の身体動作を検出する検出部と、
    前記仮想モデルに対する前記支援者の前記身体動作の情報を前記作業側装置に送信する送信部と、を備える支援側装置。
  12. コンピュータを、請求項11に記載の支援側装置として機能させるためのプログラム。
JP2021126900A 2021-08-02 2021-08-02 支援システム、支援側装置、支援方法、およびプログラム Pending JP2023021806A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021126900A JP2023021806A (ja) 2021-08-02 2021-08-02 支援システム、支援側装置、支援方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021126900A JP2023021806A (ja) 2021-08-02 2021-08-02 支援システム、支援側装置、支援方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2023021806A true JP2023021806A (ja) 2023-02-14

Family

ID=85201467

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021126900A Pending JP2023021806A (ja) 2021-08-02 2021-08-02 支援システム、支援側装置、支援方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP2023021806A (ja)

Similar Documents

Publication Publication Date Title
JP5936155B2 (ja) 3次元ユーザインタフェース装置及び3次元操作方法
US9541997B2 (en) Three-dimensional user interface apparatus and three-dimensional operation method
JP5472056B2 (ja) 表示システム、表示処理装置、表示方法、および表示プログラム
JP5709440B2 (ja) 情報処理装置、情報処理方法
US7782320B2 (en) Information processing method and information processing apparatus
JP2006048639A (ja) 情報処理方法および情報処理装置
US20150206352A1 (en) System and method for controlling a display
US20120268493A1 (en) Information processing system for augmented reality
JP6775957B2 (ja) 情報処理装置、情報処理方法、プログラム
JP7078234B2 (ja) 拡張現実空間に配置される3dオブジェクトを生成する方法
JP2019008623A (ja) 情報処理装置、及び、情報処理装置の制御方法、コンピュータプログラム、記憶媒体
JP5565331B2 (ja) 表示システム、表示処理装置、表示方法、および表示プログラム
JP2016122392A (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
JP2006252468A (ja) 画像処理方法、画像処理装置
JP2022058753A (ja) 情報処理装置、情報処理方法及びプログラム
KR20190048810A (ko) 증강현실용 컨텐츠 제공 장치 및 방법
KR101792701B1 (ko) 도면 검사 장치 및 방법
US11960660B2 (en) Terminal device, virtual object manipulation method, and virtual object manipulation program
CN111565898B (zh) 操作引导系统
JP2023021806A (ja) 支援システム、支援側装置、支援方法、およびプログラム
JP2023021808A (ja) 支援システム、支援側装置、支援方法、およびプログラム
WO2022176450A1 (ja) 情報処理装置、情報処理方法、およびプログラム
CN114201028B (zh) 扩增实境系统与其锚定显示虚拟对象的方法
JP6800599B2 (ja) 情報処理装置、方法及びプログラム
JP7451084B2 (ja) 情報処理装置および情報処理方法