JP2023088062A - 作業支援装置、作業支援方法およびプログラム - Google Patents

作業支援装置、作業支援方法およびプログラム Download PDF

Info

Publication number
JP2023088062A
JP2023088062A JP2021202693A JP2021202693A JP2023088062A JP 2023088062 A JP2023088062 A JP 2023088062A JP 2021202693 A JP2021202693 A JP 2021202693A JP 2021202693 A JP2021202693 A JP 2021202693A JP 2023088062 A JP2023088062 A JP 2023088062A
Authority
JP
Japan
Prior art keywords
operator
work support
unit
area
dimensional space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021202693A
Other languages
English (en)
Inventor
大輔 大秋
Daisuke Oaki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Electric Co Ltd
Original Assignee
Fuji Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Electric Co Ltd filed Critical Fuji Electric Co Ltd
Priority to JP2021202693A priority Critical patent/JP2023088062A/ja
Publication of JP2023088062A publication Critical patent/JP2023088062A/ja
Pending legal-status Critical Current

Links

Images

Abstract

Figure 2023088062000001
【課題】仮想オブジェクトの状態を効率よく操作できる作業支援装置を提供する。
【解決手段】作業支援装置100は、3次元空間の画像を表示する表示部122と、1つ以上の仮想オブジェクトから、操作者の操作の対象となる少なくとも1つの対象オブジェクトを選択する対象選択部104と、操作者の身体の状態を示すジェスチャ情報に基づいて、3次元空間における指定領域を特定し、指定領域に含まれる現実オブジェクト及び仮想オブジェクトから、関連オブジェクトを特定する領域特定部106と、関連オブジェクトに基づいて、対象オブジェクトに関するパラメータを変更するパラメータ変更部119と、を備える。
【選択図】図2

Description

本発明は、作業支援装置、作業支援方法およびプログラムに関する。
従来、現実空間を示す画像に仮想オブジェクトを重ねて表示する拡張現実(AR)技術または複合現実(MR)技術において、仮想オブジェクトの状態を操作する技術が知られている(例えば特許文献1参照)。
特許文献1 特開2017-27206号公報
仮想オブジェクトの状態を効率よく操作できることが好ましい。
上記課題を解決するために、本発明の第1の態様においては、作業支援装置を提供する。作業支援装置は、現実世界の構造物を示す現実オブジェクトと、操作者により操作される仮想オブジェクトとを含む3次元空間の画像を表示する表示部を備えてよい。作業支援装置は、1つ以上の仮想オブジェクトから、操作者の操作の対象となる少なくとも1つの対象オブジェクトを選択する対象選択部を備えてよい。作業支援装置は、操作者の身体の状態を示すジェスチャ情報に基づいて、3次元空間における指定領域を特定し、指定領域に含まれる現実オブジェクトおよび仮想オブジェクトから、関連オブジェクトを特定する領域特定部を備えてよい。作業支援装置は、関連オブジェクトに基づいて、対象オブジェクトに関するパラメータを変更するパラメータ変更部を備えてよい。
パラメータ変更部は、関連オブジェクトの3次元空間における位置パラメータに基づいて、対象オブジェクトの位置パラメータを変更してよい。
領域特定部は、3次元空間において操作者の視線が通過する位置に基づいて指定領域を特定してよい。
領域特定部は、操作者の視線が最初に通過する現実オブジェクトまたは仮想オブジェクトを、関連オブジェクトとして特定してよい。
表示部は、3次元空間の奥行方向における位置を指定する奥行位置インジケータを表示してよい。領域特定部は、奥行位置インジケータが指定する位置に基づいて、関連オブジェクトを特定してよい。
領域特定部は、予め設定されたジェスチャ情報を検出した場合に、指定領域を回転して表示させてよい。
領域特定部は、指定領域に含まれる複数のオブジェクトが奥行方向に重なっていることを条件として、指定領域を回転して表示させてよい。
表示部は、指定領域に含まれる現実オブジェクトおよび仮想オブジェクトのリストを表示してよい。領域特定部は、リストから選択されたオブジェクトを関連オブジェクトとして特定してよい。
仮想オブジェクトは、変更可能な複数のパラメータを含んでよい。パラメータ変更部は操作者のジェスチャ情報に応じて、変更するパラメータを選択してよい。
本発明の第2の態様においては、作業支援方法を提供する。作業支援方法は、現実世界の構造物を示す現実オブジェクトと、操作者により操作される仮想オブジェクトとを含む3次元空間の画像を表示してよい。作業支援方法は、1つ以上の仮想オブジェクトから、操作者の操作の対象となる少なくとも1つの対象オブジェクトを選択してよい。作業支援方法は、操作者の身体の状態を示すジェスチャ情報に基づいて、3次元空間における指定領域を特定し、指定領域に含まれる現実オブジェクトおよび仮想オブジェクトから、関連オブジェクトを特定してよい。作業支援方法は、関連オブジェクトに基づいて、対象オブジェクトに関するパラメータを変更してよい。
本発明の第3の態様においては、コンピュータに、第2の態様に係る作業支援方法を実行させるためのプログラムを提供する。
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
本発明の一つの実施形態に係る作業支援装置が表示する画像12を説明する図である。 作業支援装置100の機能構成例を示すブロック図である。 操作者のジェスチャによる対象オブジェクトに対する操作の一例を説明する図である。 仮想オブジェクト20から対象オブジェクトを選択する例を説明する図である。 関連オブジェクトを選択する例を説明する図である。 対象オブジェクトのパラメータを変更する例を説明する図である。 対象オブジェクトの位置パラメータを変更した後の画像12を示す図である。 対象オブジェクトのグループパラメータを変更する例を説明する図である。 仮想オブジェクト20に割り当てられるパラメータの一例を説明する図である。 オブジェクトを選択する方法の他の例を説明する図である。 操作者がオブジェクトを選択するときの他の動作例を説明する図である。 作業支援方法の概要を示すフローチャートである。 作業支援方法の複数の態様が全体的または部分的に具現化されてよいコンピュータ2200の例を示す。
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
図1は、本発明の一つの実施形態に係る作業支援装置が表示する画像12を説明する図である。作業支援装置は、現実世界に存在する構造物を示す現実オブジェクト10と、操作者により操作される仮想オブジェクト20とを重畳した画像12を表示する。本明細書では、現実オブジェクト10および仮想オブジェクト20を単にオブジェクトと称する場合がある。図1の例における画像12は、現実オブジェクト10と、仮想オブジェクト20とを、共通の3次元空間上に示した画像である。図1においては、画像12に示される3次元空間をXYZ座標系で示している。なお画像12に示される3次元空間には、操作者が含まれてよく、含まれていなくてもよい。画像12は、3次元ホログラフィーであってよく、両眼に提示する画像の視差等を利用した疑似的な3次元画像であってもよい。一例として作業支援装置は、操作者に装着されて画像12を提示するヘッドマウントディスプレイ(HMD)方式のウェアラブル端末を含む。
本例の仮想オブジェクト20は、例えば現実オブジェクト10に関する情報を管理するためのオブジェクトである。現実オブジェクト10は、例えば工場等に配置された設備である。現実オブジェクト10は、製造用の設備であってよく、他の用途の設備であってもよい。
仮想オブジェクト20は、いずれかの現実オブジェクト10と対応付けて表示される。本例の仮想オブジェクト20は、それぞれ情報が割り当てられた1つ以上のタグ(図1ではタグ22およびタグ24)を有する。それぞれのタグに割り当てられた情報は、操作者により編集可能である。本明細書では、仮想オブジェクト20が管理する情報をパラメータと称する場合がある。
本例のタグ22には文字情報が割り当てられている。タグ22は、割り当てられた文字情報を表示してよい。文字情報は、例えば現実オブジェクト10の状態を示す情報である。現実オブジェクト10の状態とは、例えば設備が稼働中であるか否か、または、改修中(または保守中)であるか否か等の状態であってよい。操作者は、タグ22を操作することで文字情報を編集してよい。タグ22は、操作者により入力された任意の文字列が割り当てられてよく、予め設定された複数種類の文字列から操作者が選択した文字列が割り当てられてもよい。
本例のタグ24には、仮想オブジェクト20と現実オブジェクト10との対応関係を示す情報が割り当てられている。タグ24は、対応する現実オブジェクト10と重なる位置に表示されてよい。操作者は、タグ24を移動させることで、仮想オブジェクト20と現実オブジェクト10との対応関係を編集してよい。図1の画像12における仮想オブジェクト20は、まだ現実オブジェクト10に対応付けられていない状態を示している。
仮想オブジェクト20に対する操作内容によっては、操作に時間がかかる場合がある。例えば3次元空間において、仮想オブジェクト20のタグ24を、画像12が示す3次元空間内の奥行方向に移動させる場合に、奥行方向への移動量を操作時間の長さで決定する場合がある。つまり、ボタンを押す等の移動操作をしている間は仮想オブジェクト20を奥行方向に移動させ、移動操作を終了した場合に仮想オブジェクト20の移動を終了させる。このような場合、奥行方向への移動量に応じて操作時間が増大してしまう。なお奥行方向とは、3次元空間において操作者から離れる方向、または、操作者に近づく方向を指す。画像12がXZ面に表示された画像の場合、奥行方向はXZ面と垂直なZ軸方向である。
図2は、作業支援装置100の機能構成例を示すブロック図である。作業支援装置100は、操作者の画像12上における作業を支援する。作業支援装置100は、仮想オブジェクト20に割り当てられたパラメータ(つまりタグに割り当てられた情報)の変更作業を支援する。
作業支援装置100は、対象選択部104、領域特定部106、パラメータ変更部119および表示部122を備える。作業支援装置100は、画像取得部102、センサ部110、ジェスチャ検出部112、ジェスチャ情報記憶部116、パラメータ情報記憶部118および制御部120の少なくともいずれかを更に備えてよい。作業支援装置100における表示部122、センサ部110および画像取得部102以外の機能は、コンピュータにより実現されてよい。なお作業支援装置100の各構成は、ヘッドマウンドディスプレイ等の単一の筐体に収容されてよく、複数の筐体に分散して収容されてもよい。それぞれの構成は、有線または無線により互いに通信してよい。
表示部122は、操作者に対して、現実オブジェクト10および仮想オブジェクト20を含む3次元空間の画像12を提供する。表示部122は液晶表示装置、有機EL表示装置、ホログラム表示装置、または、その他の表示装置であってよい。制御部120は、表示部122を制御して画像12を表示させる。制御部120は、表示部122に表示させる画像のデータを出力してよい。
画像取得部102は、現実世界の画像を取得する。画像取得部102は、画像に含まれるそれぞれの構造物の奥行方向の位置に関する情報を取得する。画像取得部102は、現実世界の3次元画像を取得してよい。本例の画像取得部102は、CCD等の撮像素子を有するカメラである。画像取得部102は、画像取得部102から構造物の各部位までの距離情報を取得してよい。
制御部120は、画像取得部102が取得した構造物の画像および奥行位置に関する情報に基づいて、図1に示した画像12を生成する。制御部120は、当該構造物を示す現実オブジェクト10を、画像12に示される3次元空間に配置する。本例の制御部120は、構造物の奥行位置に関する情報に基づいて、画像12の3次元空間に現実オブジェクト10を配置する。
また制御部120は、図1に示したような仮想オブジェクト20を、画像12に示される3次元空間に配置する。制御部120は、操作者から仮想オブジェクト20を表示する旨の入力があった場合に、仮想オブジェクト20を画像12に配置してよい。操作者からの入力は、操作者の身体によるジェスチャ、または、操作者からの音声であってよい。他の例では、操作者は、ボタン等を有する入力デバイスを用いて、仮想オブジェクト20を表示する旨の入力を行ってもよい。本例の作業支援装置100は、操作者の手および視線の少なくとも一方を含むジェスチャを検出する。
センサ部110は、操作者の身体の少なくとも一部の動作を監視する。センサ部110は、操作者の身体の少なくとも一部の画像を撮像するカメラ、または、操作者の身体に取り付けられた加速度センサ等を有してよい。
ジェスチャ検出部112は、センサ部110が検出した操作者の動作から、予め設定されたジェスチャに該当する動作を検出する。ジェスチャ情報記憶部116は、予め設定された1つ以上のジェスチャを検出するための情報を記憶する。例えばジェスチャ情報記憶部116は、それぞれのジェスチャにおける操作者の動作を示すジェスチャ情報を記憶してよい。ジェスチャ情報記憶部116は、それぞれのジェスチャが、操作者からのどのような入力を意味しているかを合わせて記憶してよい。ジェスチャ情報記憶部116は、少なくとも仮想オブジェクト20のパラメータを変更するためのジェスチャを記憶する。ジェスチャ情報記憶部116は、新たな仮想オブジェクト20を表示させるためのジェスチャを記憶してもよい。ジェスチャ検出部112は、操作者の動作に該当するジェスチャを、ジェスチャ情報記憶部116から抽出してよい。
対象選択部104は、画像12に含まれる1つ以上の仮想オブジェクト20から、操作者の操作の対象となる少なくとも1つの対象オブジェクトを選択する。対象選択部104は、操作者のジェスチャに基づいて対象オブジェクトを選択してよい。例えば対象選択部104は、操作者が対象オブジェクトを選択する旨を示すジェスチャした後に、操作者により指定された仮想オブジェクト20を対象オブジェクトとして選択してよい。操作者による指定は、操作者の視線等によるジェスチャで行われてよい。
領域特定部106は、操作者のジェスチャを検出したジェスチャ情報に基づいて、画像12に示される3次元空間における指定領域を特定する。また領域特定部106は、指定領域に含まれる現実オブジェクト10および仮想オブジェクト20から、関連オブジェクトを特定する。領域特定部106は、操作者が関連オブジェクトを特定する旨のジェスチャをした場合に、指定領域および関連オブジェクトを特定してよい。例えば領域特定部106は、操作者の手による所定のジェスチャが提示されている状態で、操作者の視線が通過する位置を検出してよい。領域特定部106は、画像12に示される3次元空間において操作者の視線が通過する領域を指定領域としてよい。
領域特定部106は、指定領域にオブジェクトが1つだけ含まれている場合、当該オブジェクトを関連オブジェクトとして特定する。領域特定部106は、指定領域にオブジェクトが複数含まれている場合、予め定められたルールまたは処理方法により、1つまたは複数のオブジェクトを関連オブジェクトとして特定する。例えば領域特定部106は、複数のオブジェクトのうち、最も手前(つまり3次元空間において最も操作者に近い)のオブジェクトを関連オブジェクトとして特定してよい。
パラメータ変更部119は、特定された関連オブジェクトに基づいて、対象オブジェクトに関するパラメータを変更する。例えばパラメータ変更部119は、対象オブジェクトの3次元空間内における位置を示す位置パラメータを、関連オブジェクトの位置パラメータに応じて変更する。パラメータ変更部119は、対象オブジェクトの位置パラメータを、関連オブジェクトのいずれかの部位の位置パラメータと一致させてよい。このような処理により、3次元空間内において対象オブジェクトを効率よく移動させることができる。つまり、既に存在するオブジェクトを指定することで対象オブジェクトを移動できるので、対象オブジェクトの奥行方向の移動量を操作時間等で指定しなくてよい。このため、対象オブジェクトの移動に関する操作時間を短縮できる。
パラメータ情報記憶部118は、それぞれのオブジェクトに関連付けられたパラメータを記憶する。パラメータ情報記憶部118は、それぞれのオブジェクトを表示するときの形状等を示す画像データを記憶していてもよい。パラメータ変更部119は、それぞれのオブジェクトに関連付けられたパラメータの値を、パラメータ情報記憶部118から読み出してよい。パラメータ変更部119は、対象オブジェクトの変更後のパラメータの値を、パラメータ情報記憶部118に記憶させてよい。パラメータ変更部119は、対象オブジェクトの変更後のパラメータの値を、制御部120に通知する。制御部120は、変更後のパラメータに基づいて、表示部122が表示する対象オブジェクトの画像データを変更する。例えば制御部120は、移動後の位置パラメータに基づいて、画像12における対象オブジェクトの位置を制御する。
図3は、操作者のジェスチャによる対象オブジェクトに対する操作の一例を説明する図である。本例のジェスチャ検出部112は、操作者の手32の動作をジェスチャとして検出する。例えばジェスチャ検出部112は、操作者の手32の各指が伸ばされた状態を、対象オブジェクトを選択するための対象選択ジェスチャとして検出する。
対象選択部104は、対象選択ジェスチャが検出された後に、操作者により指定された仮想オブジェクト20を、対象オブジェクトとして特定する。対象選択部104は、対象選択ジェスチャが検出された後に、画像12において操作者の視線が所定の期間以上留まっている仮想オブジェクト20を対象オブジェクトとして特定してよい。対象選択部104は、対象選択ジェスチャが検出された後に、操作者の手32の動作により選択された仮想オブジェクト20を対象オブジェクトとして特定してもよい。対象選択部104は、他の方法で対象オブジェクトを特定してもよい。
また、ジェスチャ検出部112は、操作者の手32の一部の指が伸ばされた状態を、対象オブジェクトである仮想オブジェクト20を操作するための操作ジェスチャとして検出してよい。ジェスチャ検出部112は、操作ジェスチャが検出された後における、操作者による仮想オブジェクト20に対する操作を検出する。例えばジェスチャ検出部112は、操作ジェスチャの状態の手32による、仮想オブジェクト20に対する操作を検出する。
それぞれの仮想オブジェクト20は、操作者により操作可能な複数のタグ(タグ22、タグ24、タグ26)を有する。それぞれのタグには、変更可能なパラメータが割り当てられている。パラメータ変更部119は、操作者によるジェスチャ情報に応じて、変更するパラメータを選択する。本例では、操作者は、操作ジェスチャ状態の手32によりいずれかのタグを指し示すことで、パラメータを変更するタグを選択してよい。表示部122は、手32を示す画像を3次元空間内に表示してよい。
本例のタグ22には状態情報を含む状態パラメータが割り当てられており、タグ24には位置情報を含む位置パラメータが割り当てられており、タグ26にはグループ情報を含むグループパラメータが割り当てられている。状態パラメータは、例えば仮想オブジェクト20に対応する現実オブジェクト10の設備の状態を示すパラメータである。設備の状態とは、例えば改修(つまり保守および修理等)中であるか否か、通常動作中であるか否か、改修予定であるか否か等の状態である。位置情報は、仮想オブジェクト20の3次元空間内における座標等の情報である。グループ情報は、仮想オブジェクト20または現実オブジェクト10が、いずれのグループに属するかを示す情報である。グループは、例えば同時期に連動して改修される現実オブジェクト10を示すグループ、通常動作時に連動する現実オブジェクト10を示すグループ、同時期に導入された現実オブジェクト10を示すグループ等である。
仮想オブジェクト20に割り当てられるタグは、これらに限定されない。それぞれの仮想オブジェクト20は、ほかにも多様な情報が割り当てられたタグを有してよい。例えば仮想オブジェクト20は、操作者等により入力された文字情報のタグを有してよい。仮想オブジェクト20には、仮想オブジェクト20がいずれの現実オブジェクトに対応付けられているかを示す対応情報のタグを有してもよい。
図4は、仮想オブジェクト20から対象オブジェクトを選択する例を説明する図である。上述したように対象選択部104は、対象選択ジェスチャを検出した場合に、1つ以上の仮想オブジェクト20から、パラメータを変更する対象オブジェクトを選択する。
対象選択部104は、画像12において仮想オブジェクト20が1つだけ含まれている場合には、当該仮想オブジェクト20を対象オブジェクトとして選択してよい。画像12において複数の仮想オブジェクト20が含まれている場合、対象選択部104は、操作者により選択された仮想オブジェクト20を対象オブジェクトとして選択する。
上述したように、対象選択部104は、画像12が示す3次元空間内において操作者の視線が通過する通過領域51を検出してよい。作業支援装置100は、操作者の目の向きを検出するセンサを有してよい。通過領域51は、他の方法で指定されてもよい。例えば操作者の手のひらまたは指等で指定される方向に延びる直線で、通過領域51が規定されてもよい。対象選択部104は、通過領域51と重なる仮想オブジェクト20を、対象オブジェクトとして選択する。通過領域51と重なる仮想オブジェクト20が複数存在する場合、対象選択部104は、最も手前の仮想オブジェクト20を対象オブジェクトとして選択してよく、他の方法で決定される仮想オブジェクト20を対象オブジェクトとして選択してもよい。
図5は、関連オブジェクトを選択する例を説明する図である。領域特定部106は、対象オブジェクトのパラメータを変更するのに用いる関連オブジェクトを特定する。関連オブジェクトは、現実オブジェクト10または仮想オブジェクト20のいずれであってもよい。
領域特定部106は、操作者による関連選択ジェスチャが検出された場合に、関連オブジェクトを特定する処理を開始してよい。関連選択ジェスチャは、例えば手32によるジェスチャである。
本例の領域特定部106は、画像12で示される3次元空間において操作者の視線が通過する位置に基づいて指定領域52を特定する。指定領域52は、3次元空間において操作者の視線が通過する直線状の領域であってよい。
領域特定部106は、指定領域52に存在するオブジェクトを検出する。領域特定部106は、指定領域52と重なるオブジェクトを検出してよい。本例では、現実オブジェクト10-1が指定領域52に存在している。
領域特定部106は、指定領域52に存在するオブジェクトが一つだけの場合、当該オブジェクトを関連オブジェクトとして特定する。指定領域52と重なるオブジェクトが複数存在する場合、領域特定部106は、最も手前のオブジェクト(つまり、操作者の視線が最初に通過するオブジェクト)を関連オブジェクトとして選択してよく、他の方法で決定されるオブジェクトを関連オブジェクトとして選択してもよい。図5の例では、現実オブジェクト10-1が関連オブジェクトとして選択される。
図6は、対象オブジェクトのパラメータを変更する例を説明する図である。本例では、対象オブジェクト(仮想オブジェクト20)の位置パラメータを変更する。パラメータ変更部119は、操作ジェスチャが検出された場合に、対象オブジェクトのパラメータを変更する処理を開始してよい。
パラメータ変更部119は、関連オブジェクト(現実オブジェクト10-1)のパラメータに基づいて、対象オブジェクト(仮想オブジェクト20)のパラメータを変更する。本例では、関連オブジェクトの位置パラメータに基づいて、対象オブジェクトの位置パラメータを変更する。パラメータ変更部119は、対象オブジェクトのパラメータを、関連オブジェクトのパラメータと一致させてよい。本例では、対象オブジェクトの位置パラメータを、関連オブジェクトの位置パラメータと一致させる。
パラメータ変更部119が対象オブジェクトのいずれのパラメータを変更するかは、操作者が操作ジェスチャによりいずれのタグ(図3参照)を選択するかにより決定してよい。本例では、操作者が仮想オブジェクト20のタグ24を選択する。パラメータ変更部119は、選択されたタグに応じたパラメータを、既に指定されている関連オブジェクトのパラメータと一致させてよい。
また、領域特定部106は、操作者がいずれかのタグを画像12の2次元面(XZ面)上において移動させた位置に基づいて、指定領域を特定してもよい。例えば操作者によりタグ24が2次元面上で移動された場合、3次元空間内において移動後のタグ24と重なる領域を指定領域としてよい。領域特定部106は、指定領域に含まれるオブジェクトから、関連オブジェクトを決定してよい。この場合においても領域特定部106は、指定領域52に存在するオブジェクトが一つだけの場合、当該オブジェクトを関連オブジェクトとして特定する。指定領域52と重なるオブジェクトが複数存在する場合、領域特定部106は、最も手前のオブジェクトを関連オブジェクトとして選択してよく、他の方法で決定されるオブジェクトを関連オブジェクトとして選択してもよい。
タグの移動による関連オブジェクトの特定処理と、視線等の検出による関連オブジェクトの特定処理とは、いずれか一方だけを行ってよく、両方を行ってもよい。両方の処理を行う場合、タグの移動によって指定されたオブジェクトと、視線等の検出によって指定されたオブジェクトが一致している場合に、当該オブジェクトを関連オブジェクトとして特定してよい。
図7は、対象オブジェクトの位置パラメータを変更した後の画像12を示す図である。本例では、仮想オブジェクト20のタグ24の位置パラメータが、現実オブジェクト10-1の位置パラメータと一致するように変更されている。タグ24は、現実オブジェクト10の画像と重なる位置に表示される。仮想オブジェクト20のタグ24以外のタグは、他のオブジェクトと重ならない位置に表示されてよい。このような処理により、対象オブジェクトの位置パラメータを容易に変更できる。
図8は、対象オブジェクトのグループパラメータを変更する例を説明する図である。本例では、仮想オブジェクト20-3が対象オブジェクトであり、仮想オブジェクト20-1が関連オブジェクトである。本例では、仮想オブジェクト20-3のタグ26-3を選択することで、仮想オブジェクト20-3を対象オブジェクトとして選択する。また、タグ26-3を、仮想オブジェクト20-1のタグ26-1と重なる位置に2次元上で移動させることで、仮想オブジェクト20-1を関連オブジェクトとして指定する。それぞれの仮想オブジェクト20は、既に現実オブジェクト10と対応付けられている。仮想オブジェクト20-1は、視線等によっても関連オブジェクトとして特定されてよい。
操作前において、タグ26-3およびタグ26-1は、別のグループであることを示している。パラメータ変更部119は、タグ26-3がタグ26-1と重なる位置に移動された場合に、タグ26-3のパラメータを、タグ26-1のパラメータと一致させてよい。他の例では、タグ26-1のパラメータを、タグ26-3のパラメータと一致させてもよい。つまり、仮想オブジェクト20-1と対応する現実オブジェクト10-1と、仮想オブジェクト20-3と対応する現実オブジェクト10-3とが、同一のグループとなるように各パラメータを変更する。本例では、タグ26を2次元上で移動させることで、3次元空間内の他のタグ26を指定できる。このため、3次元空間内の各オブジェクトを容易に編集できる。
図4から図8においては、位置パラメータまたはグループパラメータの編集を説明したが、状態パラメータの編集も同様である。操作者が操作ジェスチャによりタグ22を選択して操作することで、対象オブジェクトの状態パラメータを、関連オブジェクトの状態パラメータと一致させてよい。
図9は、仮想オブジェクト20に割り当てられるパラメータの一例を説明する図である。それぞれの仮想オブジェクト20には、上述した位置パラメータ、状態パラメータ、グループパラメータが割り当てられてよい。それぞれの仮想オブジェクト20には、複数のグループパラメータが割り当てられてよい。つまり仮想オブジェクト20は、複数のグループに属してよい。また、それぞれの仮想オブジェクト20のグループは、階層的に分けられていてよい。それぞれの仮想オブジェクト20は、各階層におけるグループを示すグループパラメータが割り当てられてよい。これにより、仮想オブジェクト20のグループパラメータを、階層単位で編集できる。
それぞれの仮想オブジェクト20には、対応する現実オブジェクト10を示す装置パラメータ、現実オブジェクト10に関する情報を示す装置情報パラメータ、対応する現実オブジェクト10の保守に関する情報を示す保守情報パラメータ等を含んでよい。装置パラメータは、例えば装置の製造者、装置の型番等、装置を識別するための情報である。装置情報パラメータは、装置の用途、性能、装置の管理者等の情報である。保守情報パラメータは、現実オブジェクト10の保守手順、次回の保守時期、前回の保守時期等の情報である。
それぞれの仮想オブジェクト20には、操作者により入力される任意の文字情報を示す文字パラメータが割り当てられてもよい。文字パラメータは、例えば現実オブジェクト10の稼働時における留意事項等である。文字パラメータは、例えばグループ毎にまとめられてよい。例えば仮想オブジェクト20のグループが編集された場合に、編集後のグループに属する複数の仮想オブジェクト20に割り当てられた文字パラメータは、一つに結合されて、それぞれの仮想オブジェクト20から参照可能なように管理されてよい。これにより、同一グループの現実オブジェクト10に関するコメントを、一括して参照できる。
図10は、オブジェクトを選択する方法の他の例を説明する図である。本例では、関連オブジェクトを選択する方法を説明するが、対象オブジェクトを選択する場合も同様の処理を行ってよい。
本例では、視線等により特定された指定領域52に複数の現実オブジェクト10が含まれている。複数の現実オブジェクト10は、画像12で示される3次元空間の奥行方向(Z軸方向)において重なって配置されている。
領域特定部106は、予め設定された回転操作を示すジェスチャ情報を検出した場合に、指定領域52に含まれる複数のオブジェクトを回転して表示させてよい。領域特定部106は、指定領域52に含まれる複数のオブジェクトが奥行方向に重なっていることを条件として、指定領域52に含まれる複数のオブジェクトを回転して表示させてよい。つまり、回転操作のジェスチャを検出し、且つ、指定領域52の複数のオブジェクトが重なっている場合に、指定領域52の複数のオブジェクトを回転させてよい。
なお指定領域52における複数のオブジェクトの回転とは、指定領域52の複数のオブジェクトに対する視点位置および視線方向を変更することを指す。図10の例では、複数のオブジェクトに対してZ軸方向(つまり指定領域52と平行な方向)に離れた視点位置から、Z軸方向と平行な視線で観察した画像を、複数のオブジェクトに対してX軸方向(つまり指定領域52と垂直な方向)に離れた視点位置から、X軸方向と平行な視線で観察した画像に変換している。これにより、奥行方向において重なっていた複数のオブジェクトを分離して表示できる。
領域特定部106は、回転させた画像において操作者が選択したオブジェクトを関連オブジェクトとして特定してよい。操作者によるオブジェクトの選択は、他の例と同様に、視線検出またはタグの移動等により行われてよい。本例によれば。複数のオブジェクトが奥行方向に重なっている場合でも、関連オブジェクトを容易に選択できる。
また、指定領域52を回転して表示する場合、および、回転して表示しない場合のいずれの場合でも、予め設定された拡大表示ジェスチャを検出した場合には、指定領域52を含む領域を拡大して表示してよい。これにより、複数のオブジェクトが密集している場合でも、関連オブジェクトを容易に選択できる。
また、指定領域52の指定は、視線以外の方法で指定されてもよい。例えば予め設定された領域設定ジェスチャを検出した場合に、領域特定部106は、当該ジェスチャで指定された領域を指定領域52としてもよい。例えば、指等を動かすことで画像12のXZ面上で所定の範囲が指定された場合に、指定領域52は当該範囲を指定領域52としてよい。
領域特定部106は、指定領域52に複数のオブジェクトが含まれている場合、複数のオブジェクトのリストを表示させてもよい。オブジェクトは、仮想オブジェクト20および現実オブジェクト10の両方を含んでよく、一方の種類のオブジェクトを含んでもよい。指定領域52は、当該リストから操作者により選択されたオブジェクトを関連オブジェクトとして特定してよい。
図11は、操作者がオブジェクトを選択するときの他の動作例を説明する図である。本例の表示部122は、画像12が示す3次元空間の奥行方向における位置を指定する奥行位置インジケータ60を表示する。奥行位置インジケータ60は、3次元空間における位置情報(例えば3次元の座標)を有する。奥行位置インジケータ60は、3次元空間においてZ軸に沿って移動可能である。表示部122は、2次元面(XZ面)において、疑似的にZ軸方向を示す直線61を表示してよい。操作者は、2次元面において、直線61に沿って奥行位置インジケータ60を移動させる。直線61の各位置には、3次元空間の座標が割り当てられる。制御部120は、2次元面における奥行位置インジケータ60の直線61上の位置から、奥行位置インジケータ60の奥行位置を算出してよい。
操作者は、オブジェクトを選択する場合に、奥行位置インジケータ60を操作して、奥行位置を指定してよい。領域特定部106は、前述した指定領域52に含まれるオブジェクトのうち、奥行位置インジケータ60で指定される奥行位置にあるオブジェクトを関連オブジェクトとして特定してよい。表示部122は、奥行位置インジケータ60で指定されている奥行位置におけるXZ面62を表示してよい。XZ面62は、XZ面62よりも奥に存在するオブジェクトが視認できるように、透過または半透過の面であってよい。本例においても奥行位置インジケータ60の位置を2次元面で指定できるので、3次元空間における奥行方向の位置を短時間で指定できる。
図12は、作業支援方法の概要を示すフローチャートである。図12においては、作業支援方法における処理の一部を示している。作業支援方法は、図1から図11において説明した作業支援装置100と同一の処理を行ってよい。
まず画像表示段階S1202において、現実世界の構造物を示す現実オブジェクト10と、操作者により操作される仮想オブジェクト20とを含む3次元空間の画像12を表示する。S1202における処理は、表示部122の処理と同様である。
次に対象選択段階S1204において、1つ以上の仮想オブジェクト20から、操作者の操作の対象となる少なくとも1つの対象オブジェクトを選択する。S1204における処理は、対象選択部104の処理と同様である。
次に指定領域特定段階S1206において、操作者の身体の状態を示すジェスチャ情報に基づいて、画像12が示す3次元空間における指定領域52を特定する。また、関連オブジェクト特定段階S1208において、指定領域52に含まれる現実オブジェクト10および仮想オブジェクト20から、関連オブジェクトを特定する。S1206およびS1208における処理は、領域特定部106の処理と同様である。
次に対象オブジェクト操作段階S1210において、操作者による対象オブジェクトの操作を受け付ける。S1210では、操作ジェスチャによる操作を受け付ける。S1210の処理は、ジェスチャ検出部112における処理と同様である。
次にパラメータ変更段階S1212において、関連オブジェクトに基づいて、対象オブジェクトに関するパラメータを変更する。S1212における処理は、パラメータ変更部119の処理と同様である。このような処理により、3次元空間における奥行位置を効率よく特定して、対象オブジェクトのパラメータを効率よく変更できる。
図13は、作業支援方法の複数の態様が全体的または部分的に具現化されてよいコンピュータ2200の例を示す。コンピュータ2200には、コンピュータ2200に図1から図12において説明した作業支援方法を実行させるためのプログラムがインストールされる。
コンピュータ2200にインストールされたプログラムは、コンピュータ2200に、本発明の実施形態に係る装置に関連付けられる操作または当該装置の1または複数のセクションとして機能させることができ、または当該操作または当該1または複数のセクションを実行させることができ、および/またはコンピュータ2200に、本発明の実施形態に係る方法または当該方法の段階を実行させることができる。そのようなプログラムは、コンピュータ2200に、本明細書に記載のフローチャートおよびブロック図のブロックのうちのいくつかまたはすべてに関連付けられた特定の操作を実行させるべく、CPU2212によって実行されてよい。
本実施形態によるコンピュータ2200は、CPU2212、RAM2214、グラフィックコントローラ2216、およびディスプレイデバイス2218を含み、それらはホストコントローラ2210によって相互に接続されている。コンピュータ2200はまた、通信インタフェース2222、ハードディスクドライブ2224、DVD-ROMドライブ2226、およびICカードドライブのような入/出力ユニットを含み、それらは入/出力コントローラ2220を介してホストコントローラ2210に接続されている。コンピュータはまた、ROM2230およびキーボード2242のようなレガシの入/出力ユニットを含み、それらは入/出力チップ2240を介して入/出力コントローラ2220に接続されている。
CPU2212は、ROM2230およびRAM2214内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。グラフィックコントローラ2216は、RAM2214内に提供されるフレームバッファ等またはそれ自体の中にCPU2212によって生成されたイメージデータを取得し、イメージデータがディスプレイデバイス2218上に表示されるようにする。
通信インタフェース2222は、ネットワークを介して他の電子デバイスと通信する。ハードディスクドライブ2224は、コンピュータ2200内のCPU2212によって使用されるプログラムおよびデータを格納する。DVD-ROMドライブ2226は、プログラムまたはデータをDVD-ROM2201から読み取り、ハードディスクドライブ2224にRAM2214を介してプログラムまたはデータを提供する。ICカードドライブは、プログラムおよびデータをICカードから読み取り、および/またはプログラムおよびデータをICカードに書き込む。
ROM2230はその中に、アクティブ化時にコンピュータ2200によって実行されるブートプログラム等、および/またはコンピュータ2200のハードウェアに依存するプログラムを格納する。入/出力チップ2240はまた、様々な入/出力ユニットをパラレルポート、シリアルポート、キーボードポート、マウスポート等を介して、入/出力コントローラ2220に接続してよい。
プログラムが、DVD-ROM2201またはICカードのようなコンピュータ可読媒体によって提供される。プログラムは、コンピュータ可読媒体から読み取られ、コンピュータ可読媒体の例でもあるハードディスクドライブ2224、RAM2214、またはROM2230にインストールされ、CPU2212によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ2200に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置または方法が、コンピュータ2200の使用に従い情報の操作または処理を実現することによって構成されてよい。
例えば、通信がコンピュータ2200および外部デバイス間で実行される場合、CPU2212は、RAM2214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース2222に対し、通信処理を命令してよい。通信インタフェース2222は、CPU2212の制御下、RAM2214、ハードディスクドライブ2224、DVD-ROM2201、またはICカードのような記録媒体内に提供される送信バッファ処理領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、またはネットワークから受信された受信データを記録媒体上に提供される受信バッファ処理領域等に書き込む。
また、CPU2212は、ハードディスクドライブ2224、DVD-ROMドライブ2226(DVD-ROM2201)、ICカード等のような外部記録媒体に格納されたファイルまたはデータベースの全部または必要な部分がRAM2214に読み取られるようにし、RAM2214上のデータに対し様々なタイプの処理を実行してよい。CPU2212は次に、処理されたデータを外部記録媒体にライトバックする。
様々なタイプのプログラム、データ、テーブル、およびデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU2212は、RAM2214から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプの操作、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM2214に対しライトバックする。また、CPU2212は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU2212は、第1の属性の属性値が指定される、条件に一致するエントリを当該複数のエントリの中から検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。
上で説明したプログラムまたはソフトウェアモジュールは、コンピュータ2200上またはコンピュータ2200近傍のコンピュータ可読媒体に格納されてよい。また、専用通信ネットワークまたはインターネットに接続されたサーバーシステム内に提供されるハードディスクまたはRAMのような記録媒体が、コンピュータ可読媒体として使用可能であり、それによりプログラムを、ネットワークを介してコンピュータ2200に提供する。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順序で実施することが必須であることを意味するものではない。
10・・・現実オブジェクト、12・・・画像、20・・・仮想オブジェクト、22、24、26・・・タグ、32・・・手、51・・・通過領域、52・・・指定領域、60・・・奥行位置インジケータ、62・・・XZ面、100・・・作業支援装置、102・・・画像取得部、104・・・対象選択部、106・・・領域特定部、110・・・センサ部、112・・・ジェスチャ検出部、116・・・ジェスチャ情報記憶部、118・・・パラメータ情報記憶部、119・・・パラメータ変更部、120・・・制御部、122・・・表示部

Claims (11)

  1. 現実世界の構造物を示す現実オブジェクトと、操作者により操作される仮想オブジェクトとを含む3次元空間の画像を表示する表示部と、
    1つ以上の前記仮想オブジェクトから、前記操作者の操作の対象となる少なくとも1つの対象オブジェクトを選択する対象選択部と、
    前記操作者の身体の状態を示すジェスチャ情報に基づいて、前記3次元空間における指定領域を特定し、前記指定領域に含まれる前記現実オブジェクトおよび前記仮想オブジェクトから、関連オブジェクトを特定する領域特定部と、
    前記関連オブジェクトに基づいて、前記対象オブジェクトに関するパラメータを変更するパラメータ変更部と
    を備える作業支援装置。
  2. 前記パラメータ変更部は、前記関連オブジェクトの前記3次元空間における位置パラメータに基づいて、前記対象オブジェクトの位置パラメータを変更する
    請求項1に記載の作業支援装置。
  3. 前記領域特定部は、前記3次元空間において前記操作者の視線が通過する位置に基づいて前記指定領域を特定する
    請求項1または2に記載の作業支援装置。
  4. 前記領域特定部は、前記操作者の前記視線が最初に通過する前記現実オブジェクトまたは前記仮想オブジェクトを、前記関連オブジェクトとして特定する
    請求項3に記載の作業支援装置。
  5. 前記表示部は、前記3次元空間の奥行方向における位置を指定する奥行位置インジケータを表示し、
    前記領域特定部は、前記奥行位置インジケータが指定する位置に基づいて、前記関連オブジェクトを特定する
    請求項1から3のいずれか一項に記載の作業支援装置。
  6. 前記領域特定部は、予め設定された前記ジェスチャ情報を検出した場合に、前記指定領域を回転して表示させる
    請求項1から5のいずれか一項に記載の作業支援装置。
  7. 前記領域特定部は、前記指定領域に含まれる複数のオブジェクトが前記3次元空間の奥行方向に重なっていることを条件として、前記指定領域を回転して表示させる
    請求項6に記載の作業支援装置。
  8. 前記表示部は、前記指定領域に含まれる前記現実オブジェクトおよび前記仮想オブジェクトのリストを表示し、
    前記領域特定部は、前記リストから選択されたオブジェクトを前記関連オブジェクトとして特定する
    請求項1から7のいずれか一項に記載の作業支援装置。
  9. 前記仮想オブジェクトは、変更可能な複数のパラメータを含み、
    前記パラメータ変更部は、前記操作者の前記ジェスチャ情報に応じて、変更する前記パラメータを選択する
    請求項1から8のいずれか一項に記載の作業支援装置。
  10. 現実世界の構造物を示す現実オブジェクトと、操作者により操作される仮想オブジェクトとを含む3次元空間の画像を表示し、
    1つ以上の前記仮想オブジェクトから、前記操作者の操作の対象となる少なくとも1つの対象オブジェクトを選択し、
    前記操作者の身体の状態を示すジェスチャ情報に基づいて、前記3次元空間における指定領域を特定し、前記指定領域に含まれる前記現実オブジェクトおよび前記仮想オブジェクトから、関連オブジェクトを特定し、
    前記関連オブジェクトに基づいて、前記対象オブジェクトに関するパラメータを変更する
    作業支援方法。
  11. コンピュータに、請求項10に記載の作業支援方法を実行させるためのプログラム。
JP2021202693A 2021-12-14 2021-12-14 作業支援装置、作業支援方法およびプログラム Pending JP2023088062A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021202693A JP2023088062A (ja) 2021-12-14 2021-12-14 作業支援装置、作業支援方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021202693A JP2023088062A (ja) 2021-12-14 2021-12-14 作業支援装置、作業支援方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2023088062A true JP2023088062A (ja) 2023-06-26

Family

ID=86899785

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021202693A Pending JP2023088062A (ja) 2021-12-14 2021-12-14 作業支援装置、作業支援方法およびプログラム

Country Status (1)

Country Link
JP (1) JP2023088062A (ja)

Similar Documents

Publication Publication Date Title
Wang et al. A comprehensive survey of augmented reality assembly research
US10025102B2 (en) Mapping input to hologram or two-dimensional display
Zollmann et al. Visualization techniques in augmented reality: A taxonomy, methods and patterns
US10409443B2 (en) Contextual cursor display based on hand tracking
US9619104B2 (en) Interactive input system having a 3D input space
JP5844288B2 (ja) 機能拡張装置、機能拡張方法、機能拡張プログラム、及び集積回路
US20190251750A1 (en) Systems and methods for using a virtual reality device to emulate user experience of an augmented reality device
US20230152902A1 (en) Gesture recognition system and method of using same
JP2005227876A (ja) 画像処理方法、画像処理装置
JP6920057B2 (ja) 画像処理装置、画像処理方法、コンピュータプログラム
Himperich Applications in augmented reality in the automotive industry
US20220222900A1 (en) Coordinating operations within an xr environment from remote locations
JP2016122392A (ja) 情報処理装置、情報処理システム、その制御方法及びプログラム
CN112527112A (zh) 一种多通道沉浸式流场可视化人机交互方法
CN110573992A (zh) 使用增强现实和虚拟现实编辑增强现实体验
JP7065795B2 (ja) データ作成システム及びデータ作成方法
JP6131004B2 (ja) オブジェクト表示方法、プログラム、及び装置
EP4207094A2 (en) Method of learning a target object by detecting an edge from a digital model of the target object and setting sample points, and method of augmenting a virtual model on a real object implementing the target object using the learning method
JP2023088062A (ja) 作業支援装置、作業支援方法およびプログラム
JP6836060B2 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
US20220084287A1 (en) Information processing apparatus, display device, information processing system, and non-transitory computer readable medium storing program
JP2022115747A (ja) コンテンツ作成システム及び方法
JP2007249561A (ja) 画面遷移図の表示システム及びプログラム
JP5472509B2 (ja) 情報処理装置、および情報処理方法、並びに情報記録媒体
JP2013114466A (ja) 表示システム、表示方法およびプログラム