JP7129839B2 - 訓練装置、訓練システム、訓練方法、及びプログラム - Google Patents
訓練装置、訓練システム、訓練方法、及びプログラム Download PDFInfo
- Publication number
- JP7129839B2 JP7129839B2 JP2018136259A JP2018136259A JP7129839B2 JP 7129839 B2 JP7129839 B2 JP 7129839B2 JP 2018136259 A JP2018136259 A JP 2018136259A JP 2018136259 A JP2018136259 A JP 2018136259A JP 7129839 B2 JP7129839 B2 JP 7129839B2
- Authority
- JP
- Japan
- Prior art keywords
- trainee
- display data
- posture
- image
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Description
この時、操作者(訓練生)を教育及び訓練する方法として、実際の装置又は設備(以下、「実機」とも記載する)を精緻に模擬するハードウェアシミュレータを用いる方法が考えられている。
本発明の第1の態様によれば、訓練生がモックアップを用いて訓練を行うための訓練装置(10)は、前記訓練生の視界に含まれる景色を撮影した視界画像を取得する視界画像取得部(110)と、前記モックアップ上に配置されたマーカの画像を前記視界画像から検出し、当該マーカの画像に基づいて前記訓練生の位置及び姿勢を検出する位置検出部(111)と、前記視界画像に含まれる物体の外観又は形状を検出可能な特徴データを取得する特徴取得部(112)と、前記特徴データの時間的変化を追跡して前記訓練生の相対的な位置及び姿勢の推移を推定する位置推定部(113)と、前記訓練生の相対的な位置及び姿勢に基づいて、前記モックアップ上に重畳表示される表示データを作成する表示データ作成部(114)と、を備える。
このように、訓練装置は、訓練生の位置及び姿勢に応じてモックアップ上に重畳表示される表示データを作成するので、訓練生に対し、実機と同等の配置及び機能を仮想的に再現した訓練環境を提供することができる。これにより、訓練装置は、実機と同等の機能を有するハードウェアを用意する必要がないため、従来のハードウェアシミュレータを利用するよりもコストを低減させることができる。更に、訓練装置は、従来のソフトウェアシミュレータ又は仮想操作システムと比較して、モックアップ及び表示データにより機器配置及び操作手順を直感的理解させやすい訓練環境を提供できるので、訓練効率を大幅に向上させることができる。
また、訓練装置は、マーカに基づいて訓練生の位置及び姿勢を迅速かつ容易に検出可能であるとともに、訓練生の視界からマーカが外れた場合であっても、特徴データに基づいて訓練生の位置及び姿勢を推定することができる。このため、訓練装置は、訓練生がどのような位置又は姿勢で訓練を行ったとしても、適切な表示データを作成することができるので、訓練生に対し、より実機に近い違和感のない訓練環境を提供することが可能となる。
このようにすることで、訓練装置は、訓練生の操作に応じたフィードバックを含む表示データを作成することができる。これにより、訓練装置は、訓練生に対しより実機に近い操作感覚を体感可能な訓練環境を提供することができる。
このようにすることで、訓練装置は、訓練生が視線を移動させずに視界外で操作を行った場合であっても、センサから出力された検知信号に基づいて、訓練生が行った操作を検出することができる。これにより、訓練装置は、訓練生に対しより実機に近い操作感覚を体感可能な訓練環境を提供することができる。
このようにすることで、訓練装置は、訓練生が適切な操作を行ったか否かを判定し、例えば操作間違いがあった場合は警告等を含む表示データを作成する等、判定に応じたフィードバックを訓練生に与えるができる。これにより、訓練装置は、教師を用意することなく訓練生に訓練を行わせることができる。
このように、訓練システムは、訓練生の位置及び姿勢に応じた表示データをモックアップ上に重畳表示するので、訓練生に対し、実機と同等の配置及び機能を仮想的に再現した訓練環境を提供することができる。これにより、訓練システムは、実機と同等の機能を有するハードウェアを用意する必要がないため、従来のハードウェアシミュレータを利用するよりもコストを低減させることができる。更に、訓練システムは、従来のソフトウェアシミュレータ又は仮想操作システムと比較して、機器配置及び操作手順を直感的理解させやすい訓練環境を提供でるので、訓練効率を大幅に向上させることができる。
このようにすることで、訓練システムは、訓練生の視界からマーカが外れた場合であっても、視界画像内に含まれる物体(モックアップ等)の特徴データに基づいて、訓練生の位置及び姿勢を精度よく推定することができる。このため、訓練システムは、訓練生がどのような位置又は姿勢で訓練を行ったとしても、適切な表示データをモックアップ上に重畳表示することができるので、訓練生に対し、より実機に近い違和感のない訓練環境を提供することが可能となる。
このようにすることで、訓練システムは、訓練生の視界からマーカが外れた場合であっても、点群データに含まれる物体(モックアップ等)の各部の座標に基づいて、訓練生の位置及び姿勢を精度よく推定することができる。このため、訓練システムは、訓練生がどのような位置又は姿勢で訓練を行ったとしても、適切な表示データをモックアップ上に重畳表示することができるので、訓練生に対し、より実機に近い違和感のない訓練環境を提供することが可能となる。
図1は、本発明の一実施形態に係る訓練システムの全体構成を示す図である。
図1に示すように、本実施形態に係る訓練システム1は、訓練生Wがモックアップ31を介して特定の製品又は設備(以下、「実機」とも記載する)の操作方法及び操作手順を訓練するためのシステムである。訓練システム1は、訓練装置10と、表示装置22と、カメラ20と、深度センサ21と、センサ30と、モックアップ31とを備えている。
なお、訓練装置10の機能構成の詳細については後述する。
カメラ20は、訓練生Wの実際の視界に近い視界画像を撮影できるように、訓練生Wの視点に近い位置(例えば頭部)に、訓練生Wの視線方向とカメラ20の光軸とが略同一となるように配置される。
また、カメラ20は、訓練装置10と通信可能に接続されており、撮影した視界画像を逐次、訓練装置10に出力する。
また、深度センサ21は訓練装置10と通信可能に接続されており、取得した点群データを逐次、訓練装置10に出力する。
図2は、本発明の一実施形態に係る仮想空間の一例を示す図である。
図2に示すように、表示データD10には、「仮想表示部32」と「仮想入力部33」とが含まれている。「仮想表示部32」は、実機の計器等を模擬したコンピュータグラフィックであり、主に訓練生Wに対し視覚的なフィードバックを与える。「仮想入力部33」は、実機の入力機器(ボタン、スイッチ等)を模擬したコンピュータグラフィックであり、訓練生Wの仮想的な操作を受け付ける入力部の一態様である。
表示装置22は、このように、訓練生Wに対しモックアップ31上に計器及び入力機器が設けられているように見える視覚効果を与えることにより、仮想空間内に実機と同等の計器、入力機器等を再現する。
また、本実施形態に係る表示装置22は、例えば訓練生Wの頭部に装着される両眼シースルー型のヘッドマウントディスプレイである。なお、他の実施形態では、表示装置22は小型のレーザプロジェクタであってもよい。
検知領域31Dは、例えばモックアップ31上に表示データが重畳表示される領域(後述の表示領域31C)を含むように設定される。センサ30は、検知領域31Dにおける動作(即ち、訓練生Wの操作)を検知可能であればどの位置に設置されていてもよいが、本実施形態では、例えば図1に示すように、センサ30はモックアップ31よりも上方の壁面又は天井に固定配置されているものとする。
センサ30は訓練装置10と通信可能に接続されており、信号を逐次、訓練装置10に出力する。
なお、図1には、モックアップ31の上面が表示領域31Cとして設定されているが、モックアップ31の側面等、他の部位が含まれていてもよい。
また、マーカ31Aは、それぞれ固有のテクスチャを有する図形、又はQRコード(登録商標)等の二次元コードである。マーカ31Aは、予め定められた形状及びサイズを有している。マーカ31Aが複数ある場合、マーカ31A全てが同一の形状及びサイズを有していてもよいし、それぞれ異なる形状及びサイズを有していてもよい。なお、本実施形態では、図1に示すように、マーカ31Aの形状が矩形である態様を例として説明するが、これに限られることはない。他の実施形態では、マーカ31Aの形状は円形等の任意の形状であってもよい。
操作部31Bは、例えばレバー、操縦桿のような操作量(アナログ量)の入力を受け付ける入力機器の操作を体験するための可動部であり、本実施形態における仮想入力部33の一態様である。即ち、本実施形態に係る仮想入力部33は、物理的な操作体験が可能な操作部31Bと、視覚効果による操作体験が可能な表示データD10との双方を含む。
また、図1には操作部31Bが一つのみ設けられている例が示されているが、これに限られることはない。他の実施形態では、モックアップ31に複数の操作部31Bが設けられていてもよい。
また、奥行方向(±Y方向)において、訓練生Wに近い方(-Y側)を「手前側」、遠い方(+Y側)を「奥側」とも記載する。
図3は、本発明の一実施形態に係る訓練システムの機能構成を示す図である。
図3に示すように、訓練システム1の訓練装置10は、CPU11と、接続I/F12と、記憶媒体13とを備えている。
なお、訓練生Wの位置及び姿勢とは、厳密には訓練生Wの視点の位置(三次元座標系における位置)及び姿勢(三次元座標系の各軸周りの回転)を示す。
なお、本実施形態に係る特徴取得部112は、深度センサ21から出力された点群データを特徴データとして取得する。
また、表示データ作成部114は、作成した表示データを表示装置22に出力する。
本実施形態に係る操作検出部115は、訓練生Wが操作に使う体の一部(例えば手指)の位置及び動きを検出する。そして、操作検出部115は、例えば訓練生Wの手指の先端位置が、仮想入力部に相当する領域に位置する場合、訓練生Wが当該仮想入力部の操作を行ったことを検出する。
また、操作検出部115は、センサ30から出力された信号に基づいて、仮想入力部に対する訓練生Wの操作を検出する。これにより、訓練生Wが視線を移動させずに視界外で操作を行った場合、又は、訓練生Wの視界内に手指を隠す物体(訓練生Wの衣服等)が存在している場合であっても、訓練生Wの操作の検出漏れを抑制することができる。
図4は、本発明の一実施形態に係る訓練装置の処理の一例を示す第1の処理フローである。
図5は、本発明の一実施形態に係るマーカテーブルの一例を示す図である。
図6は、本発明の一実施形態に係る訓練装置の処理の一例を示す第2の処理フローである。
以下、図4~図6を参照しながら、訓練装置10が実行する訓練生Wの位置決定処理の一例について説明する。
検出ステータス「S」は、マーカ31Aが訓練生Wの視界(視界画像)に含まれるか否かを示す情報である。本実施形態では、検出ステータス「S」は、“初期値(マーカ未検出)”を示す「0」と、“マーカ31Aが視界内に含まれている”ことを示す「1」と、“マーカ31Aが視界から外れた”ことを示す「-1」とのうち何れかの値が設定される。
ステップS10では、検出ステータス「S」に初期値である「0」が設定される。
図5に示すように、マーカテーブルD20には、マーカ31Aの「マーカID」と、「座標」と、「姿勢」と、「サイズ」とが関連付けられたマーカ情報が、マーカ別に予め登録されている。
「マーカID」は、マーカ31Aを特定可能な識別情報である。本実施形態では、マーカ31Aのテクスチャに符号化されたマーカIDが埋め込まれており、位置検出部111は、既知の画像処理により、マーカ31Aの画像からマーカIDを読み取る。なお、他の実施形態では、マーカIDはテクスチャに埋め込まれていなくてもよい。この場合、マーカ情報にはテクスチャが更に登録されており、位置検出部111はマーカ31Aの画像と一致するテクスチャを検索して、当該マーカ31AのマーカIDを特定する。
「座標」は、マーカ31Aが配置された位置を表す三次元座標(X、Y、Z)である。例えば、表示領域31Cのうち、幅方向の最も左側(図1の-X側)且つ奥行方向の最も手前側(図1の-Y側)の位置を原点(「X、Y、Z」=「0、0、0」)とし、この原点からの幅方向、奥行方向、高さ方向における距離(mm)で表される。
「姿勢」は、マーカ31Aの各軸(X軸、Y軸、Z軸)周りの回転角度(α、β、γ)を表す情報である。
「サイズ」は、マーカ31Aの横幅(X)及び縦幅(Y)の大きさ(mm)を表す情報である。
一方、位置検出部111は、検出ステータス「S」に「1」が設定されていない場合(ステップS17:NO)、検出ステータスの更新は行わず、ステップS11に戻って上述の処理を繰り返し実行する。
位置推定部113は、前回推定した「相対位置及び姿勢Pe」のデータが記憶媒体13に記憶されている場合(ステップS22:YES)、ステップS23に進む。
一方、位置推定部113は、前回推定した「相対位置及び姿勢Pe」のデータが記憶媒体13に記憶されていない場合(ステップS22:NO)、ステップS20において推定した「相対位置及び姿勢Pe」を記憶媒体13に記憶し(ステップS27)、ステップS20に戻る。
位置推定部113は、検出ステータス「S」が「-1」である場合(ステップS23:YES)、ステップS24に進む。
一方、位置推定部113は、検出ステータス「S」が「-1」ではない場合(ステップS23:NO)、ステップS20において推定した「相対位置及び姿勢Pe」を記憶媒体13に記憶し(ステップS27)、ステップS20に戻る。
即ち、位置推定部113は、マーカ31Aが訓練生Wの視界から外れてしまった場合は、最後にマーカ31Aに基づいて検出した訓練生Wの「位置及び姿勢P」を基準として、相対変化量ΔP分の移動先である、現時点における訓練生Wの「位置及び姿勢P」を推定する。これにより、位置推定部113は、マーカ31Aが視界から外れていても、訓練生Wの「位置及び姿勢P」を精度よく推定することが可能となる。
図7は、本発明の一実施形態に係る訓練装置の操作受付処理の一例を示す処理フローである。
以下、図7を参照しながら、訓練装置10が訓練生Wの操作を受け付ける処理の一例について説明する。
図8は、本発明の一実施形態に係る状態テーブルの一例を示す図である。
状態テーブルD21は、表示データD10の仮想表示部32及び仮想入力部33に含まれる、仮想の計器、入力機器それぞれの初期状態及び現在の状態を示すテーブルである。
図8に示すように、状態テーブルD21には、「状態ID」と、「初期状態」と、「現在の状態」とが関連付けられて記憶されている。例えば、「状態ID:状態001」は仮想入力部33に含まれるあるスイッチが「OFF」であることを示す状態であり、「状態ID:状態002」は「ON」であることを示す状態であるとする。図8の例では、「状態ID:001」の初期状態は「TRUE」であり、「状態ID:002」の初期状態は「FALSE」であるので、操作検出部115は、当該スイッチの初期状態が「OFF」であると認識することができる。
図9は、本発明の一実施形態に係るオブジェクト状態テーブルの一例を示す図である。
図9に示すように、オブジェクト状態テーブルD22には、「オブジェクトID」と、オブジェクトの初期の描画状態を示す「座標」、「姿勢」、「スケール」、「色」、「テクスチャ」等とが関連付けられて状態ID別に登録されている。
個々では、表示データ作成部114は、状態テーブルD21の初期状態と、オブジェクト状態テーブルD22とを参照して、初期状態の表示データを作成して、表示装置22に出力しているものとする。
このとき、操作検出部115は、深度センサ21から取得した特徴データに基づいて、訓練生Wの視界内における手指位置m1を検出するとともに、センサ30から取得した特徴データに基づいて、検知領域31Dにおける手指位置m2を検出する。
図10は、本発明の一実施形態に係る入力操作テーブルの一例を示す図である。
図10に示すように、入力操作テーブルD23には、「操作ID」と、「認識対象」と、「座標」とが関連付けられて記憶されている。図10の例では、「認識対象」である訓練生Wの指が「座標M(200、150、0)」で示される地点周辺に位置したときに「入力操作ID:操作001」が行われたと認識される。また、入力操作が操作部31Bに関する操作である場合は、操作部31Bの操作量を示す情報(例えば操作部31Bの操作前後の座標)が含まれていてもよい。
具体的には、操作検出部115は、ステップS32で検出した手指位置mと、ステップS33で取得した座標Mのうち何れかとの差の絶対値が所定の閾値R未満(「|m-M|<R」)となる場合、この座標Mと関連付けられた入力操作を行ったと判断し(ステップS34:YES)、ステップS35に進む。なお、閾値Rは、仮想入力部33を構成するオブジェクトの配置、サイズ等に応じてオブジェクト別に異なる値が設定されていてもよいし、同じ値が設定されていてもよい。
一方、操作検出部115は、手指位置mと、座標Mそれぞれとの差の絶対値が閾値R以上である場合、入力操作は行われなかったと判断し(ステップS34:NO)、ステップS31に戻る。
なお、操作検出部115は、入力操作が行われたか否かを判断する際、手指位置m1及び手指位置m2の少なくとも一方を用いて判断を行う。例えば、操作検出部115は、手指位置m1が検出できなかった場合、手指位置m2を用いて判断を行う。また、手指位置m1及び手指位置m2の双方が検出できた場合、予め決められた優先順位に基づいて手指位置m1及び手指位置m2の何れかを用いるようにしてもよい。
また、操作検出部115は、訓練生Wが操作部31Bを操作したことを検出した場合、その操作量を検出するようにしてもよい。例えば、操作検出部115は、訓練生Wの操作を検出する前の操作部31Bの位置から、訓練生Wの操作を検出した後の操作部31Bの位置までの移動量に基づいて、操作量を検出してもよい。
図11は、本発明の一実施形態に係る状態遷移テーブルの一例を示す図である。
図11に示すように、状態遷移テーブルD24には、「入力操作ID」と、「状態遷移ID」とが関連付けられて記憶されている。
ステップS35では、操作検出部115は、状態遷移テーブルD24を参照して、ステップS34で検出された入力操作に対応する「状態遷移ID」を特定する。
図12は、本発明の一実施形態に係る状態遷移詳細テーブルの一例を示す図である。
図12に示すように、状態遷移詳細テーブルD25には、「状態遷移ID」と、「遷移内容」と、「遷移状況」と、「経過時間」とが関連付けられて記憶されている。
「遷移内容」は、状態遷移がどの状態からどの状態へ遷移するかを示す情報であり、「遷移前の状態」及び「遷移後の状態」を含む。
「遷移状況」は、状態遷移を実行中であるか否かを示す情報であり、「遷移中」又は「遷移完了」の何れかのステータスが設定される。
「経過時間」は、状態遷移が現在「t秒」まで実行されたことを示す情報であり、遷移状況が「遷移中」に変更されたときに「0秒」に設定される。
図12の例では、「状態遷移ID:状態遷移001」は、「状態001(スイッチ=OFFを示す状態)」から「状態002(スイッチ=ONを示す状態)」に切り替える状態遷移を行うことを示している。このとき、操作検出部115は、状態テーブルD21(図8)の「状態ID:状態001」の「現在の状態」を「FALSE」に更新するとともに、「状態ID:状態002」の「現在の状態」を「TRUE」に更新する。これにより、スイッチOFFを示す「状態001」が解除され、代わりにスイッチONを示す「状態002」が有効となる。即ち、訓練生Wの仮想入力部33に対する入力操作により、スイッチがOFFからONに仮想的に切り替えられる。
操作検出部115は、状態遷移詳細テーブルD25を更新すると、ステップS31に戻り、訓練生Wによる操作を受け付ける処理を繰り返し実行する。
図13は、本発明の一実施形態に係る訓練装置の表示データ作成処理の一例を示す第1の処理フローである。
訓練装置10の表示データ作成部114は、図7の操作受付処理において更新された状態テーブルD21(図8)及び状態遷移詳細テーブルD25(図12)に基づいて、表示データD10に含まれるオブジェクトそれぞれの描画状態を逐次計算して更新する。
以下、図13を参照しながら、表示データ作成部114がオブジェクトの描画状態を決定する処理の一例について説明する。
表示データ作成部114は、「遷移中」の状態遷移がある場合(ステップS43:YES)、ステップS44に進む。
一方、表示データ作成部114は、「遷移中」の状態遷移がない場合(ステップS43:NO)、ステップS30に戻る。
表示データ作成部114は、変数iが総数N1以下である場合(ステップS45:YES)、ステップS46に進む。
一方、表示データ作成部114は、変数iが総数N1より大きい場合(ステップS45:NO)、即ち、現在時刻Tにおける全ての状態遷移の処理が完了した場合、ステップS54に進む。
表示データ作成部114は、変数jが総数N2以下である場合(ステップS49:YES)、ステップS50に進む。
一方、表示データ作成部114は、変数jが総数N2より大きい場合(ステップS49:NO)、即ち、i番目の状態遷移の経過時間tiにおける全てのオブジェクトに対する描画状態の計算が完了した場合、ステップS53に進む。
状態遷移表現テーブルD26は、状態遷移を開始してからの経過時間に応じたオブジェクトそれぞれの描画状態を設定したテーブルである。図14に示すように、状態遷移表現テーブルD26は、「状態遷移ID」と、「オブジェクトID」と、「シーケンス」と、シーケンスの「開始時間」及び「終了時間」と、「終了時間」時点における描画状態を示す「座標」、「姿勢」、「スケール」、「色」、「テクスチャ」等とが関連付けられている。
「シーケンス」は、オブジェクトの描画状態を経過時間毎に段階的に変更する際に、描画順を示す情報である。図14の例では、表示データ作成部114は、「オブジェクト001」について、状態遷移の経過時間0秒~2秒まではシーケンス1に基づき描画状態を計算し、経過時間2秒~4秒まではシーケンス2に基づき描画状態を計算する。
図15は、本発明の一実施形態に係るオブジェクト描画状態テーブルの一例を示す図である。
図15に示すように、オブジェクト描画状態テーブルD27には、状態遷移中のため描画更新が必要なオブジェクトの「オブジェクトID」と、現時点におけるオブジェクトの描画状態を示す「座標」、「姿勢」、「スケール」、「色」、「テクスチャ」等とが関連付けられて記憶されている。
訓練装置10の表示データ作成部114は、図3及び図6において検出及び推定された訓練生Wの「位置及び姿勢P」と、図13の処理において更新されたオブジェクト描画状態テーブルD27(図15)に基づいて、表示データD10の作成処理を行う。
以下、図16を参照しながら、表示データ作成部114による表示データD10の作成処理の一例について説明する。
表示データ作成部114は、変数jが総数N3以下である場合(ステップS61:YES)、即ち、描画更新が完了していないオブジェクトが存在している場合、ステップS62に進む。
一方、表示データ作成部114は、変数jが総数N3より大きい場合(ステップS61:NO)、即ち、全てのオブジェクトの描画更新が完了している場合、ステップS60に戻る。
このとき、表示データ作成部114は、記憶媒体13に記憶されている訓練生Wの「位置及び姿勢P」を読み出して、当該「位置及び姿勢P」に応じたオブジェクトの位置及び姿勢を計算して描画する。
図17は、本発明の一実施形態に係る訓練装置の操作判定処理の一例を示す処理フローである。
図18は、本発明の一実施形態に係る操作手順テーブルの一例を示す図である。
以下、図17~図18を参照しながら、訓練装置10が訓練生Wの操作が正しいか否かを判定する処理の一例について説明する。
図18は、本発明の一実施形態に係る手順テーブルの一例を示す図である。
図18に示すように、手順テーブルには、「作業ID」と、「作業番号」と、「テキスト」と、「入力操作」とが関連付けられて記憶されている。
「作業番号」は、各作業で行われる一連の作業手順それぞれに付されて番号であり、作業の実行順を示す情報である。
「作業指示」は、各作業手順において訓練生Wが実行すべき作業内容を訓練生Wに伝達するための文字又は画像情報である。
「入力操作」は、各作業手順において訓練生Wが実行すべき操作内容を示す情報である。具体的には、「入力操作」として、入力操作テーブルD23(図10)の「入力操作ID」が登録されている。
操作判定部116は、変数kが総数N4以下である場合(ステップS72:YES)、ステップS73に進む。
一方、操作判定部116は、変数kが総数N4より大きい場合(ステップS72:NO)、即ち、一連の作業手順が完了した場合、処理を終了する。
なお、訓練生Wに対する作業指示が不要である場合は、当該ステップを省略してもよい。作業指示を表示するか否かは、設定により変更可能であってもよい。
操作判定部116は、訓練生Wの入力操作が作業手順と一致する場合(ステップS76:NO)、訓練生Wは正しい手順で操作を行ったと判定し、ステップS78に進む。
一方、操作判定部116は、訓練生Wの入力操作が作業手順と一致しない場合(ステップS76:NO)、訓練生Wは誤った手順で操作を行ったと判定し、表示データ作成部114に警告メッセージを描画させる(ステップS79)。なお、警告メッセージには、正しい手順を指示するメッセージが含まれていてもよい。また、操作判定部116は、ステップS74に戻り、訓練生Wの入力操作を再度受け付ける。
図19は、本発明の一実施形態に係る訓練装置のハードウェア構成の一例を示す図である。
以下、図19を参照して、訓練装置10のハードウェア構成の一例について説明する。
図19に示すように、コンピュータ900は、CPU901、主記憶装置902、補助記憶装置903、インタフェース904を備える。
上述の訓練装置10は、コンピュータ900に実装される。そして、上述した各処理部の動作は、プログラムの形式で補助記憶装置903に記憶されている。CPU901は、プログラムを補助記憶装置903から読み出して主記憶装置902に展開し、当該プログラムに従って上記処理を実行する。また、CPU901は、プログラムに従って、訓練装置10が各種処理に用いる記憶領域を主記憶装置902に確保する。また、CPU901は、プログラムに従って、処理中のデータを記憶する記憶領域を補助記憶装置903に確保する。
更に、当該プログラムは、前述した機能を補助記憶装置903に既に記憶されている他のプログラムとの組み合わせで実現するもの、いわゆる差分ファイル(差分プログラム)であってもよい。
このように、訓練装置10は、訓練生Wの「位置及び姿勢P」に応じてモックアップ31上に重畳表示される表示データD10を作成するので、訓練生Wに対し、実機と同等の配置及び機能を仮想的に再現した訓練環境を提供することができる。これにより、訓練装置10は、実機と同等の機能を有するハードウェアを用意する必要がないため、従来のハードウェアシミュレータを利用するよりもコストを低減させることができる。更に、訓練装置10は、従来のソフトウェアシミュレータ又は仮想操作システムと比較して、機器配置及び操作手順を直感的理解させやすい訓練環境を提供できるので、訓練効率を大幅に向上させることができる。
また、訓練装置10は、マーカ31Aに基づいて訓練生Wの「位置及び姿勢P」を迅速かつ容易に検出可能であるとともに、訓練生Wの視界からマーカ31Aが外れた場合であっても、特徴データに基づいて訓練生Wの「位置及び姿勢P」を推定することができる。このため、訓練装置10は、訓練生Wがどのような位置又は姿勢で訓練を行ったとしても、適切な表示データD10を作成することができるので、訓練生Wに対し、より実機に近い違和感のない訓練環境を提供することが可能となる。
これにより、位置推定部113は、マーカ31Aが視界から外れた場合であっても、前回検出された「位置及び姿勢P」を基準とすることにより、訓練生Wの位置及び姿勢を推定する精度を向上させることができる。
このようにすることで、訓練装置10は、訓練生Wの操作に応じたフィードバックを含む表示データD10を作成することができる。これにより、訓練装置10は、訓練生Wに対しより実機に近い操作感覚を体感可能な訓練環境を提供することができる。
このようにすることで、訓練装置10は、訓練生Wが視線を移動させずに視界外で操作を行った場合(例えば仮想の計器を確認しながら操作部31Bを操作した場合)であっても、センサ30から出力された検知信号に基づいて、訓練生Wが行った操作を検出することができる。これにより、訓練装置10は、訓練生Wに対しより実機に近い操作感覚を体感可能な訓練環境を提供することができる。
このようにすることで、訓練装置10は、訓練生Wが適切な操作を行ったか否かを判定し、例えば操作間違いがあった場合は警告等を含む表示データを作成する等、判定に応じたフィードバックを訓練生Wに与えるができる。これにより、訓練装置10は、教師を用意することなく訓練生Wに訓練を行わせることができる。
このように、訓練システム1は、訓練生Wの「位置及び姿勢P」に応じた表示データD10をモックアップ31上に重畳表示するので、訓練生Wに対し、実機と同等の配置及び機能を仮想的に再現した訓練環境を提供することができる。これにより、訓練システム1は、実機と同等の機能を有するハードウェアを用意する必要がないため、従来のハードウェアシミュレータを利用するよりもコストを低減させることができる。更に、訓練システム1は、従来のソフトウェアシミュレータ又は仮想操作システムと比較して、機器配置及び操作手順を直感的理解させやすい訓練環境を提供でるので、訓練効率を大幅に向上させることができる。
このようにすることで、訓練システム1は、訓練生Wの視界からマーカ31Aが外れた場合であっても、点群データに含まれる物体(モックアップ31等)の各部の座標に基づいて、訓練生Wの「位置及び姿勢P」を精度よく推定することができる。このため、訓練システム1は、訓練生Wがどのような位置又は姿勢で訓練を行ったとしても、適切な表示データD10をモックアップ31上に重畳表示することができるので、訓練生Wに対し、より実機に近い違和感のない訓練環境を提供することが可能となる。
例えば、上述の実施形態において、訓練装置10の特徴取得部112が深度センサ21から出力された点群データを特徴データとして取得する態様について説明したが、これに限られることはない。他の実施形態では、特徴取得部112は、カメラ20により撮影された視界画像に所定の画像処理を施すことにより、視界画像に含まれる物体の特徴量(画像の色、輝度、濃度等)を特徴データとして取得してもよい。
この場合、訓練装置10の位置推定部113は、例えばvisual SLAMの技術を利用して、「環境地図」の作成及び「相対位置及び姿勢Pe」の推定を行う。
このような構成によっても、上述の実施形態と同様の効果を得ることが可能である。また、この場合、深度センサ21を省略することができるので、訓練装置10にかかるコストを更に低減させることができる。
この場合、複数の訓練生Wは、それぞれカメラ20、深度センサ21、及び表示装置22を装着する。また、訓練生Wは、同じ室内にいてもよいし、それぞれ遠隔地にいてもよい。複数の訓練生Wが同じ室内にいる場合は、一台のモックアップ31を複数人で共用してもよいし、訓練生別に一台ずつモックアップ31が用意されてもよい。複数の訓練生Wが同じ室内で訓練を行うか、また、モックアップ31を共用するか否かは、訓練内容に応じて任意に決めてよい。
また、訓練装置10は、一台を複数の訓練生Wで共用してもよいし、訓練生Wそれぞれに一台ずつ用意されてもよい。一台又は複数の訓練装置10は、複数の訓練生Wそれぞれの「位置及び姿勢P」を個別に検出及び推定する。また、訓練装置10は、訓練生Wそれぞれの「位置及び姿勢P」に応じた表示データD10を個別に作成して、表示装置22に表示させる。このとき、表示データD10には、訓練生W全員に共通のオブジェクト(なお、訓練生それぞれの「位置及び姿勢P」に応じてオブジェクトの位置及び姿勢は異なる)が含まれていてもよいし、異なるオブジェクトが含まれていてもよい。例えば航空機の離着陸の操縦訓練するケースでは、一の訓練生Wに対する表示データD10にはコックピットを模擬したオブジェクトが含まれ、他の訓練生Wに対する表示データD10には、一の訓練生Wの操作に応じた航空機の車輪(降着装置)の動作を模擬したオブジェクトが含まれていてもよい。
このようにすることで、訓練システム1は、複数の訓練生Wを同時に訓練することができる。また、一つの作業に対し、複数の訓練生Wが異なる作業を並行して実行しなければならない場合も、訓練システム1は、訓練生Wそれぞれに割り当てられた作業を同時に訓練することができる。このため、訓練システム1は、訓練効率を大幅に向上させることができる。
10 訓練装置
11 CPU
110 視界画像取得部
111 位置検出部
112 特徴取得部
113 位置推定部
114 表示データ作成部
115 操作検出部
116 操作判定部
13 記憶媒体
20 カメラ
21 深度センサ
22 表示装置
30 センサ
31 モックアップ
31A マーカ
31B 操作部
31C 表示領域
31D 検知領域
32 仮想表示部
33 仮想入力部
Claims (9)
- 訓練生がモックアップを用いて訓練を行うための訓練装置であって、
前記訓練生の視界に含まれる景色を撮影した視界画像を取得する視界画像取得部と、
前記モックアップ上に配置されたマーカの画像を前記視界画像から検出し、当該マーカの画像に基づいて前記訓練生の位置及び姿勢を検出して記憶媒体に記憶する位置検出部と、
前記視界画像に含まれる物体の外観又は形状を検出可能な特徴データを取得する特徴取得部と、
前記視界画像から前記マーカの画像が検出されなかった場合に、前記特徴データの時間的変化を追跡して、前記特徴データから得られる前記モックアップの位置に対する前記訓練生の相対的な位置及び姿勢の変化量を推定し、前記位置検出部が検出した前回時刻における前記訓練生の位置及び姿勢と、前記変化量とに基づいて、現時刻における前記訓練生の位置及び姿勢を推定して、前記記憶媒体に記憶する位置推定部と、
前記記憶媒体に記憶された前記訓練生の位置及び姿勢に基づいて、前記モックアップ上に重畳表示される表示データを作成する表示データ作成部と、
を備える訓練装置。 - 前記特徴データに基づいて仮想入力部に対する前記訓練生の操作を検出する操作検出部を更に備え、
前記表示データ作成部は、前記操作に応じた前記表示データを作成する、
請求項1に記載の訓練装置。 - 前記モックアップを含む所定の検知領域における動作を検知するセンサから出力された信号に基づいて、仮想入力部に対する前記訓練生の操作を検出する操作検出部を更に備え、
前記表示データ作成部は、前記操作に応じた前記表示データを作成する、
請求項1に記載の訓練装置。 - 前記操作検出部が検出した前記操作に基づいて、前記訓練生の操作が正しいか否かを判定する操作判定部を更に備え、
前記表示データ作成部は、前記操作判定部の判定結果に応じた前記表示データを作成する、
請求項2又は3に記載の訓練装置。 - 訓練生がモックアップを用いて訓練を行うための訓練システムであって、
請求項1から4の何れか一項に記載の訓練装置と、
前記訓練生に装着され、前記視界画像を撮影するカメラと、
前記表示データを前記モックアップ上に重畳表示する表示装置と、
を備える訓練システム。 - 前記特徴取得部は、前記視界画像に所定の画像処理を施すことにより、前記物体に関連する前記特徴データを取得する、
請求項5に記載の訓練システム。 - 前記訓練生に装着され、前記視界に含まれる前記物体の座標の集合である点群データを取得する深度センサを更に備え、
前記特徴取得部は、前記点群データを前記特徴データとして取得する、
請求項5に記載の訓練システム。 - 訓練生がモックアップを用いて訓練を行うための訓練方法であって、
訓練装置が、前記訓練生の視界に含まれる景色を撮影した視界画像を取得する視界画像取得ステップと、
前記訓練装置が、前記モックアップ上に配置されたマーカの画像を前記視界画像から検出し、当該マーカの画像に基づいて前記訓練生の位置及び姿勢を検出して記憶媒体に記憶する位置検出ステップと、
前記訓練装置が、前記視界画像に含まれる物体の外観又は形状を検出可能な特徴データを取得する特徴取得ステップと、
前記訓練装置が、前記視界画像から前記マーカの画像が検出されなかった場合に、前記特徴データの時間的変化を追跡して、前記特徴データから得られる前記モックアップの位置に対する前記訓練生の相対的な位置及び姿勢の変化量を推定し、前記位置検出ステップにおいて検出した前回時刻における前記訓練生の位置及び姿勢と、前記変化量とに基づいて、現時刻における前記訓練生の位置及び姿勢を推定して、前記記憶媒体に記憶する位置推定ステップと、
前記訓練装置が、前記記憶媒体に記憶された前記訓練生の位置及び姿勢に基づいて、前記モックアップ上に重畳表示される表示データを作成する表示データ作成ステップと、
を有する訓練方法。 - 訓練生がモックアップを用いて訓練を行うための訓練装置のコンピュータを機能させるプログラムであって、前記コンピュータに、
前記訓練生の視界に含まれる景色を撮影した視界画像を取得する視界画像取得ステップと、
前記モックアップ上に配置されたマーカの画像を前記視界画像から検出し、当該マーカの画像に基づいて前記訓練生の位置及び姿勢を検出して記憶媒体に記憶する位置検出ステップと、
前記視界に含まれる物体の外観又は形状を検出可能な特徴データを取得する特徴取得ステップと、
前記視界画像から前記マーカの画像が検出されなかった場合に、前記特徴データの時間的変化を追跡して、前記特徴データから得られる前記モックアップの位置に対する前記訓練生の相対的な位置及び姿勢の変化量を推定し、前記位置検出ステップにおいて検出した前回時刻における前記訓練生の位置及び姿勢と、前記変化量とに基づいて、現時刻における前記訓練生の位置及び姿勢を推定して、前記記憶媒体に記憶する位置推定ステップと、
前記記憶媒体に記憶された前記訓練生の相対的な位置及び姿勢に基づいて、前記モックアップ上に重畳表示される表示データを作成する表示データ作成ステップと、
を実行させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018136259A JP7129839B2 (ja) | 2018-07-19 | 2018-07-19 | 訓練装置、訓練システム、訓練方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018136259A JP7129839B2 (ja) | 2018-07-19 | 2018-07-19 | 訓練装置、訓練システム、訓練方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020013035A JP2020013035A (ja) | 2020-01-23 |
JP7129839B2 true JP7129839B2 (ja) | 2022-09-02 |
Family
ID=69169203
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018136259A Active JP7129839B2 (ja) | 2018-07-19 | 2018-07-19 | 訓練装置、訓練システム、訓練方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7129839B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111538409B (zh) * | 2020-04-15 | 2023-12-22 | 广东小天才科技有限公司 | 一种地震自救训练方法及装置、可穿戴设备 |
CN114627736B (zh) * | 2022-03-11 | 2023-04-07 | 苏州尚领医疗科技有限公司 | 一种应用于心肺复苏功能的实训方法及系统 |
CN117357103B (zh) * | 2023-12-07 | 2024-03-19 | 山东财经大学 | 一种基于cv的肢体运动训练指导方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000112334A (ja) | 1998-10-07 | 2000-04-21 | Mitsubishi Heavy Ind Ltd | 運転操作訓練装置 |
JP6317481B2 (ja) | 2009-05-28 | 2018-04-25 | ゲーペー ツェルローゼ ゲーエムベーハー | 化学的クラフト繊維由来の修飾セルロース、ならびにそれを作製および使用する方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6317481A (ja) * | 1986-07-09 | 1988-01-25 | 株式会社日立製作所 | エラ−判定・表示装置 |
EP2189198B1 (de) * | 2008-11-20 | 2017-06-21 | Braun GmbH | Körperpflegegerät des persönlichen Bedarfs |
JP6089722B2 (ja) * | 2013-01-23 | 2017-03-08 | 富士通株式会社 | 画像処理装置、画像処理方法および画像処理プログラム |
JP6857980B2 (ja) * | 2016-08-02 | 2021-04-14 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法およびプログラム |
-
2018
- 2018-07-19 JP JP2018136259A patent/JP7129839B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000112334A (ja) | 1998-10-07 | 2000-04-21 | Mitsubishi Heavy Ind Ltd | 運転操作訓練装置 |
JP6317481B2 (ja) | 2009-05-28 | 2018-04-25 | ゲーペー ツェルローゼ ゲーエムベーハー | 化学的クラフト繊維由来の修飾セルロース、ならびにそれを作製および使用する方法 |
Non-Patent Citations (1)
Title |
---|
鈴木 遼人, 鈴木 奏太, 佐藤 美恵,「高い現実感で仮想物体を掴むことに着目したAR装置の開発」,映像情報メディア学会技術報告,日本,(一社)映像情報メディア学会,2013年10月21日,第37巻 第45号,p.9-12 |
Also Published As
Publication number | Publication date |
---|---|
JP2020013035A (ja) | 2020-01-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230093676A1 (en) | Virtual reality system and method | |
US10972680B2 (en) | Theme-based augmentation of photorepresentative view | |
JP6598617B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
US7292240B2 (en) | Virtual reality presentation device and information processing method | |
JP2019083033A (ja) | 仮想現実環境においてナビゲートする方法、システム、および装置 | |
JP7129839B2 (ja) | 訓練装置、訓練システム、訓練方法、及びプログラム | |
JP2005108108A (ja) | 三次元cg操作装置および方法、並びに位置姿勢センサのキャリブレーション装置 | |
JP7164045B2 (ja) | 骨格認識方法、骨格認識プログラムおよび骨格認識システム | |
JP2006072903A (ja) | 画像合成方法及び装置 | |
JP2013061937A (ja) | ステレオカメラ及びステレオディスプレイを組み合わせたやり取り | |
JP2010257081A (ja) | 画像処理方法及び画像処理装置 | |
CN107694086A (zh) | 游戏系统的信息处理方法及装置、存储介质、电子设备 | |
US20200273243A1 (en) | Remote monitoring and assistance techniques with volumetric three-dimensional imaging | |
JP2007233971A (ja) | 画像合成方法及び装置 | |
US20130176302A1 (en) | Virtual space moving apparatus and method | |
US11393153B2 (en) | Systems and methods performing object occlusion in augmented reality-based assembly instructions | |
JP2009048237A (ja) | 画像処理装置、画像処理方法 | |
US10080963B2 (en) | Object manipulation method, object manipulation program, and information processing apparatus | |
KR20150044243A (ko) | 손 아바타를 이용한 콘텐츠 제어가능 전자학습 장치 및 방법 | |
CN112416124A (zh) | 舞蹈姿势反馈方法及装置 | |
CN113631477A (zh) | 信息处理装置、信息处理方法和程序 | |
JP2019197278A (ja) | 画像処理装置、画像処理装置の制御方法およびプログラム | |
KR20150081975A (ko) | 하이브리드 센서를 이용한 착용형 디스플레이 장치의 자세 예측 장치 | |
JP2019175294A (ja) | 表示制御プログラム、装置、及び方法 | |
US10866688B2 (en) | Augmented reality tour guide |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210212 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211224 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220118 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220310 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220726 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220823 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7129839 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |