JP2019197165A - 作業訓練装置、作業訓練方法、およびプログラム - Google Patents

作業訓練装置、作業訓練方法、およびプログラム Download PDF

Info

Publication number
JP2019197165A
JP2019197165A JP2018091580A JP2018091580A JP2019197165A JP 2019197165 A JP2019197165 A JP 2019197165A JP 2018091580 A JP2018091580 A JP 2018091580A JP 2018091580 A JP2018091580 A JP 2018091580A JP 2019197165 A JP2019197165 A JP 2019197165A
Authority
JP
Japan
Prior art keywords
user
virtual
action
device information
virtual space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018091580A
Other languages
English (en)
Inventor
崇史 野中
Takashi Nonaka
崇史 野中
尋輝 柳澤
Hiroaki Yanagisawa
尋輝 柳澤
独史 小畑
Tadafumi Obata
独史 小畑
宏太 豊嶋
Kota Toyoshima
宏太 豊嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
NEC Solution Innovators Ltd
Original Assignee
NEC Corp
NEC Solution Innovators Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp, NEC Solution Innovators Ltd filed Critical NEC Corp
Priority to JP2018091580A priority Critical patent/JP2019197165A/ja
Publication of JP2019197165A publication Critical patent/JP2019197165A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)

Abstract

【課題】作業員の業務習熟度をより効率的に高める技術を提供する。【解決手段】作業訓練装置10は、仮想設備を含む仮想空間の画像を表示装置に表示させる表示制御部と、作業員であるユーザが保持または装着するデバイスを用いて生成されるデバイス情報を取得するデバイス情報取得部と、デバイス情報に基づいて、仮想空間におけるユーザの仮想的なアクションを認識するアクション認識部と、仮想的なアクションの認識結果に基づいて、ユーザの評価を示す評価情報を出力するユーザ評価部と、を備える。【選択図】図1

Description

本発明は、VR(Virtual Reality)を使った、作業訓練装置、作業訓練方法、およびプログラムに関する。
作業員の業務習熟度を高めることを目的として、実際の作業環境を再現した訓練用の環境で作業訓練が行われている。
例えば、下記特許文献1には、従業員の作業訓練を支援する技術の一例が開示されている。具体的には、下記特許文献1には、シミュレータによって仮想的に再現された模擬視界(作業環境)を、軌道の保守作業を行う人物が視認する表示部に表示させて、作業訓練を行う技術が開示されている。
特開2017−211452号公報
特許文献1に記載されるような、仮想的な空間で作業訓練を行うシステムにおいて、作業員の業務習熟度をより効率的に高める仕組みについて検討した。
本発明は、上記の課題に鑑みてなされたものである。本発明の目的の一つは、作業員の業務習熟度をより効率的に高める技術を提供することである。
本発明の作業訓練装置は、
仮想設備を含む仮想空間の画像を表示装置に表示させる表示制御手段と、
作業員であるユーザが保持または装着するデバイスを用いて生成されるデバイス情報を取得するデバイス情報取得手段と、
前記デバイス情報に基づいて、前記仮想空間における前記ユーザの仮想的なアクションを認識するアクション認識手段と、
前記仮想的なアクションに基づいて、前記ユーザの評価を示す評価情報を出力するユーザ評価手段と、
を備える。
本発明の作業訓練方法は、
コンピュータが、
仮想設備を含む仮想空間の画像を表示装置に表示させ、
作業員であるユーザが保持または装着するデバイスを用いて生成されるデバイス情報を取得し、
前記デバイス情報に基づいて、前記仮想空間における前記ユーザの仮想的なアクションを認識し、
前記仮想設備に対する前記仮想的なアクションに基づいて、前記ユーザの評価を示す評価情報を出力する、
ことを含む。
本発明のプログラムは、コンピュータに、上述の作業訓練方法を実行させる。
本発明によれば、作業員の業務習熟度をより効率的に高めることができる。
本発明に係る作業訓練装置の動作を概念的に説明するための図である。 作業訓練装置機能構成を概念的に例示するブロック図である。 仮想空間とHMDに表示される画像との関係を例示する図である。 作業訓練装置のハードウエア構成を例示するブロック図である。 作業訓練装置により実行される作業訓練処理の流れを示すフローチャートである。 表示制御部により表示される仮想空間の画像の一例を示す図である。 表示制御部により表示される仮想空間の画像の一例を示す図である。
以下、本発明の実施形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。また、特に説明する場合を除き、各ブロック図において、各ブロックは、ハードウエア単位の構成ではなく、機能単位の構成を表している。
[概要]
まず、図1を用いて、本発明に係る作業訓練装置10について概略的に説明する。図1は、本発明に係る作業訓練装置10の動作を概念的に説明するための図である。なお図1は、本発明に係る作業訓練装置10の動作の理解を容易にすることを目的とする単なる例示である。よって、本発明に係る作業訓練装置10は、図1に示す内容に限定されない。
図1の例において、作業訓練装置10は、HMD(Head Mounted Display)20やコントローラ30といったユーザ用のデバイスと通信可能に接続されている。作業訓練装置10は、既知のVR技術を利用して、作業員であるユーザの作業環境を仮想的に再現した仮想空間の画像を、当該ユーザ用の表示装置(例えば、HMD20など)に表示させる。ユーザは、HMD20やコントローラ30などのユーザ用のデバイスを使って、表示装置に表示された仮想空間の画像の中で自身のアバターを操作し、その仮想空間内で作業訓練を行う。このとき、作業訓練装置10は、HMD20やコントローラ30などのユーザ用のデバイスを利用して得られる情報(以下、「デバイス情報」とも表記)に基づいて、仮想空間におけるユーザの仮想的なアクションを認識することができる。そして、作業訓練装置10は、ユーザの仮想的なアクションの認識結果(ユーザが仮想空間内で行った作業訓練内容)に基づいて、そのユーザの評価を示す情報(以下、「評価情報」とも表記)を生成する。そして、作業訓練装置10は、生成した評価情報を、HMD20や図示しない他のディスプレイなどに出力する。
作業訓練装置10から出力される評価情報は、ユーザにとって、自身の作業の理解度などを客観的に見るための指標となる。すなわち、ユーザは、作業訓練装置10から出力される評価情報を基に、現時点における自身の改善点を容易に把握することが可能となる。結果として、本発明に係る作業訓練装置10によれば、作業員であるユーザの作業習熟度を効率的に向上させる効果が期待できる。
[実施形態]
<機能構成例>
図2は、作業訓練装置10機能構成を概念的に例示するブロック図である。図2に示されるように、作業訓練装置10は、表示制御部110、デバイス情報取得部120、アクション認識部130、およびユーザ評価部140を有する。
表示制御部110は、仮想設備を含む仮想空間の画像を表示装置(例:HMD20)に表示させる。ここで、HMD20などの表示装置に画像として表示される仮想空間は、作業員であるユーザが作業時に利用する設備を仮想的に表現した仮想設備を含んでいる。例えば、作業員が、バス、飛行機、フェリーなどの公共交通機関の乗務員である場合、定期的な保安チェックが必要な公共交通機関の設備(例えば、タイヤ圧、操縦席の計器類)などが仮想設備として仮想空間に含まれる。また例えば、作業員が、駅、空港、ホテルなどの施設で勤務するスタッフである場合、サービスカウンターで利用する端末などの設備が仮想設備として仮想空間に含まれる。また例えば、作業員が工場に勤務する労働者である場合、製作用機械やその操作盤といった設備が仮想設備として仮想空間に含まれる。また例えば、作業員が商品またはサービスを提供する店舗の従業員などである場合、店舗のレジカウンターといった店舗内の設備が仮想設備として仮想空間に含まれる。
デバイス情報取得部120は、作業員であるユーザが保持または装着するデバイス(例:HMD20やコントローラ30)を用いて生成される、デバイス情報を取得する。デバイス情報取得部120は、例えば、インサイドアウト方式またはアウトサイドイン方式のトラッキング技術を使って、ユーザのデバイスの姿勢(位置や向き)といった情報を、デバイス情報として取得することができる。また、デバイス情報取得部120は、例えばコントローラ30などのデバイスと通信して、そのデバイスに設けられたボタンの押下状態を示す情報を、デバイス情報として取得することができる。
アクション認識部130は、デバイス情報取得部120により取得されたデバイス情報に基づいて、仮想空間におけるユーザの仮想的なアクションを認識する。ここで、ユーザが利用するデバイス毎に、仮想空間上のユーザのアバターの部位が対応付けられており、アクション認識部130は、デバイス情報を生成する際に用いられたデバイスに応じて、仮想的なアクションを反映する部位を特定することができる。例えば、HMD20を用いてデバイス情報が取得された場合、アクション認識部130は、そのデバイス情報に基づいて認識される仮想的なアクションを、仮想空間上でのユーザの頭の仮想的なアクションとして認識する。また例えば、コントローラ30を用いてデバイス情報が取得された場合、アクション認識部130は、そのデバイス情報に基づいて認識される仮想的なアクションを、仮想空間上でのユーザの頭の仮想的なアクションとして認識する。ユーザ評価部140は、アクション認識部130により認識された仮想的なアクションに基づいて、ユーザの評価を示す評価情報を出力する。
なお、アクション認識部130により認識されたユーザの仮想的なアクションは、表示制御部110にフィードバックされる。表示制御部110は、アクション認識部130により認識された仮想的なアクションに基づいて、HMD20に表示させる仮想空間の画像を更新する。これを、図3を用いて説明する。図3は、仮想空間とHMD20に表示される画像との関係を例示する図である。図3において、実線の直方体は、データとして予め定義された仮想空間を表している。また、図3において、点線で示す四角柱は、HMD20に表示される画像の領域を表している。図3に示される状態で、例えばHMD20を装着したユーザが右方向を向いたとする。この場合、デバイス情報取得部120は、既知のトラッキング技術を使って、HMD20の向きが右方向に変化したことを示す情報およびその変化量を示す情報を、デバイス情報として取得することができる。そして、アクション認識部130は、デバイス情報取得部120により取得されたデバイス情報を基に、「右方向に顔の向きを変える」という仮想的なアクションを認識する。ここで、アクション認識部130は、デバイス情報取得部120により取得されたHMD20の向きの変化量に基づいて、この仮想的なアクションにおける向きの変化量を算出することができる。表示制御部110は、アクション認識部130により認識された仮想的なアクションに応じて、図中の点線で示す四角柱の領域をユーザの位置を基準に右方向に回転させるように更新し、更新後の領域に含まれる範囲の画像をHMD20に出力する。
〔ハードウエア構成例〕
作業訓練装置10の各機能構成部は、各機能構成部を実現するハードウエア(例:ハードワイヤードされた電子回路など)で実現されてもよいし、ハードウエアとソフトウエアとの組み合わせ(例:電子回路とそれを制御するプログラムの組み合わせなど)で実現されてもよい。以下、作業訓練装置10の各機能構成部がハードウエアとソフトウエアとの組み合わせで実現される場合について、さらに説明する。
図4は、作業訓練装置10のハードウエア構成を例示するブロック図である。作業訓練装置10は、バス1010、プロセッサ1020、メモリ1030、ストレージデバイス1040、入出力インタフェース1050、及びネットワークインタフェース1060を有する。
バス1010は、プロセッサ1020、メモリ1030、ストレージデバイス1040、入出力インタフェース1050、及びネットワークインタフェース1060が、相互にデータを送受信するためのデータ伝送路である。ただし、プロセッサ1020などを互いに接続する方法は、バス接続に限定されない。
プロセッサ1020は、CPU(Central Processing Unit) やGPU(Graphics Processing Unit)などで実現されるプロセッサである。
メモリ1030は、RAM(Random Access Memory)などで実現される主記憶装置である。
ストレージデバイス1040は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、メモリカード、又はROM(Read Only Memory)などで実現される補助記憶装置である。ストレージデバイス1040は作業訓練装置10の各機能(表示制御部110、デバイス情報取得部120、アクション認識部130、およびユーザ評価部140など)を実現するプログラムモジュールを記憶している。プロセッサ1020がこれら各プログラムモジュールをメモリ1030上に読み込んで実行することで、そのプログラムモジュールに対応する各機能が実現される。
HMD20やコントローラ30といったユーザ用のデバイスは、入出力インタフェース1050またはネットワークインタフェース1060を介して接続される。図4の例では、HMD20およびコントローラ30は、ネットワークインタフェース1060を介して接続されている。ネットワークインタフェース1060は、例えばBluetooth(登録商標)などの無線通信規格をサポートしており、作業訓練装置10は、ネットワークインタフェース1060を介して、HMD20やコントローラ30と無線通信することができる。なお、作業訓練装置10は、HMD20およびコントローラ30と有線で接続されていてもよい。
〔動作例〕
図5を用いて、作業訓練装置10の動作例を説明する。図5は、作業訓練装置10により実行される作業訓練処理の流れを示すフローチャートである。
作業訓練の開始時、表示制御部110は、仮想空間の初期画像をHMD20に表示させる(S102)。例えば、表示制御部110は、例えば次のようにして、仮想空間の初期画像をHMD20に表示させる。まず、表示制御部110は、仮想空間におけるユーザの初期位置および方向を示すパラメータを取得する。このパラメータは、ストレージデバイス1040などに予め設定されていてもよいし、コントローラ30や図示しない他の入力装置を使って入力されてもよい。表示制御部110は、仮想空間を定義するデータと取得したパラメータとに基づいて、仮想空間内の領域を特定する。なお、仮想空間を定義するデータはストレージデバイス1040などに予め用意されている。そして、表示制御部110は、特定した領域の画像を、HMD20に表示される初期画像としてHMD20に出力する。
その後、ユーザが現実空間で何らかのアクションを行うと、当該ユーザが保持または装着したデバイス(HMD20、コントローラ30)により、当該アクションに応じたデバイス情報が生成される。デバイス情報取得部120は、ユーザが保持または装着するデバイス(HMD20およびコントローラ30)により生成されたデバイス情報を取得する(S104)。
そして、アクション認識部130は、デバイス情報取得部120により取得されたデバイス情報に基づいて、仮想空間におけるユーザの仮想的なアクションを認識する(S106)。アクション認識部130は、ユーザ評価部140がユーザの評価を後に行う際に使用する情報として、認識した仮想的なアクションを、メモリ1030などの記憶領域に一時的に記憶する(S108)。また、表示制御部110は、アクション認識部130により認識された仮想的なアクションに応じて、HMD20などの表示装置に表示される仮想空間の画像を更新する(S110)。例えば、S106の処理において、アクション認識部130が、「顔の向きを右方向に角度θ分回転する」という仮想的なアクションを認識したとする。この場合、表示制御部110は、「顔の向きを右方向に角度θ分回転する」という仮想的なアクションに基づいて、図3を用いて説明したように、HMD20に表示させる画像の領域を更新する。
次に、ユーザ評価部140は、作業訓練の終了条件が満たされたか否かを判定する(S112)。作業訓練の終了条件は、例えば、所定の制限時間の経過、訓練において予め決められた工程(アクション)の完遂など、任意に設定され得る条件である。作業訓練の終了条件が満たされていない場合(S112:NO)、終了条件が満たされるまで、上述のS104からの処理が繰り返される。
一方、作業訓練の終了条件が満たされた場合(S112:YES)、ユーザ評価部140は、ユーザの評価を示す評価情報を生成する(S114)。例えば、評価を決定するための基準情報がストレージデバイス1040などに予め記憶されており、ユーザ評価部140は、メモリ1030などに記憶された仮想的なアクションの履歴と基準情報とを照らし合わせることによって、ユーザの評価を決定することができる。そして、ユーザ評価部140は、HMD20やその他のディスプレイなどに、生成した評価情報を出力する(S116)。ユーザは、出力された評価情報を基に、自身の作業で改善すべき点がないかを確認することができる。
<ユーザ評価の例1>
一例として、ユーザ評価部140は、仮想空間内に再現された仮想設備に対して実行された仮想的なアクションに基づいて、作業訓練を行ったユーザを評価することができる。
この場合、デバイス情報取得部120は、ユーザが保持または装着するデバイスの向きを示す情報をデバイス情報として取得する。例えば、デバイス情報取得部120は、HMD20やコントローラ30のトラッキング結果から、HMD20やコントローラ30の向きを示す情報を取得することができる。そして、アクション認識部130は、デバイス情報取得部120により取得されたデバイスの向きに基づいて、仮想的なアクションの実行方向を認識する。そして、ユーザ評価部140は、アクション認識部130により認識された仮想的なアクションの実行方向と、仮想空間における仮想設備の位置とに基づいて、ユーザを評価する。
具体的には、アクション認識部130は、デバイス情報取得部120により取得されたデバイス情報が示すデバイスの向きに基づいて、仮想空間上での仮想的なアクションの実行方向を特定する。そして、アクション認識部130は、特定した仮想的なアクションの実行方向に基づいて、当該仮想的なアクションの対象となった仮想設備の部位を特定する。例えば、アクション認識部130は、仮想的なアクションの実行方向の延長線上に位置する仮想設備の部位を、仮想的なアクションの対象となった部位として特定することができる。また、アクション認識部130は、ユーザ用のデバイスに対する所定の操作(例えば、コントローラ30に設けられたボタンを押下する操作)の実行に応じて、仮想的なアクションの実行方向の延長線上に位置する仮想設備の部位を特定するように構成されていてもよい。そして、ユーザ評価部140は、仮想的なアクションの実行方向と仮想設備の位置との関係が基準を満たしているか否かに基づいて、ユーザを評価する。具体的には、ユーザ評価部140は、アクション認識部130により仮想的なアクションの対象として特定された仮想設備の部位が、仮想空間中の仮想設備のターゲット部位であるか否かを判定する。ここで、ターゲット部位は、作業員が作業時に操作すべき設備の部位を意味する。アクション認識部130により仮想的なアクションの対象として特定された仮想設備の部位が、仮想空間中の仮想設備のターゲット部位である場合、ユーザ評価部140は、その仮想的なアクションについて加点する形でユーザを評価する。なおこの場合の最終的なユーザの評価は、作業訓練が終了するまでにターゲット部位に対して実行された、仮想的なアクションの数に応じて決定される。
上述の動作について、作業員が小売店の従業員である場合を例として、図6および図7を用いてより具体的に説明する。図6および図7は、表示制御部110により表示される仮想空間の画像の一例を示す図である。図6および図7の例において、表示制御部110は、レジ端末やレジカウンターといった仮想設備を含む仮想空間の画像をHMD20に表示させている。ここで、図6および図7に示されるように、表示制御部110は、ユーザが作業訓練を円滑に行えるようにするため、仮想設備において予め設定されたターゲット部位を示す所定の印(図中の符号T)や、コントローラ30の向きを示す所定の印(図中の符号P)を更に表示させてもよい。そして、ユーザは、HMD20に表示された画像を確認し、図7に示されるように、コントローラ30の向きを示す所定の印Pを、ターゲット部位を示す所定の印Tに合わせて、所定の操作(例えば、コントローラ30に設けられたボタンを押下する操作)を行う。この操作に応じて、アクション認識部130は、仮想的なアクションの対象となった部位を特定する。図7の例の場合、アクション認識部130は、コントローラ30の向きを示す所定の印Pと重なっている仮想設備の部位を、仮想的なアクションの対象となった部位として特定する。図7の例の場合、アクション認識部130により特定された部位は、予め設定されたターゲット部位と略重なっている。よってこの場合、ユーザ評価部140は、仮想的なアクションがターゲット部位に対して実行されたと判断し、その仮想的なアクションについて加点する形でユーザを評価する。
<ユーザ評価の例2>
他の一例として、ユーザ評価部140は、仮想空間内でのアバターの動きに基づいて、作業訓練を行ったユーザを評価することができる。
この場合、デバイス情報取得部120は、デバイスの動きを示す情報を、デバイス情報として取得する。例えば、デバイス情報取得部120は、HMD20やコントローラ30のトラッキング結果から、これらのデバイスの動き(移動方向や移動量)を示す情報を取得することができる。アクション認識部130は、デバイス情報取得部120により取得されたデバイスの動きを示す情報に基づいて、仮想空間におけるユーザのアバターの動きを認識する。ユーザ評価部140は、アクション認識部130により認識された、ユーザのアバターの動きに基づいて、ユーザを評価する。
例えば、アクション認識部130は、アバターの動きの認識結果をメモリ1030などに記憶して、仮想空間におけるアバターの位置の時間的な変化を示す情報を生成することができる。また例えば、ユーザ評価部140は、メモリ1030などに記憶された仮想空間におけるアバターの位置の時間的な変化を基に、仮想空間内で再現された仮想設備に対するアバターの相対位置の時間的な変化を算出することができる。そして、ユーザ評価部140は、仮想空間におけるアバターの位置の時間的な変化または仮想空間内で再現された仮想設備に対するアバターの相対位置の時間的な変化を使って、仮想空間内でユーザが予め決められたルートを通って正しく移動したかどうかを評価することができる。なお、評価の基準となるルートの情報は、例えば、ストレージデバイス1040などに予め記憶されており、ユーザ評価部140は、仮想空間におけるアバターの位置の時間的な変化または仮想設備に対するアバターの相対位置の時間的な変化と予め定義されたルートとの一致度合に基づいて、ユーザを評価することができる。
<ユーザ評価の例3>
特に接客業務に携わるユーザの作業訓練の場合、ユーザ評価部140は、ユーザの姿勢や所作に基づいて、そのユーザの評価を行うことができる。
この場合、デバイス情報取得部120は、HMD20の初期の位置および向きを基準とした当該HMD20の動きの履歴を示す情報を、デバイス情報として取得する。そして、アクション認識部130は、HMD20の動きの履歴を示す情報に基づいて、ユーザの姿勢の変化などを仮想的なアクションとして認識する。そして、ユーザ評価部140は、アクション認識部130により認識されたユーザの姿勢の変化などに基づいて、接客時に適切な所作ができているか否か(例えば、正しい姿勢を保っているか否か、きちんとお辞儀をしているか否か、全体を満遍なく見ているか否か、など)を判断し、ユーザの評価に反映させる。
以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。
また、上述の説明で用いたフローチャートでは、複数の工程(処理)が順番に記載されているが、各実施形態で実行される工程の実行順序は、その記載の順番に制限されない。各実施形態では、図示される工程の順番を内容的に支障のない範囲で変更することができる。また、上述の各実施形態は、内容が相反しない範囲で組み合わせることができる。
上記の実施形態の一部または全部は、以下の付記のようにも記載されうるが、以下に限られない。
1.
仮想設備を含む仮想空間の画像を表示装置に表示させる表示制御手段と、
作業員であるユーザが保持または装着するデバイスを用いて生成されるデバイス情報を取得するデバイス情報取得手段と、
前記デバイス情報に基づいて、前記仮想空間における前記ユーザの仮想的なアクションを認識するアクション認識手段と、
前記仮想的なアクションに基づいて、前記ユーザの評価を示す評価情報を出力するユーザ評価手段と、
を備える作業訓練装置。
2.
前記デバイス情報取得手段は、前記デバイス情報として、前記デバイスの向きを示す情報を取得し、
前記アクション認識手段は、前記デバイス情報が示す前記デバイスの向きに基づいて、前記仮想的なアクションの実行方向を認識し、
前記ユーザ評価手段は、前記仮想的なアクションの実行方向と、前記仮想空間における前記仮想設備の位置とに基づいて、前記ユーザを評価する、
1.に記載の作業訓練装置。
3.
前記ユーザ評価手段は、前記仮想的なアクションの実行方向と前記仮想設備の位置との関係が基準を満たしているときに、前記デバイスによって所定の操作が実行されたか否かに基づいて、前記ユーザを評価する、
2.に記載の作業訓練装置。
4.
前記デバイス情報取得手段は、前記デバイス情報として、前記デバイスの動きを示す情報を取得し、
前記アクション認識手段は、前記デバイス情報が示す前記デバイスの動きに基づいて、前記仮想空間における前記ユーザのアバターの動きを認識し、
前記ユーザ評価手段は、前記仮想空間における前記ユーザのアバターの動きに基づいて、前記ユーザを評価する、
1.から3.のいずれか1つに記載の作業訓練装置。
5.
前記ユーザ評価手段は、前記仮想空間における前記ユーザのアバターの位置の変化、または、前記仮想空間の前記仮想設備に対する前記ユーザのアバターの相対位置の変化を用いて、前記ユーザを評価する、
4.に記載の作業訓練装置。
6.
前記表示装置は、前記ユーザが装着するHMD(Head Mounted Display)であり、
前記デバイス情報取得手段は、前記デバイス情報として、前記HMDの初期の位置および向きを基準とした前記HMDの動きの履歴を示す情報を取得し、
前記アクション認識手段は、前記HMDの動きの履歴に基づいて、前記ユーザの仮想的なアクションを認識する、
4.に記載の作業訓練装置。
7.
コンピュータが、
仮想設備を含む仮想空間の画像を表示装置に表示させ、
作業員であるユーザが保持または装着するデバイスを用いて生成されるデバイス情報を取得し、
前記デバイス情報に基づいて、前記仮想空間における前記ユーザの仮想的なアクションを認識し、
前記仮想設備に対する前記仮想的なアクションに基づいて、前記ユーザの評価を示す評価情報を出力する、
ことを含む作業訓練方法。
8.
前記コンピュータが、
前記デバイス情報として、前記デバイスの向きを示す情報を取得し、
前記デバイス情報が示す前記デバイスの向きに基づいて、前記仮想的なアクションの実行方向を認識し、
前記仮想的なアクションの実行方向と、前記仮想空間における前記仮想設備の位置とに基づいて、前記ユーザを評価する、
ことを含む7.に記載の作業訓練方法。
9.
前記コンピュータが、
前記仮想的なアクションの実行方向と前記仮想設備の位置との関係が基準を満たしているときに、前記デバイスによって所定の操作が実行されたか否かに基づいて、前記ユーザを評価する、
ことを含む8.に記載の作業訓練方法。
10.
前記コンピュータが、
前記デバイス情報として、前記デバイスの動きを示す情報を取得し、
前記デバイス情報が示す前記デバイスの動きに基づいて、前記仮想空間における前記ユーザのアバターの動きを認識し、
前記仮想空間における前記ユーザのアバターの動きに基づいて、前記ユーザを評価する、
ことを含む7.から9.のいずれか1つに記載の作業訓練方法。
11.
前記コンピュータが、
前記仮想空間における前記ユーザのアバターの位置の変化、または、前記仮想空間の前記仮想設備に対する前記ユーザのアバターの相対位置の変化を用いて、前記ユーザを評価する、
ことを含む10.に記載の作業訓練方法。
12.
前記表示装置は、前記ユーザが装着するHMD(Head Mounted Display)であり、
前記コンピュータが、
前記デバイス情報として、前記HMDの初期の位置および向きを基準とした前記HMDの動きの履歴を示す情報を取得し、
前記HMDの動きの履歴に基づいて、前記ユーザの仮想的なアクションを認識する、
ことを含む10.に記載の作業訓練方法。
13.
コンピュータに、7.から12.のいずれか1つに記載の作業訓練方法を実行させるプログラム。
10 作業訓練装置
1010 バス
1020 プロセッサ
1030 メモリ
1040 ストレージデバイス
1050 入出力インタフェース
1060 ネットワークインタフェース
110 表示制御部
120 デバイス情報取得部
130 アクション認識部
140 ユーザ評価部
20 HMD
30 コントローラ

Claims (8)

  1. 仮想設備を含む仮想空間の画像を表示装置に表示させる表示制御手段と、
    作業員であるユーザが保持または装着するデバイスを用いて生成されるデバイス情報を取得するデバイス情報取得手段と、
    前記デバイス情報に基づいて、前記仮想空間における前記ユーザの仮想的なアクションを認識するアクション認識手段と、
    前記仮想的なアクションに基づいて、前記ユーザの評価を示す評価情報を出力するユーザ評価手段と、
    を備える作業訓練装置。
  2. 前記デバイス情報取得手段は、前記デバイス情報として、前記デバイスの向きを示す情報を取得し、
    前記アクション認識手段は、前記デバイス情報が示す前記デバイスの向きに基づいて、前記仮想的なアクションの実行方向を認識し、
    前記ユーザ評価手段は、前記仮想的なアクションの実行方向と、前記仮想空間における前記仮想設備の位置とに基づいて、前記ユーザを評価する、
    請求項1に記載の作業訓練装置。
  3. 前記ユーザ評価手段は、前記仮想的なアクションの実行方向と前記仮想設備の位置との関係が基準を満たしているときに、前記デバイスによって所定の操作が実行されたか否かに基づいて、前記ユーザを評価する、
    請求項2に記載の作業訓練装置。
  4. 前記デバイス情報取得手段は、前記デバイス情報として、前記デバイスの動きを示す情報を取得し、
    前記アクション認識手段は、前記デバイス情報が示す前記デバイスの動きに基づいて、前記仮想空間における前記ユーザのアバターの動きを認識し、
    前記ユーザ評価手段は、前記仮想空間における前記ユーザのアバターの動きに基づいて、前記ユーザを評価する、
    請求項1から3のいずれか1項に記載の作業訓練装置。
  5. 前記ユーザ評価手段は、前記仮想空間における前記ユーザのアバターの位置の変化、または、前記仮想空間の前記仮想設備に対する前記ユーザのアバターの相対位置の変化を用いて、前記ユーザを評価する、
    請求項4に記載の作業訓練装置。
  6. 前記表示装置は、前記ユーザが装着するHMD(Head Mounted Display)であり、
    前記デバイス情報取得手段は、前記デバイス情報として、前記HMDの初期の位置および向きを基準とした前記HMDの動きの履歴を示す情報を取得し、
    前記アクション認識手段は、前記HMDの動きの履歴に基づいて、前記ユーザの仮想的なアクションを認識する、
    請求項4に記載の作業訓練装置。
  7. コンピュータが、
    仮想設備を含む仮想空間の画像を表示装置に表示させ、
    作業員であるユーザが保持または装着するデバイスを用いて生成されるデバイス情報を取得し、
    前記デバイス情報に基づいて、前記仮想空間における前記ユーザの仮想的なアクションを認識し、
    前記仮想設備に対する前記仮想的なアクションに基づいて、前記ユーザの評価を示す評価情報を出力する、
    ことを含む作業訓練方法。
  8. コンピュータに、請求項7に記載の作業訓練方法を実行させるプログラム。
JP2018091580A 2018-05-10 2018-05-10 作業訓練装置、作業訓練方法、およびプログラム Pending JP2019197165A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018091580A JP2019197165A (ja) 2018-05-10 2018-05-10 作業訓練装置、作業訓練方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018091580A JP2019197165A (ja) 2018-05-10 2018-05-10 作業訓練装置、作業訓練方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2019197165A true JP2019197165A (ja) 2019-11-14

Family

ID=68537941

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018091580A Pending JP2019197165A (ja) 2018-05-10 2018-05-10 作業訓練装置、作業訓練方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP2019197165A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022047565A (ja) * 2020-09-14 2022-03-25 株式会社ビーライズ 職業訓練装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016140129A1 (ja) * 2015-03-05 2016-09-09 Necソリューションイノベータ株式会社 動作評価装置、動作評価方法、及びコンピュータ読み取り可能な記録媒体
US20170148214A1 (en) * 2015-07-17 2017-05-25 Ivd Mining Virtual reality training
JP2017134116A (ja) * 2016-01-25 2017-08-03 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016140129A1 (ja) * 2015-03-05 2016-09-09 Necソリューションイノベータ株式会社 動作評価装置、動作評価方法、及びコンピュータ読み取り可能な記録媒体
US20170148214A1 (en) * 2015-07-17 2017-05-25 Ivd Mining Virtual reality training
JP2017134116A (ja) * 2016-01-25 2017-08-03 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022047565A (ja) * 2020-09-14 2022-03-25 株式会社ビーライズ 職業訓練装置
JP7237316B2 (ja) 2020-09-14 2023-03-13 株式会社ビーライズ 職業訓練装置

Similar Documents

Publication Publication Date Title
JP6347158B2 (ja) 表示端末装置、プログラム及び表示方法
CN107656505A (zh) 使用增强现实设备控制人机协作的方法、装置和系统
KR102418994B1 (ko) 증강현실 기반 작업 공정 모니터링 및 작업 숙련도 평가방법
WO2005066744A1 (en) A virtual control panel
CN108027903B (zh) 信息处理设备、控制方法和程序
CN106454322A (zh) Vr的图像处理系统及其方法
US20070089056A1 (en) Service providing system and service providing device that provides a specific service in response to user authority determination based on positional relationships of virtual objects
KR20140108428A (ko) 착용형 디스플레이 기반 원격 협업 장치 및 방법
CN111383347A (zh) 基于三维仿真的急救模拟方法、系统、服务器及存储介质
CN116243802A (zh) 一种虚拟世界物理化系统
CN115127557A (zh) 路径导航方法、装置、可穿戴设备及存储介质
JP2019197165A (ja) 作業訓練装置、作業訓練方法、およびプログラム
JP2010205031A (ja) 入力位置特定方法、入力位置特定システムおよび入力位置特定用プログラム
JP2023082923A (ja) 作業支援システム、作業対象特定装置および方法
JP2018097141A (ja) 頭部装着型表示装置、仮想物体表示システム
CN114005511A (zh) 一种康复训练方法、系统、训练自助设备和存储介质
JP5215211B2 (ja) 関連情報表示位置特定システムおよび関連情報表示位置特定用プログラム
CN112288889A (zh) 指示信息展示方法、装置、计算机设备及存储介质
JP5115457B2 (ja) カーソル移動制御方法及び装置、プログラム
WO2019127325A1 (zh) 信息处理方法、装置、云处理设备及计算机程序产品
JPWO2018100631A1 (ja) 情報処理装置
CN113706724A (zh) 基于人工智能的转诊监管方法、装置、设备及存储介质
CN113674426A (zh) 使用ar技术的设备检修方法及装置
CN112527100A (zh) 一种基于智能穿戴设备的远程协助方法及装置
TWI786007B (zh) 美髮實境教學系統

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210405

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220301

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220906