JP2018180090A - 作業教育システム - Google Patents
作業教育システム Download PDFInfo
- Publication number
- JP2018180090A JP2018180090A JP2017075188A JP2017075188A JP2018180090A JP 2018180090 A JP2018180090 A JP 2018180090A JP 2017075188 A JP2017075188 A JP 2017075188A JP 2017075188 A JP2017075188 A JP 2017075188A JP 2018180090 A JP2018180090 A JP 2018180090A
- Authority
- JP
- Japan
- Prior art keywords
- work
- worker
- data
- learning
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Electrically Operated Instructional Devices (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】作業のコツを容易につかむことが可能な作業教育システムを提供する。【解決手段】作業教育システム1は、学習作業者の眼前に作業情報を表示する画像表示装置4と、学習作業者の視線データを出力する視線検出装置5と、学習作業者の動作データを出力する作業動作撮影装置6と、を有するウェアラブルディスプレイ2と、模範作業者の作業データが蓄えられた記憶装置8と、画像表示装置4で表示される作業情報を生成する処理装置7と、を備える。処理装置7は、模範作業者の作業データを用いて画像表示装置4で模範作業を表示する第1段階の処理と、学習作業者の作業を検出し、視線データ及び動作データを学習作業者の作業データとして取得する第2段階の処理と、画像表示装置4で模範作業者と学習作業者との視線又は作業動作の違いを表示する第3段階の処理と、を行う。【選択図】図1
Description
本発明は作業教育システムに関するものであり、例えば、ウェアラブルディスプレイを用いて作業者の眼前に作業情報を表示する作業教育システムに関するものである。
頭部装着型のウェアラブルディスプレイに使用者の視線を検出する検出部を設け、視線情報に応じて制御された表示を行う装置が、特許文献1〜3で提案されている。特許文献1に記載の表示装置では、現実世界の視認性を確保しつつ、注目オブジェクトが視線方向にあるか否かの判定結果に基づいて、現実世界に実在する実オブジェクトに対して利用者の注目を促すものである。特許文献2に記載のナビゲーション装置では、使用者の視線方位に基づいてナビゲーション画像データを生成し、撮影画像データと重ね合わせて表示画像データを生成することにより、装置の利便性を向上させるものである。特許文献3に記載の作業支援装置では、作業者の視線を所定期間継続して検出し、視線移動の速度分布に基づいて作業者の熟練度を判定し、判定された熟練度に応じて効果的な作業支援を行うものである。
特許文献1に記載の表示装置では、作業者の視線に合わせた画像表示や作業指示が行われるだけであり、指示に基づく作業や動作の良し悪しを作業者は知ることができない。特許文献2に記載のナビゲーション装置においても、作業者の視線に合わせた画像表示や作業指示が行われるだけであり、作業の習熟度を向上させる方策については述べられていない。特許文献3に記載の作業支援装置では、視線移動の速度分布で作業の熟練度の判定を行っているが、視線移動の速度分布の違いが熟練度の違いによるものかどうかは明らかでない。また、特許文献2に記載のナビゲーション装置と同様、熟練度を向上させる方策については述べられていない。したがって、特許文献1〜3で提案されている装置を使用しても、作業者が短時間で作業に習熟することは困難であるため、作業教育システムに採用しても所望の効果を得ることはできない。
本発明はこのような状況に鑑みてなされたものであって、その目的は、作業のコツを容易につかむことが可能な作業教育システムを提供することにある。
上記目的を達成するために、第1の発明の作業教育システムは、学習作業者の眼前に作業情報を表示する画像表示装置と、学習作業者の視線を検出する視線検出装置と、学習作業者の作業動作を撮影する作業動作撮影装置と、を有するウェアラブルディスプレイと、
模範作業者の作業データが蓄えられた記憶装置と、
前記画像表示装置で表示される作業情報を生成する処理装置と、
を備えた作業教育システムであって、
前記処理装置が、
前記模範作業者の作業データを用いて前記画像表示装置で模範作業を表示する第1段階の処理と、
前記視線検出装置及び作業動作撮影装置で学習作業者の作業を検出し、学習作業者の作業データを取得する第2段階の処理と、
前記画像表示装置で模範作業者と学習作業者との作業データの違いを表示する第3段階の処理と、
を行うことを特徴とする。
模範作業者の作業データが蓄えられた記憶装置と、
前記画像表示装置で表示される作業情報を生成する処理装置と、
を備えた作業教育システムであって、
前記処理装置が、
前記模範作業者の作業データを用いて前記画像表示装置で模範作業を表示する第1段階の処理と、
前記視線検出装置及び作業動作撮影装置で学習作業者の作業を検出し、学習作業者の作業データを取得する第2段階の処理と、
前記画像表示装置で模範作業者と学習作業者との作業データの違いを表示する第3段階の処理と、
を行うことを特徴とする。
第2の発明の作業教育システムは、上記第1の発明において、前記作業データが、視線の動きを示す視線データ、手の動きを示す動作データ、又はそれらの組み合わせであることを特徴とする。
第3の発明の作業教育システムは、上記第2の発明において、前記処理装置が、前記模範作業者の作業データと前記学習作業者の作業データとの比較により、模範作業者と学習作業者との視線データに関する差異が予め設定されている値よりも大きいと判定した場合、前記第3段階の処理で少なくとも視線の違いの表示を行い、
前記処理装置が、前記模範作業者の作業データと前記学習作業者の作業データとの比較により、模範作業者と学習作業者との動作データに関する差異が予め設定されている値よりも大きいと判定した場合、前記第3段階の処理で少なくとも作業動作の違いの表示を行うことを特徴とする。
前記処理装置が、前記模範作業者の作業データと前記学習作業者の作業データとの比較により、模範作業者と学習作業者との動作データに関する差異が予め設定されている値よりも大きいと判定した場合、前記第3段階の処理で少なくとも作業動作の違いの表示を行うことを特徴とする。
第4の発明の作業教育システムは、上記第1〜第3のいずれか1つの発明において、前記ウェアラブルディスプレイにおいて前記視線検出装置が一体的に設けられていることを特徴とする。
第5の発明の作業教育システムは、上記第1〜第4のいずれか1つの発明において、前記ウェアラブルディスプレイにおいて前記作業動作撮影装置が一体的に設けられていることを特徴とする。
第6の発明の作業教育システムは、上記第1〜第5のいずれか1つの発明において、前記作業動作撮影装置が、静止画撮影,動画撮影のうちの少なくとも一方の機能を有することを特徴とする。
第7の発明の作業教育システムは、上記第1〜第6のいずれか1つの発明において、前記第2段階の処理では学習作業者の作業を妨げないように、前記画像表示装置が表示を行わないか、あるいは目立たない表示を行うことを特徴とする。
第8の発明の作業教育システムは、上記第1〜第7のいずれか1つの発明において、前記ウェアラブルディスプレイと接続されたコンピューターを更に備え、前記記憶装置及び処理装置を前記コンピューターに有することを特徴とする。
第9の発明の作業教育システムは、上記第1〜第8のいずれか1つの発明において、前記記憶装置及び処理装置を前記ウェアラブルディスプレイに有することを特徴とする。
本発明によれば、模範作業者と学習作業者との作業における違いが学習作業者ごとに明確になるため、学習作業者は作業のコツを容易につかむことが可能である。したがって、学習作業者は短時間で作業に習熟することができる。例えば、作業内容を全く知らない学習作業者でも、模範作業者から直接指導を受けずに、模範作業者と同等の作業を短時間で行うことができるようになる。また、教育の自動化が可能になるため、模範作業者の指導時間の削減や多くの学習作業者に対する同時教育が可能となり、作業・技術を迅速かつ効果的に伝えていくことが可能となる。
以下、本発明を実施した作業教育システム等を、図面を参照しつつ説明する。なお、各実施の形態,具体例等の相互で同一の部分や相当する部分には同一の符号を付して重複説明を適宜省略する。
図1に、本発明の実施の形態に係る作業教育システム1の概略構成を、2つのタイプについて示す。図1(A)に示す作業教育システム1はウェアラブルディスプレイ2及びパーソナルコンピューター3からなっており、図1(B)に示す作業教育システム1はウェアラブルディスプレイ2からなっている。図1(A)に示す作業教育システム1では、ウェアラブルディスプレイ2が画像表示装置4,視線検出装置5及び作業動作撮影装置6を有しており、パーソナルコンピューター3が処理装置7及び記憶装置8を有している。そして、ウェアラブルディスプレイ2とパーソナルコンピューター3とは有線又は無線によって接続されている。図1(B)に示す作業教育システム1では、ウェアラブルディスプレイ2が画像表示装置4,視線検出装置5及び作業動作撮影装置6を有しており、画像表示装置4が処理装置7及び記憶装置8を有している。
作業教育システム1にウェアラブルディスプレイ2を用いることにより、作業の学習をハンズフリーで行うことが可能となる。ウェアラブルディスプレイ2は、表示を行うための主要部として、学習作業者(つまり、作業教育システムの使用者)の眼前に作業情報を表示する画像表示装置4を備えた装置である。その一例としては、例えば、学習作業者の作業内容に応じた指示を外界視野と重ねて表示するシースルーディスプレイが挙げられる。シースルーディスプレイに搭載される画像表示装置4としては、例えば、ホログラム光学素子を有する接眼光学系で学習作業者の眼前に画像表示を行う装置が挙げられる。
ウェアラブルディスプレイ2に有する視線検出装置5は、学習作業者の視線を検出して視線データとして出力する装置である。視線検出装置5の具体例としては、視線センサー,赤外カメラ等が挙げられ、必要に応じて照明装置も視線検出装置5の一部として搭載される。例えば、赤外LED(Light Emitting Diode)を照明装置とし、赤外カメラと組み合わせて視線検出装置5を構成してもよい。また、ウェアラブルディスプレイ2に有する作業動作撮影装置6は、学習作業者の作業動作を撮影して動作データとして出力する装置であり、静止画撮影,動画撮影のうちの少なくとも一方の機能を有している。この作業動作撮影装置6の具体例としては、学習作業者の手等の撮影を行うカメラが挙げられる。
処理装置7は、画像表示装置4で表示される作業情報を生成する機能ブロックであり、記憶装置8は、模範作業者や学習作業者の作業データ(視線データ,動作データ等)が蓄えられる機能ブロックである。作業情報の具体例としては、模範作業者や学習作業者の視線データ(視線の位置,視線の動き(例えば視線の移動軌跡),注視点分布,及びその他の視線情報),模範作業者や学習作業者の動作データ(手の位置,手の動き(例えば手の移動軌跡),及びその他の作業動作情報)等の作業データのほかに、上記以外の模範作業者の作業データ(模範作業の動画データ等),作業例の静止画データ等も挙げられる。なお、作業は手で行われることが多いため、手の位置や動きを動作データとして採用することが好ましい。そして、手の位置や動き等は、手に設けたマーカーの動き等を作業動作撮影装置6で撮影することにより、容易に検出可能である。
処理装置7及び記憶装置8は、図1(A)に示す作業教育システム1では、パーソナルコンピューター3において、CPU(Central Processing Unit),RAM(Random Access Memory),ROM(Read Only Memory),HDD(Hard Disk Drive)等によって構成されており、図1(B)に示す作業教育システム1では、ウェアラブルディスプレイ2に有する画像表示装置4において、CPU,RAM,ROM,HDD等によって構成されている。例えば、HDDに格納されている処理プログラム(作業マニュアル等)をCPUが読み出し、RAMに展開して実行することによって、処理装置7及び記憶装置8が実現される。なお、パーソナルコンピューター3の代わりに、ネットワークを介してウェアラブルディスプレイ2と(有線又は無線で)接続されたコンピューターを用いてもよい。例えば、サーバー機能を有するコンピュータやクラウド上のデータサーバーや処理サーバー、またはそれらの組み合わせであってもよい。
次に、図1(A)に示すタイプの作業教育システム1の具体例を説明する。図2に、ウェアラブルディスプレイ2を備えた作業教育システム1の概略構成を示す。図2において、(A)はウェアラブルディスプレイ2の上面側外観、(B)はウェアラブルディスプレイ2の正面側外観、(C)はウェアラブルディスプレイ2の下面側外観をそれぞれ示している。また、図2(B)は、作業教育システム1におけるウェアラブルディスプレイ2とパーソナルコンピューター3との関係をデータの流れで示している。
ウェアラブルディスプレイ2は、前述したシースルーディスプレイであって、画像表示装置4,レンズ9,フレーム11等を有している。また、視線検出装置5として視線センサー5A及び照明装置5Bを画像表示装置4と一体的に有しており、作業動作撮影装置6としてカメラ6Aを画像表示装置4と一体的に有している。つまり、ウェアラブルディスプレイ2において視線センサー5A,照明装置5B及びカメラ6Aは一体的に設けられている。視線センサー5Aは、学習作業者の視線を検知して視線の変動量を得ることができるようになっており、その具体例としては、トビー・テクノロジー株式会社製 Tobii Pro Glasses 2等が挙げられる。また、他の具体例としてSensoMotoric Instruments社製のEye Tracking Tracker Glass2 wireless(ETG2w)やNAC社製のモバイル型アイマークレコーダーEMR9等もあげられる。カメラ6Aは、撮像レンズ及び撮像センサーを備えた一般的な撮像装置であるが、例えば、立体的な空間における距離データを得る場合にはステレオカメラを用いてもよい。距離画像を得る場合には、飛行時間計測が可能なカメラ(例えば、pmd社のPico FLEXXやPico MAXX等)でもよい。
ウェアラブルディスプレイ2は、図2に示すように、有線又は無線によってパーソナルコンピューター3と画像表示装置4で接続されており、必要なデータの送受信が可能になっている。視線センサー5Aで得られた視線データやカメラ6Aで得られた動作データは、画像表示装置4からパーソナルコンピューター3へと送られ、パーソナルコンピューター3内のHDDに格納されている作業マニュアル(模範作業者の作業データ)等は、パーソナルコンピューター3から画像表示装置4へと送られる。なお、パーソナルコンピューター3(処理装置7)に対する各種入力は、例えば、パーソナルコンピューター3に付属のマウス,キーボード等で行われる。
画像表示装置4は、光源,照明光学系,表示素子等を筐体内に有している。また画像表示装置4は、ホログラム光学素子等からなる接眼光学系10も有しており、その上端部が筐体内に位置すると共に、接眼光学系10の本体が右眼用のレンズ9の前方(学習作業者とは反対側の外界側)に位置するように配置されている。筐体内の光源や表示素子は、筐体を貫通して設けられているケーブル(不図示)を介して、回路基板と接続されており、回路基板から駆動電力,画像信号等が供給される。レンズ9は、視力矯正用のレンズであってもよいし、視力矯正を行わない単なるダミーレンズであってもよい。フレーム11は、眼鏡のフレームに相当するものであり、作業者の頭部に装着され、画像表示装置4を支持する支持部材である。このフレーム11は、作業者の左右の側頭部に当接するテンプルを含んでいる。
ウェアラブルディスプレイ2を学習作業者の頭部に装着し、画像表示装置4で画像を表示すると、その画像光が接眼光学系10を介して光学瞳位置に導かれる。したがって、光学瞳位置に学習作業者の瞳を合わせれば、学習作業者は画像表示装置4の表示画像の拡大虚像を適性に観察することができ、それと同時に、学習作業者は接眼光学系10を介して、外界像をシースルーで観察することができる。このように、画像表示装置4が支持部材としてのフレーム11で支持されることにより、作業者は画像表示装置4によって提供される画像をハンズフリーで長時間安定して観察することができる。
次に、図1(A)及び図2に示す作業教育システム1の制御動作及び作業手順を、図3のフローチャートを用いて更に具体的に説明する。なお、図1(B)に示すタイプの作業教育システム1を用いた場合には、以下に説明する実施の形態と同様の構成をウェアラブルディスプレイ2のみで実現することが可能である。
作業教育システム1による作業教育では、学習作業者が行う作業工程ごとに第1〜第3段階の処理(#10,#20,#40)が行われる。例えば、第1部品に第2部品をネジ止めする第1の作業工程、第1部品に第3部品をネジ止めする第2の作業工程、第1部品にワイヤーを接続する第3の作業工程、第1部品にカバーを接着固定する第4の作業工程がある場合、第1〜第4の作業工程のそれぞれにおいて第1〜第3段階の処理が行われる。以下に説明する作業工程では、3つの部品を穴に入れる工程を1つの作業工程としている。
パーソナルコンピューター3を操作して作業教育を開始すると、記憶装置8に保存されている模範作業者の作業データが画像表示装置4へと送られ、処理装置7によって第1段階の処理が行われる(#10)。第1段階の処理では(#10)、まず、図5に示す作業例の静止画データA1を用いた表示が行われる。この作業例の静止画データA1は、部品21に設けられている3つの穴21a,21b,21cに3つの部品22a,22b,22cをそれぞれ入れる作業を表示するためのデータであり、図5ではその作業前後の状態を示している。
そして、模範作業者の作業データを用いて画像表示装置4で模範作業の内容が表示される(模範作業の提示)。例えば、図6に示す模範作業の動画データA2(模範作業者の作業データ)を用いた表示が行われる。この動画データA2は、模範作業者が部品22a,22b,22cを穴21a,21b,21cにそれぞれ入れていく過程を表示するためのデータであり、作業中の注視点(つまり視線位置)を×で示している。また、この動画データA2には、各画面内に表示されるテキストデータも含まれている。例えば、作業ナビゲーション及び作業経過状態として、「部品を穴に入れる(残り3)」,「部品を穴に入れる(残り1)」,「終了(残り0)」といった画面内表示のためのテキストデータが含まれている。
図13に、第1段階での学習作業者の視野S1の一例を示す。視野S1内には現実の部品21,22a,22b,22cが存在しており、その現実の外界視野と重ねて画面Gαがシースルー表示される。シースルー表示される画面Gαには、模範作業の動画データA2(図6)を用いた表示が行われる。ただし、以下に説明する模範作業者の作業データB1,B2,B3(図7〜図9)を用いた静止画表示又は動画表示を更に行うようにしてもよい。
記憶装置8には、上記模範作業の動画データA2(図6)の他にも、視線センサー5A及びカメラ6Aで得た模範作業者の作業データが蓄えられている。図7〜図9に、模範作業者の作業データB1,B2,B3のイメージを示す。作業データB1(図7)は、模範作業者の手の移動軌跡Hαのデータである。この移動軌跡Hαのデータは、模範作業者の手をカメラ6A(図2)で撮影し、手に設けられているマーカーMαの動きを検出することにより、模範作業者の手の動きを動作データとして得たものである。作業データB2(図8)は、模範作業者の作業全体での注視点分布Pαのデータであり、作業データB3(図9)は、模範作業者の視線の移動軌跡Eαのデータである。注視点分布Pαと移動軌跡Eαのデータは、視線センサー5A(図2)で模範作業者の視線を検出することにより、その視線の動きを視線データとして得たものであり、作業中の注視点(図6中の×)の経時変化を示している。
第1段階の処理(#10)が完了すると、第2段階の処理へと移行する(#20)。第2段階の処理では(#20)、学習作業者の作業開始とともに学習作業者の作業が検出され、視線データ及び動作データが学習作業者の作業データとして取得される。学習作業者は、第1段階の処理における作業ナビゲーション等によって模範作業の内容を既に学習しているため、作業を容易に行うことができる。ただし、第1段階の処理で学習作業者が見ている画面Gα(図13)は、画像表示装置4によってシースルー表示されたものであるため、現実の部品21,22a,22b,22cを用いて行う作業では、学習作業者の作業を妨げないように、画像表示装置4は表示を行わないか、あるいは目立たない表示を行うことが好ましい。
図14に、第2段階での学習作業者の視野S2の一例を示す。図14(A)は、画像表示装置4による表示を行わない場合の視野S2を示している。視野S2は現実の外界視野のみからなっており、画面Gα(図13)のシースルー表示は消されている(つまり、画面表示がオフ状態となっている。)。表示があるとそこに目が行ってしまい正確な視線データを得ることが困難になるので、作業に集中するため表示を消して、現実の外界視野のみ観察可能とするのが好ましい。この視野S2(図14(A))では、部品21の穴21a(図5)に部品22aが入れられた状態が観察されるとともに、部品21の穴21cに部品22cを入れる動作が観察される。なお、学習作業者の手には、その動きを動作データとして得るために、マーカーMβが設けられている。
図14(B)は、画像表示装置4で目立たない画面内表示TXを行う場合の視野S2を示している。画面表示は「作業中」という表記からなる画面内表示TXのみであって、しかも視野S2の下端に位置するため、学習作業者の作業は妨げられない。この画面内表示TXは、視線を誘導しないように目立たないことが好ましいので、薄く表示したり小さく表示したり視野S2の横に表示したりしてもよい。また、「作業検出中」,「録画・視線検出中」等のように最低限必要な情報のみを含む短い表記にするのが好ましい。
第2段階の処理では(#20)、画像表示装置4によるシースルー表示をオフする代わりに、画像表示装置4の接眼光学系10(図2)を学習作業者の眼前から退避させるようにしてもよい。図4に、可動型の画像表示装置4を有するウェアラブルディスプレイ2の具体例を示す。図4(A)は接眼光学系10が学習作業者の眼EYの前に挿入された状態(画面表示のオン状態)を示しており、図4(B)は接眼光学系10が学習作業者の眼EYの前から退避した状態を示している。
このウェアラブルディスプレイ2(図4)には、視線センサー5Aの代わりに赤外カメラ5aがレンズ9に設けられており、照明装置5Bの代わりに赤外LED5bがフレーム11に設けられている。そして、画像表示装置4がフレーム11を中心にヒンジで回転可能(自動又は手動)になっている。画像表示装置4を回転させることによって、学習作業者の視野に対して接眼光学系10の挿入と退避の切り替えを行っても、赤外カメラ5a,赤外LED5b及びカメラ6Aの位置は変化しない。したがって、学習作業者の作業中でも作業を妨げることなく作業の検出が可能であり、視線データ及び動作データを取得することができる。
なお、画像表示装置4が可動型(図4)であれば、ウェアラブルディスプレイ2のシースルー性は必ずしも必要でない。しかし、第1段階の処理において現実の外界視野と重ねて画面Gαをシースルー表示することは、模範作業の内容を理解するうえで有効である。したがって、ウェアラブルディスプレイ2は両眼での外界視野の観察を可能とするシースルー性を有することが好ましい。
図10〜図12に、学習作業者の作業データC1,C2,C3のイメージを示す。作業データC1(図10)は、学習作業者の手の移動軌跡Hβのデータである。この移動軌跡Hβのデータは、学習作業者の手をカメラ6Aで撮影し、手に設けられているマーカーMβの動きを検出することにより、学習作業者の手の動きを動作データとして得たものである。作業データC2(図11)は、学習作業者の作業全体での注視点分布Pβのデータであり、作業データC3(図12)は、学習作業者の視線の移動軌跡Eβのデータである。注視点分布Pβと移動軌跡Eβのデータは、視線センサー5A又は赤外カメラ5aで学習作業者の視線を検出することにより、学習作業者の視線の動きを視線データとして得たものであり、作業中の注視点の密度と経時変化をそれぞれ示している。なお、視線センサー5A(又は赤外カメラ5a)及びカメラ6Aで得た学習作業者の作業データは、記憶装置8に蓄えられる。
第2段階の処理(#20)が完了すると、第3段階の処理(#40)へと移行するか否かの判定を行う(#30)。つまり、処理装置7は、模範作業者の作業データと学習作業者の作業データとの比較を行い(#30)、模範作業者と学習作業者との視線データ又は動作データに関する差異が予め設定されている値よりも大きいと判定した場合には第3段階の処理を行い(#40)、それ以外の場合には次工程へ進むか否かの判定(#60)へと移行する。なお、判定(#30)で用いる学習作業者の作業データは、記憶装置8に蓄えられる前のものでもよく、記憶装置8に蓄えられた後のものでもよい。また、比較・判定の処理(#30)及びその結果に基づく第3段階の処理(#40)等の制御は、パーソナルコンピューター3又は画像表示装置4に搭載されているCPUで行われる。
第3段階の処理では(#40)、画像表示装置4で模範作業者と学習作業者との視線又は作業動作の違いを表示する。例えば、処理装置7が、模範作業者の作業データと学習作業者の作業データとの比較により、模範作業者と学習作業者との視線データに関する差異が予め設定されている値よりも大きいと判定した場合、第3段階の処理(#40)で少なくとも視線の違いの表示を行う。つまり、視線の違いの表示のみを行ってもよく、視線の違いと作業動作の違いの両方の表示を行ってもよい。処理装置7が、模範作業者の作業データと学習作業者の作業データとの比較により、模範作業者と学習作業者との動作データに関する差異が予め設定されている値よりも大きいと判定した場合、第3段階の処理(#40)で少なくとも作業動作の違いの表示を行う。つまり、作業動作の違いの表示のみを行ってもよく、視線の違いと作業動作の違いの両方の表示を行ってもよい。したがって、処理装置7が、模範作業者の作業データと学習作業者の作業データとの比較により、模範作業者と学習作業者との視線データ及び動作データに関する差異が予め設定されている値よりも大きいと判定した場合には、第3段階の処理(#40)で視線及び作業動作の違いの表示を行うことになる。
図15に、第3段階での学習作業者の視野S3の一例を示す。視野S3内には現実の部品21,22a,22b,22cが存在しており、その現実の外界視野と重ねて画面Gβがシースルー表示される。シースルー表示される画面Gβには、模範作業者の作業データB1,B2,B3(図7〜図9)と、学習作業者の作業データC1,C2,C3(図10〜図12)と、の両方を用いた差異表示(静止画表示又は動画表示)として、模範作業者と学習作業者との視線の違い、模範作業者と学習作業者との作業動作の違い、又はその両方の違いが表示される。
図16〜図18に、シースルー表示される画面Gβ(図15)として、差異表示画面G1,G2,G3の具体例を示す。差異表示画面G1(図16)では、模範作業者の手の移動軌跡Hα(一点鎖線)と学習作業者の手の移動軌跡Hβ(実線)の両方を同時に表示することにより、模範作業者と学習作業者との作業動作の違いを表示しており、また、画面G1内に「模範作業者の手の動き」,「あなたの手の動き」等の凡例を表示している。したがって、学習作業者は、模範作業者との手の動きの違いを、作業のコツとして知ることができる。なお、手の動きに関する差異が予め設定されている値よりも大きいと判定した部分について、その旨を提示する表示(テキスト表示,色分け表示等)を更に行うようにしてもよい。
差異表示画面G2(図17)では、模範作業者の作業全体での注視点分布Pα(一点鎖線)と学習作業者の作業全体での注視点分布Pβ(実線で囲まれた斜線部分)の両方を同時に表示することにより、模範作業者と学習作業者との視線の違いを表示しており、また、画面G2内に「模範作業者の注視点分布」,「あなたの注視点分布」等の凡例を表示している。したがって、学習作業者は、模範作業者との注視点(じっと見ている位置)の違いを、作業のコツとして知ることができる。なお、注視点分布に関する差異が予め設定されている値よりも大きいと判定した部分について、その旨を提示する表示(テキスト表示,色分け表示等)を更に行うようにしてもよい。
差異表示画面G3(図18)では、模範作業者の視線の移動軌跡Eα(一点鎖線)と学習作業者の視線の移動軌跡Eβ(実線)の両方を同時に表示することにより、模範作業者と学習作業者との視線の違いを表示しており、また、画面G3内に「模範作業者の視線の動き」,「あなたの視線の動き」等の凡例を表示している。したがって、学習作業者は、模範作業者との視線の動きの違いを、作業のコツとして知ることができる。なお、視線の移動軌跡に関する差異が予め設定されている値よりも大きいと判定した部分について、その旨を提示する表示(テキスト表示,色分け表示等)を更に行うようにしてもよい。
模範作業者と学習作業者との動作データに関する差異は(図16)、例えば、手の移動軌跡Hαと移動軌跡Hβとの空間的な位置ズレとして、設定値との比較・判定に用いられる。手の移動軌跡Hα,Hβの空間的な位置ズレは、例えば、移動軌跡Hα,Hβが大きく曲がる位置で比較することができ、また、部品21(図15)に対する立体的な空間位置の差として、距離(例えば、ピクセル単位,mm単位)で算出することができる。立体的な空間位置の差が3次元情報であることから、その計測は例えばステレオカメラ等を用いて行うことができる。ただし、手の移動軌跡Hαと移動軌跡Hβとの空間的な位置ズレが平面的な位置ズレとほとんど変わらない場合には、平面上での部品21に対する位置の差として、距離(例えば、ピクセル単位,mm単位)で算出してもよい。
したがって、例えば、移動軌跡Hα,Hβが大きく曲がる位置で、移動軌跡Hαと移動軌跡Hβとの空間的又は平面的な位置ズレが、設定値:300ピクセルよりも大きいと判定した場合(模範作業者と学習作業者との動作データに関する差異が予め設定されている値よりも大きい場合)、第3段階の処理として、差異表示画面G1で模範作業者と学習作業者との作業動作の違いを表示する(#40)。手の移動軌跡Hαは、模範作業者がどういう経路で手を動かしているかを示しているので、その違いを学習作業者が知ることによって、その違いが小さくなるように作業にフィードバックさせることができる。
模範作業者と学習作業者との視線データに関する差異は(図17)、例えば、作業全体での注視点分布Pαと注視点分布Pβとの重なり量(%)として、設定値(例えば、50%)との比較・判定に用いられる。例えば、重なり量が50%以下と判定した場合(模範作業者と学習作業者との視線データに関する差異が予め設定されている値よりも大きい場合)、第3段階の処理として、差異表示画面G2で模範作業者と学習作業者との視線の違いを表示する(#40)。注視点分布Pαは、模範作業者がどの部分を注視しているかを示しているので、その違いを学習作業者が知ることによって、その違いが小さくなるように作業にフィードバックさせることができる。
模範作業者と学習作業者との視線データに関する差異は(図18)、例えば、視線の移動軌跡Eαと移動軌跡Eβとの重なり量(%)として、設定値(例えば、50%)との比較・判定に用いられる。例えば、移動軌跡の重なり量が50%以下と判定した場合(模範作業者と学習作業者との視線データに関する差異が予め設定されている値よりも大きい場合)、第3段階の処理として、差異表示画面G3で模範作業者と学習作業者との視線の違いを表示する(#40)。また、模範作業者と学習作業者との動作データに関する差異と同様、例えば、移動軌跡Eα,Eβが大きく曲がる位置で、移動軌跡Eαと移動軌跡Eβとの空間的又は平面的な位置ズレが、設定値:300ピクセルよりも大きいと判定した場合(模範作業者と学習作業者との視線データに関する差異が予め設定されている値よりも大きい場合)、第3段階の処理として、差異表示画面G3で模範作業者と学習作業者との視線の違いを表示するようにしてもよい(#40)。視線の移動軌跡Eαは、模範作業者がどういう順番で見ているかを示しているので、その違いを学習作業者が知ることによって、その違いが小さくなるように作業にフィードバックさせることができる。
第3段階の処理(#40)が完了すると、作業のやり直しを行うか否かの判定を行う(#50)。つまり、学習作業者がパーソナルコンピューター3に対する入力操作により、視線又は作業動作の違いを小さくするために作業のやり直しを行うことを指示した場合、第2段階の処理(#20)に戻る。それ以外の場合には次工程へ進むか否かの判定(#60)へと移行する。学習作業者がパーソナルコンピューター3に対する入力操作により、次工程の作業教育を行うことを指示した場合、次工程の作業教育(#70:#10〜#50)を行った後、判定(#60)に戻る。それ以外の場合には作業教育を終了する。
上述したように、作業教育システム1を構成するウェアラブルディスプレイ2は、学習作業者の眼前に作業情報を表示する画像表示装置4と、学習作業者の視線を検出して視線データとして出力する視線センサー5A等の視線検出装置5と、学習作業者の作業動作を撮影して動作データとして出力するカメラ6A等の作業動作撮影装置6と、を備えている(図1)。しかし、視線検出装置5と作業動作撮影装置6のいずれか少なくとも一方を備えていれば、第2段階の処理(#20)で視線データ又は動作データを学習作業者の作業データとして取得することができる。したがって、第3段階の処理(#40)で模範作業者と学習作業者との視線又は作業動作の違いを表示することが可能である。
模範作業者と学習作業者との視線又は作業動作の違いを表示することにより、模範作業者と学習作業者との作業における違いが学習作業者ごとに明確になるため、学習作業者は作業のコツを容易につかむことが可能である。したがって、学習作業者は短時間で作業に習熟することができる。例えば、作業内容を全く知らない学習作業者でも、模範作業者から直接指導を受けずに、模範作業者と同等の作業を短時間で行うことができるようになる。また、教育の自動化が可能になるため、模範作業者の指導時間の削減や多くの学習作業者に対する同時教育が可能となり、作業・技術を迅速かつ効果的に伝えていくことが可能となる。
一般的な作業ナビゲーションでは、学習作業者が表示画面の作業内容を見ながら作業を行うことになるので、視線は表示画面と現実の外界視野とを往復することになる。それに対して作業教育システム1の場合、第1,第3段階の処理(#10,#40)では、学習作業者は画像表示装置4による表示を見ているため、その視線方向は表示画面の方向のみとなるが、第2段階の処理(#20)では、学習作業者は作業を行っているため、その視線方向は現実の外界視野(主に作業対象)の方向のみとなる。上記のように作業工程を3つの段階に分けると、視線移動を明確に切り分けることができるため、例えば、第2段階の処理(#20)で学習作業者の視線データを取得することが可能となり、第3段階の処理(#40)で模範作業者と学習作業者との視線の違いを表示することが可能となる。したがって、この段階分けは視線検出を行う場合にとりわけ有効である。また、作業工程を3つの段階に分けると、作業直後のフィードバック(振り返り)により直前の作業についての指導が可能となるため、学習作業者は作業工程ごとに作業に習熟することができるという効果もある。
上述した作業教育システム1のように、処理装置7が、模範作業者の作業データと学習作業者の作業データとの比較により(#30)、模範作業者と学習作業者との視線データ又は動作データに関する差異が予め設定されている値よりも大きいと判定した場合、第3段階の処理(#40)を行うことが好ましい。比較・判定の処理(#30)を行わずに第3段階の処理を行っても、視線又は作業動作の違いから学習作業者は作業のコツを容易につかむことは可能である。しかし、上記比較・判定の処理(#30)を行えば、視線の違いも作業動作の違いも無い場合、学習作業者は不要な表示を見る必要がなくなる。したがって、より効率的な作業教育が可能となる。
模範作業者の作業データのうち、動作データには動作の方向,速度等を含めることができるため、作業内容だけでなく、単なる作業ナビゲーションでは表現しにくい作業のコツをも表現することができる。また、作業動作の違いを表示することにより、模範作業者と同じように行ったつもりでも実際には動作が異なっていることを学習作業者に示すことができる。このように動作データは作業と密接な関係にあるが、作業のコツは視線にも表れるため視線データも重要である。例えば、どこに注目すべきかが注視点から分かるので、作業のコツがつかみ易くなる。また、視線の違いを表示することにより、見るべきところを見ているかどうかを学習作業者に示すことができる。
上記視線データと動作データの各特長から、より早い習熟を可能とするには、第2段階の処理(#20)で視線データ及び動作データを学習作業者の作業データとして取得し、模範作業者と学習作業者との視線の違いと作業動作の違いの両方を表示することが好ましい。また、上記比較・判定の処理(#30)により、模範作業者と学習作業者との視線データに関する差異が予め設定されている値よりも大きいと判定した場合にのみ第3段階の処理(#40)を行ったり、模範作業者と学習作業者との動作データに関する差異が予め設定されている値よりも大きいと判定した場合にのみ第3段階の処理(#40)を行ったりしてもよい。
1 作業教育システム
2 ウェアラブルディスプレイ
3 パーソナルコンピューター
4 画像表示装置
5 視線検出装置
5A 視線センサー
5B 照明装置
5a 赤外カメラ
5b 赤外LED
6 作業動作撮影装置
6A カメラ
7 処理装置
8 記憶装置
9 レンズ
10 接眼光学系
11 フレーム
21 部品
21a,21b,21c 穴
22a,22b,22c 部品
A1 作業例の静止画データ
A2 模範作業の動画データ
B1,B2,B3 模範作業者の作業データ
C1,C2,C3 学習作業者の作業データ
Mα,Mβ マーカー
Hα,Hβ 手の移動軌跡
Pα,Pβ 注視点分布
Eα,Eβ 視線の移動軌跡
S1,S2,S3 学習作業者の視野
Gα,Gβ 画面
G1,G2,G3 差異表示画面
TX 画面内表示
2 ウェアラブルディスプレイ
3 パーソナルコンピューター
4 画像表示装置
5 視線検出装置
5A 視線センサー
5B 照明装置
5a 赤外カメラ
5b 赤外LED
6 作業動作撮影装置
6A カメラ
7 処理装置
8 記憶装置
9 レンズ
10 接眼光学系
11 フレーム
21 部品
21a,21b,21c 穴
22a,22b,22c 部品
A1 作業例の静止画データ
A2 模範作業の動画データ
B1,B2,B3 模範作業者の作業データ
C1,C2,C3 学習作業者の作業データ
Mα,Mβ マーカー
Hα,Hβ 手の移動軌跡
Pα,Pβ 注視点分布
Eα,Eβ 視線の移動軌跡
S1,S2,S3 学習作業者の視野
Gα,Gβ 画面
G1,G2,G3 差異表示画面
TX 画面内表示
Claims (9)
- 学習作業者の眼前に作業情報を表示する画像表示装置と、学習作業者の視線を検出する視線検出装置と、学習作業者の作業動作を撮影する作業動作撮影装置と、を有するウェアラブルディスプレイと、
模範作業者の作業データが蓄えられた記憶装置と、
前記画像表示装置で表示される作業情報を生成する処理装置と、
を備えた作業教育システムであって、
前記処理装置が、
前記模範作業者の作業データを用いて前記画像表示装置で模範作業を表示する第1段階の処理と、
前記視線検出装置及び作業動作撮影装置で学習作業者の作業を検出し、学習作業者の作業データを取得する第2段階の処理と、
前記画像表示装置で模範作業者と学習作業者との作業データの違いを表示する第3段階の処理と、
を行うことを特徴とする作業教育システム。 - 前記作業データが、視線の動きを示す視線データ、手の動きを示す動作データ、又はそれらの組み合わせであることを特徴とする請求項1記載の作業教育システム。
- 前記処理装置が、前記模範作業者の作業データと前記学習作業者の作業データとの比較により、模範作業者と学習作業者との視線データに関する差異が予め設定されている値よりも大きいと判定した場合、前記第3段階の処理で少なくとも視線の違いの表示を行い、
前記処理装置が、前記模範作業者の作業データと前記学習作業者の作業データとの比較により、模範作業者と学習作業者との動作データに関する差異が予め設定されている値よりも大きいと判定した場合、前記第3段階の処理で少なくとも作業動作の違いの表示を行うことを特徴とする請求項2記載の作業教育システム。 - 前記ウェアラブルディスプレイにおいて前記視線検出装置が一体的に設けられていることを特徴とする請求項1〜3のいずれか1項に記載の作業教育システム。
- 前記ウェアラブルディスプレイにおいて前記作業動作撮影装置が一体的に設けられていることを特徴とする請求項1〜4のいずれか1項に記載の作業教育システム。
- 前記作業動作撮影装置が、静止画撮影,動画撮影のうちの少なくとも一方の機能を有することを特徴とする請求項1〜5のいずれか1項に記載の作業教育システム。
- 前記第2段階の処理では学習作業者の作業を妨げないように、前記画像表示装置が表示を行わないか、あるいは目立たない表示を行うことを特徴とする請求項1〜6のいずれか1項に記載の作業教育システム。
- 前記ウェアラブルディスプレイと接続されたコンピューターを更に備え、前記記憶装置及び処理装置を前記コンピューターに有することを特徴とする請求項1〜7いずれか1項に記載の作業教育システム。
- 前記記憶装置及び処理装置を前記ウェアラブルディスプレイに有することを特徴とする請求項1〜8のいずれか1項に記載の作業教育システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017075188A JP2018180090A (ja) | 2017-04-05 | 2017-04-05 | 作業教育システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017075188A JP2018180090A (ja) | 2017-04-05 | 2017-04-05 | 作業教育システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018180090A true JP2018180090A (ja) | 2018-11-15 |
Family
ID=64276448
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017075188A Withdrawn JP2018180090A (ja) | 2017-04-05 | 2017-04-05 | 作業教育システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018180090A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020087091A (ja) * | 2018-11-28 | 2020-06-04 | 株式会社日立ビルシステム | 熟練度判定システム |
WO2020148919A1 (ja) * | 2019-01-17 | 2020-07-23 | オムロン株式会社 | 情報処理装置、提示システム、及び情報処理プログラム |
JP2020144776A (ja) * | 2019-03-08 | 2020-09-10 | 株式会社日立製作所 | 作業支援システム、作業支援装置、及び作業支援方法 |
JP2021043561A (ja) * | 2019-09-06 | 2021-03-18 | 株式会社日立ビルシステム | 作業訓練システム及び作業訓練支援方法 |
WO2023095717A1 (ja) * | 2021-11-25 | 2023-06-01 | ソニーグループ株式会社 | 表示装置、表示方法及び表示プログラム |
WO2023175802A1 (ja) * | 2022-03-16 | 2023-09-21 | 日本電気株式会社 | 作業分析装置、作業分析システム、作業分析方法および記憶媒体 |
-
2017
- 2017-04-05 JP JP2017075188A patent/JP2018180090A/ja not_active Withdrawn
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020087091A (ja) * | 2018-11-28 | 2020-06-04 | 株式会社日立ビルシステム | 熟練度判定システム |
JP7011569B2 (ja) | 2018-11-28 | 2022-02-10 | 株式会社日立ビルシステム | 熟練度判定システム |
WO2020148919A1 (ja) * | 2019-01-17 | 2020-07-23 | オムロン株式会社 | 情報処理装置、提示システム、及び情報処理プログラム |
JP2020144776A (ja) * | 2019-03-08 | 2020-09-10 | 株式会社日立製作所 | 作業支援システム、作業支援装置、及び作業支援方法 |
JP7109395B2 (ja) | 2019-03-08 | 2022-07-29 | 株式会社日立製作所 | 作業支援システム、作業支援装置、及び作業支援方法 |
JP2021043561A (ja) * | 2019-09-06 | 2021-03-18 | 株式会社日立ビルシステム | 作業訓練システム及び作業訓練支援方法 |
JP7165108B2 (ja) | 2019-09-06 | 2022-11-02 | 株式会社日立ビルシステム | 作業訓練システム及び作業訓練支援方法 |
WO2023095717A1 (ja) * | 2021-11-25 | 2023-06-01 | ソニーグループ株式会社 | 表示装置、表示方法及び表示プログラム |
WO2023175802A1 (ja) * | 2022-03-16 | 2023-09-21 | 日本電気株式会社 | 作業分析装置、作業分析システム、作業分析方法および記憶媒体 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2018180090A (ja) | 作業教育システム | |
US11231897B2 (en) | Display system, display device, information display method, and program | |
US9766441B2 (en) | Surgical stereo vision systems and methods for microsurgery | |
CN108701429B (zh) | 训练机器人手术系统的用户的方法、系统、以及存储媒体 | |
US10642564B2 (en) | Display system, display device, information display method, and program | |
US11861062B2 (en) | Blink-based calibration of an optical see-through head-mounted display | |
ES2325374T3 (es) | Sistema de realidad aumentada con identificacion de objeto marcador real. | |
TWI610097B (zh) | 電子系統、可攜式顯示裝置及導引裝置 | |
US20040233192A1 (en) | Focally-controlled imaging system and method | |
US20110091856A1 (en) | Opthalmoscope simulator | |
US20200311396A1 (en) | Spatially consistent representation of hand motion | |
KR20130108643A (ko) | 응시 및 제스처 인터페이스를 위한 시스템들 및 방법들 | |
JPH11202256A (ja) | 頭部搭載型画像表示装置 | |
US11094283B2 (en) | Head-wearable presentation apparatus, method for operating the same, and medical-optical observation system | |
JP4875843B2 (ja) | 情報端末装置 | |
JP2022106801A (ja) | 多層ビューイングシステムおよび方法 | |
US10403048B2 (en) | Storage medium, content providing apparatus, and control method for providing stereoscopic content based on viewing progression | |
Renner et al. | [POSTER] Augmented Reality Assistance in the Central Field-of-View Outperforms Peripheral Displays for Order Picking: Results from a Virtual Reality Simulation Study | |
Guo et al. | Augmented reality and mixed reality measurement under different environments: A survey on head-mounted devices | |
Pande et al. | Eye-tracking in STEM education research: limitations, experiences and possible extensions | |
JP6733401B2 (ja) | 表示システム、表示装置、情報表示方法、及び、プログラム | |
US20230129708A1 (en) | Procedure guidance and training apparatus, methods and systems | |
JP2019079469A (ja) | 作業支援装置、作業支援方法、作業支援プログラム及び頭部搭載型表示装置 | |
JP2014221092A (ja) | 照明装置及び両眼運動訓練方法 | |
Wachter et al. | Development of a real-time virtual reality environment for visualization of fully digital microscope datasets |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200318 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20200930 |