JP2017191490A - 技能伝承システム及び方法 - Google Patents

技能伝承システム及び方法 Download PDF

Info

Publication number
JP2017191490A
JP2017191490A JP2016081072A JP2016081072A JP2017191490A JP 2017191490 A JP2017191490 A JP 2017191490A JP 2016081072 A JP2016081072 A JP 2016081072A JP 2016081072 A JP2016081072 A JP 2016081072A JP 2017191490 A JP2017191490 A JP 2017191490A
Authority
JP
Japan
Prior art keywords
data
image
user
information
sight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016081072A
Other languages
English (en)
Other versions
JP6646511B2 (ja
Inventor
新吾 山本
Shingo Yamamoto
新吾 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujita Corp
Original Assignee
Fujita Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujita Corp filed Critical Fujita Corp
Priority to JP2016081072A priority Critical patent/JP6646511B2/ja
Publication of JP2017191490A publication Critical patent/JP2017191490A/ja
Application granted granted Critical
Publication of JP6646511B2 publication Critical patent/JP6646511B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】ウェアラブル端末等を用いて、ユーザ間で視線等を連携してユーザ間で技能等を伝承させることができる技術を提供する。【解決手段】技能伝承システムにおいて、眼鏡端末1Aは、第1ユーザUAの視界の第1画像データ及び第1視線データをサーバ3へ送信し、サーバ3は、教師データに基づいて、機械学習を行って、第1画像の特徴データを抽出して登録する。サーバ3は、教師データとして、第1画像内での第1ユーザUAの注目箇所の情報を入力して、特徴データに関連付けるように登録する。眼鏡端末1Bは、第2ユーザUBの視界の第2画像データをサーバ3へ送信し、サーバ3は、第2画像に該当する特徴データに関連付けられている注目箇所データを読み出し、支援表示データを作成して眼鏡端末1Bへ送信する。眼鏡端末1Bは、支援表示データに基づいて、注目箇所の情報を第2ユーザUBの視界に重ね合わせるように表示を行う。【選択図】図1

Description

本発明は、情報処理技術に関し、ウェアラブル端末を用いた表示制御等の技術に関する。
近年、眼鏡型やヘッドマウントディスプレイ(HMD)型等のウェアラブル端末を用いてユーザの視界に画像や情報を重ね合わせて表示するシステムの開発及び実用化が進んでいる。このような技術は、拡張現実(Augmented Reality)とも呼ばれる。このようなウェアラブル端末を用いたシステムを、例えば工事や建設等の現場に適用して、作業者の作業等の支援に利用する技術が検討されている。
このような技術に関する先行技術例としては、特開2015−61339号公報(特許文献1)が挙げられる。特許文献1には、結線作業支援システムとして、以下の旨が記載されている。そのシステムは、作業者の視線を追跡する視線追跡装置、作業者の視線方向の配線等を撮影する撮影装置、画像処理部、作業管理装置、等を有し、作業者が目視した映像に、作業者の目視範囲を示すマーク、等を重畳して表示する。このマークは、画像中で視線がある箇所を示す枠である。画像処理部は、マーク内の対象物に対する画像処理を行って文字等を判読し、データ保存管理部の対象物の情報と照合して、照合結果を作業者に案内する。
特開2015−61339号公報
特許文献1のような技術は、ウェアラブル端末を用いて、あるユーザの視界の視線や画像を取得して、画像処理を行い、作業を支援するための情報を読み出して、そのユーザの視界の中に表示させる。例えば特許文献1の場合、作業支援情報として、作業者が結線作業で対象の配線を誤認識しないように、対象配線情報や前回作業情報が表示される。
しかし、従来のウェアラブル端末を用いるシステムでは、ユーザ間で視界の情報を連携させること等については、検討が進んでいない。例えば、第1ユーザの視界の視線情報を利用して、第2ユーザの視界に支援情報を表示すること等が考えられる。
例えば、工事や建設等の現場では、ベテラン社員や非ベテラン社員等の作業者がおり、各々の人の技能や個性や経験値等は様々である。現場内において、ベテラン社員が品質や危険等の観点で注目して視ている箇所と、非ベテラン社員が視ている箇所とには、違いがあると思われる。ベテラン社員の注目箇所、視線や知見は、その個人の経験や勘等に依る部分もあり、必ずしも言語化やデータ化はされていない。ベテラン社員の注目箇所、視線や知見等をデータや情報にして、非ベテラン社員に伝えることができれば、ベテラン社員の技能等を非ベテラン社員に効率的に教示、伝承することができる。これにより、非ベテラン社員の技能や作業効率等の向上が期待でき、現場の業務の品質向上や危険回避等につながり、ベテラン社員の技能等をより活用できる。
なお、特許文献1のような技術では、ベテラン社員から非ベテラン社員へ注目箇所等の情報を連携させることは考慮されていない。また、特許文献1のような技術では、予め作業対象物を含む現場の画像に対し、作業支援情報を設定しておく。これにより、後で作業者の撮影画像に対し作業支援情報を読み出して視界に表示させることができる。しかし、現場毎に作業支援情報を設定しておくことは、手間が大きい。また、多数の現場及び現場状況変化等にも対応がしにくい。
本発明の目的は、ウェアラブル端末等を用いる技術に関して、ユーザ間で視線等を連携してユーザ間で技能等を伝承させることができる技術を提供することである。
本発明のうち代表的な実施の形態は、技能伝承システム等であって、以下に示す構成を有することを特徴とする。
一実施の形態の技能伝承システムは、ユーザ間での技能の伝承を支援する技能伝承システムであって、第1ユーザが装着する第1ウェアラブル端末と、第2ユーザが装着する第2ウェアラブル端末と、前記ウェアラブル端末及び前記第2ウェアラブル端末に接続される第1サーバ装置と、を備え、前記第1ウェアラブル端末は、前記第1ユーザの視界の第1画像を撮影して第1画像データとして前記サーバ装置へ送信し、前記第1画像内の視線を追跡して第1視線データとして前記サーバ装置へ送信し、前記サーバ装置は、機械学習の教師データを入力し、前記第1画像データ及び前記第1視線データをDBに蓄積し、前記DBのデータ、及び前記教師データに基づいて、前記機械学習を行って、前記第1画像から特徴情報を抽出して特徴データとして前記DBに登録し、前記教師データとして、前記第1画像内での前記第1ユーザの注目箇所の情報を入力して注目箇所データとして前記DBの前記特徴データに関連付けるように登録し、前記第2ウェアラブル端末から前記第2ユーザの視界の第2画像を撮影した第2画像データを受信し、前記第2画像と前記特徴データとをマッチングして該当する前記特徴データに関連付けられている前記注目箇所データを読み出し、前記注目箇所データを用いた支援表示データを作成して前記第2ウェアラブル端末へ送信し、前記第2ウェアラブル端末は、前記第2ユーザの視界の前記第2画像を撮影して前記第2画像データとして前記サーバ装置へ送信し、前記サーバ装置から前記支援表示データを受信して、前記注目箇所の情報を前記第2ユーザの視界に重ね合わせるように表示を行う。
本発明のうち代表的な実施の形態によれば、ウェアラブル端末等を用いる技術に関して、ユーザ間で視線等を連携してユーザ間で技能等を伝承させることができる。
本発明の実施の形態の技能伝承システムの構成を示す図である。 実施の形態の技能伝承システムで、眼鏡端末の構成を示す図である。 実施の形態の技能伝承システムで、装置基本構成を示す図である。 実施の形態の技能伝承システムで、主に第1ユーザに係わる部分の機能ブロック構成を示す図である。 実施の形態の技能伝承システムで、主に第2ユーザに係わる部分の機能ブロック構成を示す図である。 実施の形態の技能伝承システムで、支援表示データの画像フレームの例を示す図である。 実施の形態の技能伝承システムで、第1ユーザ及び第2ユーザの現場の画像及び画面の例を示す図である。
以下、本発明の実施の形態を図面に基づいて詳細に説明する。なお、実施の形態を説明するための全図において同一部には原則として同一符号を付し、その繰り返しの説明は省略する。
図1〜図7を用いて、本発明の実施の形態の技能伝承システムについて説明する。実施の形態の技能伝承システムは、ウェアラブル端末を用いて、ユーザ間で視線情報等を連携して、ユーザ間での技能等の伝承を支援するシステムである。実施の形態の技能伝承システムは、第1ユーザの第1ウェアラブル端末から視線や画像のデータをサーバ等で収集して機械学習を行い、その結果に基づいて、第2ユーザの第2ウェアラブル端末に支援表示情報を提供する。
[技能伝承システム]
図1は、実施の形態の技能伝承システムの構成を示す。実施の形態の技能伝承システムは、眼鏡端末1、操作機器2、サーバ3、管理端末4を含み、それらの要素が通信網6を介して通信可能に接続されている。眼鏡端末1と操作機器2は例えば有線通信インタフェースで通信ケーブル5を通じて接続されている。操作機器2とサーバ3は、例えば無線通信インタフェースの無線通信網を含む通信網6を介して接続されている。サーバ3と管理端末4は通信網6を介して接続されている。
眼鏡端末1は、複数のユーザが使用する複数の眼鏡端末として、眼鏡端末1A、眼鏡端末1Bを有する。操作機器2は、複数のユーザが使用する複数の操作機器として、操作機器2A、操作機器2Bを有する。
複数のユーザとして、第1ユーザUA、第2ユーザUBがいる。第1ユーザUAは、ベテラン社員であり、眼鏡端末1A及び操作機器2Aを装着して使用する。第2ユーザUBは、非ベテラン社員であり、眼鏡端末1B及び操作機器2Bを装着して使用する。第1ユーザUA及び第2ユーザUBは、大まかなユーザの種別も示しており、それぞれ、複数人でもよい。
第1ユーザUAや第2ユーザUBは、例えば、工事や建設等の現場9で業務を行う会社の社員であるが、これに限らなくてもよい。現場9は、複数の現場として、第1現場9A、第2現場9Bがある。例えば、第1ユーザUAは、第1現場9Aで作業等を行い、第2ユーザUBは、第2現場9Bで作業等を行う。
第1ユーザUAは、自身の頭及び眼7に、眼鏡端末1Aを装着する。第2ユーザUBは、自身の頭及び眼7に、眼鏡端末1Bを装着する。第1ユーザUAは、眼鏡端末1Aに接続されている操作機器2Aを、自身の身体、衣服等に装着する。第2ユーザUBは、眼鏡端末1Bに接続されている操作機器2Bを、自身の身体、衣服等に装着する。
眼鏡端末1は、眼鏡型のウェアラブル端末である。眼鏡端末1は、例えば投射表示方式で表示画面部である眼鏡レンズ面に映像、画像を投射表示する機能等を持ち、これによりユーザの視界に投射表示による画像を重ね合わせて表示することができる。
操作機器2は、眼鏡端末1の構成要素であり、眼鏡端末1を制御する本体部であり、ユーザによる眼鏡端末1への入力操作を可能とする機器である。操作機器2は、眼鏡端末1に対する表示制御、入力、及び電源等の機能を持つ。ユーザは、操作機器2の入力ボタン等により眼鏡端末1への入力操作が可能である。また、操作機器2は、サーバ3に対する通信機能を持つ。なお、眼鏡端末1と操作機器2との接続は、有線通信インタフェースの接続に限らず、無線通信インタフェースの接続としてもよい。
サーバ3は、データベース(DB)を含むサーバ装置である。サーバ3は、第1ユーザUAの眼鏡端末1Aから視線等の情報を収集してDBに蓄積し、その蓄積情報を用いて機械学習を行い、第1ユーザUAの注目箇所を含む情報をDBに格納する。サーバ3は、第2ユーザUBの眼鏡端末1Bから情報が入力されると、DBから注目箇所を含む情報を抽出し、支援表示データとして眼鏡端末1Bへ送信する。これにより、第2ユーザUBの眼鏡端末1Bの画面に支援表示情報が表示される。
なお、サーバ3とは別にDBサーバ等が設けられてもよい。サーバ3の機能は、複数のサーバ等の装置により実現されてもよい。サーバ3の機能は、クラウドコンピューティングにより実現されてもよい。
管理端末4は、任意の情報処理装置が適用可能であり、例えばPCである。管理端末4は、技能伝承システムの管理者もしくは第1ユーザUAにより使用される。管理端末4は、管理者等の操作に基づいて、サーバ3と通信し、機械学習のためのモデルに対する教師データ入力や保守入力を行う。
なお、変形例として以下としてもよい。眼鏡端末1としては、ユーザの頭及び眼7に対して装着される型であればよく、ゴーグル型やヘッドマウントディスプレイ(HMD)型でもよいし、例えばヘルメット等に一体化した型でもよい。また、眼鏡端末1と他のウェアラブル端末との組合せ、例えば腕時計型端末等との組合せの形態としてもよい。また、眼鏡端末1には、ユーザの視界に重ね合わせるようにして少なくとも所定の支援情報を表示するが、それに限らず、公知技術に基づいて他の画像や情報を表示してもよい。例えば、汎用的な眼鏡端末を用いる場合に、その眼鏡端末に持つ表示機能を用いて、所定の画像や情報を表示してもよい。
操作機器2は、眼鏡端末1とは別のスマートフォン等の装置により実現され、それらが連携する形態としてもよい。また、眼鏡端末1の眼鏡フレームに操作機器2が一体化されるように実装されている形態でもよい。
[眼鏡端末]
図2は、眼鏡端末1の構成を示す。眼鏡端末1は、表示方式としては、透過、投射表示方式を用いている。即ち、眼鏡端末1を装着したユーザの視界には、外界がそのまま透過されて視えると共に、眼鏡レンズ面に投射表示画像が重ね合わせて表示される。図2では、ユーザの眼7に対して、眼鏡端末1を内側から見た構成を示す。視線方向20は、ユーザの眼7から外界を視る視線方向を示す。なお、説明上の方向として、眼鏡端末1の表示画面を構成する交差する2つの方向をX方向及びY方向とし、その表示画面に対して交差する、視線方向20に対応する方向をZ方向とする。画面内水平方向をX方向とし、画面内垂直方向をY方向とする。
眼鏡端末1は、眼鏡フレームに、投射表示部11、表示画面部12、カメラ部13、視線追跡部14等の要素が実装されている。これらの要素は、眼鏡フレームの図示しない接続線を通じて接続されている。投射表示部11には通信ケーブル5が接続されている。
投射表示部11は、表示データに基づいて、表示画面部12に、映像、画像を投射表示する。表示画面部12は、眼鏡レンズ面であり、ハーフミラー等で構成できる。表示画面部12には、投射表示部11からの投射表示光により画面25が表示される。表示画面部12では、外界からの光である透過光21は、Z方向で、眼鏡レンズ面を透過して、眼7に入射する。また、投射表示部11からの投射表示光は、眼鏡レンズ面で反射して、Z方向で、反射光22として、眼7に入射される。即ち、眼7には、透過光21と反射光22とが重畳された重畳光23が入射される。これにより、眼7には、重畳光23による画面26が結像される。即ち、ユーザの眼7には、眼鏡端末1を装着した状態、かつサーバ3から支援情報が提供されている状態では、画面26として、外界の現場9の様子と支援情報とが重ね合わせされた画面が視える。
図2の投射表示部11は、操作機器2との通信インタフェース部を含んでおり、カメラ部13や視線追跡部14とも連携する。
カメラ部13は、眼鏡端末1の前方、視線方向20に対応したZ方向を向く位置に設けられている。カメラ部13は、カメラを含み、眼鏡端末1の前方の映像、画像を撮影し、撮影データを出力する。カメラ部13は、撮影データを、投射表示部11を通じて、操作機器2へ送信する。
視線追跡部14は、ユーザの眼7の視線を計測及び検出する視線追跡(アイトラッキング)を行う部分である。視線追跡部14は、視線追跡の結果である視線データを出力する。視線追跡部14は、視線データを、投射表示部11を通じて、操作機器2へ送信する。視線追跡部14は、所定の視線追跡方式で視線追跡を行うが、視線追跡方式については限定しない。視線追跡部14は、例えば、視線追跡光に対する眼7からの反射光24を受光し、その受光情報から、眼7の動き、視線方向20等を判断する。
実施の形態における視線とは、ユーザの眼7が、画面25及びカメラ部13の撮影画像内において、どの位置の点を視ているかということに対応している。その点を「視点」とする。この視線は、撮影映像における視点の時系列上の軌跡を含む。眼7から視点までの線が視線であり、その線の方向が視線方向20に対応している。
視線データは、撮影画像内における視点の軌跡を含むデータである。視線データは、例えば、撮影画像フレーム毎に時点を持つとして、その撮影画像フレーム及び時点毎に、視点の位置座標(x,y)を持つデータである。
実施の形態における眼鏡端末1は、眼鏡フレームに、投射表示部11、カメラ部13、視線追跡部14等がすべて実装されている装置の場合を示しているが、これに限らず可能である。即ち、投射表示部11、カメラ部13、視線追跡部14等が、別の装置に分離されており、それらの装置を連携させる形態でもよい。例えば、カメラ部13または視線追跡部14等を取り付けたヘルメットをユーザが装着してもよい。
眼鏡端末1または操作機器2には、マイク等の音声入力装置、スピーカ等の音声出力装置、他のセンサ、等を備えていてもよい。他のセンサとしては、GPS受信機、加速度センサ、慣性センサ、電子コンパス、等でもよい。眼鏡端末1及び操作機器2は、それらのセンサを用いて、ユーザの頭及び眼鏡端末1の位置や向きや動き等を検出して利用してもよい。
[装置基本構成]
図3は、技能伝承システムの各装置の基本的な構成を示す。眼鏡端末1は、制御部101、記憶部102、通信部103、入力部104、及び前述の表示画面部12等を備える。操作機器2は、制御部201、記憶部202、通信部203、入力部204、電源部205等を備える。サーバ3は、制御部301、記憶部302、通信部303、DB304等を備える。
制御部101は、CPU等により実現され、眼鏡端末1の全体を制御する。制御部101は、図2の投射表示部11を含む。記憶部102は、制御部101が扱うデータやプログラム等が格納される。通信部103は、操作機器2の通信部203との間で有線通信インタフェースでの通信処理を行う。入力部104は、省略可能であるが、ユーザ入力操作を可能とする入力ボタン等を含む部分である。
制御部201は、CPU等により実現され、操作機器2の全体を制御する。制御部201は、図2の投射表示部11と連携する後述の表示制御部を含む。記憶部202は、制御部201が扱うデータやプログラム等が格納される。通信部203は、眼鏡端末1の通信部103との間で有線通信インタフェースでの通信処理を行う。また、通信部203は、通信網6及びサーバ3の通信部303との間で無線通信インタフェースを含む通信インタフェースでの通信処理を行う。入力部204は、ユーザ入力操作を可能とする入力ボタン等を含む部分である。ユーザ入力操作は、電源や機能のオン/オフ等の操作が可能である。電源部205は、バッテリ等を含み、操作機器2及び眼鏡端末1に電力を供給する。
制御部301は、CPU等により実現され、サーバ3の全体を制御する。制御部301は、ソフトウェアプログラム処理により、後述の機械学習に関する処理部を実現する。記憶部302は、制御部301が扱うデータやプログラム等が格納される。通信部303は、通信網6に対する通信インタフェースでの通信処理を行う。DB304は、記憶装置を用いて実現され、後述の蓄積DBや学習DBを含む。DB304は、サーバ3とは別のDBサーバ等で実現されてもよい。
[機能ブロック構成(1)]
図4は、技能伝承システムの機能ブロックの構成として、主に第1ユーザUAに係わる眼鏡端末1A、操作機器2A、及びサーバ3を含む部分の構成を示す。
操作機器2Aは、制御部201により実現される処理部として、表示制御部211、撮影画像データ送信部213、視線データ送信部214を含む。表示制御部211は、投射表示のための表示データD11を、眼鏡端末1Aの投射表示部11へ送信する。投射表示部11は、その表示データD11に基づいて、表示画面部12に投射表示を行う。投射表示部11は、詳しくは例えば以下のような構成を有する。
投射表示部11は、駆動部、表示素子、投射光学系を有する。駆動部は、表示データD11に基づいて、表示素子を駆動して、表示素子に画像を形成する。表示素子に形成された画像は、投射光学系を通じて、表示画面部12である眼鏡レンズ面に投射される。これにより、表示画面部12に画面25が構成される。
撮影画像データ送信部213は、眼鏡端末1Aのカメラ部13から、第1ユーザUAの撮影映像データである第1画像データD13を受信、取得する。撮影画像データ送信部213は、その第1画像データD13を、サーバ3へ送信する。
視線データ送信部214は、眼鏡端末1Aの視線追跡部14から、第1ユーザUAの視線データである第1視線データD14を受信、取得する。視線データ送信部214は、その第1視線データD14を、サーバ3へ送信する。
サーバ3は、データ収集入力部31、蓄積DB32、機械学習部33を有する。機械学習部33は、モデル作成部34、学習DB35を含む。
データ収集入力部31は、眼鏡端末1Aの操作機器2Aから、第1画像データD13及び第1視線データD14を受信、取得する。第1画像データD13及び第1視線データD14は、関連しているデータであり、例えば同期したタイミングで送信される。データ収集入力部31は、それらのデータを、関連付けられたデータとして取得する。複数の第1ユーザUAが存在する場合、データ収集入力部31は、複数の各々の操作機器2Aから、同様にそれらのデータを収集する。データ収集入力部31は、取得した第1画像データD13及び第1視線データD14に対応する、第1画像データD31及び第1視線データD32を、関連付けた状態で蓄積DB32に格納する。蓄積DB32には、第1画像データD31及び第1視線データD32が、例えば、日時、眼鏡端末1Aまたは第1ユーザUAのID、等の情報と共に格納される。
機械学習部33は、蓄積DB32のデータ、及び教師データを用いて、機械学習の処理を行う。機械学習部33は、機械学習のモデル及び結果を、学習DB33に格納し、管理する。機械学習部33のモデル作成部34は、管理者等の操作に基づいて、機械学習のモデルを作成する。モデル作成部34は、蓄積DB32のデータと、別に入力された教師データとに基づいて、そのモデルを作成する。モデル作成部34は、特徴抽出部34A、及び関連付け部34Bを含む。
学習DB35は、モデルに対応する特徴データD33及び注目箇所データD34が、関連付けられた状態で格納される。
特徴抽出部34Aは、蓄積DB32の第1画像データD31を参照して、その画像内から特徴情報を抽出し、特徴データD33として学習DB35内に登録する。機械学習の方式については、限定しない。初期のモデルでは、特徴抽出部34Aは、特徴抽出に関する教師データである特徴データD33に基づいて、画像から特徴情報を抽出する。
関連付け部34Bは、特徴データD33と注目箇所データD34との関連付けを行う。関連付け部34Bは、管理端末4の教師データ入力部41から送信及び入力される教師データD41に基づいて、それらの関連付け、言い換えるとラベル付けを行う。
管理端末4は、教師データ入力部41、モデル保守入力部42を有する。これらは、PCの入力部や表示部を用いて、一般的な情報処理で実現できる。
教師データ入力部41は、表示画面で、管理者または第1ユーザUAの入力操作に基づいて、機械学習のモデルに対する教師データを入力する処理を行う。教師データは、特徴抽出に関する教師データを含む。実施の形態では、教師データは、現場の撮影画像内における第1ユーザUAの注目箇所を指定する情報を含む。この処理は、例えば、管理端末4の画面に、第1画像データD31及び第1視線データD32に基づいて画像及び視線を表示し、その画像内からベテラン社員の注目箇所を指定する処理である。教師データ入力部41は、指定された注目箇所の情報を含む教師データD41を、サーバ3の機械学習部33へ送信する。モデル作成部34は、その教師データD41を入力する。関連付け部34Bは、その教師データD41における注目箇所の情報に基づいて、特徴データD33と注目箇所データD34とを関連付けるように学習DB35に登録する。同様に、教師データ入力部41を用いて、教師データの修正等が可能である。
モデル保守入力部42は、機械学習のモデルを保守するための入力及び表示を行う部分である。モデル保守入力部42は、サーバ3の機械学習部33から、現在のモデルの情報を取得して画面に表示する。管理者は、そのモデルの内容を確認でき、必要に応じて、モデルのパラメータの修正等を行う。モデル保守入力部42は、修正情報等の保守データD42を、サーバ3の機械学習部33へ送信する。モデル作成部34は、その保守データD42に基づいて、学習DB35内のモデルの情報を修正する。
実施の形態における機械学習のモデルは、画像の特徴データD33に対して、どのように注目箇所データD34を関連付けて出力するか、に関するモデルである。
後述するが、教師データ入力手段としては、管理端末4の教師データ入力部41を用いる以外にも、眼鏡端末1及び操作機器2を用いて実現できる。即ち、第1ユーザUAが眼鏡端末1Aを用いて現場を視ている時に、視線の箇所を注目箇所として指定したい場合には、その時に操作機器2Aの所定の入力ボタンを操作する。これにより、操作機器2Aは、その時の第1視線データD14に伴う視点の付近を注目箇所とし、その注目箇所の情報を、教師データとして、サーバ3へ送信する。
なお、第1ユーザUAから第1画像データD13及び第1視線データD14を収集するが、第1ユーザUAの視界に支援情報を表示することは必須ではない。そのため、眼鏡端末1A及び操作機器2Aに投射表示機能を備えることは必須ではない。しかしながら、第1ユーザUAの視界に、支援情報を表示してもよい。例えば、現場の情報や、視線方向20の視点を表す情報等を重畳表示してもよい。これにより、第1ユーザUAの注目箇所の指定に関する教師データ入力についても、より効率化できる。
[機能ブロック構成(2)]
図5は、図4と関連する技能伝承システムの機能ブロック構成として、主に第2ユーザUBに係わる眼鏡端末1B、操作機器2B、及びサーバ3を含む部分の構成を示す。図5の眼鏡端末1B及び操作機器2Bの構成は、図4の眼鏡端末1A及び操作機器2Aの構成と同様である。
操作機器2Bは、制御部201により実現される処理部として、表示制御部211、撮影画像データ送信部213、視線データ送信部214を含む。
操作機器2Bの表示制御部211は、表示データD21を、眼鏡端末1Bの投射表示部11へ送信する。
撮影画像データ送信部213は、眼鏡端末1Bのカメラ部13から、第2ユーザUBの撮影映像データである第2画像データD23を受信、取得する。撮影画像データ送信部213は、その第2画像データD23を、サーバ3へ送信する。
視線データ送信部214は、眼鏡端末1Bの視線追跡部14から、第2ユーザUBの視線データである第2視線データD24を受信、取得する。視線データ送信部214は、その第2視線データD24を、サーバ3へ送信する。
サーバ3は、機械学習部33内に、モデル適用部36を含む。モデル適用部36は、注目箇所読出部36Aを含む。また、サーバ3は、支援表示データ作成出力部37、現場情報DB37A、実績記録部38、実績DB38Aを含む。
モデル適用部36は、学習DB35のモデルを、第2ユーザUBの眼願端末1Bに対して適用する処理を行う。モデル適用部36は、眼願端末1Bの操作機器2Bからの第2画像データD23等の入力に基づいて、学習DB35から、適用する注目箇所データD34を抽出し、支援表示データとして出力する。
モデル適用部36は、操作機器2Bから、第2画像データD23及び第2視線データD24を、同期したタイミングで受信、取得する。注目箇所読出部36Aは、その第2画像データD23及び第2視線データD24を入力する。注目箇所読出部36Aは、その第2画像データD23の画像内の各画像部分を参照する。注目箇所読出部36Aは、その画像部分を、学習DB35内の特徴データD33と比較するマッチングを行う。これにより、注目箇所読出部36Aは、その画像部分に合致または類似する特徴を持つ特徴データD33を検索する。注目箇所読出部36Aは、その画像部分に該当する特徴データD33がある場合、その特徴データD33に関連付けられている注目箇所データD34がある場合には、その注目箇所データD34を読み出す。注目箇所読出部36Aは、その注目箇所データD34を、支援表示データ作成出力部37へ出力する。
支援表示データ作成出力部37は、注目箇所データD34を用いて、第2ユーザUBの眼鏡端末1Bに提供するための支援表示データを作成する。支援表示データ作成出力部37は、支援表示データを、操作機器2Bへ送信する。操作機器2Bは、その支援表示データを、表示データD21として、眼鏡端末1Bへ送信する。眼鏡端末1Bの投射表示部11は、その表示データD21に基づいて、表示画面部12に、支援表示データによる注目箇所の情報を含む画面を表示する。
これにより、第2ユーザUBは、眼鏡端末1Bを通じて、視界の現場の様子に、第1ユーザUAの注目箇所の情報が重ね合わせされた画面が表示される。第2ユーザUBは、視界において、その注目箇所を認識でき、例えばその注目箇所に注意しながら作業を行うことができる。
更に、上記処理の際に、サーバ3は、第2視線データD24を補助的に用いてもよい。注目箇所読出部36Aは、第2画像データD23の画像内における、第2視線データD24の視線で示す視点の付近の画像部分を参照する。注目箇所読出部36Aは、その画像部分を、学習DB35内の特徴データD33と比較してマッチングし、該当する特徴データD33に関連付けられた注目箇所データD34を抽出する。なお、第2視線データD24をサーバ3の処理で用いることは、必須ではなく、省略してもよい。
また、支援表示データ作成出力部37は、現場情報DB37Aを用いて、注目箇所情報以外の現場情報を、支援表示データの一部として含めるようにすることができる。この処理は、必須ではなく、省略してもよい。現場情報DB37Aには、予め、現場情報が設定されている。現場情報は、例えば現場内にある物体である建物や機器の名称等の情報や、作業管理情報等が挙げられる。作業管理情報は、作業者が行うべき作業に関する指示や支援の情報である。支援表示データ作成出力部37は、例えば、眼鏡端末1からの撮影画像またはGPS位置情報等に応じて、その現場やユーザの視界の画像内の物体等に関連付けることができる現場情報を、現場情報DB37Aから読み出す。支援表示データ作成出力部37は、読み出した現場情報を一部として含む支援表示データを作成する。
実績記録部38は、眼鏡端末1Bに表示される注目箇所情報を第2ユーザUBが確認したかどうかや有効活用できたかどうか等の、実績に関する記録の処理を行う。実績記録部38は、第2ユーザUBが注目箇所を確認したかどうか等を表す実績情報を構成し、実績DB38Aに格納する。実績DB38Aには、例えば、日時、第2ユーザUBまたは眼鏡端末1BのIDと共に、実績情報が履歴として格納される。実績DB38Aの実績情報は、後で管理端末4からも参照可能である。管理者等は、実績情報を確認でき、第2ユーザUBが第1ユーザUAの注目箇所情報を活用できたか等を把握できる。これにより、業務効率改善等に役立てることができる。
実績記録部38は、例えば、操作機器2Bから第2ユーザUBの入力操作に基づいて入力される確認入力情報を用いて、実績情報を実績DB38Aに記録する。眼鏡端末1Bでは、第2ユーザUBの視線の視点を画面に表示する。第2ユーザUBは、眼鏡端末1Bの画面に表示される注目箇所を視て認識する。第2ユーザUBは、その注目箇所を確認した場合、そのことを伝えるために、操作機器2Bの所定の入力ボタン等を操作する。操作機器2Bは、その入力操作に対応した確認入力情報を、サーバ3へ送信する。実績記録部38は、その確認入力情報に基づいて、実績情報を記録する。
なお、第1ユーザUAの眼鏡端末1A及び操作機器2Aと、第2ユーザUBの眼鏡端末1B及び操作機器2Bとで基本的に同様の構成とし、同じ眼鏡端末1及び操作機器2を共用することが可能である。また、共用の形態ではなく、第1ユーザUAの専用の眼鏡端末1A及び操作機器2Aと、それとは異なる構成である、第2ユーザUBの専用の眼鏡端末1B及び操作機器2Bとを用いる形態も可能である。例えば、専用の眼鏡端末1Aでは投射表示機能を備えず、専用の眼鏡端末1Bでは視線追跡機能を備えない。
[技能伝承方法]
実施の形態の技能伝承方法は、実施の形態の技能伝承システムにおいて実行されるステップを含む方法であり、主に以下の第1ステップS1、第2ステップS2により構成される。
第1ステップS1は、主に第1ユーザUAであるベテラン社員に係わるステップである。第1ステップS1は、図4のような構成に基づいて、ベテラン社員の視線データ等を収集し、ベテラン社員の注目箇所等を教師データとしてモデルに入力し、機械学習を行うステップである。第1ステップS1により、第2ステップS2での支援情報のためのモデルを鍛錬する。
第2ステップS2は、主に第2ユーザUBである非ベテラン社員に係わるステップである。第2ステップS2は、非ベテラン社員による現場での作業等の際に、第1ステップS1のモデルの適用により、第2ユーザUBの視界に支援情報を表示して支援するステップである。
[第1ステップS1]
第1ステップS1の構成は以下である。第1ステップS1は、詳しくは以下のステップS1−1〜S1−5を含む。
(S1−1) ステップS1−1は、ベテラン社員により、機械学習のモデルに対する教師データを入力するステップである。なお、この教師データの入力は、ベテラン社員の代わりに、管理者が、ベテラン社員から情報を受けて行ってもよい。
第1ユーザUAとして、1人以上のベテラン社員の各々が、眼鏡端末1A及び操作機器2Aを用いて、1つ以上の現場9Aを視る。各ベテラン社員の眼鏡端末1A及び操作機器2Aから、現場9Aの撮影映像の第1画像データD13及び第1視線データD14を、サーバ3へ収集する。サーバ3は、それらのデータを蓄積DB32に蓄積する。
教師データは、現場9の撮影画像内でベテラン社員が視線で注目している箇所である注目箇所の情報を含む。教師データとする注目箇所データは、少なくとも、位置、タイプの情報を含む。位置は、例えば現場9の画像である第1画像データD13内の点または領域の位置座標で指定される。タイプは、その注目箇所が、ベテラン社員にとって、どういう観点で注目なのかを表す情報である。タイプの値の例として、「品質」、「危険」、等がある。タイプが「品質」である場合、その注目箇所は、品質の観点で注目すべき箇所であることを示す。タイプが「危険」である場合、その注目箇所は、危険の観点で注目すべき箇所であることを示す。タイプのその他の値を有してもよい。タイプの値はユーザ設定可能である。注目箇所データとしては、任意のコメントの文字列等の情報を含めてもよい。
また、注目箇所の情報として、第1ユーザUAの注目度を設けてもよい。サーバ3は、例えば、1人あるいは不特定の複数の第1ユーザUAによる、画像内の注目箇所における注目の度合いを、統計処理等により計算してもよい。サーバ3は、第1視線データD14の視線の視点が同じ箇所に集まる度合いを判断して注目度を計算してもよい。また、第1ユーザUAが教師データとして注目の度合いを例えばいくつかのレベルから選択して入力し、サーバ3がその入力情報を用いて注目度を計算してもよい。
教師データ入力の際の方式としては、以下の第1方式や第2方式が可能である。第1方式としては、図4の管理端末4の教師データ入力部41を用いる。ベテラン社員または管理者は、ベテラン社員からの収集データである第1画像データD13及び第1視線データD14について、管理端末4の画面で確認する。その際、教師データ入力部41は、サーバ3の蓄積DB32から、第1画像データD13及び第1視線データD14を参照し、画面に表示する。第1視線データD14については、視点の位置を表すマーク等を画像内に表示してもよい。ベテラン社員または管理者は、画面で、ベテラン社員による現場9の画像内での注目箇所を指定する。管理端末4の教師データ入力部41は、指定された注目箇所を含む情報を、教師データD41として、サーバ3へ送信する。
注目箇所の指定の操作は、例えば、タッチパネル等の画面において、注目箇所とする位置の点や領域のタッチ入力操作でもよい。位置の指定の操作は、タップや一定時間以上のタッチでもよいし、タッチしながら領域を囲む操作等でもよい。また、タイプの指定の操作としては、予め選択肢として表示されるタイプのボタンを選択操作した後に、位置を指定する操作としてもよい。また、位置の指定の操作としてタッチ等の操作の後に、ポップアップ等を表示して、その中に表示されるタイプの選択肢から選択してもよい。また、ポップアップや入力欄の中にコメント等の文字列を入力する形態でもよい。
第2方式としては、ベテラン社員が図4の眼鏡端末1A及び操作機器2Aを用いて直接的に入力を行う。ベテラン社員は、眼鏡端末1Aを装着して、現場9Aの観察や作業をしながら、眼鏡端末1Aの画面25で、現在自分が視ている視線の視点の箇所を、注目箇所として指定入力することができる。その際、ベテラン社員は、画面の自分の視点の付近を、注目箇所として指定する場合には、その時に、操作機器2Aの入力部204の入力ボタン等の操作を行う。これにより、操作機器2Aは、その時の第1画像データD13及び第1視線データD14に伴う視点の付近を注目箇所とし、その注目箇所の情報を、教師データとして、サーバ3へ送信する。
(S1−2) ステップS1−2は、ステップS1−1で入力された教師データD41である注目箇所等を用いて、サーバ3が機械学習のモデルを作成及び設定するステップである。モデル作成部34は、教師データに基づいて、学習DB35に、初期のモデルとして、特徴データD33と注目箇所データD34とを関連付けて設定する。
まず、サーバ3のモデル作成部34は、特徴抽出部34Aにより、蓄積DB32のベテラン社員の第1画像データD13の第1画像から、画像特徴である第1特徴を抽出し、特徴データD33として学習DB35に登録する。特徴データD33は、画像内から分類して抽出された特徴情報であり、例えば形状、輝度分布等のパターンのデータである。画像特徴を抽出する方式については、公知の各種の方式が適用可能であり、限定しない。
モデル作成部34は、関連付け部34Bにより、入力の教師データD41の注目箇所情報に基づいて、学習DB35の特徴データD33の第1特徴に、注目箇所データD34を関連付けるようにして登録する。第1ユーザUAの視点に対応する画像特徴に対して、注目箇所の位置やタイプの情報が関連付けられる。注目箇所データD34は、点や領域の位置、サイズ、タイプ等を含むデータである。
注目箇所の指定に関して、変形例として、第1ユーザUAの第1視線データD14を利用して、注目箇所の判定を行ってもよい。眼鏡端末1Aの操作機器2A、またはサーバ3は、第1視線データD14を用いて、第1ユーザUAの視界の第1画像内での視点の位置を判断して注目箇所を判定する。操作機器2Aまたはサーバ3は、例えば、第1画像内で視点が同じ箇所に留まっている状態の時間を凝視時間として判断し、凝視時間が所定の閾値時間を越える場合、その箇所を注目箇所として判定する。サーバ3は、その注目箇所の情報を得て、自動的にモデルに入力して機械学習を行う。
(S1−3) ステップS1−3は、ステップS1−2で作成及び設定された初期のモデルを、フィードバック学習のために、特に第1ユーザUAに対して適用するステップである。サーバ3の機械学習部33は、第1ユーザUAの眼鏡端末1A及び操作機器2Aから、第1画像データD13及び第1視線データD14を入力する。機械学習部33は、その入力データに応じて、学習DB35の該当する注目箇所データD34を読み出し、操作機器2Aへ送信して眼鏡端末1Aの画面25に表示させる。
(S1−4) ステップS1−4は、ステップS1−3で適用された注目箇所データD34を第1ユーザUAにより確認して、モデルを評価するステップである。第1ユーザUAは、眼鏡端末1Aの画面25に表示された注目箇所が、適切であるか等を確認する。例えば、画像内の注目箇所が適切でない場合や情報が誤っている場合には、その注目箇所を修正するための教師データを入力する。この教師データの再入力、修正は、ステップS1−1と同様に実現できる。第1ユーザUAは、管理端末4または眼鏡端末1Aの画面を見て、教師データの再入力、修正のための入力を行う。また、管理者は、管理端末4の画面で、モデル保守入力部42を用いて、モデルの評価入力や保守入力を行う。
(S1−5) ステップS1−5は、ステップS1−4の入力に従ってモデルを更新するステップである。サーバ3のモデル作成部34は、再入力等された教師データ、評価入力や保守入力の情報に基づいて、学習DB35の特徴データD33と注目箇所データD34との関連付けを更新する。
上記のように、第1ステップS1では、いくつかのステップを繰り返して、フィードバック学習により、モデルを鍛錬する。特に、複数人の第1ユーザUA、及び、複数の現場9Aを対象に上記第1ステップS1を行うことにより、モデルをより鍛錬することができる。即ち、支援情報の質を高めることができる。
[第2ステップS2]
第2ステップS2の構成は以下である。第2ステップS2は、詳しくは以下のステップS2−1〜S2−6を含む。
(S2−1) ステップS2−1は、1人以上の第2ユーザUBである非ベテラン社員が、各々の現場9Bで、眼鏡端末1B及び操作機器2Bを装着した状態で作業等を行うステップである。眼鏡端末1Bは、少なくとも、カメラ部13の第2画像データD23を、操作機器2Bを通じて、サーバ3へ送信する。
また、ステップS2−1の際、第2ユーザUBにより、任意に支援出力要求を入力するようにしてもよいし、支援出力機能のオンまたはオフの切り替え入力操作をするようにしてもよい。支援出力要求は、眼鏡端末1Bの画面に支援表示情報を出力して欲しい場合のサーバ3への要求である。支援出力機能のオン状態では画面に支援表示情報を出力し、オフ状態では出力しない。第2ユーザUBは、支援出力要求や支援出力機能のオン/オフの際には、例えば、操作機器2Bの入力部204の所定の入力ボタンの操作、音声入力、等を行う。操作機器2Bは、その入力に応じて、支援出力要求等をサーバ3へ送信する。
また、以下のように支援出力要求を行う形態でもよい。ステップS2−1の際に、眼鏡端末1Bからの第2視線データD24を利用する。操作機器2Bあるいはサーバ3は、非ベテラン社員の第2画像データD23及び第2視線データD24について、画像内の視点の箇所の凝視時間を判断する。操作機器2Bあるいはサーバ3は、その凝視時間が、閾値時間を越える場合、その視点の箇所の付近に関する支援出力要求として判断する。
また、変形例として、以下のように第2ユーザUBの視線を利用する形態でもよい。この変形例では、第2視線データD24を利用して、第2ユーザUBの視点の位置を判定し、サーバ3でのマッチングに利用する。眼鏡端末1Bは、第2ユーザUBの視界の第2画像内の視線を追跡して第2視線データD24として取得する。操作機器2Bは、第2視線データD24を用いて、第2画像内での視点の位置を判断し、その情報をサーバ3へ送信する。サーバ3は、その第2画像内での視点の位置の情報を利用して、下記のマッチングを行う。もしくは、操作機器2Bは、第2視線データD24をサーバ3へ送信し、サーバ3は、第2視線データD24を用いて第2画像内での視点の位置を判断し、その位置の情報を利用して、下記のマッチングを行う。
(S2−2) ステップS2−2は、ステップS2−1で入力された第2ユーザUBの眼鏡端末1B及び操作機器2Bからの第2画像データD23及び第2視線データD24の入力に基づいて、モデルを適用するステップである。サーバ3のモデル適用部36は、注目箇所読出部36Aにより、入力の第2画像データD23の画像を参照して、その画像を、学習DB35のモデルの特徴データD33とマッチングする。これにより、注目箇所読出部36Aは、その画像の中から、特徴データD33の第1特徴に合致または類似する画像部分を探索する。注目箇所読出部36Aは、探索の結果、その画像部分に合致または類似する第1特徴がある場合、その第1特徴に関連付けられている注目箇所データD34を読み出す。
ステップS2−2で第2ユーザUBの視点の位置の情報を利用する場合、モデル適用部36は、第2画像内の視点の位置を中心として、その付近の画像部分について、マッチングを行い、該当する特徴データD33を読み出す。
(S2−3) ステップS2−3は、ステップS2−2で抽出された注目箇所データD34を用いて、第2ユーザUBへの支援表示データを作成して出力するステップである。支援表示データ作成出力部37は、注目箇所読出部36Aから出力された注目箇所データD34を用いて、注目箇所の位置やタイプ等の情報を含む支援表示データを作成する。支援表示データは、例えば、第2画像データD23の画像に対応した画像フレーム内において、注目箇所の点や領域を示す図形等と、その注目箇所のタイプを示す文字や図形やマーク等とを含む。また、支援表示データ作成出力部37は、現場情報DB37Aを用いて、他の支援情報を含んだ支援表示データを作成する。
支援表示データ作成出力部37は、作成した支援表示データD37を、操作機器2Bへ送信する。なお、眼鏡端末1B及び操作機器2Bとサーバ3との間での処理の時間を考慮して、操作機器2Bは、サーバ3から一定間隔のタイミング毎に支援表示データD37を受信して保持してもよい。
(S2−4) ステップS2−4は、ステップS2−3で出力された支援表示データD37を用いて、第2ユーザUBの眼鏡端末1Bの画面に支援表示情報を重畳表示するステップである。操作機器2Bは、サーバ3からの支援表示データD37を眼鏡端末1Bへ送信する。眼鏡端末1Bの投射表示部11は、支援表示データD37に基づいて、表示画面部12の画面に、支援表示情報の画像フレームを投射表示する。これにより、第2ユーザUBの眼7には、現場9Bの画像に支援表示情報が重ね合わせされた画面が結像される。第2ユーザUBは、自分の視界内における第1ユーザUAの注目箇所を、認識、注意することができる。
(S2−5) ステップS2−5は、省略可能であるが、ステップS2−4で表示された画面に基づいて、第2ユーザUBが、注目箇所を認識したかどうか等を情報として入力するためのステップである。例えば、第2ユーザUBは、眼鏡端末1Bの画面内で注目箇所の位置やタイプを認識し、確認した場合に、操作機器2Bの所定の入力ボタン等を操作する。操作機器2Bは、第2ユーザUBが注目箇所を確認したことを表す確認入力情報を、サーバ3へ送信する。
あるいは、その際、第2ユーザUBの第2視線データD24を利用して、以下のような処理例も可能である。操作機器2Bは、第2画像データD23及び第2視線データD24をサーバ3へ送信する。サーバ3は、第2画像データD23の画像内における第2視線データD24の視線を判断し、第2ユーザUBが第1ユーザUAの注目箇所を確認、注目したかどうかを判定する。例えば、サーバ3は、第2ユーザUBの視点が注目箇所の付近に重なっている状態の時間である凝視時間を判断し、凝視時間が閾値時間を越える場合、第2ユーザUBがその注目箇所を確認したと判定する。サーバ3ではなく操作機器2Bでその判定を行ってもよい。
(S2−6) ステップS2−6は、ステップS2−5で入力された情報を用いて、サーバ3が実績記録を行うステップである。サーバ3の実績記録部38は、第2ユーザUBの操作機器2Bから、確認入力情報を受信する。実績記録部38は、確認入力情報に基づいて、支援表示データD37として出力した注目箇所が、第2ユーザUBにより確認されたかどうか等の実績を把握する。そして、実績記録部38は、その実績情報を、注目箇所データD34に対応させて、実績DB38Aに記録する。実績記録部38は、複数人の第2ユーザUBの実績情報を統計処理し、結果を記録する。
(S2−7) ステップS2−7は、ステップS2−6で記録された実績情報を、後で、管理者または第1ユーザUAまたは第2ユーザUBにより、管理端末4等の画面で確認するステップである。これにより、管理者等のユーザは、支援表示の効果を確認することができ、業務改善等に活用することができる。
[支援表示データ]
図6は、支援表示データD37の画像フレームの例を示す。画像フレーム601は、第2ユーザUBの第2画像データD23の画像フレームに対応した、矩形の背景の画像フレームである。背景は透過領域である。画像フレーム601内に、注目箇所である領域602を有する。点P及び領域602の少なくとも一方が表示される。画像フレーム601内における点Pの位置座標が(Xp,Yp)である。領域602は、この例では、点Pを中心とした矩形の領域であり、領域602のサイズとして、横幅HX、縦幅HYである。領域602の表示図形として、矩形、楕円、等から選択して設定可能であり、本例では矩形である。
また、注目箇所のタイプの情報としては、注目箇所の位置の情報に関連付けられて、タイプIDとして、T1=品質、T2=危険、等があり、本例ではT1である。タイプ表示図形としては、丸、三角、バツ等のマーク、文字、吹き出し、等があり、選択して設定可能である。また、タイプ毎に色等を選択して設定可能である。本例では、タイプ表示図形として、吹き出しであり、吹き出しの中に、タイプを表す文字、あるいは任意のコメントの文字列が表示される。本例では、吹き出しの中に「品質注意」等と表示されている。
また、領域603は、他の支援情報を表示する領域を示し、画像フレームの端に設けられている。この領域603に、例えば、日時、現場の名称や場所、作業内容、等が表示される。この領域603内に、注目箇所のタイプ等の情報が表示されるようにしてもよい。
上記のような支援表示データD37が眼鏡端末1Bの画面に投射表示される。これにより、第2ユーザUBの視界の画像に、支援情報として注目箇所情報が重ね合わせて表示される。
[現場画像例]
図7は、実施の形態の技能伝承システムにおける、第1ユーザUA及び第2ユーザUBが装置を通して視る現場9の画像及び対応する画面の例を示す。現場9として屋外で建物や道路等を斜めから視る例である。図7の左側は、第1ユーザUAが眼鏡端末1Aの画面を通じて視る現場9Aの画像及び画面の例を示す。図7の右側は、第2ユーザUBが眼鏡端末1Aの画面を通じて視る現場9Bの画像及び画面の例を示す。
画像701は、第1ユーザUA側の第1画像として、第1特徴を含む画像を示す。これは、前述の第1画像データD13,D31等に対応している。視点701Aは、第1視線データD14,D32における視線の視点をマーク等で表示する例を示す。なお、視線及び視点は動くので、画像フレーム群に対応して視点の軌跡が構成される。
画像702は、画像701に基づいて、サーバ3での機械学習の教師データとして、ベテラン社員の注目箇所を指定した画像を示す。これは、前述の特徴データD33と注目箇所データD34との関連付けに対応している。注目箇所702Aは、楕円で示す一部の領域(具体的には地面の穴の例)を、タイプとして「危険」である注目箇所として指定した例を示す。注目箇所702Bは、楕円で示す一部の領域を、タイプとして「品質」である注目箇所として指定した例を示す。左側に示す第1特徴702Cは、注目箇所702Aに対応した、機械学習で抽出された第1特徴の例である形状の例を示す。
画像703は、第2ユーザUB側の第2画像として、第2特徴を含む画像を示す。これは、前述の第2画像データD23等の入力に対応している。画像部分703Aは、モデル適用の際に、マッチングにより、第1画像の第1特徴702Cと合致または類似した画像部分の例を示す。画像部分703Aは、細かい形状等が第1特徴702Cの形状等とは異なるが、おおまかには第1特徴702Cに該当するものとして抽出されている。
画像704は、画像703と支援表示データD37の画像フレームとの重ね合わせによる重畳画面に対応する画像を示す。注目箇所表示704Aは、画像部分703Aに対応させた、注目箇所情報の表示例を示す。注目箇所表示704Aは、本例では、画像部分703Aを囲むように、注目箇所の領域を楕円で表示している。また、注目箇所のタイプの情報が、吹き出し及び文字で表示されている。また、端にある領域704Bには、他の支援情報が表示されている。
[効果等]
上記のように、実施の形態の技能伝承システム及び方法によれば、眼鏡端末1及び機械学習等を用いて、ベテラン社員と非ベテラン社員との間で、視線等を連携できる。ベテラン社員の注目箇所を含む支援情報を非ベテラン社員の視界に表示できる。ベテラン社員の注目箇所、視線や知見等をデータや情報にして、非ベテラン社員に伝えることができる。ベテラン社員の技能等を非ベテラン社員に効率的に教示、伝承することができる。これにより、非ベテラン社員の技能や作業効率等の向上が期待でき、現場の業務の品質向上や危険回避等につながり、ベテラン社員の技能等をより活用できる。また、実施の形態によれば、ベテラン社員の教師データの入力や修正、フィードバック学習等についても、少ない手間で実現できる。また、多数のユーザ、多数の現場に適用することができ、学習により効率を高めることができる。
[変形例]
実施の形態の技能伝承システムの変形例として以下も可能である。この変形例では、第2ユーザUBの第2視線データD24を利用して、第2ユーザUBの注目箇所を判定する。操作機器2Bもしくはサーバ3は、第2視線データD24を用いて、第2画像内の視点を判断し、例えば凝視時間を判断し、第2ユーザUBの注目箇所を判定する。サーバ3は、その第2ユーザUBの注目箇所の情報をDBに登録する。また、第2ユーザUBの入力操作に基づいて、第2ユーザUBの注目箇所の情報をDBに登録してもよい。
サーバ3は、第1ユーザUAの注目箇所の情報と、第2ユーザUBの注目箇所の情報と、両者の差異の情報とを、DBに記録する。各ユーザは、管理端末4でその差異の情報を表示して確認することができ、知見として活用することができる。サーバ3は、例えば両者の差異が大きい箇所の情報や、両者の差異が小さい箇所の情報を出力することができる。即ち、各ユーザは、第1ユーザUAは注目しているが第2ユーザUBは注目していない箇所や、第1ユーザUAは注目していないが第2ユーザUBは注目している箇所、等を確認できる。
以上、本発明を実施の形態に基づき具体的に説明したが、本発明は前記実施の形態に限定されず、その要旨を逸脱しない範囲で種々変更可能である。
1,1A,1B…眼鏡端末、2,2A,2B…操作機器、3…サーバ、4…管理端末、5…通信ケーブル、6…通信網、7…眼、9,9A,9B…現場、UA…第1ユーザ、UB…第2ユーザ。

Claims (9)

  1. ユーザ間での技能の伝承を支援する技能伝承システムであって、
    第1ユーザが装着する第1ウェアラブル端末と、
    第2ユーザが装着する第2ウェアラブル端末と、
    前記第1ウェアラブル端末及び前記第2ウェアラブル端末に接続されるサーバ装置と、
    を備え、
    前記第1ウェアラブル端末は、
    前記第1ユーザの視界の第1画像を撮影して第1画像データとして前記サーバ装置へ送信し、
    前記第1画像内の視線を追跡して第1視線データとして前記サーバ装置へ送信し、
    前記サーバ装置は、
    機械学習の教師データを入力し、
    前記第1画像データ及び前記第1視線データをDBに蓄積し、前記DBのデータ、及び前記教師データに基づいて、前記機械学習を行って、前記第1画像から特徴情報を抽出して特徴データとして前記DBに登録し、
    前記教師データとして、前記第1画像内での前記第1ユーザの注目箇所の情報を入力して注目箇所データとして前記DBの前記特徴データに関連付けるように登録し、
    前記第2ウェアラブル端末から前記第2ユーザの視界の第2画像を撮影した第2画像データを受信し、前記第2画像と前記特徴データとをマッチングして該当する前記特徴データに関連付けられている前記注目箇所データを読み出し、
    前記注目箇所データを用いた支援表示データを作成して前記第2ウェアラブル端末へ送信し、
    前記第2ウェアラブル端末は、
    前記第2ユーザの視界の前記第2画像を撮影して前記第2画像データとして前記サーバ装置へ送信し、
    前記サーバ装置から前記支援表示データを受信して、前記注目箇所の情報を前記第2ユーザの視界に重ね合わせるように表示を行う、
    技能伝承システム。
  2. 請求項1記載の技能伝承システムにおいて、
    前記支援表示データは、画像フレーム内において前記注目箇所の位置を表す情報と、前記注目箇所のタイプを表す情報と、を含む、
    技能伝承システム。
  3. 請求項1記載の技能伝承システムにおいて、
    管理端末を有し、
    前記管理端末は、前記第1画像を表示し、前記第1ユーザまたは管理者の操作に基づいて、前記注目箇所の情報を入力して、前記サーバ装置へ送信し、
    前記サーバ装置は、前記管理端末からの前記注目箇所の情報に基づいて、前記注目箇所データを登録する、
    技能伝承システム。
  4. 請求項1記載の技能伝承システムにおいて、
    前記第1ウェアラブル端末は、前記第1ユーザの操作に基づいて、前記注目箇所の情報を入力して、前記サーバ装置へ送信し、
    前記サーバ装置は、前記第1ウェアラブル端末からの前記注目箇所の情報に基づいて、前記注目箇所データを登録する、
    技能伝承システム。
  5. 請求項1記載の技能伝承システムにおいて、
    前記第1ウェアラブル端末または前記サーバ装置は、前記第1視線データを用いて前記第1画像内での視点の位置を判断して前記注目箇所を判定し、前記注目箇所の情報とする、
    技能伝承システム。
  6. 請求項1記載の技能伝承システムにおいて、
    前記第2ウェアラブル端末は、前記第2画像内の視線を追跡して第2視線データとして取得し、
    前記第2ウェアラブル端末または前記サーバ装置は、前記第2視線データを用いて前記第2画像内での視点の位置を判断し、
    前記サーバ装置は、前記第2画像内での視点の位置を利用して、前記マッチングを行う、
    技能伝承システム。
  7. 請求項1記載の技能伝承システムにおいて、
    前記サーバ装置は、前記第2ウェアラブル端末で前記第2ユーザが前記注目箇所を確認したかどうかを表す実績情報を記録し、前記実績情報を出力する、
    技能伝承システム。
  8. 請求項1記載の技能伝承システムにおいて、
    前記第2ウェアラブル端末は、前記第2画像内の視線を追跡して第2視線データとして取得し、
    前記第2ウェアラブル端末または前記サーバ装置は、前記第2視線データを用いて前記第2画像内での注目箇所を判定し、
    前記サーバ装置は、前記第1ユーザの前記注目箇所と前記第2ユーザの前記注目箇所とにおける両者の差異の情報を前記DBに登録し、前記差異の情報を出力する、
    技能伝承システム。
  9. ユーザ間での技能の伝承を支援するための技能伝承方法であって、
    第1ユーザが装着する第1ウェアラブル端末と、第2ユーザが装着する第2ウェアラブル端末と、前記第1ウェアラブル端末及び前記第2ウェアラブル端末に接続されるサーバ装置と、を備えるシステムにおいて実行されるステップとして、
    前記サーバ装置が、機械学習の教師データを入力するステップと、
    前記第1ウェアラブル端末が、前記第1ユーザの視界の第1画像を撮影して第1画像データとして前記サーバ装置へ送信し、前記第1画像内の視線を追跡して第1視線データとして前記サーバ装置へ送信するステップと、
    前記サーバ装置が、前記第1画像データ及び前記第1視線データをDBに蓄積し、前記DBのデータ、及び前記教師データに基づいて、前記機械学習を行って、前記第1画像から特徴情報を抽出して特徴データとして前記DBに登録するステップと、
    前記サーバ装置が、前記教師データとして、前記第1画像内での前記第1ユーザの注目箇所の情報を入力して注目箇所データとして前記DBの前記特徴データに関連付けるように登録するステップと、
    前記第2ウェアラブル端末が、前記第2ユーザの視界の前記第2画像を撮影して前記第2画像データとして前記サーバ装置へ送信するステップと、
    前記サーバ装置が、前記第2ウェアラブル端末から前記第2画像データを受信し、前記第2画像と前記特徴データとをマッチングして該当する前記特徴データに関連付けられている前記注目箇所データを読み出し、前記注目箇所データを用いた支援表示データを作成して前記第2ウェアラブル端末へ送信するステップと、
    前記第2ウェアラブル端末が、前記サーバ装置から前記支援表示データを受信して、前記注目箇所の情報を前記第2ユーザの視界に重ね合わせるように表示を行うステップと、
    を有する、技能伝承方法。
JP2016081072A 2016-04-14 2016-04-14 技能伝承システム及び方法 Active JP6646511B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016081072A JP6646511B2 (ja) 2016-04-14 2016-04-14 技能伝承システム及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016081072A JP6646511B2 (ja) 2016-04-14 2016-04-14 技能伝承システム及び方法

Publications (2)

Publication Number Publication Date
JP2017191490A true JP2017191490A (ja) 2017-10-19
JP6646511B2 JP6646511B2 (ja) 2020-02-14

Family

ID=60084908

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016081072A Active JP6646511B2 (ja) 2016-04-14 2016-04-14 技能伝承システム及び方法

Country Status (1)

Country Link
JP (1) JP6646511B2 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019128644A (ja) * 2018-01-22 2019-08-01 トヨタ自動車株式会社 位置探索支援システム
JP2019192207A (ja) * 2018-04-25 2019-10-31 富士通株式会社 アプリケーションプログラム生成のための深層ニューラルネットワーク訓練
WO2020090943A1 (ja) * 2018-10-30 2020-05-07 Cyberdyne株式会社 インタラクティブ情報伝達システム及びインタラクティブ情報伝達方法並びに情報伝達システム
CN111209708A (zh) * 2020-04-22 2020-05-29 西南交通大学 基于机器学习的桩-土相互作用预测分析方法
JP2020155827A (ja) * 2019-03-18 2020-09-24 本田技研工業株式会社 視認装置および視認方法
JP6802549B1 (ja) * 2020-08-17 2020-12-16 株式会社スワローインキュベート 情報処理方法、情報処理装置、及び制御プログラム
WO2021079414A1 (ja) * 2019-10-21 2021-04-29 株式会社日立システムズ ナレッジ情報抽出システムおよびナレッジ情報抽出方法
WO2021100214A1 (ja) * 2019-11-21 2021-05-27 株式会社スワローインキュベート 情報処理方法、情報処理装置、及び制御プログラム
JPWO2021199853A1 (ja) * 2020-03-30 2021-10-07
JPWO2021220429A1 (ja) * 2020-04-28 2021-11-04
JP2022104138A (ja) * 2020-12-28 2022-07-08 横河電機株式会社 装置、方法及びプログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000250677A (ja) * 1999-03-02 2000-09-14 Toshiba Corp マルチモーダルインターフェース装置及びマルチモーダルインターフェース方法
JP2005106651A (ja) * 2003-09-30 2005-04-21 Mazda Motor Corp 車両用情報提供装置
JP2012007985A (ja) * 2010-06-24 2012-01-12 Nec Corp 確認業務支援システム、サーバ装置、ヘッドマウントディスプレイ装置、ウェアラブル端末、確認業務支援方法およびプログラム
JP2013200440A (ja) * 2012-03-26 2013-10-03 Mitsubishi Electric Corp 映像表示装置
JP2014192861A (ja) * 2013-03-28 2014-10-06 Osaka Gas Co Ltd 監視支援システム
JP2015061339A (ja) * 2013-09-17 2015-03-30 株式会社日立製作所 結線作業支援システム
JP2016001467A (ja) * 2014-05-19 2016-01-07 株式会社リコー 画像処理装置、画像処理方法、および画像処理プログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000250677A (ja) * 1999-03-02 2000-09-14 Toshiba Corp マルチモーダルインターフェース装置及びマルチモーダルインターフェース方法
JP2005106651A (ja) * 2003-09-30 2005-04-21 Mazda Motor Corp 車両用情報提供装置
JP2012007985A (ja) * 2010-06-24 2012-01-12 Nec Corp 確認業務支援システム、サーバ装置、ヘッドマウントディスプレイ装置、ウェアラブル端末、確認業務支援方法およびプログラム
JP2013200440A (ja) * 2012-03-26 2013-10-03 Mitsubishi Electric Corp 映像表示装置
JP2014192861A (ja) * 2013-03-28 2014-10-06 Osaka Gas Co Ltd 監視支援システム
JP2015061339A (ja) * 2013-09-17 2015-03-30 株式会社日立製作所 結線作業支援システム
JP2016001467A (ja) * 2014-05-19 2016-01-07 株式会社リコー 画像処理装置、画像処理方法、および画像処理プログラム

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019128644A (ja) * 2018-01-22 2019-08-01 トヨタ自動車株式会社 位置探索支援システム
JP7143592B2 (ja) 2018-01-22 2022-09-29 トヨタ自動車株式会社 位置探索支援システム
JP2019192207A (ja) * 2018-04-25 2019-10-31 富士通株式会社 アプリケーションプログラム生成のための深層ニューラルネットワーク訓練
JP7222239B2 (ja) 2018-04-25 2023-02-15 富士通株式会社 アプリケーションプログラム生成のための深層ニューラルネットワーク訓練
JPWO2020090943A1 (ja) * 2018-10-30 2021-10-07 Cyberdyne株式会社 インタラクティブ情報伝達システム及びインタラクティブ情報伝達方法並びに情報伝達システム
WO2020090943A1 (ja) * 2018-10-30 2020-05-07 Cyberdyne株式会社 インタラクティブ情報伝達システム及びインタラクティブ情報伝達方法並びに情報伝達システム
JP7157424B2 (ja) 2018-10-30 2022-10-20 Cyberdyne株式会社 インタラクティブ情報伝達システム及びインタラクティブ情報伝達方法並びに情報伝達システム
JP2020155827A (ja) * 2019-03-18 2020-09-24 本田技研工業株式会社 視認装置および視認方法
WO2021079414A1 (ja) * 2019-10-21 2021-04-29 株式会社日立システムズ ナレッジ情報抽出システムおよびナレッジ情報抽出方法
JPWO2021079414A1 (ja) * 2019-10-21 2021-11-18 株式会社日立システムズ ナレッジ情報抽出システムおよびナレッジ情報抽出方法
JP7052062B2 (ja) 2019-10-21 2022-04-11 株式会社日立システムズ ナレッジ情報抽出システムおよびナレッジ情報抽出方法
WO2021100214A1 (ja) * 2019-11-21 2021-05-27 株式会社スワローインキュベート 情報処理方法、情報処理装置、及び制御プログラム
JP2021082114A (ja) * 2019-11-21 2021-05-27 株式会社スワローインキュベート 情報処理方法、情報処理装置、及び制御プログラム
WO2021199853A1 (ja) * 2020-03-30 2021-10-07 日本電気株式会社 情報登録装置、情報登録システム、情報登録方法およびプログラム記憶媒体
JPWO2021199853A1 (ja) * 2020-03-30 2021-10-07
JP7371764B2 (ja) 2020-03-30 2023-10-31 日本電気株式会社 情報登録装置、情報登録システム、情報登録方法およびコンピュータプログラム
CN111209708A (zh) * 2020-04-22 2020-05-29 西南交通大学 基于机器学习的桩-土相互作用预测分析方法
JPWO2021220429A1 (ja) * 2020-04-28 2021-11-04
WO2021220429A1 (ja) * 2020-04-28 2021-11-04 株式会社日立製作所 学習支援システム
JP7253216B2 (ja) 2020-04-28 2023-04-06 株式会社日立製作所 学習支援システム
JP2021082249A (ja) * 2020-08-17 2021-05-27 株式会社スワローインキュベート 情報処理方法、情報処理装置、及び制御プログラム
JP6802549B1 (ja) * 2020-08-17 2020-12-16 株式会社スワローインキュベート 情報処理方法、情報処理装置、及び制御プログラム
JP2022104138A (ja) * 2020-12-28 2022-07-08 横河電機株式会社 装置、方法及びプログラム
JP7222388B2 (ja) 2020-12-28 2023-02-15 横河電機株式会社 装置、方法及びプログラム

Also Published As

Publication number Publication date
JP6646511B2 (ja) 2020-02-14

Similar Documents

Publication Publication Date Title
JP6646511B2 (ja) 技能伝承システム及び方法
US20200159482A1 (en) Display system, display device, information display method, and program
JP5762892B2 (ja) 情報表示システム、情報表示方法、及び情報表示用プログラム
US20150301596A1 (en) Method, System, and Computer for Identifying Object in Augmented Reality
US10339382B2 (en) Feedback based remote maintenance operations
US10095030B2 (en) Shape recognition device, shape recognition program, and shape recognition method
KR101816041B1 (ko) 시스루 스마트 안경 및 그 투시 방법
JP4681629B2 (ja) 表示デバイスのキャリブレーション方法及び装置
JP6454851B2 (ja) 3次元上の注視点の位置特定アルゴリズム
US20210041702A1 (en) Information processing device, information processing method, and computer program
CN103124945A (zh) 图像识别装置和操作判断方法以及程序
JP2021152979A (ja) 作業支援装置、作業支援方法及びプログラム
US11893836B1 (en) Augmented reality system for remote product inspection
WO2021130860A1 (ja) 情報処理装置、制御方法及び記憶媒体
US11944897B2 (en) Device including plurality of markers
JP7078568B2 (ja) 表示装置、表示制御方法、及び表示システム
CN108896035B (zh) 通过影像信息实现导航的方法、设备以及导航机器人
JP2020144776A (ja) 作業支援システム、作業支援装置、及び作業支援方法
CN101165719A (zh) 一种基于标志点的增强实现工业维修方法及系统
JP2016110542A (ja) 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム
JP2021056922A (ja) 人動作支援システム及びその方法
JP2018018315A (ja) 表示システム、表示装置、情報表示方法、及び、プログラム
JP2016062336A (ja) 動作指示システム、動作指示方法、装着端末、および、動作指示管理サーバ
CN112198961A (zh) 一种设备维修作业辅助引导系统
JP2018181237A (ja) 設営アシストシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200110

R150 Certificate of patent or registration of utility model

Ref document number: 6646511

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250