JP7078568B2 - 表示装置、表示制御方法、及び表示システム - Google Patents

表示装置、表示制御方法、及び表示システム Download PDF

Info

Publication number
JP7078568B2
JP7078568B2 JP2019051286A JP2019051286A JP7078568B2 JP 7078568 B2 JP7078568 B2 JP 7078568B2 JP 2019051286 A JP2019051286 A JP 2019051286A JP 2019051286 A JP2019051286 A JP 2019051286A JP 7078568 B2 JP7078568 B2 JP 7078568B2
Authority
JP
Japan
Prior art keywords
work
user
display
display device
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019051286A
Other languages
English (en)
Other versions
JP2020154569A (ja
Inventor
航史 山崎
千代 大野
将史 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2019051286A priority Critical patent/JP7078568B2/ja
Priority to US16/752,282 priority patent/US11137600B2/en
Priority to CN202010102688.XA priority patent/CN111722401A/zh
Publication of JP2020154569A publication Critical patent/JP2020154569A/ja
Application granted granted Critical
Publication of JP7078568B2 publication Critical patent/JP7078568B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、表示装置、表示制御方法、及び表示システムに関する。
ユーザが頭部に装着する、所謂スマートグラス等の透過型HMD(Head Mounted Display)が工場や機器メンテナンス等における作業支援を目的として利用されている。一般に、透過型HMDを装着したユーザは、画面を介して実在する作業対象物を見ながら、透過型の画面に表示される作業支援情報(作業箇所や作業順序等)を参照する。これにより、ユーザは、実在する作業対象物から視線を大きく逸らすことなく、各種の作業を行うことが可能となる。
ところで、透過型HMDには、加速度センサやジャイロセンサ等のセンサを用いてユーザの視線方向や位置を検出する機能を搭載しているものがある。この機能を利用し、透過型の画面に作業支援情報を表示する際、その表示位置を調整することができる。
例えば、特許文献1には、「仮想スクリーン上に、外景に重畳させて描画オブジェクトを表示するための表示/投影部と、外景に対する前記仮想スクリーンの位置及び/又は角度を特定する情報を検出する検出部と、を備える透過型ヘッドマウントディスプレイを有する情報表示システムであって、前記透過型ヘッドマウントディスプレイを制御する制御部は、アプリケーションで作成したデータに基づいて描画オブジェクトを生成し、前記検出部が検出した情報を参照して、前記描画オブジェクトの前記仮想スクリーン上の描画位置を設定する描画オブジェクト生成部と、前記表示/投影部を制御して、前記描画オブジェクトを前記仮想スクリーン上の前記描画位置に描画する描画処理部と、を備え、前記描画オブジェクト生成部は、各々の描画オブジェクトに対して、予め定めたルールに従って描画優先度を設定し、前記描画処理部は、前記描画優先度が異なる複数の描画オブジェクトの前記描画位置が重なる場合、前記描画優先度がより高い描画オブジェクトを優先して描画する、ことを特徴とする情報表示システム」と記載されている。
特開2015-115034号公報
特許文献1に記載の透過型HMDによれば、ユーザは画面上に干渉することなく表示された複数の情報を見ながら作業を行うことができる。しかしながら、実際には、画面上に表示する情報には予め画一的な条件で表示位置や表示内容が定義されているに過ぎない。したがって、例えば、実在の対象物に対して作業箇所や作業内容を重畳させて表示する場合、作業前に作業箇所の確認をするときに、その表示は役立つが、作業中はその表示が邪魔になって対象物の視認性が低下してしまうことがある。
また、該透過型HMDではユーザからのUI(User Interface)操作に応じて情報の表示位置を変更することが可能ではある。しかしながら、常にユーザがUI操作をできるとは限らない。例えば、UI操作として音声操作が採用されている場合、作業現場の騒音が大きいと、音声操作の認識率が低下してしまう。また、UI操作としてジェスチャ操作やスイッチ操作等が採用されている場合、ユーザが工具等を握っているときにはUI操作を行うことができなくなる。
また、作業状態が変わるたびにユーザによるUI操作が必要になると、ユーザにとっての利便性が低下してしまう。
本発明はこのような状況に鑑みてなされたものであり、作業対象物の視認性の低下を抑止できるようにすることを目的とする。
本願は、上記課題の少なくとも一部を解決する手段を複数含んでいるが、その例を挙げるならば、以下のとおりである。
上記課題を解決すべく、本発明の一態様に係る表示装置は、周囲の景色を透過し、且つ、作業支援情報を表示する表示部と、ユーザの視線方向を撮像する撮像部を少なくとも含むセンサ群と、前記センサ群からの出力に基づき、前記ユーザの作業状態を判定する作業状態判定部と、判定された前記ユーザの前記作業状態に応じて、前記表示部における前記作業支援情報の表示を変更する表示制御部と、を備えることを特徴とする。
本発明の一態様によれば、作業対象物の視認性の低下を抑止することが可能となる。
上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
図1は、本発明の第1の実施の形態に係る表示装置100の一例を示す外観図である。 図2は、表示装置100の構成例を示す機能ブロック図である。 図3は、本発明の第2の実施の形態に係る表示システム120の構成例を示す図である。 図4は、表示システム120を構成する情報処理装置122の構成例を示す機能ブロック図である。 図5は、本発明の第3の実施の形態に係る表示システム130の構成例を示す図である。 図6は、表示システム130を構成する情報処理装置131の構成例を示す機能ブロック図である。 図7は、本発明の第4の実施の形態に係る表示システム140の構成例を示す図である。 図8は、表示システム140を構成するサーバ装置142の構成例を示す機能ブロック図である。 図9は、表示処理の一例を説明するフローチャートである。 図10は、作業状態判定処理の一例を詳述するフローチャートである。 図11(A)~図11(D)は、ユーザの視界を撮像した画像データの例を示しており、図11(A)は作業前の状態の一例、図11(B)は作業前の状態の一例、図11(C)は作業中の状態の一例、図11(D)は未作業の状態の一例をそれぞれ示す図である。 図12(A)~図12(D)は、作業支援情報の表示例であり、図12(A)は作業前の表示例、図12(B)は作業中の従来の表示例、図12(C)は作業中の第1の表示例、図12(D)は作業中の第2の表示例をそれぞれ示す図である。
以下、本発明の複数の実施の形態を図面に基づいて説明する。なお、各実施の形態を説明するための全図において、同一の部材には原則として同一の符号を付し、その繰り返しの説明は省略する。また、以下の実施の形態において、その構成要素(要素ステップ等も含む)は、特に明示した場合及び原理的に明らかに必須であると考えられる場合等を除き、必ずしも必須のものではないことは言うまでもない。また、「Aからなる」、「Aより成る」、「Aを有する」、「Aを含む」と言うときは、特にその要素のみである旨明示した場合等を除き、それ以外の要素を排除するものでないことは言うまでもない。同様に、以下の実施の形態において、構成要素等の形状、位置関係等に言及するときは、特に明示した場合及び原理的に明らかにそうでないと考えられる場合等を除き、実質的にその形状等に近似又は類似するもの等を含むものとする。
<本発明の第1の実施の形態に係る表示装置100の構成例>
図1は、本発明の第1の実施の形態に係る表示装置100の一例を示す外観図である。図2は、表示装置100の機能ブロックの構成例を示している。
該表示装置100は、ユーザが頭部に装着するメガネ型の透過型HMDである。ただし、表示装置100の形状はメガネ型に限らず、ゴーグル型やヘルメット型でもよい。表示装置100は、例えば、ユーザが工場作業や機器メンテナンス作業等の作業を行う際に装着し、作業支援のための情報を表示する。
表示装置100は、メガネ型フレーム101の表面又は内部に、センサ群102、表示部103L,103R、光源部104、操作部105、音声入出力部106、電源部109、及び情報処理部110を備える。
センサ群102は、例えばメガネ型フレーム101の正面の中央に配置される。センサ群102は、図2に示すように、第1撮像部1021、第2撮像部1022、慣性計測部1023、環境計測部1024、バイタル計測部1025、位置計測部1026等の各種センサを含み、センシング結果を情報処理部110に出力する。なお、センサ群102の配置は、メガネ型フレーム101の中央に限らず、他の位置に配置してもよい。
第1撮像部1021は、カメラ等からなり、ユーザの視界を撮像対象として静止画像や動画像を撮像する。第2撮像部1022は、全周囲カメラ等からなり、ユーザ自身を含む周囲環境を撮像対象として静止画像や動画像を撮像する。第2撮像部1022によって撮像された静止画像や動画像は、ユーザの視線検出に用いられる。第1撮像部1021及び第2撮像部1022は、本発明の撮像部に相当する。
慣性計測部1023は、加速度センサ、ジャイロセンサ等のセンサからなり、ユーザの頭部の動きを検出する。この情報は、ユーザの視線方向や視線位置の推定に用いられる。
環境計測部1024は、照度計、温度計、湿度計、マイクロフォン等のセンサからなり、ユーザの周囲環境に関する情報を取得する。
バイタル計測部1025は、心拍計、体温計、血圧計、脈拍計、脳波計等のセンサからなり、ユーザの身体情報を取得する。この情報は、ユーザの体調や感情の推定に用いられる。
位置計測部1026は、地磁気センサ、GPS(Global Positioning System)センサ等のセンサからなり、ユーザの現在位置を取得する。
表示部103L,103Rは、それぞれユーザの左目または右目の正面に配置されており、ユーザの周囲の景色を透過し、且つ、作業支援情報を表示する。したがって、ユーザは、表示部103L,103Rを透過する周囲の景色を視認しつつ、表示部103L,103Rに表示される作業支援情報を確認することができる。ただし、表示部103L,103Rは、その一方のみを設け、他方を省略してもよい。
光源部104は、例えばメガネ型フレーム101の正面の左右端に配置され、ユーザの視界に対して照明光を照射する。光源部104をメガネ型フレーム101の正面の左右端に配置することにより、照明光を広い範囲に照射することができる。ただし、光源部104の数や配置は図示する例に限らず、任意に変更してもよい。
操作部105は、例えばメガネ型フレーム101の蔓に配置される。操作部105は、スイッチ、ダイヤル等などからなり、例えば、電源のオン/オフ、表示輝度調整、出力音量調整等を行うユーザからの操作を受け付ける。
音声入出力部106は、例えばメガネ型フレーム101の蔓に配置される。音声入出力部106は、マイクロフォン、スピーカ等からなる。音声入出力部106は、例えばユーザの発話音声を取得したり、所定の音声を出力したりする。音声入出力部106にて取得したユーザの発話音声を音声認識し、音声による操作に用いるようにしてもよい。
電源部109は、バッテリまたは外部のACアダプタに接続される電源インターフェースからなる。電源部109は、表示装置100の各部に電力を供給する。
情報処理部110は、図2に示すように、制御部111、通信部112、記憶部113、及びAIエンジン群114を有する。
制御部111は、例えば、CPU(Central Processing Unit)が所定のプログラムを実行することによって実現される。制御部111は、表示装置100の全体を制御する。制御部111は、認証部1111、コンテンツ管理部1112、作業状態判定部1113、及び表示制御部1114の各機能ブロックを有する。
認証部1111は、表示装置100が他の装置と接続する場合の個人認証処理、機器認証処理、サービス認証処理等を実行する。コンテンツ管理部1112は、作業支援時に実行することにより作業支援のための情報を表示するためのコンテンツを管理する。
作業状態判定部1113は、センサ群102によるセンシング結果に基づき、AIエンジン群114を用いてユーザの作業状態を判定する。表示制御部1114は、作業支援の表示を行うためのコンテンツに基づき、作業支援情報を生成する。また、表示制御部1114は、生成した作業支援情報を表示部103L,103Rに表示させる。なお、作業支援情報は、作業箇所511、及び作業内容512(いずれも図12)の少なくとも一方を含むものとする。
通信部112は、例えば、Ethernet、Wi-Fi、Bluetooth、LPWA(Low-Power Wide Area)、USB(Universal Serial Bus)(何れも商標)等のうちの少なくとも一つの通信方式に対応する通信モジュールからなり、他の装置と有線または無線にて接続して所定の情報を通信する。
記憶部113は、半導体メモリ等のストレージからなる。記憶部113には、例えば、各種プログラム、認証情報、コンテンツ等が記憶されている。AIエンジン群114は、機械学習や深層学習で学習した結果のパラメータや閾値を用いて、様々な事象を推測、判断する。なお、AIエンジン群114は、ハードウェアによって実現してもよいし、CPUが所定のプログラムを実行することによって実現してもよい。さらに、AIエンジン群114は、制御部111の機能ブロックとして実現してもよい、
<本発明の第2の実施の形態に係る表示システム120の構成例>
次に、図3は、本発明の第2の実施の形態に係る表示システム120の構成例を示している。
該表示システム120は、表示装置121及び情報処理装置122を備える。表示装置121は、表示装置100(図1)から情報処理部110を省略し、通信部107を追加したものである。表示装置121は、通信部107を用いて情報処理装置122と有線または無線によって接続し、所定の情報を通信する。通信部107による通信方式は任意であるが、例えば、Ethernet、Wi-Fi、Bluetooth、LPWA、USB等を採用することができる。
次に、図4は、表示システム120における情報処理装置122の機能ブロックの構成例を示している。
情報処理装置122は、例えば、スマートフォン、タブレット型コンピュータ等の一般的なコンピュータからなる。情報処理装置122は、表示装置100(図1)の情報処理部110と同等の機能を有し、図4に示されるように、情報処理部110(図2)と同様の機能ブロックを備える。なお、情報処理装置122の各機能ブロックには、情報処理部110の対応する機能ブロックと共通の符号を付して、その説明を省略する。
表示システム120によれば、表示装置121と、情報処理装置122とを分離したので、表示装置100に比べて、表示装置121の小型軽量化が可能となり、ユーザの装着感を向上させることができる。また例えば、表示装置121と表示装置100とが同容量のバッテリを搭載している場合、通信部107は表示装置100の情報処理部110に比べて消費する電力が小さいので、表示装置100よりも駆動時間の延長を実現できる。
<本発明の第3の実施の形態に係る表示システム130の構成例>
次に、図5は、本発明の第3の実施の形態に係る表示システム130の構成例を示している。
該表示システム130は、表示装置121、情報処理装置131、及び外部センサ群132を備える。表示装置121は、表示システム120(図3)の表示装置121と同一のものである。表示システム130における表示装置121は、通信部107を用いて情報処理装置131や外部センサ群132と有線または無線によって接続し、所定の情報を通信する。
情報処理装置131は、表示装置100の情報処理部110(図2)と同等の機能に加え、外部センサ群132を管理する機能を有する。
外部センサ群132は、図5に示されるように、ウェアラブルセンサ1321、位置センサ1322、及びカメラ1323等を含み、それぞれのセンシング結果を情報処理装置131に出力する。ウェアラブルセンサ1321は、ユーザに装着され、ユーザの動きやバイタル情報(心拍、体温、血圧、脈拍、脳波等)を検出する。位置センサ1322は、該表示システム130の位置情報を検出する。カメラ1323は、表示システム130の周囲を撮像する。外部センサ群132によるセンシング結果は、ユーザの体調、感情、視線、姿勢、位置等の推定に用いられる。なお、外部センサ群132によるセンシング結果は表示装置121を介して情報処理装置131に出力するようにしてもよい。
次に、図6は、表示システム130における情報処理装置131の機能ブロックの構成例を示している。
情報処理装置131は、例えば、パーソナルコンピュータ等の一般的なコンピュータからなる。上述したように、情報処理装置131は、表示装置100の情報処理部110と同等の機能を有し、図6に示されるように、情報処理部110(図2)と同様の機能ブロックに追加して、外部センサ群管理部1115を備える。なお、情報処理装置131の各機能ブロックには、情報処理部110の対応する機能ブロックと共通の符号を付して、その説明を省略する。外部センサ群管理部1115は、外部センサ群132と接続し、外部センサ群132を制御し、センシング結果を取得する。
表示システム130によれば、表示システム120と同様の効果を得ることができる。また、表示システム130によれば、外部センサ群132によるセンシング結果も用いるので、より正確にユーザの視線や作業状態を判定でき、作業支援のための表示をより適切に表示できる。
なお、情報処理装置131の処理能力が情報処理装置122(図4)に比べて高い場合、情報処理装置131に対して同時に複数の表示装置121を接続し、各表示装置121に対して、各ユーザの作業状態に応じた異なる情報を表示させるようにしてもよい。
<本発明の第4の実施の形態に係る表示システム140の構成例>
次に、図7は、本発明の第4の実施の形態に係る表示システム140の構成例を示している。
該表示システム140は、表示装置121、情報処理装置131、及びサーバ装置142を備える。表示装置121は、表示システム120(図3)の表示装置121と同一のものである。表示システム140における表示装置121は、通信部107を用い、有線または無線によってネットワーク141に接続し、ネットワーク141上のサーバ装置142と所定の情報を通信する。
ネットワーク141は、LAN(Local Area Network)、WAN(Wide Area Network)、携帯電話通信網、インターネット等の双方向通信網である。
サーバ装置142は、表示装置100の情報処理部110(図2)と同等の機能を有する。
次に、図8は、表示システム140におけるサーバ装置142の機能ブロックの構成例を示している。
サーバ装置142は、例えば、サーバコンピュータ等の一般的なコンピュータからなる。上述したように、サーバ装置142は、表示装置100の情報処理部110と同等の機能を有し、図8に示されるように、情報処理部110(図2)と同様の機能ブロックに追加して、暗号処理部1116を備える。なお、情報処理装置131の各機能ブロックには、情報処理部110の対応する機能ブロックと共通の符号を付して、その説明を省略する。暗号処理部1116は、ネットワーク141を介して表示装置121と通信する情報に対する暗号化及び復号化を行う。
表示システム140によれば、表示システム120と同様の効果を得ることができる。また、表示システム140は、表示装置121とサーバ装置142との通信を暗号化できるので、表示装置121とサーバ装置142との通信内容の漏洩を抑止することができる。よって、他者に対して秘匿すべき情報を表示装置121に表示させることができる。
なお、サーバ装置142に対して、同時に複数の表示装置121を接続し、各表示装置121に対して、各ユーザの作業状態に応じた異なる作業支援情報を表示させるようにしてもよい。
なお、上述した表示装置100、表示システム120,130,140における各装置の機能分担は図示した例に限られず、適宜変更することができる。
<表示処理について>
次に、表示装置100(図1)、表示システム120(図3),130(図5),140(図7)による表示処理について、図9~図12を参照して説明する。
図9は、表示処理の一例を説明するフローチャートである。図10は、表示処理におけるステップS2の作業状態判定処理の一例を詳述するフローチャートである。図11は、ユーザの視界を撮像した画像データの例を示しており、同図(A)は「未作業」の状態、同図(B)は「未作業」の状態、同図(C)は「作業前」の状態、同図(D)は「作業中」の状態の画像データの例をそれぞれ示している。図12は、作業支援情報の表示例を示しており、同図(A)は「作業前」の表示例、同図(B)は従来の「作業中」の表示例、同図(C)は本実施形態の「作業中」の第1の表示例、同図(D)は本実施形態の「作業中」の第2の表示例をそれぞれ示している。
該表示処理は、例えば作業対象物である電子基盤上に電子部品を半田付けするような作業を支援するための処理である。具体的には、ユーザが表示部103L,103Rを介して見る電子基盤と重なる位置に、作業支援情報として半田付けの位置と順序を表す作業箇所511(図12)や作業内容512(図12)を表示することにより、ユーザの作業を支援する。
該表示処理は、例えば操作部105に対するユーザからの所定の開始操作に応じて実行される。
はじめに、コンテンツ管理部1112が、これから行う作業に対応したコンテンツを記憶部113から取得する。そして、表示制御部1114が、取得されたコンテンツに基づき、ユーザの作業を支援するための作業支援情報を生成する(ステップS1)。次に、作業状態判定部1113が、ユーザによる現在の作業状態を判定する作業状態判定処理を実行する(ステップS2)。
ステップS2の作業状態判定処理について図10を参照して説明する。はじめに、作業状態判定部1113が、第1撮像部1021によってユーザの視界方向が撮像された画像データ501を取得する(ステップS11)。
次に、作業状態判定部1113が、ステップS11で取得した画像データ501に対してAIエンジン群114を用いて画像認識処理を行い、画像データ501に作業対象物503(いまの場合、電子基盤)が撮像されているか否かを判定する(ステップS12)。ここで、例えば図11(A)に示されるように、画像データ501に作業対象物503が撮像されていないと判定された場合(ステップS12でNO)、作業状態判定部1113が、作業状態を「未作業」と判定する(ステップS15)。
反対に、画像データ501に作業対象物503が撮像されていると判定した場合(ステップS12でYES)、作業状態判定部1113が、第2撮像部1022によって撮像された画像データを所定の時間分(例えば、数秒間分)取得し、AIエンジン群114を用いて画像認識処理を行い、ユーザの視線の移動範囲502を検出する(ステップS13)。次に、作業状態判定部1113が、ユーザの視線の移動範囲502のサイズが所定の閾値未満であるか否かを判定する(ステップS14)。ここで、例えば図11(B)に示されるように、ユーザの視線の移動範囲502のサイズが所定の閾値未満ではないと判定された場合、すなわち、ユーザの視線が大きく移動して作業対象物503に注目していない場合(ステップS14でNO)、作業状態判定部1113が、作業状態を「未作業」と判定する(ステップS15)。
反対に、ユーザの視線の移動範囲502のサイズが所定の閾値未満であると判定した場合、すなわち、ユーザが作業対象物503に注目している場合(ステップS14でYES)、作業状態判定部1113が、第1撮像部1021によってユーザの視界方向が撮像された画像データ501を再び取得する(ステップS16)。
次に、作業状態判定部1113が、ステップS16で取得した画像データ501に対してAIエンジン群114を用いて画像認識処理を行い、画像データ501にユーザの手504が撮像されているか否かを判定する(ステップS17)。ここで、例えば図11(C)に示されるように、画像データ501にユーザの手504が撮像されていないと判定した場合(ステップS17でNO)、作業状態判定部1113が、作業状態を「作業前」と判定する(ステップS18)。
一方、例えば図11(D)に示されるように、画像データ501にユーザの手504が撮像されていると判定した場合(ステップS17でYES)、作業状態判定部1113が、作業状態を「作業中」と判定する(ステップS19)。
以上のようにユーザの作業状態が判定された後、処理は、図9のステップS3に進められる。
なお、上述した作業状態判定処理では、第1撮像部1021、及び第2撮像部1022によって撮像された画像データに基づき、作業対象物やユーザの手の有無、ユーザの視線を検出し、検出に基づいて作業状態を判定するようにしたが、他のセンサ出力を用いてもよい。
例えば、慣性計測部1023の出力を用いて、ユーザの頭部の動きや歩行の有無を検出することで、視線データの代わりとし、頭部の動き量が閾値以上である場合や、ユーザが歩行中は「未作業」状態と判定してもよい。また例えば、位置計測部1026により、ユーザの位置情報を取得し、所定の正しい作業場所にいる場合は「作業中」としてもよい。また例えば、ユーザによる表示装置100等の装着状態をセンサで取得し、表示装置100等が正しい位置に装着されていない場合(表示装置100等が視界の外)、「未作業」状態と判定してもよい。またさらに、複数のセンサの出力を用いてユーザの状態及び周囲の環境情報を取得してもよい。
また、上述した作業状態判定処理では、ユーザの作業状態を「作業前」、「作業中」、または「未作業」の3種類のいずれであるのかを判定したが、「作業後」を追加して4種類のいずれであるのかを判定するようにしてもよい。この場合、例えば、AIエンジン群114による画像データ501の画像認識処理により、「作業中」の状態の後、ユーザの手が画像データ501から消えた場合に「作業後」と判定するようにすればよい。
図9に戻る。次に、表示制御部1114が、ステップS2における判定結果が「未作業」であるか否かを確認する(ステップS3)。ここで、判定結果が「未作業」であると確認した場合(ステップS3でYES)、表示制御部1114が、作業支援情報(作業箇所511及び作業内容512)を非表示とする(ステップS4)。この場合、ユーザが、表示装置100等の表示部103L,103Rを介して、周囲の景色を見ている状態となる。この後、処理はステップS2に戻されて、それ以降が繰り返される。
反対に、判定結果が「未作業」ではないと確認した場合、すなわち、判定結果が「作業前」または「作業中」であると確認した場合(ステップS3でNO)、表示制御部1114が、ステップS2における判定結果が「作業前」であるか否かを確認する(ステップS5)。ここで、判定結果が「作業前」であると確認した場合(ステップS5でYES)、表示制御部1114が、画像データ501における作業対象物503の位置を取得する(ステップS6)。そして、表示制御部1114が、例えば図12(A)に示されるように、作業対象物503に作業支援情報として作業箇所511が重畳して見えるように、表示部103L、103Rに作業支援情報を表示する(作業支援情報を重畳表示する)(ステップS7)。この後、処理はステップS2に戻されて、それ以降が繰り返される。
また、判定結果が「作業前」ではないと確認した場合、すなわち、判定結果が「作業中」であると確認した場合(ステップS5でNO)、表示制御部1114が、画像データ501における作業対象物503、及びユーザの手504を包含する所定サイズの作業領域の位置を取得する(ステップS8)。なお、作業領域のサイズは各ユーザ共通であってもよいし、ユーザ毎に予め設定しておいてもよい。そして、表示制御部1114が、例えば図12(C)に示されるように、作業領域に作業支援情報が重畳しないように、表示部103L、103Rに作業支援情報を表示する(作業支援情報を非重畳表示する)(ステップS9)。ただし、作業箇所を指示するための矢印や線については、作業性向上のため、作業対象物503に対して重畳表示しても構わない。この後、処理はステップS2に戻されて、それ以降が繰り返される。
なお、図12(C)に示された「作業中」の表示例の代わりに、図12(D)に示されるように、作業領域に重畳しない位置に、作業対象物画像513、作業箇所511及び作業内容512を表示するようにしてもよい。
上述した表示処理によれば、例えば、図12(B)に示されるように、作業対象物503に対して作業箇所511が重畳表示され、ユーザの手504に対して作業内容512が重畳表示されてしまう従来の「作業中」の表示に比べて、ユーザの作業性や視認性を損なうことなく、ユーザの作業を支援することが可能となる。
<変形例について>
上述した表示処理では、「作業前」には作業支援情報を重畳表示とし、「作業中」には作業支援情報を非重畳表示とするようにした。しかしながら、ユーザの熟練度によっては、「作業中」における作業支援情報が不要な場合がある。そこで、表示処理の変形例として、例えば、「作業前」には作業支援情報を重畳表示とし、「作業中」には作業支援情報を非表示としてもよい。または、「作業前」には作業支援情報を非重畳表示とし、「作業中」には作業支援情報を重畳表示としてもよい。
さらに、作業状態として「作業後」を追加した場合、「作業中」には視認性を確保するために作業支援情報を非重畳表示とし、「作業後」には作業支援情報を重畳表示として、ユーザによる作業状態の視認が容易にできるようにしてもよい。
なお、ユーザの熟練度については、ユーザ情報として予め登録しておいてもよいし、作業の様子を撮像した画像データをAIエンジン群114が解析して判定してもよい。この場合、AIエンジン群114は、本発明の熟練度判定部に相当する。ユーザ情報には、ユーザの熟練度の他、作業領域のサイズや、ユーザ専用の作業支援情報(例えば、作業箇所511を実際の作業箇所よりも所定の距離だけオフセットさせる等の情報)を記録してもよい。
また、「作業前」には、作業支援情報の文字や図を大きくしたり、説明文を詳細化し、「作業中」には作業対象物503に対する視認性を確保するため、作業支援情報の文字や図を小さくしたり、説明文を簡略化してもよい。
また、第1撮像部1021で取得した画像データの解像度に応じて、重畳表示とするか、または非重畳表示とするかを決定してもよい。
なお、本実施の形態ではユーザに装着可能な表示装置100等を例として説明したが、本発明は、例えば、工事車両等に取り付けられるHUD(Head Up Display)に適用することが可能である。その場合、工事車両や工事車両を操作する作業者に取り付けられたセンサから作業状態を判定し、HUDに対する表示位置や表示内容を最適化すればよい。
本発明は、上記した実施形態や変形例に限定されるものではなく、さらに様々な変形例が含まれる。例えば、上記した各実施形態は、本発明を分かりやすく説明するために詳細に説明したものであり、本発明が、必ずしも説明した全ての構成要素を備えるものに限定されるものではない。また、ある実施形態の構成の一部を、他の実施形態の構成に置き換えることが可能であり、ある実施形態の構成に、他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
本発明は、表示装置、表示制御方法、及び表示システムだけでなく、コンピュータが読み取り可能なプログラム等の様々な態様で提供することができる。
100・・・表示装置、101・・・メガネ型フレーム、102・・・センサ群、103L,103R・・・表示部、104・・・光源部、105・・・操作部、106・・・音声入出力部、107・・・通信部、109・・・電源部、110・・・情報処理部、111・・・制御部、112・・・通信部、113・・・記憶部、114・・・AIエンジン群、120・・・表示システム、121・・・表示装置、122・・・情報処理装置、130・・・表示システム、131・・・情報処理装置、132・・・外部センサ群、140・・・表示システム、141・・・ネットワーク、142・・・サーバ装置、501・・・画像データ、502・・・移動範囲、503・・・作業対象物、504・・・手、511・・・作業箇所、512・・・作業内容、513・・・作業対象物画像、1021・・・第1撮像部、1022・・・第2撮像部、1023・・・慣性計測部、1024・・・環境計測部、1025・・・バイタル計測部、1026・・・位置計測部、1111・・・認証部、1112・・・コンテンツ管理部、1113・・・作業状態判定部、1114・・・表示制御部、1115・・・外部センサ群管理部、1116・・・暗号処理部、1321・・・ウェアラブルセンサ、1322・・・位置センサ、1323・・・カメラ

Claims (15)

  1. 周囲の景色を透過し、且つ、作業支援情報を表示する表示部と、
    ユーザの視線方向を撮像する撮像部を少なくとも含むセンサ群と、
    前記センサ群からの出力に基づき、前記ユーザの作業状態を判定する作業状態判定部と、
    判定された前記ユーザの前記作業状態に応じて、前記表示部における前記作業支援情報の表示を変更する表示制御部と、を備え
    前記作業状態判定部は、
    前記撮像部によって作業対象物が撮像されていない場合、または前記撮像部によって前記作業対象物が撮像されており、前記ユーザの移動範囲が閾値以上である場合、前記作業状態を「未作業」と判定し、
    前記撮像部によって前記作業対象物が撮像されており、前記ユーザの前記移動範囲が前記閾値未満であって、前記撮像部によって前記ユーザの手が撮像されている場合、前記作業状態を「作業中」と判定する
    ことを特徴とする表示装置。
  2. 請求項1に記載の表示装置であって、
    前記センサ群は、前記ユーザの頭部の動きを検出する慣性計測部を含み、
    前記作業状態判定部は、
    前記撮像部によって前記作業対象物が撮像されており、前記ユーザの視線の移動範囲が所定の閾値以上であるか、前記ユーザの頭部の移動範囲が所定の閾値以上であるか、または、前記ユーザが歩行中である場合、前記作業状態を「未作業」と判定する
    ことを特徴とする表示装置。
  3. 請求項1に記載の表示装置であって、
    前記センサ群は、前記ユーザの現在位置を取得する位置計測部を含み、
    前記作業状態判定部は、
    前記撮像部によって前記作業対象物が撮像されており、前記ユーザの移動範囲が前記閾値未満であって、前記ユーザの前記現在位置が所定の正しい作業場所である場合、前記作業状態を「作業中」と判定する
    ことを特徴とする表示装置。
  4. 請求項1に記載の表示装置であって、
    前記センサ群は、前記ユーザによる前記表示装置の装着状態を取得し、
    前記作業状態判定部は、前記表示装置が前記ユーザの正しい位置に装着されていない場合、前記作業状態を「未作業」と判定する
    ことを特徴とする表示装置。
  5. 請求項1に記載の表示装置であって、
    前記表示制御部は、判定された前記ユーザの前記作業状態に応じて、前記表示部を透過する前記作業対象物に対して前記作業支援情報を重畳表示させるか、または非重畳表示させる
    ことを特徴とする表示装置。
  6. 請求項に記載の表示装置であって、
    前記表示制御部は、判定された前記ユーザの前記作業状態に応じて、前記表示部を透過する前記作業対象物及び前記ユーザの手を含む作業領域に対して前記作業支援情報を重畳表示させるか、または非重畳表示させる
    ことを特徴とする表示装置。
  7. 請求項6に記載の表示装置であって、
    記表示制御部は、
    記ユーザの前記作業状態が前記「作業中」であると判定された場合、前記作業領域に対して前記作業支援情報を非重畳表示させる
    ことを特徴とする表示装置。
  8. 請求項6に記載の表示装置であって、
    記表示制御部は、
    記ユーザの前記作業状態が前記「作業中」であると判定された場合、前記作業領域に対して前記作業支援情報を重畳表示させる
    ことを特徴とする表示装置。
  9. 請求項1に記載の表示装置であって、
    前記表示制御部は、判定された前記ユーザの前記作業状態に応じて、前記作業支援情報としての作業箇所及び作業内容の少なくとも一方を重畳表示させるか、または非重畳表示させる
    ことを特徴とする表示装置。
  10. 請求項1に記載の表示装置であって、
    前記表示制御部は、判定された前記ユーザの前記作業状態に応じて、前記表示部における前記作業支援情報を表示させるか、または非表示させる
    ことを特徴とする表示装置。
  11. 請求項1に記載の表示装置であって、
    前記表示制御部は、判定された前記ユーザの前記作業状態、及びユーザ情報に基づいて、前記表示部における前記作業支援情報の表示を変更する
    ことを特徴とする表示装置。
  12. 請求項11に記載の表示装置であって、
    前記表示制御部は、判定された前記ユーザの前記作業状態、及び前記ユーザ情報としての熟練度に基づいて、前記表示部における前記作業支援情報の表示を変更する
    ことを特徴とする表示装置。
  13. 請求項12に記載の表示装置であって、
    前記ユーザの前記熟練度を判定する熟練度判定部を、
    備えることを特徴とする表示装置。
  14. 表示装置による表示制御方法であって、
    ユーザの視線方向を撮像する撮像部を少なくとも含むセンサ群からの出力に基づき、前記ユーザの作業状態を判定する作業状態判定ステップと、
    判定された前記ユーザの前記作業状態に応じ、周囲の景色を透過し、且つ、作業支援情報を表示する表示部における前記作業支援情報の表示を変更する変更ステップと、を含み、
    前記作業状態判定ステップは、
    前記撮像部によって作業対象物が撮像されていない場合、または前記撮像部によって前記作業対象物が撮像されており、前記ユーザの移動範囲が閾値以上である場合、前記作業状態を「未作業」と判定し、
    前記撮像部によって前記作業対象物が撮像されており、前記ユーザの前記移動範囲が前記閾値未満であって、前記撮像部によって前記ユーザの手が撮像されている場合、前記作業状態を「作業中」と判定する
    ことを特徴とする表示制御方法。
  15. 周囲の景色を透過し、且つ、作業支援情報を表示する表示装置と、
    ユーザの視線方向を撮像する撮像部を少なくとも含むセンサ群と、
    前記センサ群からの出力に基づき、前記表示装置における表示を制御する情報処理装置と、
    を備え、
    前記情報処理装置は、
    前記センサ群からの出力に基づき、前記ユーザの作業状態を判定する作業状態判定部と、
    判定された前記ユーザの前記作業状態に応じ、前記表示装置における前記作業支援情報の表示を変更する表示制御部と、を有し、
    前記作業状態判定部は、
    前記撮像部によって作業対象物が撮像されていない場合、または前記撮像部によって前記作業対象物が撮像されており、前記ユーザの移動範囲が閾値以上である場合、前記作業状態を「未作業」と判定し、
    前記撮像部によって前記作業対象物が撮像されており、前記ユーザの前記移動範囲が前記閾値未満であって、前記撮像部によって前記ユーザの手が撮像されている場合、前記作業状態を「作業中」と判定する
    ことを特徴とする表示システム。
JP2019051286A 2019-03-19 2019-03-19 表示装置、表示制御方法、及び表示システム Active JP7078568B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019051286A JP7078568B2 (ja) 2019-03-19 2019-03-19 表示装置、表示制御方法、及び表示システム
US16/752,282 US11137600B2 (en) 2019-03-19 2020-01-24 Display device, display control method, and display system
CN202010102688.XA CN111722401A (zh) 2019-03-19 2020-02-19 显示装置、显示控制方法以及显示系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019051286A JP7078568B2 (ja) 2019-03-19 2019-03-19 表示装置、表示制御方法、及び表示システム

Publications (2)

Publication Number Publication Date
JP2020154569A JP2020154569A (ja) 2020-09-24
JP7078568B2 true JP7078568B2 (ja) 2022-05-31

Family

ID=72515977

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019051286A Active JP7078568B2 (ja) 2019-03-19 2019-03-19 表示装置、表示制御方法、及び表示システム

Country Status (3)

Country Link
US (1) US11137600B2 (ja)
JP (1) JP7078568B2 (ja)
CN (1) CN111722401A (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7364530B2 (ja) * 2020-05-18 2023-10-18 トヨタ自動車株式会社 車両、情報処理装置、及び、方法
JP7347409B2 (ja) * 2020-12-28 2023-09-20 横河電機株式会社 装置、方法及びプログラム
JP7559280B1 (ja) 2024-07-10 2024-10-01 オリエンタル白石株式会社 作業員体調予測システム及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010211408A (ja) 2009-03-09 2010-09-24 Brother Ind Ltd ヘッドマウントディスプレイ
JP2013250849A (ja) 2012-06-01 2013-12-12 Konica Minolta Inc ガイダンス表示システム、ガイダンス表示装置、ガイダンス表示方法、およびガイダンス表示プログラム
WO2017033539A1 (ja) 2015-08-25 2017-03-02 新日鉄住金ソリューションズ株式会社 作業支援装置、作業支援方法及びプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9448407B2 (en) * 2012-12-13 2016-09-20 Seiko Epson Corporation Head-mounted display device, control method for head-mounted display device, and work supporting system
JP5884816B2 (ja) 2013-12-16 2016-03-15 コニカミノルタ株式会社 透過型hmdを有する情報表示システム及び表示制御プログラム
JP6312712B2 (ja) * 2014-01-15 2018-04-18 マクセル株式会社 情報表示端末、情報表示システム及び情報表示方法
JP6540108B2 (ja) * 2015-03-09 2019-07-10 富士通株式会社 画像生成方法、システム、装置、及び端末
US10281976B2 (en) * 2015-07-07 2019-05-07 Seiko Epson Corporation Display device, control method for display device, and computer program
US20190161942A1 (en) * 2017-11-24 2019-05-30 Novatron Oy Controlling earthmoving machines

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010211408A (ja) 2009-03-09 2010-09-24 Brother Ind Ltd ヘッドマウントディスプレイ
JP2013250849A (ja) 2012-06-01 2013-12-12 Konica Minolta Inc ガイダンス表示システム、ガイダンス表示装置、ガイダンス表示方法、およびガイダンス表示プログラム
WO2017033539A1 (ja) 2015-08-25 2017-03-02 新日鉄住金ソリューションズ株式会社 作業支援装置、作業支援方法及びプログラム

Also Published As

Publication number Publication date
US20200301144A1 (en) 2020-09-24
JP2020154569A (ja) 2020-09-24
US11137600B2 (en) 2021-10-05
CN111722401A (zh) 2020-09-29

Similar Documents

Publication Publication Date Title
US20220043508A1 (en) Virtual object display interface between a wearable device and a mobile device
US10656424B2 (en) Information display terminal, information display system, and information display method
CN107015638B (zh) 用于向头戴式显示器用户报警的方法和装置
CN111602082B (zh) 用于包括传感器集成电路的头戴式显示器的位置跟踪系统
US20140152530A1 (en) Multimedia near to eye display system
JP6179927B2 (ja) 遠隔行動誘導システム及びその処理方法
US11487354B2 (en) Information processing apparatus, information processing method, and program
JP7078568B2 (ja) 表示装置、表示制御方法、及び表示システム
KR20220120649A (ko) 인공 현실 콘텐츠의 가변 초점 디스플레이를 갖는 인공 현실 시스템
CN111630477A (zh) 提供增强现实服务的设备及其操作方法
KR20160001178A (ko) 글래스 타입 단말기 및 이의 제어방법
US20170344112A1 (en) Gaze detection device
CN108369476B (zh) 信息处理设备、信息处理方法和计算机可读介质
JP2016191845A (ja) 情報処理装置、情報処理方法及びプログラム
KR20160145976A (ko) 영상 공유 방법 및 이를 수행하는 전자 장치
US11320667B2 (en) Automated video capture and composition system
US11169764B2 (en) Remote work-support system
JP2018006914A (ja) 外部撮像システム、外部撮像方法、外部撮像プログラム
KR20200051591A (ko) 정보 처리 장치, 정보 처리 방법, 및 프로그램
KR20160015972A (ko) 웨어러블 디바이스 및 그 제어 방법
WO2014128751A1 (ja) ヘッドマウントディスプレイ装置、ヘッドマウントディスプレイ用プログラム、およびヘッドマウントディスプレイ方法
US20210264677A1 (en) Information processing apparatus, information processing method, and program
CN109587471A (zh) 图像显示系统、图像显示方法及图像显示程序
JP2020042369A (ja) 情報処理装置、情報処理方法及び記録媒体
CN112585673B (zh) 信息处理设备、信息处理方法及程序

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210323

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220308

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220519

R151 Written notification of patent or utility model registration

Ref document number: 7078568

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151