JP2019191675A - 透過型頭部装着型表示装置、支援システム、表示制御方法、およびコンピュータープログラム - Google Patents
透過型頭部装着型表示装置、支援システム、表示制御方法、およびコンピュータープログラム Download PDFInfo
- Publication number
- JP2019191675A JP2019191675A JP2018080322A JP2018080322A JP2019191675A JP 2019191675 A JP2019191675 A JP 2019191675A JP 2018080322 A JP2018080322 A JP 2018080322A JP 2018080322 A JP2018080322 A JP 2018080322A JP 2019191675 A JP2019191675 A JP 2019191675A
- Authority
- JP
- Japan
- Prior art keywords
- task
- unit
- user
- target
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 56
- 238000004590 computer program Methods 0.000 title claims description 12
- 238000003384 imaging method Methods 0.000 claims abstract description 38
- 238000004891 communication Methods 0.000 claims description 63
- 238000001514 detection method Methods 0.000 claims description 38
- 230000005540 biological transmission Effects 0.000 claims description 21
- 230000006870 function Effects 0.000 description 45
- 230000008569 process Effects 0.000 description 36
- 238000013500 data storage Methods 0.000 description 33
- 238000012545 processing Methods 0.000 description 28
- 230000000694 effects Effects 0.000 description 24
- 230000033001 locomotion Effects 0.000 description 22
- 230000003287 optical effect Effects 0.000 description 21
- 238000003860 storage Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 19
- 230000009471 action Effects 0.000 description 12
- 239000000758 substrate Substances 0.000 description 10
- 230000000007 visual effect Effects 0.000 description 10
- 210000003128 head Anatomy 0.000 description 9
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 8
- 238000005259 measurement Methods 0.000 description 8
- 239000000047 product Substances 0.000 description 8
- 230000005236 sound signal Effects 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 7
- 230000003190 augmentative effect Effects 0.000 description 5
- 235000013305 food Nutrition 0.000 description 5
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 239000012466 permeate Substances 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000001931 thermography Methods 0.000 description 3
- 238000002834 transmittance Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004140 cleaning Methods 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000004886 head movement Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000001678 irradiating effect Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 210000001525 retina Anatomy 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 235000002017 Zea mays subsp mays Nutrition 0.000 description 1
- 241000482268 Zea mays subsp. mays Species 0.000 description 1
- 235000013405 beer Nutrition 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000011347 resin Substances 0.000 description 1
- 229920005989 resin Polymers 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000004270 retinal projection Effects 0.000 description 1
- 235000011888 snacks Nutrition 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/09—Beam shaping, e.g. changing the cross-sectional area, not otherwise provided for
- G02B27/0938—Using specific optical elements
- G02B27/095—Refractive optical elements
- G02B27/0955—Lenses
- G02B27/0961—Lens arrays
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/30—Arrangements for executing machine instructions, e.g. instruction decode
- G06F9/30003—Arrangements for executing specific machine instructions
- G06F9/3004—Arrangements for executing specific machine instructions to perform operations on memory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0132—Head-up displays characterised by optical features comprising binocular systems
- G02B2027/0134—Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Optics & Photonics (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
【課題】透過型の頭部装着型表示装置において、複数の作業者の連携度を向上する。【解決手段】透過型頭部装着型表示装置は、外景を透過し、該外景とともに視認できるように表示対象の画像を表示する画像表示部と、撮像部と、撮像部により撮像された撮像画像から透過型頭部装着型表示装置の使用者が実行すべきタスクとして予め定められたタスクの対象を特定する対象特定部と、撮像画像における対象の状態に基づいて、タスクが発生したか否かを特定するタスク発生特定部と、タスクが発生したと特定された場合に、タスクに関連する関連情報を画像表示部に表示させる表示制御部と、を備える。【選択図】図11
Description
本発明は、透過型頭部装着型表示装置を利用した作業支援に関する。
頭部に装着されて使用者の視野領域内に画像等を表示する頭部装着型表示装置(ヘッドマウントディスプレイ(Head Mounted Display、HMD))として、装着時に表示画像とともに外界の風景を透過視認できる透過型の頭部装着型表示装置が知られている。従来、透過型の頭部装着型表示装置を利用した作業支援技術が種々提案されている。例えば、特許文献1には、商品の仕分作業を行う作業者および該作業者の管理者がそれぞれHMDを装着し、作業者が装着しているHMDの表示部に商品名等の商品情報を表示し、管理者が装着しているHMDの表示部に作業者の視界空間を撮像した画像を表示することにより、両者の作業の効率化を図る技術が提案されている。また、例えば、特許文献2には、管理者が遠隔地にいる作業者の装着しているHMDのカメラの向きおよびズームレンズの位置を制御して、かかるカメラにより撮像された画像を確認しながら作業者へ作業指示を行うことができる技術が開示されている。
しかしながら、従来、透過型の頭部装着表示装置において、複数の作業者同士が互いに連携しあって作業を行う場合における作業支援に関して十分な工夫がなされていないのが実情である。例えば、特許文献1および2に記載の技術は、作業者が複数人存在する場合に関して何ら考慮がなされていない。
本発明の一実施形態によれば、透過型頭部装着型表示装置が提供される。この透過型頭部装着型表示装置は、外景を透過し、該外景とともに視認できるように表示対象の画像を表示する画像表示部と;撮像部と;前記撮像部により撮像された撮像画像から前記透過型頭部装着型表示装置の使用者が実行すべきタスクとして予め定められたタスクの対象を特定する対象特定部と;前記撮像画像における前記対象の状態に基づいて、前記タスクが発生したか否かを特定するタスク発生特定部と;前記タスクが発生したと特定された場合に、前記タスクに関連する関連情報を前記画像表示部に表示させる表示制御部と;を備える。
A.第1実施形態:
A1.作業支援システムの構成:
図1は、本発明の第1実施形態としての作業支援システムが実行される様子を模式的に示す説明図である。作業支援システムは、レストラン等の飲食店において、複数人のホールスタッフがそれぞれ後述の透過型頭部装着型表示装置を装着してスタッフ作業を行いつつ、互いの作業の状況に応じて、ホールスタッフ同士で互いの作業に対して支援を行う。例えば、図1に示すように、飲食店Rst内では、第1ホールスタッフUS1は、透過型頭部装着型表示装置100を装着して、食器の片付けを行っている。第2ホールスタッフUS2は、透過型頭部装着型表示装置200を装着して、料理の提供を行っている。第3ホールスタッフUS3は、透過型頭部装着型表示装置300を装着して、メニュー表を持って歩いている。
A1.作業支援システムの構成:
図1は、本発明の第1実施形態としての作業支援システムが実行される様子を模式的に示す説明図である。作業支援システムは、レストラン等の飲食店において、複数人のホールスタッフがそれぞれ後述の透過型頭部装着型表示装置を装着してスタッフ作業を行いつつ、互いの作業の状況に応じて、ホールスタッフ同士で互いの作業に対して支援を行う。例えば、図1に示すように、飲食店Rst内では、第1ホールスタッフUS1は、透過型頭部装着型表示装置100を装着して、食器の片付けを行っている。第2ホールスタッフUS2は、透過型頭部装着型表示装置200を装着して、料理の提供を行っている。第3ホールスタッフUS3は、透過型頭部装着型表示装置300を装着して、メニュー表を持って歩いている。
また、飲食店Rst内では、複数の客が食事や談話等をしている。複数の客のうち、客Tg1は、第1ホールスタッフUS1に視線を向けて第1ホールスタッフUS1を呼ぼうとしている。しかし、第1ホールスタッフUS1は、客Tg1が第1ホールスタッフUS1を見ている状態であることに気づいていない可能性があり、客Tg1への応対が遅れてしまうおそれがある。
そこで、本実施形態の作業支援システムでは、各透過型頭部装着型表示装置100、200および300において、それぞれ後述の作業支援処理が実行されることにより、客Tg1に応対するという作業が発生したこと等の情報をホールスタッフUS1、US2およびUS3同士で共有するとともに、各ホールスタッフUS1、US2およびUS3の作業の負荷状況に応じて作業の実行者を決定し、決定された実行者に作業を実行させる。作業支援処理についての詳細な説明は後述し、先ず、透過型頭部装着型表示装置100、200および300の構成を説明する。なお、以降の説明では、各ホールスタッフUS1、US2およびUS3を、それぞれ使用者US1、US2およびUS3と呼ぶ場合がある。
A2.透過型頭部装着型表示装置の構成:
図2は、作業支援システムおよび透過型頭部装着型表示装置の概略構成を示す説明図である。本実施形態において、作業支援システム1は、3台の透過型頭部装着型表示装置100、200および300を備える。透過型頭部装着型表示装置100、200および300は、使用者の頭部に装着する表示装置であり、ヘッドマウントディスプレイ(Head Mounted Display、HMD)とも呼ばれる。HMD100、200および300は、グラスを通過して視認される外界の中に画像が浮かび上がるシースルー型(透過型)の頭部装着型表示装置である。
図2は、作業支援システムおよび透過型頭部装着型表示装置の概略構成を示す説明図である。本実施形態において、作業支援システム1は、3台の透過型頭部装着型表示装置100、200および300を備える。透過型頭部装着型表示装置100、200および300は、使用者の頭部に装着する表示装置であり、ヘッドマウントディスプレイ(Head Mounted Display、HMD)とも呼ばれる。HMD100、200および300は、グラスを通過して視認される外界の中に画像が浮かび上がるシースルー型(透過型)の頭部装着型表示装置である。
第1HMD100は、第1使用者US1に画像を視認させる第1画像表示部20と、第1画像表示部20を制御する第1制御装置(コントローラー)10とを備えている。第2HMD200および第3HMD300は、第1HMD100と同様な構成である。このため、図2では、第2HMD200および第3HMD300の一部の構成に符号を付していない。また、3台のHMD100、200および300は、それぞれ後述の無線通信部117を介して無線接続されている。
第1画像表示部20は、第1使用者US1の頭部に装着される装着体であり、本実施形態では眼鏡形状を有する。第1画像表示部20は、右保持部21と、左保持部23と、前部フレーム27とを有する支持体に、右表示ユニット22と、左表示ユニット24と、右導光板26と、左導光板28とを備える。
右保持部21および左保持部23は、それぞれ、前部フレーム27の両端部から後方に延び、眼鏡のテンプル(つる)のように、使用者の頭部に第1画像表示部20を保持する。ここで、前部フレーム27の両端部のうち、第1画像表示部20の装着状態において使用者の右側に位置する端部を端部ERとし、使用者の左側に位置する端部を端部ELとする。右保持部21は、前部フレーム27の端部ERから、第1画像表示部20の装着状態における使用者の右側頭部に対応する位置まで延伸して設けられている。左保持部23は、前部フレーム27の端部ELから、第1画像表示部20の装着状態における第1使用者US1の左側頭部に対応する位置まで延伸して設けられている。
右導光板26および左導光板28は、前部フレーム27に設けられている。右導光板26は、第1画像表示部20の装着状態における第1使用者US1の右眼の眼前に位置し、右眼に画像を視認させる。左導光板28は、第1画像表示部20の装着状態における第1使用者US1の左眼の眼前に位置し、左眼に画像を視認させる。
前部フレーム27は、右導光板26の一端と左導光板28の一端とを互いに連結した形状を有する。この連結位置は、第1画像表示部20の装着状態における第1使用者US1の眉間の位置に対応する。前部フレーム27には、右導光板26と左導光板28との連結位置において、第1画像表示部20の装着状態において第1使用者US1の鼻に当接する鼻当て部が設けられていてもよい。この場合、鼻当て部と右保持部21と左保持部23とによって、第1画像表示部20を第1使用者US1の頭部に保持できる。また、右保持部21および左保持部23に対して、第1画像表示部20の装着状態において第1使用者US1の後頭部に接するベルトを連結してもよい。この場合、ベルトによって第1画像表示部20を第1使用者US1の頭部に強固に保持できる。
右表示ユニット22は、右導光板26による画像の表示を行う。右表示ユニット22は、右保持部21に設けられ、第1画像表示部20の装着状態における第1使用者US1の右側頭部の近傍に位置する。左表示ユニット24は、左導光板28による画像の表示を行う。左表示ユニット24は、左保持部23に設けられ、第1画像表示部20の装着状態における第1使用者US1の左側頭部の近傍に位置する。
本実施形態の右導光板26および左導光板28は、光透過性の樹脂等によって形成される光学部(例えばプリズム)であり、右表示ユニット22および左表示ユニット24が出力する画像光を第1使用者US1の眼に導く。なお、右導光板26および左導光板28の表面には、調光板が設けられてもよい。調光板は、光の波長域により透過率が異なる薄板状の光学素子であり、いわゆる波長フィルターとして機能する。調光板は、例えば、前部フレーム27の表面(第1使用者US1の眼と対向する面とは反対側の面)を覆うように配置される。調光板の光学特性を適宜選択することにより、可視光、赤外光、および紫外光等の任意の波長域の光の透過率を調整することができ、外部から右導光板26および左導光板28に入射し、右導光板26および左導光板28を透過する外光の光量を調整できる。
第1画像表示部20は、右表示ユニット22および左表示ユニット24がそれぞれ生成する画像光を、右導光板26および左導光板28に導き、この画像光によって、自身を透過して視認される外界の風景ともに、画像(拡張現実感(Augmented Reality、AR)画像)を第1使用者US1に視認させる(これを「画像を表示する」とも呼ぶ)。第1使用者US1の前方から右導光板26および左導光板28を透過して外光が第1使用者US1の眼に入射する場合、第1使用者US1の眼には、画像を構成する画像光と、外光とが入射する。このため、第1使用者US1における画像の視認性は、外光の強さに影響を受ける。
このため、例えば前部フレーム27に調光板を装着し、調光板の光学特性を適宜選択あるいは調整することによって、画像の視認のしやすさを調整することができる。典型的な例では、第1HMD100を装着した第1使用者US1が少なくとも外の景色を視認できる程度の光透過性を有する調光板を選択することができる。また、太陽光を抑制して、画像の視認性を高めることができる。また、調光板を用いると、右導光板26および左導光板28を保護し、右導光板26および左導光板28の損傷や汚れの付着等を抑制する効果が期待できる。調光板は、前部フレーム27、あるいは、右導光板26および左導光板28のそれぞれに対して着脱可能としてもよい。また、複数種類の調光板を交換して着脱可能としてもよく、調光板を省略してもよい。
カメラ61は、第1画像表示部20の前部フレーム27に配置されている。カメラ61は、前部フレーム27の前面において、右導光板26および左導光板28を透過する外光を遮らない位置に設けられる。図2の例では、カメラ61は、前部フレーム27の端部ER側に配置されている。カメラ61は、前部フレーム27の端部EL側に配置されていてもよく、右導光板26と左導光板28との連結部に配置されていてもよい。
カメラ61は、CCDやCMOS等の撮像素子、および、撮像レンズ等を備えるデジタルカメラである。本実施形態のカメラ61は単眼カメラであるが、ステレオカメラを採用してもよい。カメラ61は、第1HMD100の表側方向、換言すれば、第1画像表示部20の装着状態において第1使用者US1が視認する視界方向の、少なくとも一部の外界(実空間)を撮像する。換言すれば、カメラ61は、第1使用者US1の視界と重なる範囲または方向を撮像し、第1使用者US1が視認する方向を撮像する。カメラ61の画角の広さは適宜設定できる。本実施形態では、カメラ61の画角の広さは、第1使用者US1が右導光板26および左導光板28を透過して視認可能な第1使用者US1の視界の全体を撮像するように設定される。カメラ61は、第1制御機能部150(図7)の制御に従って撮像を実行し、得られた撮像データを第1制御機能部150へ出力する。
第1HMD100は、予め設定された測定方向に位置する測定対象物までの距離を検出する測距センサーを備えていてもよい。測距センサーは、例えば、前部フレーム27の右導光板26と左導光板28との連結部分に配置することができる。測距センサーの測定方向は、第1HMD100の表側方向(カメラ61の撮像方向と重複する方向)とすることができる。測距センサーは、例えば、LEDやレーザーダイオード等の発光部と、光源が発する光が測定対象物に反射する反射光を受光する受光部と、により構成できる。この場合、三角測距処理や、時間差に基づく測距処理により距離を求める。測距センサーは、例えば、超音波を発する発信部と、測定対象物で反射する超音波を受信する受信部と、により構成してもよい。この場合、時間差に基づく測距処理により距離を求める。測距センサーは、カメラ61と同様に、第1制御機能部150の指示に従って測距し、検出結果を第1制御機能部150へ出力する。
図3は、第1画像表示部20が備える光学系の構成を示す要部平面図である。説明の便宜上、図3には第1使用者US1の右眼REおよび左眼LEを図示する。図3に示すように、右表示ユニット22と左表示ユニット24とは、左右対称に構成されている。
右眼REに画像(AR画像)を視認させる構成として、右表示ユニット22は、OLED(Organic Light Emitting Diode)ユニット221と、右光学系251とを備える。OLEDユニット221は、画像光を発する。右光学系251は、レンズ群等を備え、OLEDユニット221が発する画像光Lを右導光板26へと導く。
OLEDユニット221は、OLEDパネル223と、OLEDパネル223を駆動するOLED駆動回路225とを有する。OLEDパネル223は、有機エレクトロルミネッセンスにより発光し、R(赤)、G(緑)、B(青)の色光をそれぞれ発する発光素子により構成される自発光型の表示パネルである。OLEDパネル223は、R、G、Bの素子を1個ずつ含む単位を1画素とした複数の画素が、マトリクス状に配置されている。
OLED駆動回路225は、後述の第1制御機能部150(図7)の制御に従って、OLEDパネル223が備える発光素子の選択および通電を実行し、発光素子を発光させる。OLED駆動回路225は、OLEDパネル223の裏面、すなわち発光面の裏側に、ボンディング等により固定されている。OLED駆動回路225は、例えばOLEDパネル223を駆動する半導体デバイスで構成され、OLEDパネル223の裏面に固定される基板に実装されてもよい。この基板には、後述する温度センサー217(図6)が実装される。なお、OLEDパネル223は、白色に発光する発光素子をマトリクス状に配置し、R、G、Bの各色に対応するカラーフィルターを重ねて配置する構成を採用してもよい。また、R、G、Bの色光をそれぞれ放射する発光素子に加えて、W(白)の光を放射する発光素子を備えるWRGB構成のOLEDパネル223が採用されてもよい。
右光学系251は、OLEDパネル223から射出された画像光Lを平行状態の光束にするコリメートレンズを有する。コリメートレンズにより平行状態の光束にされた画像光Lは、右導光板26に入射する。右導光板26の内部において光を導く光路には、画像光Lを反射する複数の反射面が形成される。画像光Lは、右導光板26の内部で複数回の反射を経て右眼RE側に導かれる。右導光板26には、右眼REの眼前に位置するハーフミラー261(反射面)が形成される。画像光Lは、ハーフミラー261で反射後、右導光板26から右眼REへと射出され、この画像光Lが右眼REの網膜で像を結ぶことで、第1使用者US1に画像を視認させる。
左眼LEに画像(AR画像)を視認させる構成として、左表示ユニット24は、OLEDユニット241と、左光学系252とを備える。OLEDユニット241は画像光を発する。左光学系252は、レンズ群等を備え、OLEDユニット241が発する画像光Lを左導光板28へと導く。OLEDユニット241は、OLEDパネル243と、OLEDパネル243を駆動するOLED駆動回路245を有する。各部の詳細は、OLEDユニット221、OLEDパネル223、OLED駆動回路225と同じである。OLEDパネル243の裏面に固定される基板には、温度センサー239(図6)が実装される。また、左光学系252の詳細は上述の右光学系251と同じである。
以上説明した構成によれば、第1HMD100は、シースルー型の表示装置として機能することができる。すなわち第1使用者US1の右眼REには、ハーフミラー261で反射した画像光Lと、右導光板26を透過した外光OLとが入射する。第1使用者US1の左眼LEには、ハーフミラー281で反射した画像光Lと、左導光板28を透過した外光OLとが入射する。このように、第1HMD100は、内部で処理した画像の画像光Lと外光OLとを重ねて第1使用者US1の眼に入射させる。この結果、第1使用者US1にとっては、右導光板26および左導光板28を透かして外界の風景(実世界)が見えると共に、この外界に重なるようにして画像光Lによる虚像(虚像画像、AR画像)が視認される。
なお、右光学系251および右導光板26を総称して「右導光部」とも呼び、左光学系252および左導光板28を総称して「左導光部」とも呼ぶ。右導光部および左導光部の構成は、上述した例に限定されず、画像光を用いて第1使用者US1の眼前に画像を形成する限りにおいて任意の方式を用いることができる。例えば、右導光部および左導光部には、回折格子を用いてもよいし、半透過反射膜を用いてもよい。
図2において、第1制御装置10と第1画像表示部20とは、接続ケーブル40によって接続される。接続ケーブル40は、第1制御装置10の下部に設けられるコネクターに着脱可能に接続され、左保持部23の先端から、第1画像表示部20内部の各種回路に接続する。接続ケーブル40には、デジタルデータを伝送するメタルケーブルまたは光ファイバーケーブルを有する。接続ケーブル40にはさらに、アナログデータを伝送するメタルケーブルを含んでもよい。接続ケーブル40の途中には、コネクター46が設けられている。
コネクター46は、ステレオミニプラグを接続するジャックであり、コネクター46と第1制御装置10とは、例えばアナログ音声信号を伝送するラインで接続される。図2に示す本実施形態の例では、コネクター46には、ステレオヘッドホンを構成する右イヤホン32および左イヤホン34と、マイク63を有するヘッドセット30とが接続されている。
マイク63は、例えば図2に示すように、マイク63の集音部が第1使用者US1の視線方向を向くように配置されている。マイク63は、音声を集音し、音声信号を音声インターフェイス182(図6)に出力する。マイク63は、モノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであっても無指向性のマイクであってもよい。
第1制御装置10は、第1HMD100を制御するための装置である。第1制御装置10は、点灯部12と、トラックパッド14と、方向キー16と、決定キー17と、電源スイッチ18とを含んでいる。点灯部12は、第1HMD100の動作状態(例えば、電源のON/OFF等)を、その発光態様によって通知する。点灯部12としては、例えば、LED(Light Emitting Diode)を用いることができる。
トラックパッド14は、トラックパッド14の操作面上での接触操作を検出して、検出内容に応じた信号を出力する。トラックパッド14としては、静電式や圧力検出式、光学式といった種々のトラックパッドを採用することができる。方向キー16は、上下左右方向に対応するキーへの押下操作を検出して、検出内容に応じた信号を出力する。決定キー17は、押下操作を検出して、第1制御装置10において操作された内容を決定するための信号を出力する。電源スイッチ18は、スイッチのスライド操作を検出することで、第1HMD100の電源の状態を切り替える。
図4は、第1使用者US1から見た第1画像表示部20の要部構成を示す図である。図4では、接続ケーブル40、右イヤホン32、左イヤホン34の図示を省略している。図4の状態では、右導光板26および左導光板28の裏側が視認できると共に、右眼REに画像光を照射するためのハーフミラー261、および、左眼LEに画像光を照射するためのハーフミラー281が略四角形の領域として視認できる。第1使用者US1は、これらハーフミラー261、281を含む右導光板26、左導光板28の全体を透過して外界の風景を視認すると共に、ハーフミラー261、281の位置に矩形の表示画像を視認する。
図5は、カメラ61の画角を説明するための図である。図5では、カメラ61と、第1使用者US1の右眼REおよび左眼LEとを平面視で模式的に示すと共に、カメラ61の画角(撮像範囲)をθで示す。なお、カメラ61の画角θは図示のように水平方向に拡がっているほか、一般的なデジタルカメラと同様に鉛直方向にも拡がっている。
上述のようにカメラ61は、第1画像表示部20において右側の端部に配置され、第1使用者US1の視線の方向(すなわち使用者の前方)を撮像する。このためカメラ61の光軸は、右眼REおよび左眼LEの視線方向を含む方向とされる。第1使用者US1が第1HMD100を装着した状態で視認できる外界の風景は、無限遠とは限らない。例えば、第1使用者US1が両眼で対象物OBを注視すると、第1使用者US1の視線は、図中の符号RD、LDに示すように、対象物OBに向けられる。この場合、第1使用者US1から対象物OBまでの距離は、30cm〜10m程度であることが多く、1m〜4mであることがより多い。そこで、第1HMD100について、通常使用時における第1使用者US1から対象物OBまでの距離の上限および下限の目安を定めてもよい。この目安は、予め求められ第1HMD100にプリセットされていてもよいし、第1使用者US1が設定してもよい。カメラ61の光軸および画角は、このような通常使用時における対象物OBまでの距離が、設定された上限および下限の目安に相当する場合において対象物OBが画角に含まれるように設定されることが好ましい。
なお、一般的に、人間の視野角は水平方向におよそ200度、垂直方向におよそ125度とされる。そのうち情報受容能力に優れる有効視野は水平方向に30度、垂直方向に20度程度である。人間が注視する注視点が迅速に安定して見える安定注視野は、水平方向に60〜90度、垂直方向に45〜70度程度とされている。この場合、注視点が対象物OB(図5)であるとき、視線RD、LDを中心として水平方向に30度、垂直方向に20度程度が有効視野である。また、水平方向に60〜90度、垂直方向に45〜70度程度が安定注視野である。第1使用者US1が第1画像表示部20を透過して右導光板26および左導光板28を透過して視認する実際の視野を、実視野(FOV:Field Of View)と呼ぶ。実視野は、視野角および安定注視野より狭いが、有効視野より広い。
本実施形態のカメラ61の画角θは、第1使用者US1の視野より広い範囲を撮像可能に設定される。カメラ61の画角θは、少なくとも第1使用者US1の有効視野より広い範囲を撮像可能に設定されることが好ましく、実視野よりも広い範囲を撮像可能に設定されることがより好ましい。カメラ61の画角θは、第1使用者US1の安定注視野より広い範囲を撮像可能に設定されることがさらに好ましく、第1使用者US1の両眼の視野角よりも広い範囲を撮像可能に設定されることが最も好ましい。このため、カメラ61には、撮像レンズとしていわゆる広角レンズを備え、広い画角を撮像できる構成としてもよい。広角レンズには、超広角レンズ、準広角レンズと呼ばれるレンズを含んでもよい。また、カメラ61には、単焦点レンズを含んでもよく、ズームレンズを含んでもよく、複数のレンズからなるレンズ群を含んでもよい。
図6は、第1HMD100の構成を機能的に示すブロック図である。第1制御装置10は、プログラムを実行して第1HMD100を制御するメインプロセッサー140と、記憶部と、入出力部と、センサー類と、インターフェイスと、電源部130とを備える。メインプロセッサー140には、これらの記憶部、入出力部、センサー類、インターフェイス、電源部130がそれぞれ接続されている。メインプロセッサー140は、第1制御装置10が内蔵しているコントローラー基板120に実装されている。
記憶部には、メモリー118と、不揮発性記憶部121とが含まれている。メモリー118は、メインプロセッサー140によって実行されるコンピュータープログラム、および、処理されるデータを一時的に記憶するワークエリアを構成する。不揮発性記憶部121は、フラッシュメモリーやeMMC(embedded Multi Media Card)で構成される。不揮発性記憶部121は、メインプロセッサー140が実行するコンピュータープログラムや、メインプロセッサー140によって処理される各種のデータを記憶する。本実施形態において、これらの記憶部はコントローラー基板120に実装されている。
入出力部には、トラックパッド14と、操作部110とが含まれている。操作部110には、第1制御装置10に備えられた方向キー16と、決定キー17と、電源スイッチ18とが含まれる。メインプロセッサー140は、これら各入出力部を制御すると共に、各入出力部から出力される信号を取得する。
センサー類には、6軸センサー111と、磁気センサー113と、GNSS(Global Navigation Satellite System)レシーバー115とが含まれている。6軸センサー111は、3軸加速度センサーと3軸ジャイロ(角速度)センサーとを備えるモーションセンサー(慣性センサー)である。6軸センサー111は、これらセンサーがモジュール化されたIMU(Inertial Measurement Unit)を採用してもよい。磁気センサー113は、例えば、3軸の地磁気センサーである。GNSSレシーバー115は、GNSSを構成する人工衛星から受信した航法信号に基づいて、第1制御装置10の現在位置(経度・緯度)を測位する。これらセンサー類(6軸センサー111、磁気センサー113、GNSSレシーバー115)は、検出値を予め指定されたサンプリング周波数に従って、メインプロセッサー140へと出力する。各センサーが検出値を出力するタイミングは、メインプロセッサー140からの指示に応じてもよい。
インターフェイスには、無線通信部117と、音声コーデック180と、外部コネクター184と、外部メモリーインターフェイス186と、USB(Universal Serial Bus)コネクター188と、センサーハブ192と、FPGA194と、インターフェイス196とが含まれている。これらは、外部とのインターフェイスとして機能する。
無線通信部117は、第1HMD100と外部機器との間における無線通信を実行する。無線通信部117は、図示しないアンテナ、RF回路、ベースバンド回路、通信制御回路等を備えて構成され、あるいはこれらが統合されたデバイスとして構成されている。無線通信部117は、例えば、Bluetooth(登録商標)、Wi−Fi(登録商標)を含む無線LAN等の規格に準拠した無線通信を行う。本実施形態において、無線通信部117は、HMD100とHMD200およびHMD300との間でWi−Fi(登録商標)による無線通信を行う。
音声コーデック180は、音声インターフェイス182に接続され、音声インターフェイス182を介して入出力される音声信号のエンコード/デコードを行う。音声インターフェイス182は、音声信号を入出力するインターフェイスである。音声コーデック180は、アナログ音声信号からデジタル音声データへの変換を行うA/Dコンバーター、および、その逆の変換を行うD/Aコンバーターを備えてもよい。本実施形態の第1HMD100は、音声を右イヤホン32および左イヤホン34から出力し、マイク63により集音する。音声コーデック180は、メインプロセッサー140が出力するデジタル音声データをアナログ音声信号に変換し、音声インターフェイス182を介して出力する。また、音声コーデック180は、音声インターフェイス182に入力されるアナログ音声信号をデジタル音声データに変換してメインプロセッサー140に出力する。
外部コネクター184は、メインプロセッサー140に対して、メインプロセッサー140と通信する外部装置(例えば、パーソナルコンピューター、スマートフォン、ゲーム機器等)を接続するためのコネクターである。外部コネクター184に接続された外部装置は、コンテンツの供給元となり得るほか、メインプロセッサー140が実行するコンピュータープログラムのデバッグや、第1HMD100の動作ログの収集に使用できる。外部コネクター184は種々の態様を採用できる。外部コネクター184としては、例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等の有線接続に対応したインターフェイスや、無線LANインターフェイス、Bluetoothインターフェイス等の無線接続に対応したインターフェイスを採用できる。
外部メモリーインターフェイス186は、可搬型のメモリーデバイスを接続可能なインターフェイスである。外部メモリーインターフェイス186は、例えば、カード型記録媒体を装着してデータの読み書きを行うメモリーカードスロットと、インターフェイス回路とを含む。カード型記録媒体のサイズ、形状、規格等は適宜選択できる。USBコネクター188は、USB規格に準拠したメモリーデバイス、スマートフォン、パーソナルコンピューター等を接続可能なインターフェイスである。USBコネクター188は、例えば、USB規格に準拠したコネクターと、インターフェイス回路とを含む。USBコネクター188のサイズ、形状、USB規格のバージョン等は適宜選択できる。
また、第1HMD100は、バイブレーター19を備える。バイブレーター19は、図示しないモーターと、偏芯した回転子等を備え、メインプロセッサー140の制御に従って振動を発生する。第1HMD100は、例えば、操作部110に対する操作を検出した場合や、第1HMD100の電源がオンオフされた場合等に所定の振動パターンでバイブレーター19により振動を発生させる。バイブレーター19は、第1制御装置10に設ける構成に換えて、第1画像表示部20側、例えば、第1画像表示部20の右保持部21(テンプルの右側部分)に設ける構成としてもよい。
センサーハブ192およびFPGA194は、インターフェイス(I/F)196を介して第1画像表示部20に接続されている。センサーハブ192は、第1画像表示部20が備える各種センサーの検出値を取得して、メインプロセッサー140に出力する。FPGA194は、メインプロセッサー140と第1画像表示部20の各部との間で送受信されるデータの処理およびインターフェイス196を介した伝送を実行する。インターフェイス196は、第1画像表示部20の右表示ユニット22と、左表示ユニット24とに対してそれぞれ接続されている。本実施形態の例では、左保持部23に接続ケーブル40が接続され、この接続ケーブル40に繋がる配線が第1画像表示部20内部に敷設され、右表示ユニット22と左表示ユニット24とのそれぞれが、第1制御装置10のインターフェイス196に接続される。
電源部130には、バッテリー132と、電源制御回路134とが含まれている。電源部130は、第1制御装置10が動作するための電力を供給する。バッテリー132は、充電可能な電池である。電源制御回路134は、バッテリー132の残容量の検出と、OS143(図7)への充電の制御を行う。電源制御回路134は、メインプロセッサー140に接続され、バッテリー132の残容量の検出値や、バッテリー132の電圧の検出値をメインプロセッサー140へと出力する。なお、電源部130が供給する電力に基づいて、第1制御装置10から第1画像表示部20へと電力を供給してもよい。電源部130から第1制御装置10の各部および第1画像表示部20への電力の供給状態を、メインプロセッサー140により制御可能な構成としてもよい。
右表示ユニット22は、表示ユニット基板209と、OLEDユニット221と、カメラ61と、照度センサー65と、LEDインジケーター67と、温度センサー217とを備える。表示ユニット基板209には、インターフェイス196に接続されるインターフェイス(I/F)211と、受信部(Rx)213と、EEPROM(Electrically Erasable Programmable Read−Only Memory)215とが実装されている。受信部213は、インターフェイス211を介して第1制御装置10から入力されるデータを受信する。受信部213は、OLEDユニット221で表示する画像の画像データを受信した場合に、受信した画像データをOLED駆動回路225(図3)へと出力する。
EEPROM215は、各種のデータをメインプロセッサー140が読み取り可能な態様で記憶する。EEPROM215は、例えば、第1画像表示部20のOLEDユニット221、241の発光特性や表示特性に関するデータ、右表示ユニット22または左表示ユニット24のセンサー特性に関するデータ等を記憶する。具体的には、例えば、OLEDユニット221、241のガンマ補正に係るパラメーター、後述する温度センサー217、239の検出値を補償するデータ等を記憶する。これらのデータは、第1HMD100の工場出荷時の検査によって生成され、EEPROM215に書き込まれる。出荷後は、メインプロセッサー140がEEPROM215のデータを読み込んで各種の処理に利用する。
カメラ61は、インターフェイス211を介して入力される信号に従って撮像を実行し、撮像画像データあるいは撮像結果を表す信号を第1制御装置10へと出力する。照度センサー65は、図2に示すように、前部フレーム27の端部ERに設けられ、第1画像表示部20を装着する第1使用者US1の前方からの外光を受光するように配置される。照度センサー65は、受光量(受光強度)に対応した検出値を出力する。LEDインジケーター67は、図2に示すように、前部フレーム27の端部ERにおいてカメラ61の近傍に配置される。LEDインジケーター67は、カメラ61による撮像を実行中に点灯して、撮像中であることを報知する。
温度センサー217は、温度を検出し、検出した温度に対応する電圧値あるいは抵抗値を出力する。温度センサー217は、OLEDパネル223(図3)の裏面側に実装される。温度センサー217は、例えばOLED駆動回路225と同一の基板に実装されてもよい。この構成により、温度センサー217は主としてOLEDパネル223の温度を検出する。なお、温度センサー217は、OLEDパネル223あるいはOLED駆動回路225(図3)に内蔵されてもよい。例えば、OLEDパネル223がSi−OLEDとしてOLED駆動回路225と共に統合半導体チップ上の集積回路として実装される場合、この半導体チップに温度センサー217を実装してもよい。
左表示ユニット24は、表示ユニット基板230と、OLEDユニット241と、温度センサー239とを備える。表示ユニット基板230には、インターフェイス196に接続されるインターフェイス(I/F)231と、受信部(Rx)233と、6軸センサー235と、磁気センサー237とが実装されている。受信部233は、インターフェイス231を介して第1制御装置10から入力されるデータを受信する。受信部233は、OLEDユニット241で表示する画像の画像データを受信した場合に、受信した画像データをOLED駆動回路245(図3)へと出力する。
6軸センサー235は、3軸加速度センサーおよび3軸ジャイロ(角速度)センサーを備えるモーションセンサー(慣性センサー)である。6軸センサー235は、上記のセンサーがモジュール化されたIMUを採用してもよい。磁気センサー237は、例えば、3軸の地磁気センサーである。6軸センサー235と磁気センサー237は、第1画像表示部20に設けられているため、第1画像表示部20が第1使用者US1の頭部に装着されているときには、第1使用者US1の頭部の動きを検出する。検出された頭部の動きから第1画像表示部20の向き、すなわち、第1使用者US1の視界が特定される。
温度センサー239は、温度を検出し、検出した温度に対応する電圧値あるいは抵抗値を出力する。温度センサー239は、OLEDパネル243(図3)の裏面側に実装される。温度センサー239は、例えばOLED駆動回路245と同一の基板に実装されてもよい。この構成により、温度センサー239は主としてOLEDパネル243の温度を検出する。温度センサー239は、OLEDパネル243あるいはOLED駆動回路245(図3)に内蔵されてもよい。詳細は温度センサー217と同様である。
右表示ユニット22のカメラ61、照度センサー65、温度センサー217と、左表示ユニット24の6軸センサー235、磁気センサー237、温度センサー239は、第1制御装置10のセンサーハブ192に接続される。センサーハブ192は、メインプロセッサー140の制御に従って各センサーのサンプリング周期の設定および初期化を行う。センサーハブ192は、各センサーのサンプリング周期に合わせて、各センサーへの通電、制御データの送信、検出値の取得等を実行する。センサーハブ192は、予め設定されたタイミングで、右表示ユニット22および左表示ユニット24が備える各センサーの検出値をメインプロセッサー140へ出力する。センサーハブ192は、各センサーの検出値を一時的に保持するキャッシュ機能を備えてもよい。センサーハブ192は、各センサーの検出値の信号形式やデータ形式の変換機能(例えば、統一形式への変換機能)を備えてもよい。センサーハブ192は、メインプロセッサー140の制御に従ってLEDインジケーター67への通電を開始および停止させることで、LEDインジケーター67を点灯または消灯させる。
図7は、第1制御装置10の構成を機能的に示すブロック図である。第1制御装置10は、機能的には、記憶機能部122と、第1制御機能部150とを備える。記憶機能部122は、不揮発性記憶部121(図6)により構成される論理的な記憶部である。記憶機能部122は、記憶機能部122のみを使用する構成に代えて、不揮発性記憶部121に組み合わせてEEPROM215やメモリー118を使用する構成としてもよい。第1制御機能部150は、メインプロセッサー140がコンピュータープログラムを実行することにより、すなわち、ハードウェアとソフトウェアとが協働することにより構成される。
記憶機能部122には、第1制御機能部150における処理に供する種々のデータが記憶されている。具体的には、本実施形態の記憶機能部122は、設定データ格納部123と、コンテンツデータ格納部124と、タスクデータ格納部125とを備える。設定データ格納部123には、第1HMD100の動作に係る各種の設定値が格納されている。例えば、設定データ格納部123には、第1制御機能部150が第1HMD100を制御する際のパラメーター、行列式、演算式、LUT(Look Up Table)等が格納されている。
コンテンツデータ格納部124には、第1制御機能部150の制御によって第1画像表示部20が表示する画像や映像を含むコンテンツのデータ(画像データ、映像データ、音声データ等)が格納されている。なお、コンテンツデータ格納部124には、双方向型のコンテンツのデータが格納されていてもよい。双方向型のコンテンツとは、操作部110によって使用者の操作を取得して、取得した操作内容に応じた処理を第1制御機能部150が実行し、処理内容に応じたコンテンツを第1画像表示部20に表示するタイプのコンテンツを意味する。この場合、コンテンツのデータには、使用者の操作を取得するためのメニュー画面の画像データ、メニュー画面に含まれる項目に対応する処理を定めるデータ等を含みうる。
タスクデータ格納部125には、作業支援システム1において、各使用者US1、US2およびUS3が実行すべきタスクに関する種々のデータが格納されている。本実施形態において、「タスク」とは、作業支援システム1が実行される飲食店Rstにおけるホールスタッフの作業として予め定められている作業を意味する。例えば、「注文をとる」、「料理を運ぶ」、「食器を下げる」等の作業がタスクに該当する。タスクデータ格納部125には、タスクの実行場所、タスクの対象、タスクの動作、対象の状態、タスクの負荷、タスクの習熟度、および関連情報等の各データがタスクと対応づけられて格納されている。これらの各データは、後述の作業支援処理において利用される。後述するように、タスクと使用者とは対応づけられている。すなわち、第1使用者US1が実行するタスクとして第1タスクが定められ、第1使用者US1以外が実行するタスクとして第2タスクが定められている。
本実施形態において、「タスクの実行場所」とは、作業支援システム1が実行される場所を意味する。例えば、本実施形態の飲食店Rstの他、デパート、サッカー場等の複数の作業者が協働して作業を行う場所が該当する。また、「タスクの対象」とは、タスクが実行される際の実行対象(相手)を意味し、タスクの実行場所およびタスクに応じて予め定められている。例えば、上述の「注文をとる」タスクの場合、タスクの対象は「客」であり、「料理を運ぶ」タスクや、「食器を下げる」タスクの場合、タスクの対象は「食器」である。また、「タスクの動作」とは、タスクを実行する際に行われる身体の動きを意味し、タスクに応じて予め定められている。例えば、上述の「注文をとる」タスクの場合、タスクの動作は、テーブルまで移動する、客の顔を見る、注文を聞く、ハンディー端末に入力する、メニュー表を下げる等の一連の動きが該当する。本実施形態では、タスクの動作にかかる種々の動きを実際に行った場合における6軸センサー111の検出結果が予め実験により算出され、「タスクの動作」としてタスクデータ格納部125に格納されている。
「対象の状態」とは、カメラ61により撮像される撮像画像におけるタスクの対象の状態や様子を意味する。例えば、「対象の状態」は、タスクの対象である「客」がホールスタッフを見ている状態、タスクの対象である「食器」に料理が盛りつけられた状態、タスクの対象である「食器」が不足している状態等が該当する。
本実施形態において、「対象の状態」は、第1タスクの開始条件として、第1タスクに応じて予め定められている。「第1タスク」とは、第1使用者US1が実行すべきタスクを意味する。例えば、第1タスクが上述の「注文をとる」タスクである場合、第1タスクの開始条件は、タスクの対象である「客」が所定時間の間、第1使用者US1すなわちホールスタッフを見ている状態として定められている。また、例えば、第1タスクが上述の「料理を運ぶ」タスクの場合、第1タスクの開始条件は、タスクの対象である「食器」に料理が盛りつけられた後、所定時間経過した状態として定められている。また、例えば、第1タスクが上述の「食器を下げる」タスクの場合、第1タスクの開始条件は、タスクの対象である「皿」が所定枚数を下回っている状態として定められている。なお、本実施形態において上述の所定時間とは、3秒を意味する。なお、所定時間は、3秒に代えて、他の任意の時間を設定してもよい。また、上述の所定枚数は、3枚を意味する。なお、所定枚数は、3枚に代えて、他の任意の枚数を設定してもよい。
「タスクの負荷」とは、タスクの実行に要する処理負荷および難易度を意味し、タスクの複雑さ、必要な習熟度に応じて所定の重み付けで予め点数化されている。例えば、「注文をとる」タスク、「料理を運ぶ」タスクは、「食器を下げる」タスクに比べて複雑であるので、点数が高くなるように設定されている。「タスクの習熟度」とは、ホールスタッフのタスクの習熟度を意味し、タスクおよびホールスタッフごとに所定の重み付けで予め点数化されている。例えば、経験年数が多いホールスタッフの習熟度は、経験年数が少ないホールスタッフの習熟度に比べて点数が高くなるように設定されている。本実施形態では、第1使用者US1、第2使用者US2、第3使用者US3の順に点数が低くなるように設定されている。
「関連情報」とは、タスクに関連する情報を意味し、タスクが発生したことを示す情報、タスクの対象の位置を示す情報、タスクの実行手順を示す情報等、タスクに応じて予め定められている。例えば、上述の「注文をとる」タスクの場合、飲食店Rst内におけるタスクの対象の位置、注文をとる手順、注文をとる際にタスクの対象に対して発する言葉等の情報が該当する。また、例えば、上述の「料理を運ぶ」タスクの場合、料理を運ぶテーブルの位置、料理名等の情報が該当する。また、例えば、上述の「食器を下げる」タスクの場合、食器の不足枚数、不足食器が使われるメニュー等の情報が該当する。
第1制御機能部150は、記憶機能部122が記憶しているデータを利用して各種処理を実行することにより、OS(Operating System)143、画像処理部145、第1表示制御部147、撮像制御部149、入出力制御部151、対象特定部153、第1タスク発生特定部155、第1タスク完了特定部157、関連情報提供部159、視線検出部161、対象位置特定部163、第1動作検出部165、第2タスク発生特定部167、第2タスク完了特定部169、位置取得部171、負荷状況取得部173、実行者決定部175としての機能を実行する。本実施形態では、OS143以外の各機能部は、OS143上で実行されるコンピュータープログラムとして構成されている。
画像処理部145は、第1画像表示部20により表示する画像/映像の画像データに基づいて、右表示ユニット22および左表示ユニット24に送信する信号を生成する。画像処理部145が生成する信号は、垂直同期信号、水平同期信号、クロック信号、アナログ画像信号等であってもよい。画像処理部145は、メインプロセッサー140がコンピュータープログラムを実行して実現される構成のほか、メインプロセッサー140とは別のハードウェア(例えば、DSP(Digital Signal Processor)で構成してもよい。
なお、画像処理部145は、必要に応じて、解像度変換処理、画像調整処理、2D/3D変換処理等を実行してもよい。解像度変換処理は、画像データの解像度を右表示ユニット22および左表示ユニット24に適した解像度へと変換する処理である。画像調整処理は、画像データの輝度や彩度を調整する処理である。2D/3D変換処理は、三次元画像データから二次元画像データを生成し、あるいは、二次元画像データから三次元画像データを生成する処理である。画像処理部145は、これらの処理を実行した場合、処理後の画像データに基づき画像を表示するための信号を生成し、接続ケーブル40を介して第1画像表示部20へと送信する。
第1表示制御部147は、右表示ユニット22および左表示ユニット24を制御する制御信号を生成し、この制御信号により、右表示ユニット22および左表示ユニット24のそれぞれによる画像光の生成と射出とを制御する。具体的には、第1表示制御部147は、OLED駆動回路225、245を制御して、OLEDパネル223、243による画像の表示を実行させる。第1表示制御部147は、画像処理部145が出力する信号に基づいて、OLED駆動回路225、245がOLEDパネル223、243に描画するタイミングの制御、OLEDパネル223、243の輝度の制御等を行う。また、第1表示制御部147は、後述の作業支援処理において、関連情報を第1画像表示部20に表示させる。
撮像制御部149は、カメラ61を制御して撮像を実行させ、撮像画像データを生成し、記憶機能部122に一時的に記憶させる。また、カメラ61が撮像画像データを生成する回路を含むカメラユニットとして構成される場合、撮像制御部149は、撮像画像データをカメラ61から取得して、記憶機能部122に一時的に記憶させる。また、撮像制御部149は、後述の作業支援処理において、第1画像表示部20を透過して視認される外景を繰り返し撮像して撮像画像を取得する。取得された撮像画像は、タスクの対象および対象の状態を特定する際に利用される。
入出力制御部151は、トラックパッド14(図2)と、方向キー16と、決定キー17とを適宜、制御して、これらから入力指令を受け付ける。受け付けられた入力指令は、OS143、またはOS143と共にOS143上で動作するコンピュータープログラムに出力される。
対象特定部153は、カメラ61により撮像された撮像画像を解析して、タスクの対象を特定する。対象特定部153は、顔認識およびパターンマッチング等の公知の技術を利用して、撮像画像中のタスクの対象となり得る人物や物体を検出する。
第1タスク発生特定部155は、撮像画像における対象の状態に基づいて、第1タスクが発生したか否かを特定する。第1タスク発生特定部155は、後述の視線検出部161により特定されるタスクの対象の状態と、タスクデータ格納部125に格納されている「対象の状態」とが一致する場合に、第1タスクが発生したと特定する。
第1タスク完了特定部157は、第1タスクが完了したか否かを特定する。具体的には、第1タスク完了特定部157は、対象位置特定部163により特定される第1タスクの対象の位置において、第1使用者US1が、第1タスクと対応づけられてタスクデータ格納部125に格納されている第1タスクの動作と同じ動作をした場合に、第1タスクが完了したと特定する。
関連情報提供部159は、無線通信部117を介して、第2HMD200および第3HMD300に関連情報を提供する。
視線検出部161は、撮像画像におけるタスク対象の視線を検出する。かかる視線の検出によりタスクの対象の状態、すなわち、客が使用者(ホールスタッフ)を見ており、ホールスタッフに注文したい状態であることを特定する。
対象位置特定部163は、タスク対象の位置を特定する。対象位置特定部163は、カメラ61の画角、撮像画像におけるタスクの対象の写り方、および3Dオブジェクトマッピング等を利用して、カメラ61からタスクの対象までの距離を算出することにより、タスクの対象の位置を特定する。第1動作検出部165は、6軸センサー111の検出結果を利用して、第1使用者US1の身体の動きを検出する。
第2タスク発生特定部167は、第2タスクが発生したか否かを特定する。「第2タスク」とは、作業支援システム1内におけるHMDの使用者のうち、第1使用者US1を除く使用者が実行すべきタスクを意味する。本実施形態では、第2使用者US2または第3使用者US3が実行すべきタスクを意味する。なお、第2タスクの実行者は、後述の作業支援処理において、使用者US2およびUS3の位置と負荷状況とに基づいて決定される。第2タスク発生特定部167は、第1タスクが完了したか否かを特定することにより、第2タスクが発生したか否かを特定する。
第2タスク完了特定部169は、無線通信部117を介して、第2タスクの実行者のHMDから第2タスクが完了した旨の通知(以下、「第2タスク完了通知」と呼ぶ)を取得することによって、第2タスクが完了したか否かを特定する。
位置取得部171は、無線通信部117を介して、第2HMD200および第3HMD300から各使用者US2およびUS3の現在の位置を取得する。取得された各位置は、第2タスクの実行者を決定する際に利用される。
負荷状況取得部173は、タスクデータ格納部125を参照して、各使用者US1、US2およびUS3の負荷状況を取得する。取得された各負荷状況は、第2タスクの実行者を決定する際に利用される。
実行者決定部175は、取得された各使用者の現在の位置と負荷状況とに基づいて第2タスクの実行者を決定する。
図2に示すように、第2HMD200は、第2画像表示部220と、第2制御装置210とを備えている。第2HMD200における構成要素は、第2制御装置210の制御機能部を除いては、上述の第1HMD100の構成と同様であるので、その詳細な説明は省略する。
図8は、第2制御装置210の構成を機能的に示すブロック図である。第2制御装置210は、第1制御機能部150に代えて第2制御機能部450を備える点において、図7に示す第1制御装置10と異なる。第2制御装置210におけるその他の構成は、第1制御装置10と同じであるので、同一の構成要素には同一の符号を付し、その詳細な説明は省略する。
第2表示制御部455は、第1表示制御部147と同様の構成であり、画像光の生成と射出とを制御して第2画像表示部220に表示対象の画像を表示させる。また、第2表示制御部455は、後述の関連情報取得部457により取得される関連情報を、第2画像表示部220に表示させる。
関連情報取得部457は、無線通信部117による通信によって、第1HMD100から第1関連情報を取得する。本実施形態において、「第1関連情報」とは、第1タスクに関する関連情報である。位置提供部459は、Wi−Fi(登録商標)の電波強度を利用して第2HMD200の位置を特定し、特定された位置を、無線通信部117を介して第1HMD100に提供する。負荷状況提供部461は、タスクデータ格納部125を参照して、第2使用者US2が実行中のタスクの負荷を特定し、特定された負荷状況を、無線通信部117を介して第1HMD100に提供する。
図2に示すように、第3HMD300は、第3画像表示部320と、第3制御装置310とを備えている。第3HMD300における構成要素は、第3制御装置310の制御機能部を除いては、上述の第1HMD100の構成と同様であるので、その詳細な説明は省略する。
図9は、第3制御装置310の構成を機能的に示すブロック図である。第3制御装置310は、第1制御機能部150に代えて第3制御機能部550を備える点において、図7に示す第1制御装置10と異なる。第3制御装置310におけるその他の構成は、第1制御装置10と同じであるので、同一の構成要素には同一の符号を付し、その詳細な説明は省略する。
第3表示制御部555は、第1表示制御部147と同様の構成であり、画像光の生成と射出とを制御して第3画像表示部320に表示対象の画像を表示させる。また、第3表示制御部555は、第2HMD200の第2表示制御部455と同様に、後述の関連情報取得部557により取得される関連情報を、第3画像表示部320に表示させる。
関連情報取得部557は、第2HMD200の関連情報取得部457と同様に、無線通信部117による通信によって、第1HMD100から第1関連情報を取得し、これに加えて第2関連情報を取得する。本実施形態において、「第2関連情報」とは、第2タスクに関連する関連情報である。位置提供部559は、第2HMD200の位置提供部459と同様の構成であり、Wi−Fi(登録商標)の電波強度を利用して第3HMD300の位置を特定し、特定された位置を、無線通信部117を介して第1HMD100に提供する。負荷状況提供部561は、第2HMD200の負荷状況提供部461と同様の構成であり、タスクデータ格納部125を参照して、第3使用者US3が実行中のタスクの負荷を特定し、特定された負荷状況を、無線通信部117を介して第1HMD100に提供する。
第2動作検出部563は、6軸センサー111の検出結果を利用して、第3使用者US3の身体の動きを検出する。第2タスク完了特定部565は、第2タスクが完了したか否かを特定する。具体的には、第2タスク完了特定部565は、第1HMD100の第1タスク完了特定部157と同様の手順、すなわち、第2タスクの対象の位置において、第3使用者US3が、第2タスクと対応づけられてタスクデータ格納部125に格納されている第2タスクの動作と同じ動作をした場合に、第2タスクが完了したと特定する。
本実施形態において、カメラ61は、他の形態における撮像部の下位概念に相当する。無線通信部117は、他の形態における通信部の下位概念に相当する。第1動作検出部165は、他の形態における動作検出部の下位概念に相当する。関連情報取得部457および関連情報取得部557は、他の形態における第1関連情報取得部および第2関連情報取得部の下位概念に相当する。
A3.拡張現実感表示:
図10は、拡張現実感表示の一例を示す説明図である。図10では、第1使用者US1の視界VTを例示している。上述のようにして、第1使用者US1の両眼に導かれた画像光が使用者の網膜に結像することにより、第1使用者US1は、表示領域PN内において、表示対象の対象画像AIを拡張現実感(AR)として視認する。図10に示す例では、対象画像AIは、第1HMD100のOSのメニュー画面である。メニュー画面には、例えば、「アナログ時計」、「メッセージ」、「ミュージック」、「作業支援」、「カメラ」、「ブラウザー」、「カレンダー」、「電話」の各アプリケーションプログラムを起動するためのアイコン画像が含まれる。また、右導光板26、左導光板28が外界からの光を透過することで、第1使用者US1は外景SCを視認する。このように、第1使用者US1は、視界VTのうち対象画像AIが表示された部分については、外景SCに重なるようにして対象画像AIを見ることができる。また、視界VTのうち対象画像AIが表示されていない部分については、外景SCだけを見ることができる。
図10は、拡張現実感表示の一例を示す説明図である。図10では、第1使用者US1の視界VTを例示している。上述のようにして、第1使用者US1の両眼に導かれた画像光が使用者の網膜に結像することにより、第1使用者US1は、表示領域PN内において、表示対象の対象画像AIを拡張現実感(AR)として視認する。図10に示す例では、対象画像AIは、第1HMD100のOSのメニュー画面である。メニュー画面には、例えば、「アナログ時計」、「メッセージ」、「ミュージック」、「作業支援」、「カメラ」、「ブラウザー」、「カレンダー」、「電話」の各アプリケーションプログラムを起動するためのアイコン画像が含まれる。また、右導光板26、左導光板28が外界からの光を透過することで、第1使用者US1は外景SCを視認する。このように、第1使用者US1は、視界VTのうち対象画像AIが表示された部分については、外景SCに重なるようにして対象画像AIを見ることができる。また、視界VTのうち対象画像AIが表示されていない部分については、外景SCだけを見ることができる。
A4.作業支援処理:
図11および図12は、第1HMD100における作業支援処理の処理手順を示すフローチャートである。第1HMD100における作業支援処理は、図10に示す「作業支援」メニューが実行されて、「作業支援」アプリケーションが起動すると開始される。撮像制御部149は、カメラ61に第1使用者US1の視界方向を撮像させて、撮像画像を取得する(ステップS100)。このとき、撮像制御部149は、カメラ61に所定の時間の間、繰り返し撮像させて、複数の撮像画像を取得する。なお、以降の説明では、ステップS100において、図1に示す客Tg1が第1使用者US1を所定時間(3秒間)注視している撮像画像が取得されたものとして説明する。
図11および図12は、第1HMD100における作業支援処理の処理手順を示すフローチャートである。第1HMD100における作業支援処理は、図10に示す「作業支援」メニューが実行されて、「作業支援」アプリケーションが起動すると開始される。撮像制御部149は、カメラ61に第1使用者US1の視界方向を撮像させて、撮像画像を取得する(ステップS100)。このとき、撮像制御部149は、カメラ61に所定の時間の間、繰り返し撮像させて、複数の撮像画像を取得する。なお、以降の説明では、ステップS100において、図1に示す客Tg1が第1使用者US1を所定時間(3秒間)注視している撮像画像が取得されたものとして説明する。
図11に示すように、対象特定部153は、撮像画像からタスクの対象を特定する(ステップS105)。具体的には、対象特定部153は、撮像画像に現れる人物、物体と、タスクデータ格納部125に格納されている「タスクの対象」とをパターンマッチング等により解析、照合することにより、タスクの対象を特定する。上述のように、本実施形態では、タスクの対象は「客」(人物)または「食器」(物体)であるため、対象特定部153は、撮像画像に現れる人物や食器を検出する。図1に示す例では、第1使用者US1の装着している第1HMD100のカメラ61により客Tg1を含む画像が撮像された場合、客Tg1がタスクの対象として特定される。
図11に示すように、視線検出部161は、タスクの対象の状態を特定する(ステップS110)。具体的には、視線検出部161は、カメラ61により繰り返し撮像される複数の撮像画像からタスクの対象が見ている方向を特定することにより、タスクの対象の視線を検出する。このとき、視線検出部161は、検出された視線の経時的な変化もあわせて検出し、例えば、何秒間の間、視線を向けているかを検出する。図1に示す例では、タスクの対象である客Tg1が第1使用者US1に視線を向けて注視していることから、ステップS110では、タスクの対象が所定時間の間、第1使用者US1を見ている状態がタスクの対象の状態として特定される。このように、作業支援システム1では、第1使用者US1がホールスタッフ作業を行いつつ自動的に第1タスクが発生したか否かを特定する。すなわち、第1タスクが発生したか否かを特定するために第1使用者US1が特別な作業を行うことを要しない。
図11に示すように、第1タスク発生特定部155は、第1タスクが発生したか否かを特定する(ステップS115)。具体的には、第1タスク発生特定部155は、上述のステップS110において特定された対象の状態と、タスクデータ格納部125に格納されている「対象の状態」とが一致するか否かを特定することにより、第1タスクが発生したか否かを特定する。具体的には、特定された対象の状態と、タスクデータ格納部125の「対象の状態」とが一致しない場合、第1タスク発生特定部155は、第1タスクが発生していないと特定し(ステップS115:NO)、図11および図12に示すように、上述のステップS100が実行される。他方、特定された対象の状態と、タスクデータ格納部125の「対象の状態」とが一致する場合、第1タスク発生特定部155は、第1タスクが発生したと特定し(ステップS115:YES)、後述のステップS120が実行される。
図1に示す例では、上述のステップS110で特定された対象の状態は、タスクの対象が所定時間の間、第1使用者US1を見ている状態である。また、上述のように、タスクデータ格納部125の「対象の状態」は、タスクの対象である「客」が所定時間の間ホールスタッフを見ている状態であり、かかる状態は、「注文をとる」タスクの対象の状態である。したがって、第1タスク発生特定部155は、「注文をとる」タスク(以下、「第1タスク」と呼ぶ)が発生したと特定する。
図11に示すように、対象位置特定部163は、第1タスクの対象の位置を特定する(ステップS120)。具体的には、対象位置特定部163は、3Dオブジェクトマッピング等の公知技術を利用して、カメラ61から第1タスクの対象までの距離を算出することにより、対象の位置を特定する。第1表示制御部147は、第1関連情報を表示させる(ステップS125)。具体的には、第1表示制御部147は、タスクデータ格納部125に格納されている「関連情報」を参照し、第1関連情報を示す表示画像(以下、「関連情報画像」と呼ぶ)を第1画像表示部20に表示させる。
図13は、ステップS125実行後の第1使用者US1の視界VT1を模式的に示す説明図である。図13では、第1HMD100の第1画像表示部20を示している。図13では、視界VT1のうち、外景SCの図示を省略している。図13に示すように、表示領域PN1には、飲食店Rstの店内マップ画像Mpと、関連情報画像KI1、KI2およびKI3とが表示されている。店内マップ画像Mpは、図1に示す飲食店Rstを天井側から見た地図の画像であり、コンテンツデータ格納部124に予め格納されている。
関連情報画像KI1は、第1タスクの対象である客Tg1の位置を矢印で示す画像である。関連情報画像KI2は、第1タスクの実行者である第1使用者US1の位置を円で示す画像である。関連情報画像KI3は、第1タスクの内容を示す画像である。図13に示す例では、関連情報画像KI3は、第1タスク(「注文をとる」タスク)を模して、メニュー表を持って客の元に行く様子を表した画像である。このように、第1使用者US1の第1画像表示部20に関連情報画像KI1、KI2およびKI3を表示させることによって、第1タスクが発生したことを第1使用者US1に知らしめることができる。
図11に示すように、関連情報提供部159は、無線通信部117を介して第2HMD200および第3HMD300に第1関連情報を提供する(ステップS130)。なお、第2HMD200および第3HMD300に提供する第1関連情報は、上述のステップS125において第1画像表示部20に表示された第1関連情報と同じであるが、例えば、第1タスクの内容を示す情報のみでもよいし、第1タスクの内容を示す情報および第1タスクの対象の位置を示す情報であってもよいし、関連情報提供部159は、上記以外の他の関連情報を追加して提供してもよい。
第1動作検出部165は、第1HMD100の6軸センサー111の検出結果を利用して、第1使用者US1の動作を取得する(ステップS135)。また、このとき、第1動作検出部165は、Wi−Fi(登録商標)の電波強度を利用して第1HMD100の位置、すなわち、第1使用者US1の位置を特定する。第1使用者US1の位置の特定にWi−Fi(登録商標)の電波強度を利用するのは、飲食店Rstのような室内においてはGNSSレシーバー115が電波を受信できない場合があるからである。
第1タスク完了特定部157は、所定時間内に第1タスクが完了したか否かを特定する(ステップS140)。具体的には、第1タスク完了特定部157は、対象の位置と第1使用者の位置とが一致するか否かを特定する。また、第1タスク完了特定部157は、第1使用者US1の動作が、タスクデータ格納部125の「タスクの動作」に格納されている第1タスクの動作と同じであるか否かを特定する。そして、対象の位置と第1使用者の位置とが一致し、かつ、第1使用者US1の動作が第1タスクの動作と同じである場合、第1タスク完了特定部157は、第1タスクが完了したと特定し(ステップS140:YES)、図11および図12に示すように、上述のステップS100が実行される。
他方、上述のステップS140において、対象の位置と第1使用者US1の位置とが一致せず、または、第1使用者US1の動作が第1タスクの動作と同じでない場合、第1タスク完了特定部157は、第1タスクが完了していないと特定し(ステップS140:NO)、後述のステップS145が実行される。第1タスクが完了していない場合、第1使用者US1以外の使用者が第1タスクを実行する必要がある。そこで、本実施形態では、この場合、第1使用者US1以外の使用者が実行すべきタスク(第2タスク)が発生したものとして扱う。したがって、ステップS140は、第2タスク発生特定部167による第2タスクが発生したか否かの特定処理であると捉えることができる。すなわち、第1タスクが完了していると特定された場合(ステップS140:NO)、第2タスクが発生していないと特定され、第1タスクが完了していると特定された場合(ステップS140:YES)、第2タスクが発生したと特定される。なお、第2タスクの対象および動作等は、第1タスクと同じである。
位置取得部171は、無線通信部117を介して第2使用者および第3使用者の位置を取得し、負荷状況取得部173は、無線通信部117を介して第2使用者および第3使用者の負荷状況を取得する(ステップS145)。
実行者決定部175は、各使用者の位置および負荷状況を利用して、第2タスクの実行者を決定する(ステップS150)。具体的には、実行者決定部175は、位置と負荷とを所定の重み付けにより点数化し、点数の最も低い使用者を第2タスクの実行者として決定する。例えば、位置の重み付けとしては、使用者の位置が対象の位置に近ければ近いほど、点数が高くなるように設定されている。また、例えば、使用者の負荷が低ければ低いほど、点数が高くなるように設定されている。図1に示す例では、第2使用者US2の位置は、第3使用者US3の位置に比べて、第2タスクの対象である客Tg1の位置に近い。また、第2使用者US2は「料理を運ぶ」のタスクを実行中であり、第3使用者US3はタスクを実行していない。したがって、ステップS150では、第3使用者US3が第2タスクの実行者として決定される。
図12に示すように、関連情報提供部159は、第2タスクの実行者に第2関連情報を提供する(ステップS155)。ステップS155は、上述のステップS130と同様の処理内容である。第2タスク完了特定部169は、無線通信部117を介して、第2タスクの実行者から第2タスク完了通知を取得する(ステップS160)。第2タスク完了特定部169は、第2タスクが完了したか否か特定する(ステップS165)。具体的には、第2タスク完了特定部169は、第2タスク完了通知を取得していない場合、第2タスクが完了していないと特定し(ステップS165:NO)、上述のステップS160が実行される。他方、第2タスク完了特定部169は、第2タスク完了通知を取得している場合、第2タスクが完了していると特定し(ステップS165:YES)、図11および図12に示すように、上述のステップS100が実行される。
図14は、第2HMD200および第3HMD300における作業支援処理の処理手順を示すフローチャートである。第2HMD200および第3HMD300における作業支援処理は、図10に示す「作業支援」メニューが実行されて、「作業支援」アプリケーションが起動すると開始される。第2HMD200において、関連情報取得部457は、無線通信部117を介して、第1HMD100から第1関連情報を取得する(ステップS200)。同様に、第3HMD300において、関連情報取得部557は、無線通信部117を介して、第1HMD100から第1関連情報を取得する(ステップS200)。
第2HMD200において、第2表示制御部455は、第1関連情報を表示させる(ステップS205)。同様に、第3HMD300において、第3表示制御部555は、第1関連情報を表示させる(ステップS205)。なお、ステップS205は、上述のステップS105と同様の処理内容である。
第2HMD200において、位置提供部459および負荷状況提供部461は、第2使用者US2の位置および負荷状況をそれぞれ取得し、無線通信部117を介して、第1HMD100に提供する(ステップS210)。同様に、第3HMD300において、位置提供部559および負荷状況提供部561は、第3使用者US3の位置および負荷状況をそれぞれ取得し、無線通信部117を介して、第1HMD100に提供する(ステップS210)。
第2HMD200において、関連情報取得部457は、第1HMD100から第2関連情報を取得したか否かを判定する(ステップS215)。第1HMD100において第2タスクが発生している場合、第1HMD100では第2タスクの実行者が決定され(図11に示す上述のステップS150)、決定された実行者に対して第2関連情報が提供される(図12に示す上述のステップS155)。したがって、関連情報取得部457は、第2関連情報を取得したか否かを判定することにより、第2HMD200の第2使用者US2が第2タスクの実行者であるか否かを判定する。同様に、第3HMD300において、関連情報取得部557は、第1HMD100から第2関連情報を取得したか否かを判定する(ステップS215)。
本実施形態では、上述のように、第2タスクの実行者は、第3使用者US3に決定されている。したがって、第2HMD200には第2関連情報が提供されておらず、第3HMD300には第2関連情報が提供されている。このため、第2HMD200においては、上述のステップS215において第2関連情報を取得していないと判定され(ステップS215:NO)、上述のステップS200が実行される。他方、第3HMD300においては、第2関連情報を取得したと判定され(ステップS215:YES)、後述のステップS220が実行される。なお、第2タスクの実行者が、第2使用者US2に決定されている場合には、第2HMD200においても後述のステップS220以降の処理が実行される。
第3表示制御部555は、第2関連情報を表示させる(ステップS220)。ステップS220は、上述のステップS200と同様の処理内容である。
図15は、ステップS225実行後の第3使用者US3の視界VT2を模式的に示す説明図である。図15では、第3HMD300の第3画像表示部320を示している。図15では、視界VT2のうち、外景SCの図示を省略している。図15に示すように、表示領域PN2には、図13に示す第1HMD100の表示領域PN1に表示されている飲食店Rstの店内マップ画像Mpおよび関連情報画像KI1に加えて、関連情報画像KI4、KI5およびKI6が表示されている。
図15に示すように、関連情報画像KI4は、第2タスクの実行者である第3使用者US3の位置を円で示す画像である。関連情報画像KI5は、第2タスクの内容を示すテキスト画像である。関連情報画像KI5は、図13に示す関連情報画像KI3とは異なり、第2タスクの内容と、第3使用者US3が実際に行うべき行動とが文字で表されており、「お客様が呼んでいます。すぐに対応してください。」と表示されている。関連情報画像KI6は、第2タスク(「注文をとる」タスク)を実際に行う場合に、タスクの対象である客Tg1に対して発する言葉が表されており、「お待たせしました。ご注文お決まりでしょうか。」と表示されている。
上述のように、第3使用者US3の習熟度は、第1使用者US1の習熟度に比べて低い。このため、タスクを実行する者の習熟度に応じて関連情報の表示態様を異ならせることによって、習熟度が比較的低い使用者は、容易にタスクを実行でき、また、習熟度が比較的高い使用者は、不必要な情報で視界が遮られることを抑制できる。
図14に示すように、第2動作検出部563は、第2タスクの実行者である第3使用者US3の動作を取得する(ステップS225)。具体的には、上述のステップS135と同様に、第2動作検出部563は、第3HMD300の6軸センサー111の検出結果を利用して第3使用者US3の動作を取得する。また、第2動作検出部563は、Wi−Fi(登録商標)の電波強度を利用して、第3HMD300の位置、すなわち、第3使用者US3の位置を特定する。
第2タスク完了特定部565は、第2タスクが完了したか否かを特定する(ステップS230)。具体的には、上述のステップS140と同様に、第2タスク完了特定部565は、第2タスクの対象の位置、すなわち、第1タスクの対象の位置における第3使用者US3の動作が、タスクデータ格納部125に格納されている第2タスクの動作と同じ動作であるか否かを特定する。第1タスクの対象の位置における第3使用者US3の動作が第2タスクの動作と同じでない場合、第2タスク完了特定部565は、第2タスクが完了していないと特定し(ステップS230:NO)、上述のステップS225が実行される。他方、第1タスクの対象の位置における第3使用者US3の動作が第2タスクの動作と同じである場合、第2タスク完了特定部565は、第2タスクが完了したと特定し(ステップS230:YES)、第2タスク完了特定部565は、第2タスク完了通知を、無線通信部117を介して第1HMD100に通知する(ステップS235)。
以上説明した本実施形態の第1HMD100によれば、第1HMD100において、第1タスクが発生したと特定された場合に、関連情報画像KI1、KI2およびKI3が表示される。また、第2HMD200および第3HMD300に関連情報が提供され、第2HMD200および第3HMD300において、取得された関連情報が表示される。このため、第1HMD100の使用者US1、第2HMD200の使用者US2及び第3HMD300の使用者US3は、第1タスクが発生したことを容易に認識できる。
また、特定された第1タスクの対象である客Tg1の位置における第1使用者US1の動作が予め定められた動作と同じ動作である場合に、第1タスクが完了したと特定されるので、第1タスクが完了したか否かを容易に特定できる。加えて、第1タスクが完了していないと特定された場合に第2タスクが発生したと特定されるので、第2タスクが発生したか否かを容易に特定でき、また、精度よく特定できる。また、第2使用者US2および第3使用者US3の位置と、第2使用者US2および第3使用者US3の負荷状況と、に基づいて、第2タスクの実行者が決定されるので、作業支援システム1内において適切な使用者を実行者として決定できる。加えて、第2タスクの実行者である第3使用者US3の装着している第3HMD300の第3画像表示部320に関連情報画像KI1、KI4、KI5およびKI6を表示させるので、第2タスクの実行者に第2タスクの情報を知らしめることができる。
B.第2実施形態:
第2実施形態における作業支援システム1および透過型頭部装着型表示装置100、200および300は、第1実施形態における作業支援システム1および透過型頭部装着型表示装置100、200および300と同様であるので、その詳細な説明は省略する。第2実施形態における作業支援処理は、第1実施形態における作業支援処理の処理手順と同じである。
第2実施形態における作業支援システム1および透過型頭部装着型表示装置100、200および300は、第1実施形態における作業支援システム1および透過型頭部装着型表示装置100、200および300と同様であるので、その詳細な説明は省略する。第2実施形態における作業支援処理は、第1実施形態における作業支援処理の処理手順と同じである。
図16は、第2実施形態における作業支援処理が実行される様子を模式的に示す説明図である。第2実施形態では、作業支援システム1は、レンタルビデオショップBSにおいて実行されている。図16に示すように、3人の店員A、BおよびCは、レジ1、2および3で会計作業をしている。第2実施形態において、店員Aは、第1実施形態における第3使用者US3に、店員Bは第1実施形態における第1使用者US1に、店員Cは、第1実施形態における第2使用者US2に、それぞれ相当する。なお、図16では、図示を省略しているが、各店員A、BおよびCはHMDを装着しており、店員Aは第3HMD300を、店員Bは第1HMD100を、店員Cは第2HMD200をそれぞれ装着している。
図16に示すように、店員Aは、レジ1をレジ休止中にして、「伝票整理」のタスクを実行している。店員Bは、レジ2において客Aの「会計」タスクを実行している。店員Cは、レジ3において客Cの「会計」タスクを実行している。なお、第2実施形態において、「会計」タスクと「伝票整理」タスクとでは、「会計」タスクの負荷が高く設定されている。図16に示すように、客Bは、客Aの後ろに並んでいる。実線矢印に示すように、客Bは、店員Aに対して視線を向けており、破線矢印に示すように、店員Bの視界方向には、客Bが店員Aを見ている状態が映っている。
ここで、第2実施形態では、「会計」タスクは、「対象の状態」として、タスクの対象である客が所定時間の間、店員を見ている状態が予め定められている。したがって、店員Bの装着している第1HMD100において、図11および図12に示す作業支援処理が実行されると、上述のステップS100からステップS115において、第1HMD100のカメラ61により取得された撮像画像から、客Bが所定時間の間、店員Aを見ている状態が特定されて、「会計」タスク(第1タスク)が発生したと特定される。その後、上述のステップS125が実行されて、第1HMD100の第1画像表示部20に第1関連情報が表示される。上述のように、店員Bは、客Aの「会計」タスクを実行中であり、第1タスクを実行できない。したがって、上述のステップS140において、第1タスクが完了していないと特定される(ステップS140:NO)とともに、第2タスク(「会計」タスク)が発生する。
その後、上述のステップS150が実行されて、店員Aおよび店員Cの位置、負荷状況に基づいて、第2タスクの実行者が決定される。具体的には、図16に示すように、店員Aの位置は、店員Cの位置に比べて、タスクの対象である客Bの位置に近い。また、店員Cは、客Cの「会計」タスクを実行中であり、店員Aに比べて負荷が高い。したがって、第2タスクの実行者は店員Aに決定される。
図14に示すように、店員Aの装着している第3HMD300において、上述のステップS215およびステップS220が実行されて、第3HMD300の第3画像表示部320に第2関連情報が表示される。その後、店員Aは、表示された第2関連情報を利用して、客Bの「会計」タスクを実行し得る。
以上説明した第2実施形態のHMD100によれば、第1実施形態と同様な効果を奏する。
C.第3実施形態:
第3実施形態における作業支援システム1および透過型頭部装着型表示装置100、200および300は、第1実施形態における作業支援システム1および透過型頭部装着型表示装置100、200および300と同様であるので、その詳細な説明は省略する。第3実施形態における作業支援処理は、第1実施形態における作業支援処理の処理手順と同じである。
第3実施形態における作業支援システム1および透過型頭部装着型表示装置100、200および300は、第1実施形態における作業支援システム1および透過型頭部装着型表示装置100、200および300と同様であるので、その詳細な説明は省略する。第3実施形態における作業支援処理は、第1実施形態における作業支援処理の処理手順と同じである。
図17は、第3実施形態における作業支援処理が実行される様子を模式的に示す説明図である。第3実施形態では、作業支援システム1は、第1実施形態と同様に、飲食店Rst内で実行されている。図17では、上述のステップS100において、第1使用者US1の装着している第1HMD100で取得される撮像画像CIを模式的に示している。図17に示すように、撮像画像CIには、食器棚Shに格納されている3種類の皿d1、d2およびd3が写っている。皿d3は、残数が1枚である。
第3実施形態では、皿の枚数が所定の枚数以下である状態が検出されると、「皿の回収」タスクが発生したと特定される。「所定の枚数」とは、例えば、3枚である。なお、所定の枚数は、3枚に代えて、他の任意の枚数が設定されていてもよい。なお、第3実施形態では、メニューごとに使用する皿の種類、皿の総数、上述の所定枚数がタスクデータ格納部125に予め格納されている。
図11に示すように、第1HMD100において上述のステップS105からステップS115が実行されて、「皿の回収」タスクが発生したと特定されると、第1HMD100の第1画像表示部20に第1関連情報が表示される(上述のステップS125)。
図18は、ステップS125実行後の第1使用者US1の視界VT3を模式的に示す説明図である。図18では、第1HMD100の第1画像表示部20を示している。図18では、視界VT3のうち、外景SCの図示を省略している。図18に示すように、表示領域PN3には、飲食店Rstの店内マップ画像Mpと、関連情報画像KI7、KI8、KI9およびKI0とが表示されている。関連情報画像KI7は、不足している皿に対応するメニューを注文した客の位置を矢印で示す画像である。関連情報画像KI8は、第1使用者US1の位置を円で示す画像である。なお、関連情報画像KI8は、図13に示す関連情報画像KI2と同じである。関連情報画像KI9は、皿の不足枚数を示す画像である。関連情報画像KI10は、「皿の回収」タスクを示す画像であり、「皿が不足しています。空いている皿を下げてください。」と表示されている。
図11に示すように、第1HMD100において、上述のステップS135およびステップS140が実行されて、第1使用者US1が「皿の回収」タスクが実行されたか否かが特定される。このとき、例えば、第1HMD100のカメラ61の撮像画像に回収すべき皿が検出されるか否か、および第1使用者US1が回収すべき皿を洗い場所まで持って行く動作が検出されるか否かを特定することにより、第1使用者US1により「皿の回収」タスクが実行されたか否かを特定できる。
第1使用者US1により「皿の回収」タスクが完了していないと特定されると(上述のステップS140:NO)、上述のステップS145およびステップS150が実行されて、第2使用者US2および第3使用者US3から「皿の回収」タスクの実行者が決定される。その後、実行者の装着しているHMDの画像表示部に第2関連情報が表示され、実行者は、表示された第2関連情報を利用して、「皿の回収」タスクを実行し得る。
以上説明した第3実施形態のHMD100によれば、第1実施形態と同様な効果を奏する。
D.他の実施形態:
D1.他の実施形態1:
上記各実施形態において、タスク、タスクの実行場所、タスクの対象、対象の状態および関連情報は、上述の例に限定されない。タスクの実行場所やタスクの対象に応じて、種々の対象の状態、関連情報を採用してもよい。
D1.他の実施形態1:
上記各実施形態において、タスク、タスクの実行場所、タスクの対象、対象の状態および関連情報は、上述の例に限定されない。タスクの実行場所やタスクの対象に応じて、種々の対象の状態、関連情報を採用してもよい。
図19は、タスクデータの一例を示す説明図である。タスクデータTLは、タスクデータ格納部125に予め格納されている各データのうち、タスクの実行場所、タスクの対象、対象の状態、および関連情報を示している。図19の上段に示すように、タスクの実行場所が「サッカー場(入場時)」である場合、タスクの対象は「観客」であり、対象の状態は「何かを探している」状態であり、関連情報は「予約シートの案内」である。図19の上から2段目に示すように、タスクの実行場所が「サッカー場(ハーフタイム時)」である場合、タスクの対象は「観客」であり、対象の状態は「何かを探している」状態であり、関連情報は「トイレ場所の案内」である。上記2つの例のように、タスクの実行場所が同じであっても時間帯によって実行場所の使われ方が変化する場合、関連情報を異ならせてもよい。このようにすることで、より適切な関連情報を使用者に提供できる。
図19の上から3段目に示すように、タスクの実行場所が「食堂」である場合、タスクの対象は「接客場所にいる利用者」であり、対象の状態は「皿を片付けている」状態であり、関連情報は「皿の配膳場所案内」である。図19の上から4段目に示すように、タスクの実行場所が「食堂」である場合、タスクの対象は「接客場所にいる利用者」であり、対象の状態は「皿を片付けている」状態であり、関連情報は「皿の洗い方」や「皿の収納場所案内」である。図19の上から5段目に示すように、タスクの実行場所が「飲食店」である場合、タスクの対象は「入店時の客」であり、対象の状態は「客の数」であり、関連情報は「空きテーブル案内」である。
図19の上から6段目に示すように、タスクの実行場所が「電気屋」である場合、タスクの対象は「エアコン売り場の客」であり、対象の状態は「商品を見ている」状態であり、関連情報は「対象商品のセールスポイント案内」である。図19の上から7段目に示すように、タスクの実行場所が「電気屋」である場合、タスクの対象は「エアコン売り場の客」であり、対象の状態は「商品を見ている」状態であり、関連情報は価格、何畳用、電気代等の「客への質問ポイント」である。
図19の上から8段目に示すように、タスクの実行場所が「学習塾」である場合、タスクの対象は「生徒」であり、対象の状態は「ノートの上で手が止まっている」状態であり、関連情報は解き方等の「指導生徒へのヒント」である。図19の上から9段目に示すように、タスクの実行場所が「野球場」である場合、タスクの対象は「観客」であり、対象の状態は「ビールを片手にきょろきょろしている」状態であり、関連情報はポップコーンを勧める等の「おつまみ案内」である。
図19の上から10段目に示すように、タスクの実行場所が「デパート」である場合、タスクの対象は「衣類売り場の客」であり、対象の状態は「商品と財布を手に持って何かを探している」状態であり、関連情報は「会計場所案内」である。なお、対象の状態が「商品のみを手に持って何かを探している」状態である場合、関連情報は「試着室案内」であってもよい。図19の上から11段目に示すように、タスクの実行場所が「松本城」である場合、タスクの対象は「大手門にいる観光客」であり、対象の状態は「地図を見ている」状態や「観光客の移動方向」であり、関連情報は「入場券売り場案内」である。
上述の例のように、タスクの実行場所において実行すると予想される種々のタスクについて、タスクの対象、対象の状態、関連情報の内容等を任意に定めておいてもよい。また、上述の例の他、例えば、各使用者の習熟度に応じて、タスクの対象の状態を異ならせてもよい。具体的には、上記第1実施形態において、第1使用者US1が習熟度の比較的高くベテランであり、撮像画像から客Tg1が所定時間の間、第1使用者US1を見ている状態が検出された場合に、第1タスクが発生したと特定しなくてもよい。かかる構成では、各使用者US1、US2およびUS3のスキル習得度に応じて、タスクデータ格納部125に格納されている習熟度を変更してもよい。このような構成においても、上記各実施形態と同様な効果を奏する。
D2.他の実施形態2:
上記第1実施形態において、第2関連情報は第2タスクの実行者である第3使用者US3の第3画像表示部320にのみ表示されていたが、これに加えて、第1使用者US1の第1画像表示部20および第2使用者US2の第2画像表示部220に表示させてもよい。このような構成においても、上記第1実施形態と同様な効果を奏する。
上記第1実施形態において、第2関連情報は第2タスクの実行者である第3使用者US3の第3画像表示部320にのみ表示されていたが、これに加えて、第1使用者US1の第1画像表示部20および第2使用者US2の第2画像表示部220に表示させてもよい。このような構成においても、上記第1実施形態と同様な効果を奏する。
D3.他の実施形態3:
上記各実施形態において、カメラ61は、第1画像表示部20の前部フレーム27に配置され、第1使用者US1が視認する視界方向の、少なくとも一部の外界(実空間)を撮像していたが、本発明はこれに限定されない。例えば、カメラ61は、第1HMD100の端部ELおよびERに配置され、第1使用者US1が視認する方向とは反対方向を撮像してもよい。かかる構成では、第1使用者US1が視認しない方向においてタスクが発生している場合にも、タスクが発生したことを検出できる。また、例えば、カメラ61は、単眼カメラに代えて、360度カメラであってもよい。かかる構成では、カメラ61が単眼カメラである構成に比べて、一回の撮像でより多くの情報を得ることができる。また、カメラ61は、明るさ、距離および温度を検出する撮像装置であってもよい。このような構成においても、上記各実施形態と同様な効果を奏する。
上記各実施形態において、カメラ61は、第1画像表示部20の前部フレーム27に配置され、第1使用者US1が視認する視界方向の、少なくとも一部の外界(実空間)を撮像していたが、本発明はこれに限定されない。例えば、カメラ61は、第1HMD100の端部ELおよびERに配置され、第1使用者US1が視認する方向とは反対方向を撮像してもよい。かかる構成では、第1使用者US1が視認しない方向においてタスクが発生している場合にも、タスクが発生したことを検出できる。また、例えば、カメラ61は、単眼カメラに代えて、360度カメラであってもよい。かかる構成では、カメラ61が単眼カメラである構成に比べて、一回の撮像でより多くの情報を得ることができる。また、カメラ61は、明るさ、距離および温度を検出する撮像装置であってもよい。このような構成においても、上記各実施形態と同様な効果を奏する。
D4.他の実施形態4:
上記第1実施形態において、第2タスクの実行者は、第2使用者US2および第3使用者US3の位置、負荷状況に基づいて決定されていたが、本発明はこれに限定されない。例えば、第2タスクの実行者は、各使用者US2およびUS3の第2タスクの習熟度に基づいて決定されてもよい。具体的には、各使用者US2、US3の位置および負荷の重み付け(点数)が同じである場合、第2タスクの実行者は、第2タスクの習熟度が高い使用者に決定されてもよい。また、例えば、第2タスクの実行者は、タスクの対象の性別、年齢等に応じて決定されてもよい。具体的には、タスクの対象が女性や子供である場合、第2タスクの実行者は、女性の使用者に決定されてもよい。このような構成においても、上記第1実施形態と同様な効果を奏する。
上記第1実施形態において、第2タスクの実行者は、第2使用者US2および第3使用者US3の位置、負荷状況に基づいて決定されていたが、本発明はこれに限定されない。例えば、第2タスクの実行者は、各使用者US2およびUS3の第2タスクの習熟度に基づいて決定されてもよい。具体的には、各使用者US2、US3の位置および負荷の重み付け(点数)が同じである場合、第2タスクの実行者は、第2タスクの習熟度が高い使用者に決定されてもよい。また、例えば、第2タスクの実行者は、タスクの対象の性別、年齢等に応じて決定されてもよい。具体的には、タスクの対象が女性や子供である場合、第2タスクの実行者は、女性の使用者に決定されてもよい。このような構成においても、上記第1実施形態と同様な効果を奏する。
D5.他の実施形態5:
上記各実施形態において、第1タスク発生特定部155は、第1タスクの対象が第1使用者US1から予め定められた距離以上離れている状態の場合に、第1タスクが発生していないと特定してもよい。例えば、上記第1実施形態において、第1使用者US1と客Tg1との間の距離が予め定められた距離以上離れている場合、第1タスクが発生していないと特定してもよいし、第1タスクが発生していると特定してもよい。上述の「予め定められた距離」は、例えば、3メートルである。なお、予め定められた距離は、3メートルに代えて、他の任意の距離であってもよい。このような構成においても、上記各実施形態と同様な効果を奏する。
上記各実施形態において、第1タスク発生特定部155は、第1タスクの対象が第1使用者US1から予め定められた距離以上離れている状態の場合に、第1タスクが発生していないと特定してもよい。例えば、上記第1実施形態において、第1使用者US1と客Tg1との間の距離が予め定められた距離以上離れている場合、第1タスクが発生していないと特定してもよいし、第1タスクが発生していると特定してもよい。上述の「予め定められた距離」は、例えば、3メートルである。なお、予め定められた距離は、3メートルに代えて、他の任意の距離であってもよい。このような構成においても、上記各実施形態と同様な効果を奏する。
D6.他の実施形態6:
上記各実施形態において、各使用者US1、US2およびUS3の位置は、Wi−Fi(登録商標)の電波強度を利用して特定していたが、本発明はこれに限定されない。例えば、第1実施形態では、飲食店Rst内に設置されている監視カメラの撮像画像を利用して、各使用者US1、US2およびUS3の位置が特定されてもよい。また、例えば、GNSSレシーバー115の電波を受信可能な場所の場合、GNSSレシーバー115から取得される緯度および経度を利用して、各使用者US1、US2およびUS3が特定されてもよい。このような構成においても、上記各実施形態と同様な効果を奏する。
上記各実施形態において、各使用者US1、US2およびUS3の位置は、Wi−Fi(登録商標)の電波強度を利用して特定していたが、本発明はこれに限定されない。例えば、第1実施形態では、飲食店Rst内に設置されている監視カメラの撮像画像を利用して、各使用者US1、US2およびUS3の位置が特定されてもよい。また、例えば、GNSSレシーバー115の電波を受信可能な場所の場合、GNSSレシーバー115から取得される緯度および経度を利用して、各使用者US1、US2およびUS3が特定されてもよい。このような構成においても、上記各実施形態と同様な効果を奏する。
D7.他の実施形態7:
上記各実施形態において、第1関連情報および第2関連情報をHMD100、200および300とは異なる表示装置に表示させてもよい。例えば、第1実施形態では、飲食店Rstにおけるホールスタッフの管理者がタブレット端末を利用して、各ホールスタッフのタスクの実行状況を管理している場合、かかるタブレット端末の表示画面に第1関連情報および第2関連情報を表示させてもよい。かかる構成では、管理者は、各タスクの実行状況や、各ホールスタッフのタスクの熟度を容易に確認できる。このような構成においても、上記各実施形態と同様な効果を奏する。
上記各実施形態において、第1関連情報および第2関連情報をHMD100、200および300とは異なる表示装置に表示させてもよい。例えば、第1実施形態では、飲食店Rstにおけるホールスタッフの管理者がタブレット端末を利用して、各ホールスタッフのタスクの実行状況を管理している場合、かかるタブレット端末の表示画面に第1関連情報および第2関連情報を表示させてもよい。かかる構成では、管理者は、各タスクの実行状況や、各ホールスタッフのタスクの熟度を容易に確認できる。このような構成においても、上記各実施形態と同様な効果を奏する。
D8.他の実施形態8:
上記各実施形態において、作業支援システム1は、3台のHMD100、200および300を備えていたが、作業支援システム1が備えるHMDの数は、3台に代えて、他の任意の数であってもよい。すなわち、一般には、作業支援システム1が、第1使用者に装着される第1透過型頭部装着型表示装置と、第1使用者とは異なる1以上の第2使用者に装着される1以上の第2透過型頭部装着型表示装置と、を含む複数の透過型頭部装着型表示装置を備える構成であれば、上記各実施形態と同様な効果を奏する。
上記各実施形態において、作業支援システム1は、3台のHMD100、200および300を備えていたが、作業支援システム1が備えるHMDの数は、3台に代えて、他の任意の数であってもよい。すなわち、一般には、作業支援システム1が、第1使用者に装着される第1透過型頭部装着型表示装置と、第1使用者とは異なる1以上の第2使用者に装着される1以上の第2透過型頭部装着型表示装置と、を含む複数の透過型頭部装着型表示装置を備える構成であれば、上記各実施形態と同様な効果を奏する。
D9.他の実施形態9:
上記第2実施形態において、タスクの対象である客Cの「会計」タスクが完了したか否かの特定は、POSシステムと連動させることにより特定してもよい。具体的には、各HMD100、200および300の各制御装置10、210および310と、POSシステムとを無線通信可能な構成とし、POSシステムへの入力を各制御機能部150、450および550が受け付け可能な構成とし、POSシステムへの入力が客Cの会計入力であることを照合することにより、「会計」タスクが完了したか否かを特定できる。このような構成においても、上記第2実施形態と同様な効果を奏する。
上記第2実施形態において、タスクの対象である客Cの「会計」タスクが完了したか否かの特定は、POSシステムと連動させることにより特定してもよい。具体的には、各HMD100、200および300の各制御装置10、210および310と、POSシステムとを無線通信可能な構成とし、POSシステムへの入力を各制御機能部150、450および550が受け付け可能な構成とし、POSシステムへの入力が客Cの会計入力であることを照合することにより、「会計」タスクが完了したか否かを特定できる。このような構成においても、上記第2実施形態と同様な効果を奏する。
D10.他の実施形態10:
上記各実施形態において、第1HMD100と第2HMD200とを同じ構成としてもよい。具体的には、第1HMD100の第1制御機能部150は、第2表示制御部455、関連情報取得部457、位置提供部459、および負荷状況提供部461を有していてもよい。第2HMD200の第2制御機能部450は、第1表示制御部147、対象特定部153、第1タスク発生特定部155、第1タスク完了特定部157、関連情報提供部159、視線検出部161、対象位置特定部163、第1動作検出部165、第2タスク発生特定部167、第2タスク完了特定部169、位置取得部171、負荷状況取得部173、および実行者決定部175を有していてもよい。
上記各実施形態において、第1HMD100と第2HMD200とを同じ構成としてもよい。具体的には、第1HMD100の第1制御機能部150は、第2表示制御部455、関連情報取得部457、位置提供部459、および負荷状況提供部461を有していてもよい。第2HMD200の第2制御機能部450は、第1表示制御部147、対象特定部153、第1タスク発生特定部155、第1タスク完了特定部157、関連情報提供部159、視線検出部161、対象位置特定部163、第1動作検出部165、第2タスク発生特定部167、第2タスク完了特定部169、位置取得部171、負荷状況取得部173、および実行者決定部175を有していてもよい。
また、例えば、第1HMD100と第3HMD300とを同じ構成としてもよい。具体的には、第1HMD100の第1制御機能部150は、第3表示制御部555、関連情報取得部557、位置提供部559、負荷状況提供部561、第2動作検出部563、および第2タスク完了特定部565を有していてもよい。第3HMD300の第3制御機能部550は、第1表示制御部147、対象特定部153、第1タスク発生特定部155、第1タスク完了特定部157、関連情報提供部159、視線検出部161、対象位置特定部163、第1動作検出部165、第2タスク発生特定部167、第2タスク完了特定部169、位置取得部171、負荷状況取得部173、および実行者決定部175を有していてもよい。
この他にも、例えば、第2HMD200と第3HMD300とを同じ構成としてもよいし、第1HMD100、第2HMD200、および第3HMD300のいずれも全く同じ構成としてもよい。このような構成においても、上記各実施形態と同様な効果を奏する。
D11.他の実施形態11:
上記各実施形態において、第2タスクは、第1タスクとはタスクの実行者が異なっていたが、これに代えて、または、これに加えて、第2タスクは、第1タスクとはタスクの内容が異なっていてもよい。例えば、第1タスクが「注文をとる」タスクである場合、第2タスクは、「予め定められた手順にしたがって注文をとる」タスクであってもよい。すなわち、一般には、第2タスクは、第1タスクと異なるタスクであれば、上記各実施形態と同様な効果を奏する。
上記各実施形態において、第2タスクは、第1タスクとはタスクの実行者が異なっていたが、これに代えて、または、これに加えて、第2タスクは、第1タスクとはタスクの内容が異なっていてもよい。例えば、第1タスクが「注文をとる」タスクである場合、第2タスクは、「予め定められた手順にしたがって注文をとる」タスクであってもよい。すなわち、一般には、第2タスクは、第1タスクと異なるタスクであれば、上記各実施形態と同様な効果を奏する。
D12.他の実施形態12:
上記各実施形態において、実行者決定部175は、予め定められているタスクの優先度を利用して第2タスクの実行者を決定してもよい。「優先度」とは、第2タスクの発生頻度に応じて定めることができ、例えば、第2タスクの発生頻度が比較的低い場合に優先度が低く、第2タスクの発生頻度が比較的高い場合に優先度が高く設定してもよい。かかる優先度は、予めタスクデータ格納部125に格納されている。例えば、上述のステップS150において、実行者決定部175は、第2タスクの優先度が低い場合には、第2タスクの実行者を決定せず、第1使用者US1に第2タスクを実行させてもよい。また、例えば、実行者決定部175は、第2タスクの優先度と各使用者の負荷状況との両方を利用して、実行者を決定してもよい。このような構成においても、上記各実施形態と同様な効果を奏する。
上記各実施形態において、実行者決定部175は、予め定められているタスクの優先度を利用して第2タスクの実行者を決定してもよい。「優先度」とは、第2タスクの発生頻度に応じて定めることができ、例えば、第2タスクの発生頻度が比較的低い場合に優先度が低く、第2タスクの発生頻度が比較的高い場合に優先度が高く設定してもよい。かかる優先度は、予めタスクデータ格納部125に格納されている。例えば、上述のステップS150において、実行者決定部175は、第2タスクの優先度が低い場合には、第2タスクの実行者を決定せず、第1使用者US1に第2タスクを実行させてもよい。また、例えば、実行者決定部175は、第2タスクの優先度と各使用者の負荷状況との両方を利用して、実行者を決定してもよい。このような構成においても、上記各実施形態と同様な効果を奏する。
D13.他の実施形態13:
上記各実施形態において、第1関連情報および第2関連情報の表示態様は、図13、図15および図18に示す例に限定されない。例えば、関連情報は、3D(立体)表示させてもよい。また、例えば、関連情報は、動きのある表示、動画的なフラッシュ表示をさせてもよいし、点滅させて表示させてもよい。このような構成においても、上記各実施形態と同様な効果を奏する。
上記各実施形態において、第1関連情報および第2関連情報の表示態様は、図13、図15および図18に示す例に限定されない。例えば、関連情報は、3D(立体)表示させてもよい。また、例えば、関連情報は、動きのある表示、動画的なフラッシュ表示をさせてもよいし、点滅させて表示させてもよい。このような構成においても、上記各実施形態と同様な効果を奏する。
D14.他の実施形態14:
上記各実施形態において、HMD100、200および300は、透過型の頭部装着型表示装置であったが、これに代えて、ビデオシースルー型のHMDであってもよい。このような構成においても、上記各実施形態と同様な効果を奏する。
上記各実施形態において、HMD100、200および300は、透過型の頭部装着型表示装置であったが、これに代えて、ビデオシースルー型のHMDであってもよい。このような構成においても、上記各実施形態と同様な効果を奏する。
D15.他の実施形態15:
上記各実施形態において、OLEDユニット221、241は、OLEDパネル223、243と、OLEDパネル223、243を駆動するOLED駆動回路225、245とを有し、OLEDパネル223、243は、有機エレクトロルミネッセンスにより発光し、それぞれ発する発光素子により構成される自発光型の表示パネルであったが、本発明はこれに限定されない。また、OLEDパネル223、243は、R、G、Bの素子を1個ずつ含む単位を1画素とした複数の画素が、マトリクス状に配置されていたが、本発明はこれに限定されない。例えば、右表示ユニット22および左表示ユニット24は、それぞれ、光源部としてのOLEDパネルと、光源部が発する光を変調して複数の色光を含む画像光を出力する変調素子と、を備える映像素子として構成されてもよい。なお、OLEDパネルが発する光を変調する変調装置は、透過型液晶パネルが採用される構成に限定されない。例えば、透過型液晶パネルに代えて反射型液晶パネルを用いてもよいし、デジタル・マイクロミラー・デバイスを用いてもよいし、レーザースキャン方式のレーザー網膜投影型のHMDとしてもよい。このような構成においても、上記各実施形態と同様な効果を奏する。
上記各実施形態において、OLEDユニット221、241は、OLEDパネル223、243と、OLEDパネル223、243を駆動するOLED駆動回路225、245とを有し、OLEDパネル223、243は、有機エレクトロルミネッセンスにより発光し、それぞれ発する発光素子により構成される自発光型の表示パネルであったが、本発明はこれに限定されない。また、OLEDパネル223、243は、R、G、Bの素子を1個ずつ含む単位を1画素とした複数の画素が、マトリクス状に配置されていたが、本発明はこれに限定されない。例えば、右表示ユニット22および左表示ユニット24は、それぞれ、光源部としてのOLEDパネルと、光源部が発する光を変調して複数の色光を含む画像光を出力する変調素子と、を備える映像素子として構成されてもよい。なお、OLEDパネルが発する光を変調する変調装置は、透過型液晶パネルが採用される構成に限定されない。例えば、透過型液晶パネルに代えて反射型液晶パネルを用いてもよいし、デジタル・マイクロミラー・デバイスを用いてもよいし、レーザースキャン方式のレーザー網膜投影型のHMDとしてもよい。このような構成においても、上記各実施形態と同様な効果を奏する。
D16.他の実施形態16:
上記各実施形態において、第1タスクが発生したと特定された場合に、第2HMD200および第3HMD300に対して第1関連情報を提供していたが、第2HMD200および第3HMD300に対して第1関連情報を提供しなくてもよい。このような構成においても、上記各実施形態と同様な効果を奏する。
上記各実施形態において、第1タスクが発生したと特定された場合に、第2HMD200および第3HMD300に対して第1関連情報を提供していたが、第2HMD200および第3HMD300に対して第1関連情報を提供しなくてもよい。このような構成においても、上記各実施形態と同様な効果を奏する。
D17.他の実施形態17:
図20は、他の実施形態17におけるステップS125実行後の第1使用者US1の視界VT4を模式的に示す説明図である。図20に示す例では、第1タスクとして「注文をとる」タスクが発生した場合における視界VT4を示している。図20では、図13と同様に、第1HMD100の第1画像表示部20を示している。図20に示すように、視界VT4のうち、外景SCには飲食店Rstの様子が映っており、表示領域PN4には関連情報画像KI11が表示されている。関連情報画像KI11は、第1タスクの発生場所を矢印で示す画像である。なお、第1タスクの発生場所は、Bluetooth(登録商標)ビーコン、ARマーカー、およびWi−Fi(登録商標)の電波強度等の公知技術を利用することにより特定できる。関連情報画像KI11を現実空間に重畳させて表示させるのは、第1使用者US1に対して、第1タスクの発生場所や、タスクの対象をより分かりやすく提示できるという理由からである。なお、関連情報画像KI11に加えて、タスクの対象、対象の状態、タスクの負荷、タスクの習熟度等を示す関連情報画像を、第1使用者US1の視界を遮らない程度に表示させてもよい。このような構成においても、上記各実施形態と同様な効果を奏する。
図20は、他の実施形態17におけるステップS125実行後の第1使用者US1の視界VT4を模式的に示す説明図である。図20に示す例では、第1タスクとして「注文をとる」タスクが発生した場合における視界VT4を示している。図20では、図13と同様に、第1HMD100の第1画像表示部20を示している。図20に示すように、視界VT4のうち、外景SCには飲食店Rstの様子が映っており、表示領域PN4には関連情報画像KI11が表示されている。関連情報画像KI11は、第1タスクの発生場所を矢印で示す画像である。なお、第1タスクの発生場所は、Bluetooth(登録商標)ビーコン、ARマーカー、およびWi−Fi(登録商標)の電波強度等の公知技術を利用することにより特定できる。関連情報画像KI11を現実空間に重畳させて表示させるのは、第1使用者US1に対して、第1タスクの発生場所や、タスクの対象をより分かりやすく提示できるという理由からである。なお、関連情報画像KI11に加えて、タスクの対象、対象の状態、タスクの負荷、タスクの習熟度等を示す関連情報画像を、第1使用者US1の視界を遮らない程度に表示させてもよい。このような構成においても、上記各実施形態と同様な効果を奏する。
D18.他の実施形態18:
上記各実施形態において、支援システムは、飲食店、レンタルビデオショップにおける作業支援に適用されていたが、本発明はこれに限定されない。例えば、支援システムは、知的な共同作業の会議、共同での学習、課題解決のための共同作業、およびエレクトロニックスポーツの練習等に適用されてもよい。エレクトロニックスポーツの練習においては、例えば、タスクの対象を使用者のチームの選手に予め定めておき、かかる選手の視線を対象の状態として特定することにより、パスのタイミングを練習させてもよいし、タスクの対象を対戦相手のチームの選手に予め定めておき、かかる選手の動き(位置の変化)を対象の状態として特定することにより、使用者の最適な動きを練習させてもよい。このような構成においても、上記各実施形態と同様な効果を奏する。
上記各実施形態において、支援システムは、飲食店、レンタルビデオショップにおける作業支援に適用されていたが、本発明はこれに限定されない。例えば、支援システムは、知的な共同作業の会議、共同での学習、課題解決のための共同作業、およびエレクトロニックスポーツの練習等に適用されてもよい。エレクトロニックスポーツの練習においては、例えば、タスクの対象を使用者のチームの選手に予め定めておき、かかる選手の視線を対象の状態として特定することにより、パスのタイミングを練習させてもよいし、タスクの対象を対戦相手のチームの選手に予め定めておき、かかる選手の動き(位置の変化)を対象の状態として特定することにより、使用者の最適な動きを練習させてもよい。このような構成においても、上記各実施形態と同様な効果を奏する。
D19.他の実施形態19:
上記第1実施形態および第2実施形態において、対象の状態は、撮像画像におけるタスクの対象の視線を検出することにより特定されていたが、本発明はこれに限定されない。例えば、視線の検出に代えて、または、視線の検出に加えて、撮像画像をパターンマッチングすることにより対象の状態が特定されてもよい。この場合、所定時間における対象の変化を特定することにより対象の状態が特定されてもよい。また、例えば、動画データから所定時間ごとの静止画像を切り出し、かかる静止画像における対象をパターンマッチングすることにより対象の状態が特定されてもよい。このような構成においても、上記各実施形態と同様な効果を奏する。
上記第1実施形態および第2実施形態において、対象の状態は、撮像画像におけるタスクの対象の視線を検出することにより特定されていたが、本発明はこれに限定されない。例えば、視線の検出に代えて、または、視線の検出に加えて、撮像画像をパターンマッチングすることにより対象の状態が特定されてもよい。この場合、所定時間における対象の変化を特定することにより対象の状態が特定されてもよい。また、例えば、動画データから所定時間ごとの静止画像を切り出し、かかる静止画像における対象をパターンマッチングすることにより対象の状態が特定されてもよい。このような構成においても、上記各実施形態と同様な効果を奏する。
D20.他の実施形態20:
上記各実施形態において、タスクに関する種々のデータ(以下、「タスクデータ」と呼ぶ)は、タスクデータ格納部125に格納されていたが、本発明はこれに限定されない。例えば、タスクデータは、無線通信部117を介して取得してもよい。具体的には、HMD100の使用者のスマートフォンや、サーバ装置等から取得してもよい。かかる構成では、無線通信部117を介して取得したタスクデータを利用して、タスクの対象、対象の状態、およびタスクの発生等が特定されてもよい。また、タスクデータ格納部125に格納されているタスクデータと、無線通信部117を介して取得したタスクデータとの両方のデータを利用して、タスクの対象、対象の状態、およびタスクの発生等が特定されてもよい。このような構成においても、上記各実施形態と同様な効果を奏する。
上記各実施形態において、タスクに関する種々のデータ(以下、「タスクデータ」と呼ぶ)は、タスクデータ格納部125に格納されていたが、本発明はこれに限定されない。例えば、タスクデータは、無線通信部117を介して取得してもよい。具体的には、HMD100の使用者のスマートフォンや、サーバ装置等から取得してもよい。かかる構成では、無線通信部117を介して取得したタスクデータを利用して、タスクの対象、対象の状態、およびタスクの発生等が特定されてもよい。また、タスクデータ格納部125に格納されているタスクデータと、無線通信部117を介して取得したタスクデータとの両方のデータを利用して、タスクの対象、対象の状態、およびタスクの発生等が特定されてもよい。このような構成においても、上記各実施形態と同様な効果を奏する。
D21.他の実施形態21:
上記各実施形態において、第1タスク発生特定部は、撮像画像における対象の状態に代えて、または、撮像画像における対象の状態に加えて、外部情報を取得するセンサーの検出結果を利用して第1タスクの発生を特定してもよい。「外部情報を取得するセンサー」とは、HMD100の使用者の視覚、嗅覚、聴覚等の五感の少なくともいずれかを介して、対象の状態を検出可能なセンサーを意味する。例えば、マイク63を、外部情報を取得するセンサーとして用いてもよい。この場合、マイク63に入力される音声として、タスクの対象である客が「すみませ〜ん」と呼ぶ声や、タスクの対象であるホールスタッフチーフが「こちらを手伝って」と呼ぶ声が検出された場合に、第1タスクが発生したと特定されてもよい。また、例えば、HMD100がサーモグラフィを備える構成とし、かかるサーモグラフィを、外部情報を取得するセンサーとして用いてもよい。具体的には、料理や飲み物の温度をサーモグラフィで検出し、所定の温度を下回る場合に第1タスクが発生したと特定されてもよい。このようにすることで、料理が冷める前に「料理を提供する」タスクを実行し得るという理由からである。このような構成においても、上記各実施形態と同様な効果を奏する。
上記各実施形態において、第1タスク発生特定部は、撮像画像における対象の状態に代えて、または、撮像画像における対象の状態に加えて、外部情報を取得するセンサーの検出結果を利用して第1タスクの発生を特定してもよい。「外部情報を取得するセンサー」とは、HMD100の使用者の視覚、嗅覚、聴覚等の五感の少なくともいずれかを介して、対象の状態を検出可能なセンサーを意味する。例えば、マイク63を、外部情報を取得するセンサーとして用いてもよい。この場合、マイク63に入力される音声として、タスクの対象である客が「すみませ〜ん」と呼ぶ声や、タスクの対象であるホールスタッフチーフが「こちらを手伝って」と呼ぶ声が検出された場合に、第1タスクが発生したと特定されてもよい。また、例えば、HMD100がサーモグラフィを備える構成とし、かかるサーモグラフィを、外部情報を取得するセンサーとして用いてもよい。具体的には、料理や飲み物の温度をサーモグラフィで検出し、所定の温度を下回る場合に第1タスクが発生したと特定されてもよい。このようにすることで、料理が冷める前に「料理を提供する」タスクを実行し得るという理由からである。このような構成においても、上記各実施形態と同様な効果を奏する。
本発明は、上述の実施形態に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態中の技術的特徴は、上述の課題の一部又は全部を解決するために、あるいは、上述の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
E.他の形態:
(1)本発明の一実施形態によれば、透過型頭部装着型表示装置が提供される。この透過型頭部装着型表示装置は、外景を透過し、該外景とともに視認できるように表示対象の画像を表示する画像表示部と;撮像部と;前記撮像部により撮像された撮像画像から前記透過型頭部装着型表示装置の使用者が実行すべきタスクとして予め定められたタスクの対象を特定する対象特定部と;前記撮像画像における前記対象の状態に基づいて、前記タスクが発生したか否かを特定するタスク発生特定部と;前記タスクが発生したと特定された場合に、前記タスクに関連する関連情報を前記画像表示部に表示させる表示制御部と;を備える。
この形態の透過型頭部装着型表示装置によれば、撮像画像から使用者が実行すべきタスクの対象が特定され、撮像画像における対象の状態に基づいて、タスクが発生したか否かが特定され、タスクが発生したと特定された場合に関連情報が表示されるので、使用者はタスクが発生したことを容易に認識できる。
(1)本発明の一実施形態によれば、透過型頭部装着型表示装置が提供される。この透過型頭部装着型表示装置は、外景を透過し、該外景とともに視認できるように表示対象の画像を表示する画像表示部と;撮像部と;前記撮像部により撮像された撮像画像から前記透過型頭部装着型表示装置の使用者が実行すべきタスクとして予め定められたタスクの対象を特定する対象特定部と;前記撮像画像における前記対象の状態に基づいて、前記タスクが発生したか否かを特定するタスク発生特定部と;前記タスクが発生したと特定された場合に、前記タスクに関連する関連情報を前記画像表示部に表示させる表示制御部と;を備える。
この形態の透過型頭部装着型表示装置によれば、撮像画像から使用者が実行すべきタスクの対象が特定され、撮像画像における対象の状態に基づいて、タスクが発生したか否かが特定され、タスクが発生したと特定された場合に関連情報が表示されるので、使用者はタスクが発生したことを容易に認識できる。
(2)上記形態の透過型頭部装着型表示装置において、通信部と;前記タスクが発生したと特定された場合に前記通信部を介して前記関連情報を提供する関連情報提供部と;をさらに備えていてもよい。この形態の透過型頭部装着型表示装置によれば、タスクが発生したと特定された場合に通信部を介して関連情報が提供されるので、透過型頭部装着型表示装置とは異なる装置の使用者は、容易に関連情報を取得できる。
(3)上記形態の透過型頭部装着型表示装置において、前記撮像画像における前記対象の視線を検出する視線検出部を;さらに備え;前記タスク発生特定部は、前記対象が前記使用者を見ている状態である場合に、前記タスクが発生したと特定してもよい。この形態の透過型頭部装着型表示装置によれば、撮像画像における対象の視線が検出され、対象が使用者を見ている状態である場合にタスクが発生したと特定されるので、タスクが発生したか否かを容易に特定できる。
(4)上記形態の透過型頭部装着型表示装置において、前記対象の位置を特定する対象位置特定部と;前記使用者の位置を特定する使用者位置特定部と;をさらに備え;前記タスク発生特定部は、前記対象が前記使用者から予め定められた距離以上離れている状態の場合に、前記タスクが発生していないと特定してもよい。この形態の透過型頭部装着型表示装置によれば、対象が使用者から予め定められた距離以上離れている状態の場合にタスクが発生していないと特定されるので、タスクが発生したか否かを精度よく特定できる。
(5)上記形態の透過型頭部装着型表示装置において、前記対象の位置を特定する対象位置特定部を;さらに備え;前記関連情報は、前記対象の位置を示す情報を含んでもよい。この形態の透過型頭部装着型表示装置によれば、関連情報は、対象の位置を示す情報を含むので、使用者が対象を探す手間を低減できる。
(6)本発明の他の実施形態によれば、支援システムが提供される。この支援システムは、第1使用者に装着される第1透過型頭部装着型表示装置;前記第1使用者とは異なる1以上の第2使用者に装着される1以上の第2透過型頭部装着型表示装置と;を含む複数の透過型頭部装着型表示装置を備え;前記第1透過型頭部装着型表示装置は、外景を透過し、該外景とともに視認できるように表示対象の画像を表示する第1画像表示部と;第1通信部と;撮像部と;前記撮像部により撮像された撮像画像から前記第1使用者が実行すべきタスクとして予め定められた第1タスクの対象を特定する対象特定部と;前記撮像画像における前記対象の状態に基づいて、前記第1タスクが発生したか否かを特定する第1タスク発生特定部と;前記第1タスクが発生したと特定された場合に、前記タスクに関連する第1関連情報を前記第1画像表示部に表示させる第1表示制御部と;前記第1タスクが発生したと特定された場合に、前記第1通信部を介して前記第1関連情報を提供する関連情報提供部と;を有し;前記第2透過型頭部装着型表示装置は、前記外景を透過し、前記外景とともに視認できるように表示対象の画像を表示する第2画像表示部と;第2通信部と;前記第2通信部による通信によって前記第1関連情報を取得する第1関連情報取得部と;取得された前記第1関連情報を前記第2画像表示部に表示させる第2表示制御部と;を有する。
この形態の支援システムによれば、第1透過型頭部装着型表示装置において、第1タスクが発生したと特定された場合に、第1関連情報が表示され、第1関連情報が提供され、第2透過型頭部装着型表示装置において、取得された第1関連情報が表示されるので、第1透過型頭部装着型表示装置の使用者および第2透過型頭部装着型表示装置の使用者は、第1タスクが発生したことを容易に認識できる。
(7)上記形態の支援システムにおいて、前記第1透過型頭部装着型表示装置は、前記対象の位置を特定する対象位置特定部と;前記第1使用者の動作を検出する動作検出部と;前記第1タスクが完了したか否かを特定する第1タスク完了特定部と;を備え;前記第1タスク完了特定部は、特定された前記対象の位置における前記第1使用者の動作が予め定められた動作と同じ動作である場合に、前記第1タスクが完了したと特定してもよい。
この形態の支援システムによれば、特定された対象の位置における第1使用者の動作が予め定められた動作と同じ動作である場合に、第1タスクが完了したと特定されるので、第1タスクが完了したか否かを容易に特定できる。
この形態の支援システムによれば、特定された対象の位置における第1使用者の動作が予め定められた動作と同じ動作である場合に、第1タスクが完了したと特定されるので、第1タスクが完了したか否かを容易に特定できる。
(8)上記形態の支援システムにおいて、前記第1透過型頭部装着型表示装置は、前記第2使用者の実行すべき前記タスクであって、前記第1タスクとは異なる第2タスクが発生したか否かを特定する第2タスク発生特定部を;さらに備え;前記第2タスク発生特定部は、前記第1タスクが完了していないと特定された場合に、前記第2タスクが発生したと特定してもよい。
この形態の支援システムによれば、第1タスクが完了していないと特定された場合に第2タスクが発生したと特定されるので、第2タスクが発生したか否かを容易に、また、精度よく特定できる。
この形態の支援システムによれば、第1タスクが完了していないと特定された場合に第2タスクが発生したと特定されるので、第2タスクが発生したか否かを容易に、また、精度よく特定できる。
(9)上記形態の支援システムにおいて、複数の前記第2使用者に装着される複数の前記第2透過型頭部装着型表示装置を備え;前記第1透過型頭部装着型表示装置は、各前記第2使用者の位置を前記第1通信部による通信によって取得する位置取得部と;各前記第2使用者の負荷状況を前記第1通信部による通信によって取得する負荷状況取得部と;複数の前記第2使用者のうちのいずれかの前記第2使用者が実行すべき前記タスクであって、前記第1タスクとは異なる第2タスクの実行者を決定する実行者決定部と;をさらに備え;前記実行者決定部は、取得された各前記第2使用者の位置と、取得された各前記第2使用者の負荷状況と、に基づいて、前記実行者を決定してもよい。
この形態の支援システムによれば、取得された各第2使用者の位置と取得された各第2使用者の負荷状況とに基づいて実行者が決定されるので、支援システム内において適切な使用者を実行者として決定できる。
この形態の支援システムによれば、取得された各第2使用者の位置と取得された各第2使用者の負荷状況とに基づいて実行者が決定されるので、支援システム内において適切な使用者を実行者として決定できる。
(10)上記形態の支援システムにおいて、前記実行者決定部は、予め定められた前記第2タスクの優先度と、各前記第2使用者の予め定められた習熟度と、を利用して、前記実行者を決定してもよい。この形態の支援システムによれば、予め定められた第2タスクの優先度と各第2使用者の予め定められた習熟度とを利用して、実行者が決定されるので、タスクが実行される場所や使用者の習熟度に応じて適切な使用者を実行者として決定できる。
(11)上記形態の支援システムにおいて、前記第2透過型頭部装着型表示装置は、前記第2通信部による通信によって前記第2タスクに関連する第2関連情報を取得する第2関連情報取得部を;さらに備え;前記第2表示制御部は、取得された前記第2関連情報を前記第2画像表示部に表示させてもよい。この形態の支援システムによれば、第2関連情報を第2画像表示部に表示させるので、第2タスクの実行者に第2関連情報を知らしめることができる。
(12)上記形態の支援システムにおいて、前記第2表示制御部は、前記実行者の前記第2タスクの習熟度に応じて前記第2関連情報を異ならせて表示させてもよい。この形態の支援システムによれば、実行者の第2タスクの習熟度に応じて第2関連情報を異ならせて表示させるので、第2タスクの習熟度の低い実行者にはより多くの第2関連情報を表示させることができ、また、第2タスクの習熟度の高い実行者にはより少ない第2関連情報を表示させることができ、第2タスクの実行者に適切な情報を表示できる。
本発明は、種々の形態で実現することも可能である。例えば、透過型頭部装着型表示装置における表示制御方法、支援システム、これらの方法およびシステムの機能を実現するためのコンピュータープログラム、かかるコンピュータープログラムを記録した記録媒体等の形態で実現できる。
1…作業支援システム、10…第1制御装置、12…点灯部、14…トラックパッド、16…方向キー、17…決定キー、18…電源スイッチ、19…バイブレーター、20…第1画像表示部、21…右保持部、22…右表示ユニット、23…左保持部、24…左表示ユニット、26…右導光板、27…前部フレーム、28…左導光板、30…ヘッドセット、32…右イヤホン、34…左イヤホン、40…接続ケーブル、46…コネクター、61…カメラ、63…マイク、65…照度センサー、67…LEDインジケーター、100…第1透過型頭部装着型表示装置、110…操作部、111…6軸センサー、113…磁気センサー、115…GNSSレシーバー、117…無線通信部、118…メモリー、120…コントローラー基板、121…不揮発性記憶部、122…記憶機能部、123…設定データ格納部、124…コンテンツデータ格納部、125…タスクデータ格納部、130…電源部、132…バッテリー、134…電源制御回路、140…メインプロセッサー、145…画像処理部、147…第1表示制御部、149…撮像制御部、150…第1制御機能部、151…入出力制御部、153…対象特定部、155…第1タスク発生特定部、157…第1タスク完了特定部、159…関連情報提供部、161…視線検出部、163…対象位置特定部、165…第1動作検出部、167…第2タスク発生特定部、169…第2タスク完了特定部、171…位置取得部、173…負荷状況取得部、175…実行者決定部、180…音声コーデック、182…音声インターフェイス、184…外部コネクター、186…外部メモリーインターフェイス、188…USBコネクター、192…センサーハブ、196…インターフェイス、200…第2透過型頭部装着型表示装置、209…表示ユニット基板、210…第2制御装置、211…インターフェイス、213…受信部、215…EEPROM、217…温度センサー、220…第2画像表示部、221…OLEDユニット、223…OLEDパネル、225…OLED駆動回路、230…表示ユニット基板、231…インターフェイス、233…受信部、235…6軸センサー、237…磁気センサー、239…温度センサー、241…OLEDユニット、243…OLEDパネル、245…OLED駆動回路、251…右光学系、252…左光学系、261…ハーフミラー、281…ハーフミラー、300…第3透過型頭部装着型表示装置、310…第3制御装置、320…第3画像表示部、450…第2制御機能部、455…第2表示制御部、457…関連情報取得部、459…位置提供部、461…負荷状況提供部、550…第3制御機能部、555…第3表示制御部、557…関連情報取得部、559…位置提供部、561…負荷状況提供部、563…第2動作検出部、565…第2タスク完了特定部、AI…対象画像、BS…レンタルビデオショップ、CI…撮像画像、EL…端部、ER…端部、KI1…関連情報画像、KI2…関連情報画像、KI3…関連情報画像、KI4…関連情報画像、KI5…関連情報画像、KI6…関連情報画像、KI7…関連情報画像、KI8…関連情報画像、KI9…関連情報画像、KI10…関連情報画像、KI11…関連情報画像、L…画像光、LE…左眼、Mp…店内マップ画像、OB…対象物、OL…外光、PN…表示領域、PN1…表示領域、PN2…表示領域、PN3…表示領域、PN4…表示領域、RD…視線、RE…右眼、Rst…飲食店、SC…外景、Sh…食器棚、TL…タスクデータ、Tg1…客、US1…第1使用者、US2…第2使用者、US3…第3使用者、VT…視界、VT1…視界、VT2…視界、VT3…視界、VT4…視界、d1…皿、d2…皿、d3…皿
Claims (14)
- 透過型頭部装着型表示装置であって、
外景を透過し、該外景とともに視認できるように表示対象の画像を表示する画像表示部と、
撮像部と、
前記撮像部により撮像された撮像画像から前記透過型頭部装着型表示装置の使用者が実行すべきタスクとして予め定められたタスクの対象を特定する対象特定部と、
前記撮像画像における前記対象の状態に基づいて、前記タスクが発生したか否かを特定するタスク発生特定部と、
前記タスクが発生したと特定された場合に、前記タスクに関連する関連情報を前記画像表示部に表示させる表示制御部と、
を備える、
透過型頭部装着型表示装置。 - 請求項1に記載の透過型頭部装着型表示装置であって、
通信部と、
前記タスクが発生したと特定された場合に前記通信部を介して前記関連情報を提供する関連情報提供部と、
をさらに備える、
透過型頭部装着型表示装置。 - 請求項1または請求項2に記載の透過型頭部装着型表示装置であって、
前記撮像画像における前記対象の視線を検出する視線検出部を、さらに備え、
前記タスク発生特定部は、前記対象が前記使用者を見ている状態である場合に、前記タスクが発生したと特定する、
透過型頭部装着型表示装置。 - 請求項1から請求項3までのいずれか一項に記載の透過型頭部装着型表示装置であって、
前記対象の位置を特定する対象位置特定部と、
前記使用者の位置を特定する使用者位置特定部と、
をさらに備え、
前記タスク発生特定部は、前記対象が前記使用者から予め定められた距離以上離れている状態の場合に、前記タスクが発生していないと特定する、
透過型頭部装着型表示装置。 - 請求項1から請求項4までのいずれか一項に記載の透過型頭部装着型表示装置であって、
前記対象の位置を特定する対象位置特定部を、さらに備え、
前記関連情報は、前記対象の位置を示す情報を含む、
透過型頭部装着型表示装置。 - 支援システムであって、
第1使用者に装着される第1透過型頭部装着型表示装置と、
前記第1使用者とは異なる1以上の第2使用者に装着される1以上の第2透過型頭部装着型表示装置と、
を含む複数の透過型頭部装着型表示装置を備え、
前記第1透過型頭部装着型表示装置は、
外景を透過し、該外景とともに視認できるように表示対象の画像を表示する第1画像表示部と、
第1通信部と、
撮像部と、
前記撮像部により撮像された撮像画像から前記第1使用者が実行すべきタスクとして予め定められた第1タスクの対象を特定する対象特定部と、
前記撮像画像における前記対象の状態に基づいて、前記第1タスクが発生したか否かを特定する第1タスク発生特定部と、
前記第1タスクが発生したと特定された場合に、前記タスクに関連する第1関連情報を前記第1画像表示部に表示させる第1表示制御部と、
前記第1タスクが発生したと特定された場合に、前記第1通信部を介して前記第1関連情報を提供する関連情報提供部と、
を有し、
前記第2透過型頭部装着型表示装置は、
前記外景を透過し、前記外景とともに視認できるように表示対象の画像を表示する第2画像表示部と、
第2通信部と、
前記第2通信部による通信によって前記第1関連情報を取得する第1関連情報取得部と、
取得された前記第1関連情報を前記第2画像表示部に表示させる第2表示制御部と、
を有する、
支援システム。 - 請求項6に記載の支援システムであって、
前記第1透過型頭部装着型表示装置は、
前記対象の位置を特定する対象位置特定部と、
前記第1使用者の動作を検出する動作検出部と、
前記第1タスクが完了したか否かを特定する第1タスク完了特定部と、
を備え、
前記第1タスク完了特定部は、特定された前記対象の位置における前記第1使用者の動作が予め定められた動作と同じ動作である場合に、前記第1タスクが完了したと特定する、
支援システム。 - 請求項6または請求項7に記載の支援システムであって、
前記第1透過型頭部装着型表示装置は、
前記第2使用者の実行すべき前記タスクであって、前記第1タスクとは異なる第2タスクが発生したか否かを特定する第2タスク発生特定部を、さらに備え、
前記第2タスク発生特定部は、前記第1タスクが完了していないと特定された場合に、前記第2タスクが発生したと特定する、
支援システム。 - 請求項6から請求項8までのいずれか一項に記載の支援システムであって、
複数の前記第2使用者に装着される複数の前記第2透過型頭部装着型表示装置を備え、
前記第1透過型頭部装着型表示装置は、
各前記第2使用者の位置を前記第1通信部による通信によって取得する位置取得部と、
各前記第2使用者の負荷状況を前記第1通信部による通信によって取得する負荷状況取得部と、
複数の前記第2使用者のうちのいずれかの前記第2使用者が実行すべき前記タスクであって、前記第1タスクとは異なる第2タスクの実行者を決定する実行者決定部と、
をさらに備え、
前記実行者決定部は、取得された各前記第2使用者の位置と、取得された各前記第2使用者の負荷状況と、に基づいて、前記実行者を決定する、
支援システム。 - 請求項9に記載の支援システムであって、
前記実行者決定部は、予め定められた前記第2タスクの優先度と、各前記第2使用者の予め定められた習熟度と、を利用して、前記実行者を決定する、
支援システム。 - 請求項9または請求項10に記載の支援システムであって、
前記第2透過型頭部装着型表示装置は、
前記第2通信部による通信によって前記第2タスクに関連する第2関連情報を取得する第2関連情報取得部を、さらに備え、
前記第2表示制御部は、取得された前記第2関連情報を前記第2画像表示部に表示させる、
支援システム。 - 請求項11に記載の支援システムであって、
前記第2表示制御部は、前記実行者の前記第2タスクの習熟度に応じて前記第2関連情報を異ならせて表示させる、
支援システム。 - 外景を透過し、該外景とともに視認できるように表示対象の画像を表示する画像表示部と、撮像部と、を備える透過型頭部装着型表示装置における表示制御方法であって、
前記撮像部により撮像された撮像画像から前記透過型頭部装着型表示装置の使用者が実行すべきタスクとして予め定められたタスクの対象を特定する工程と、
前記撮像画像における前記対象の状態に基づいて、前記タスクが発生したか否かを特定する工程と、
前記タスクが発生したと特定された場合に、前記タスクに関連する関連情報を前記画像表示部に表示させる工程と、
を備える、
表示制御方法。 - 外景を透過し、該外景とともに視認できるように表示対象の画像を表示する画像表示部と、撮像部と、を備える透過型頭部装着型表示装置における表示制御を実現するためのコンピュータープログラムであって、
前記撮像部により撮像された撮像画像から前記透過型頭部装着型表示装置の使用者が実行すべきタスクとして予め定められたタスクの対象を特定する機能と、
前記撮像画像における前記対象の状態に基づいて、前記タスクが発生したか否かを特定する機能と、
前記タスクが発生したと特定された場合に、前記タスクに関連する関連情報を前記画像表示部に表示させる機能と、
をコンピューターに実現させるための、
コンピュータープログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018080322A JP2019191675A (ja) | 2018-04-19 | 2018-04-19 | 透過型頭部装着型表示装置、支援システム、表示制御方法、およびコンピュータープログラム |
CN201910312996.2A CN110389447B (zh) | 2018-04-19 | 2019-04-18 | 透射型头部佩戴型显示装置、辅助系统、显示控制方法和介质 |
US16/387,710 US11215831B2 (en) | 2018-04-19 | 2019-04-18 | Transmissive head mounted display apparatus, support system, display control method, and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018080322A JP2019191675A (ja) | 2018-04-19 | 2018-04-19 | 透過型頭部装着型表示装置、支援システム、表示制御方法、およびコンピュータープログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019191675A true JP2019191675A (ja) | 2019-10-31 |
Family
ID=68237755
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018080322A Pending JP2019191675A (ja) | 2018-04-19 | 2018-04-19 | 透過型頭部装着型表示装置、支援システム、表示制御方法、およびコンピュータープログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11215831B2 (ja) |
JP (1) | JP2019191675A (ja) |
CN (1) | CN110389447B (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021079802A1 (ja) | 2019-10-21 | 2021-04-29 | 株式会社アマダ | ワーク撮影画像処理装置、ワーク撮影画像処理方法、及び加工システム |
JP7506135B2 (ja) | 2022-11-15 | 2024-06-25 | ソフトバンク株式会社 | 情報処理装置、プログラム、及び表示方法 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3733139A1 (en) * | 2019-05-02 | 2020-11-04 | Gensight Biologics | Viewing apparatus and method for projecting a light signal |
US11297224B2 (en) * | 2019-09-30 | 2022-04-05 | Snap Inc. | Automated eyewear device sharing system |
JP2021119364A (ja) * | 2020-01-30 | 2021-08-12 | セイコーエプソン株式会社 | 表示装置、表示装置の制御方法およびプログラム |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008113317A (ja) | 2006-10-31 | 2008-05-15 | Konica Minolta Holdings Inc | 遠隔作業支援システム |
US20090099898A1 (en) * | 2007-10-15 | 2009-04-16 | I.D Systems, Inc. | System and method for managing work requests for mobile assets |
US10621798B2 (en) * | 2008-02-05 | 2020-04-14 | Madhavi Jayanthi | Vehicle installed mobile device and server for task assignments and collaboration |
JP2010139589A (ja) | 2008-12-10 | 2010-06-24 | Konica Minolta Opto Inc | 映像表示装置およびヘッドマウントディスプレイ |
US9285871B2 (en) * | 2011-09-30 | 2016-03-15 | Microsoft Technology Licensing, Llc | Personal audio/visual system for providing an adaptable augmented reality environment |
US20140081691A1 (en) * | 2012-09-20 | 2014-03-20 | Morton Wendell | Systems and methods for workflow automation |
JP6375591B2 (ja) * | 2013-01-15 | 2018-08-22 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、画像表示システム |
US9904356B2 (en) * | 2013-05-28 | 2018-02-27 | The Boeing Company | Tracking a user to support tasks performed on complex-system components |
US9053654B2 (en) * | 2013-09-30 | 2015-06-09 | John Sherman | Facilitating user input via arm-mounted peripheral device interfacing with head-mounted display device |
US10558325B2 (en) * | 2013-12-01 | 2020-02-11 | Upskill, Inc. | Systems and methods for controlling operation of an on-board component |
US10235646B2 (en) * | 2015-04-10 | 2019-03-19 | Teletracking Technologies, Inc. | Systems and methods for automated real-time task scheduling and management |
US20170193302A1 (en) * | 2016-01-05 | 2017-07-06 | Daqri, Llc | Task management system and method using augmented reality devices |
US10540550B2 (en) * | 2017-03-20 | 2020-01-21 | Mastercard International Incorporated | Augmented reality systems and methods for service providers |
CN107172390A (zh) * | 2017-05-12 | 2017-09-15 | 广州市和佳电子科技有限公司 | 一种基于智能眼镜为终端平台的可视化系统及实现方法 |
CN107911688A (zh) | 2017-10-23 | 2018-04-13 | 国网浙江杭州市萧山区供电公司 | 一种基于增强现实装置的供电作业现场协同方法 |
US10311646B1 (en) * | 2018-02-26 | 2019-06-04 | Capital One Services, Llc | Dynamic configuration of an augmented reality overlay |
-
2018
- 2018-04-19 JP JP2018080322A patent/JP2019191675A/ja active Pending
-
2019
- 2019-04-18 US US16/387,710 patent/US11215831B2/en active Active
- 2019-04-18 CN CN201910312996.2A patent/CN110389447B/zh active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021079802A1 (ja) | 2019-10-21 | 2021-04-29 | 株式会社アマダ | ワーク撮影画像処理装置、ワーク撮影画像処理方法、及び加工システム |
JP7506135B2 (ja) | 2022-11-15 | 2024-06-25 | ソフトバンク株式会社 | 情報処理装置、プログラム、及び表示方法 |
Also Published As
Publication number | Publication date |
---|---|
US11215831B2 (en) | 2022-01-04 |
CN110389447A (zh) | 2019-10-29 |
CN110389447B (zh) | 2022-08-30 |
US20190324275A1 (en) | 2019-10-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110389447B (zh) | 透射型头部佩戴型显示装置、辅助系统、显示控制方法和介质 | |
CN110275297B (zh) | 头部佩戴型显示装置、显示控制方法以及记录介质 | |
CN108535868B (zh) | 头部佩戴型显示装置及其控制方法 | |
JP2018160735A (ja) | 透過型表示装置、表示制御方法、およびコンピュータープログラム | |
JP2018082363A (ja) | 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム | |
US11675217B2 (en) | Wearable proximity sensing array for the visually impaired | |
US10908425B2 (en) | Transmission-type head mounted display apparatus, display control method, and computer program | |
US20230266596A1 (en) | Compact catadioptric projector | |
US20230412778A1 (en) | Projector with field lens | |
US12002392B2 (en) | Eyewear projector brightness control | |
US11933977B2 (en) | Eyewear eye-tracking using optical waveguide | |
US11880039B2 (en) | Polarized reflective pinhole mirror display | |
JP6784056B2 (ja) | 頭部装着型表示装置、表示システム、頭部装着型表示装置の制御方法、およびコンピュータープログラム | |
US11454816B1 (en) | Segmented illumination display | |
JP2019053644A (ja) | 頭部装着型表示装置、及び頭部装着型表示装置の制御方法 | |
JP2017182413A (ja) | 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム | |
US11852500B1 (en) | Navigation assistance for the visually impaired | |
US20220342222A1 (en) | Eyewear having a projector with heat sink shields | |
JP2018056791A (ja) | 表示装置、受信装置、プログラム、及び受信装置の制御方法。 | |
JP2018067160A (ja) | 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム | |
EP4222944A1 (en) | Image capture eyewear with automatic image sending to recipients determined based on context | |
JP2018097144A (ja) | 頭部装着型表示装置、表示システム、頭部装着型表示装置の制御方法、およびコンピュータープログラム |