JP2016096488A - 頭部装着型表示装置、表示システム、頭部装着型表示装置の制御方法、および、コンピュータープログラム - Google Patents

頭部装着型表示装置、表示システム、頭部装着型表示装置の制御方法、および、コンピュータープログラム Download PDF

Info

Publication number
JP2016096488A
JP2016096488A JP2014232342A JP2014232342A JP2016096488A JP 2016096488 A JP2016096488 A JP 2016096488A JP 2014232342 A JP2014232342 A JP 2014232342A JP 2014232342 A JP2014232342 A JP 2014232342A JP 2016096488 A JP2016096488 A JP 2016096488A
Authority
JP
Japan
Prior art keywords
image
unit
head
display device
scenario
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014232342A
Other languages
English (en)
Other versions
JP6488661B2 (ja
Inventor
青沼 正志
Masashi Aonuma
正志 青沼
高野 正秀
Masahide Takano
正秀 高野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2014232342A priority Critical patent/JP6488661B2/ja
Priority to CN201510623115.0A priority patent/CN105607253B/zh
Priority to US14/919,231 priority patent/US9746914B2/en
Publication of JP2016096488A publication Critical patent/JP2016096488A/ja
Priority to US15/657,937 priority patent/US10185388B2/en
Application granted granted Critical
Publication of JP6488661B2 publication Critical patent/JP6488661B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】外景に含まれる特定の対象物を検出し、検出した特定の対象物に対応付けた動画像を表示する頭部装着型表示装置を提供する。【解決手段】透過型の頭部装着型表示装置であっては;外景の中から第1の対象を検出する検出部と;外景を透過可能で、画像を表示可能な画像表示部と;検出された第1の対象に対応付けられた動画像である第1の動画像を画像表示部に表示させる表示画像設定部と、を備える。【選択図】図1

Description

本発明は、頭部装着型表示装置の技術に関する。
頭部に装着する表示装置である頭部装着型表示装置(ヘッドマウントディスプレイ(Head Mounted Display)、HMD)が知られている。頭部装着型表示装置は、例えば、液晶ディスプレイおよび光源を利用して画像光を生成し、生成された画像光を投写光学系や導光板を利用して使用者の眼に導くことにより、使用者に虚像を視認させる。頭部装着型表示装置には、使用者が虚像に加えて外景も視認可能な透過型と、使用者が外景を視認できない非透過型と、の2つのタイプがある。透過型の頭部装着型表示装置には、光学透過型とビデオ透過型とがある。
特許文献1には、所定の範囲に静止している静止物体に対して超音波を照射することで、超音波を照射した超音波センサーから静止物体までの距離情報を取得し、距離情報に基づいて静止物体の立体像を取得する物体の自動認識方法が開示されている。また、特許文献2には、ゴルフクラブのヘッドに慣性センサーのデータを取得するセンサーユニットが搭載され、使用者が当該ゴルフクラブをスイングすると、当該ゴルフクラブと無線通信によって接続されている解析処理装置が慣性センサーによって取得されたデータを解析するゴルフクラブの解析システムが開示されている。
特開平8−75418号公報 特開2011−60462号公報
しかし、特許文献1に記載された技術では、1つの静止した物体の立体像を認識することしかできず、動いている物体や複数の物体の立体像を認識したいという課題があった。また、特許文献2に記載された技術では、センサーユニットが搭載されたゴルフクラブの慣性のデータは取得できるものの、センサーが搭載されていない物体についての動きなどのデータが取得できず、これらのデータを取得したいという課題があった。そのほか、従来の頭部装着型表示装置においては、使い勝手の向上等が望まれていた。
本発明は、上述の課題を解決するためになされたものであり、以下の形態として実現することが可能である。
(1)本発明の一形態によれば、透過型の頭部装着型表示装置が提供される。この頭部装着型表示装置は、外景の中から第1の対象を検出する検出部と;前記外景を透過可能で、画像を表示可能な画像表示部と;検出された前記第1の対象に対応付けられた動画像である第1の動画像を前記画像表示部に表示させる表示画像設定部と、を備える。この形態の頭部装着型表示装置によれば、使用者は、透過して視認できる実物に合わせて表示される動画像を視認しながら、作業等を行なうことができるため、使用者の作業の効率性などを向上させることができる。
(2)上記形態の頭部装着型表示装置において、前記表示画像設定部は、前記第1の動画像を検出された前記第1の対象の位置に対応付けて表示してもよい。この形態の頭部装着型表示装置によれば、使用者は、実物の位置に合わせて表示される動画像を視認しながら、作業等を行なうことができるため、使用者の作業の効率性などをさらに向上させることができる。
(3)上記形態の頭部装着型表示装置において、前記検出部は、前記外景を撮像し、撮像した撮像画像の中から前記第1の対象を検出してもよい。この形態の頭部装着型表示装置によれば、第1の対象を画像として検出するため、第1の対象の検出の精度を向上させることができる。
(4)上記形態の頭部装着型表示装置において、前記第1の動画像は、検出された前記第1の対象に対して行なわれる作業に関連する動画像であってもよい。この形態の頭部装着型表示装置によれば、使用者は、作業の推奨動作をより認識しやすく、使用者の作業の効率性などがさらに向上する。
(5)上記形態の頭部装着型表示装置において、前記検出部は、前記外景の中から、前記第1の対象とは異なる第2の対象を検出し;前記表示画像設定部は、前記画像表示部に前記第1の動画像を表示させているときに、前記第2の対象が検出されると、前記第1の動画像に代えて、前記第2の対象に対応付けられた前記第1の動画像とは異なる動画像である第2の動画像を前記画像表示部に表示させてもよい。この形態の頭部装着型表示装置によれば、使用者に対して、適宜、状況に適した画像を視認させることができるため、使用者の使い勝手がさらに向上する。
(6)上記形態の頭部装着型表示装置において、さらに;外部の音声を取得する音声取得部を備え;前記表示画像設定部は、検出された前記第1の対象と取得された前記音声との組み合わせに基づいて、前記第1の動画像を前記画像表示部に表示させてもよい。この形態の頭部装着型表示装置によれば、検出された第1の対象に加えて、使用者は、第1の動画像を操作できるため、使用者の使い勝手がさらに向上する。
(7)上記形態の頭部装着型表示装置において、さらに;前記第1の動画像が前記画像表示部に表示されているときに、前記第1の動画像に対応付けられた音声を出力する音声出力部を備えてもよい。この形態の頭部装着型表示装置によれば、使用者に対して、第1の動画像に加えて、音声によっても情報を認識させることができ、使用者は、視覚および聴覚によってより多くの情報を認識でき、使用者の利便性が向上する。
(8)上記形態の頭部装着型表示装置において、さらに;使用者の生体情報を取得する生体情報取得部を備え;前記表示画像設定部は、検出された前記第1の対象と取得された使用者の前記生体情報とに基づいて、前記第1の動画像を前記画像表示部に表示させてもよい。この形態の頭部装着型表示装置によれば、検出された第1の対象に、取得された使用者の生体情報も加えた動画像を使用者に視認させることができ、使用者の利便性がさらに向上する。
(9)上記形態の頭部装着型表示装置において、前記第1の対象と前記第1の動画像との対応付けは、検出された前記第1の対象の種類と前記第1の対象の動きと前記外景における前記第1の対象の位置と前記第1の対象の向きとの少なくとも1つと、前記第1の動画像と、の組み合わせであってもよい。この形態の頭部装着型表示装置によれば、複数の要素によって種々の動画像が選択されるため、使用者は、種々の動画像から簡単に所望の動画像を選択できる。
上述した本発明の各形態の有する複数の構成要素はすべてが必須のものではなく、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、適宜、前記複数の構成要素の一部の構成要素について、その変更、削除、新たな他の構成要素との差し替え、限定内容の一部削除を行なうことが可能である。また、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、上述した本発明の一形態に含まれる技術的特徴の一部または全部を上述した本発明の他の形態に含まれる技術的特徴の一部または全部と組み合わせて、本発明の独立した一形態とすることも可能である。
例えば、本発明の一形態は、検出部と、画像表示部と、表示画像設定部と、3つの要素の内の一つまたは二つ以上を備えた装置として実現可能である。すなわち、この装置は、検出部を有していてもよく、有していなくてもよい。また、装置は、画像表示部を有していてもよく、有していなくてもよい。また、装置は、表示画像設定部を有していてもよく、有していなくてもよい。検出部は、例えば、外景の中から第1の対象を検出してもよい。画像表示部は、例えば、前記外景を透過可能で、画像を表示可能であってもよい。表示画像設定部は、例えば、検出された前記第1の対象に対応付けられた動画像である第1の動画像を前記画像表示部に表示させてもよい。こうした装置は、例えば、頭部装着型表示装置として実現できるが、頭部装着型表示装置以外の他の装置としても実現可能である。このような形態によれば、装置の操作性の向上および簡易化、装置の一体化や、装置を使用する使用者の利便性の向上、等の種々の課題の少なくとも1つを解決することができる。前述した頭部装着型表示装置の各形態の技術的特徴の一部または全部は、いずれもこの装置に適用することが可能である。
本発明は、頭部装着型表示装置以外の種々の形態で実現することも可能である。例えば、表示システム、頭部装着型表示装置の制御方法、頭部装着型表示装置を有する情報システム、頭部装着型表示装置の制御方法および情報システムを実現するためのコンピュータープログラム、そのコンピュータープログラムを記録した記録媒体、および、そのコンピュータープログラムを含み搬送波内に具現化されたデータ信号等の形態で実現できる。
頭部装着型表示装置(HMD)の外観構成を示す説明図である。 HMDの構成を機能的に示すブロック図である。 画像光生成部によって画像光が射出される様子を示す説明図である。 ARシナリオ実行処理のフローチャートである。 複数のARシナリオから実行される第1シナリオを選択するときに使用者が視認する視野を示す説明図である。 ARシナリオに含まれるAR画像が光学像表示部に表示されたときに使用者が視認する視野を示す説明図である。 撮像画像の中から第2の対象が検出されて第2シナリオが実行されたときに使用者が視認する視野を示す説明図である。 撮像画像の中から第3の対象が検出されて第3シナリオが実行されたときに使用者が視認する視野を示す説明図である。 第3シナリオが終了した後に実行される第4シナリオが実行されたときに使用者が視認する視野を示す説明図である。 図9のテキスト画像の内の選択肢が選択された後に使用者が視認する視野を示す画像である。 第2実施形態のHMDの構成を機能的に示すブロック図である。 第1の対象が検出されてタイヤ交換シナリオが実行されたときに使用者が視認する視野を示す説明図である。 タイヤ交換シナリオが実行されているときに第2の対象が検出された場合に使用者が視認する視野を示す説明図である。 第1の対象が検出されたタイヤ交換シナリオが実行されたときに使用者が視認する視野を示す説明図である。 変形例におけるHMDの外観構成を示す説明図である。
A.第1実施形態:
A−1.頭部装着型表示装置(HMD)の構成:
図1は、頭部装着型表示装置100(HMD100)の外観構成を示す説明図である。HMD100は、頭部に装着する表示装置であり、ヘッドマウントディスプレイ(Head Mounted Display、HMD)とも呼ばれる。本実施形態のHMD100は、使用者が虚像を視認すると同時に外景も直接視認可能な光学透過型の頭部装着型表示装置である。なお、本明細書では、HMD100によって使用者が視認する虚像を便宜的に「表示画像」ともいう。
HMD100は、使用者の頭部に装着された状態において使用者に虚像を視認させる画像表示部20と、画像表示部20を制御する制御部10(コントローラー10)と、を備えている。
画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有している。画像表示部20は、右保持部21と、右表示駆動部22と、左保持部23と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、カメラ61と、マイク63と、を含んでいる。右光学像表示部26および左光学像表示部28は、それぞれ、使用者が画像表示部20を装着した際に使用者の右および左の眼前に位置するように配置されている。右光学像表示部26の一端と左光学像表示部28の一端とは、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置で、互いに接続されている。
右保持部21は、右光学像表示部26の他端である端部ERから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。同様に、左保持部23は、左光学像表示部28の他端である端部ELから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。右保持部21および左保持部23は、眼鏡のテンプル(つる)のようにして、使用者の頭部に画像表示部20を保持する。
右表示駆動部22と左表示駆動部24とは、使用者が画像表示部20を装着した際の使用者の頭部に対向する側に配置されている。なお、以降では、右保持部21および左保持部23を総称して単に「保持部」とも呼び、右表示駆動部22および左表示駆動部24を総称して単に「表示駆動部」とも呼び、右光学像表示部26および左光学像表示部28を総称して単に「光学像表示部」とも呼ぶ。
表示駆動部22,24は、液晶ディスプレイ241,242(Liquid Crystal Display、以下「LCD241,242」とも呼ぶ)や投写光学系251,252等を含む(図2参照)。表示駆動部22,24の構成の詳細は後述する。光学部材としての光学像表示部26,28は、導光板261,262(図2参照)と調光板とを含んでいる。導光板261,262は、光透過性の樹脂材料等によって形成され、表示駆動部22,24から出力された画像光を使用者の眼に導く。調光板は、薄板状の光学素子であり、使用者の眼の側とは反対の側である画像表示部20の表側を覆うように配置されている。調光板は、導光板261,262を保護し、導光板261,262の損傷や汚れの付着等を抑制する。また、調光板の光透過率を調整することによって、使用者の眼に入る外光量を調整して虚像の視認のしやすさを調整できる。なお、調光板は省略可能である。
カメラ61は、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置に配置されている。そのため、カメラ61は、使用者が画像表示部20を頭部に装着した状態において、使用者の視線方向の外部の景色である外景を撮像し、撮像された画像である撮像画像を取得する。カメラ61は、単眼カメラであるが、ステレオカメラであってもよい。
マイク63は、外部の音声を取得する。マイク63は、使用者が画像表示部20を装着した際の右表示駆動部22における使用者と対向する側の反対側(外側)に配置されている。なお、マイク63は、請求項における音声取得部に相当する。
画像表示部20は、さらに、画像表示部20を制御部10に接続するための接続部40を有している。接続部40は、制御部10に接続される本体コード48と、右コード42と、左コード44と、連結部材46と、を含んでいる。右コード42と左コード44とは、本体コード48が2本に分岐したコードである。右コード42は、右保持部21の延伸方向の先端部APから右保持部21の筐体内に挿入され、右表示駆動部22に接続されている。同様に、左コード44は、左保持部23の延伸方向の先端部APから左保持部23の筐体内に挿入され、左表示駆動部24に接続されている。連結部材46は、本体コード48と、右コード42および左コード44と、の分岐点に設けられ、イヤホンプラグ30を接続するためのジャックを有している。イヤホンプラグ30からは、右イヤホン32および左イヤホン34が延伸している。
画像表示部20と制御部10とは、接続部40を介して各種信号の伝送を行なう。本体コード48における連結部材46の反対側の端部と、制御部10と、のそれぞれには、互いに嵌合するコネクター(図示しない)が設けられている。本体コード48のコネクターと制御部10のコネクターとの嵌合/嵌合解除により、制御部10と画像表示部20とが接続されたり切り離されたりする。右コード42と、左コード44と、本体コード48とには、例えば、金属ケーブルや光ファイバーを採用できる。
制御部10は、HMD100を制御するための装置である。制御部10は、決定キー11と、点灯部12と、表示切替キー13と、トラックパッド14と、輝度切替キー15と、方向キー16と、メニューキー17と、電源スイッチ18と、を含んでいる。決定キー11は、押下操作を検出して、制御部10で操作された内容を決定する信号を出力する。点灯部12は、HMD100の動作状態を、その発光状態によって通知する。HMD100の動作状態としては、例えば、電源のON/OFF等がある。点灯部12としては、例えば、LEDが用いられる。表示切替キー13は、押下操作を検出して、例えば、コンテンツ動画の表示モードを3Dと2Dとに切り替える信号を出力する。トラックパッド14は、トラックパッド14の操作面上での使用者の指の操作を検出して、検出内容に応じた信号を出力する。トラックパッド14としては、静電式や圧力検出式、光学式といった種々のトラックパッドを採用できる。輝度切替キー15は、押下操作を検出して、画像表示部20の輝度を増減する信号を出力する。方向キー16は、上下左右方向に対応するキーへの押下操作を検出して、検出内容に応じた信号を出力する。電源スイッチ18は、スイッチのスライド操作を検出することで、HMD100の電源投入状態を切り替える。
図2は、HMD100の構成を機能的に示すブロック図である。図2に示すように、制御部10は、記憶部120と、電源130と、操作部135と、無線通信部132と、シナリオデータベース138(シナリオDB138)と、CPU140と、インターフェイス180と、送信部51(Tx51)および送信部52(Tx52)と、を有している。操作部135は、使用者による操作を受け付け、決定キー11、表示切替キー13、トラックパッド14、輝度切替キー15、方向キー16、メニューキー17、電源スイッチ18、から構成されている。
電源130は、HMD100の各部に電力を供給する。電源130としては、例えば二次電池を用いることができる。無線通信部132は、無線LANやブルートゥースといった所定の無線通信規格に則って、例えば、コンテンツサーバー、テレビ、パーソナルコンピューターといった他の機器との間で無線通信を行なう。
記憶部120は、ROMやRAM等によって構成されている。記憶部120のROMには、種々のコンピュータープログラムが格納されている。後述するCPU140は、記憶部120のROMから各種コンピュータープログラムを読み取り、記憶部120のRAMに格納することで、各種コンピュータープログラムを実行する。
シナリオDB138は、AR(Augmented Reality)画像を含む複数の動画であるARシナリオを記憶している。本実施形態におけるARシナリオは、カメラ61の撮像画像の中から予め設定された特定の対象物が検出されると、画像表示部20に表示されるAR画像や、イヤホン32,34を介して出力される音声を含む動画である。他の実施形態では、単に、何らかの動画を含むデータをARシナリオとしてみなすこともでき、ARシナリオに含まれる動画としては、テキスト画像のポップアップ等であってもよい。シナリオDB138は、複数のARシナリオをいくつかのカテゴリーに分類して記憶している。分類されたカテゴリーとしては、例えば、料理、家電の取扱、スケジュール管理などがある。なお、HMD100は、シナリオDB138に記憶されたARシナリオだけではなく、無線通信部132を介して、他の装置から受信するARシナリオを実行することもできる。
CPU140は、記憶部120のROMに格納されているコンピュータープログラムを読み出して実行することにより、オペレーティングシステム150(OS150)、表示制御部190、音声処理部170、画像処理部160、表示画像設定部165、および、物体認識部168として機能する。
表示制御部190は、右表示駆動部22および左表示駆動部24を制御する制御信号を生成する。具体的には、表示制御部190は、制御信号により、右LCD制御部211による右LCD241の駆動ON/OFF、右バックライト制御部201による右バックライト221の駆動ON/OFF、左LCD制御部212による左LCD242の駆動ON/OFF、左バックライト制御部202による左バックライト222の駆動ON/OFFなど、を個別に制御する。これにより、表示制御部190は、右表示駆動部22および左表示駆動部24のそれぞれによる画像光の生成および射出を制御する。例えば、表示制御部190は、右表示駆動部22および左表示駆動部24の両方に画像光を生成させたり、一方のみに画像光を生成させたり、両方共に画像光を生成させなかったりする。なお、画像光を生成することを「画像を表示する」ともいう。
表示制御部190は、右LCD制御部211と左LCD制御部212とに対する制御信号のそれぞれを、送信部51および52を介して送信する。また、表示制御部190は、右バックライト制御部201と左バックライト制御部202とに対する制御信号のそれぞれを送信する。
画像処理部160は、コンテンツに含まれる画像信号を取得し、送信部51,52を介して、取得した画像信号を画像表示部20の受信部53,54へと送信する。なお、画像処理部160は、必要に応じて、画像データに対して、解像度変換処理、輝度、彩度の調整といった種々の色調補正処理、キーストーン補正処理等の画像処理を実行してもよい。
音声処理部170は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、連結部材46に接続された右イヤホン32内のスピーカー(図示しない)および左イヤホン34内のスピーカー(図示しない)に対して供給する。なお、例えば、Dolby(登録商標)システムを採用した場合、音声信号に対する処理がなされ、右イヤホン32および左イヤホン34のそれぞれからは、例えば周波数等が変えられた異なる音が出力される。また、音声処理部170は、マイク63によって取得された音声を、制御信号として表示画像設定部165に送信する。
物体認識部168は、パターンマッチングや統計的識別法によって、カメラ61の撮像画像の中から、シナリオDB138に記憶されている複数のARシナリオに対応付けられている特定の対象の画像である第1の対象の画像を検出する。本実施形態では、シナリオDB138に記憶された複数のARシナリオを分類したカテゴリーが選択された後に、物体認識部168は、選択されたカテゴリーに含まれるARシナリオに対応付けられている第1の対象の画像を検出する。以降では、撮像画像の中から、特定の対象の画像が検出されることを、単に、特定の対象が検出されるともいう。なお、物体認識部168は、実行されているARシナリオの状況などに応じて、第1の対象とは異なる特定の対象である第2の対象や第3の対象等も撮像画像の中から検出する。物体認識部168は、撮像画像の中から第1の対象を検出すると、検出した第1の対象と、検出した第1の対象に対応付けられたARシナリオと、の情報を表示画像設定部165へと送信する。なお、カメラ61および物体認識部168は、請求項における検出部に相当する。また、第1の対象に対応付けられたARシナリオは、請求項における第1の動画像に相当する。他の実施形態では、物体認識部168は、撮像画像の中から、無線通信部132によって他の装置から受信したARシナリオに対応付けられた第1の対象を検出してもよいし、インターフェイス180を介して接続されたUSBメモリ等に記憶されたARシナリオに対応付けられた第1の対象を検出してもよい。なお、無線通信部132は、請求項における受信部に相当する。また、無線通信部132によって通信する他の装置は、請求項における記憶装置に相当する。
また、物体認識部168は、HMD100が何らかのARシナリオを実行しているときに、カメラ61の撮像画像の中から、第1の対象とは異なる特定の対象である第2の対象を検出することもできる。第2の対象は、第1の対象に対応付けられたARシナリオとは異なるARシナリオに対応付けられている。物体認識部168は、撮像画像の中から第2の対象を検出すると、表示画像設定部165に、検出した第2の対象と第2の対象に対応付けられているARシナリオの情報を送信する。
CPU140は、物体認識部168から送信された情報に基づいて、撮像画像の中から検出された特定の対象物に対応付けられたARシナリオを実行する。ARシナリオが実行されると、表示画像設定部165は、実行されるARシナリオに含まれる画像等を光学像表示部26,28に表示させる。表示画像設定部165は、ARシナリオに含まれる少なくとも1つのAR画像を、撮像画像の中から検出された特定の対象物の位置や向きに関連付けて画像表示部20に表示させる。ARシナリオには、検出される特定の対象物について優先度が設定されており、表示画像設定部165は、検出された特定の対象物の内、設定された優先度が高い特定の対象物に対応付けられた画像を優先的に光学像表示部26,28に表示させる。
CPU140は、何らかのARシナリオを実行しているときに、物体認識部168が第2の対象を検出すると、実行しているARシナリオとは異なる第2の対象に対応付けられた別のARシナリオを実行する。表示画像設定部165は、第2の対象が撮像画像の中から検出されると、実行されていたARシナリオに含まれる画像に代えて別のARシナリオに含まれる画像を光学像表示部26,28に表示させる。なお、第2の対象に対応付けられたARシナリオは、請求項における第2の動画像に相当する。
音声処理部170は、イヤホン32,34を介して、別のARシナリオに含まれる音声信号に基づく音声を出力する。また、音声処理部170は、イヤホン32,34を介して、ARシナリオに含まれる音声信号に基づく音声を出力する。音声処理部170は、マイク63から取得した音声に基づいて、各種処理を行なう。例えば、ARシナリオに選択肢が含まれる場合には、音声処理部170は、取得した音声に基づいて、選択肢の中から1つの選択肢を選択したりする。
インターフェイス180は、制御部10に対して、コンテンツの供給元となる種々の外部機器OAを接続するためのインターフェイスである。外部機器OAとしては、例えば、ARシナリオを記憶している記憶装置、パーソナルコンピューター(PC)や携帯電話端末、ゲーム端末等、がある。インターフェイス180としては、例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等、を用いることができる。
画像表示部20は、右表示駆動部22と、左表示駆動部24と、右光学像表示部26としての右導光板261と、左光学像表示部28としての左導光板262と、カメラ61と、マイク63と、を備えている。
右表示駆動部22は、受信部53(Rx53)と、光源として機能する右バックライト制御部201(右BL制御部201)および右バックライト221(右BL221)と、表示素子として機能する右LCD制御部211および右LCD241と、右投写光学系251と、を含んでいる。右バックライト制御部201と右バックライト221とは、光源として機能する。右LCD制御部211と右LCD241とは、表示素子として機能する。なお、右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241と、を総称して「画像光生成部」とも呼ぶ。
受信部53は、制御部10と画像表示部20との間におけるシリアル伝送のためのレシーバーとして機能する。右バックライト制御部201は、入力された制御信号に基づいて、右バックライト221を駆動する。右バックライト221は、例えば、LEDやエレクトロルミネセンス(EL)等の発光体である。右LCD制御部211は、画像処理部160および表示制御部190から送信された制御信号に基づいて、右LCD241を駆動する。右LCD241は、複数の画素をマトリクス状に配置した透過型液晶パネルである。
右投写光学系251は、右LCD241から射出された画像光を並行状態の光束にするコリメートレンズによって構成される。右光学像表示部26としての右導光板261は、右投写光学系251から出力された画像光を、所定の光路に沿って反射させつつ使用者の右眼REに導く。なお、右投写光学系251と右導光板261とを総称して「導光部」とも呼ぶ。
左表示駆動部24は、右表示駆動部22と同様の構成を有している。左表示駆動部24は、受信部54(Rx54)と、光源として機能する左バックライト制御部202(左BL制御部202)および左バックライト222(左BL222)と、表示素子として機能する左LCD制御部212および左LCD242と、左投写光学系252と、を含んでいる。左バックライト制御部202と左バックライト222とは、光源として機能する。左LCD制御部212と左LCD242とは、表示素子として機能する。なお、左バックライト制御部202と、左LCD制御部212と、左バックライト222と、左LCD242と、を総称して「画像光生成部」とも呼ぶ。また、左投写光学系252は、左LCD242から射出された画像光を並行状態の光束にするコリメートレンズによって構成される。左光学像表示部28としての左導光板262は、左投写光学系252から出力された画像光を、所定の光路に沿って反射させつつ使用者の左眼LEに導く。なお、左投写光学系252と左導光板262とを総称して「導光部」とも呼ぶ。
図3は、画像光生成部によって画像光が射出される様子を示す説明図である。右LCD241は、マトリクス状に配置された各画素位置の液晶を駆動することによって、右LCD241を透過する光の透過率を変化させることにより、右バックライト221から照射される照明光ILを、画像を表わす有効な画像光PLへと変調する。左側についても同様である。なお、図3に示すように、本実施形態ではバックライト方式を採用したが、フロントライト方式や、反射方式を用いて画像光を射出する構成としてもよい。
A−2.ARシナリオ実行処理:
図4は、ARシナリオ実行処理のフローチャートである。ARシナリオ実行処理は、CPU140が撮像画像の中から検出した対象に応じたARシナリオを実行する処理である。ARシナリオ実行処理では、初めに、CPU140は、操作部135がARシナリオを実行する所定の操作を受け付けたか否かを判定する(ステップS11)。本実施形態では、CPU140は、シナリオDB138に記憶されて分類されたARシナリオのカテゴリーを使用者に選択させるための画像を光学像表示部26,28に表示させる。CPU140は、ARシナリオを実行するための所定の操作として、光学像表示部26,28に表示させたARシナリオのカテゴリーの選択を受け付けたか否かを判定する。所定の操を受け付けていないと判定された場合には(ステップS11:NO)、CPU140は、ARシナリオ実行処理を終了する。なお、本実施形態では、ARシナリオのカテゴリーとして、「料理」が選択された場合について説明する。
ステップS11の処理において、CPU140は、ARシナリオを実行する所定の操作を受け付けたと判定した場合には(ステップS11:YES)、カメラ61を介して、外景を撮像する(ステップS13)。次に、物体認識部168は、カメラ61が撮像した外景の撮像画像の中から、シナリオDB138に記憶されたARシナリオに対応付けられた特定の対象としての第1の対象の画像(以下、単に「第1の対象」ともいう)を検出する(ステップS15)。物体認識部168は、撮像画像の中から第1の対象を検出しない場合には(ステップS15:NO)、引き続き、撮像画像の中から第1の対象の検出を待機する(ステップS15)。撮像画像の中から第1の対象が検出された場合には(ステップS15:YES)、CPU140は、第1の対象に対応付けられている複数のARシナリオがあるか否かを判定する(ステップS17)。第1の対象に対応付けられている複数のARシナリオがあると判定された場合には(ステップS17:YES)、表示画像設定部165は、複数のARシナリオから1つのARシナリオを選択させるための選択画像を光学像表示部26,28に表示させて、使用者に1つのARシナリオを選択させる(ステップS19)。CPU140は、使用者によって実行する1つのARシナリオが選択されたと判定した場合(ステップS19)、選択されたARシナリオを実行する(ステップS21)。また、CPU140は、ステップS17の処理において複数のARシナリオがないと判定した場合には(ステップS17:NO)、自動的に1つのARシナリオを実行する。(ステップS21)。なお、以降では、実行する1つの当該ARシナリオを第1シナリオとも呼ぶ。
図5は、複数のARシナリオから実行される第1シナリオを選択するときに使用者が視認する視野VRを示す説明図である。図5には、光学像表示部26,28を透過して使用者に視認される外景SCと、光学像表示部26,28に表示された選択画像IMG1と矢印画像CS3とが示されている。選択画像IMG1および矢印画像CS3は、光学像表示部26,28において、画像を表示できる最大の領域である画像表示最大領域PN内に表示される。外景SCには、まな板BCと、板BCの上に載っている魚FSとが含まれる。魚FSの頭部から尾にかけての体の表面には、複数のうろこFSCが張り付いている。なお、本実施形態では、魚FSの種類は、鯛である。表示画像設定部165は、検出された魚FSと選択された「料理」のARシナリオのカテゴリーとに基づいて、魚FSに対応付けられた複数のARシナリオの候補を選択画像IMG1として画像表示最大領域PNに表示させる。図5の選択画像IMG1に示すように、魚FSに対応付けられたARシナリオの候補は、「1.三枚おろし」と「2.塩焼き」と「3.姿煮」とである。表示画像設定部165は、検出された魚FSの位置に関わらず、画像表示最大領域PNにおける固定の位置に選択画像IMG1を表示させる。操作部135が使用者の操作を受け付けることで、矢印画像CS3が画像表示最大領域PN内を移動する。矢印画像CS3が選択画像IMG1のいずれかの選択肢に重複した状態で操作部135が決定操作を受け付けると、CPU140は、実行する1つのARシナリオを選択する。なお、他の実施形態では、マイク63が音声入力を受け付けることで、選択画像IMG1のいずれかの選択肢が選択されてもよい。本実施形態では、第1シナリオとして「1.三枚おろし」が選択された場合について説明する。なお、図5および以降の図では、便宜上、画像表示最大領域PNを示しているものの、破線で示した画像表示最大領域PNの外枠は、使用者には視認されない。
ARシナリオが実行されると、表示画像設定部165は、ARシナリオに含まれるAR画像を、物体認識部168によって特定された第1の対象の位置や向きに対応付けて画像表示最大領域PNに表示させる(ステップS23)。物体認識部168は、撮像画像の中の魚FSに対してパターンマッチングを行なうことで、撮像画像の中における魚FSが占める領域や座標の位置を特定する。物体認識部168は、特定した領域や座標の位置に基づいて、魚FSの頭の位置と尾の位置とを特定することで、撮像画像における魚FSの向きを特定する。表示画像設定部165は、特定された撮像画像の中の魚FSにおける予め定められた1つの座標に対応付けて、画像表示最大領域PN内に画像を表示させる。なお、本実施形態のARシナリオは、主に、HMD100の使用者の動作を支援する動画である。そのため、シナリオDB138に記憶されたARシナリオに含まれる動画は、使用者に促したい推奨動作である場合が多い。表示画像設定部165が画像表示部20に表示させた動画と同等の動作が使用者によって行なわれたと撮像画像によって判断した場合には、CPU140は、実行している第1シナリオを終了する、または、別のARシナリオを実行する。
図6は、ARシナリオに含まれるAR画像が画像表示最大領域PNに表示されたときに使用者が視認する視野VRを示す説明図である。図6には、シナリオDB138の中から「料理」のARシナリオのカテゴリーが選択された場合に、第1対象としての魚FSに対応付けられた「うろこ取り」のAR画像である画像AR1が表示されたときの視野VRが示されている。図6に示すように、画像表示最大領域PNに画像AR1が表示されるため、使用者は、光学像表示部26,28を透過する板BCおよび魚FSを含む外景SCを視認すると同時に、画像表示最大領域PNに表示された画像AR1を視認する。表示画像設定部165は、物体認識部168によって特定された魚FSの頭部と尾とを往復する画像AR1の動画を画像表示最大領域PN内に表示させる。画像AR1は、使用者にうろこ取りで魚FSのうろこを取る動作を支援する動画である。図6に示した矢印画像CS1は、画像AR1の頭と尾とを往復するイメージを示しており、矢印画像CS1が画像表示最大領域PN内に表示されるわけではない。なお、本実施形態では、カメラ61の画角と使用者が視認する視野VRとが同じになるように設定されている。
図4のステップS23において、魚FSの位置や向きに対応付けられて画像AR1が画像表示最大領域PNに表示されると、物体認識部168は、画像AR1を含む実行されている「うろこ取り」のARシナリオが推奨する動作を使用者が行なったか否かを判定する(ステップS25)。物体認識部168は、「うろこ取り」の動作を使用者が行なったか否かの判定を、撮像画像の中から実物のうろこ取りの検出と、実物のうろこ取りの動きとに基づいて行なう。具体的な判定方法は、撮像画像の中から画像AR1に相当する実物のうろこ取りが検出され、検出された実物のうろこ取りが魚FSの頭部から尾までを予め設定された回数往復したか否かを検出することで判定する。
ステップS25の処理において、物体認識部168は、実行されている第1シナリオが推奨する動作を使用者が行なっていないと判定した場合には(ステップS25:NO)、物体認識部168は、撮像画像の中から、第1シナリオとは異なるARシナリオである第2シナリオに対応付けられた第2の対象の画像(以下、単に「第2の対象」とも呼ぶ)を検出する(ステップS27)。撮像画像の中から第2の対象が検出された場合には(ステップS27:YES)、CPU140は、第2の対象に対応付けられた第2シナリオを実行する(ステップS29)。第2シナリオが実行されると、表示画像設定部165は、第2シナリオに含まれるAR画像を、検出された第2の対象の位置や向きに対応付けて、画像表示最大領域PN内に表示させる(ステップS23)。
図7は、撮像画像の中から第2の対象が検出されて第2シナリオが実行されたときに使用者が視認する視野VRを示す説明図である。図7には、ARシナリオが促す「うろこ取り」の推奨動作が終了していない状態で、第2の対象としての包丁KNが撮像画像の中から検出された場合に、使用者の視野VRが示されている。視野VRには、光学像表示部26,28を透過した外景SCに加えて、第2シナリオに含まれるAR画像であるうろこ取りの画像AR2およびテキスト画像TX1が含まれている。表示画像設定部165は、第2シナリオに含まれるAR画像として、包丁KNではなく、うろこ取りによって魚FSのうろこを取る動作を促す文字で表したテキスト画像TX1と、うろこ取りの画像AR2と、を画像表示最大領域PNに表示させる。表示画像設定部165は、テキスト画像TX1および画像AR1の画像表示最大領域PNにおける表示位置を、検出された第2の対象である包丁KNの位置や向きに対応付けて表示させる。そのため、第1シナリオで魚FSの位置に対応付けられ表示されるうろこ取りの画像AR1と、第2シナリオで包丁KNの位置に対応付けられて表示されるうろこ取りの画像AR2とは、画像表示最大領域PNにおいて異なる位置に表示される。なお、音声処理部170は、表示画像設定部165によるテキスト画像TX1の表示に合わせて、イヤホン32,34を介してテキスト画像TX1の文字と同じ音声を出力してもよい。
図4のステップS23の処理において、包丁KNの位置に対応付けられてテキスト画像TX1および画像AR2が画像表示最大領域PNに表示されると、物体認識部168は、第2シナリオが使用者に推奨する動作が行なわれたか否かを判定する(ステップS25)。物体認識部168は、図7のテキスト画像TX1に従って使用者が包丁KNではなく、画像AR2に示すうろこ取りを持ったことを検出した場合に、第2シナリオの推奨動作が行なわれたと判定する。推奨動作が行なわれた判定された場合には(ステップS25:YES)、物体認識部168は、撮像画像の中から選択されたカテゴリーのARシナリオに対応付けられた特定の対象の画像を検出しているか否かを判定する(ステップS31)。物体認識部168は、撮像画像の中に第1の対象としての魚FSを検出しているため(ステップS31:YES)、ステップS17,19の処理を行なわれた後、第1の対象に対応付けられた第1シナリオを実行する(ステップS21)。表示画像設定部165は、第1シナリオに含まれるうろこ取りの画像AR1を魚FSの位置に対応付けて画像表示最大領域PNに表示させ(ステップS25)、物体認識部168は、第1シナリオの推奨動作である魚FSのうろこ取りが終了したか否かを判定する(ステップS25)。物体認識部168は、検出したうろこ取りが所定の回数(例えば、20回)以上、魚FSの頭部と尾との間を往復した場合には、第1シナリオの推奨動作であるうろこ取りが使用者に行なわれたと判定する。なお、うろこ取りの推奨動作が行なわれたか否かの判定は、種々変形可能であり、例えば、魚FSの表面のうろこを画像認識することで、判定されてもよい。
物体認識部168は、推奨動作である魚FSのうろこ取りが終了したと判定した場合には(ステップS25:YES)、撮像画像の中から、その他のARシナリオに対応付けられた特定の対象を検出する(ステップS31)。撮像画像の中からその他の対象が検出されない場合には(ステップS31:NO)、CPU140は、その他のシナリオを実行するか否かを判定する(ステップS33)。CPU140は、操作部135が受け付けた操作やマイク63が取得した音声などによって、シナリオDB138に記憶されたARシナリオ以外のARシナリオ(例えば、無線通信部132を介して取得したARシナリオ)の実行など受け付ける。
ステップS33の処理において、CPU140は、無線通信部132を介してその他のARシナリオを受信し、操作部135が受け付けた操作によって受信したARシナリオを実行すると判定した場合には(ステップS33:YES)、物体認識部168は、撮像画像の中から実行するARシナリオに対応付けられた特定の対象である第3の対象を検出する(ステップS15)。なお、ここでいう第3の対象は、第1の対象と同じである。第3の対象が検出されると(ステップS15:YES)、CPU140は、ステップS17以降の処理を行なう。なお、第3の対象は、請求項における第1の対象に相当する。
本実施形態では、うろこ取りが終了した魚FSが第3の対象として検出され、魚FSを3枚におろすことを使用者の動作推奨とする第3の対象に対応付けられたARシナリオが実行される。なお、以降では、第3の対象に対応付けられたARシナリオを、単に、第3シナリオとも呼ぶ。
図8は、撮像画像の中から第3の対象が検出されて第3シナリオが実行されたときに使用者が視認する視野VRを示す説明図である。図8には、第3の対象として、うろこ取りが終了した魚FSを含む外景SCが示されている。また、図8に示すように、使用者の右手RHが包丁KNを持ち、使用者の左手LHが魚FSの頭部を押さえている。物体認識部168が第3の対象を検出すると、表示画像設定部165は、実行される第3シナリオに含まれる包丁のAR画像である画像AR3と、推奨動作を示すテキスト画像TX2とを画像表示最大領域PNに表示させる。画像AR3およびテキスト画像TX2は、第3の対象としての魚FSに対応付けられて画像表示最大領域PNに表示される。そのため、テキスト画像TX2が表示される位置は、図7における包丁KNに対応付けられたテキスト画像TX1の位置とは異なる。テキスト画像TX2は、魚FSを3枚におろす推奨動作を促す第3シナリオにおいて、初めに、魚FSの内臓を取り出すことを使用者に促す文字画像である。物体認識部168によって検出された第3の対象やその他の対象に基づいて、表示画像設定部165は、実行される第3シナリオに含まれる画像を画像表示最大領域PNに表示する。また、同様に、音声処理部170は、イヤホン32,34を介して、実行される第3シナリオに含まれる音声を出力する。
図9は、第3シナリオが終了した後に実行される第4シナリオが実行されたときに使用者が視認する視野VRを示す説明図である。図9には、魚FSを三枚におろす第3シナリオの動作推奨が使用者によって完了した後に、撮像画像の中から三枚におろされた魚FSのそれぞれが第4の対象として検出されて、第4の対象に対応付けられたARシナリオである第4シナリオが実行されたときに使用者が視認する視野VRが示されている。物体認識部168は、第4シナリオが実行されると、第4シナリオに含まれるAR画像の矢印画像CS2と、三枚におろされた魚FSに対する処理を使用者に選択させるためのテキスト画像TX3とを画像表示最大領域PNに表示させる。テキスト画像TX3および矢印画像CS2は、三枚におろされた魚FSのそれぞれの切身CB1,CB2および中骨MBを検出すると、画像表示最大領域PNに表示される。物体認識部168は、テキスト画像TX3および矢印画像CS2が表示される位置を、切身CB1,CB2および中骨MBの位置や向きとは関係なく、画像表示最大領域PNにおける固定の位置に表示させる。テキスト画像TX3は、切身CB1と切身CB2と中骨MBとに対する処理として、保存と刺身と昆布締めとを使用者に選択させるための画像である。操作部135が使用者の操作を受け付けることで、テキスト画像TX3のいずれかの選択肢(例えば、1.切身CB1)が選択されると、CPU140は、選択された選択肢に対応付けられた画像および音声を出力させる。また、マイク63が音声入力を受け付けることで、テキスト画像TX3のいずれかの選択肢が選択されてもよい。
図10は、図9のテキスト画像TX3の内の選択肢が選択された後に使用者が視認する視野VRを示す画像である。図10には、図9のテキスト画像TX3において、処理される対象として「1.切身CB1」が選択され、切身CB1の処理として、「3.昆布締め」が選択された場合に、画像表示最大領域PNに表示されるAR画像である画像AR4とテキスト画像TX4とが示されている。表示画像設定部165は、実行されているARシナリオの具体的な処理を示すテキスト画像TX4を、画像表示最大領域PNにおける固定の位置に表示させる。また、表示画像設定部165は、使用者に選択されると共に物体認識部168によって撮像画像の中から検出された切身CB1の位置と向きに対応付けて、昆布締めに使用される昆布のAR画像を画像AR4として画像表示最大領域PN内に表示させる。これにより、HMD100は、使用者に対して、切身CB1に昆布締めに必要な処理を推奨動作として認識させることができる。
図4のステップS25において、推奨動作として第4シナリオの昆布締めの処理が切身CB1に行なわれると(ステップS25:YES)、物体認識部168は、その他の対象を撮像画像の中から検出する(ステップS31)。その他の対象が検出されない場合に(ステップS31:NO)、CPU140は、その他のARシナリオをもう実行しないと判定した場合には(ステップS33:NO)、AR実行処理を終了する。
以上説明したように、第1実施形態のHMD100では、物体認識部168がカメラ61の撮像画像の中から第1の対象を検出し、表示画像設定部165は、第1の対象に対応付けられた魚FSのうろこ取りの推奨動作の第1シナリオ実行される場合に、検出されたFS魚の位置に対応付けてうろこ取りの画像AR1を画像表示最大領域PNに表示させる。そのため、第1実施形態のHMD100では、外景SCに含まれる複数の物体の内から1つの物体を検出して、検出した物体の位置に対応付けた画像を表示する。これにより、使用者は、実物の位置に合わせて表示される画像を視認しながら、作業等を行なうことができるため、使用者が行なう作業を支援し、使用者の作業の効率性などを向上させることができる。
また、第1実施形態のHMD100では、物体認識部168は、画像として第1の対象である魚FSを検出するため、魚FSを検出する精度を向上させることができる。
また、第1実施形態のHMD100では、第1の対象としての魚FSに対応付けられたうろこ取りの画像AR1は、魚FSに対して行なわれるうろこ取りの推奨動作に関連する動画であるため、使用者は、推奨動作をより認識しやすく、使用者の作業の効率性などがさらに向上する。
また、第1実施形態のHMD100では、物体認識部168が撮像画像の中から第2の対象としての包丁KNを検出した場合に、表示画像設定部165は、実行される第2シナリオに含まれるテキスト画像TX1およびうろこ取りの画像AR2を画像表示最大領域PNに表示させる。そのため、第1実施形態のHMD100では、検出される物体に優先度が設定されており、複数のARシナリオに対応付けられた複数の特定の対象物が検出されても、検出された特定の対象物に設定された優先度に基づいて、画像表示最大領域PNに表示される画像が変更される。これにより、使用者に対して、状況の最も適した画像を視認させることができるため、使用者の使い勝手がさらに向上する。
また、第1実施形態のHMD100では、表示画像設定部165は、マイク63が取得した音声に基づいて、三枚におろされた魚FSの切身CB1に対して受け付けた処理に対応付けて、テキスト画像TX4および画像AR4を画像表示最大領域PNに表示される。そのため、第1実施形態のHMD100では、検出された特定の対象物に加えて、使用者は、音声によっても画像表示最大領域PNに表示させる画像を操作できるため、使用者の使い勝手がさらに向上する。
また、第1実施形態のHMD100では、音声処理部170は、第1シナリオが実行されている場合に、第2の対象としての包丁KNが検出されると、画像表示最大領域PNに表示されるテキスト画像TX1の文字と同じ音声を出力する。そのため、第1実施形態のHMD100では、使用者に対して、画像表示最大領域PNに表示される画像に加えて、音声によっても情報を認識させることができ、使用者は、視覚および聴覚によってより多くの情報を認識でき、使用者の利便性が向上する。
B.第2実施形態:
B−1.HMDの構成:
図11は、第2実施形態のHMD100aの構成を機能的に示すブロック図である。第2実施形態のHMD100aでは、第1実施形態のHMD100と比較して、生体情報取得センサー90と、CPU140aの生体情報処理部169と、を備える点が異なり、その他の構成については同じである。生体情報取得センサー90は、制御部10および画像表示部20とは別体で形成されたセンサーである。生体情報取得センサー90は、使用者の生体情報を取得する。本実施形態では、生体情報取得センサー90は、腕時計型のセンサーであり、使用者の手首に装着された状態で、ひずみゲージによるひずみ検出によって、現時点での使用者の筋力を測定する。生体情報取得センサー90は、取得した使用者の筋力の測定データを制御部10aのCPU140aへと送信する。取得された生体情報を処理する。生体情報処理部169は、取得された使用者の筋力の測定データに基づいて、実行されるARシナリオに含まれる各種処理を実行する。
B−2.ARシナリオ実行処理:
第2実施形態では、自動車のタイヤの交換を推奨動作とするARシナリオ(以下、単に、「タイヤ交換シナリオ」とも呼ぶ)について、ARシナリオ実行処理について説明する。第2実施形態では、第1実施形態のARシナリオ実行処理(図4)における処理の内、異なる処理であるステップS21以降の処理について説明する。
図12は、第1の対象が検出されてタイヤ交換シナリオが実行されたときに使用者が視認する視野VRを示す説明図である。図12には、第1対象としてのタイヤTRの画像が撮像画像の中から検出された場合に、CPU140aによってARシナリオとしてのタイヤ交換シナリオが実行され、表示画像設定部165がAR画像である画像AR5が画像表示最大領域PNに表示されたときに視野VRが示されている。外景SCに含まれるタイヤTRは、4箇所のボルトBTによって自動車の本体に固定されている。画像AR5は、工具としての六角レンチを表す工具画像ARRと、工具画像ARRを持っている腕画像ARHと、腕画像ARHの手首に装着されている筋力センサー画像ARSと、から構成されている。すなわち、画像AR5は、使用者に、筋力センサーを装着した腕で六角レンチにてタイヤTRのボルトBTを外すことを推奨動作とする画像である。表示画像設定部165は、検出されたタイヤTRのボルトBTの位置に対応付けて画像AR5の内の工具画像ARRを画像表示最大領域PNに表示させる。また、表示画像設定部165は、画像AR5の内の腕画像ARHおよび筋力センサー画像ARSを、工具画像ARRに対応付けて画像表示最大領域PNに表示させる。腕画像ARHの表示部には、工具を回すために推奨とされる筋力の数値が表示される。表示される数値(80)は、パーセンテージ(%)の単位であり、予め、HMD100の使用者の筋力とひずみゲージとの関係が設定された上で、推奨される数値である。
タイヤ交換シナリオが実行され(図4のステップS23)、タイヤ交換シナリオに対応付けられた画像AR5が画像表示最大領域PNに表示されると(図4のステップS23)、物体認識部168は、タイヤ交換シナリオの推奨動作が終了したか否かを判定する(ステップS25)。
図13は、タイヤ交換シナリオが実行されているときに第2の対象が検出された場合に使用者が視認する視野VRを示す説明図である。図13には、タイヤ交換シナリオが実行されている場合に、第2の対象が検出された場合に、画像表示最大領域PNに表示されるテキスト画像TX5と画像AR5,AR6とが示されている。第2実施形態における第2の対象は、実物の六角レンチである工具RNと足LGとが所定の位置関係として検出された状態である。図13では、画像AR5の内の工具画像ARRは、実物の工具RNと重なっている。物体認識部168が実物の工具RNに使用者の足LGが接触している位置関係を検出した場合に、表示画像設定部165は、画像AR5に加えて、テキスト画像TX5および画像AR6を画像表示最大領域PNに表示させる。テキスト画像TX5は、足LGで工具RNを回転させることの禁止を促す文字画像である。また、画像AR6は、テキスト画像TX5の内容を強調するための「×」を示すAR画像である。表示画像設定部165は、画像AR6を、検出された工具RNと足LGとの接触位置に対応させて画像表示最大領域PN内に表示させる。
タイヤ交換シナリオの推奨動作が終了していない場合に(図4のステップS25:NO)、第2の対象としての工具RNおよび足LGが検出されると(ステップS27:YES)、CPU140aは、タイヤ交換を足ではなく腕を使って行なう推奨動作のARシナリオである第2シナリオを実行する(ステップS29)。第2シナリオが実行されると、表示画像設定部165は、図13に示すように、画像表示最大領域PN内に画像AR5に加えて、画像AR6およびテキスト画像TX5を表示させる(ステップS23)。第2シナリオの推奨動作に従って、足LGが検出されなくなった場合には(ステップS25:YES)、タイヤTRが検出されるため(ステップS31:YES)、CPU140aは、タイヤ交換シナリオを実行する(ステップS21)。その後、表示画像設定部165は、画像AR5を画像表示最大領域PNに表示させる(ステップS23)。
図14は、第1の対象が検出されたタイヤ交換シナリオが実行されたときに使用者が視認する視野VRを示す説明図である。図14には、画像表示最大領域PNに、図12と同様の画像AR5が表示され、かつ、実物の使用者の腕HDと、腕HDの手首に装着された筋力センサーSSと、腕HDが持っている工具RNと、テキスト画像TX6とを含む視野VRが示されている。図14に示すように、画像AR5の内の工具画像ARRと実物の工具RNとの位置関係と、腕画像ARHと腕HDとの位置関係とは異なる。換言すれば、使用者の腕HDおよび工具RNのそれぞれは、推奨動作として表示された画像AR5と重複しておらず、物体認識部168は、使用者にタイヤ交換シナリオの推奨動作が行なわれていないと判定する。物体認識部168は、撮像画像の中における複数のボルトBTの位置と大きさとによって、タイヤTRの位置や向きを特定する。そのため、物体認識部168は、特定したタイヤTRのボルトBTに対して、実物の工具RNが正しい位置に挿入されているか否かを判定できる。表示画像設定部165は、検出された工具RNが正しい位置に挿入されていないと判定されると、工具RNをボルトBTに対して正しい位置に挿入する動作を促すテキスト画像TX6を画像表示最大領域PNに表示させる。なお、図14では、工具RNが正しい位置に挿入されていないため、使用者は工具RNを回転させることができず、筋力センサーSSの数値は0(%)と表示されている。
使用者がテキスト画像TX6に従い、工具RNがボルトBTに対して正しい位置に挿入されると、表示画像設定部165が画像AR5を非表示にして、生体情報処理部169は、生体情報取得センサー90としての筋力センサーSSの筋力の数値を検出する。生体情報処理部169は、筋力センサーSSによって取得された値が80%を中心とする75%から85%までの間の数値以外で、工具RNが回されているか否かを判定する。当該数値の間で工具RNが回されていると判定した場合には、表示画像設定部165は、80%の筋力で工具RNを回転させるように促すテキスト画像を画像表示最大領域PNに表示させる。生体情報処理部169が80%の筋力で工具RNが回転させられていると判定すると、表示画像設定部165がテキスト画像を非表示にして、表示画像設定部165は、別のボルトBTを外すAR画像を画像表示最大領域PNに表示させる。以上のような動作が繰り返されると、CPU140aは、タイヤ交換シナリオを終了する。
以上説明したように、第2実施形態のHMD100aでは、生体情報取得センサー90によって検出された使用者の筋力に基づいて、表示画像設定部165は、画像表示最大領域PNに画像を表示させる。そのため。第2実施形態のHMD100aでは、撮像画像の中に検出された特定の対象物に、取得された使用者の生体情報も加えた画像を使用者に視認させることができ、使用者の利便性がさらに向上する。
C.変形例:
なお、この発明は上記実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば、次のような変形も可能である。
C−1.変形例1:
上記実施形態では、撮像画像の中から検出される第1の対象は、1つの物体であったが、これに限られず、複数の物体などであってもよい。例えば、物体認識部168は、第1の対象として、撮像画像の中から複数の物体の位置も含めた組み合わせを検出してもよい。また、物体認識部168は、同じ特定の対象であっても、特定の対象が特定の動きをしている場合にのみ、第1の対象として、検出してもよい。また、物体認識部168は、複数の特定の対象を検出して、複数の特定の対象の内から使用者が1つの特定の対象を選択することで、選択された特定の対象を第1の対象として検出してもよい。
上記第1実施形態では、第2の対象としての包丁KNが検出された場合に、実行するARシナリオとして第2シナリオへと変更されたが、第1シナリオから他のシナリオへの変更については、種々変形可能である。例えば、「うろこ取り」の第1シナリオが実行されているときに、実物のうろこ取りが検出されても、実物のうろこ取りの位置や動きが、矢印画像CS1と大きく異なる場合に、CPU140は、第2の対象が検出されたとして、別のARシナリオを実行してもよい。
上記実施形態では、パターンマッチング等の画像認識により、撮像画像の中から第1の対象を検出されたが、第1の対象が検出される方法については、これに限られず、種々変形可能である。例えば、物体認識部168は、撮像画像に対する画像認識ではなく、デプスセンサーなどを用いて、TOF(Time-of-Flight)方法などによって、デプスセンサーから第1の対象までの距離を測定することで、第1の対象を検出してもよい。
撮像画像の中から検出される特定の対象物の画像は、上記実施形態の例に限られず、種々変形可能である。例えば、特定の対象物は、撮像画像の中から検出される実物であれば、ARシナリオに対応付けられることができる。特定の対象物は、上記実施形態のように、人が持ち運ぶことで移動可能な魚FSであってもよいし、移動不可能な建造物などであってもよい。また、特定の対象物は、時間の経過によって規則的な移動をする太陽などであってもよい。また、請求項における第1の対象と第1の動画像とが対応付けられているとは、外景SCから特定の対象物として何らかの対象物が検出されることで、検出された特定の対象物のARシナリオが実行されることを含む。第1の対象と第1の動画像とが対応付けられているには、例えば、撮像画像の中から特定の対象物の画像が検出されることやデプスセンサーなどによって外景SCから特定の形状が検出されることやデプスセンサーによって画像表示部20から特定の距離に何らかの対象が検出されることで、ARシナリオが実行されることが含まれる。
上記実施形態では、シナリオDB138のカテゴリーが選択された後に、選択されたカテゴリーに含まれるARシナリオの第1の対象が撮像画像の中から検出されたが、第1の対象となるARシナリオの設定については、種々変形可能である。例えば、物体認識部168は、ARシナリオをカテゴリーに分類せずに、全てのARシナリオに対応付けられた第1の対象を撮像画像の中から検出してもよい。
第1の対象に対応付けてARシナリオを実行する方法については、上記実施形態の例に限られず、種々変形可能である。例えば、シナリオDB138は、複数のARシナリオをいくつかのカテゴリーに分類して記憶するだけでなく、撮像画像における第1の対象の位置、第1の対象の動き、検出された特定の対象の順番、撮像画像における第1の対象の向き、これらと取得した外部の音声との組み合わせのテーブルを記憶していてもよい。例えば、撮像画像の中から検出された1つの特定の対象物が検出され、かつ、検出された特定の対象物の所定の時間内に予め設定された動作が検出された場合に、CPU140は、シナリオDB138に対応付けて記憶されたARシナリオを実行してもよい。また、第1の対象として、ホールケーキが検出され、かつ、外部音声としての「8等分」や「6等分」が取得されたときに、ケーキをカットするナイフと、検出されたケーキに対して切り込む位置と、がAR画像として表示されるARシナリオが実行されてもよい。この変形例では、複数の要素によって種々のARシナリオが選択されるため、使用者は、種々のARシナリオから簡単に所望のARシナリオを選択できる。
上記実施形態では、特定の対象が検出された場合に、1つのARシナリオが実行されたが、必ずしも、実行されるARシナリオは、1つに限られず、複数であってもよい。例えば、CPU140は、第1の対象に対応付けられたARシナリオを全て実行した上で、その後に検出された第1の対象と異なる特定の対象に基づいて、実行していた複数のARシナリオから、実行するARシナリオをいくつかに限定してもよい。
上記実施形態では、第1の対象に対応付けられた複数のARシナリオがある場合に、操作部135が受け付けた操作に基づいて、1つのARシナリオが選択されたが、複数のARシナリオから1つのARシナリオを選択する方法については、種々変形可能である。例えば、CPU140は、第1の対象に対応付けられた複数のARシナリオがある場合に、最近実行されたARシナリオを、実行する第1シナリオとして選択してもよい。
請求項における動画像とは、静止画の組み合わせであるパラパラ漫画なども含み、同じ画像でもサイズが異なるように変化する動画も含む。動画像とは、時間の経過に伴い全く変化しない静止画像以外の広い概念のことをいい、複数の静止画像の組み合わせが変化する画像も含む。
また、ARシナリオに含まれる画像としては、種々変形可能であり、RGBデータを変化させることで、半透明のAR画像や二次元の画像として生成してもよい。例えば、図6に示す例において、「うろこ取り」の画像AR1に対して、うろこ取りを持つ半透明の人の手の画像が、うろこ取りの画像AR1と同時に画像表示最大領域PNに表示されてもよい。この変形例では、ARシナリオを実行している使用者がうろこ取りの持ち方などがわからない場合に、うろこ取りの画像AR1と対応付けて半透明の人の手の画像を画像表示最大領域PNに表示させることで、使用者の利便性が向上する。
上記実施形態では、カメラ61の画角と光学像表示部26,28を透過して使用者が視認する視野とは、対応するように予め設定されていたが、必ずしも対応するように設定されている必要はなく、これらの設定については、種々変形可能である。例えば、操作部135が操作を受け付けることで、カメラ61の画角が変更されてもよい。また、CPU140は、画像表示最大領域PNにキャリブレーション用の画像を表示させて、所定の操作を使用者に促すことで、カメラ61の画角を調整してもよい。
上記第2実施形態では、生体情報取得センサー90として、筋力センサーSSを例に挙げて説明したが、種々変形可能である。例えば、生体情報取得センサー90は、使用者の脈拍や発汗状態などを取得するセンサーであってもよい。生体情報取得センサー90は、赤外線を腕に発光させて、反射光を検出することで、血液の流れについて波形を取得することもできる。
上記第2実施形態では、筋力センサーSSが表示する推奨の筋力の数値が80%であったが、これらの値については、種々変形可能である。例えば、筋力センサーSSではなく、トルクレンチと筋力とを関連付けることにより、筋力センサーSSが取得したひずみに基づいて、いくつのトルクが工具RNにかかっているかが表示されてもよい。
上記第2実施形態では、生体情報取得センサー90としての筋力センサーSSの使用について、一例を挙げて説明したが、生体情報取得センサー90の設定については、種々変形可能である。例えば、使用者の握力、腕等を回す動作、トルクレンチやゴルフクラブを握ったとき状態において、予め複数回の計測がされ、これらの計測から得られた最大値や平均値と、筋力センサーSSなどと関連付けられているARシナリオと、の関係が設定されてもよい。さらに具体的には、特定のARシナリオで使用される生体情報取得センサー90および工具が決まっている場合には、予め、当該工具を使用した場合の計測を行なわれ、ARシナリオに反映させることで、CPU140は、ARシナリオを実行する使用者に「コツ」なども含めた作業支援の画像等を認識させることができる。
C−2.変形例2:
上記実施形態では、ARシナリオの推奨動作の終了の判定は、撮像画像の中から検出された人の動き等によって行なわれたが、種々変形可能である。例えば、物体認識部168が所定の動作を検出することで、推奨動作の終了を判定するのではなく、マイク63が取得した音声(例えば、「終了しました」)によって判定されてもよい。
上記実施形態では、上記実施形態では、第1シナリオが実行されているときに、第2の対象が検出されると、第2シナリオが実行される態様であったが、第1シナリオと第2シナリオとの関係については、このような関係に限られず、種々変形可能である。例えば、第1シナリオと第2シナリオとを合わせて、1つの複合されたARシナリオとして取り扱われてもよい。この場合、CPU140は、1つのARシナリオを実行しているときに、上記実施形態における第2の対象が検出された場合には、実行しているARシナリオにおいて分岐したとも言い換えることができる。
上記実施形態では、第2の対象が検出された場合に、第2シナリオが実行されたが、必ずしも第2シナリオが実行される必要はない。例えば、CPU140は、第1の対象を検出して第1シナリオを実行しているときに、第1シナリオに対応付けられていない特定の対象物を検出しなくてもよい。
上記実施形態では、表示画像設定部165は、検出された第1対象としての魚FSの位置などに対応付けてAR画像を画像表示最大領域PNに表示させたが、画像を表示させる位置については、種々変形可能である。例えば、表示画像設定部165は、特定の対象物が検出された場合に、特定の対象物の位置に関わらず、画像表示最大領域PNとの関係において、AR画像を表示させる位置を設定してもよい。
上記実施形態では、使用者の作業を支援するARシナリオとして、魚FSの調理方法やタイヤTRの交換を例に挙げて説明したが、これらに限られず、種々変形可能である。例えば、工場の特定の作業を支援するARシナリオであってもよいし、ゴルフなどのスポーツにおけるスポーツ用具の使い方をレクチャーするARシナリオであってもよい。
上記実施形態では、マイク63、イヤホン32,34、音声処理部170がHMD100の構成に含まれていたが、必ずしも必要ではなく、マイク63等がなくてもよい。
C−3.変形例3:
上記実施形態では、制御部10に操作部135が形成されたが、操作部135の態様については種々変形可能である。例えば、制御部10とは別体で操作部135であるユーザーインターフェースがある態様でもよい。この場合に、操作部135は、電源130等が形成された制御部10とは別体であるため、小型化でき、使用者の操作性が向上する。また、カメラ61が画像表示部20に配置されたが、カメラ61が画像表示部20とは別体に構成され、外景SCを撮像できてもよい。また、制御部10の構成するCPU140や電源130が画像表示部20に全て搭載されたHMD100であってもよい。このHMD100では、画像表示部20と別体で構成されるコントローラーがないため、より小型化できる。また、制御部10と画像表示部20とのそれぞれに、CPU140が搭載されることで、制御部10がコントローラー単体として使用され、画像表示部20が表示装置単体として使用されてもよい。
例えば、画像光生成部は、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部とを備える構成としてもよい。また、例えば、画像光生成部は、LCDに代えて、LCOS(Liquid crystal on silicon, LCoS は登録商標)や、デジタル・マイクロミラー・デバイス等を用いることもできる。また、例えば、レーザー網膜投影型のHMD100に対して本発明を適用することも可能である。また、画像表示最大領域PNは、各画素に形成されたMEMSシャッターを開閉するMEMSシャッター方式のディスプレイによって構成されてもよい。
また、例えば、HMD100は、光学像表示部が使用者の眼の一部分のみを覆う態様、換言すれば、光学像表示部が使用者の眼を完全に覆わない態様のヘッドマウントディスプレイとしてもよい。また、HMD100は、いわゆる単眼タイプのヘッドマウントディスプレイであるとしてもよい。また、HMD100の代わりに、使用者の頭部に装着されるのではなく、双眼鏡のように使用者が手で位置を固定するハンドヘルドディスプレイが画像表示装置として用いられてもよい。また、HMD100は、両眼タイプの光学透過型であるとしているが、本発明は、例えば、ビデオ透過型といった他の形式の頭部装着型表示装置にも同様に適用可能である。
また、HMD100は、他の装置から受信した画像信号に基づく画像を表示するためだけの表示装置と用いられてもよい。具体的には、デスクトップ型のPCのモニターに相当する表示装置として用いられ、例えば、デスクトップ型のPCから画像信号を受信することで、画像表示部20の画像表示最大領域PNに画像が表示されてもよい。
また、HMD100は、システムの一部として機能するように用いられてもよい。例えば、航空機を含むシステムの一部の機能を実行するための装置としてHMD100が用いられてもよいし、HMD100が用いられるシステムとしては、航空機を含むシステムに限られず、自動車や自転車など含むシステムであってもよい。
また、イヤホンは耳掛け型やヘッドバンド型が採用されてもよく、省略してもよい。また、例えば、自動車や飛行機等の車両に搭載される頭部装着型表示装置として構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵された頭部装着型表示装置として構成されてもよい。
C−4.変形例4:
上記実施形態におけるHMD100の構成は、あくまで一例であり、種々変形可能である。例えば、制御部10に設けられた方向キー16を省略したり、方向キー16やトラックパッド14に加えて、操作用スティック等の他の操作用インターフェイスを設けたりしてもよい。また、制御部10は、キーボードやマウス等の入力デバイスを接続可能な構成であり、キーボードやマウスから入力を受け付けるものとしてもよい。
また、画像表示部として、眼鏡のように装着する画像表示部20に代えて、例えば帽子のように装着する画像表示部といった他の方式の画像表示部を採用してもよい。また、イヤホン32,34は、適宜省略可能である。また、上記実施形態では、画像光を生成する構成として、LCDと光源とを利用しているが、これらに代えて、有機ELディスプレイといった他の表示素子を採用してもよい。
図15は、変形例におけるHMDの外観構成を示す説明図である。図15(A)の例の場合、図1に示したHMD100との違いは、画像表示部20xが、右光学像表示部26に代えて右光学像表示部26xを備える点と、左光学像表示部28に代えて左光学像表示部28xを備える点とである。右光学像表示部26xは、上記実施形態の光学部材よりも小さく形成され、HMD100xの装着時における使用者の右眼の斜め上に配置されている。同様に、左光学像表示部28xは、上記実施形態の光学部材よりも小さく形成され、HMD100xの装着時における使用者の左眼の斜め上に配置されている。図15(B)の例の場合、図1に示したHMD100との違いは、画像表示部20yが、右光学像表示部26に代えて右光学像表示部26yを備える点と、左光学像表示部28に代えて左光学像表示部28yを備える点とである。右光学像表示部26yは、上記実施形態の光学部材よりも小さく形成され、ヘッドマウントディスプレイの装着時における使用者の右眼の斜め下に配置されている。左光学像表示部28yは、上記実施形態の光学部材よりも小さく形成され、ヘッドマウントディスプレイの装着時における使用者の左眼の斜め下に配置されている。このように、光学像表示部は使用者の眼の近傍に配置されていれば足りる。また、光学像表示部を形成する光学部材の大きさも任意であり、光学像表示部が使用者の眼の一部分のみを覆う態様、換言すれば、光学像表示部が使用者の眼を完全に覆わない態様のHMD100として実現できる。
また、上記実施形態において、HMD100は、使用者の左右の眼に同じ画像を表わす画像光を導いて使用者に二次元画像を視認させるとしてもよいし、使用者の左右の眼に異なる画像を表わす画像光を導いて使用者に三次元画像を視認させるとしてもよい。
また、上記実施形態において、ハードウェアによって実現されていた構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されていた構成の一部をハードウェアに置き換えるようにしてもよい。例えば、上記実施形態では、画像処理部160や音声処理部170は、CPU140がコンピュータープログラムを読み出して実行することにより実現されるとしているが、これらの機能部はハードウェア回路により実現されるとしてもよい。
また、本発明の機能の一部または全部がソフトウェアで実現される場合には、そのソフトウェア(コンピュータープログラム)は、コンピューター読み取り可能な記録媒体に格納された形で提供することができる。この発明において、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスクやCD−ROMのような携帯型の記録媒体に限らず、各種のRAMやROM等のコンピューター内の内部記憶装置や、ハードディスク等のコンピューターに固定されている外部記憶装置も含んでいる。
また、上記実施形態では、図1および図2に示すように、制御部10と画像表示部20とが別々の構成として形成されているが、制御部10と画像表示部20との構成については、これに限られず、種々変形可能である。例えば、画像表示部20の内部に、制御部10に形成された構成の全てが形成されてもよいし、一部が形成されてもよい。また、上記実施形態における電源130が単独で形成されて、交換可能な構成であってもよいし、制御部10に形成された構成が重複して画像表示部20に形成されていてもよい。例えば、図2に示すCPU140が制御部10と画像表示部20との両方に形成されていてもよいし、制御部10に形成されたCPU140と画像表示部20に形成されたCPUとが行なう機能が別々に分けられている構成としてもよい。
本発明は、上記実施形態や変形例に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、変形例中の技術的特徴は、上述の課題の一部または全部を解決するために、あるいは、上述の効果の一部または全部を達成するために、適宜、差し替えや、組み合わせを行なうことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
10…制御部
11…決定キー
12…点灯部
13…表示切替キー
14…トラックパッド
15…輝度切替キー
16…方向キー
17…メニューキー
18…電源スイッチ
20…画像表示部
21…右保持部
22…右表示駆動部
23…左保持部
24…左表示駆動部
26…右光学像表示部
28…左光学像表示部
30…イヤホンプラグ
32…右イヤホン(音声出力部)
34…左イヤホン(音声出力部)
40…接続部
42…右コード
44…左コード
46…連結部材
48…本体コード
51,52…送信部
53,54…受信部
61…カメラ(検出部)
63…マイク(音声取得部)
90…生体情報取得センサー(生体情報取得部)
100…HMD
120…記憶部
130…電源
132…無線通信部(受信部)
135…操作部
138…シナリオDB
140…CPU
150…オペレーティングシステム
160…画像処理部
165…表示画像設定部
168…物体認識部(検出部)
169…生体情報処理部(生体情報取得部)
170…音声処理部(音声取得部、音声出力部)
180…インターフェイス
190…表示制御部
201…右バックライト制御部
202…左バックライト制御部
211…右LCD制御部
212…左LCD制御部
221…右バックライト
222…左バックライト
241…右LCD
242…左LCD
251…右投写光学系
252…左投写光学系
261…右導光板
262…左導光板
IMG1…選択画像
OA…外部機器
SC…外景
BC…まな板
HD…腕
LE…左眼
RE…右眼
LG…足(第2の対象)
RH…右手
LH…左手
IL…照明光
PL…画像光
EL…端部
PN…画像表示最大領域
KN…包丁(第2の対象)
RN…工具(第2の対象)
AP…先端部
VR…視野
TR…タイヤ(第1の対象)
ER…端部
SS…筋力センサー(生体情報取得部)
FS…魚(第1の対象)
BT…ボルト(第1の対象)
CB1,CB2…切身
MB…中骨
AR1,AR2,AR3,AR4,AR5,AR6…画像
CS1,CS2,CS3…矢印画像
TX1,TX2,TX3,TX4,TX5,TX6…テキスト画像
ARH…腕画像
ARR…工具画像
ARS…筋力センサー画像

Claims (12)

  1. 透過型の頭部装着型表示装置であって、
    外景の中から第1の対象を検出する検出部と、
    前記外景を透過可能で、画像を表示可能な画像表示部と、
    検出された前記第1の対象に対応付けられた動画像である第1の動画像を前記画像表示部に表示させる表示画像設定部と、を備える、頭部装着型表示装置。
  2. 請求項1に記載の頭部装着型表示装置であって、
    前記表示画像設定部は、前記第1の動画像を検出された前記第1の対象の位置に対応付けて表示する、頭部装着型表示装置。
  3. 請求項1または請求項2に記載の頭部装着型表示装置であって、
    前記検出部は、前記外景を撮像し、撮像した撮像画像の中から前記第1の対象を検出する、頭部装着型表示装置。
  4. 請求項1から請求項3までのいずれか一項に記載の頭部装着型表示装置であって、
    前記第1の動画像は、検出された前記第1の対象に対して行なわれる作業に関連する動画像である、頭部装着型表示装置。
  5. 請求項1から請求項4までのいずれか一項に記載の頭部装着型表示装置であって、
    前記検出部は、前記外景の中から、前記第1の対象とは異なる第2の対象を検出し、
    前記表示画像設定部は、前記画像表示部に前記第1の動画像を表示させているときに、前記第2の対象が検出されると、前記第1の動画像に代えて、前記第2の対象に対応付けられた前記第1の動画像とは異なる動画像である第2の動画像を前記画像表示部に表示させる、頭部装着型表示装置。
  6. 請求項1から請求項5までのいずれか一項に記載の頭部装着型表示装置であって、さらに、
    外部の音声を取得する音声取得部を備え、
    前記表示画像設定部は、検出された前記第1の対象と取得された前記音声との組み合わせに基づいて、前記第1の動画像を前記画像表示部に表示させる、頭部装着型表示装置。
  7. 請求項1から請求項6までのいずれか一項に記載の頭部装着型表示装置であって、さらに、
    前記第1の動画像が前記画像表示部に表示されているときに、前記第1の動画像に対応付けられた音声を出力する音声出力部を備える、頭部装着型表示装置。
  8. 請求項1から請求項7までのいずれか一項に記載の頭部装着型表示装置であって、さらに、
    使用者の生体情報を取得する生体情報取得部を備え、
    前記表示画像設定部は、検出された前記第1の対象と取得された使用者の前記生体情報とに基づいて、前記第1の動画像を前記画像表示部に表示させる、頭部装着型表示装置。
  9. 請求項1から請求項8までのいずれか一項に記載の頭部装着型表示装置であって、
    前記第1の対象と前記第1の動画像との対応付けは、検出された前記第1の対象の種類と前記第1の対象の動きと前記外景における前記第1の対象の位置と前記第1の対象の向きとの少なくとも1つと、前記第1の動画像と、の組み合わせである、頭部装着型表示装置。
  10. 記憶装置と透過型の頭部装着型表示装置と有する表示システムであって、
    前記記憶装置は、
    動画像を記憶する記憶部と、
    記憶された前記動画像を前記頭部装着型表示装置へと送信する送信部と、を備え、
    前記頭部装着型表示装置は、
    外景の中から第1の対象を検出する検出部と、
    前記外景を透過可能で、画像を表示可能な画像表示部と、
    検出された前記第1の対象に対応付けられ、前記記憶装置に記憶された前記動画像である第1の動画像を受信する受信部と、
    前記第1の動画像を前記画像表示部に表示させる表示画像設定部と、を備える、表示システム。
  11. 外景を透過可能で画像を表示可能な画像表示部を有する透過型の頭部装着型表示装置の制御方法であって、
    外景の中から第1の対象を検出する工程と、
    検出された前記第1の対象に対応付けられた動画像を前記画像表示部に表示させる工程と、を備える、制御方法。
  12. 外景を透過可能で画像を表示可能な画像表示部を有する透過型の頭部装着型表示装置のためのコンピュータープログラムであって、
    外景の中から第1の対象を検出する検出機能と、
    検出された前記第1の対象に対応付けられた動画像である第1の動画像を前記画像表示部に表示させる表示画像設定機能と、をコンピューターに実現させる、コンピュータープログラム。
JP2014232342A 2014-11-17 2014-11-17 頭部装着型表示装置、表示システム、頭部装着型表示装置の制御方法、および、コンピュータープログラム Active JP6488661B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014232342A JP6488661B2 (ja) 2014-11-17 2014-11-17 頭部装着型表示装置、表示システム、頭部装着型表示装置の制御方法、および、コンピュータープログラム
CN201510623115.0A CN105607253B (zh) 2014-11-17 2015-09-25 头部佩戴型显示装置以及控制方法、显示系统
US14/919,231 US9746914B2 (en) 2014-11-17 2015-10-21 Head mounted display, display system, control method of head mounted display, and computer program
US15/657,937 US10185388B2 (en) 2014-11-17 2017-07-24 Head mounted display, display system, control method of head mounted display, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014232342A JP6488661B2 (ja) 2014-11-17 2014-11-17 頭部装着型表示装置、表示システム、頭部装着型表示装置の制御方法、および、コンピュータープログラム

Publications (2)

Publication Number Publication Date
JP2016096488A true JP2016096488A (ja) 2016-05-26
JP6488661B2 JP6488661B2 (ja) 2019-03-27

Family

ID=56070423

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014232342A Active JP6488661B2 (ja) 2014-11-17 2014-11-17 頭部装着型表示装置、表示システム、頭部装着型表示装置の制御方法、および、コンピュータープログラム

Country Status (1)

Country Link
JP (1) JP6488661B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018066823A (ja) * 2016-10-18 2018-04-26 株式会社日立システムズ 情報表示装置、及びその処理制御方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005165531A (ja) * 2003-12-01 2005-06-23 Canon Inc 情報機器、その制御方法及びプログラム
JP2010067083A (ja) * 2008-09-11 2010-03-25 Brother Ind Ltd ヘッドマウントディスプレイ
JP2010066599A (ja) * 2008-09-11 2010-03-25 Brother Ind Ltd ヘッドマウントディスプレイ
JP2010164814A (ja) * 2009-01-16 2010-07-29 Brother Ind Ltd ヘッドマウントディスプレイ
JP2010210822A (ja) * 2009-03-09 2010-09-24 Brother Ind Ltd ヘッドマウントディスプレイ
JP2011114781A (ja) * 2009-11-30 2011-06-09 Brother Industries Ltd ヘッドマウントディスプレイ装置、及びヘッドマウントディスプレイ装置を用いた画像共有システム
JP2014137522A (ja) * 2013-01-18 2014-07-28 Olympus Corp 眼鏡型操作デバイス、眼鏡型操作システム及び電子機器
JP2014155207A (ja) * 2013-02-14 2014-08-25 Seiko Epson Corp 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP2014203377A (ja) * 2013-04-09 2014-10-27 ソニー株式会社 画像処理装置および記憶媒体

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005165531A (ja) * 2003-12-01 2005-06-23 Canon Inc 情報機器、その制御方法及びプログラム
JP2010067083A (ja) * 2008-09-11 2010-03-25 Brother Ind Ltd ヘッドマウントディスプレイ
JP2010066599A (ja) * 2008-09-11 2010-03-25 Brother Ind Ltd ヘッドマウントディスプレイ
JP2010164814A (ja) * 2009-01-16 2010-07-29 Brother Ind Ltd ヘッドマウントディスプレイ
JP2010210822A (ja) * 2009-03-09 2010-09-24 Brother Ind Ltd ヘッドマウントディスプレイ
JP2011114781A (ja) * 2009-11-30 2011-06-09 Brother Industries Ltd ヘッドマウントディスプレイ装置、及びヘッドマウントディスプレイ装置を用いた画像共有システム
JP2014137522A (ja) * 2013-01-18 2014-07-28 Olympus Corp 眼鏡型操作デバイス、眼鏡型操作システム及び電子機器
JP2014155207A (ja) * 2013-02-14 2014-08-25 Seiko Epson Corp 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP2014203377A (ja) * 2013-04-09 2014-10-27 ソニー株式会社 画像処理装置および記憶媒体

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018066823A (ja) * 2016-10-18 2018-04-26 株式会社日立システムズ 情報表示装置、及びその処理制御方法

Also Published As

Publication number Publication date
JP6488661B2 (ja) 2019-03-27

Similar Documents

Publication Publication Date Title
US10185388B2 (en) Head mounted display, display system, control method of head mounted display, and computer program
US10297062B2 (en) Head-mounted display device, control method for head-mounted display device, and computer program
US10140768B2 (en) Head mounted display, method of controlling head mounted display, and computer program
US10133344B2 (en) Head mounted display apparatus
US20200286242A1 (en) Image processing apparatus, control method for image processing apparatus, and computer program
US9547372B2 (en) Image processing device and head mounted display apparatus including the same
JP6155622B2 (ja) 表示装置、頭部装着型表示装置、表示装置の制御方法、および、頭部装着型表示装置の制御方法
US9542958B2 (en) Display device, head-mount type display device, method of controlling display device, and method of controlling head-mount type display device
US9792710B2 (en) Display device, and method of controlling display device
JP6421543B2 (ja) 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム
JP6600945B2 (ja) 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム
JP6492673B2 (ja) 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム
JP2018142168A (ja) 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
JP2017091433A (ja) 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム
JP2015072415A (ja) 表示装置、頭部装着型表示装置、表示装置の制御方法、および、頭部装着型表示装置の制御方法
JP6358038B2 (ja) 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム
JP6620420B2 (ja) 頭部装着型表示装置、表示システム、頭部装着型表示装置の制御方法、および、コンピュータープログラム
JP2019012537A (ja) 頭部装着型表示装置、コンピュータープログラム
US9866823B2 (en) Head mounted display device, control method for head mounted display device, and computer program
JP6488661B2 (ja) 頭部装着型表示装置、表示システム、頭部装着型表示装置の制御方法、および、コンピュータープログラム
JP2017134630A (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP2018085595A (ja) 頭部装着型表示装置、及び、頭部装着型表示装置の制御方法
JP6287399B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP2018092206A (ja) 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
JP2019053714A (ja) 頭部装着型表示装置、及び頭部装着型表示装置の制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170731

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180702

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190211

R150 Certificate of patent or registration of utility model

Ref document number: 6488661

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150