JP2016208348A - 表示装置、表示装置の制御方法、及び、プログラム - Google Patents

表示装置、表示装置の制御方法、及び、プログラム Download PDF

Info

Publication number
JP2016208348A
JP2016208348A JP2015089327A JP2015089327A JP2016208348A JP 2016208348 A JP2016208348 A JP 2016208348A JP 2015089327 A JP2015089327 A JP 2015089327A JP 2015089327 A JP2015089327 A JP 2015089327A JP 2016208348 A JP2016208348 A JP 2016208348A
Authority
JP
Japan
Prior art keywords
sound
unit
user
image
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015089327A
Other languages
English (en)
Inventor
健郎 矢島
Takeo Yajima
健郎 矢島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2015089327A priority Critical patent/JP2016208348A/ja
Priority to US15/132,765 priority patent/US20160313973A1/en
Publication of JP2016208348A publication Critical patent/JP2016208348A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/01Aspects of volume control, not necessarily automatic, in sound systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/20Processing of the output signals of the acoustic transducers of an array for obtaining a desired directivity characteristic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • H04R29/004Monitoring arrangements; Testing arrangements for microphones

Abstract

【課題】画像と音とを出力する装置において、利便性を損なうことなく、外部の環境音等の影響による聴取性の低下を防ぐ。【解決手段】HMD100は、使用者に画像を視認させるとともに外景を透過する画像表示部20と、音を出力する右イヤホン32及び左イヤホン34とを備える。HMD100は、画像表示部20により表示される画像に対応する音を右イヤホン32及び左イヤホン34により出力させる音出力処理と、右イヤホン32及び左イヤホン34により出力される音に対する音処理、または、画像表示部20により表示される画像に対する処理を含み、右イヤホン32及び左イヤホン34が出力する音の聴取性を変化させる出力制御処理をAR制御部185により実行する。【選択図】図3

Description

本発明は、表示装置、表示装置の制御方法、及び、プログラムに関する。
従来、視聴者の頭部に装着されるHMDにおいて、映像と音とを出力するものが知られている(例えば、特許文献1参照)。特許文献1記載のHMDは、視聴者の周囲を360°の範囲にわたって取り囲むような映像から切り出した映像と、視聴者の周囲を360°の範囲にわたって取り囲むような音響の音響信号の定位を変換した音響信号とを出力する。
特開2002−171460号公報
特許文献1記載のように、映像等の画像と音とを出力する場合、これらの映像及び音と無関係な外部の環境音の影響で、装置が出力する音の聴取性が低下することがあった。この影響を排除するためには外部の環境音を遮断することが考えられるが、環境音が聞こえないことで利便性の低下が懸念される。
本発明は上記事情に鑑みてなされたものであり、画像と音とを出力する装置において、利便性を損なうことなく、外部の環境音等の影響による聴取性の低下を防ぐことができるようにすることを目的とする。
上記目的を達成するため、本発明は、使用者の頭部に装着される表示装置であって、画像を表示する表示部と、音を出力する音出力部と、前記音出力部により音を出力させる音出力処理と、前記音出力部により出力される音に対する音処理、または、前記表示部により表示される画像に対する処理を含み、前記音出力部が出力する音の聴取性を変化させる出力制御処理と、を実行する処理部と、を備えることを特徴とする。
本発明によれば、画像を表示し、画像に対応する音を出力する表示装置において、出力される音の聴取性を変化させることにより、外部の環境音等の聴取性を低下させる要因を遮断することなく、聴取性を高めることができる。これにより、利便性を損なわずに、視覚効果及び聴覚効果の向上を図ることができる。
また、本発明は、上記表示装置において、前記処理部は、前記音出力処理において、前記表示部により表示される画像に対応する音を前記音出力部により出力させること、を特徴とする。
本発明によれば、表示される画像に対応する音を出力する場合に、音の聴取性を変化させることで、より顕著な視覚効果及び聴覚効果の向上を図ることができる。
また、本発明は、上記表示装置において、前記使用者の頭部の位置、動き、及び方向の少なくともいずれかを検出する動作検出部を備え、前記処理部は前記動作検出部の検出結果に基づき前記出力制御処理を実行すること、を特徴とする。
本発明によれば、使用者の頭部の位置や動きに対応して、表示装置が出力する音の聴取性を高めることができ、より一層の聴覚効果の向上を図ることができる。
また、本発明は、上記表示装置において、前記使用者の頭部の動きを検出する動きセンサーを備え、前記動作検出部は、前記動きセンサーの検出値に基づいて、前記使用者の頭部の位置、動き、及び方向の少なくともいずれかを求めること、を特徴とする。
本発明によれば、使用者の頭部の位置、動き、及び方向を容易に検出できる。
また、本発明は、上記表示装置において、前記処理部は、外部の音と、前記外部の音の音源の位置とを特定する音特定処理を行い、特定した前記外部の音または前記音源の位置に基づき前記出力制御処理を実行すること、を特徴とする。
本発明によれば、外部から発される音の音源の位置に基づいて処理を行うことで、表示装置が出力する音の聴取性を高めることができる。
また、本発明は、上記表示装置において、前記外部の音を集音し検出するマイクを備え、前記処理部は、前記マイクにより前記使用者が注視する方向から検出された音、及び、前記動作検出部の検出結果に基づき、前記音特定処理を実行して、外部の音と、前記外部の音を発する音源の位置とを特定すること、を特徴とする。
本発明によれば、外部の音、及び外部の音源の位置を容易に検出できる。
また、本発明は、上記表示装置において、前記処理部は、前記出力制御処理において、前記マイクにより検出される外部の音に基づく音を前記音出力部により出力させること、を特徴とする。
本発明によれば、表示装置が出力する音の聴取性が外部の音の影響で低下することを防止でき、外部の音に基づく処理を行える。
また、本発明は、上記表示装置において、前記処理部は、前記動作検出部により検出される前記使用者の頭部の位置と、前記音特定処理により特定した前記音源の位置との相対位置を求め、求めた相対位置に基づき、前記出力制御処理を実行すること、を特徴とする。
本発明によれば、使用者の頭部の位置と音源の位置とに対応して、表示装置が出力する音の聴取性を確実に高めることができる。
また、本発明は、上記表示装置において、前記処理部は、前記使用者の頭部の位置と前記音源の位置との相対位置に加え、前記音特定処理により特定した前記音源の位置と、前記使用者の眼及び耳のそれぞれとの相対位置を求めること、を特徴とする。
本発明によれば、表示装置が出力する音の聴取性を、より確実に高めることができる。
また、本発明は、上記表示装置において、前記処理部は、前記使用者の頭部の位置と前記音源の位置との相対位置に基づいて前記使用者の聴感に係る聴覚情報を生成して、前記聴覚情報に基づき前記出力制御処理を実行し、前記動作検出部により検出される前記使用者の頭部の動きに基づいて、前記聴覚情報を更新すること、を特徴とする。
本発明によれば、使用者の頭部と音源との相対位置を適切に反映した処理を行うことができる。
また、本発明は、上記表示装置において、前記処理部は、前記出力制御処理において、前記音源の位置に対応する方向を前記使用者が見る場合の視認性を変化させるように、前記表示部により表示される画像に対する処理を行うこと、を特徴とする。
本発明によれば、表示画像の視覚効果により、使用者が音源の位置する方向を見る場合の視認性を変化させることで、効果的に聴覚への影響を与えることができる。
また、本発明は、上記表示装置において、前記使用者の視線方向を検出する視線検出部を備え、前記処理部は、前記視線検出部の検出結果から前記使用者が注視する方向を特定し、特定した方向に対応して前記出力制御処理を実行すること、を特徴とする。
本発明によれば、使用者が注視する方向を検出して、視覚効果及び聴覚効果をより一層高めることができる。
また、本発明は、上記表示装置において、前記処理部は、前記出力制御処理において、前記使用者が注視する方向に位置する対象物に重ねて画像を表示すること、を特徴とする。
本発明によれば、独自の視覚効果を得ることができる。
また、本発明の別の態様は、使用者の頭部に装着される表示装置であって、画像を表示する表示部を備え、前記使用者が注視する注視方向または注視する対象物を検出し、検出した注視方向または対象物の視認性を高める表示を前記表示部により行わせる処理部を備えること、を特徴とする。
本発明によれば、画像を表示する表示装置において、使用者が注視する方向の視認性を高めることによって、注視する方向に対し、より強い注意を喚起することにより、注視方向から聞こえる音の聴取性を高める効果が期待できる。このため、いわゆるカクテルパーティー効果を利用して、使用者が聴取を望む音の聴取性を高めることができる。
また、本発明の別の態様は、使用者の頭部に装着される表示装置であって、画像を表示する表示部と、音を出力する音出力部と、前記表示部により表示される画像に対応する音を前記音出力部により出力させる音出力処理と、前記音出力部により出力される音に対する音処理、または、前記表示部により表示される画像に対する処理を含み、前記音出力部が出力する音の聴取性を変化させる出力制御処理と、を実行する処理部と、を備え、前記処理部は、前記出力制御処理において、前記使用者が注視する注視方向または注視する対象物を検出し、検出した注視方向または対象物の方向から到達する音を選択し、選択した音の聴取性を高める音響処理を高めることを特徴とする。
本発明によれば、画像を表示し、画像に対応する音を出力する表示装置において、出力される音の聴取性を変化させることにより、外部の環境音等の聴取性を低下させる要因を遮断することなく、聴取性を高めることができる。これにより、利便性を損なわずに、視覚効果及び聴覚効果の向上を図ることができる。
また、本発明の別の態様は、使用者の頭部に装着される表示装置であって、画像を表示する表示部と、音を出力する音出力部と、前記表示部により表示される画像に対応する音を前記音出力部により出力させる音出力処理と、外部の音を集音し検出するマイクと、前記音出力部により出力される音に対する音処理、または、前記表示部により表示される画像に対する処理を含み、前記音出力部が出力する音の聴取性を変化させる出力制御処理と、を実行する処理部と、を備え、前記処理部は、前記マイクにより集音された音を言語として認識して翻訳する翻訳処理と、翻訳後の音声を前記音出力部により出力させる翻訳音声出力処理とを実行し、前記翻訳音声出力処理を行う際に、翻訳後の音声に対応する画像を前記表示部に表示させることを特徴とする。
本発明によれば、画像を表示し、画像に対応する音を出力する表示装置において、音声を集音して翻訳し、翻訳後の音声を出力することができ、この翻訳後の音声が視覚的な情報により識別しにくくなる事態を防止できる。このため、翻訳後の音声の聴取性を高めることができる。
また、上記目的を達成するため、本発明の表示装置の制御方法は、上記表示装置において、使用者の頭部に装着され、画像を表示する表示部と、音を出力する音出力部と、を有する表示装置を制御して、前記音出力部により音を出力させ、前記音出力部により出力される音に対する音処理、または、前記表示部により表示される画像に対する処理を含み、前記音出力部が出力する音の聴取性を変化させる出力制御処理を実行すること、を特徴とする。
本発明によれば、表示装置が出力する音の聴取性を変化させ、外部の環境音等の聴取性を低下させる要因を遮断することなく、聴取性を高めることができる。これにより、利便性を損なわずに、視覚効果及び聴覚効果の向上を図ることができる。
また、上記目的を達成するため、本発明は、使用者の頭部に装着され、画像を表示する表示部と、音を出力する音出力部と、を有する表示装置を制御するコンピューターが実行可能なプログラムであって、前記コンピューターを、前記音出力部により音を出力させる音出力処理と、前記音出力部により出力される音に対する音処理、または、前記表示部により表示される画像に対する処理を含み、前記音出力部が出力する音の聴取性を変化させる出力制御処理と、を実行する処理部として機能させるプログラムである。
本発明のプログラムをコンピューターが実行することにより、表示装置が出力する音の聴取性を変化させ、外部の環境音等の聴取性を低下させる要因を遮断することなく、聴取性を高めることができる。これにより、利便性を損なわずに、視覚効果及び聴覚効果の向上を図ることができる。
本発明の実施形態のHMDの外観構成を示す説明図。 画像表示部の要部構成を示す図。 HMDを構成する各部の機能ブロック図。 HMDの動作を示すフローチャート。 HMDの動作を示すフローチャート。 HMDの動作を示すフローチャート。 HMDの動作を示すフローチャート。 HMDの動作を示すフローチャート。 HMDの動作を示すフローチャート。
以下、図面を参照して本発明の実施形態について説明する。
図1は、本発明を適用した実施形態に係るHMD100の外観構成を示す説明図である。HMD100は、使用者(視聴者、ユーザー)が頭部に装着する表示装置であり、ヘッドマウントディスプレイ(Head Mounted Display:頭部装着型表示装置)とも呼ばれる。本実施形態のHMD100は、使用者が、虚像を視認すると同時に外景も直接視認可能な光学透過型の表示装置である。なお、本明細書では、HMD100によって使用者が視認する虚像を便宜的に「表示画像」とも呼ぶ。また、画像データに基づいて生成された画像光を射出することを「画像を表示する」ともいう。
HMD100は、使用者の頭部に装着された状態において使用者に虚像を視認させる画像表示部20(表示部)と、画像表示部20を制御する制御装置10と、を備えている。制御装置10は、使用者がHMD100を操作するためのコントローラーとしても機能する。
画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有している。画像表示部20は、右保持部21と、右表示駆動部22と、左保持部23と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、右カメラ61と、左カメラ62と、マイク63とを備える。右光学像表示部26及び左光学像表示部28は、それぞれ、使用者が画像表示部20を装着した際に使用者の右及び左の眼前に位置するように配置されている。右光学像表示部26の一端と左光学像表示部28の一端とは、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置で、互いに接続される。
右保持部21は、右光学像表示部26の他端である端部ERから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。同様に、左保持部23は、左光学像表示部28の他端である端部ELから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。右保持部21及び左保持部23は、眼鏡のテンプル(つる)のようにして、使用者の頭部に画像表示部20を保持する。
右表示駆動部22と左表示駆動部24とは、使用者が画像表示部20を装着した際の使用者の頭部に対向する側に配置されている。なお、右表示駆動部22及び左表示駆動部24を総称して単に「表示駆動部」とも呼び、右光学像表示部26及び左光学像表示部28を総称して単に「光学像表示部」とも呼ぶ。
表示駆動部22,24は、液晶ディスプレイ241,242(Liquid Crystal Display、以下「LCD241,242」とも呼ぶ)や投写光学系251,252等を含む(図2参照)。表示駆動部22,24の構成の詳細は後述する。光学部材としての光学像表示部26,28は、導光板261,262(図2参照)を備える。導光板261,262は、光透過性の樹脂等によって形成され、表示駆動部22,24から出力された画像光を使用者の眼に導く。本実施形態では、少なくとも、HMD100を装着した使用者が外の景色を視認できる程度の光透過性を有する右光学像表示部26及び左光学像表示部28を用いる場合について説明する。
画像表示部20には、後述する右カメラ61及び左カメラ62が配置される。右カメラ61及び左カメラ62は、制御装置10の制御に従って、使用者の前方を撮像する。また、画像表示部20には、距離センサー64が設けられる。
画像表示部20は、さらに、画像表示部20を制御装置10に接続するための接続部40を有している。接続部40は、制御装置10に接続される本体コード48と、右コード42と、左コード44と、連結部材46とを備える。右コード42と左コード44とは、本体コード48が2本に分岐したコードである。右コード42は、右保持部21の延伸方向の先端部APから右保持部21の筐体内に挿入され、右表示駆動部22に接続されている。同様に、左コード44は、左保持部23の延伸方向の先端部APから左保持部23の筐体内に挿入され、左表示駆動部24に接続される。
連結部材46は、本体コード48と、右コード42及び左コード44との分岐点に設けられ、イヤホンプラグ30を接続するためのジャックを有している。イヤホンプラグ30からは、右イヤホン32及び左イヤホン34が延伸している。イヤホンプラグ30の近傍にはマイク63が設けられている。イヤホンプラグ30からマイク63までは一本のコードにまとめられ、マイク63からコードが分岐して、右イヤホン32と左イヤホン34のそれぞれに繋がっている。
右イヤホン32及び左イヤホン34は、後述する音声処理部187(図3)とともに音出力部を構成する。
マイク63は、例えば図1に示すように、マイク63の集音部が使用者の視線方向を向くように配置され、音を集音して、音声信号を制御部140に出力する。マイク63は、例えばモノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであってもよいし、無指向性のマイクであってもよい。本実施形態のマイク63は、図2(B)を参照して後述する使用者の視線方向を向くように配設される指向性のマイクである。従って、例えば、使用者の体や顔のほぼ正面からの音を最も良好に集音する。
右イヤホン32及び左イヤホン34が出力する音、マイク63が集音し処理する音、及び、音声処理部187が処理する音は、人間が発する音声、または人間の声に類似する音声に限らず、自然音、人工音など音であればよい。本実施形態では「音声」と表記し、人間の声を含む場合を例として示すが、あくまで一例であって、本発明の適用範囲を人間の音声に限定するものではない。また、右イヤホン32及び左イヤホン34が出力する音、マイク63が集音する音、及び、音声処理部187が処理する音の周波数帯についても特に制限はない。右イヤホン32及び左イヤホン34が出力する音、マイク63が集音する音、及び、音声処理部187が処理する音の周波数帯がそれぞれ異なっていてもよいし、同一の周波数帯の音を処理する構成であってもよい。上記周波数帯の一例としては、使用者が聞くことが可能な音、すなわち、人間の可聴周波数帯の音としてもよいし、可聴周波数帯域外の周波数の音を含んでもよい。
また、右コード42と左コード44とを一本のコードにまとめることも可能である。具体的には、右コード42の内部の導線を、画像表示部20の本体内部を通して左保持部23側に引き込み、左コード44内部の導線とともに樹脂で被覆して、一本のコードにまとめてもよい。
画像表示部20と制御装置10とは、接続部40を介して各種信号の伝送を行なう。本体コード48における連結部材46とは反対側の端部と、制御装置10とのそれぞれには、互いに嵌合するコネクター(図示略)が設けられている。本体コード48のコネクターと制御装置10のコネクターとの嵌合/嵌合解除により、制御装置10と画像表示部20とが接続されたり切り離されたりする。右コード42と、左コード44と、本体コード48とには、例えば、金属ケーブルや光ファイバーを採用できる。
制御装置10は、HMD100を制御する。制御装置10は、決定キー11、点灯部12、表示切替キー13、輝度切替キー15、方向キー16、メニューキー17、及び電源スイッチ18を含むスイッチ類を備える。また、制御装置10は、使用者が手指で操作するトラックパッド14を備える。
決定キー11は、押下操作を検出して、制御装置10で操作された内容を決定する信号を出力する。点灯部12は、LED(Light Emitting Diode)等の光源を備え、光源の点灯状態により、HMD100の動作状態(例えば、電源のON/OFF)を通知する。表示切替キー13は、押下操作に応じて、例えば、画像の表示モードの切り替えを指示する信号を出力する。
トラックパッド14は、接触操作を検出する操作面を有し、操作面に対する操作に応じて操作信号を出力する。操作面における検出方式は限定されず、静電式、圧力検出式、光学式等を採用できる。輝度切替キー15は、押下操作に応じて画像表示部20の輝度の増減を指示する信号を出力する。方向キー16は、上下左右方向に対応するキーへの押下操作に応じて操作信号を出力する。電源スイッチ18は、HMD100の電源オン/オフを切り替えるスイッチである。
図2は、画像表示部20の要部構成を示す図であり、(A)は画像表示部20を使用者の頭部側から見た要部斜視図、(B)は右カメラ61及び左カメラ62の画角の説明図である。なお、図2(A)では画像表示部20に繋がる右コード42、左コード44等の図示を省略する。
図2(A)は、画像表示部20の使用者の頭部に接する側、言い換えれば使用者の右眼RE及び左眼LEに見える側である。別の言い方をすれば、右光学像表示部26及び左光学像表示部28の裏側が見えている。
図2(A)の例では、使用者の右眼REに画像光を照射するハーフミラー261A、及び、左眼LEに画像光を照射するハーフミラー262Aが、略四角形の領域として見える。ハーフミラー261Aは右表示駆動部22により生成される画像光を使用者の右眼に導く右導光板261が有する反射面である。ハーフミラー262Aは、左表示駆動部24により生成される画像光を使用者の左眼に導く左導光板262が有する反射面である。これらの反射面であるハーフミラー261A、262Aにより、使用者の右眼及び左眼に画像光が入射する。
ハーフミラー261A、262Aを含む右光学像表示部26及び左光学像表示部28の全体は、上述したように外光を透過する。このため、使用者には、右光学像表示部26及び左光学像表示部28の全体を透過して外景が視認され、ハーフミラー261A、262Aの位置に矩形の表示画像が視認される。
右カメラ61は、HMD100の前面において右保持部21側の端部に配置される。また、左カメラ62は、HMD100の前面において左保持部23側の端部に配置される。右カメラ61、左カメラ62は、CCDやCMOS等の撮像素子及び撮像レンズ等を備えるデジタルカメラであり、右カメラ61と左カメラ62とがステレオカメラを構成する。
右カメラ61及び左カメラ62は、HMD100の表側方向、換言すれば、HMD100を装着した状態における使用者の視界方向の少なくとも一部の外景を撮像する。右カメラ61及び左カメラ62の画角の広さは適宜設定可能であるが、本実施形態では、使用者が右光学像表示部26、左光学像表示部28を通して視認する外界を含む画角である。右カメラ61及び左カメラ62は、制御部140の制御に従って撮像を実行し、撮像画像データを制御部140に出力する。
図2(B)は、右カメラ61、左カメラ62、及び距離センサー64の位置を、使用者の右眼RE及び左眼LEとともに平面視で模式的に示す図である。右カメラ61の画角(撮像範囲)をCR、左カメラ62の画角(撮像範囲)をCLで示す。なお、図2(B)には水平方向の画角CR、CLを示すが、右カメラ61及び左カメラ62の実際の画角は、一般的なデジタルカメラと同様に上下方向に拡がる。
画角CRと画角CLとは、画像表示部20の中央位置に対してほぼ左右対称であり、画角CRと画角CLは、いずれも画像表示部20の中央位置の真正面方向を含む。このため、画像表示部20の中央位置の正面で、画角CR、CLが重なる。
例えば、図2(B)に示すように、画像表示部20の正面方向に対象物OBがある場合、対象物OBは画角CR及び画角CLのどちらにも含まれる。このため、右カメラ61の撮像画像と、左カメラ62の撮像画像のいずれも、対象物OBが写る。ここで、使用者が対象物OBを注視すると、使用者の視線は、図中符号RD、LDに示すように対象物OBに向けられる。一般に、人間の視野角は水平方向におよそ200度、垂直方向におよそ125度とされ、そのうち情報受容能力に優れる有効視野は水平方向に30度、垂直方向に20度程度である。さらに、人間が注視する注視点が迅速に安定して見える安定注視野は、水平方向に60〜90度、垂直方向に45度〜70度程度とされている。
従って、注視点が対象物OBである場合、視線RD、LDを中心として水平方向に30度、垂直方向に20度程度が有効視野であり、水平方向に60〜90度、垂直方向に45度〜70度程度が安定注視野であり、水平方向に約200度、垂直方向に約125度が視野角となる。
また、HMD100を装着する使用者が右光学像表示部26及び左光学像表示部28を透過して視認する実際の視野を、実視野(FOV:Field Of View)と呼ぶ。実視野は、図2(B)を参照して説明した視野角及び安定注視野より狭いが、有効視野より広い。
右カメラ61及び左カメラ62は、使用者の視野よりも広い範囲を撮像可能であることが好ましく、具体的には、画角CR、CLの全体が、少なくとも使用者の有効視野よりも広いことが好ましい。また、画角CR、CLの全体が、使用者の実視野よりも広いことが、より好ましい。さらに好ましくは、画角CR、CLの全体が、使用者の安定注視野よりも広く、最も好ましくは、画角CR、CLの全体が使用者の視野角よりも広い。
このため、右カメラ61及び左カメラ62は、画角CRと画角CLとが、図2(B)に示すように画像表示部20の前方で重なるように配置される。また、右カメラ61及び左カメラ62を広角カメラで構成してもよい。すなわち、右カメラ61及び左カメラ62が、撮像レンズとして、いわゆる広角レンズを備え、広い画角を撮像できる構成としてもよい。広角レンズには、超広角レンズ、準広角レンズと呼ばれるレンズを含んでもよいし、単焦点レンズであってもズームレンズであってもよく、複数のレンズからなるレンズ群を右カメラ61及び左カメラ62が備えてもよい。また、右カメラ61の画角CRと左カメラ62の画角CLとは同じ角度でなくてもよい。また、右カメラ61の撮像方向と左カメラ62の撮像方向とは、完全に平行である必要はない。右カメラ61の撮像画像と、左カメラ62の撮像画像とを重ね合わせた場合に、使用者の視野よりも広い範囲が撮像されていればよい。
図2(B)には、距離センサー64の検出方向を符号64Aで示す。本実施形態で、距離センサー64は、画像表示部20の中央位置から正面方向に位置する物体までの距離を検出可能に構成され、例えば対象物OBまでの距離を検出する。HMD100を装着した使用者は、注視する方向に頭を向けるため、注視する対象は画像表示部20の正面にあると考えることができる。このため、画像表示部20の中央に配置された距離センサー64が、画像表示部20の正面を検出方向64Aとすれば、使用者が注視する対象までの距離を検出できる。
また、図2(A)に示すように、画像表示部20の使用者側には視線センサー68が配置される。視線センサー68は、使用者の右眼RE、及び、左眼LEのそれぞれに対応するように、右光学像表示部26と左光学像表示部28との中央位置に一対、設けられる。
視線センサー68は、例えば、使用者の右眼REと左眼LEとをそれぞれ撮像する一対のカメラで構成される。視線センサー68は、制御部140(図3)の制御に従って撮像を行い、制御部140が、撮像画像データから右眼RE及び左眼LEの眼球表面における反射光や瞳孔の画像を検出し、視線方向を特定する。
なお、視線方向を検出する構成は、視線センサー68に限定されず、例えば、使用者の眼の眼電位または眼筋の筋電位を計測して眼球運動を検出することにより、視線を推定する構成であってもよい。また、右カメラ61及び左カメラ62の撮像画像からHMD100の向きを求めることにより、視線方向を特定してもよい。
図3は、HMD100を構成する各部の機能ブロック図である。
図3に示すように、HMD100は、インターフェイス125を介して外部機器OAに接続される。インターフェイス125は、制御装置10に対して、コンテンツの供給元となる種々の外部機器OAを接続するためのインターフェイスである。インターフェイス125としては、例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等の有線接続に対応したインターフェイスを用いることができる。
外部機器OAは、HMD100に画像を供給する画像供給装置として用いられ、例えば、パーソナルコンピューター(PC)や携帯電話端末、ゲーム端末等が用いられる。
HMD100の制御装置10は、制御部140と、操作部111と、入力情報取得部110と、記憶部120と、送信部(Tx)51及び送信部(Tx)52とを有している。
入力情報取得部110は、操作部111に接続される。操作部111は、使用者による操作を検出する。操作部111は、図1に示した決定キー11、表示切替キー13、トラックパッド14、輝度切替キー15、方向キー16、メニューキー17及び電源スイッチ18の各操作子を含む。入力情報取得部110は、操作部111から入力される信号に基づき、入力内容を取得する。また、制御装置10は、制御装置10及び画像表示部20の各部に電源を供給する電源部130を備える。
記憶部120は、不揮発性の記憶装置であって、種々のコンピュータープログラムを格納している。また、記憶部120には、HMD100の画像表示部20に表示する画像データが格納されていても良い。例えば、記憶部120は、HMD100の動作に係る設定値等を含む設定データ121、及び、制御部140が画像表示部20に表示させる文字や画像のデータを含むコンテンツデータ123を記憶する。
また、制御部140には、3軸センサー113、GPS115、及び通信部117が接続される。3軸センサー113は3軸の加速度センサーであり、3軸センサー113の検出値を制御部140が取得可能である。GPS115は、アンテナ(図示略)を備え、GPS(Global Positioning System)信号を受信し、制御装置10の現在位置を求める。GPS115は、GPS信号に基づいて求めた現在位置や現在時刻を制御部140に出力する。また、GPS115はGPS信号に含まれる情報に基づいて現在時刻を取得し、制御装置10の制御部140が計時する時刻を修正させる機能を備えていてもよい。
通信部117は、無線LAN(WiFi(登録商標))や、Miracast(登録商標)等の無線通信の規格に準じた無線データ通信を実行する。また、通信部117は、Bluetooth(登録商標)や、Bluetooth Low Energy、RFID、Felica(登録商標)等の近距離無線通信の規格に準じた無線データ通信を実行することも可能である。
外部機器OAが、通信部117に無線接続された場合には、制御部140は、コンテンツデータを通信部117より取得して、画像表示部20に画像を表示するための制御を行う。一方、外部機器OAが、インターフェイス125に有線接続された場合には、制御部140は、コンテンツデータをインターフェイス125より取得して、画像表示部20に画像を表示するための制御を行う。よって、通信部117及びインターフェイス125を、以下総称してデータ取得部DAと呼ぶ。
データ取得部DAは、外部機器OAからコンテンツデータを取得する。データ取得部DAは、HMD100が表示する画像のデータを、外部機器OAから取得する。
一方、画像表示部20は、インターフェイス25と、右表示駆動部22と、左表示駆動部24と、右光学像表示部26としての右導光板261と、左光学像表示部28としての左導光板262と、右カメラ61と、左カメラ62と、振動センサー65と、9軸センサー66(動きセンサー)とを備える。
振動センサー65は、加速度センサーを利用して構成され、画像表示部20の内部に配置される。振動センサー65は、例えば、右保持部21において右光学像表示部26の端部ERの近傍に内蔵される。振動センサー65は、使用者が端部ERを叩く操作(ノック操作)を行った場合に、この操作による振動を検出して、検出結果を制御部140に出力する。この振動センサー65の検出結果により、制御部140は、使用者によるノック操作を検出する。
9軸センサー66は、加速度(3軸)、角速度(3軸)、地磁気(3軸)を検出するモーションセンサーである。9軸センサー66は、制御部140の制御に従って検出を実行し、検出値を制御部140に出力する。
インターフェイス25は、右コード42と左コード44とが接続されるコネクターを備える。インターフェイス25は、送信部51から送信されるクロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、画像データDataを、対応する受信部(Rx)53、54に出力する。また、インターフェイス25は、表示制御部170から送信される制御信号を、対応する受信部53、54、右バックライト制御部201又は左バックライト制御部202に出力する。
また、インターフェイス25は、右カメラ61、左カメラ62、距離センサー64、9軸センサー66及び視線センサー68を接続するインターフェイスである。右カメラ61、左カメラ62の撮像データ、距離センサー64の検出結果、9軸センサー66による加速度(3軸)、角速度(3軸)、地磁気(3軸)の検出結果、及び、視線センサー68の検出結果は、インターフェイス25を介して制御部140に送られる。
右表示駆動部22は、受信部53と、光源として機能する右バックライト(BL)制御部201及び右バックライト(BL)221と、表示素子として機能する右LCD制御部211及び右LCD241と、右投写光学系251とを備える。右バックライト制御部201と右バックライト221とは、光源として機能する。右LCD制御部211と右LCD241とは、表示素子として機能する。なお、右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241とを総称して「画像光生成部」とも呼ぶ。
受信部53は、制御装置10と画像表示部20との間におけるシリアル伝送のためのレシーバーとして機能する。右バックライト制御部201は、入力された制御信号に基づいて、右バックライト221を駆動する。右バックライト221は、例えば、LEDやエレクトロルミネセンス(EL)等の発光体である。右LCD制御部211は、受信部53を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データDataとに基づいて、右LCD241を駆動する。右LCD241は、複数の画素をマトリクス状に配置した透過型液晶パネルである。
右投写光学系251は、右LCD241から射出された画像光を並行状態の光束にするコリメートレンズによって構成される。右光学像表示部26としての右導光板261は、右投写光学系251から出力された画像光を、所定の光路に沿って導光し、ハーフミラー261Aに反射させて使用者の右眼REに導く。
左表示駆動部24は、右表示駆動部22と同様の構成を有している。左表示駆動部24は、受信部54と、光源として機能する左バックライト(BL)制御部202及び左バックライト(BL)222と、表示素子として機能する左LCD制御部212及び左LCD242と、左投写光学系252と、を備える。左バックライト制御部202と左バックライト222とは、光源として機能する。左LCD制御部212と左LCD242とは、表示素子として機能する。また、左投写光学系252は、左LCD242から射出された画像光を並行状態の光束にするコリメートレンズによって構成される。左光学像表示部28としての左導光板262は、左投写光学系252から出力された画像光を、所定の光路に沿って導光し、ハーフミラー262Aに反射させて使用者の左眼LEに導く。
制御部140は、ハードウェアとして、CPU、ROM、RAM(いずれも図示略)等を備える。制御部140は、記憶部120に格納されているコンピュータープログラムを読み出して実行することにより、オペレーティングシステム(OS)150、画像処理部160、表示制御部170、動作検出部181、視線検出部183、AR制御部185(処理部)、及び音声処理部187として機能する。
画像処理部160は、コンテンツを表示するための垂直同期信号VSync、水平同期信号HSync、クロック信号PCLK等、表示する画像の画像データ(図中、Data)を出力する。
画像処理部160の処理によって表示されるコンテンツの画像データは、インターフェイス125や通信部117を介して受信する他、制御部140の処理によって生成される画像データであってもよい。例えば、ゲームのアプリケーションプログラムの実行中に、操作部111の操作に対応して画像データを生成して表示することができる。
なお、画像処理部160は、必要に応じて、画像データに対して、解像度変換処理や、輝度、彩度の調整といった種々の色調補正処理、キーストーン補正処理等の画像処理を実行してもよい。
画像処理部160は、生成されたクロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、記憶部120内のDRAMに格納された画像データDataのそれぞれを、送信部51、52を介して送信する。なお、送信部51を介して送信される画像データDataを「右眼用画像データ」とも呼び、送信部52を介して送信される画像データDataを「左眼用画像データ」とも呼ぶ。送信部51、52は、制御装置10と画像表示部20との間におけるシリアル伝送のためのトランシーバーとして機能する。
表示制御部170は、右表示駆動部22及び左表示駆動部24を制御する制御信号を生成する。具体的には、表示制御部170は、制御信号により、右LCD制御部211による右LCD241の駆動ON/OFF、右バックライト制御部201による右バックライト221の駆動ON/OFFを個別に制御する。また、表示制御部170は、左LCD制御部212による左LCD242の駆動ON/OFF、左バックライト制御部202による左バックライト222の駆動ON/OFFを個別に制御する。
これにより、表示制御部170は、右表示駆動部22及び左表示駆動部24のそれぞれによる画像光の生成および射出を制御する。例えば、表示制御部170は、右表示駆動部22及び左表示駆動部24の両方に画像光を生成させたり、一方のみに画像光を生成させたりする。また、表示制御部170は、右表示駆動部22及び左表示駆動部24の両方共に画像光を生成させないようにすることもできる。
また、表示制御部170は、右LCD制御部211に対する制御信号と、左LCD制御部212に対する制御信号とのそれぞれを、送信部51と送信部52とを介して送信する。また、表示制御部170は、右バックライト制御部201に対する制御信号を右バックライト制御部201に送信し、左バックライト制御部202に対する制御信号を左バックライト制御部202により送信する。
動作検出部181は、9軸センサー66の検出値を取得して、画像表示部20を装着した使用者の頭部の動きを検出する。動作検出部181は、9軸センサー66の検出値を、予め設定された周期で取得し、画像表示部20の動きに関する加速度及び角速度を検出する。また、動作検出部181は、9軸センサー66の地磁気の検出値に基づき、画像表示部20の方向を検出できる。また、動作検出部181は、9軸センサー66の加速度及び角速度の検出値を積算することにより、画像表示部20の位置や方向を算出できる。この場合、動作検出部181は、検出開始時または指定された基準時における画像表示部20の位置及び方向を基準位置として、この基準位置からの位置、及び方向の変化量を算出する。
また、動作検出部181は、右カメラ61及び左カメラ62により撮像を実行させ、撮像画像データを取得する。動作検出部181は、右カメラ61及び左カメラ62の撮像画像データから、画像表示部20の位置及び方向の変化を検出してもよい。動作検出部181は、画像表示部20の位置及び変化量を、予め設定された周期で検出することにより、画像表示部20の位置及び方向を求めることができる。この場合、上記のように、基準位置からの位置及び方向の変化量を積算する方法を用いることができる。
視線検出部183は、図2(A)に示したように画像表示部20に配置される視線センサー68を利用して、使用者の視線方向を特定する。視線検出部183は、左右一対の視線センサー68の撮像画像に基づいて、使用者の右眼RE及び左眼LEの視線を算出し、さらに、使用者が注視する方向を特定する。使用者が注視する方向は、例えば図2(B)に示したように、右眼REの視線方向RDと左眼LEの視線方向LDとの中央として求めることができる。また、視線検出部183は、使用者の利き眼を設定するデータが設定データ121に含まれている場合、このデータに基づき、利き眼側に寄った位置を、使用者が注視する方向とすることができる。
AR制御部185は、画像表示部20によりARコンテンツを表示する。ARコンテンツは、使用者が画像表示部20を透過して、外景すなわち実空間の対象物(例えば、図2(B)の対象物OB)を見ている状態で、対象物が視認される位置に対応して表示される文字や画像を含む。また、対象物は物体であればよく、建物の壁面など移動不可能なものであってもよいし、自然物であってもよい。AR制御部185は、例えば、使用者に対象物OBに重ねて見えるように、或いは対象物OBを避ける位置に見えるように、ARコンテンツを表示する。この種の表示方法をAR表示と呼ぶ。AR制御部185は、文字や画像をAR表示することで、対象物に関する情報を提供し、或いは、画像表示部20越しに見える対象物の姿の見え方を変えることができる。
ARコンテンツは、記憶部120に記憶されるコンテンツデータ123、または、制御部140の処理により生成されるデータに基づき表示される。これらのデータは画像データやテキストデータを含むことができる。
AR制御部185は、使用者が対象物を視認する位置を検出し、検出した位置に対応するようにARコンテンツの表示位置を決定する。使用者が対象物を視認する位置を検出する方法は任意である。
本実施形態のAR制御部185は、右カメラ61及び左カメラ62の撮像画像データから、使用者の視界に位置する対象物を検出する。AR制御部185は、対象物の画像の形状、色、大きさ等に関する特徴量のデータを用いて、撮像画像データを解析して対象物の画像を抽出あるいは検出する。この処理で用いられる特徴量及びその他のデータは、コンテンツデータ123に含めることができる。
AR制御部185は、撮像画像データから対象物の画像を検出した後、検出した対象物までの距離を求める。例えば、AR制御部185は、右カメラ61の撮像画像データと左カメラ62の撮像画像データとの差分から視差を求め、求めた視差に基づき画像表示部20から対象物までの距離を求める。また、例えば、AR制御部185は、距離センサー64の検出値に基づいて対象物までの距離を求める。また、AR制御部185は、右カメラ61及び左カメラ62の撮像画像データを利用する処理と、距離センサー64の検出値を利用する処理とを併用して、対象物までの距離を求めてもよい。例えば、距離センサー64の正面及び正面の近傍に位置する対象物までの距離を、距離センサー64により検出し、距離センサー64の正面から離れた位置にある対象物までの距離を、撮像画像データを解析することにより求めてもよい。
AR制御部185は、画像表示部20と対象物との相対的位置関係(距離、方向など)を求め、求めた位置関係に基づき、対象物の位置に対応するARコンテンツの表示位置を決定する。
AR制御部185は、音に関する処理を実行する。具体的には、コンテンツデータ123に含まれる音声データ、或いは、制御部140の制御によって生成する音声データに基づく音声を、音声処理部187の処理により、右イヤホン32及び左イヤホン34から出力させる。また、AR制御部185は、マイク63により集音された音声の音声データを取得し、取得した音声データに対して所定の処理を実行し、出力音声データを生成する。AR制御部185は、出力音声データに基づく音声を、音声処理部187の処理により、右イヤホン32及び左イヤホン34から出力させる。AR制御部185及び音声処理部187が処理する音は、人間が発する音声、または人間の声に類似する音声に限らず、自然音、人工音など音であればよい。本実施形態では「音声」と表記し、人間の声を処理する場合についても説明するが、「音声」が人間の声に限られることを意味せず、自然音や人工音を含んでもよく、本発明の適用範囲を人間の音声に限定するものではない。AR制御部185が処理する音及び音声の周波数帯は制限されないが、例えば、使用者が聞くことが可能な音とすることができ、例えば人間の可聴周波数帯の音とすることができる。
AR制御部185は、マイク63から制御部140に、集音した音声の音声信号が入力された場合に、この音声信号に基づくデジタル音声データを生成する。なお、マイク63と制御部140との間にA/Dコンバーター(図示略)を設け、アナログ音声信号をデジタル音声データに変換して制御部140に入力する構成としてもよい。AR制御部185は、マイク63が集音した音声が複数の音源からの音声(音)を含む場合に、音源毎に音声を識別し抽出することができる。例えば、AR制御部185は、マイク63が集音した音声から、背景音、使用者が注視する方向に位置する音源が発する音、及び、それ以外の音を抽出できる。
AR制御部185は、マイク63が集音した音声、または、この音声から抽出した音声に対して音声認識処理を実行してもよい。この処理は、マイク63が集音した音が人間の声である場合等に有効である。この場合、AR制御部185は、マイク63が集音した音声のデジタル音声データから特徴を抽出してモデル化し、音声をテキストに変換するテキスト変換を行う。AR制御部185は、変換後のテキストをテキストデータとして記憶してもよいし、テキストとして画像表示部20に表示してもよく、このテキストを音声に変換して右イヤホン32及び左イヤホン34から出力してもよい。
また、AR制御部185は、マイク63が集音した音声をテキスト化した後、異なる言語のテキストへの翻訳を実行し、翻訳後のテキストに基づく音声を出力してもよい。
音声処理部187は、AR制御部185が処理した出力音声データに基づきアナログ音声信号を生成して増幅し、右イヤホン32内のスピーカー(図示略)及び左イヤホン34内のスピーカー(図示略)に出力する。なお、例えば、Dolby(登録商標)システムを採用した場合、音声信号に対する処理がなされ、右イヤホン32及び左イヤホン34のそれぞれから、例えば周波数等が変えられた異なる音が出力される。
図4は、HMD100の動作を示すフローチャートであり、特に、AR表示、及び、AR表示に対応する音声を出力する動作を示す。
制御部140は、制御装置10に対する使用者の操作、または、制御部140が実行するアプリケーションプログラムの機能をトリガーとして、音声対応AR処理を開始する(ステップS11)。音声対応AR処理は、AR表示と、音声の入力または出力とを関連付けて実行する処理である。
制御部140は、視線検出部183の機能により、画像表示部20を装着した使用者の視線方向の検出を行い、動作検出部181の機能により使用者の頭部の位置及び方向を検出する(ステップS12)。続いて、制御部140は、右カメラ61及び左カメラ62の撮像範囲の実空間に存在する対象物を検出する(ステップS13)。
ステップS13で、制御部140は、使用者の視線方向に位置する一つの対象物を検出して、AR表示の対象とする。また、制御部140は、右カメラ61及び左カメラ62の撮像画像に写る複数の対象物を検出してもよく、この場合、制御部140は複数の対象物からAR表示の対象を選択する。
制御部140は、使用者が、画像表示部20を透過して、AR表示の対象物を見る位置に合わせて、ARコンテンツの画像を表示する処理、及び、ARコンテンツに関連する音声を出力する処理を開始する(ステップS14)。ステップS14で音声を出力する処理は、音出力処理に相当する。
ここで、制御部140は、聴覚補助処理を実行する(ステップS15)。聴覚補助処理は、AR表示に対応してHMD100が出力する音声、または、AR表示の対象物に関連する音声を、使用者が聞き易くするための処理である。聴覚補助処理では、音声の出力の制御、及び、聴覚効果に影響を与える表示の制御が行われる。
制御部140は、AR表示を終了するか否かを判定し(ステップS16)、表示を終了しない間は(ステップS16;No)、ステップS15の聴覚補助処理を継続する。また、表示を終了すると判定した場合(ステップS16;Yes)、制御部140はステップS14で開始した表示及び音声出力を停止し(ステップS17)、本処理を終了する。
制御部140は、聴覚補助処理において、対象物に関連する音声の聴取性を高め、使用者が音声を聞き取りやすくなるように動作する。このため、制御部140は、聴覚及び/又は視覚について知られているカクテルパーティー効果、ドップラー効果、マガーク効果、及び、ハース効果を利用した処理を行う。
[第1の処理(カクテルパーティ効果を利用した音響処理)の説明]
図5は、HMD100の動作を示すフローチャートであり、聴覚補助処理として、制御部140がカクテルパーティー効果を利用した第1の処理を行う場合の動作例を示す。
カクテルパーティー効果は、多数の音が聞こえる状況において、音を選択的に聞き取る人間の能力をいい、例えば、複数の人間が発する音声を同時に聴取可能な状況で、特定の人が発する音声を聞き取ることができる。これは人間の感覚系における聴覚情景分析に関する能力として知られる。両耳で音声を聴取する(両耳聴する)場合に顕著であることから、音源の方向を知覚する能力が関与することが考えられる。
図5に示す第1の処理は、制御部140が、マイク63で集音した音声を取得して、この集音した音声、または集音した音声に処理を施して生成した音声を、右イヤホン32及び左イヤホン34から出力する場合に実行される。従って、図4のステップS14で、AR表示に関連する音声として、マイク63で集音した音声または集音した音声に基づく音声を出力する場合を適用対象とする。
第1の処理で、制御部140は、カクテルパーティー効果のように複数の音源からの音が混在して聞こえる状況において、選択的に音を聴取する能力を補助する処理を行う。
制御部140は、マイク63により集音された音声の音声データを取得し、音声を検出する(ステップS31)。
例えば、ステップS31で、制御部140は、マイク63が集音した音声データに対しフーリエ変換を含む演算処理を実行して、集音した音声を周波数領域に変換し、人間の可聴周波数成分を抽出する。制御部140は、人間が発する声の周波数帯の成分を抽出することにより、人間の声と、それ以外の環境音とに分離する。また、マイク63が集音した音声が複数の人間の声を含む場合、制御部140は、話者毎の音声を分離、検出する。
制御部140は、ステップS31で検出した音声について、音源の方向を特定する処理を行う(ステップS32)。ステップS31で複数の音声(例えば、複数の人の声)を検出した場合、制御部140は、それぞれの音声の音源の方向を特定する。
また、制御部140は、ステップS32で特定したそれぞれの音源と、画像表示部20との相対的な位置関係を算出する(ステップS33)。
例えば、制御部140は、ステップS32及びS33において、ステップS13で撮像画像に基づいて対象物を特定する際に、対象物との相対位置を推定してもよい。また、制御部140は、HMD100の向きに対してステップS31で検出した音源の音量等を比較して、音源の方向を推定してもよい。また、上記の方法で求めた対象物の位置と、上記の方法で求めた音源の方向とを対応付けして音源に対する画像表示部との相対的な位置関係を特定してもよい。
制御部140は、画像表示部20を装着する使用者が注視する方向を検出する(ステップS34)。使用者が注視する方向は、使用者の視線方向と言い換えることができる。ステップS34で、制御部140は、視線検出部183により視線方向を特定する処理を行ってもよい。また、ステップS34で、動作検出部181により画像表示部20の動きを検出することにより、画像表示部20の向きを検出し、この検出結果を、視線検出部183の処理の結果と組み合わせて、使用者が注視する方向を検出する。なお、ステップS34では、ステップS12〜S13(図4)の処理結果を利用してもよい。
制御部140は、ステップS32で特定した音源の方向と、ステップS34で検出した注視方向とに基づき、使用者が注視する方向に位置する音源を特定し、この音源を、処理対象の音として設定する(ステップS35)。これにより、使用者が注視する方向に位置する音源からの音と、それ以外の方向に位置する音源から画像表示部20に到達する音声とを区別して処理できる。ステップS35では、複数の音源を、対象音に設定してもよい。また、制御部140は、ステップS35で設定した音源とは異なる音源からの音のうち、人間の声でない音を背景音として識別する(ステップS36)。背景音は、例えば、ステップS31で検出した、人間の声でない環境音として検出された音である。
制御部140は、マイク63で集音した音声に対し、ステップS35で設定した対象音の聴取性を高める音声調整処理を実行する(ステップS37)。音声調整処理では、ステップS36で識別した背景音をフィルタリングして、背景音の音量を低減させ、ステップS35で設定した対象音の音量を増大させる。
この図5の処理により、複数の音源が発する音声が混在して聴取可能な状況において、使用者の視線方向の音源から画像表示部20に到達する音声の音量を高め、その他の音声よりも聞き易くすることができる。
なお、図5の処理では、ステップS31で人間の声と、それ以外の環境音とに分離し、人間の声のうち使用者が注視する方向に位置する音源を、ステップS35で対象音に設定する例を説明した。本発明はこれに限定されず、人間の声でない音を対象音とすることができる。この場合、ステップS31では、対象音となる可能性のある音声を環境音にしないよう処理が行われる。
図5に示す第1の処理は、画像表示部20で表示する画像に対する処理を含まない場合、本発明の音処理を含む出力制御処理に対応する。図5の処理を、画像表示部20で表示する画像を変化させる処理とともに実行することも可能である。例えば、画像表示部20によって、ステップS35で設定した音源の視認性を高めるように、テキストや画像等を表示してもよい。また、ステップS37において音声調整処理を行う場合に、音声調整処理の内容に関するテキストや画像等を表示してもよい。
[第2の処理(カクテルパーティ効果を利用した処理)の説明]
図6は、HMD100の動作を示すフローチャートであり、聴覚補助処理として、制御部140がカクテルパーティー効果を利用した第2の処理を行う場合の動作例を示す。
図6に示す第1の処理は、制御部140が、マイク63で集音した音声、及び集音した音声に処理を施して生成した音声のいずれも、右イヤホン32及び左イヤホン34から出力しない場合に実行される。従って、図6に示す第2の処理は、図4のステップS14でAR表示に関連する音声を出力せず、使用者が両耳で実空間の音を直接聴取する場合を適用対象とする。
第2の処理で、制御部140は、カクテルパーティー効果のように複数の音源からの音が混在して聞こえる状況において、選択的に音を聴取する能力を補助するため、画像表示部20による表示を制御する。
図6のステップS31〜S35は、図5を参照して説明した処理と同一の処理であるため、同ステップ番号を付して説明を省略する。
ステップS35において、制御部140は、使用者が注視する方向に位置する音源を特定し、この音源を、処理対象の音として設定する(ステップS35)。その後、制御部140は、ステップS13(図4)で検出した対象物のうち、ステップS35で設定した音源と同じ方向に位置する対象物を選択して、この対象物の視認性を高めるAR画像を、画像表示部20により表示させる(ステップS41)。
具体的には、制御部140は、ステップS13(図4)で検出した対象物のうち、ステップS35で設定した音源と同じ方向に位置する対象物を選択して、この対象物を聴覚補助処理の対象の対象物として設定する。制御部140は、設定した対象物が強調されて見えるように、画像表示部20により画像やテキストを表示する。例えば、制御部140は、設定した対象物に重なる位置、或いは設定した対象物の周囲に、対象物を強調する文字や画像を配置してAR画像として表示する。また、例えば、制御部140は、設定した対象物の画像を、右カメラ61及び左カメラ62の撮像画像から取得し、取得した画像を拡大して、実空間の対象物に重なって見える位置に表示する。
対象物の視認性を高める方法としては、対象物を強調する文字や画像をAR表示するほか、対象物以外の物や空間の視認性を低くする画像等を表示する方法を採用できる。例えば、対象物以外の物や空間に重なるように、輝度の高い画像や幾何学パターンまたは単色の塗り潰し画像等、視認性を低下させる画像を表示すればよい。この視認性を低下させる画像は、右導光板261、左導光板262とは異なる電子シャッター等を画像表示部20に設けることで実現してもよい。
これにより、使用者は、注視する方向に位置する対象物(音源)をより強く意識し、注視するので、カクテルパーティー効果がより顕著になることが期待できる。この結果、使用者には、使用者が注視する方向から来る音声を明瞭に聞き取ることが可能となり、使用者が意識的に選択する音声の聴取性を高めることができる。
図6に示す第2の処理は、画像表示部20で表示する画像に対する処理を含み、本発明の出力制御処理に相当する。この第2の処理は、右イヤホン32及び左イヤホン34から音声(音)を出力する処理と並行して行ってもよい。例えば、右イヤホン32及び左イヤホン34から、予めHMD100が記憶する音声データや外部機器OAから入力される音声データに基づく音声を出力する処理とともに第2の処理を行ってもよい。或いは、マイク63で集音した音声を音声処理部187で処理し、右イヤホン32及び左イヤホン34から出力する処理とともに第2の処理を行ってもよい。また、図5に示した第1の処理と、図6の第2の処理とを組み合わせて実行してもよい。
[第3の処理(ドップラー効果に対応する処理)の説明]
図7は、HMD100の動作を示すフローチャートであり、聴覚補助処理として、制御部140がドップラー効果に対応する第3の処理を行う場合の動作例を示す。
音声に関するドップラー効果は、音源が観測者(使用者)に対して相対的に移動する場合(使用者と音源との相対位置が変化する間)に、音の高さが異なって感知される現象をいう。例えば、音源が使用者に対して近づく間は音源が発する音が高い音に聞こえ、音源が使用者から遠ざかる間は音源が発する音が低い音に聞こえる。第3の処理で、制御部140は、使用者が注視する方向の音源が移動している場合に、ドップラー効果による周波数の変化(使用者が知覚する音の高さの変化)を低減するように音響処理を実行し、この音源からの音の聴取性を高める。
図7に示す第3の処理は、制御部140が、マイク63で集音した音声を取得して、この集音した音声、または集音した音声に処理を施して生成した音声を、右イヤホン32及び左イヤホン34から出力する場合に実行される。従って、図4のステップS14で、AR表示に関連する音声として、マイク63で集音した音声または集音した音声に基づく音声を出力する場合を適用対象とする。
図7のステップS31〜S37は、図5を参照して説明した処理と同一の処理であるため、同ステップ番号を付して説明を省略する。
制御部140は、ステップS35で処理対象の音として設定した音源が、移動中であるか否かを判定する(ステップS51)。制御部140は、例えば、距離センサー64の検出結果を利用して処理対象の音源までの距離を監視し、音源が移動中であるか否かを判定できる。或いは、制御部140は、右カメラ61及び左カメラ62の撮像画像データから対象の音源の画像を検出し、検出した画像のサイズの変化の有無に基づいて、音源が移動中であるか否かを判定できる。
音源が移動中でないと判定した場合(ステップS51;No)、制御部140はステップS37に移行する。また、音源が移動中であると判定した場合(ステップS51;Yes)、制御部140は、移動する音源の音声を調整する移動音調整処理を実行する(ステップS52)。移動音調整処理で、制御部140は、移動中の音源の移動速度を求め、この音源が発する音声の周波数を、音源の移動速度に基づき補正する。この音源の移動速度は、画像表示部20に対する相対速度であり、特に、使用者またはHMD100に接近または離れる方向の速度成分である。つまり、制御部140は、音源の移動速度それ自体ではなく、音源が使用者に接近する方向または離れる方向の速度を求める。さらに、制御部140は、音源の速度、及び、音源が使用者に近づいているか離れているかに基づいて、音源が発する音を補正する補正パラメーターを求める。この補正パラメーターは、音の周波数(振動数)を変化させる変化量であり、本発明の「聴覚情報」に相当する。制御部140は、マイク63が集音した音のうち、移動中の音源が発する音を抽出し、抽出した音の周波数(振動数)を補正して異なる周波数(振動数)の音に変換する変換処理を行い、変換後の音を出力する。
これにより、使用者は、注視する方向に位置する対象物(音源)が発する音声を、ドップラー効果による周波数の変動のない状態、或いは変動が抑制された状態で聴取することができる。このため、音源が発する音声を、より自然な高さの音として聴取でき、聴取性の向上が期待できる。
図7に示す第3の処理は、本発明の音処理を含む出力制御処理に対応する。図7の処理は、画像表示部20で表示する画像に対する処理を含まないが、画像表示部20で表示する画像を変化させる処理とともに実行することも可能である。例えば、画像表示部20によって、ステップS35で設定した音源の視認性を高めるように、テキストや画像等を表示してもよい。また、ステップS37において音声調整処理を行う場合に、音声調整処理の内容に関するテキストや画像等を表示してもよい。
[第4の処理(マガーク効果に対応する処理)の説明]
図8は、HMD100の動作を示すフローチャートであり、聴覚補助処理として、制御部140がマガーク効果に対応する第4の処理を行う場合の動作例を示す。
マガーク効果は、人間が発話する音声の聴取に関する効果であり、聴覚により識別した音韻と、視覚により識別した音韻とが異なる場合に、いずれの音韻とも異なる音韻が近くされる現象をいう。よく知られる例では、被験者が、「バ(ba)」という音声が聴覚により聞き、かつ、「ガ(ga)」と発話する人間の口元の映像を視認した場合、被験者が知覚する音韻は、「バ(ba)」と「ガ(ga)」が融合あるいは混同した「ダ(da)」になる。
上述のように、制御部140は、マイク63により集音した音声をテキスト変換し、さらに、翻訳を行うことが可能である。この場合、制御部140は、翻訳を行った後のテキストの読み上げ処理を行い、右イヤホン32及び左イヤホン34から翻訳後の音声を出力する。この翻訳処理及び翻訳音声出力処理を実行すると、使用者には、実空間において翻訳前の音声を発話する人の顔を視覚により認識し、翻訳後の音声を聴覚により認識するので、マガーク効果により、翻訳後の音声を知覚しにくくなる可能性がある。
図8の第4の処理は、上記の翻訳処理及び翻訳音声出力処理を実行する場合に、画像表示部20により表示する画像の表示を制御して、翻訳後の音声の聴取性を高めるために実行される。
図8のステップS31〜S35は、図5を参照して説明した処理と同一の処理であるため、同ステップ番号を付して説明を省略する。
制御部140は、ステップS35で処理対象の音として設定した音源からの音声に対し、テキスト変換を行い、変換後のテキストを、例えば記憶部120に記憶した辞書に基づき翻訳する(ステップS61)。ステップS61で、制御部140は、翻訳後のテキストを生成して記憶部120等に一時的に記憶し、さらに、翻訳後のテキストを読み上げる音声データを生成する。
制御部140は、対象音の音源に重ねて表示する画像を合成する(ステップS62)。制御部140は、対象音の音源の画像を右カメラ61及び左カメラ62の撮像画像データから抽出し、抽出した画像から人間の口元の画像を検出し、検出した口元の画像を翻訳後の音声に合わせて加工することで、重畳表示用の画像を合成する。合成する画像は、口元だけの画像であってもよいし、対象音の音源である発話者(人間)の顔全体の画像であってもよい。また、ステップS62では、予め記憶部120に記憶した重畳表示用の画像を読み出してもよい。記憶部120に記憶される画像は、そのまま重畳表示に用いることが可能な画像であってもよいし、ステップS62で制御部140が、読み出した画像を用いて合成又は編集処理を行うことにより、重畳表示用の画像を合成してもよい。
制御部140は、ステップS61で翻訳した翻訳後のテキストを読み上げる音声を右イヤホン32及び左イヤホン34から出力し、同時に、ステップS62で合成した画像を画像表示部20により表示する(ステップS63)。画像の表示位置は、ステップS62で検出した口元の位置に合わせて調整される。
これにより、使用者は、注視する方向に位置する対象物(音源)としての人が発話する音声を翻訳した音声を聞き、かつ、翻訳された音声を発話する口元の画像を見るので、翻訳後の音声を正確に知覚し、認識できる。
図8に示す第4の処理は、画像表示部20で表示する画像に対する処理を含み、本発明の出力制御処理に相当する。
[第5の処理(ハース効果(Haas effect)に対応する処理)の説明]
図9は、HMD100の動作を示すフローチャートであり、聴覚補助処理として、制御部140がハース効果に対応する第5の処理を行う場合の動作例を示す。
ハース効果は、人間の聴覚に関する効果であり、複数の異なる方向から同じ音が同じ音量または近い音量で聴覚器官に達した場合に、先に聴覚器官に達した音の音源方向に、定位が知覚される現象である。使用者にとって、同じ音が異なる複数の方向から聞こえ、かつ、これらの音が使用者の耳に達するタイミングに差が生じる状況は、例えば音の反射の影響により発生し得る。このため、例えば一つの音源が発した音が、反射音の影響で、実際に音源が位置する方向とは異なる方向から聞こえるように知覚される。
図9の第5の処理は、制御部140が、マイク63で集音した音声を取得して、この集音した音声、または集音した音声に処理を施して生成した音声を、右イヤホン32及び左イヤホン34から出力する場合に実行される。従って、図4のステップS14で、AR表示に関連する音声として、マイク63で集音した音声または集音した音声に基づく音声を出力する場合を適用対象とする。
図9のステップS31〜S35は、図5を参照して説明した処理と同一の処理であるため、同ステップ番号を付して説明を省略する。
制御部140は、ステップS35で処理対象の音として設定した音源が発した音と同じ音を、背景音から検出する(ステップS71)。ステップS35では使用者が注視する方向の音源を対象音の音源としているので、この音源とは異なる方向からマイク63で集音される音声を背景音とする。この背景音に、対象音の音源の音と同じ音が含まれる場合に、制御部140は、この音を背景音から検出する。
制御部140は、マイク63で集音した音声に対し、ステップS35で設定した対象音の聴取性を高める音声調整処理を実行する(ステップS72)。ステップS72の音声調整処理では、ステップS71で検出した音の聴取性を低くする処理を行う。例えば、ステップS71で検出した音を打ち消す又は減衰させる波形及び位相の音を生成し、生成した音を、マイク63で集音した音声に合成する。また、制御部140は、ステップS35で設定した対象音の音量を増大させる処理を行う。
この図9の処理により、使用者が注視する方向から画像表示部20に達する音声が、他の方向からも達する場合に、注視方向に定位を知覚させることができ、この音声を、より聞き易くすることができる。
なお、図9の処理は、人間の音声に限定されず、人間の声でない音を対象音とすることができる。また、ステップS72において、背景音の一部をキャンセルする具体的な手法は任意である。例えば、背景音と、対象音の音源から来る音声とを識別して抽出可能な場合に、背景音において、対象音の周波数を減衰させるフィルタリングを行ってもよい。
図9に示す第5の処理は、画像表示部20で表示する画像に対する処理を含まない場合、本発明の音処理を含む出力制御処理に対応する。図9の処理を、画像表示部20で表示する画像を変化させる処理とともに実行することも可能である。例えば、画像表示部20によって、ステップS35で設定した音源の視認性を高めるように、テキストや画像等を表示してもよい。また、ステップS72において音声調整処理を行う場合に、音声調整処理の内容に関するテキストや画像等を表示してもよい。
図5(第1の処理)、図6(第2の処理)、図7(第3の処理)、図8(第4の処理)、及び図9(第5の処理)のうち複数の処理を組み合わせて、図4のステップS15で聴覚補助処理として実行してもよい。また、いずれか一つの処理を選択して実行してもよい。この場合、ステップS14で実行するAR処理の内容に応じて、聴覚補助処理を選択してもよいし、制御装置10に対する使用者の入力操作、或いは、事前の設定に従って聴覚補助処理を選択してもよい。また、例えば、マイク63が集音した音声に複数の音声が含まれる場合に、図5の第1の処理または図6の第2の処理を選択し、対象音の音源が移動していると判定した場合に図7の第3の処理を選択してもよい。また、音声の翻訳を行う場合に図8の第4の処理を選択し、対象音の音声が反射等により複数の音声として集音され検出される場合に、図9の第5の処理を選択してもよい。つまり、HMD100が、ステップS14(図4)で実行する処理と、マイク63で集音した音声の内容とに基づいて、自動的に処理を選択して実行してもよい。
以上説明したように、本発明を適用した実施形態のHMD100は、使用者に画像を視認させるとともに外景を透過する画像表示部20と、音声を出力する右イヤホン32及び左イヤホン34とを備える。HMD100は、右イヤホン32及び左イヤホン34により音声を出力させる音声出力処理(音出力処理)と、右イヤホン32及び左イヤホン34により出力される音声に対する音声処理(音処理)、または、画像表示部20により表示される画像に対する処理を含み、右イヤホン32及び左イヤホン34が出力する音声の聴取性を変化させる出力制御処理と、を実行するAR制御部185を備える。このため、HMD100において、出力される音声の聴取性を変化させることにより、外部の環境音等の聴取性を低下させる要因を遮断することなく、聴取性を高めることができる。これにより、利便性を損なわずに、視覚効果及び聴覚効果の向上を図ることができる。具体的には、AR制御部185は、音声を右イヤホン32及び左イヤホン34により出力させる音声出力処理をステップS14で実行し、音処理を含む出力制御処理として、図5の第1の処理、図7の第3の処理、及び図9の第5の処理の少なくともいずれかを実行する。また、図5の第1の処理、図7の第3の処理、及び図9の第5の処理のいずれかと画像表示部20で表示する画像の処理とを組み合わせて実行してもよい。或いは、画像表示部20が表示する画像に対する処理を含む出力制御処理として、図6の第2の処理、及び/又は図8の第4の処理を実行する。
HMD100は、音声出力処理において、画像表示部20により表示される画像に対応する音声を出力させてもよい。例えば、制御部140が、画像表示部20によってAR画像を表示し、このAR画像に関連または連動する音声を右イヤホン32及び左イヤホン34で出力する場合に、上記の出力制御処理として、聴覚補助処理を実行してもよい。
また、音声出力処理では、画像表示部20により表示される画像に対応しない音声を出力してもよい。例えば、制御部140が、AR画像を表示する第1のアプリケーションプログラムと、音声を出力する第2のアプリケーションプログラムとを実行する場合に、第2のアプリケーションプログラムが出力する音声またはマイク63が集音する音声に関して音声処理を実行することができる。この場合、第1のアプリケーションプログラムで表示するAR画像と、第2のアプリケーションプログラムの動作とが連動する必要はなく、第1及び第2のアプリケーションプログラムが互いに独立して実行されてもよい。また、第1及び第2のアプリケーションプログラムが連動し、例えば、第1のアプリケーションプログラムで表示するAR画像に関連する音声を第2のアプリケーションプログラムが出力してもよい。第2のアプリケーションプログラムとしては、例えば、HMD100の位置をGPS115により検出し、検出した位置(座標)に基づき音声を出力するナビゲーションプログラムや、音楽再生プログラムが挙げられる。また、ラジオ放送、テレビ放送、インターネット放送等を受信して音声を出力する放送受信プログラムであってもよい。
また、HMD100は、使用者の頭部の位置、動き、及び方向の少なくともいずれかを検出する動作検出部181を備える。AR制御部185は動作検出部181の検出結果に基づき上記出力制御処理を実行するので、使用者の頭部の位置や動きに対応して、HMD100が出力する音声の聴取性を高めることができ、より一層の聴覚効果の向上を図ることができる。
また、HMD100は9軸センサー66を備え、動作検出部181は、9軸センサー66の検出値に基づいて、使用者の頭部の位置、動き、及び方向の少なくともいずれかを求める。
また、AR制御部185は、外部の音と、外部の音の音源の位置とを特定する音特定処理を、例えばステップS32で実行し、特定した外部の音または音源の位置に基づき上記出力制御処理を実行する。これにより、外部から発される音声の音源の位置に基づいて処理を行うことで、HMD100が出力する音声の聴取性を高めることができる。
HMD100は、外部の音を集音し検出するマイク63を備える。AR制御部185は、マイク63により使用者が注視する方向から検出された音、及び、動作検出部181の検出結果に基づき、音特定処理を実行して、外部の音と、外部の音を発する音源の位置とを特定する。このため、外部の音、及び外部の音源の位置を容易に検出できる。
AR制御部185は、上記出力制御処理において、マイク63により検出される外部の音声に基づく音声を右イヤホン32及び左イヤホン34により出力させるので、HMD100が出力する音声の聴取性が外部の音声の影響で低下することを防止できる。
AR制御部185は、動作検出部181により検出される使用者の頭部の位置と、音特定処理により特定した音源の位置との相対位置を求め、求めた相対位置に基づき、上記出力制御処理を実行する。このため、使用者の頭部の位置と音源の位置とに対応して、HMD100が出力する音声の聴取性を確実に高めることができる。
また、AR制御部185は、使用者の頭部の位置と音源の位置との相対位置に加え、音特定処理により特定した音源の位置と、使用者の眼及び耳のそれぞれとの相対位置を求める。このため、HMD100が出力する音声の聴取性を、より確実に高めることができる。
また、AR制御部185は、例えば図7の第3の処理で、使用者の頭部の位置と音源の位置との相対位置に基づいて使用者の聴感に係る聴覚情報を生成して、聴覚情報に基づき上記出力制御処理を実行し、動作検出部181により検出される使用者の頭部の動きに基づいて、聴覚情報を更新する。このため、使用者の頭部と音源との相対位置を適切に反映した処理を行うことができる。
また、HMD100は、使用者の視線方向を検出する視線検出部183を備え、AR制御部185は、視線検出部の検出結果から使用者が注視する方向を特定し、特定した方向に対応して上記出力制御処理を実行する。このため、使用者が注視する方向を検出して、視覚効果及び聴覚効果をより一層高めることができる。
また、例えば図6に示す第2の処理において、AR制御部185により、使用者が注視する注視方向または注視する対象物を検出し、検出した注視方向または対象物の視認性を高める表示を画像表示部20により行わせる。このため、使用者が注視する方向の視認性を高めることによって、注視する方向に対し、より強い注意を喚起することにより、注視方向から聞こえる音声の聴取性を高める効果が期待できる。このため、いわゆるカクテルパーティー効果を利用して、使用者が聴取を望む音声の聴取性を高めることができる。
また、例えば図5に示す第1の処理において、AR制御部185により、使用者が注視する注視方向または注視する対象物を検出し、検出した注視方向または対象物の方向から到達する音声を選択し、選択した音声の聴取性を高める音響処理を高める。このため、画像を表示し、画像に対応する音声を出力するHMD100において、出力される音声の聴取性を変化させることにより、外部の環境音等の聴取性を低下させる要因を遮断することなく、聴取性を高めることができる。これにより、利便性を損なわずに、視覚効果及び聴覚効果の向上を図ることができる。
また、例えば図8に示す第4の処理において、AR制御部185により、マイク63により集音された音声を言語として認識して翻訳する翻訳処理と、翻訳後の音声を右イヤホン32及び左イヤホン34により出力させる翻訳音声出力処理とを実行する。AR制御部185は、翻訳音声出力処理を行う際に、翻訳後の音声に対応する画像を画像表示部20に表示させる。このため、HMD100において、音声を集音して翻訳し、翻訳後の音声を出力することができ、この翻訳後の音声が視覚的な情報により識別しにくくなる事態を防止できる。このため、翻訳後の音声の聴取性を高めることができる。
なお、この発明は上記実施形態の構成に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。
例えば、上記実施形態において、画像表示部20に代えて、例えば帽子のように装着する画像表示部等の他の方式の画像表示部を採用してもよく、使用者の左眼に対応して画像を表示する表示部と、使用者の右眼に対応して画像を表示する表示部とを備えていればよい。また、本発明の表示装置は、例えば、自動車や飛行機等の車両に搭載されるヘッドマウントディスプレイとして構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたヘッドマウントディスプレイとして構成されてもよいし、自動車のフロントガラスに用いられるヘッドアップディスプレイ(Head-up Display;HUD)であってもよい。
また、上述したように、HMD100が出力する音、マイク63により集音し処理する音、及び、音声処理部187が処理する音は、人間が発する音声、または人間の声に類似する音声に限らず、自然音、人工音など音であればよい。上記実施形態では「音声」と表記し、人間の声を含む場合を例として示したが、あくまで一例であって、本発明の適用範囲を人間の音声に限定するものではない。例えば、AR制御部185や音声処理部187が、マイク63で集音した音声または右イヤホン32及び左イヤホン34から出力する音声に対し、言語として認識可能な音声であるか否かを判定する構成としてもよい。また、右イヤホン32及び左イヤホン34が出力する音、マイク63が集音する音、及び、音声処理部187が処理する音の周波数帯についても特に制限はない。右イヤホン32及び左イヤホン34が出力する音、マイク63が集音する音、及び、音声処理部187が処理する音の周波数帯がそれぞれ異なっていてもよいし、同一の周波数帯の音を処理する構成であってもよい。上記周波数帯の一例としては、使用者が聞くことが可能な音、すなわち、人間の可聴周波数帯の音としてもよいし、可聴周波数帯域外の周波数の音を含んでもよい。さらに、HMD100において処理される音声データのサンプリング周波数及び量子化ビット数についても制限はない。
さらに、上記実施形態では、画像表示部20と制御装置10とが分離され、接続部40を介して接続された構成を例に挙げて説明したが、制御装置10と画像表示部20とが一体に構成され、使用者の頭部に装着される構成とすることも可能である。
また、例えば、画像表示部20において画像光を生成する構成として、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部とを備える構成としてもよい。また、画像光を生成する構成として、LCOS(Liquid crystal on silicon, LCoSは登録商標)や、デジタル・マイクロミラー・デバイス等を用いることもできる。また、例えば、レーザー網膜投影型のヘッドマウントディスプレイに対して本発明を適用することも可能である。すなわち、画像生成部が、レーザー光源と、レーザー光源を使用者の眼に導く光学系とを備え、レーザー光を使用者の眼に入射させて網膜上を走査し、網膜に結像させることにより、使用者に画像を視認させる構成を採用してもよい。レーザー網膜投影型のヘッドマウントディスプレイを採用する場合、「画像光生成部における画像光の射出可能領域」とは、使用者の眼に認識される画像領域として定義することができる。
画像光を使用者の眼に導く光学系としては、外部から装置に向けて入射する外光を透過する光学部材を備え、画像光とともに使用者の眼に入射させる構成を採用できる。また、使用者の眼の前方に位置して使用者の視界の一部または全部に重なる光学部材を用いてもよい。さらに、レーザー光等を走査させて画像光とする走査方式の光学系を採用してもよい。また、光学部材の内部で画像光を導光させるものに限らず、使用者の眼に向けて画像光を屈折及び/または反射させて導く機能のみを有するものであってもよい。
また、本発明を、MEMSミラーを用いた走査光学系を採用し、MEMSディスプレイ技術を利用した表示装置に適用することも可能である。すなわち、画像表示素子として、信号光形成部と、信号光形成部が射出する光を走査するMEMSミラーを有する走査光学系と、走査光学系により走査される光によって虚像が形成される光学部材とを備えてもよい。この構成では、信号光形成部が射出した光がMEMSミラーにより反射され、光学部材に入射し、光学部材の中を導かれて、虚像形成面に達する。MEMSミラーが光を走査することにより、虚像形成面に虚像が形成され、この虚像を使用者が眼で捉えることで、画像が認識される。この場合の光学部品は、例えば上記実施形態の右導光板261及び左導光板262のように、複数回の反射を経て光を導くものであってもよく、ハーフミラー面を利用してもよい。
また、本発明の表示装置は頭部装着型の表示装置に限定されず、フラットパネルディスプレイやプロジェクター等の各種の表示装置に適用できる。本発明の表示装置は、外光とともに画像光により画像を視認させるものであればよく、例えば、外光を透過させる光学部材により画像光による画像を視認させる構成が挙げられる。具体的には、上記のヘッドマウントディスプレイにおいて外光を透過する光学部材を備えた構成の他、使用者から離れた位置に固定的に、又は可動に設置された透光性の平面や曲面(ガラスや透明なプラスチック等)に画像光を投射する表示装置にも適用可能である。一例としては、車両の窓ガラスに画像光を投射し、乗車している使用者や車両の外にいる使用者に、画像光による画像とともに、車両内外の景色を視認させる表示装置の構成が挙げられる。また、例えば、建物の窓ガラスなど固定的に設置された透明また半透明、或いは有色透明な表示面に画像光を投射し、表示面の周囲にいる使用者に、画像光による画像とともに、表示面を透かして景色を視認させる表示装置の構成が挙げられる。
また、上記実施形態では、外景を透過して視認可能な画像表示部20を備える構成を例示したが、本発明はこれに限定されず、外界を観察できない非透過型の虚像表示装置や、外界を撮像する撮像素子による撮像画像を表示するビデオシースルー型の虚像表示装置に対しても、本発明を適用できる。例えば、撮像画像に対し、撮像画像に基づき生成した画像や他の画像を合成する処理等の編集処理を行い、編集処理した画像を表示することでMR(Mixed Reality)表示を行う表示装置に本発明を適用してもよい。
また、図3に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよく、図3に示した通りに独立したハードウェア資源を配置する構成に限定されない。また、制御部140が実行するプログラムは、記憶部120又は制御装置10内の記憶装置に記憶されてもよいし、外部の装置に記憶されたプログラムを通信部117又はインターフェイス125を介して取得して実行する構成としてもよい。
また、制御部140が実行するプログラムの機能、すなわち制御部140が備える各処理部(例えば、画像処理部160、表示制御部170、動作検出部181、視線検出部183、AR制御部185、音声処理部187、或いはその他の生成部、判定部、特定部等)を、当該機能を実現するために設計されたASIC(Application Specific Integrated Circuit:特定用途向け集積回路)やSoC(System on a Chip)を用いて構成してもよい。また、FPGA(Field-Programmable Gate Array)等のプログラマブルデバイスにより実現してもよい。
また、制御装置10に形成された構成のうち、操作部111のみが単独の使用者インターフェイス(UI)として形成されてもよい。また、制御装置10に形成された構成が重複して画像表示部20に形成されていてもよい。例えば、図2に示す制御部140が制御装置10と画像表示部20との両方に形成されていてもよいし、制御装置10に形成された制御部140と画像表示部20に形成されたCPUとが行う機能が別々に分けられている構成としてもよい。
10…制御装置、14、14a、14b、14c、14d…トラックパッド(操作面)、20…画像表示部(表示部)、22…右表示駆動部、24…左表示駆動部、32…右イヤホン(音出力部)、34…左イヤホン(音出力部)、61…右カメラ、62…左カメラ、63…マイク、66…9軸センサー(動きセンサー)、100…HMD(表示装置)、110…入力情報取得部、111…操作部、120…記憶部、121…設定データ、123…コンテンツデータ、140…制御部、160…画像処理部、170…表示制御部、181…動作検出部、183…視線検出部、185…AR制御部(処理部)、187…音声処理部(音出力部)、261…右導光板、262…左導光板。

Claims (15)

  1. 使用者の頭部に装着される表示装置であって、
    画像を表示する表示部と、
    音を出力する音出力部と、
    前記音出力部により音を出力させる音出力処理と、前記音出力部により出力される音に対する音処理、または、前記表示部により表示される画像に対する処理を含み、前記音出力部が出力する音の聴取性を変化させる出力制御処理と、を実行する処理部と、
    を備えることを特徴とする表示装置。
  2. 前記処理部は、前記音出力処理において、前記表示部により表示される画像に対応する音を前記音出力部により出力させること、
    を特徴とする請求項1記載の表示装置。
  3. 前記使用者の頭部の位置、動き、及び方向の少なくともいずれかを検出する動作検出部を備え、
    前記処理部は前記動作検出部の検出結果に基づき前記出力制御処理を実行すること、
    を特徴とする請求項1または2記載の表示装置。
  4. 前記使用者の頭部の動きを検出する動きセンサーを備え、前記動作検出部は、前記動きセンサーの検出値に基づいて、前記使用者の頭部の位置、動き、及び方向の少なくともいずれかを求めること、
    を特徴とする請求項3記載の表示装置。
  5. 前記処理部は、外部の音と、前記外部の音の音源の位置とを特定する音特定処理を行い、特定した前記外部の音または前記音源の位置に基づき前記出力制御処理を実行すること、
    を特徴とする請求項3または4記載の表示装置。
  6. 前記外部の音を集音し検出するマイクを備え、
    前記処理部は、前記マイクにより前記使用者が注視する方向から検出された音、及び、前記動作検出部の検出結果に基づき、前記音特定処理を実行して、外部の音と、前記外部の音を発する音源の位置とを特定すること、
    を特徴とする請求項5記載の表示装置。
  7. 前記処理部は、前記出力制御処理において、前記マイクにより検出される外部の音に基づく音を前記音出力部により出力させること、
    を特徴とする請求項6記載の表示装置。
  8. 前記処理部は、前記動作検出部により検出される前記使用者の頭部の位置と、前記音特定処理により特定した前記音源の位置との相対位置を求め、求めた相対位置に基づき、前記出力制御処理を実行すること、
    を特徴とする請求項5から7のいずれかに記載の表示装置。
  9. 前記処理部は、前記使用者の頭部の位置と前記音源の位置との相対位置に加え、前記音特定処理により特定した前記音源の位置と、前記使用者の眼及び耳のそれぞれとの相対位置を求めること、
    を特徴とする請求項8記載の表示装置。
  10. 前記処理部は、前記使用者の頭部の位置と前記音源の位置との相対位置に基づいて前記使用者の聴感に係る聴覚情報を生成して、前記聴覚情報に基づき前記出力制御処理を実行し、
    前記動作検出部により検出される前記使用者の頭部の動きに基づいて、前記聴覚情報を更新すること、
    を特徴とする請求項5から9のいずれかに記載の表示装置。
  11. 前記処理部は、前記出力制御処理において、前記音源の位置に対応する方向を前記使用者が見る場合の視認性を変化させるように、前記表示部により表示される画像に対する処理を行うこと、
    を特徴とする請求項5から10のいずれかに記載の表示装置。
  12. 前記使用者の視線方向を検出する視線検出部を備え、
    前記処理部は、前記視線検出部の検出結果から前記使用者が注視する方向を特定し、特定した方向に対応して前記出力制御処理を実行すること、
    を特徴とする請求項1から11のいずれかに記載の表示装置。
  13. 前記処理部は、前記出力制御処理において、前記使用者が注視する方向に位置する対象物に重ねて画像を表示すること、
    を特徴とする請求項12に記載の表示装置。
  14. 使用者の頭部に装着され、画像を表示する表示部と、音を出力する音出力部と、を有する表示装置を制御して、
    前記音出力部により音を出力させ、
    前記音出力部により出力される音に対する音処理、または、前記表示部により表示される画像に対する処理を含み、前記音出力部が出力する音の聴取性を変化させる出力制御処理を実行すること、
    を特徴とする表示装置の制御方法。
  15. 使用者の頭部に装着され、画像を表示する表示部と、音を出力する音出力部と、を有する表示装置を制御するコンピューターが実行可能なプログラムであって、
    前記コンピューターを、
    前記音出力部により音を出力させる音出力処理と、
    前記音出力部により出力される音に対する音処理、または、前記表示部により表示される画像に対する処理を含み、前記音出力部が出力する音の聴取性を変化させる出力制御処理と、を実行する処理部として機能させる、プログラム。
JP2015089327A 2015-04-24 2015-04-24 表示装置、表示装置の制御方法、及び、プログラム Pending JP2016208348A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015089327A JP2016208348A (ja) 2015-04-24 2015-04-24 表示装置、表示装置の制御方法、及び、プログラム
US15/132,765 US20160313973A1 (en) 2015-04-24 2016-04-19 Display device, control method for display device, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015089327A JP2016208348A (ja) 2015-04-24 2015-04-24 表示装置、表示装置の制御方法、及び、プログラム

Publications (1)

Publication Number Publication Date
JP2016208348A true JP2016208348A (ja) 2016-12-08

Family

ID=57147793

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015089327A Pending JP2016208348A (ja) 2015-04-24 2015-04-24 表示装置、表示装置の制御方法、及び、プログラム

Country Status (2)

Country Link
US (1) US20160313973A1 (ja)
JP (1) JP2016208348A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018128161A1 (ja) * 2017-01-06 2018-07-12 株式会社ソニー・インタラクティブエンタテインメント 音声出力装置、ヘッドマウントディスプレイ、音声出力方法及びプログラム
JP2018143479A (ja) * 2017-03-06 2018-09-20 株式会社カプコン ゲームプログラム及びゲームシステム
CN111406230A (zh) * 2017-11-21 2020-07-10 深圳市柔宇科技有限公司 头戴显示器及其屈光度调节装置

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105260016B (zh) * 2015-09-24 2018-06-01 联想(北京)有限公司 一种信息处理方法及电子设备
US10469976B2 (en) * 2016-05-11 2019-11-05 Htc Corporation Wearable electronic device and virtual reality system
JP2019537791A (ja) * 2016-10-27 2019-12-26 リブライク インコーポレーテッド 仮想現実または拡張現実ビデオストリームにおける空間的音響に基づく広告
JP6616362B2 (ja) 2017-09-04 2019-12-04 シナノケンシ株式会社 ブラシレスモータ及び固定子の巻線方法
CN107890673A (zh) * 2017-09-30 2018-04-10 网易(杭州)网络有限公司 补偿声音信息的视觉显示方法及装置、存储介质、设备
EP3486753B1 (en) * 2017-11-21 2022-05-04 Bellevue Investments GmbH & Co. KGaA Method for realtime 360 degree video perspective view path determination
CN108854069B (zh) * 2018-05-29 2020-02-07 腾讯科技(深圳)有限公司 音源确定方法和装置、存储介质及电子装置
CN111161719B (zh) * 2018-11-08 2023-01-20 联想新视界(北京)科技有限公司 一种通过语音操作的ar眼镜及通过语音操作ar眼镜的方法
US10602302B1 (en) * 2019-02-06 2020-03-24 Philip Scott Lyren Displaying a location of binaural sound outside a field of view
US11908055B2 (en) * 2019-03-13 2024-02-20 Sony Group Corporation Information processing device, information processing method, and recording medium
JP2020155923A (ja) * 2019-03-20 2020-09-24 ソニー株式会社 リモートコントロール装置と撮像制御装置およびその方法
US11245984B1 (en) * 2020-07-15 2022-02-08 Facebook Technologies, Llc Audio system using individualized sound profiles
CN112291665B (zh) * 2020-10-30 2022-03-29 歌尔光学科技有限公司 头戴显示设备的音量调节方法、装置、系统及存储介质
FR3124281A1 (fr) * 2021-06-18 2022-12-23 Trivisio Dispositif optique pour afficher un contenu à proximité de l’œil d’un utilisateur
TWI779789B (zh) * 2021-08-20 2022-10-01 雙瑩科技股份有限公司 具擴增實境之光學系統

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1303853A4 (en) * 2000-05-24 2009-03-11 Immersion Corp HAPTIC EQUIPMENT WITH ELECTROACTIVE POLYMERS
US9101279B2 (en) * 2006-02-15 2015-08-11 Virtual Video Reality By Ritchey, Llc Mobile user borne brain activity data and surrounding environment data correlation system
US7771320B2 (en) * 2006-09-07 2010-08-10 Nike, Inc. Athletic performance sensing and/or tracking systems and methods
KR100842607B1 (ko) * 2006-10-13 2008-07-01 삼성전자주식회사 헤드 셋 장치의 충전 거치대 및 헤드 셋 장치의 스피커커버
US20120249797A1 (en) * 2010-02-28 2012-10-04 Osterhout Group, Inc. Head-worn adaptive display
US9977496B2 (en) * 2010-07-23 2018-05-22 Telepatheye Inc. Eye-wearable device user interface and augmented reality method
GB201019077D0 (en) * 2010-11-11 2010-12-29 Benmore Ventures Ltd Electronic display device
US8861421B2 (en) * 2010-11-29 2014-10-14 Gary S. Shuster Mobile status update display
US9217867B2 (en) * 2011-03-24 2015-12-22 Seiko Epson Corporation Head-mounted display device and control method for the head-mounted display device
US9268406B2 (en) * 2011-09-30 2016-02-23 Microsoft Technology Licensing, Llc Virtual spectator experience with a personal audio/visual apparatus
US9277334B1 (en) * 2012-03-21 2016-03-01 Google Inc. Wearable computing device authentication using bone conduction
US9106986B2 (en) * 2012-03-29 2015-08-11 Haoye Shen Headphone with integrated receiver
JP5986198B2 (ja) * 2012-05-30 2016-09-06 パイオニア株式会社 表示装置、ヘッドマウントディスプレイ、表示方法及び表示プログラム、並びに記録媒体
US20130339859A1 (en) * 2012-06-15 2013-12-19 Muzik LLC Interactive networked headphones
US9277320B1 (en) * 2012-09-24 2016-03-01 Amazon Technologies, Inc. Managing and using headset profiles for different headsets
JP6040715B2 (ja) * 2012-11-06 2016-12-07 ソニー株式会社 画像表示装置及び画像表示方法、並びにコンピューター・プログラム
KR20140062892A (ko) * 2012-11-15 2014-05-26 삼성전자주식회사 운동 서비스를 제공하기 위한 웨어러블 디바이스와 디스플레이 장치 및 이를 포함하는 운동 서비스 제공 시스템과 그 방법
WO2014204330A1 (en) * 2013-06-17 2014-12-24 3Divi Company Methods and systems for determining 6dof location and orientation of head-mounted display and associated user movements
US9107011B2 (en) * 2013-07-03 2015-08-11 Sonetics Holdings, Inc. Headset with fit detection system
US9143880B2 (en) * 2013-08-23 2015-09-22 Tobii Ab Systems and methods for providing audio to a user based on gaze input
US20150110277A1 (en) * 2013-10-22 2015-04-23 Charles Pidgeon Wearable/Portable Device and Application Software for Alerting People When the Human Sound Reaches the Preset Threshold
US8977376B1 (en) * 2014-01-06 2015-03-10 Alpine Electronics of Silicon Valley, Inc. Reproducing audio signals with a haptic apparatus on acoustic headphones and their calibration and measurement
KR102160636B1 (ko) * 2014-02-21 2020-09-28 삼성전자주식회사 전자 장치 및 입출력 장치를 제어하는 방법
EP2927642A1 (en) * 2014-04-02 2015-10-07 Volvo Car Corporation System and method for distribution of 3d sound in a vehicle
US10412470B2 (en) * 2014-04-08 2019-09-10 Matthew A. F. Engman Event entertainment system
US20160081563A1 (en) * 2014-09-23 2016-03-24 PhysioWave, Inc. Systems and methods to estimate or measure hemodynamic output and/or related cardiac output
EP3007029B1 (en) * 2014-10-07 2017-12-27 LG Electronics Inc. Mobile terminal and wearable device
US9933995B2 (en) * 2015-01-25 2018-04-03 Harman International Industries, Incorporated Headphones with integral image display
US9648412B2 (en) * 2015-02-06 2017-05-09 Skullcandy, Inc. Speakers and headphones related to vibrations in an audio system, and methods for operating same
US20150319546A1 (en) * 2015-04-14 2015-11-05 Okappi, Inc. Hearing Assistance System
US9690374B2 (en) * 2015-04-27 2017-06-27 Google Inc. Virtual/augmented reality transition system and method
KR20170017407A (ko) * 2015-08-06 2017-02-15 삼성전자주식회사 전자 장치 및 전자 장치의 알림 제공 방법
JP5944600B1 (ja) * 2015-08-28 2016-07-05 株式会社タカラトミー 頭部装着型ディスプレイを備えた情報処理装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018128161A1 (ja) * 2017-01-06 2018-07-12 株式会社ソニー・インタラクティブエンタテインメント 音声出力装置、ヘッドマウントディスプレイ、音声出力方法及びプログラム
JPWO2018128161A1 (ja) * 2017-01-06 2019-06-27 株式会社ソニー・インタラクティブエンタテインメント 音声出力装置、ヘッドマウントディスプレイ、音声出力方法及びプログラム
US11086587B2 (en) 2017-01-06 2021-08-10 Sony Interactive Entertainment Inc. Sound outputting apparatus and method for head-mounted display to enhance realistic feeling of augmented or mixed reality space
JP2018143479A (ja) * 2017-03-06 2018-09-20 株式会社カプコン ゲームプログラム及びゲームシステム
CN111406230A (zh) * 2017-11-21 2020-07-10 深圳市柔宇科技有限公司 头戴显示器及其屈光度调节装置

Also Published As

Publication number Publication date
US20160313973A1 (en) 2016-10-27

Similar Documents

Publication Publication Date Title
JP2016208348A (ja) 表示装置、表示装置の制御方法、及び、プログラム
CN105589199B (zh) 显示装置、显示装置的控制方法以及程序
US9959591B2 (en) Display apparatus, method for controlling display apparatus, and program
JP6344125B2 (ja) 表示装置、表示装置の制御方法、および、プログラム
CN112130329B (zh) 头部佩戴型显示装置以及头部佩戴型显示装置的控制方法
CN108957761B (zh) 显示装置及其控制方法、头戴式显示装置及其控制方法
KR101845350B1 (ko) 두부 장착형 표시 장치 및 두부 장착형 표시 장치의 제어 방법
JP6155622B2 (ja) 表示装置、頭部装着型表示装置、表示装置の制御方法、および、頭部装着型表示装置の制御方法
US9794684B2 (en) Head-mounted display device, control method for the same, and computer program
JP6432197B2 (ja) 表示装置、表示装置の制御方法、および、プログラム
CN105739095B (zh) 显示装置以及显示装置的控制方法
JP6707823B2 (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP2016033757A (ja) 表示装置、表示装置の制御方法、および、プログラム
JP2016085350A (ja) 表示装置、及び、表示装置の制御方法
JP2015084150A (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP2016224086A (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP2017102516A (ja) 表示装置、通信システム、表示装置の制御方法、及び、プログラム
JP6364735B2 (ja) 表示装置、頭部装着型表示装置、表示装置の制御方法、および、頭部装着型表示装置の制御方法
JP2016122177A (ja) 表示装置、及び、表示装置の制御方法
JP2016186561A (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP2016024208A (ja) 表示装置、表示装置の制御方法、および、プログラム
JP2016033759A (ja) 表示装置、表示装置の制御方法、および、プログラム
JP2016033611A (ja) 情報提供システム、表示装置、および、表示装置の制御方法
JP2016033763A (ja) 表示装置、表示装置の制御方法、および、プログラム
JP2016090853A (ja) 表示装置、表示装置の制御方法、及び、プログラム