JP2014120963A - 表示装置、頭部装着型表示装置、表示装置の制御方法、および、頭部装着型表示装置の制御方法 - Google Patents

表示装置、頭部装着型表示装置、表示装置の制御方法、および、頭部装着型表示装置の制御方法 Download PDF

Info

Publication number
JP2014120963A
JP2014120963A JP2012275338A JP2012275338A JP2014120963A JP 2014120963 A JP2014120963 A JP 2014120963A JP 2012275338 A JP2012275338 A JP 2012275338A JP 2012275338 A JP2012275338 A JP 2012275338A JP 2014120963 A JP2014120963 A JP 2014120963A
Authority
JP
Japan
Prior art keywords
image
user
display device
unit
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012275338A
Other languages
English (en)
Other versions
JP6155622B2 (ja
Inventor
Kaoru Sendai
薫 千代
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2012275338A priority Critical patent/JP6155622B2/ja
Priority to US14/100,421 priority patent/US9542958B2/en
Priority to CN201810908748.XA priority patent/CN108957761B/zh
Priority to CN201310689438.0A priority patent/CN103869470B/zh
Publication of JP2014120963A publication Critical patent/JP2014120963A/ja
Application granted granted Critical
Publication of JP6155622B2 publication Critical patent/JP6155622B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Circuits (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】音源と音源から取得される音声を表す文字画像とを関連付けて使用者に視認させる表示装置を提供する。
【解決手段】透過型の表示装置は;画像を表す画像光を生成し、使用者に画像光を視認させると共に、外景を透過させる画像表示部と;音声を取得する音声取得部と;音声を文字により画像として表した文字画像に変換する変換部と;特定の方向を設定する特定方向設定部と;特定の方向に基づいて、使用者の視野における前記文字画像を表す文字画像光を視認させる位置である画像表示位置を設定する表示位置設定部と、を備える。
【選択図】図6

Description

本発明は、表示装置に関する。
頭部に装着する表示装置である頭部装着型表示装置(ヘッドマウントディスプレイ(Head Mounted Display)、HMD)が知られている。頭部装着型表示装置は、例えば、液晶ディスプレイおよび光源を利用して画像を表す画像光を生成し、生成された画像光を投写光学系や導光板を利用して使用者の眼に導くことにより、使用者に虚像を視認させる。頭部装着型表示装置には、使用者が虚像に加えて外景も視認可能な透過型と、使用者が外景を視認できない非透過型と、の2つのタイプがある。透過型の頭部装着型表示装置には、光学透過型とビデオ透過型とがある。
透過型の頭部装着型表示装置において、音声を変換して音声を表す文字画像として使用者に視認させる技術が知られている。例えば、特許文献1には、聴覚障害者用の頭部装着型表示装置において、備え付けられたマイクが取得した多様な音声を文字画像として使用者に視認させる技術が開示されている。
特開2007−334149号公報
しかし、特許文献1に記載された技術では、頭部装着型表示装置において、使用者は音声を表す文字画像を視認できるものの、文字画像を使用者に視認させるために虚像を形成する位置が使用者の視野において固定されているため、文字画像が使用者の視界を妨げるおそれがあった。また、音源と音源から取得される音声を表す文字画像との関係が何ら考慮されていないという課題があった。また、複数の音源から取得される複数の種類の音声を識別したいという課題があった。なお、上述の課題は、頭部装着型表示装置に限らず、表示装置に共通する課題であった。
本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態として実現することが可能である。
(1)本発明の一形態によれば、透過型の表示装置が提供される。この表示装置は、画像を表す画像光を生成し、使用者に前記画像光を視認させると共に、外景を透過させる画像表示部と;音声を取得する音声取得部と;前記音声を文字により画像として表した文字画像に変換する変換部と;特定の方向を設定する特定方向設定部と;前記特定の方向に基づいて、使用者の視野における前記文字画像を表す文字画像光を視認させる位置である画像表示位置を設定する表示位置設定部と、を備える。この形態の表示装置によれば、使用者が設定した特定の方向に基づいて、取得される音声を、音声を表す文字画像として使用者に視認させることができ、使用者が音声を認識する理解度を向上させることができる。また、使用者が設定した特定の方向に基づいて、取得された音声を表す文字画像を使用者の視野における画像表示位置が設定されるので、使用者は、設定された特定の方向と文字画像とを関連付けて視認でき、設定した特定の方向と文字画像との関係を認識しやすく、使用者の利便性が向上する。
(2)上記形態の表示装置において、前記表示位置設定部は、前記画像表示位置を、使用者の視野における前記特定の方向に対応する位置に重複しないように設定してもよい。この形態の表示装置によれば、使用者は、音源と音源から取得される音声を表す文字画像とを関連付けて認識しやすい。
(3)上記形態の表示装置において、前記表示位置設定部は、前記画像表示位置を、使用者の視野における中心以外に対応する位置に設定してもよい。この形態の表示装置によれば、使用者は、視野の中心で外景を視認しながら、音声を表す文字画像を視認できる。
(4)上記形態の表示装置において、前記特定の方向は、前記音声取得部から音源への方向であってもよい。この形態の表示装置によれば、音源から取得された音声を音源と関連付けて使用者に視認させることができ、使用者にとって取得された音声に対する理解度が向上する。
(5)上記形態の表示装置において、前記音声取得部は、音源から前記音声取得部への方向に応じて音声を取得する感度が異なり、前記特定の方向からの音声を取得する感度が最大となるような向きに設定されてもよい。この形態の表示装置によれば、音源取得部は、特定の方向からの音声を高い感度で取得し、特定の方向からずれるほど音声を取得しにくくなるため、特定の方向から取得された音声の精度が向上する。
(6)上記形態の表示装置において、さらに;複数の音源から取得される異なる種類の音声を前記音声の種類ごとに識別する音声識別部と;使用者による操作を受け付ける操作部と、を備え;前記特定方向設定部は、前記操作に基づいて、前記音声取得部から、複数の前記音声のうち一の前記音声が取得された音源までの方向である特定音源方向を特定し;前記表示位置設定部は、使用者の視野において、前記一の前記音声を表す前記文字画像光を視認させる位置を、前記特定音源方向に対応する位置に設定してもよい。この形態の表示装置によれば、複数の人が話す会話においても、使用者の視野VRにおいて、特定音源方向から取得された音声を表す文字画像が特定音源方向の近くの位置に視認される。よって、使用者は、聴覚に加えて、視覚で特定音源方向と特定音源方向から取得される音声を表す文字画像とを関連付けて認識でき、会話の内容を理解しやすい。
(7)上記形態の表示装置において、前記表示位置設定部は、使用者に視野において、前記一の前記音声を表す前記文字画像光を視認させる位置を、複数の前記特定音源方向に対応する位置のいずれにも重複しない位置に設定してもよい。この形態の表示装置によれば、使用者の視野VRにおいて、複数の特定音源方向から取得された音声を表す文字画像のいずれも、複数の音源方向と重複しない位置に視認されるため、使用者は、特定音源方向と特定音源方向から取得される音声を表す文字画像とをより関連付けて視認することができる。
(8)上記形態の表示装置において、前記画像表示部は、複数の前記音声を前記音声の種類ごとに異なる前記文字画像光に生成し、使用者に複数の前記音声の種類ごとの前記文字画像光を視認させ;前記操作は、使用者の視野において視認される複数の前記音声の種類ごとの前記文字画像光から、一の前記特定音源方向からの前記音声に対応する前記文字画像光を特定する操作であってもよい。この形態の表示装置によれば、簡便な操作によって、使用者は、特定音源方向と特定音源方向から取得される音声を表す文字画像とを容易に設定できる。
(9)上記形態の表示装置において、前記画像表示部は、前記音声取得部が前記音声を取得した時点から所定の時間遅らせて前記文字画像光を使用者に視認させてもよい。この形態の表示装置によれば、一時的に音声を聞き逃すと共に音声を表す文字画像を見逃した場合に、音声よりも遅れて使用者の視野に認識される文字画像によって、取得される音声の前後のつながりに対する使用者の理解度が向上する。
(10)上記形態の表示装置において、さらに;使用者の視線方向を推定する視線方向推定部を備え;前記画像表示部は、使用者の頭部に装着された状態において使用者に前記画像光を視認させ;前記表示位置設定部は、前記特定の方向と前記視線方向との関係に基づいて前記画像表示位置を設定してもよい。この形態の表示装置によれば、特定の方向と視線方向とのずれに応じて、使用者の視野に特定の方向が視認されているかいないかが判断されるので、特定の方向と取得された音声を表す文字画像とを、関連付けて認識させやすい。
(11)上記形態の表示装置において、前記表示位置設定部は、前記視線方向と前記特定の方向とがなす角度である特定角度が第1の閾値未満の場合に、使用者の視野における前記特定の方向に対応する位置の近くに前記画像表示位置を設定し、前記特定角度が第1の閾値以上の場合に、前記特定の方向とは無関係に前記画像表示位置を設定してもよい。この形態の表示装置によれば、使用者の視野において、外景として特定の方向が視認されている場合には、特定の方向の近くに画像表示位置が設定されるため、取得される音声に対する使用者の理解度が向上する。
(12)上記形態の表示装置において、さらに;外景の画像を取得する画像取得部を備え;前記画像表示部は、前記視線方向と前記特定の方向とがなす角度である特定角度が第2の閾値以上の場合に、前記画像取得部が取得した前記特定の方向の画像を表す画像光である特定方向画像光を生成して使用者に視認させ、前記特定角度が第2の閾値未満の場合に、前記特定方向画像光を生成せず;前記表示位置設定部は、前記特定角度が第2の閾値以上の場合に、前記特定方向画像光を視認させる位置を、前記画像表示位置に重複させず、かつ、前記画像表示位置の近くに設定し、前記特定角度が第2の閾値未満の場合に、使用者の視野における前記特定の方向に対応する位置の近くに前記画像表示位置を設定してもよい。この形態の表示装置によれば、使用者の視野において、特定の方向が外景に視認されていなくても、特定の方向が撮像された画像と画像表示位置とが近くに視認されるので、取得される音声に対する使用者の理解度が向上する。
(13)本発明の他の形態によれば、透過型の頭部装着型表示装置が提供される。この頭部装着型表示装置は、画像を表す画像光を生成し、使用者の頭部に装着された状態において使用者に前記画像光を視認させると共に、外景を透過させる画像表示部と;音声を取得する音声取得部と;前記音声を文字により画像として表した文字画像に変換する変換部と;使用者の視線方向を推定する視線方向推定部と;前記視線方向の変化に基づいて、使用者の視野における前記文字画像を表す文字画像光を視認させる位置である画像表示位置を設定する表示位置設定部と、を備える。この頭部装着型表示装置は、使用者の視認方向にあわせて、使用者の視界の妨げにならない位置に画像表示位置が設定されるので、使用者の使い勝手が向上する。
(14)上記形態の頭部装着型表示装置において、前記視線方向推定部は、前記文字画像光が使用者に視認されている表示状態を基準として、前記視線方向の角速度と角度の変化量との少なくとも一方の特定値を推定し;前記表示位置設定部は、前記特定値が一定値を超えた場合に、使用者の視野における中央部以外に前記画像表示位置を設定してもよい。この形態の頭部装着型表示装置によれば、使用者の視認方向の変化にあわせて、使用者の視界の妨げにならない位置に画像表示位置が設定されるので、使用者の使い勝手が向上する。
(15)上記形態の頭部装着型表示装置において、前記視線方向推定部は、重力方向と前記重力方向に垂直な水平方向とを推定し;前記表示位置設定部は、前記重力方向と前記水平方向に対して前記表示状態における前記特定値に基づいて、使用者の視野における前記画像表示位置を設定してもよい。この形態の頭部装着型表示装置によれば、重力方向または水平方向に対する使用者の視認方向の変化にあわせて、使用者の視界の妨げにならない位置に画像表示位置が設定されるので、使用者の使い勝手が向上する。
(16)上記形態の頭部装着型表示装置において、前記表示位置設定部は、前記角度の変化量が第3の閾値以上である場合に、使用者の視野における中央部以外に前記画像表示位置を設定し、前記角度の変化量が第3の閾値未満である場合に、使用者の視野における予め設定された位置に前記画像表示位置を設定してもよい。この形態の頭部装着型表示装置によれば、使用者の視認方向の角度変化にあわせて、使用者の視界の妨げにならない位置に画像表示位置が設定されるので、使用者の使い勝手が向上する。
(17)上記形態の頭部装着型表示装置において、前記表示位置設定部は、前記角度の変化量が第4の閾値未満の状態で所定の時間が経過した場合に、使用者の視野における中央部分に前記画像表示位置を設定し、前記角度の変化量が第4の閾値以上の場合に、使用者の視野における中央部以外に前記画像表示位置を設定してもよい。この形態の頭部装着型表示装置によれば、使用者が視認している文字画像に注目していると判定された場合に、画像表示位置を使用者が視認しやすい位置に自動で変更されるので、使用者の使い勝手が向上する。
(18)上記形態の頭部装着型表示装置において、前記表示位置設定部は、前記角速度が第5の閾値以上である場合に、使用者の視野における中央部以外に前記画像表示位置を設定し、前記角速度が第5の閾値未満である場合に、使用者の視野における予め設定された位置に前記画像表示位置を設定してもよい。この形態の頭部装着型表示装置によれば、使用者の視認方向の角速度にあわせて、使用者の視界の妨げにならない位置に画像表示位置が設定されるので、使用者の使い勝手が向上する。
(19)上記形態の頭部装着型表示装置において、前記表示位置設定部は、前記角速度が第6の閾値未満の状態で所定の時間が経過した場合に、使用者の視野における中央部に前記画像表示位置を設定し、前記角速度が第6の閾値以上の場合に、使用者の視野における中央部以外に前記画像表示位置を設定してもよい。この形態の頭部装着型表示装置によれば、使用者が視認している文字画像に注目していると判定された場合に、画像表示位置を使用者が視認しやすい位置に自動で変更されるので、使用者の使い勝手が向上する。
上述した本発明の各形態の有する複数の構成要素はすべてが必須のものではなく、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、適宜、前記複数の構成要素の一部の構成要素について、その変更、削除、新たな他の構成要素との差し替え、限定内容の一部削除を行なうことが可能である。また、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、上述した本発明の一形態に含まれる技術的特徴の一部または全部を上述した本発明の他の形態に含まれる技術的特徴の一部または全部と組み合わせて、本発明の独立した一形態とすることも可能である。
例えば、本発明の一形態は、音声取得部と、変換部と、画像表示部と、特定方向設定部と、表示位置設定部と、の5つ要素の内の一つ以上または全部の要素を備えた装置として実現可能である。すなわち、この装置は、音声取得部を有していてもよく、有していなくてもよい。また、装置は、変換部を有していてもよく、有していなくてもよい。また、装置は、画像表示部を有していてもよく、有していなくてもよい。また、装置は、特定方向設定部を有していてもよく、有していなくてもよい。また、装置は、表示位置設定部を有していてもよく、有していなくてもよい。画像表示部は、前記文字画像を表す画像光を生成し、使用者に前記画像光を視認させると共に、外景を透過させてもよい。音声取得部は、例えば、音声を取得してもよい。変換部は、例えば、前記音声を文字により画像として表した文字画像に変換してもよい。特定方向設定部は、例えば、特定の方向を設定してもよい。表示位置設定部は、例えば、前記特定の方向に基づいて、使用者の視野における前記文字画像を表す文字画像光を視認させる位置である画像表示位置を設定してもよい。こうした装置は、例えば、表示装置として実現できるが、表示装置以外の他の装置としても実現可能である。このような形態によれば、装置の操作性の向上、着脱時の容易化、装置の一体化や、製造の容易化等の種々の課題の少なくとも1つを解決することができる。前述した表示装置の各形態の技術的特徴の一部または全部は、いずれもこの装置に適用することが可能である。
本発明は、表示装置以外の種々の形態で実現することも可能である。例えば、頭部装着型表示装置、表示装置および頭部装着型表示装置の制御方法、表示システムおよび頭部装着型表示システム、表示システムおよび頭部装着型表示システムの機能を実現するためのコンピュータープログラム、そのコンピュータープログラムを記録した記録媒体、そのコンピュータープログラムを含み搬送波内に具現化されたデータ信号等の形態で実現できる。
頭部装着型表示装置100の外観構成を示す説明図である。 頭部装着型表示装置100の構成を機能的に示すブロック図である。 取得音声の画像表示処理の流れを示す説明図である。 使用者の視野VRの一例を示す説明図である。 カメラ61が撮像した外景の画像の一例を示す説明図である。 使用者の視野VRの一例を示す説明図である。 使用者の視野VRの一例を示す説明図である。 第2実施形態における取得音声の画像表示処理の流れを示す説明図である。 使用者の視野VRの一例を表す説明図である。 カメラ61が撮像した外景画像BIMの一例を示す説明図である。 使用者の視野VRの一例を示す説明図である。 使用者の視野VRの一例を示す説明図である。
次に、本発明の実施の形態を実施形態に基づいて以下の順序で説明する。
A.第1実施形態:
A−1.頭部装着型表示装置の構成:
A−2.取得音声の画像表示処理:
B.第2実施形態:
C.変形例:
A.第1実施形態:
A−1.頭部装着型表示装置の構成:
図1は、頭部装着型表示装置100の外観構成を示す説明図である。頭部装着型表示装置100は、頭部に装着する表示装置であり、ヘッドマウントディスプレイ(Head Mounted Display、HMD)とも呼ばれる。本実施形態の頭部装着型表示装置100は、使用者が、虚像を視認すると同時に外景も直接視認可能な光学透過型の頭部装着型表示装置である。なお、本明細書では、頭部装着型表示装置100によって使用者が視認する虚像を便宜的に「表示画像」とも呼ぶ。また、画像データに基づいて生成された画像光を射出することを「画像を表示する」ともいう。
頭部装着型表示装置100は、使用者の頭部に装着された状態において使用者に虚像を視認させる画像表示部20と、画像表示部20を制御する制御部10(コントローラー10)と、を備えている。
画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有している。画像表示部20は、右保持部21と、右表示駆動部22と、左保持部23と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、カメラ61と、マイク63と、を含んでいる。右光学像表示部26および左光学像表示部28は、それぞれ、使用者が画像表示部20を装着した際に使用者の右および左の眼前に位置するように配置されている。右光学像表示部26の一端と左光学像表示部28の一端とは、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置で、互いに接続されている。
右保持部21は、右光学像表示部26の他端である端部ERから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。同様に、左保持部23は、左光学像表示部28の他端である端部ELから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。右保持部21および左保持部23は、眼鏡のテンプル(つる)のようにして、使用者の頭部に画像表示部20を保持する。
右表示駆動部22と左表示駆動部24とは、使用者が画像表示部20を装着した際の使用者の頭部に対向する側に配置されている。なお、以降では、右保持部21および左保持部23を総称して単に「保持部」とも呼び、右表示駆動部22および左表示駆動部24を総称して単に「表示駆動部」とも呼び、右光学像表示部26および左光学像表示部28を総称して単に「光学像表示部」とも呼ぶ。
表示駆動部22,24は、液晶ディスプレイ241,242(Liquid Crystal Display、以下「LCD241,242」とも呼ぶ)や投写光学系251,252等を含む(図2参照)。表示駆動部22,24の構成の詳細は後述する。光学部材としての光学像表示部26,28は、導光板261,262(図2参照)と調光板とを含んでいる。導光板261,262は、光透過性の樹脂材料等によって形成され、表示駆動部22,24から出力された画像光を使用者の眼に導く。調光板は、薄板状の光学素子であり、使用者の眼の側とは反対の側である画像表示部20の表側を覆うように配置されている。調光板は、導光板261,262を保護し、導光板261,262の損傷や汚れの付着等を抑制する。また、調光板の光透過率を調整することによって、使用者の眼に入る外光量を調整して虚像の視認のしやすさを調整できる。なお、調光板は省略可能である。
カメラ61は、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置に配置されている。カメラ61は、使用者の眼の側とは反対側方向の外部の景色である外景を撮像し、外景画像を取得する。本実施形態におけるカメラ61は、単眼カメラであるが、ステレオカメラであってもよい。カメラ61は、請求項における画像取得部に相当する。
マイク63は、右保持部21における右表示駆動部22の反対側に配置されている。マイク63は、方向によって音声を取得する感度が異なる指向性を有するマイクである。マイク63が接続されている右保持部21の内部には機械的な構造が形成されており、マイク63は、右保持部21に対して相対的に動くことができる。
画像表示部20は、さらに、画像表示部20を制御部10に接続するための接続部40を有している。接続部40は、制御部10に接続される本体コード48と、右コード42と、左コード44と、連結部材46と、を含んでいる。右コード42と左コード44とは、本体コード48が2本に分岐したコードである。右コード42は、右保持部21の延伸方向の先端部APから右保持部21の筐体内に挿入され、右表示駆動部22に接続されている。同様に、左コード44は、左保持部23の延伸方向の先端部APから左保持部23の筐体内に挿入され、左表示駆動部24に接続されている。連結部材46は、本体コード48と、右コード42および左コード44と、の分岐点に設けられ、イヤホンプラグ30を接続するためのジャックを有している。イヤホンプラグ30からは、右イヤホン32および左イヤホン34が延伸している。
画像表示部20と制御部10とは、接続部40を介して各種信号の伝送を行なう。本体コード48における連結部材46とは反対側の端部と、制御部10と、のそれぞれには、互いに嵌合するコネクター(図示しない)が設けられている。本体コード48のコネクターと制御部10のコネクターとの嵌合/嵌合解除により、制御部10と画像表示部20とが接続されたり切り離されたりする。右コード42と、左コード44と、本体コード48とには、例えば、金属ケーブルや光ファイバーを採用できる。
制御部10は、頭部装着型表示装置100を制御するための装置である。制御部10は、決定キー11と、点灯部12と、表示切替キー13と、トラックパッド14と、輝度切替キー15と、方向キー16と、メニューキー17と、電源スイッチ18と、を含んでいる。決定キー11は、押下操作を検出して、制御部10で操作された内容を決定する信号を出力する。点灯部12は、頭部装着型表示装置100の動作状態を、その発光状態によって通知する。頭部装着型表示装置100の動作状態としては、例えば、電源のON/OFF等がある。点灯部12としては、例えば、LED(Light Emitting Diode)が用いられる。表示切替キー13は、押下操作を検出して、例えば、コンテンツ動画の表示モードを3Dと2Dとに切り替える信号を出力する。トラックパッド14は、トラックパッド14の操作面上での使用者の指の操作を検出して、検出内容に応じた信号を出力する。トラックパッド14としては、静電式や圧力検出式、光学式といった種々のトラックパッドを採用できる。輝度切替キー15は、押下操作を検出して、画像表示部20の輝度を増減する信号を出力する。方向キー16は、上下左右方向に対応するキーへの押下操作を検出して、検出内容に応じた信号を出力する。電源スイッチ18は、スイッチのスライド操作を検出することで、頭部装着型表示装置100の電源投入状態を切り替える。
図2は、頭部装着型表示装置100の構成を機能的に示すブロック図である。図2に示すように、制御部10は、CPU140と、操作部135と、入力情報取得部110と、記憶部120と、電源130と、インターフェイス180と、送信部51(Tx51)および送信部52(Tx52)と、を有している。操作部135は、使用者による操作を受け付け、決定キー11、表示切替キー13、トラックパッド14、輝度切替キー15、方向キー16、メニューキー17、電源スイッチ18、から構成されている。
入力情報取得部110は、使用者による操作入力に応じた信号を取得する。操作入力に応じた信号としては、例えば、トラックパッド14、方向キー16、電源スイッチ18、に対する操作入力がある。電源130は、頭部装着型表示装置100の各部に電力を供給する。電源130としては、例えば二次電池を用いることができる。記憶部120は、種々のコンピュータープログラムを格納している。記憶部120は、ROMやRAM等によって構成されている。CPU140は、記憶部120に格納されているコンピュータープログラムを読み出して実行することにより、オペレーティングシステム150(ОS150)、画像処理部160、表示制御部190、マイク駆動部163、変換部185、音声処理部170、方向判定部161、として機能する。
画像処理部160は、コンテンツに含まれる画像信号を取得する。画像処理部160は、取得した画像信号から、垂直同期信号VSyncや水平同期信号HSync等の同期信号を分離する。また、画像処理部160は、分離した垂直同期信号VSyncや水平同期信号HSyncの周期に応じて、PLL(Phase Locked Loop)回路等(図示しない)を利用してクロック信号PCLKを生成する。画像処理部160は、同期信号が分離されたアナログ画像信号を、A/D変換回路等(図示しない)を用いてディジタル画像信号に変換する。その後、画像処理部160は、変換後のディジタル画像信号を、対象画像の画像データData(RGBデータ)として、1フレームごとに記憶部120内のDRAMに格納する。なお、画像処理部160は、必要に応じて、画像データに対して、解像度変換処理、輝度、彩度の調整といった種々の色調補正処理、キーストーン補正処理等の画像処理を実行してもよい。
画像処理部160は、生成されたクロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、記憶部120内のDRAMに格納された画像データData、のそれぞれを、送信部51、52を介して送信する。なお、送信部51を介して送信される画像データDataを「右眼用画像データ」とも呼び、送信部52を介して送信される画像データDataを「左眼用画像データ」とも呼ぶ。送信部51、52は、制御部10と画像表示部20との間におけるシリアル伝送のためのトランシーバーとして機能する。
表示制御部190は、右表示駆動部22および左表示駆動部24を制御する制御信号を生成する。具体的には、表示制御部190は、制御信号により、右LCD制御部211による右LCD241の駆動ON/OFF、右バックライト制御部201による右バックライト221の駆動ON/OFF、左LCD制御部212による左LCD242の駆動ON/OFF、左バックライト制御部202による左バックライト222の駆動ON/OFFなど、を個別に制御する。これにより、表示制御部190は、右表示駆動部22および左表示駆動部24のそれぞれによる画像光の生成および射出を制御する。例えば、表示制御部190は、右表示駆動部22および左表示駆動部24の両方に画像光を生成させたり、一方のみに画像光を生成させたり、両方共に画像光を生成させなかったりする。
表示制御部190は、右LCD制御部211と左LCD制御部212とに対する制御信号のそれぞれを、送信部51および52を介して送信する。また、表示制御部190は、右バックライト制御部201と左バックライト制御部202とに対する制御信号のそれぞれを送信する。マイク駆動部163は、マイク63の向きを設定する。操作部135が受け付けた操作によって使用者が取得したい音声の音源(以下、「目標音源」とも呼ぶ)が特定されると、マイク駆動部163は、目標音源からの音声を取得する感度が最大になるように、マイク63の向きを変更する。マイク駆動部163は、後述する9軸センサー66が検出する画像表示部20の位置および向きを取得する。これにより、画像表示部20と目標音源との位置関係に関わらず、マイク駆動部163は、マイク63が常にマイク63から目標音源への方向(以下、「音源方向」とも呼ぶ)からの音声を取得する感度が最大になるように向きを変更できる。そのため、本実施形態における頭部装着型表示装置100では、マイク63は、音源方向からの音声を高い感度で取得し、音源方向からずれるほど音声を取得しにくくなるため、取得した音声を表す文字画像の精度を向上させる。なお、操作部135は、請求項における特定方向設定部に相当し、マイク63およびマイク駆動部163は、請求項における音声取得部に相当する。
変換部185は、マイク63が取得した音声を、音声を文字によって表した文字画像へと変換する。文字画像は、表示制御部190によって文字画像を表す制御信号として画像表示部20に送信される。画像表示部20は、送信された制御信号に基づいて文字画像を表す画像光を生成して、使用者の眼に射出することで、使用者は、音声を文字画像として視認できる。
方向判定部161は、音源方向と、後述する9軸センサー66が検出した画像表示部20の向きから推定される使用者の視線方向と、がなす角度が予め定められた閾値以上か否かを判定する。また、方向判定部161は、音源方向と視線方向とがなす角度に基づいて、使用者が外景に目標音源を視認しているか否かを判定する。なお、設定される特定の方向と使用者の視線方向とがなす角度は、請求項における特定角度に相当し、特定の方向の一例として設定された音源方向と使用者の視線方向とがなす角度も特定角度に相当する。
音声処理部170は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、連結部材46に接続された右イヤホン32内のスピーカー(図示しない)および左イヤホン34内のスピーカー(図示しない)に対して供給する。なお、例えば、Dolby(登録商標)システムを採用した場合、音声信号に対する処理がなされ、右イヤホン32および左イヤホン34のそれぞれからは、例えば周波数等が変えられた異なる音が出力される。また、音声処理部170は、マイク63が取得した音声から特徴を抽出してモデル化することで、複数の人の声を別々に認識して、声ごとに話している人を特定する話者認識を行なう。音声処理部170は、請求項における音声識別部に相当する。
インターフェイス180は、制御部10に対して、コンテンツの供給元となる種々の外部機器OAを接続するためのインターフェイスである。外部機器OAとしては、例えば、パーソナルコンピューター(PC)や携帯電話端末、ゲーム端末等、がある。インターフェイス180としては、例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等、を用いることができる。
画像表示部20は、右表示駆動部22と、左表示駆動部24と、右光学像表示部26としての右導光板261と、左光学像表示部28としての左導光板262と、カメラ61と、9軸センサー66と、マイク63と、を備えている。
9軸センサー66は、加速度(3軸)、角速度(3軸)、地磁気(3軸)、を検出するモーションセンサーである。9軸センサー66は、画像表示部20に設けられているため、画像表示部20が使用者の頭部に装着されているときには、使用者の頭部の動きを検出する。検出された使用者の頭部の動きから画像表示部20の向きがわかるため、方向判定部161は、使用者の視線方向を推定できる。方向判定部161と9軸センサー66とは、請求項における視線方向推定部に相当する。マイク63は、取得した音声の音声信号を変換部185および音声処理部170に送信する。
右表示駆動部22は、受信部53(Rx53)と、光源として機能する右バックライト制御部201(右BL制御部201)および右バックライト221(右BL221)と、表示素子として機能する右LCD制御部211および右LCD241と、右投写光学系251と、を含んでいる。右バックライト制御部201と右バックライト221とは、光源として機能する。右LCD制御部211と右LCD241とは、表示素子として機能する。なお、右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241と、を総称して「画像光生成部」とも呼ぶ。
受信部53は、制御部10と画像表示部20との間におけるシリアル伝送のためのレシーバーとして機能する。右バックライト制御部201は、入力された制御信号に基づいて、右バックライト221を駆動する。右バックライト221は、例えば、LEDやエレクトロルミネセンス(EL)等の発光体である。右LCD制御部211は、受信部53を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データData1と、に基づいて、右LCD241を駆動する。右LCD241は、複数の画素をマトリクス状に配置した透過型液晶パネルである。
右投写光学系251は、右LCD241から射出された画像光を並行状態の光束にするコリメートレンズによって構成される。右光学像表示部26としての右導光板261は、右投写光学系251から出力された画像光を、所定の光路に沿って反射させつつ使用者の右眼REに導く。なお、右投写光学系251と右導光板261とを総称して「導光部」とも呼ぶ。
左表示駆動部24は、右表示駆動部22と同様の構成を有している。左表示駆動部24は、受信部54(Rx54)と、光源として機能する左バックライト制御部202(左BL制御部202)および左バックライト222(左BL202)と、表示素子として機能する左LCD制御部212および左LCD242と、左投写光学系252と、を含んでいる。左バックライト制御部202と左バックライト222とは、光源として機能する。左LCD制御部212と左LCD242とは、表示素子として機能する。なお、左バックライト制御部202と、左LCD制御部212と、左バックライト222と、左LCD242と、を総称して「画像光生成部」とも呼ぶ。また、左投写光学系252は、左LCD242から射出された画像光を並行状態の光束にするコリメートレンズによって構成される。左光学像表示部28としての左導光板262は、左投写光学系252から出力された画像光を、所定の光路に沿って反射させつつ使用者の左眼LEに導く。なお、左投写光学系252と左導光板262とを総称して「導光部」とも呼ぶ。
A−2.取得音声の画像表示処理:
図3は、取得音声の画像表示処理の流れを示す説明図である。図3には、マイク63が取得した音声を画像表示部20に文字画像として表示する処理の流れが示されている。
初めに、カメラ61は、外景を撮像する(ステップS305)。図4は、使用者の視野VRの一例を示す説明図である。図4には、使用者が視認できる視野VRと、画像表示部20が画像を表示できる領域である最大画像表示領域PNと、が示されている。図4に示すように、使用者は、目標音源である教師TEと、教師TEの発言を聞いている複数の生徒STと、を外景として視認できる。また、使用者は、教師TEがホワイトボードWBに書いた文字を視認できる。使用者は、操作部135を操作することにより、カメラ61によって視認している外景を撮像できる。なお、使用者が視認している外景とカメラ61が撮像する外景とは、使用者の視線方向やカメラ61の向き等によって異なる場合がある。そのため、他の実施形態では、カメラ61が外景を撮像する前に、撮像される外景の画像を最大画像表示領域PNに表示させて使用者に視認させ、使用者が操作部135を操作することで撮像する外景の画像が使用者の視野VRに視認される外景に近づくように補正される態様にしてもよい。
次に、使用者は、音源方向を設定する(ステップS310)。図5は、カメラ61が撮像した外景の画像の一例を示す説明図である。図5には、使用者が目標音源を特定する場合に、最大画像表示領域PNの全域にカメラ61が撮像した外景の画像が表示され、使用者の視野VR内で、かつ、最大画像表示領域PN以外の領域では使用者が外景を視認している状態が示されている。使用者が目標音源を特定したい場合に所定の操作を行なうと、画像処理部160は、最大画像表示領域PNに表示されている画像に対して顔認識を行ない、教師TEを目標音源の候補として抽出する。図5に示すように、最大画像表示領域PNに表示された画像において教師TEが抽出されると、画像表示部20は、教師TEの顔を囲んで点滅する矩形形状の枠MAを最大画像表示領域PNに表示する。この状態で、使用者が決定キー11を押下すると、教師TEが目標音源として特定され、音源方向が設定される。目標音源が特定されると、記憶部120は、最大画像表示領域PNに表示された画像における枠MA内の画像を目標音源の画像として記憶する。そのため、本実施形態における頭部装着型表示装置100では、操作部135に設定される特定の方向が音源方向であるため、音源から取得された音声を音源と関連付けて最大画像表示領域PNに表示することができ、使用者の音声を認識する理解度を向上させることができる。
目標音源の画像が記憶されると、画像表示部20は、最大画像表示領域PNに撮像された外景の画像を表示しなくなり、使用者は、外景として教師TEや生徒STを視認できるようになる。なお、設定された音源方向は、画像表示部20の向きに関わらず、マイク63から目標音源への絶対方向である。
音源方向が設定されると、次に、マイク駆動部163は、マイク63の向きを設定する(図3のステップS320)。マイク駆動部163は、マイク63が音源方向からの音声を取得する感度が最大になるような向きに設定する。マイク63は、向きが設定されると、音声を取得する(ステップS330)。次に、変換部185は、マイク63が取得した音声を、音声を表す文字画像へと変換する(ステップS340)。画像処理部160および画像表示部20は、使用者に文字画像を視認させる(ステップS350)。
図6は、使用者の視野VRの一例を示す説明図である。図6には、使用者が外景に加えて、教師TEの音声を文字画像として表すテキスト画像TX1、テキスト画像TX2、テキスト画像TX3(以下、あわせて「テキスト画像群」とも呼ぶ)、を視認している状態が示されている。テキスト画像TX1は、教師TEの音声がリアルタイムで変換されて更新されて表される文字画像である。テキスト画像TX2とテキスト画像TX3とは、テキスト画像TX1よりも所定の時間前の教師TEの音声を表す文字画像である。テキスト画像群は、視野VRにおいて、音源方向に存在する教師TEに重複しない位置であると共に、教師TEの近くの位置に表示される。そのため、第1実施形態における頭部装着型表示装置100では、目標音源から取得される音声を表す文字画像であるテキスト画像群が音源方向に重複しない位置に表示されるため、使用者は、発言者と発言者の音声とをより関連付けて認識しやすい。
本実施形態では、テキスト画像TX1は、使用者の視野VRにおける音源方向が視認される位置の近くに表示される。一般に、使用者の視野VRは、最大で水平方向に約200度、重力方向に約125度であることが知られている。本明細書では、使用者の視野VRにおける音源方向の近くとは、音源方向を中心とする使用者の視野角60度以内のことをいう。テキスト画像TX1が音源方向を中心として使用者の視野角45度以内に表示されるとさらに好ましい。
また、テキスト画像TX1等は、使用者の視野VRにおける中央部以外に表示される。本明細書では、使用者の視野VRにおける中央部以外とは、使用者の視野VRにおける中心から左右上下方向の30度以内を除いた範囲をいう。また、テキスト画像TX1等が視野VRにおける中心の左右上下方向の45度以内を除いた範囲に表示されるとさらに好ましい。なお、画像処理部160と画像表示部20とは、請求項における表示位置設定部に相当する。
テキスト画像TX1は、所定の時間が経過すると、テキスト画像TX2やテキスト画像TX3のように、教師TEからの吹き出しがない1つの固まりである文字画像として表示される。1つの固まりの文字画像には、1分間における教師TEの音声を表す文字画像が表示される。そのため、1分間ごとに新たな固まりのテキスト画像が作成される。図6に示すテキスト画像群の表示態様では、テキスト画像の固まりを3つまで表示し、新たなテキスト画像の固まりが作成されると、最大画像表示領域PNから一番古いテキスト画像の固まりが表示されなくなる。記憶部120は、最大画像表示領域PNにおけるテキスト画像の固まりの表示/非表示に関わらず、自動的に最大画像表示領域PNに表示していたテキスト画像群をテキスト画像の固まりごとに分けて記憶する。なお、他の実施形態では、1つのテキスト画像の固まりは、1分間の間に取得される音声である必要はなく、例えば、2分間であってもよいし、テキスト画像群が1つにまとめられて1つのテキスト画像の固まりとして表示されてもよい。
次に、使用者の視線方向が変化したか否かが判定される(図3のステップS360)。本実施形態における現時点では、図4から図6までに示すように、使用者は、音源方向に存在する教師TEを視認し続けており、音源方向と使用者の視線方向とはほとんど同じ方向である。
方向判定部161は、音源方向と視線方向とがなす角度が30度以上変化したかを判定する。使用者の視線方向がほとんど動かず、使用者の視線方向と音源方向とのなす角が30度未満であると判定された場合には(ステップS360:NO)、引き続き、文字画像は、視野VRにおいて、教師TEに重複しない位置であると共に、最大画像表示領域PNの中央以外で教師TEの近くの位置に表示される。なお、使用者の視線方向が30度未満の範囲で動いた場合には、音源方向と視線方向とのなす角度に応じてテキスト画像群が最大画像表示領域PNに表示される位置が変更される。なお、視線方向と音源方向とのなす角である30度は、請求項における第1の閾値および第2の閾値に相当する。そのため、本実施形態における頭部装着型表示装置100では、使用者の視野VRに外景として音源方向が視認されている場合には、最大画像表示領域PNにおいて音源方向の近くにテキスト画像TX11等が表示されるため、取得される音声に対する使用者の理解度が向上する。
視線方向と音源方向とがなす角度が30度以上変化したと判定された場合には(ステップS360:YES)、方向判定部161は、使用者の視野VRに目標音源が視認されていないと判定する。この場合に、画像処理部160は、最大画像表示領域PNにカメラ61が撮像した目標音源の画像を表示すると共に、文字画像を表示する位置を変更する(ステップS370)。
図7は、使用者の視野VRの一例を示す説明図である。図7には、使用者の視線方向が音源方向から下向きに変わり、使用者が手HDに握ったペンPENを使ってノートNTにメモを取っている状態が示されている。図7に示すように、最大画像表示領域PNの上側には、文字画像がリアルタイムでテキスト画像TX4に更新されて表示されている。また、最大画像表示領域PNにおいて、テキスト画像TX4の右側には、目標音源である教師TEの画像が画像IMGとして表示されている。テキスト画像TX4は、図6に示すテキスト画像群と異なり、音声を取得してから経過した時間にかかわらず、1つの固まりである文字画像として表示される。また、テキスト画像TX4は、最大画像表示領域PNにおいて、画像IMGに重複せずに、かつ、画像IMGの近くに表示される。なお、本実施形態では、テキスト画像TX4を表示する位置と画像IMGの位置とは予め設定されている。言い換えれば、視線方向と音源方向とがなす角度が30度以上の場合には、最大画像表示領域PNにおける音源方向と関係のない位置にテキスト画像TX4が表示されている。そのため、本実施形態の頭部装着型表示装置100では、音源方向が外景に視認されていなくても、最大画像表示領域PNに音源方向の画像IMGと文字画像とが近くに表示されるので、取得される音声に対する使用者の理解度が向上する。
次に、取得音声の画像表示処理を終了するか否かが判断される(図3のステップS380)。取得音声の画像表示処理を行なうと判断された場合には(ステップS380:NO)、引き続き、ステップS330からステップS370までの処理が行なわれる。取得音声の画像表示処理を終了すると判断された場合には(ステップS380:YES)、使用者が所定の操作を行なうことで、取得音声の画像表示処理が終了する。
以上説明したように、本実施形態における頭部装着型表示装置100では、マイク63が取得した音声を変換部185が文字画像に変換する。操作部135が操作されることで音源方向が特定される。画像処理部160と画像表示部20とは、音源方向に基づいて最大画像表示領域PNに表示する文字画像の位置を設定する。そのため、この頭部装着型表示装置100では、使用者が設定した方向に基づいて、使用者が取得する音声を、音声を表すテキスト画像TX1等として使用者に視認させることができ、使用者における音声を認識する理解度を向上させることができる。また、使用者が設定した方向に基づいて、取得された音声を表すテキスト画像TX1等を最大画像表示領域PNに表示する位置が設定されるので、使用者は、設定した方向とテキスト画像TX1等との関係を認識しやすく、使用者の利便性が向上する。
また、本実施形態の頭部装着型表示装置100では、9軸センサー66と方向判定部161とは、画像表示部20の向きによって使用者の視線方向を推定する。画像処理部160と画像表示部20とは、音源方向と視線方向とのずれに基づいて、使用者の視野VRにおける取得した音声を表す文字画像を表示する位置を設定する。そのため、本実施形態の頭部装着型表示装置100では、音源方向と視線方向とのずれに応じて、使用者の視野VRに音源が視認されているかいないかが判断されて、文字画像を表示する位置が設定されるので、使用者は、音源方向と文字画像とを関連付けて認識しやすい。
B.第2実施形態:
図8は、第2実施形態における取得音声の画像表示処理の流れを示す説明図である。図8には、複数の異なる種類の音声を表す文字画像を区別して表示する処理の流れが示されている。第2実施形態における頭部装着型表示装置100aでは、第1実施形態のマイク63に代えて指向性を有さないマイク63aが複数の音源から異なる種類の音声を取得し、音声処理部170が取得された複数の音声を種類ごとに識別する。
初めに、マイク63aは、複数の音源から、種類の異なる音声を取得する(ステップS410)。音声処理部170は、取得された複数の種類の音声のそれぞれから音声の特徴を抽出してモデル化し、音声を種類ごとに識別して認識する(以下、「話者認識」とも呼ぶ)(ステップS420)。なお、この時点では、音声処理部170が音声の種類の識別のみを行ない、音源と音源から取得される音声との対応関係については特定されていない。次に、変換部185は、複数の種類の音声を、音声を表す文字画像へと変換する(ステップS430)。画像処理部160は、文字画像を制御信号として画像表示部20に送信し、画像表示部20は、文字画像を音声の種類ごとに区別して使用者に視認させる(ステップS440)。
図9は、使用者の視野VRの一例を表す説明図である。図9には、使用者が外景に加えて、教師TEの音声を表す文字画像と生徒ST1の音声を表す文字画像とを異なる文字画像として視認している状態が示されている。図9に示すように、最大画像表示領域PNにおいて、中央部分以外の右上に教師TEの音声を文字画像として表すテキスト画像TX11と、テキスト画像TX11の下に生徒ST1の音声を文字画像として表すテキスト画像TX12と、が示されている。テキスト画像TX11とテキスト画像TX12とは、文字画像における文字の色と文字の背景の色とが異なり、異なる種類の音声を表す文字画像として最大画像表示領域PNに表示されている。
次に、カメラ61は、外景を撮像する(図8のステップSS445)。カメラ61が外景を撮像する処理は、第1実施形態における図3のステップ305に示した処理と同じであるため、説明を省略する。
次に、使用者は、操作部135を操作することにより、最大画像表示領域PNに表示される撮像された画像から1つの音源を選択することで、マイク63aから複数の音源までの複数の音源方向の内から1つの音源方向を特定する(ステップS450)。図10は、カメラ61が撮像した外景画像BIMの一例を示す説明図である。図10には、最大画像表示領域PNにカメラ61が撮像した外景画像BIMが表示されている。外景画像BIMには、図9に示したテキスト画像TX11およびテキスト画像TX12と、カーソルCRと、指示画像CMと、が表示されている。指示画像CMは、使用者が次に行なう操作の指示を示す画像である。カーソルCRは、使用者が方向キー16を操作することで最大画像表示領域PN上を移動する画像である。使用者が、指示画像CMに表示されている「音源を特定してください」の指示に従い、カーソルCRを最大画像表示領域PNに表示された目標音源である教師TEに重なるように移動させて決定キー11を押下すると、1つの目標音源が選択されると共に、音源方向が特定される。
次に、選択された目標音源から取得される音声を表す文字画像が選択される(図8のステップS460)。1つの目標音源が選択されると、指示画像CM内に表示される文字は、「選択した音源から取得される文字画像を選択してください」に変更される。使用者が教師TEの音声を表す文字画像としてテキスト画像TX11を選択すると、音声処理部170は、テキスト画像TX11として表される種類の音声が教師TEの音声であると認識する。
次に、制御部10は、音声の種類の数と同数の音源方向の特定が行なわれたかを判定する(ステップS470)。この時点では、テキスト画像TX12に対応する音源方向が設定されていないため(ステップS470:NO)、ステップS450およびステップS460の処理が行なわれる。使用者が、目標音源として生徒ST1を選択して(ステップS450)、生徒ST1の音声を表す文字画像としてテキスト画像TX12を選択すると(ステップS460)、音声処理部170は、テキスト画像TX12として表される種類の音声が生徒ST1の音声であると認識する。そのため、第2実施例における頭部装着型表示装置100aでは、簡便な操作によって、特定の音源方向と特定の音源方向から取得される音声を表す文字画像とが設定され、使用者は容易に話者認識の設定を行なうことができる。
使用者が音声の種類の数と同数の音源方向の特定を行なうと(ステップS470:YES)、次に、特定された音源方向と文字画像との対応関係が正しいか否かの判定が行なわれる(ステップS475)。対応関係が正しくないと判定された場合には(ステップS475:NO)、対応関係が正しくないと判定された音源方向と文字画像との組み合わせに対して、再度、ステップS450からステップS470までの処理が行なわれる。
音声の種類の数と同数の音源方向の特定が行なわれたと判定されると(ステップS475:YES)、画像処理部160と画像表示部20は、最大画像表示領域PNにおいて、指示画像CMとカーソルCRとを非表示にして、テキスト画像TX11とテキスト画像TX12とを表示する方法および位置を変更する(ステップS480)。
図11は、使用者の視野VRの一例を示す説明図である。図11では、特定された音源方向と特定された音源方向から取得される音声を表す文字画像とが関連付けて表示されている。図11に示すように、テキスト画像TX11は、教師TEの音声を表す文字画像であるため、教師TEを起点とする吹き出しで囲まれた文字の画像である。また、テキスト画像TX12は、生徒ST1の音声を表す文字画像であるため、生徒ST1を起点とする吹き出しで囲まれた文字の画像である。テキスト画像TX11とテキスト画像TX12とのそれぞれでは、教師TEと生徒ST1とのそれぞれから取得される音声を表す文字画像がリアルタイムで更新されて表示される。テキスト画像TX11とテキスト画像TX12とに表示される文字数は予め定められており、定められた文字数を超えると、超えた分の文字は表示されなくなる。他の実施形態では、文字の表示と非表示とが文字数によって行なわれるのではなく、時間等によって行なわれてもよい。また、音源方向から取得された最後の音声から同じ種類の音声が取得されずに所定の時間が経過すると、文字画像は最大画像表示領域PNに表示されなくなる。本実施形態では、所定の時間としての5分が経過すると文字画像が表示されなくなるが、他の実施形態では、所定の時間が5分以外の時間であってもよい。
次に、使用者は、取得音声の画像表示処理を終了するか否かが判断される(図8のステップS490)。ステップS490における判断は、第1実施形態の図3のステップ380における判断と同じであるため、説明を省略する。
以上説明したように、第2実施形態における頭部装着型表示装置100aでは、音声処理部170は、取得された複数の音声を種類ごとに識別する。操作部135は、使用者による操作を受け付けることにより、マイク63aから、マイク63aが取得する複数の種類の音声のうち特定の音声が取得された音源までの方向を特定する。画像処理部160と画像表示部20とは、使用者の視野VRにおいて、テキスト画像TX11とテキスト画像TX12とを最大画像表示領域PNに表示する位置を、それぞれテキスト画像TX11、テキスト画像TX12、として表される音声が取得される音源方向の近くに設定する。また、画像処理部160と画像表示部20とは、使用者の視野VRにおいて、テキスト画像TX11とテキスト画像TX12とを最大画像表示領域PNに表示する位置のそれぞれを、複数の音源方向のいずれにも重複しない位置に設定する。そのため、第2実施形態における頭部装着型表示装置100aでは、複数の人が話す会話であっても、最大画像表示領域PNにおいて、発言者の声を表す文字画像が当該発言者の近くの位置に表示される。よって、使用者は、聴覚に加えて、視覚で発言者と発言者の音声を表す文字画像とを関連付けて認識でき、会話の内容を理解しやすい。また、取得された音声を表す文字画像のいずれも、複数の音源方向と重複しない位置に表示されるため、使用者は、発言者と発言者の音声を表す文字画像とをより関連付けて視認することができる。
C.変形例:
なお、この発明は上記実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば、次のような変形も可能である。
C1.変形例1:
上記実施形態では、頭部装着型表示装置100において、変換部185が取得された音声をリアルタイムで文字画像に変換して、使用者に文字画像を視認させる態様としたが、文字画像を使用者に視認させる方法はこれに限られず、種々変形可能である。
図12は、使用者の視野VRの一例を示す説明図である。図12では、記憶部120に記憶された音声が種類ごとに区別されて、音声が録音された時間に関連付けられて最大画像表示領域PNに音声を表す文字画像として表示されている。図12に示すように、最大画像表示領域PNの左側には、音声の録音を開始してからの経過時間TMが表示されている。最大画像表示領域PNにおける経過時間TMの右側には、複数の文字画像であるテキスト画像TX35等が表示されている。テキスト画像TX35等は、経過時間TMに示す録音された時間と関連付けられて表示されている。例えば、テキスト画像TX35は、音声を文字画像へと変換し始めた録音開始時に、録音され始めた音声を表す文字画像であり、テキスト画像TX35内の文字から音源が教師TEであることがわかる。また、テキスト画像TX32は、録音が開始されてからおよそ32分が経過したときに、録音され始めた音声を表す文字画像であり、テキスト画像TX32内の文字から音源が生徒ST1であることがわかる。
図12に示すカーソルCRがテキスト画像TX35等に重ねられて選択されると、テキスト画像TX35として表示されている文字画像が最大画像表示領域PNの全域に拡大して表示される。また、使用者からの操作によって、音源方向を撮像した画像が文字画像とあわせて表示される。そのため、この頭部装着型表示装置100では、使用者は、音声を聞き逃した場合や、文字画像を見逃した場合でも、記憶部120に記憶された音声を表す文字画像を後から確認できる。また、記憶部120には、音源方向を撮像した画像や録音された時間の対応関係についても記憶されているので、使用者が過去に録音した音声を表す文字画像を検索する場合などに利便性が向上する。
また、使用者が音声を聞いている場合に、操作部135に所定の操作が行なわれることで、所定の操作を受け付けている間に取得される音声が特別な文字画像として表示されてもよいし、特別な音声として記憶部120に記憶されてもよい。この頭部装着型表示装置100では、使用者の操作によって、文字画像が特徴付けられて最大画像表示領域PNに表示されたり、音声が特徴付けられて記憶されたりする。よって、使用者は、音声および文字画像ごとに新たな情報を付加できるため、使用者の利便性が向上する。
また、画像表示部20は、音声が取得された時点から所定の時間遅らせて文字画像を使用者に視認させてもよい。例えば、画像表示部20は、取得された音声を30秒遅れて最大画像表示領域PNに表示させてもよい。この頭部装着型表示装置100では、使用者は、一時的に音声を聞き逃すと共にリアルタイムでの音声を表す文字画像を見逃した場合に、音声よりも遅れて表示される文字画像によって、現時点で聞いている音声とあわせて30秒前に聞き逃した音声を表す文字画像として視認できる。よって、使用者は、取得される音声の前後のつながりを理解しやすい。
C2.変形例2:
上記実施形態では、推定された使用者の視線方向と音源方向とのずれによって、最大画像表示領域PNにおいて、表示される文字画像の位置が設定されたが、表示される文字画像の位置の設定方法はこれに限られず、種々変形可能である。例えば、推定された使用者の視線方向のみに基づいて、最大画像表示領域PNに表示される文字画像の位置や方法が設定されてもよい。
方向判定部161と9軸センサー66とは、画像表示部20の動きを検出することで、取得される音声を表す文字画像が最大画像表示領域PNに表示されている表示状態を基準として、視線方向の角度の変化量と角速度とのうち少なくとも一方を推定する。なお、視線方向の角度の変化量と角速度とは、請求項における特定値に相当する。また、9軸センサー66が地磁気を検出できるため、9軸センサー66によって重力方向と重力方向に垂直な水平方向とが特定され、方向判定部161と9軸センサー66とは、重力方向と水平方向とに対する角度の変化量および角速度を推定できる。この変形例の頭部装着型表示装置100では、視線方向の角度が30度以上変化した場合、または、角速度が1(ラジアン/秒)以上の場合には、方向判定部161は、使用者が最大画像表示領域PNに表示される文字画像ではなく、外景を視認したいと判定する。この場合に、画像処理部160と画像表示部20とは、最大画像表示領域PNにおいて、中央部分以外で、使用者の視線が移った逆の方向に、文字画像を表示する位置を変更する。例えば、使用者の視線方向が重力方向に対して上を向いた場合には、使用者が上の外景を視認したいと推定できるので、最大画像表示領域PNにおける下側に文字画像が表示される。そのため、この変形例の頭部装着型表示装置100では、使用者が視認したい方向にあわせて、使用者の視界の妨げにならない位置に自動で文字画像を表示する位置が変更されるので、使用者の使い勝手が向上する。なお、30度は請求項における第3の閾値に相当し、1(ラジアン/秒)は請求項における第5の閾値に相当する。なお、他の実施形態では、閾値として、角度の変化量が30度以外の数値であってもよいし、角速度が1(ラジアン/秒)以外の数値であってもよい。
また、この変形例の頭部装着型表示装置100では、表示状態を基準として、視線方向の角度の変化量が30度未満、かつ、視線方向の角速度が1(ラジアン/秒)未満であり、かつ、その状態で30秒が経過した場合には、方向判定部161は、使用者が最大画像表示領域PNに表示される文字画像に注目していると判定する。この場合に、画像処理部160と画像表示部20とは、最大画像表示領域PNにおける中央部分に、文字画像を表示する。そのため、この変形例の頭部装着型表示装置100では、使用者が文字画像に注目していると判定された場合に、使用者が視認しやすい位置に自動で文字画像を表示するので、使用者の使い勝手が向上する。なお、30度は請求項における第4の閾値に相当し、1(ラジアン/秒)は請求項における第6の閾値に相当する。
C3.変形例3:
上記実施形態では、特定の方向として目標音源が存在する音源方向が設定されたが、必ずしも音源方向が特定の方向である必要はなく、設定される特定の方向については種々変形可能である。例えば、音源であるバスガイドがスカイツリーのようなランドマークの説明を行なっている場合に、音源ではなく、使用者の視野VRに視認されるスカイツリーの方向が特定の方向として設定されてもよい。この場合に、使用者は、常に音源とは異なる特定の方向であるスカイツリーを視認しながら、文字画像を視認できる。この変形例における頭部装着型表示装置100では、使用者が視認したい特定の方向を自由に設定できるため、使用者の使い勝手が向上する。
また、特定の方向としては、使用者が視認している視線方向、使用者の背後方向、車の進行方向であってもよい。例えば、特定の方向が使用者の背後方向であって場合には、表示される文字画像の態様を変化させて、使用者に背後方向で取得された音声を表す文字画像であることを認識させてもよい。
また、上記実施形態では、人間から取得される声を音声の一例としたが、取得されて変換される音声はこれに限られず、種々変形可能であり、人間以外の生物である動物の鳴き声等であってもよいし、サイレンといった警告音や効果音であってもよい。例えば、使用者が多くの人に囲まれていて、多くの人の声を聞いている場合に、音声処理部170が警告音のみを識別して、警告音を表す文字画像を使用者に視認させることで、いち早く使用者に警告を告知できるため、使用者の利便性が向上する。
また、上記実施形態では、使用者の視線方向が画像表示部20に備え付けられた9軸センサー66によって推定されたが、使用者の視線方向の推定方法はこれに限られず、種々変形可能である。例えば、CCDカメラによって使用者の眼を撮像して、撮像した画像を解析することで、使用者の視線方向が推定されてもよい。
また、上記実施形態では、文字画像は、最大画像表示領域PNにおいて、音源方向の近くの位置に表示され、中央部分以外に表示される態様としたが、文字画像が表示される位置や方法はこれに限られず、種々変形可能である。例えば、文字画像が使用者に視認される外景と比較して重要であるならば、最大画像表示領域PNの中央部分に文字画像が表示されてもよい。また、使用者の視野VRにおいて、目標音源が隅の方で視認されており、できるだけ多くの文字数を最大画像表示領域PNに表示させたい場合には、音源方向に重ならない最大画像表示領域PNの全域に文字画像が表示されてもよい。また、使用者の視野VRにおける外景の視認性を高めるために、音源方向と文字画像とが重ねられて表示されてもよい。
C4.変形例4:
上記実施形態では、マイク63は、画像表示部20に対して相対的に動いて向きを変えることで、音声を取得する感度をマイク63から音源への方向に応じて変える態様としたが、必ずしも画像表示部20に対して相対的に動く必要はなく、マイク63の構造および構成は種々変形可能である。例えば、変形例におけるマイク63bは、別々の方向を向いている指向性を有する複数のマイクから構成されていてもよい。この場合に、使用者からの操作によって、複数のマイクのうちいくつかのマイクからの音声を取得しないことで、マイク63bが方向ごとに音声を取得する感度を変更できる。この頭部装着型表示装置100では、マイク63bを画像表示部20に対して相対的に動かす構造が不要であるため、簡便な構成によって音声を取得するマイク63bの指向性が設定される。
C5.変形例5:
上記実施形態では、視線方向と音源方向とがなす角度が30度以上の場合に、最大画像表示領域PNにおいて、カメラ61が撮像した音源方向の画像を表示して、音源方向の画像の近くに文字画像が表示される態様としたが、視線方向と音源方向との関係によって、文字画像を表示される方法および位置が変更される態様については種々変形可能である。例えば、視線方向と音源方向とがなす角度に関わらず、最大画像表示領域PNにおける予め定められた位置に常に文字画像が表示される態様であってもよい。また、視線方向と音源方向とがなす角度が30度を閾値として、文字画像が最大画像表示領域PNに表示される位置が設定されるのではなく、30度よりも大きい角度や小さい角度が閾値として設定されてもよい。
C6.変形例6:
上記実施形態では、画像処理部160は、カメラ61が撮像した外景の画像に対して顔認証を行なうことで、音源として教師TEを抽出したが、音源の抽出方法については種々変形可能である。例えば、測距センサーによって、使用者から一定距離に存在するものが音源の候補として抽出されてもよい。
また、上記実施形態では、音声処理部170は、話者認識によって種類の異なる音声を識別しているが、音声の識別方法についてはこれに限られず、種々変形可能である。例えば、大学の講義のように使用者が毎週同じ音源である教師TEの話を聞く場合、予め、教師TEの音声の特徴が頭部装着型表示装置100に登録されることで、教師TE以外の音声が文字画像へと変換されないように設定できる。この頭部装着型表示装置100では、その都度、音源方向と異なる種類ごとの音声の設定が不要であり、また、使用者が文字画像として最大画像表示領域PNに表示させたい種類の音声を表す文字画像を高い精度で識別することできる。
また、上記実施形態では、取得された音声を、音声を表す文字画像として変換したが、音声を文字画像へと変換する方法は種々変形可能である。例えば、プライバシー保護の観点から、公演では取得された音声が文字画像へと変換されて、取得された音声の録音は行われない設定にしてもよい。また、頭部装着型表示装置100に個人名等の特定の言葉が予め登録されておくことで、登録された言葉については、音声が取得されても文字画像へと変換が行われない設定としてもよい。
また、頭部装着型表示装置100に予め登録される音声としては、機械の稼働音のような音であってもよい。例えば、稼働音を表す文字画像を使用者に視認させ、産業用機械における正常稼動時の稼動音を予め登録する。この場合に、産業用機械が設置された工場内が他の機械等によって騒がしい場合であっても、産業用機械が異常稼動時の稼働音を表す文字画像を使用者が視認できることで、使用者は、産業用機械の稼働状態が正常か否かを視覚情報として認識できる。
C7.変形例7:
上記実施形態における頭部装着型表示装置100の構成は、あくまで一例であり、種々変形可能である。例えば、制御部10に設けられた方向キー16やトラックパッド14の一方を省略したり、方向キー16やトラックパッド14に加えてまたは方向キー16やトラックパッド14に代えて操作用スティック等の他の操作用インターフェイスを設けたりしてもよい。また、制御部10は、キーボードやマウス等の入力デバイスを接続可能な構成であり、キーボードやマウスから入力を受け付けるものとしてもよい。
また、画像表示部として、眼鏡のように装着する画像表示部20に代えて、例えば帽子のように装着する画像表示部といった他の方式の画像表示部を採用してもよい。また、イヤホン32,34、カメラ61、は適宜省略可能である。また、上記実施形態では、画像光を生成する構成として、LCDと光源とを利用しているが、これらに代えて、有機ELディスプレイといった他の表示素子を採用してもよい。また、上記実施形態では、使用者の頭の動きを検出するセンサーとして9軸センサー66を利用しているが、これに代えて、加速度センサー、角速度センサー、地磁気センサーのうちの1つまたは2つから構成されたセンサーを利用するとしてもよい。また、上記実施形態では、頭部装着型表示装置100は、両眼タイプの光学透過型であるとしているが、本発明は、例えばビデオ透過型や単眼タイプといった他の形式の頭部装着型表示装置にも同様に適用可能である。
また、上記実施形態において、頭部装着型表示装置100は、使用者の左右の眼に同じ画像を表す画像光を導いて使用者に二次元画像を視認させるとしてもよいし、使用者の左右の眼に異なる画像を表す画像光を導いて使用者に三次元画像を視認させるとしてもよい。
また、上記実施形態において、ハードウェアによって実現されていた構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されていた構成の一部をハードウェアに置き換えるようにしてもよい。例えば、上記実施形態では、画像処理部160や音声処理部170は、CPU140がコンピュータープログラムを読み出して実行することにより実現されるとしているが、これらの機能部はハードウェア回路により実現されるとしてもよい。
また、本発明の機能の一部または全部がソフトウェアで実現される場合には、そのソフトウェア(コンピュータープログラム)は、コンピューター読み取り可能な記録媒体に格納された形で提供することができる。この発明において、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスクやCD−ROMのような携帯型の記録媒体に限らず、各種のRAMやROM等のコンピューター内の内部記憶装置や、ハードディスク等のコンピューターに固定されている外部記憶装置も含んでいる。
また、上記実施形態では、図1および図2に示すように、制御部10と画像表示部20とが別々の構成として形成されているが、制御部10と画像表示部20との構成については、これに限られず、種々変形可能である。例えば、画像表示部20の内部に、制御部10に形成された構成の全てが形成されてもよいし、一部が形成されてもよい。また、制御部10に形成された構成の内、操作部135のみが単独のユーザーインターフェース(UI)として形成されてもよいし、上記実施形態における電源130が単独で形成されて、交換可能な構成であってもよい。また、制御部10に形成された構成が重複して画像表示部20に形成されていてもよい。例えば、図2に示すCPU140が制御部10と画像表示部20との両方に形成されていてもよいし、制御部10に形成されたCPU140と画像表示部20に形成されたCPUとが行なう機能が別々に分けられている構成としてもよい。
C8.変形例8:
例えば、画像光生成部は、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部とを備える構成としても良い。また、例えば、画像生成部は、LCDに代えて、LCOS(Liquid crystal on silicon, LCoS は登録商標)や、デジタル・マイクロミラー・デバイス等を用いることもできる。また、例えば、レーザー網膜投影型のヘッドマウントディスプレイに対して本発明を適用することも可能である。レーザー網膜投影型の場合、「画像光生成部における画像光の射出可能領域」とは、使用者の眼に認識される画像領域として定義することができる。
また、例えば、ヘッドマウントディスプレイは、光学像表示部が使用者の眼の一部分のみを覆う態様、換言すれば、光学像表示部が使用者の眼を完全に覆わない態様のヘッドマウントディスプレイとしてもよい。また、ヘッドマウントディスプレイは、いわゆる単眼タイプのヘッドマウントディスプレイであるとしてもよい。
また、イヤホンは耳掛け型やヘッドバンド型を採用してもよく、省略しても良い。また、例えば、自動車や飛行機等の車両に搭載されるヘッドマウントディスプレイとして構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたヘッドマウントディスプレイとして構成されてもよい。
C9.変形例9:
また、上記実施形態では、使用者に文字画像を視認させる表示装置として、使用者の頭部に装着される頭部装着型表示装置100を用いたが、表示装置はこれに限られず、種々変形可能である。例えば、自動車のフロントガラスに用いられるヘッドアップディスプレイ(Head-up Display;HUD)であってもよい。この場合に、使用者である自動車の運転手は、進行方向の視野を確保した上で自動車の外の音等を文字画像として視認することができる。この変形例の表示装置では、聴覚障害者が運転手である場合や自動車内が騒がしい場合に、自動車の外の音を視覚情報として認識できるので、外部での危険情報を視覚情報として認識でき、自動車を運転しているときの安全性を高めることができる。
本発明は、上記実施形態や変形例に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、変形例中の技術的特徴は、上述の課題の一部または全部を解決するために、あるいは、上述の効果の一部または全部を達成するために、適宜、差し替えや、組み合わせを行なうことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
10…制御部
11…決定キー
12…点灯部
13…表示切替キー
14…トラックパッド
15…輝度切替キー
16…方向キー
17…メニューキー
18…電源スイッチ
20…画像表示部(表示位置設定部)
21…右保持部
22…右表示駆動部
23…左保持部
24…左表示駆動部
26…右光学像表示部
28…左光学像表示部
30…イヤホンプラグ
32…右イヤホン
34…左イヤホン
40…接続部
42…右コード
44…左コード
46…連結部材
48…本体コード
51,52…送信部
53,54…受信部
61…カメラ(画像取得部)
63…マイク(音声取得部)
66…9軸センサー(視線方向推定部)
100…頭部装着型表示装置
110…入力情報取得部
120…記憶部
130…電源
135…操作部(特定方向設定部)
140…CPU
150…オペレーティングシステム
160…画像処理部(表示位置設定部)
161…方向判定部(視線方向推定部)
163…マイク駆動部(音声取得部)
170…音声処理部(音声識別部)
180…インターフェイス
185…変換部
190…表示制御部
201…右バックライト制御部
202…左バックライト制御部
211…右LCD制御部
212…左LCD制御部
221…右バックライト
222…左バックライト
241…右LCD
242…左LCD
251…右投写光学系
252…左投写光学系
261…右導光板
262…左導光板
VSync…垂直同期信号
HSync…水平同期信号
PCLK…クロック信号
OA…外部機器
WB…ホワイトボード
TE…教師
ST,ST1,ST2,ST3…生徒
CM…指示画像
PN…最大画像表示領域
CR…カーソル
VR…使用者の視野
NT…ノート
PEN…ペン
IMG…画像
BIM…外景画像
TX1,TX2,TX3,TX11,TX12,TX31,TX32,TX33,TX34,TX35…テキスト画像

Claims (21)

  1. 透過型の表示装置であって、
    画像を表す画像光を生成し、使用者に前記画像光を視認させると共に、外景を透過させる画像表示部と、
    音声を取得する音声取得部と、
    前記音声を文字により画像として表した文字画像に変換する変換部と、
    特定の方向を設定する特定方向設定部と、
    前記特定の方向に基づいて、使用者の視野における前記文字画像を表す文字画像光を視認させる位置である画像表示位置を設定する表示位置設定部と、を備える、表示装置。
  2. 請求項1に記載の表示装置であって、
    前記表示位置設定部は、前記画像表示位置を、使用者の視野における前記特定の方向に対応する位置に重複しないように設定する、表示装置。
  3. 請求項1または請求項2に記載の表示装置であって、
    前記表示位置設定部は、前記画像表示位置を、使用者の視野における中心以外に対応する位置に設定する、表示装置。
  4. 請求項1から請求項3までのいずれか一項に記載の表示装置であって、
    前記特定の方向は、前記音声取得部から音源への方向である、表示装置。
  5. 請求項1から請求項4までのいずれか一項に記載の表示装置であって、
    前記音声取得部は、音源から前記音声取得部への方向に応じて音声を取得する感度が異なり、前記特定の方向からの音声を取得する感度が最大となるように設定される、表示装置。
  6. 請求項1から請求項5までのいずれか一項に記載の表示装置であって、さらに、
    複数の音源から取得される異なる種類の音声を前記音声の種類ごとに識別する音声識別部と、
    使用者による操作を受け付ける操作部と、を備え、
    前記特定方向設定部は、前記操作に基づいて、前記音声取得部から、複数の前記音声のうち一の前記音声が取得された音源までの方向である特定音源方向を特定し、
    前記表示位置設定部は、使用者の視野において、前記一の前記音声を表す前記文字画像光を視認させる位置を、前記特定音源方向に対応する位置の近くに設定する、表示装置。
  7. 請求項6に記載の表示装置であって、
    前記表示位置設定部は、使用者に視野において、前記一の前記音声を表す前記文字画像光を視認させる位置を、複数の前記特定音源方向に対応する位置のいずれにも重複しない位置に設定する、表示装置。
  8. 請求項6または請求項7に記載の表示装置であって、
    前記画像表示部は、複数の前記音声を前記音声の種類ごとに異なる前記文字画像光に生成し、使用者に複数の前記音声の種類ごとの前記文字画像光を視認させ、
    前記操作は、使用者の視野において視認される複数の前記音声の種類ごとの前記文字画像光から、一の前記特定音源方向からの前記音声に対応する前記文字画像光を特定する操作である、表示装置。
  9. 請求項1から請求項8までのいずれか一項に記載の表示装置であって、
    前記画像表示部は、前記音声取得部が前記音声を取得した時点から所定の時間遅らせて前記文字画像光を使用者に視認させる、表示装置。
  10. 請求項1から請求項9までのいずれか一項に記載の表示装置であって、さらに、
    使用者の視線方向を推定する視線方向推定部を備え、
    前記画像表示部は、使用者の頭部に装着された状態において使用者に前記画像光を視認させ、
    前記表示位置設定部は、前記特定の方向と前記視線方向との関係に基づいて前記画像表示位置を設定する、表示装置。
  11. 請求項10に記載の表示装置であって、
    前記表示位置設定部は、前記視線方向と前記特定の方向とがなす角度である特定角度が第1の閾値未満の場合に、使用者の視野における前記特定の方向に対応する位置の近くに前記画像表示位置を設定し、前記特定角度が第1の閾値以上の場合に、前記特定の方向とは無関係に前記画像表示位置を設定する、表示装置。
  12. 請求項10または請求項11に記載の表示装置であって、さらに、
    外景の画像を取得する画像取得部を備え、
    前記画像表示部は、前記視線方向と前記特定の方向とがなす角度である特定角度が第2の閾値以上の場合に、前記画像取得部が取得した前記特定の方向の画像を表す画像光である特定方向画像光を生成して使用者に視認させ、前記特定角度が第2の閾値未満の場合に、前記特定方向画像光を生成せず、
    前記表示位置設定部は、前記特定角度が第2の閾値以上の場合に、前記特定方向画像光を視認させる位置を、前記画像表示位置に重複させず、かつ、前記画像表示位置の近くに設定し、前記特定角度が第2の閾値未満の場合に、使用者の視野における前記特定の方向に対応する位置の近くに前記画像表示位置を設定する、表示装置。
  13. 透過型の頭部装着型表示装置であって、
    画像を表す画像光を生成し、使用者の頭部に装着された状態において使用者に前記画像光を視認させると共に、外景を透過させる画像表示部と、
    音声を取得する音声取得部と、
    前記音声を文字により画像として表した文字画像に変換する変換部と、
    使用者の視線方向を推定する視線方向推定部と、
    前記視線方向の変化に基づいて、使用者の視野における前記文字画像を表す文字画像光を視認させる位置である画像表示位置を設定する表示位置設定部と、を備える、頭部装着型表示装置。
  14. 請求項13に記載の頭部装着型表示装置であって、
    前記視線方向推定部は、前記文字画像光が使用者に視認されている表示状態を基準として、前記視線方向の角速度と角度の変化量との少なくとも一方の特定値を推定し、
    前記表示位置設定部は、前記特定値が一定値を超えた場合に、使用者の視野における中央部以外に前記画像表示位置を設定する、頭部装着型表示装置。
  15. 請求項14に記載の頭部装着型表示装置であって、
    前記視線方向推定部は、重力方向と前記重力方向に垂直な水平方向とを推定し、
    前記表示位置設定部は、前記重力方向と前記水平方向に対して前記表示状態における前記特定値に基づいて、使用者の視野における前記画像表示位置を設定する、頭部装着型表示装置。
  16. 請求項14または請求項15に記載の頭部装着型表示装置であって、
    前記表示位置設定部は、前記角度の変化量が第3の閾値以上である場合に、使用者の視野における中央部以外に前記画像表示位置を設定し、前記角度の変化量が第3の閾値未満である場合に、使用者の視野における予め設定された位置に前記画像表示位置を設定する、頭部装着型表示装置。
  17. 請求項14から請求項16までのいずれか一項に記載の頭部装着型表示装置であって、
    前記表示位置設定部は、前記角度の変化量が第4の閾値未満の状態で所定の時間が経過した場合に、使用者の視野における中央部分に前記画像表示位置を設定し、前記角度の変化量が第4の閾値以上の場合に、使用者の視野における中央部以外に前記画像表示位置を設定する、頭部装着型表示装置。
  18. 請求項14から請求項17までのいずれか一項に記載の頭部装着型表示装置であって、
    前記表示位置設定部は、前記角速度が第5の閾値以上である場合に、使用者の視野における中央部以外に前記画像表示位置を設定し、前記角速度が第5の閾値未満である場合に、使用者の視野における予め設定された位置に前記画像表示位置を設定する、頭部装着型表示装置。
  19. 請求項14から請求項18までのいずれか一項に記載の頭部装着型表示装置であって、
    前記表示位置設定部は、前記角速度が第6の閾値未満の状態で所定の時間が経過した場合に、使用者の視野における中央部に前記画像表示位置を設定し、前記角速度が第6の閾値以上の場合に、使用者の視野における中央部以外に前記画像表示位置を設定する、頭部装着型表示装置。
  20. 画像を表す画像光を生成し、使用者に前記画像光を視認させると共に、外景を透過させる画像表示部を有する、透過型の表示装置の制御方法であって、
    音声を取得する工程と、
    前記音声を文字により画像として表した文字画像に変換する工程と、
    前記文字画像を表す画像光である文字画像光を生成し、使用者に前記文字画像光を視認させると共に、外景を透過させる工程と、
    特定の方向を設定する工程と、
    前記特定の方向に基づいて、使用者の視野における前記文字画像光を視認させる位置を設定する工程と、を備える、制御方法。
  21. 画像を表す画像光を生成し、使用者の頭部に装着された状態において使用者に前記画像光を視認させると共に、外景を透過させる画像表示部を有する、透過型の頭部装着型表示装置の制御方法であって、
    音声を取得する工程と、
    前記音声を文字により画像として表した文字画像に変換する工程と、
    前記文字画像を表す画像光である文字画像光を生成し、画像表示部が使用者の頭部に装着された状態において使用者に前記文字画像光を視認させると共に、外景を透過させる工程と、
    使用者の視線方向を推定する工程と、
    前記視線方向に基づいて、使用者の視野における前記文字画像光を視認させる位置を設定する工程と、を備える、制御方法。
JP2012275338A 2012-12-18 2012-12-18 表示装置、頭部装着型表示装置、表示装置の制御方法、および、頭部装着型表示装置の制御方法 Active JP6155622B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2012275338A JP6155622B2 (ja) 2012-12-18 2012-12-18 表示装置、頭部装着型表示装置、表示装置の制御方法、および、頭部装着型表示装置の制御方法
US14/100,421 US9542958B2 (en) 2012-12-18 2013-12-09 Display device, head-mount type display device, method of controlling display device, and method of controlling head-mount type display device
CN201810908748.XA CN108957761B (zh) 2012-12-18 2013-12-16 显示装置及其控制方法、头戴式显示装置及其控制方法
CN201310689438.0A CN103869470B (zh) 2012-12-18 2013-12-16 显示装置及其控制方法、头戴式显示装置及其控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012275338A JP6155622B2 (ja) 2012-12-18 2012-12-18 表示装置、頭部装着型表示装置、表示装置の制御方法、および、頭部装着型表示装置の制御方法

Publications (2)

Publication Number Publication Date
JP2014120963A true JP2014120963A (ja) 2014-06-30
JP6155622B2 JP6155622B2 (ja) 2017-07-05

Family

ID=51175438

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012275338A Active JP6155622B2 (ja) 2012-12-18 2012-12-18 表示装置、頭部装着型表示装置、表示装置の制御方法、および、頭部装着型表示装置の制御方法

Country Status (1)

Country Link
JP (1) JP6155622B2 (ja)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015072415A (ja) * 2013-10-04 2015-04-16 セイコーエプソン株式会社 表示装置、頭部装着型表示装置、表示装置の制御方法、および、頭部装着型表示装置の制御方法
JP2016033757A (ja) * 2014-07-31 2016-03-10 セイコーエプソン株式会社 表示装置、表示装置の制御方法、および、プログラム
CN105425395A (zh) * 2015-09-30 2016-03-23 上海理鑫光学科技有限公司 一种玻璃方案的大视场角增强现实眼镜
JP2016127463A (ja) * 2015-01-06 2016-07-11 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置の制御方法、情報システム、および、コンピュータープログラム
KR101735484B1 (ko) * 2015-06-04 2017-05-15 엘지전자 주식회사 헤드 마운티드 디스플레이
JP2017164030A (ja) * 2016-03-14 2017-09-21 株式会社ユー・エス・ジェイ ショーのための情報支援システム
JP2017174018A (ja) * 2016-03-22 2017-09-28 Line株式会社 表示制御方法、プログラム、及び端末
WO2017213241A1 (ja) * 2016-06-09 2017-12-14 株式会社Qdレーザ 画像投影システム、画像投影装置、画像投影方法、画像投影プログラム及びサーバ装置
JP2017223943A (ja) * 2016-06-09 2017-12-21 株式会社Qdレーザ 画像投影システム、画像投影装置、画像投影方法、画像投影プログラム及びサーバ装置
JP2018091882A (ja) * 2016-11-30 2018-06-14 セイコーエプソン株式会社 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
KR20180100392A (ko) * 2016-02-02 2018-09-10 이베이 인크. 개인화된 실시간 오디오 프로세싱
JP2018200415A (ja) * 2017-05-29 2018-12-20 セイコーエプソン株式会社 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
JP2019054385A (ja) * 2017-09-14 2019-04-04 カシオ計算機株式会社 集音機器、補聴器、及び集音機器セット
WO2020130026A1 (ja) * 2018-12-20 2020-06-25 Nsウエスト株式会社 ヘッドアップディスプレイ装置およびヘルメット
JP2020101792A (ja) * 2018-12-20 2020-07-02 Nsウエスト株式会社 ヘッドアップディスプレイ装置およびヘルメット
JP2020101608A (ja) * 2018-12-20 2020-07-02 Nsウエスト株式会社 ヘッドアップディスプレイ装置およびヘルメット
JP2020101793A (ja) * 2018-12-20 2020-07-02 Nsウエスト株式会社 ヘッドアップディスプレイ装置およびヘルメット
JP2020138696A (ja) * 2019-03-01 2020-09-03 日産自動車株式会社 車両用情報表示方法及び車両用情報表示装置
JP2021509612A (ja) * 2018-01-04 2021-04-01 ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー 遊園地環境にテキストを重ね合わせるためのシステム及び方法
US10978072B2 (en) 2017-09-20 2021-04-13 Kabushiki Kaisha Toshiba Display control system, display control method, and computer program product using display sectors in one revolution of clockwise or counterclockwise direction

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11136598A (ja) * 1997-10-28 1999-05-21 Seiko Epson Corp 頭部装着型表示装置及びそれを備えた情報機器
JP2002525769A (ja) * 1998-09-22 2002-08-13 ヴェガ ヴィスタ インコーポレイテッド 携帯型データディスプレイの直接的コントロール方法
JP2002244842A (ja) * 2001-02-21 2002-08-30 Japan Science & Technology Corp 音声通訳システム及び音声通訳プログラム
JP2003302996A (ja) * 2002-04-11 2003-10-24 Yamagata Univ Research Institute 情報処理システム
JP2006074798A (ja) * 2005-09-05 2006-03-16 Olympus Corp 頭部装着型表示装置
JP2007256915A (ja) * 2006-02-22 2007-10-04 Konica Minolta Holdings Inc 映像表示装置、及び映像表示方法
JP2011139227A (ja) * 2009-12-28 2011-07-14 Brother Industries Ltd ヘッドマウントディスプレイ
JP2011192048A (ja) * 2010-03-15 2011-09-29 Nec Corp 発言内容出力システム、発言内容出力装置及び発言内容出力方法
JP2012075645A (ja) * 2010-09-30 2012-04-19 Toshiba Corp 医用画像診断装置、及び医用画像診断装置の制御プログラム
JP2012133250A (ja) * 2010-12-24 2012-07-12 Sony Corp 音情報表示装置、音情報表示方法およびプログラム
WO2012135554A1 (en) * 2011-03-29 2012-10-04 Qualcomm Incorporated System for the rendering of shared digital interfaces relative to each user's point of view
JP2013008031A (ja) * 2011-06-24 2013-01-10 Honda Motor Co Ltd 情報処理装置、情報処理システム、情報処理方法及び情報処理プログラム

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11136598A (ja) * 1997-10-28 1999-05-21 Seiko Epson Corp 頭部装着型表示装置及びそれを備えた情報機器
JP2002525769A (ja) * 1998-09-22 2002-08-13 ヴェガ ヴィスタ インコーポレイテッド 携帯型データディスプレイの直接的コントロール方法
JP2002244842A (ja) * 2001-02-21 2002-08-30 Japan Science & Technology Corp 音声通訳システム及び音声通訳プログラム
JP2003302996A (ja) * 2002-04-11 2003-10-24 Yamagata Univ Research Institute 情報処理システム
JP2006074798A (ja) * 2005-09-05 2006-03-16 Olympus Corp 頭部装着型表示装置
JP2007256915A (ja) * 2006-02-22 2007-10-04 Konica Minolta Holdings Inc 映像表示装置、及び映像表示方法
JP2011139227A (ja) * 2009-12-28 2011-07-14 Brother Industries Ltd ヘッドマウントディスプレイ
JP2011192048A (ja) * 2010-03-15 2011-09-29 Nec Corp 発言内容出力システム、発言内容出力装置及び発言内容出力方法
JP2012075645A (ja) * 2010-09-30 2012-04-19 Toshiba Corp 医用画像診断装置、及び医用画像診断装置の制御プログラム
JP2012133250A (ja) * 2010-12-24 2012-07-12 Sony Corp 音情報表示装置、音情報表示方法およびプログラム
WO2012135554A1 (en) * 2011-03-29 2012-10-04 Qualcomm Incorporated System for the rendering of shared digital interfaces relative to each user's point of view
JP2013008031A (ja) * 2011-06-24 2013-01-10 Honda Motor Co Ltd 情報処理装置、情報処理システム、情報処理方法及び情報処理プログラム

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015072415A (ja) * 2013-10-04 2015-04-16 セイコーエプソン株式会社 表示装置、頭部装着型表示装置、表示装置の制御方法、および、頭部装着型表示装置の制御方法
JP2016033757A (ja) * 2014-07-31 2016-03-10 セイコーエプソン株式会社 表示装置、表示装置の制御方法、および、プログラム
JP2016127463A (ja) * 2015-01-06 2016-07-11 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置の制御方法、情報システム、および、コンピュータープログラム
KR101735484B1 (ko) * 2015-06-04 2017-05-15 엘지전자 주식회사 헤드 마운티드 디스플레이
CN105425395A (zh) * 2015-09-30 2016-03-23 上海理鑫光学科技有限公司 一种玻璃方案的大视场角增强现实眼镜
KR20180100392A (ko) * 2016-02-02 2018-09-10 이베이 인크. 개인화된 실시간 오디오 프로세싱
US11715482B2 (en) 2016-02-02 2023-08-01 Ebay Inc. Personalized, real-time audio processing
KR102015745B1 (ko) 2016-02-02 2019-09-04 이베이 인크. 개인화된 실시간 오디오 프로세싱
JP2017164030A (ja) * 2016-03-14 2017-09-21 株式会社ユー・エス・ジェイ ショーのための情報支援システム
JP2017174018A (ja) * 2016-03-22 2017-09-28 Line株式会社 表示制御方法、プログラム、及び端末
WO2017213241A1 (ja) * 2016-06-09 2017-12-14 株式会社Qdレーザ 画像投影システム、画像投影装置、画像投影方法、画像投影プログラム及びサーバ装置
US10409146B2 (en) 2016-06-09 2019-09-10 Qd Laser, Inc. Image projection system, image projection device, image projection method, image projection program, and server device
JP2017223943A (ja) * 2016-06-09 2017-12-21 株式会社Qdレーザ 画像投影システム、画像投影装置、画像投影方法、画像投影プログラム及びサーバ装置
JP2018063436A (ja) * 2016-06-09 2018-04-19 株式会社Qdレーザ 画像投影装置及び画像投影システム
JP2018091882A (ja) * 2016-11-30 2018-06-14 セイコーエプソン株式会社 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
JP6996115B2 (ja) 2017-05-29 2022-01-17 セイコーエプソン株式会社 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
JP2018200415A (ja) * 2017-05-29 2018-12-20 セイコーエプソン株式会社 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法
JP2019054385A (ja) * 2017-09-14 2019-04-04 カシオ計算機株式会社 集音機器、補聴器、及び集音機器セット
US10978072B2 (en) 2017-09-20 2021-04-13 Kabushiki Kaisha Toshiba Display control system, display control method, and computer program product using display sectors in one revolution of clockwise or counterclockwise direction
JP2021509612A (ja) * 2018-01-04 2021-04-01 ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー 遊園地環境にテキストを重ね合わせるためのシステム及び方法
JP7322034B2 (ja) 2018-01-04 2023-08-07 ユニバーサル シティ スタジオズ リミテッド ライアビリティ カンパニー 遊園地環境にテキストを重ね合わせるためのシステム及び方法
JP2020101793A (ja) * 2018-12-20 2020-07-02 Nsウエスト株式会社 ヘッドアップディスプレイ装置およびヘルメット
WO2020130026A1 (ja) * 2018-12-20 2020-06-25 Nsウエスト株式会社 ヘッドアップディスプレイ装置およびヘルメット
JP7156932B2 (ja) 2018-12-20 2022-10-19 Nsウエスト株式会社 ヘッドアップディスプレイ装置およびヘルメット
JP2020101608A (ja) * 2018-12-20 2020-07-02 Nsウエスト株式会社 ヘッドアップディスプレイ装置およびヘルメット
JP2020101792A (ja) * 2018-12-20 2020-07-02 Nsウエスト株式会社 ヘッドアップディスプレイ装置およびヘルメット
JP7390870B2 (ja) 2018-12-20 2023-12-04 Nsウエスト株式会社 ヘッドアップディスプレイ装置およびヘルメット
JP2020138696A (ja) * 2019-03-01 2020-09-03 日産自動車株式会社 車両用情報表示方法及び車両用情報表示装置
JP7267776B2 (ja) 2019-03-01 2023-05-02 日産自動車株式会社 車両用情報表示方法及び車両用情報表示装置

Also Published As

Publication number Publication date
JP6155622B2 (ja) 2017-07-05

Similar Documents

Publication Publication Date Title
JP6155622B2 (ja) 表示装置、頭部装着型表示装置、表示装置の制御方法、および、頭部装着型表示装置の制御方法
US9542958B2 (en) Display device, head-mount type display device, method of controlling display device, and method of controlling head-mount type display device
US9898868B2 (en) Display device, method of controlling the same, and program
US10114604B2 (en) Head-mounted display device, control method for head-mounted display device, and computer program
US20160313973A1 (en) Display device, control method for display device, and computer program
WO2016063504A1 (ja) 頭部装着型表示装置およびその制御方法、並びにコンピュータープログラム
JP6364735B2 (ja) 表示装置、頭部装着型表示装置、表示装置の制御方法、および、頭部装着型表示装置の制御方法
JP2016004340A (ja) 情報配信システム、頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム
JP6600945B2 (ja) 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム
JP6432197B2 (ja) 表示装置、表示装置の制御方法、および、プログラム
JP6492673B2 (ja) 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム
JP2016081339A (ja) 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム
JP2016033757A (ja) 表示装置、表示装置の制御方法、および、プログラム
JP2017091433A (ja) 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム
WO2016079950A1 (ja) 情報処理装置、情報処理装置を制御する方法、コンピュータープログラム
JP2016024208A (ja) 表示装置、表示装置の制御方法、および、プログラム
JP2016057814A (ja) 頭部装着型表示装置、頭部装着型表示装置の制御方法、情報システム、および、コンピュータープログラム
JP2014187574A (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP2016033759A (ja) 表示装置、表示装置の制御方法、および、プログラム
JP6252002B2 (ja) 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP2019012537A (ja) 頭部装着型表示装置、コンピュータープログラム
JP2016081338A (ja) 頭部装着型表示装置、頭部装着型表示装置を制御する方法、コンピュータープログラム
JP2015087523A (ja) 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、画像表示システム
JP2016033763A (ja) 表示装置、表示装置の制御方法、および、プログラム
JP6467922B2 (ja) 頭部装着型表示装置、頭部装着型表示装置の制御方法、情報システム、および、コンピュータープログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151006

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160530

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170522

R150 Certificate of patent or registration of utility model

Ref document number: 6155622

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150