JP2015149654A - Head mount display, viewing system - Google Patents
Head mount display, viewing system Download PDFInfo
- Publication number
- JP2015149654A JP2015149654A JP2014022216A JP2014022216A JP2015149654A JP 2015149654 A JP2015149654 A JP 2015149654A JP 2014022216 A JP2014022216 A JP 2014022216A JP 2014022216 A JP2014022216 A JP 2014022216A JP 2015149654 A JP2015149654 A JP 2015149654A
- Authority
- JP
- Japan
- Prior art keywords
- display
- area
- character information
- unit
- eye
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
本発明は、透過型の表示部を有するヘッドマウントディスプレイに関する。 The present invention relates to a head mounted display having a transmissive display unit.
従来、ユーザの頭部に装着され、眼前に配置された表示部に画像を表示させるヘッドマウントディスプレイが知られている。ヘッドマウントディスプレイには、透過型と非透過型とが存在する。透過型のヘッドマウントディスプレイでは、表示部を通してユーザは外界を視認することができる。即ち、ヘッドマウントディスプレイを装着したユーザの眼には、表示部に表示された像と、外界の像とが同時に入力し、ユーザは擬似的な合成像を視認することができる。 2. Description of the Related Art Conventionally, a head mounted display that is mounted on a user's head and displays an image on a display unit arranged in front of the eyes is known. Head mounted displays include a transmissive type and a non-transmissive type. In the transmissive head-mounted display, the user can visually recognize the outside world through the display unit. That is, an image displayed on the display unit and an image of the outside world are simultaneously input to the user's eye wearing the head mounted display, and the user can visually recognize a pseudo composite image.
また、表示部に文字情報を表示させることで、このヘッドマウントディスプレイを装着したユーザに文字情報等を提供することができるヘッドマウントディスプレイが開示されている(例えば、特許文献1参照)。 In addition, a head mounted display that can provide character information and the like to a user wearing the head mounted display by displaying character information on a display unit is disclosed (for example, see Patent Document 1).
透過型のヘッドマウントディスプレイにおいて、表示部に文字情報を表示させると、表示部を通して視認される外界の像に対して、文字情報が適切な位置に配置されない場合がある。例えば、ヘッドマウントディスプレイを装着した状態でユーザが外界に表示された画像を見ている場合に、この画像に同期して表示される文字情報が画像に対して適切な位置に表示されないと、文字情報がユーザの視聴の妨げとなる。 In a transmissive head-mounted display, when character information is displayed on the display unit, the character information may not be arranged at an appropriate position with respect to an image of the outside world viewed through the display unit. For example, when a user is viewing an image displayed in the outside world with a head-mounted display attached, the character information displayed in synchronization with the image is not displayed at an appropriate position with respect to the image. Information hinders viewing by the user.
本発明は、上記課題にかんがみてなされたもので、ユーザの視聴を妨げることなく、画像に同期して表示される文字情報を表示させるヘッドマウントディスプレイ、およびこのヘッドマウントディスプレイを一部に備える視聴システムの提供を目的とする。 The present invention has been made in view of the above problems. A head-mounted display that displays character information that is displayed in synchronization with an image without interfering with the user's viewing, and a viewing that partially includes the head-mounted display. The purpose is to provide a system.
適用例1
上記課題を解決するために、本発明の一態様では、透過型の表示部を有するヘッドマウントディスプレイであって、表示装置から文字情報を受信する受信部と、前記表示部を通してユーザに視認される写像を画像データとして取得するカメラ部と、取得した前記画像データ内の前記表示装置の位置を第1領域として検出する表示領域検出部と、検出された前記第1領域に応じて、受信した前記文字情報を表示する前記表示部の位置である第2領域を決定する文字領域決定部と、前記表示部に対して、決定された前記第2領域に受信した前記文字情報を表示させる表示制御部と、を有する。
Application example 1
In order to solve the above problems, according to one embodiment of the present invention, a head-mounted display having a transmissive display unit, which is visually recognized by a user through a receiving unit that receives character information from a display device and the display unit A camera unit that acquires a mapping as image data, a display region detection unit that detects a position of the display device in the acquired image data as a first region, and the received the first region according to the detected first region A character region determination unit that determines a second region that is a position of the display unit that displays character information, and a display control unit that causes the display unit to display the received character information in the determined second region And having.
上記のように構成された発明では、カメラ部で取得した画像データに含まれる表示装置の位置を第1領域として検出する。次に、検出された第1領域に応じて、受信した文字情報を表示する表示部の位置である第2領域を決定する。そして、決定された第2領域に対応する表示部の位置に受信した前記文字情報を表示す。
そのため、ユーザが表示装置を視認する第1領域に応じて、文字情報を表示する第2領域が決定されるため、ユーザの視聴を妨げることなく、画像に同期して表示される文字情報を表示させることができる。
In the invention configured as described above, the position of the display device included in the image data acquired by the camera unit is detected as the first region. Next, in accordance with the detected first area, a second area that is the position of the display unit that displays the received character information is determined. Then, the received character information is displayed at the position of the display unit corresponding to the determined second area.
Therefore, since the second area for displaying the character information is determined according to the first area where the user visually recognizes the display device, the character information displayed in synchronization with the image is displayed without disturbing the user's viewing. Can be made.
適用例2
本発明の一態様では、ユーザから、前記表示部に表示された文字情報の位置または大きさの調整を受付ける操作部を有し、前記表示制御部は、受付けた前記調整に応じて、前記表示部に表示された前記文字情報の位置または大きさを変更する。
上記のように構成された発明では、自動で設定された文字情報の視認位置をユーザが手動で調整することができるため、文字情報の使用をより使いやすいものとすることができる。
Application example 2
In one aspect of the present invention, an operation unit that receives an adjustment of a position or a size of character information displayed on the display unit from a user is provided, and the display control unit performs the display according to the received adjustment. The position or size of the character information displayed on the part is changed.
In the invention configured as described above, the user can manually adjust the viewing position of the automatically set character information, so that the use of the character information can be made easier to use.
適用例3
本発明の一態様では、前記文字領域決定部は、前記第1領域の内部に前記第2領域を決定する。
上記のように構成された発明では、表示装置と一体で文字情報を表示させるため、文字情報を使用するユーザに違和感を起こさせることなく、文字情報を表示することができる。
Application example 3
In one aspect of the present invention, the character area determination unit determines the second area inside the first area.
In the invention configured as described above, since the character information is displayed integrally with the display device, the character information can be displayed without causing the user who uses the character information to feel uncomfortable.
適用例4
本発明の一態様では、前記文字領域決定部は、前記第1領域のサイズに応じて、前記第2領域の位置を決定する。
上記のように構成された発明では、ユーザに視認される表示装置のサイズに応じて、文字情報を表示する位置を変更することができる。そのため、文字情報の視認性を高めることができる。
Application example 4
In one aspect of the present invention, the character area determination unit determines the position of the second area according to the size of the first area.
In the invention configured as described above, the position where the character information is displayed can be changed according to the size of the display device visually recognized by the user. Therefore, the visibility of character information can be improved.
適用例5
本発明の一態様では、前記文字領域決定部は、前記第1領域のサイズが小さければ、前記第2領域の位置を前記第1領域の外側に決定する。
上記のように構成された発明では、ユーザに視認される表示装置のサイズが小さい場合でも、文字情報をこの表示装置の外に表示させるため、文字情報の視認性を高めることができる。
Application example 5
In one aspect of the present invention, the character area determination unit determines the position of the second area outside the first area if the size of the first area is small.
In the invention configured as described above, even when the size of the display device visually recognized by the user is small, the character information is displayed outside the display device, so that the visibility of the character information can be improved.
適用例6
本発明の一態様では、前記文字情報のサイズが大きければ、前記第2領域の位置を前記第1領域の外側に決定する。
上記のように構成された発明では、文字情報のサイズが大きい場合に、文字情報をこの表示装置の外に表示させるため、ユーザの表示装置の視聴を妨げず、文字情報の視認性を高めることができる。
Application Example 6
In one aspect of the present invention, if the size of the character information is large, the position of the second area is determined outside the first area.
In the invention configured as described above, when the size of the character information is large, the character information is displayed outside the display device, so that the user's viewing of the display device is not hindered and the visibility of the character information is improved. Can do.
適用例7
本発明の一態様では、前記表示制御部は、前記表示部に前記文字情報を立体視表示させる。
上記のように構成された発明では、ユーザに立体視をさせるヘッドマウントディスプレイにおいて、本発明を適用することができる。
Application example 7
In one aspect of the present invention, the display control unit causes the display unit to stereoscopically display the character information.
In the invention configured as described above, the present invention can be applied to a head mounted display that allows a user to stereoscopically view.
適用例8
また、本発明は、本発明の特徴を備えるヘッドマウントディスプレイを構成要素に含む視聴システムとしても捉えることができる。
Application Example 8
The present invention can also be understood as a viewing system that includes a head-mounted display having the features of the present invention as a component.
以下、下記の順序に従って本発明の実施形態を説明する。
1.第1の実施形態:
(1)視聴システムの構成
(2)ペアリング方法
(3)文字情報の表示方法
2.第2の実施形態:
3.第3の実施形態:
4.その他の実施形態:
Hereinafter, embodiments of the present invention will be described in the following order.
1. First embodiment:
(1) Configuration of viewing system (2) Pairing method (3) Display method of character information Second embodiment:
3. Third embodiment:
4). Other embodiments:
1.第1の実施形態:
(1)視聴システムの構成
図1は、視聴システムの外観図である。
視聴システム100は、ヘッドマウントディスプレイ(以下、HMDとも記載する)10と、表示装置1と、を有する。HMD10と、表示装置1とはネットワークNEを通じて接続されており、表示装置1からHMD10に文字情報WDを送信することができる。ここで、ネットワークNEは、図示しない中継装置を備える無線LAN(Local Area Network)や、近距離無線通信である。
1. First embodiment:
(1) Configuration of Viewing System FIG. 1 is an external view of a viewing system.
The
HMD1は、ユーザの頭部に合わせて形成されたフレーム20と、ユーザの右眼と左眼に位置するようフレーム20に支持された右眼用表示部11および左眼用表示部12と、HMD1の駆動を制御する制御ユニット30とを有する。
The HMD 1 includes a
HMD1は、透過型であり、ユーザはHMD10の右眼用表示部11および左眼用表示部12を通じて、表示装置1を視認することができる。また、HMD10が表示装置1からネットワークNEを通じて文字情報WDを受信した場合、ユーザは、右眼用表示部11または左眼用表示部12に文字情報WDを表示させて、表示装置1とこの文字情報WDとを一度に視認することができる。
文字情報WDは、字幕情報、コンテンツに付属するデータ、さらには、表示装置1がHMD10に表示させる特殊パターンであってもよい。
透過型のHMD10としては、光学透過型のHMDと、ビデオ透過型のHMDとが存在するが、以下に示す説明では、光学透過型のHMDと中心に説明を行う。
The HMD 1 is a transmissive type, and the user can visually recognize the display device 1 through the right
The character information WD may be subtitle information, data attached to the content, or a special pattern that the display device 1 displays on the
As the
図2は、HMD10のブロック構成図である。
HMD10のフレーム20には、右眼用表示部11、左眼用表示部12、右眼用光学部品13、左眼用光学部品14、右眼用カメラ21、左眼用カメラ22、右眼用画像生成部23、左眼用画像生成部24、操作部25と、を内蔵している。また、HMD10の制御ユニット30には、コントローラ31、ビデオメモリ32、通信IF33と、を内蔵している。さらに、右眼用カメラ21、左眼用カメラ22、右眼用画像生成部23、左眼用画像生成部24、操作部25、ビデオメモリ32、通信IF33はコントローラ31に接続されている。
FIG. 2 is a block diagram of the
The
右眼用画像生成部23は、コントローラ31から出力される文字情報WDをもとに右眼用表示部11に表示させるための右眼用画像光を生成する。また、左眼用画像生成部24は、コントローラ31から出力される文字情報WDをもとに左眼用表示部12に表示させるための左眼用画像光を生成する。右眼用画像生成部23および左眼用画像生成部24は、例えば、R(レッド)G(グリーン)B(ブルー)の液晶素子を備える光学変調素子や、バックライトにより構成さる。
The right eye
また、右眼用画像生成部23により生成された右眼用画像光は、右眼用光学部品13により右眼用表示部11に導光される。また、左眼用画像生成部24により生成された左眼用画像光は、左眼用光学部品14により左眼用表示部12に導光される。右眼用光学部品13や左眼用光学九品13は、レンズや導光板により構成される。
The right-eye image light generated by the right-eye
そして、右眼用表示部11および左眼用表示部12は、右眼用画像光および左眼用画像光により、右眼用画像および左眼用画像をそれぞれ表示する。右眼用画像による反射光、および左眼用画像による反射光は、ユーザの右眼および左眼に入射して、ユーザに画像(文字情報WD)を視認させる。右眼用表示部11および左眼用表示部12は、例えば、ハーフミラー等の半透過型のレンズにより構成される。
そのため、本発明の表示部は、右眼用表示部11、左眼用表示部12、右眼用光学部品13、左眼用光学部品14、右眼用画像生成部23、左眼用画像生成部24により実現される。
The right-
Therefore, the display unit of the present invention includes a right-
右眼用カメラ21は、HMD10を装着したユーザの右眼により視認される領域を撮像するようフレーム20に固定されている。また、左眼用カメラ22は、HMD10を装着したユーザの左眼により視認される領域を撮像するようフレーム20に固定されている。右眼用カメラ21および左眼用カメラ22からの出力は、コントローラ31に出力される。以下、右眼用カメラ21により撮像される画像データを右眼周辺画像と、左眼用カメラ22により撮像される画像データを左眼周辺画像とも記載する。
The right-
操作部25は、操作ボタン等を備え、ユーザからの操作を受付ける。また、操作部25は、コントローラ31に接続されており、ユーザにより行われた操作をコントローラ31に出力することができる。
The
通信IF33は、表示装置1とネットワークNEを用いた通信を行う。そして、通信IF33によるネットワークNEを用いた通信により、表示装置1から送信される文字情報WDがHMD10に取得される。そのため、通信IF33は、本発明の受信部を実現する。
The communication IF 33 performs communication using the display device 1 and the network NE. Then, the character information WD transmitted from the display device 1 is acquired by the
ビデオメモリ32は、コントローラ31によるワークエリアとして機能する。また、右眼用カメラ21により撮像される右眼周辺画像と、左眼用カメラ22により撮像される左眼周辺画像とは、ビデオメモリ32に記録される。
The
コントローラ31は、右眼用カメラ21並びに左眼用カメラ22からの入力、および、操作部25からの入力に応じて、右眼用画像生成部23、左眼用画像生成部24に出力する右眼用画像および左眼用画像を制御する。コントローラ31は、図示しないCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)を備える。そして、CPUがROMに記録されたプログラムを実行することで、コントローラ31は、図3に示す部位(表示領域検出部34、文字領域決定部35、表示制御部36)を機能的に備える。
The
図3は、コントローラ31の機能を説明する機能ブロック図である。
表示領域検出部34は、右眼用カメラ21および左眼用カメラ22を通じて取得した画像データ(右眼周辺画像、左眼周辺画像)をもとに、HMD10を装着したユーザに視認される表示装置1の位置を第1領域として検出する。例えば、表示領域検出部34は、ビデオメモリに入力した右眼周辺画像と左眼周辺画像とに含まれる表示装置1の領域の座標を検出する。
FIG. 3 is a functional block diagram for explaining the functions of the
The display
また、表示領域検出部34により検出された第1領域の座標は、文字領域決定部35に出力される。文字領域決定部35は、入力した第1領域の座標をもとに、通信IF33を通じて取得された文字情報WDを表示する右眼用表示部11および左眼用表示部12の位置である第2領域の座標を決定する。
The coordinates of the first area detected by the display
そして、表示制御部36は、文字領域決定部35により決定された第2領域の座標をもとに、右眼用画像生成部23および左眼用画像生成部24に出力する右眼用画像および左眼用画像を生成する。そのため、右眼用画像生成部23および左眼用画像生成部24は、生成された右眼画像および左眼用画像をもとに、右眼用表示部11、左眼用表示部12に文字情報WDを表示させる。また、表示制御部36は、ユーザが操作部25を操作している場合、操作入力を補正に加味する。
The
次に、表示装置1について説明を行う。
図4は、表示装置1の構成を示すブロック構成図である。
表示装置1は、CPU3、ROM4、RAM5、チューナ6、通信IF7、表示パネル8を備える。表示装置1の各部は、バス9を通じて互いに接続されている。各部は筺体2の内部に収容されている。
例えば、表示装置1は、液晶型の表示パネル8を備える、テレビジョン受像機である。
Next, the display device 1 will be described.
FIG. 4 is a block configuration diagram showing the configuration of the display device 1.
The display device 1 includes a
For example, the display device 1 is a television receiver including a liquid
通信IF7は、HMD10との間で所定のプロトコルに応じた通信を行う。また、ROM4には、CPU3が通信IF6を用いてHMD10に文字情報WDを送信するためのOS41や、アプリケーション42が記録されている。
The communication IF 7 performs communication according to a predetermined protocol with the
CPU3は、チューナ6または通信IF7を通じてコンテンツを受信すると、このコンテンツから文字情報WDを取得する。そして、取得した文字情報WDを、通信IF7を通じて、HMD10に送信する。
When the
(2)ペアリング方法
図5は、HMD10と表示装置1との間で行なわれるペアリング処理を説明する図である。図5(a)〜(c)は、ペアリング処理中に表示装置1に表示される画面を示している。このペアリング処理は、表示装置1からHMD10に文字情報WDが送信される前に開始され、ユーザが表示装置1を操作することで実施される。このペアリング処理により、表示装置1から送信される文字情報WDの種別が設定される。
(2) Pairing Method FIG. 5 is a diagram for explaining a pairing process performed between the
ステップS1において、表示装置1は、通信を確立するための通信要求をブロードキャストする。この際、表示装置1の表示パネル8には、ペアリング中であることを示す画像が表示される(図5(a))。
In step S1, the display device 1 broadcasts a communication request for establishing communication. At this time, an image indicating that pairing is in progress is displayed on the
次に、ステップS2において、表示装置1は、通信要求に対してレスポンスがあったHMD10を使用機器として登録するか否かの確認画像を表示する(図5(b))。ユーザが確認画面で表示したHMD10を登録すると(図5(b)では、HMD10a)、表示装置1は、このHMD10との間で通信を確立させる。このとき、表示装置1とHMD10との間で、ネットワークを接続するセキュリティーの設定等が行われる。
Next, in step S2, the display device 1 displays a confirmation image as to whether or not to register the
ステップS3において、表示装置1は、通信を確立したHMD10に対して送信する文字情報WDの選択を受付ける。図5(c)では、表示装置1は2つのHMD(10a、10b)を使用機器として登録している。そして、ユーザが面上で、HMD10aに送信する字幕(文字情報WD)の種類を設定する。
以下、ペアリングが終了すると、表示装置1からHMD(10a、10bに対して文字情報WDの送信が行われる。
In step S <b> 3, the display device 1 accepts selection of character information WD to be transmitted to the
Thereafter, when the pairing is completed, the display device 1 transmits the character information WD to the HMD (10a, 10b).
(3)文字情報の表示方法
次に、HMD10が文字情報WDを表示する手法を説明する。
図6は、HMD10を装着したユーザに視認される像を説明する図である。また、図7は、コントローラ31が文字情報WDを表示する際に実行する処理を示すフローチャートである。そして、図8は、コントローラ31が文字情報WDを表示する際に実行する処理を説明する図である。
(3) Display Method of Character Information Next, a method in which the
FIG. 6 is a diagram for explaining an image visually recognized by a user wearing the
図6(a)は、文字情報WDが表示される前にHMD10を装着したユーザにより視認される像を示す。また、図6(b)は、文字情報WDが表示された後にHMD10を装着したユーザにより視認される像を示す。HMD10を装着したユーザは、右眼用表示部11および左眼用表示部12を通して前方の像が結像した図6(a)に示す像を視認しているものとする。この像には、装置1が図中中央に位置している。
FIG. 6A shows an image visually recognized by the user wearing the
ステップS11では、コントローラ(表示領域検出部34)31は、右眼用カメラ21からの右眼周辺画像をもとに右眼用検出画像を取得する。また、コントローラ(表示領域検出部34)31は左眼用カメラ22からの左眼周辺画像をもとに、左眼用検出画像を取得する。右眼用検出画像と、左眼用検出画像とは、コントローラ31が右眼周辺画像および左眼周辺画像の画素数をビデオメモリ32の画素数に合わせて変換したものである。
図8(a)は、ステップS11により取得された右眼用検出画像と左眼用検出画像とを示す。この右眼用検出画像と左眼用検出画像とには、ユーザの右眼または左眼で見える位置に対応して、表示装置1に対応する画素の領域である第1領域AR1が存在する。
In step S <b> 11, the controller (display region detection unit 34) 31 acquires a right eye detection image based on the right eye peripheral image from the
FIG. 8A shows the detection image for the right eye and the detection image for the left eye acquired in step S11. In the detection image for the right eye and the detection image for the left eye, there is a first area AR1 that is a pixel area corresponding to the display device 1 corresponding to a position that can be seen by the user's right eye or left eye.
ステップS12では、コントローラ(表示領域検出部34)31は、取得した右眼用検出画像と左眼用検出画像から、表示装置1に対応する第1領域の座標を検出する。
表示領域検出部34が第1領域AR1の座標を検出する手法の一例として、周知のエッジサンプリング処理を用いる。例えば、表示領域検出部34は、右眼用検出画像を2値化し、第1領域AR1を構成する画素と周辺画素との境界を構成する画素を輪郭画素Eg(x、y)として検出する(図8(b))。なお、図8(b)では、第1領域AR1を構成する画素を斜線を付して示し、周辺画素と区別している。そして、輪郭画素Eg(x、y)により囲まれる領域を第1領域AR1の座標として検出する。
なお、説明を省略するが、左眼用検出画像に対しても同様の手法により第1領域AR1の座標が検出される。
In step S <b> 12, the controller (display area detection unit 34) 31 detects the coordinates of the first area corresponding to the display device 1 from the acquired right eye detection image and left eye detection image.
As an example of a method in which the display
In addition, although description is abbreviate | omitted, the coordinate of 1st area | region AR1 is detected with the same method also about the detection image for left eyes.
ステップS13では、コントローラ(文字領域決定部35)31は、ステップS12で取得された第1領域の座標をもとに、右眼用検出画像と左眼用検出画像との文字情報WDを表示する第2領域の座標を決定する。図8(c)は、ステップS12で決定された右眼用検出画像における第1領域AR1を点線で指名している。この第1の実施形態では、文字領域決定部35は、第1領域AR1内に第2領域AR2の位置を決定する。即ち、ユーザが文字情報WDを視認する際、前方に位置する表示装置1に文字情報WDが重なって視認されるよう第2領域AR2の座標を決定する。
In step S13, the controller (character region determination unit 35) 31 displays character information WD of the detection image for the right eye and the detection image for the left eye based on the coordinates of the first region acquired in step S12. The coordinates of the second area are determined. In FIG. 8C, the first area AR1 in the detection image for the right eye determined in step S12 is designated by a dotted line. In the first embodiment, the character
ここで、第1領域AR1内における第2領域AR2の位置は、ユーザが表示装置1を視認する際、文字情報WDが表示パネル8に表示される画像に干渉しない位置であることが望ましい。そのため、図8(c)では、第2領域AR2は、表示装置1における表示パネル8に対応する第1領域AR1における下部に位置している。これ以外にも、文字領域決定部35が周知のエッジサンプリング処理を用いて第1領域AR1内で画像が表示されない領域を判定し、第2領域AR2を決定してもよい。
なお、説明を省略するが、左眼用検出画像に対しても同様の手法により第2領域AR2の座標が検出される。
Here, the position of the second area AR2 in the first area AR1 is preferably a position where the character information WD does not interfere with the image displayed on the
In addition, although description is abbreviate | omitted, the coordinate of 2nd area | region AR2 is detected with the same method also about the detection image for left eyes.
ステップS14では、コントローラ(表示制御部36)31は、通信IF33を通じて取得された文字情報WDから、右眼用画像と左眼用画像とを生成する。例えば、表示制御部36は、文字情報WDを複製して、右眼用画像生成部23を駆動するための右眼用画像と、左眼用画像生成部24を駆動するための左眼用画像を生成する。
In step S <b> 14, the controller (display control unit 36) 31 generates a right eye image and a left eye image from the character information WD acquired through the communication IF 33. For example, the
図9は、文字情報WDから生成された右眼用画像と左眼用画像とを示す図である。図9(a)は、補正前の右眼用画像と左眼用画像とを示す。また、図9(b)は、補正後の右眼用画像と左眼用画像とを示す。
図9(a)に示すように、右眼用画像および左眼用画像には、文字情報WDに対応する文字列『おはよう』を構成する低階調の文字画素Gwと、情報を有さない背景画素Geとで構成される。また、右眼用画像および左眼用画像の画素数はビデオメモリ32の画素数と同数である。即ち、右眼用画像生成部23または左眼用画像生成部24を構成する液晶素子のピクセル数と同数となっている。
FIG. 9 is a diagram illustrating a right-eye image and a left-eye image generated from the character information WD. FIG. 9A shows a right eye image and a left eye image before correction. FIG. 9B shows the corrected right-eye image and left-eye image.
As shown in FIG. 9A, the image for the right eye and the image for the left eye do not have information and the low-gradation character pixels Gw constituting the character string “Good morning” corresponding to the character information WD. It consists of a background pixel Ge. The number of pixels of the right-eye image and the left-eye image is the same as the number of pixels in the
ステップS15では、コントローラ(表示制御部36)31は、右眼用画像および左眼用画像に含まれる文字列の位置を、ステップS13において決定された第2領域AR2の座標となるよう補正し、右眼用画像生成部23と、左眼用画像生成部24とに出力する。そのため、図9(b)では、図9(a)と比べて右眼用画像と左眼用画像に含まれる文字画素Gwの座標が、低い位置に変更されている。
In step S15, the controller (display control unit 36) 31 corrects the position of the character string included in the right-eye image and the left-eye image so as to be the coordinates of the second area AR2 determined in step S13. The image is output to the right eye
以下、コントローラ31から出力された右眼用画像により右眼用画像生成部23が駆動し、右眼用表示部11に文字情報WDを表示させる。同様に、コントローラ31から出力された左眼用画像により左眼用画像生成部24が駆動し、左眼用表示部12に文字情報WDを表示させる。そのため、HMD10を装着したユーザは、右眼用表示部11および左眼用表示部12を通して前方の像(表示装置1)が合成された図6(b)に示す像を視認する。この像には、装置1の表示パネル8に文字列である『おはよう』が位置している。
Thereafter, the right-eye
以下、表示装置1からの文字情報WDの入力が継続していれば(ステップS16:NO)、コントローラ31は、ステップS11に戻り処理を繰返す。一方、表示装置1からの文字情報WDの入力が終了すれば(ステップS16:YES)、コントローラ31は、処理を終了する。
Hereinafter, if the input of the character information WD from the display device 1 continues (step S16: NO), the
以上説明したようにこの第1の実施形態では、ユーザが表示装置1を視認する第1領域AR1に応じて、文字情報WDを表示する第2領域AR2が決定されるため、ユーザの視聴を妨げることなく、画像に同期して表示される文字情報WDを表示させることができる。
また、表示装置1と一体で文字情報WDを表示させるため、ユーザに違和感を覚えせること無く文字情報を視聴させることができる。
As described above, in the first embodiment, since the second area AR2 for displaying the character information WD is determined according to the first area AR1 for the user to visually recognize the display device 1, the user's viewing is hindered. Therefore, it is possible to display the character information WD displayed in synchronization with the image.
In addition, since the character information WD is displayed together with the display device 1, the character information can be viewed without making the user feel uncomfortable.
2.第2の実施形態:
HMD10により視認される文字情報WDの位置を、ユーザが操作部25を操作して調整するものであってもよい。
図10は、ユーザが操作部25を操作した場合にコントローラ31が実行する処理を説明するフローチャートである。また、図11は、ユーザが操作部25を操作する際にHMD10に表示されるアイコンを説明する図である。
図10に示すフローチャートは、例えば、第1の実施形態で示す図7のステップS15以下において、HMD10に文字情報WDが表示された後に実行される処理である。
2. Second embodiment:
The user may adjust the position of the character information WD visually recognized by the
FIG. 10 is a flowchart for explaining processing executed by the
The flowchart shown in FIG. 10 is a process executed after the character information WD is displayed on the
ユーザが操作部25を操作して、文字情報WDの位置の調整を開始する入力を行うと(ステップS21:YES)、ステップS22では、コントローラ(表示制御部36)31は、HMD10に操作用アイコンを表示させる。図11(a)に示すアイコン201は、ユーザに文字情報WDの位置の変更を視覚的に補助するアイコンである。また、アイコン201は、文字情報WDを左右または上下に移動させる際に表示される。
When the user operates the
ユーザがアイコン201の向きを視認しつつ、操作部25を操作すると(ステップS23:YES)、ステップS24では、表示制御部36は、文字情報WDを示す右眼用画像と左眼用画像とに含まれる文字側Gwの座標を、操作部25からの入力に応じて変更する。そのため、ユーザに視認される文字情報WDの位置が変更される。
When the user operates the
ユーザが操作部25を操作して、文字情報WDの位置の調整を終了する入力を行うと(ステップS25:YES)、ステップS26では、コントローラ31は、アイコン201の表示を終了する。無論、ユーザが操作部25を操作して、文字情報WDの位置の調整を終了する入力を行わなければ(ステップS25:NO)、コントローラ31は、アイコン201の表示を継続する(ステップS23に戻る)。
When the user operates the
また、コントローラ31は、文字情報WDの大きさを変更するものであってもよい。図11(b)は、ユーザが操作部25を操作して文字情報WDの大きさを調整する際に表示されるアイコン202を示す。アイコン202を視認しつつユーザは操作部25を操作して文字情報WDのサイズを変更する。
更に、後述するように、HMD10により立体視画像を視認する場合に、文字情報WDの奥行き感を調整するものであってもよい。
そして、コントローラ31は、文字情報WDの向きやサイズのみを調整可能とするのではなく、文字情報WDの色を変更可能とするものであってもよい。
The
Furthermore, as will be described later, when a stereoscopic image is viewed with the
Then, the
以上説明したようにこの第2の実施形態では、自動で設定された文字情報WDの視認位置をユーザが手動で調整することができるため、文字情報WDの使用をより使いやすいものとすることができる。 As described above, in the second embodiment, since the user can manually adjust the viewing position of the automatically set character information WD, the use of the character information WD may be easier to use. it can.
3.第3の実施形態:
文字情報WDが表示される位置は、表示装置1が視認される領域の内側に限定されない。例えば、ユーザにより視認される表示装置1のサイズや、表示を行う文字情報WDのサイズに応じて、第2領域AR2を決定するものであってもよい。
3. Third embodiment:
The position where the character information WD is displayed is not limited to the inside of the area where the display device 1 is visually recognized. For example, the second area AR2 may be determined according to the size of the display device 1 visually recognized by the user or the size of the character information WD to be displayed.
図12は、コントローラ31が実行する処理を示すフローチャートである。この図12に示すフローチャートでは、図7のステップS13において実行される処理である。また、図13は、HMD10を装着したユーザに視認される像を説明する図である。
FIG. 12 is a flowchart showing processing executed by the
ステップS131では、コントローラ(文字領域決定部35)31は、右眼用検出画像および左眼用検出画像に含まれる第1領域AR1のサイズを取得する。第1領域AR1のサイズは、第1領域AR1を構成する画素G(x、y)の数をもとに取得される。例えば、表示領域検出部34により取得される。
In step S131, the controller (character area determination unit 35) 31 acquires the size of the first area AR1 included in the detection image for the right eye and the detection image for the left eye. The size of the first area AR1 is acquired based on the number of pixels G (x, y) constituting the first area AR1. For example, it is acquired by the display
ステップS132では、コントローラ31は、文字情報WDのサイズを取得する。例えば、コントローラ31は、文字情報WDの情報量や文字情報WDに含まれる文字数に応じて文字情報WDのサイズを判断する。
In step S132, the
ステップS133では、ステップS131で取得した第1領域AR1のサイズを閾値S1と比較する。閾値S1は、予め設定された領域のサイズを示す。第1領域AR1のサイズが閾値S1以下であれば(ステップS133:NO)、コントローラ31は、ステップS136に進む。
In step S133, the size of the first area AR1 acquired in step S131 is compared with the threshold value S1. The threshold value S1 indicates the size of a preset area. If the size of the first area AR1 is equal to or smaller than the threshold value S1 (step S133: NO), the
ステップS136では、コントローラ31は、第2領域AR2の位置(座標)を第1領域AR1の外部に決定する。この場合、ユーザによって視認される表示装置1のサイズが小さいため、コントローラ31は、文字情報WDを表示装置1が視認される位置に重ねて表示しないようにする。例えば、図13(a)に示すように、ユーザによりHMD10を通して視認される像には、表示装置1の図中右隣に文字情報WDが位置する。
In step S136, the
また、第1領域AR1のサイズが閾値S1以上であっても(ステップS133:YES)、文字情報WDのサイズが閾値S2以上であれば(ステップS134:NO)、コントローラ31は、ステップS136に進む。即ち、この場合、文字情報WDが多数の文字からなるため、コントローラ31は、文字情報WDを表示装置1が視認される位置に重ねて表示しないようにする。例えば、図13(b)に示すように、ユーザによりHMD10を通して視認される像には、表示装置1の図中右隣に文字情報WDが位置する。
Further, even if the size of the first area AR1 is equal to or larger than the threshold value S1 (step S133: YES), if the size of the character information WD is equal to or larger than the threshold value S2 (step S134: NO), the
そして、第1領域AR1のサイズが閾値S1以上であり(ステップS133:YES)、文字情報WDのサイズが閾値S2以下であれば(ステップS134:YES)、コントローラ31は、ステップS135に進む。即ち、この場合、コントローラ31は、文字情報WDを表示装置1が視認される位置に重ねて表示させる。そのため、例えば、図13(c)に示すように、ユーザによりHMD10を通して視認される像には、表示装置1の内部(表示パネル8)に文字情報WDが位置する。
If the size of the first area AR1 is equal to or larger than the threshold value S1 (step S133: YES) and the size of the character information WD is equal to or smaller than the threshold value S2 (step S134: YES), the
以上、説明したようにこの第3の実施形態では、HMD10を装着したユーザにより視認される表示装置1の大きさや、文字情報WDのサイズに応じて、文字情報WDを表示させる位置を変化させるため、ユーザによる表示装置の視聴を阻害させることなく文字情報WDを視認することができる。
As described above, in the third embodiment, the position where the character information WD is displayed is changed according to the size of the display device 1 visually recognized by the user wearing the
4.その他の実施形態:
HMD10は、立体視画像を視聴するものであってもよい。HMD10が2つのカメラ部(右眼用カメラ21、左眼用カメラ22)を有する場合、視差の伴う右眼周辺画像と左眼周辺画像とを取得することができる。そのため、右眼周辺画像と左眼周辺画像との視差をもとに、文字情報WDを立体視させるものであってもよい。
4). Other embodiments:
The
HMD10が、2つの画像生成部(右眼用画像生成部23、左眼用画像生成部24)を備えることは一例に過ぎない。例えば、HMD10は、1つの画像生成部のみを有し、生成した画像光を右眼用表示部11と左眼用表示部12の両方に表示させる構成でもよい。この場合、本発明は、コントローラ31は、例えば、右側周辺画像、右目用検出画像、右眼用画像のみで本発明の処理が行われる。また、1つの画像生成部と、右眼用表示部11または左眼用表示部12のいずれかのみを有するHMD10であってもよい。
The
さらに、コントローラ31が有する、表示領域検出部34、文字領域決定部35、表示制御部36をプログラムの処理により実現することは一例に過ぎない。例えば、表示領域検出部34、文字領域決定部35、表示制御部36を、コントローラ31が有するハードウェアにより実現するものであってもよい。
Furthermore, realizing the display
なお、本発明は上記実施例に限られるものでないことは言うまでもない。当業者であれば言うまでもないことであるが、
・上記実施例の中で開示した相互に置換可能な部材および構成等を適宜その組み合わせを変更して適用すること
・上記実施例の中で開示されていないが、公知技術であって上記実施例の中で開示した部材および構成等と相互に置換可能な部材および構成等を適宜置換し、またその組み合わせを変更して適用すること
・上記実施例の中で開示されていないが、公知技術等に基づいて当業者が上記実施例の中で開示した部材および構成等の代用として想定し得る部材および構成等と適宜置換し、またその組み合わせを変更して適用すること
は本発明の一実施例として開示されるものである。
Needless to say, the present invention is not limited to the above embodiments. It goes without saying for those skilled in the art,
・ Applying mutually interchangeable members and configurations disclosed in the above embodiments by appropriately changing the combination thereof.− Although not disclosed in the above embodiments, it is a publicly known technique and the above embodiments. The members and configurations that can be mutually replaced with the members and configurations disclosed in the above are appropriately replaced, and the combination is changed and applied. It is an embodiment of the present invention that a person skilled in the art can appropriately replace the members and configurations that can be assumed as substitutes for the members and configurations disclosed in the above-described embodiments, and change the combinations and apply them. It is disclosed as.
1…表示装置、2…筺体、3…CPU、4…ROM、5…RAM、6…チューナ、7…通信IF、8…表示パネル、9…バス、10…ヘッドマウントディスプレイ(HMD)、11…右眼用表示部、12…左眼用表示部、13…右眼用光学部品、14…左眼用光学部品、20…フレーム、21…右眼用カメラ、22…左眼用カメラ、23…右眼用画像生成部、24…左眼用画像生成部、25…操作部、30…制御ユニット、31…コントローラ、32…ビデオメモリ、33…通信IF、34…表示領域検出部、35…文字領域決定部、36…表示制御部、41…OS、42…アプリケーション、100…視聴システム DESCRIPTION OF SYMBOLS 1 ... Display apparatus, 2 ... Housing, 3 ... CPU, 4 ... ROM, 5 ... RAM, 6 ... Tuner, 7 ... Communication IF, 8 ... Display panel, 9 ... Bus, 10 ... Head mounted display (HMD), 11 ... Display unit for right eye, 12 ... Display unit for left eye, 13 ... Optical component for right eye, 14 ... Optical component for left eye, 20 ... Frame, 21 ... Camera for right eye, 22 ... Camera for left eye, 23 ... Right eye image generation unit, 24 ... Left eye image generation unit, 25 ... Operation unit, 30 ... Control unit, 31 ... Controller, 32 ... Video memory, 33 ... Communication IF, 34 ... Display area detection unit, 35 ... Character Area determination unit, 36 ... display control unit, 41 ... OS, 42 ... application, 100 ... viewing system
Claims (8)
表示装置から文字情報を受信する受信部と、
前記表示部を通してユーザに視認される写像を画像データとして取得するカメラ部と、
取得した前記画像データ内の前記表示装置の位置を第1領域として検出する表示領域検出部と、
検出された前記第1領域に応じて、受信した前記文字情報を表示する前記表示部の位置である第2領域を決定する文字領域決定部と、
前記表示部に対して、決定された前記第2領域に受信した前記文字情報を表示させる表示制御部と、を有することを特徴とするヘッドマウントディスプレイ。 A head mounted display having a transmissive display unit,
A receiving unit for receiving character information from the display device;
A camera unit that obtains, as image data, a map visually recognized by the user through the display unit;
A display area detector for detecting the position of the display device in the acquired image data as a first area;
A character region determination unit that determines a second region that is a position of the display unit that displays the received character information according to the detected first region;
A display control unit that causes the display unit to display the received character information in the determined second area.
前記表示制御部は、受付けた前記調整に応じて、前記表示部に表示された前記文字情報の位置または大きさを変更する、ことを特徴とする請求項1に記載のヘッドマウントディスプレイ。 An operation unit that accepts an adjustment of the position or size of the character information displayed on the display unit from the user;
The head mounted display according to claim 1, wherein the display control unit changes the position or size of the character information displayed on the display unit according to the received adjustment.
前記ヘッドマウントディスプレイは、
表示装置から文字情報を受信する受信部と、
前記表示部を通してユーザに視認される写像を画像データとして取得するカメラ部と、
取得した前記画像データ内の前記表示装置の位置を第1領域として検出する表示領域検出部と、
検出された前記第1領域に応じて、受信した前記文字情報を表示する前記表示部の位置である第2領域を決定する文字領域決定部と、
前記表示部に対して、決定された前記第2領域に受信した前記文字情報を表示させる表示制御部と、を有することを特徴とする視聴システム。 A viewing system composed of a head-mounted display having a transmissive display unit and a display device that outputs character information to the head-mounted display,
The head mounted display is
A receiving unit for receiving character information from the display device;
A camera unit that obtains, as image data, a map visually recognized by the user through the display unit;
A display area detector for detecting the position of the display device in the acquired image data as a first area;
A character region determination unit that determines a second region that is a position of the display unit that displays the received character information according to the detected first region;
A viewing system, comprising: a display control unit that causes the display unit to display the received character information in the determined second region.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014022216A JP2015149654A (en) | 2014-02-07 | 2014-02-07 | Head mount display, viewing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014022216A JP2015149654A (en) | 2014-02-07 | 2014-02-07 | Head mount display, viewing system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015149654A true JP2015149654A (en) | 2015-08-20 |
Family
ID=53892704
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014022216A Pending JP2015149654A (en) | 2014-02-07 | 2014-02-07 | Head mount display, viewing system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015149654A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017194735A (en) * | 2016-04-18 | 2017-10-26 | 三菱重工業株式会社 | Operation support system, display control method, and program |
CN111934704A (en) * | 2015-12-24 | 2020-11-13 | 索尼互动娱乐股份有限公司 | Band determination device, head-mounted display, and band determination method |
US11711332B2 (en) | 2021-05-25 | 2023-07-25 | Samsung Electronics Co., Ltd. | System and method for conversation-based notification management |
-
2014
- 2014-02-07 JP JP2014022216A patent/JP2015149654A/en active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111934704A (en) * | 2015-12-24 | 2020-11-13 | 索尼互动娱乐股份有限公司 | Band determination device, head-mounted display, and band determination method |
US11528706B2 (en) | 2015-12-24 | 2022-12-13 | Sony Interactive Entertainment Inc. | Frequency band determination based on image of communication environment for head-mounted display |
US11881886B2 (en) | 2015-12-24 | 2024-01-23 | Sony Interactive Entertainment Inc. | Frequency band determination based on image of communication environment for head-mounted display |
JP2017194735A (en) * | 2016-04-18 | 2017-10-26 | 三菱重工業株式会社 | Operation support system, display control method, and program |
WO2017183460A1 (en) * | 2016-04-18 | 2017-10-26 | 三菱重工業株式会社 | Operation assistance system, display control method, and program |
US11711332B2 (en) | 2021-05-25 | 2023-07-25 | Samsung Electronics Co., Ltd. | System and method for conversation-based notification management |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8629870B2 (en) | Apparatus, method, and program for displaying stereoscopic images | |
JP6644371B2 (en) | Video display device | |
EP3029935A1 (en) | Holographic displaying method and device based on human eyes tracking | |
US9817628B2 (en) | Display system, display terminal, display method and computer readable recording medium having program thereof | |
JPWO2014024649A1 (en) | Image display device and image display method | |
US9846305B2 (en) | Head mounted display, method for controlling head mounted display, and computer program | |
US20120320038A1 (en) | Three-dimensional image processing apparatus, method for processing three-dimensional image, display apparatus, and computer program | |
WO2023184816A1 (en) | Cloud desktop display method and apparatus, device and storage medium | |
JP2015149654A (en) | Head mount display, viewing system | |
JP2015228543A (en) | Electronic apparatus and display processing method | |
US11039124B2 (en) | Information processing apparatus, information processing method, and recording medium | |
WO2017199495A1 (en) | Image processing system, image processing device, and program | |
JP2016161611A (en) | Display system and display control method | |
JP5836671B2 (en) | Imaging apparatus and image display system | |
JP2013225745A (en) | Stereoscopic video display system, stereoscopic video projection device, active shutter glasses, and parallax amount control method | |
KR101880751B1 (en) | Method for reducing error by allignment of lenticular lens and user terminal for displaying glass free stereoscopic image and the user terminal of perporming the method | |
WO2017185557A1 (en) | Virtual-reality helmet full-screen display drive method and virtual-reality helmet thereof | |
JPS61144192A (en) | Stereoscopic television picture display device | |
JP2012049662A (en) | Image processing apparatus, image processing method, and image display apparatus | |
JP2019105723A (en) | Retina-scanning type image projection device, retina-scanning type image projection method, and retina-scanning type image projection system | |
WO2018073969A1 (en) | Image display device and image display system | |
KR20130010543A (en) | Display apparatus and control method thereof | |
WO2021063321A1 (en) | Method and apparatus for realizing 3d display, and 3d display terminal | |
JP2012109706A (en) | Stereoscopic image display device and stereoscopic image display system | |
US9762891B2 (en) | Terminal device, image shooting system and image shooting method |