JP2015149654A - Head mount display, viewing system - Google Patents

Head mount display, viewing system Download PDF

Info

Publication number
JP2015149654A
JP2015149654A JP2014022216A JP2014022216A JP2015149654A JP 2015149654 A JP2015149654 A JP 2015149654A JP 2014022216 A JP2014022216 A JP 2014022216A JP 2014022216 A JP2014022216 A JP 2014022216A JP 2015149654 A JP2015149654 A JP 2015149654A
Authority
JP
Japan
Prior art keywords
display
area
character information
unit
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014022216A
Other languages
Japanese (ja)
Inventor
塚本 敬祐
Keisuke Tsukamoto
敬祐 塚本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Funai Electric Co Ltd
Original Assignee
Funai Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Funai Electric Co Ltd filed Critical Funai Electric Co Ltd
Priority to JP2014022216A priority Critical patent/JP2015149654A/en
Publication of JP2015149654A publication Critical patent/JP2015149654A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a head mount display in which character information is displayed in synchronism with an image, without interfering with the viewing of a user.SOLUTION: A head mount display having a transmission type display section has a receiving section for receiving character information from a display device, a camera section for acquiring the mapping that is viewed by a user through the display section, a display area detector for detecting the position of the display device, viewed by the user through the display section, as a first area based on the image data thus acquired, a character area determining section for determining a second area, that is the position of the display for displaying the received character information, depending on the first area thus detected, and a display control section for displaying the character information in the second area thus determined, for the display section.

Description

本発明は、透過型の表示部を有するヘッドマウントディスプレイに関する。   The present invention relates to a head mounted display having a transmissive display unit.

従来、ユーザの頭部に装着され、眼前に配置された表示部に画像を表示させるヘッドマウントディスプレイが知られている。ヘッドマウントディスプレイには、透過型と非透過型とが存在する。透過型のヘッドマウントディスプレイでは、表示部を通してユーザは外界を視認することができる。即ち、ヘッドマウントディスプレイを装着したユーザの眼には、表示部に表示された像と、外界の像とが同時に入力し、ユーザは擬似的な合成像を視認することができる。   2. Description of the Related Art Conventionally, a head mounted display that is mounted on a user's head and displays an image on a display unit arranged in front of the eyes is known. Head mounted displays include a transmissive type and a non-transmissive type. In the transmissive head-mounted display, the user can visually recognize the outside world through the display unit. That is, an image displayed on the display unit and an image of the outside world are simultaneously input to the user's eye wearing the head mounted display, and the user can visually recognize a pseudo composite image.

また、表示部に文字情報を表示させることで、このヘッドマウントディスプレイを装着したユーザに文字情報等を提供することができるヘッドマウントディスプレイが開示されている(例えば、特許文献1参照)。   In addition, a head mounted display that can provide character information and the like to a user wearing the head mounted display by displaying character information on a display unit is disclosed (for example, see Patent Document 1).

特開2006−119653号公報JP 2006-119653 A

透過型のヘッドマウントディスプレイにおいて、表示部に文字情報を表示させると、表示部を通して視認される外界の像に対して、文字情報が適切な位置に配置されない場合がある。例えば、ヘッドマウントディスプレイを装着した状態でユーザが外界に表示された画像を見ている場合に、この画像に同期して表示される文字情報が画像に対して適切な位置に表示されないと、文字情報がユーザの視聴の妨げとなる。   In a transmissive head-mounted display, when character information is displayed on the display unit, the character information may not be arranged at an appropriate position with respect to an image of the outside world viewed through the display unit. For example, when a user is viewing an image displayed in the outside world with a head-mounted display attached, the character information displayed in synchronization with the image is not displayed at an appropriate position with respect to the image. Information hinders viewing by the user.

本発明は、上記課題にかんがみてなされたもので、ユーザの視聴を妨げることなく、画像に同期して表示される文字情報を表示させるヘッドマウントディスプレイ、およびこのヘッドマウントディスプレイを一部に備える視聴システムの提供を目的とする。   The present invention has been made in view of the above problems. A head-mounted display that displays character information that is displayed in synchronization with an image without interfering with the user's viewing, and a viewing that partially includes the head-mounted display. The purpose is to provide a system.

適用例1
上記課題を解決するために、本発明の一態様では、透過型の表示部を有するヘッドマウントディスプレイであって、表示装置から文字情報を受信する受信部と、前記表示部を通してユーザに視認される写像を画像データとして取得するカメラ部と、取得した前記画像データ内の前記表示装置の位置を第1領域として検出する表示領域検出部と、検出された前記第1領域に応じて、受信した前記文字情報を表示する前記表示部の位置である第2領域を決定する文字領域決定部と、前記表示部に対して、決定された前記第2領域に受信した前記文字情報を表示させる表示制御部と、を有する。
Application example 1
In order to solve the above problems, according to one embodiment of the present invention, a head-mounted display having a transmissive display unit, which is visually recognized by a user through a receiving unit that receives character information from a display device and the display unit A camera unit that acquires a mapping as image data, a display region detection unit that detects a position of the display device in the acquired image data as a first region, and the received the first region according to the detected first region A character region determination unit that determines a second region that is a position of the display unit that displays character information, and a display control unit that causes the display unit to display the received character information in the determined second region And having.

上記のように構成された発明では、カメラ部で取得した画像データに含まれる表示装置の位置を第1領域として検出する。次に、検出された第1領域に応じて、受信した文字情報を表示する表示部の位置である第2領域を決定する。そして、決定された第2領域に対応する表示部の位置に受信した前記文字情報を表示す。
そのため、ユーザが表示装置を視認する第1領域に応じて、文字情報を表示する第2領域が決定されるため、ユーザの視聴を妨げることなく、画像に同期して表示される文字情報を表示させることができる。
In the invention configured as described above, the position of the display device included in the image data acquired by the camera unit is detected as the first region. Next, in accordance with the detected first area, a second area that is the position of the display unit that displays the received character information is determined. Then, the received character information is displayed at the position of the display unit corresponding to the determined second area.
Therefore, since the second area for displaying the character information is determined according to the first area where the user visually recognizes the display device, the character information displayed in synchronization with the image is displayed without disturbing the user's viewing. Can be made.

適用例2
本発明の一態様では、ユーザから、前記表示部に表示された文字情報の位置または大きさの調整を受付ける操作部を有し、前記表示制御部は、受付けた前記調整に応じて、前記表示部に表示された前記文字情報の位置または大きさを変更する。
上記のように構成された発明では、自動で設定された文字情報の視認位置をユーザが手動で調整することができるため、文字情報の使用をより使いやすいものとすることができる。
Application example 2
In one aspect of the present invention, an operation unit that receives an adjustment of a position or a size of character information displayed on the display unit from a user is provided, and the display control unit performs the display according to the received adjustment. The position or size of the character information displayed on the part is changed.
In the invention configured as described above, the user can manually adjust the viewing position of the automatically set character information, so that the use of the character information can be made easier to use.

適用例3
本発明の一態様では、前記文字領域決定部は、前記第1領域の内部に前記第2領域を決定する。
上記のように構成された発明では、表示装置と一体で文字情報を表示させるため、文字情報を使用するユーザに違和感を起こさせることなく、文字情報を表示することができる。
Application example 3
In one aspect of the present invention, the character area determination unit determines the second area inside the first area.
In the invention configured as described above, since the character information is displayed integrally with the display device, the character information can be displayed without causing the user who uses the character information to feel uncomfortable.

適用例4
本発明の一態様では、前記文字領域決定部は、前記第1領域のサイズに応じて、前記第2領域の位置を決定する。
上記のように構成された発明では、ユーザに視認される表示装置のサイズに応じて、文字情報を表示する位置を変更することができる。そのため、文字情報の視認性を高めることができる。
Application example 4
In one aspect of the present invention, the character area determination unit determines the position of the second area according to the size of the first area.
In the invention configured as described above, the position where the character information is displayed can be changed according to the size of the display device visually recognized by the user. Therefore, the visibility of character information can be improved.

適用例5
本発明の一態様では、前記文字領域決定部は、前記第1領域のサイズが小さければ、前記第2領域の位置を前記第1領域の外側に決定する。
上記のように構成された発明では、ユーザに視認される表示装置のサイズが小さい場合でも、文字情報をこの表示装置の外に表示させるため、文字情報の視認性を高めることができる。
Application example 5
In one aspect of the present invention, the character area determination unit determines the position of the second area outside the first area if the size of the first area is small.
In the invention configured as described above, even when the size of the display device visually recognized by the user is small, the character information is displayed outside the display device, so that the visibility of the character information can be improved.

適用例6
本発明の一態様では、前記文字情報のサイズが大きければ、前記第2領域の位置を前記第1領域の外側に決定する。
上記のように構成された発明では、文字情報のサイズが大きい場合に、文字情報をこの表示装置の外に表示させるため、ユーザの表示装置の視聴を妨げず、文字情報の視認性を高めることができる。
Application Example 6
In one aspect of the present invention, if the size of the character information is large, the position of the second area is determined outside the first area.
In the invention configured as described above, when the size of the character information is large, the character information is displayed outside the display device, so that the user's viewing of the display device is not hindered and the visibility of the character information is improved. Can do.

適用例7
本発明の一態様では、前記表示制御部は、前記表示部に前記文字情報を立体視表示させる。
上記のように構成された発明では、ユーザに立体視をさせるヘッドマウントディスプレイにおいて、本発明を適用することができる。
Application example 7
In one aspect of the present invention, the display control unit causes the display unit to stereoscopically display the character information.
In the invention configured as described above, the present invention can be applied to a head mounted display that allows a user to stereoscopically view.

適用例8
また、本発明は、本発明の特徴を備えるヘッドマウントディスプレイを構成要素に含む視聴システムとしても捉えることができる。
Application Example 8
The present invention can also be understood as a viewing system that includes a head-mounted display having the features of the present invention as a component.

視聴システムの外観図。The external view of a viewing-and-listening system. HMD10のブロック構成図。The block block diagram of HMD10. コントローラ31の機能を説明する機能ブロック図。FIG. 3 is a functional block diagram illustrating functions of a controller 31. 表示装置1の構成を示すブロック構成図。FIG. 2 is a block configuration diagram showing a configuration of the display device 1. HMD10と表示装置1との間で行なわれるペアリング処理を説明する図。The figure explaining the pairing process performed between HMD10 and the display apparatus 1. FIG. HMD10を装着したユーザに視認される像を説明する図。The figure explaining the image visually recognized by the user wearing HMD10. コントローラ31が文字情報を表示する際に実行する処理を示すフローチャート。The flowchart which shows the process performed when the controller 31 displays character information. コントローラ31が文字情報を表示する際に実行する処理を説明する図。The figure explaining the process performed when the controller 31 displays character information. 文字情報から生成された右眼用画像と左眼用画像とを示す図。The figure which shows the image for right eyes and the image for left eyes produced | generated from the character information. ユーザが操作部25を操作した場合にコントローラ31が実行する処理を説明するフローチャート。7 is a flowchart for explaining processing executed by a controller 31 when a user operates an operation unit 25. ユーザが操作部25を操作する際にHMD10に表示されるアイコンを説明する図。The figure explaining the icon displayed on HMD10 when a user operates the operation part 25. FIG. コントローラ31が実行する処理を示すフローチャート。The flowchart which shows the process which the controller 31 performs. HMD10を装着したユーザに視認される像を説明する図。The figure explaining the image visually recognized by the user wearing HMD10.

以下、下記の順序に従って本発明の実施形態を説明する。
1.第1の実施形態:
(1)視聴システムの構成
(2)ペアリング方法
(3)文字情報の表示方法
2.第2の実施形態:
3.第3の実施形態:
4.その他の実施形態:
Hereinafter, embodiments of the present invention will be described in the following order.
1. First embodiment:
(1) Configuration of viewing system (2) Pairing method (3) Display method of character information Second embodiment:
3. Third embodiment:
4). Other embodiments:

1.第1の実施形態:
(1)視聴システムの構成
図1は、視聴システムの外観図である。
視聴システム100は、ヘッドマウントディスプレイ(以下、HMDとも記載する)10と、表示装置1と、を有する。HMD10と、表示装置1とはネットワークNEを通じて接続されており、表示装置1からHMD10に文字情報WDを送信することができる。ここで、ネットワークNEは、図示しない中継装置を備える無線LAN(Local Area Network)や、近距離無線通信である。
1. First embodiment:
(1) Configuration of Viewing System FIG. 1 is an external view of a viewing system.
The viewing system 100 includes a head mounted display (hereinafter also referred to as HMD) 10 and a display device 1. The HMD 10 and the display device 1 are connected through the network NE, and the character information WD can be transmitted from the display device 1 to the HMD 10. Here, the network NE is a wireless local area network (LAN) provided with a relay device (not shown) or near field communication.

HMD1は、ユーザの頭部に合わせて形成されたフレーム20と、ユーザの右眼と左眼に位置するようフレーム20に支持された右眼用表示部11および左眼用表示部12と、HMD1の駆動を制御する制御ユニット30とを有する。   The HMD 1 includes a frame 20 formed in accordance with the user's head, a right-eye display unit 11 and a left-eye display unit 12 supported by the frame 20 so as to be positioned on the right and left eyes of the user, and the HMD 1. And a control unit 30 for controlling the driving of the motor.

HMD1は、透過型であり、ユーザはHMD10の右眼用表示部11および左眼用表示部12を通じて、表示装置1を視認することができる。また、HMD10が表示装置1からネットワークNEを通じて文字情報WDを受信した場合、ユーザは、右眼用表示部11または左眼用表示部12に文字情報WDを表示させて、表示装置1とこの文字情報WDとを一度に視認することができる。
文字情報WDは、字幕情報、コンテンツに付属するデータ、さらには、表示装置1がHMD10に表示させる特殊パターンであってもよい。
透過型のHMD10としては、光学透過型のHMDと、ビデオ透過型のHMDとが存在するが、以下に示す説明では、光学透過型のHMDと中心に説明を行う。
The HMD 1 is a transmissive type, and the user can visually recognize the display device 1 through the right eye display unit 11 and the left eye display unit 12 of the HMD 10. When the HMD 10 receives the character information WD from the display device 1 through the network NE, the user displays the character information WD on the display unit 11 for the right eye or the display unit 12 for the left eye, and the display device 1 and this character are displayed. The information WD can be viewed at a time.
The character information WD may be subtitle information, data attached to the content, or a special pattern that the display device 1 displays on the HMD 10.
As the transmission type HMD 10, there are an optical transmission type HMD and a video transmission type HMD. In the following description, the description will focus on the optical transmission type HMD.

図2は、HMD10のブロック構成図である。
HMD10のフレーム20には、右眼用表示部11、左眼用表示部12、右眼用光学部品13、左眼用光学部品14、右眼用カメラ21、左眼用カメラ22、右眼用画像生成部23、左眼用画像生成部24、操作部25と、を内蔵している。また、HMD10の制御ユニット30には、コントローラ31、ビデオメモリ32、通信IF33と、を内蔵している。さらに、右眼用カメラ21、左眼用カメラ22、右眼用画像生成部23、左眼用画像生成部24、操作部25、ビデオメモリ32、通信IF33はコントローラ31に接続されている。
FIG. 2 is a block diagram of the HMD 10.
The frame 20 of the HMD 10 includes a display unit 11 for the right eye, a display unit 12 for the left eye, an optical component 13 for the right eye, an optical component 14 for the left eye, a camera 21 for the right eye, a camera 22 for the left eye, and a right eye. An image generation unit 23, a left-eye image generation unit 24, and an operation unit 25 are incorporated. The control unit 30 of the HMD 10 includes a controller 31, a video memory 32, and a communication IF 33. Furthermore, the right-eye camera 21, the left-eye camera 22, the right-eye image generation unit 23, the left-eye image generation unit 24, the operation unit 25, the video memory 32, and the communication IF 33 are connected to the controller 31.

右眼用画像生成部23は、コントローラ31から出力される文字情報WDをもとに右眼用表示部11に表示させるための右眼用画像光を生成する。また、左眼用画像生成部24は、コントローラ31から出力される文字情報WDをもとに左眼用表示部12に表示させるための左眼用画像光を生成する。右眼用画像生成部23および左眼用画像生成部24は、例えば、R(レッド)G(グリーン)B(ブルー)の液晶素子を備える光学変調素子や、バックライトにより構成さる。   The right eye image generation unit 23 generates right eye image light to be displayed on the right eye display unit 11 based on the character information WD output from the controller 31. The left eye image generation unit 24 generates left eye image light to be displayed on the left eye display unit 12 based on the character information WD output from the controller 31. The right-eye image generation unit 23 and the left-eye image generation unit 24 include, for example, an optical modulation element including R (red), G (green), and B (blue) liquid crystal elements, and a backlight.

また、右眼用画像生成部23により生成された右眼用画像光は、右眼用光学部品13により右眼用表示部11に導光される。また、左眼用画像生成部24により生成された左眼用画像光は、左眼用光学部品14により左眼用表示部12に導光される。右眼用光学部品13や左眼用光学九品13は、レンズや導光板により構成される。   The right-eye image light generated by the right-eye image generation unit 23 is guided to the right-eye display unit 11 by the right-eye optical component 13. The left-eye image light generated by the left-eye image generation unit 24 is guided to the left-eye display unit 12 by the left-eye optical component 14. The right-eye optical component 13 and the left-eye optical nine article 13 are composed of a lens and a light guide plate.

そして、右眼用表示部11および左眼用表示部12は、右眼用画像光および左眼用画像光により、右眼用画像および左眼用画像をそれぞれ表示する。右眼用画像による反射光、および左眼用画像による反射光は、ユーザの右眼および左眼に入射して、ユーザに画像(文字情報WD)を視認させる。右眼用表示部11および左眼用表示部12は、例えば、ハーフミラー等の半透過型のレンズにより構成される。
そのため、本発明の表示部は、右眼用表示部11、左眼用表示部12、右眼用光学部品13、左眼用光学部品14、右眼用画像生成部23、左眼用画像生成部24により実現される。
The right-eye display unit 11 and the left-eye display unit 12 display the right-eye image and the left-eye image, respectively, using the right-eye image light and the left-eye image light. The reflected light from the right-eye image and the reflected light from the left-eye image are incident on the user's right eye and left eye, and cause the user to visually recognize the image (character information WD). The right-eye display unit 11 and the left-eye display unit 12 are configured by a semi-transmissive lens such as a half mirror, for example.
Therefore, the display unit of the present invention includes a right-eye display unit 11, a left-eye display unit 12, a right-eye optical component 13, a left-eye optical component 14, a right-eye image generation unit 23, and a left-eye image generation. This is realized by the unit 24.

右眼用カメラ21は、HMD10を装着したユーザの右眼により視認される領域を撮像するようフレーム20に固定されている。また、左眼用カメラ22は、HMD10を装着したユーザの左眼により視認される領域を撮像するようフレーム20に固定されている。右眼用カメラ21および左眼用カメラ22からの出力は、コントローラ31に出力される。以下、右眼用カメラ21により撮像される画像データを右眼周辺画像と、左眼用カメラ22により撮像される画像データを左眼周辺画像とも記載する。   The right-eye camera 21 is fixed to the frame 20 so as to capture an area visually recognized by the right eye of the user wearing the HMD 10. The left-eye camera 22 is fixed to the frame 20 so as to capture an area that is visually recognized by the left eye of the user wearing the HMD 10. Outputs from the right-eye camera 21 and the left-eye camera 22 are output to the controller 31. Hereinafter, image data captured by the right-eye camera 21 will be referred to as a right-eye peripheral image, and image data captured by the left-eye camera 22 will be referred to as a left-eye peripheral image.

操作部25は、操作ボタン等を備え、ユーザからの操作を受付ける。また、操作部25は、コントローラ31に接続されており、ユーザにより行われた操作をコントローラ31に出力することができる。   The operation unit 25 includes operation buttons and receives an operation from the user. The operation unit 25 is connected to the controller 31 and can output an operation performed by the user to the controller 31.

通信IF33は、表示装置1とネットワークNEを用いた通信を行う。そして、通信IF33によるネットワークNEを用いた通信により、表示装置1から送信される文字情報WDがHMD10に取得される。そのため、通信IF33は、本発明の受信部を実現する。   The communication IF 33 performs communication using the display device 1 and the network NE. Then, the character information WD transmitted from the display device 1 is acquired by the HMD 10 by communication using the network NE by the communication IF 33. Therefore, the communication IF 33 implements the receiving unit of the present invention.

ビデオメモリ32は、コントローラ31によるワークエリアとして機能する。また、右眼用カメラ21により撮像される右眼周辺画像と、左眼用カメラ22により撮像される左眼周辺画像とは、ビデオメモリ32に記録される。   The video memory 32 functions as a work area by the controller 31. The right eye peripheral image captured by the right eye camera 21 and the left eye peripheral image captured by the left eye camera 22 are recorded in the video memory 32.

コントローラ31は、右眼用カメラ21並びに左眼用カメラ22からの入力、および、操作部25からの入力に応じて、右眼用画像生成部23、左眼用画像生成部24に出力する右眼用画像および左眼用画像を制御する。コントローラ31は、図示しないCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)を備える。そして、CPUがROMに記録されたプログラムを実行することで、コントローラ31は、図3に示す部位(表示領域検出部34、文字領域決定部35、表示制御部36)を機能的に備える。   The controller 31 outputs to the right-eye image generation unit 23 and the left-eye image generation unit 24 in response to inputs from the right-eye camera 21 and the left-eye camera 22 and input from the operation unit 25. The eye image and the left eye image are controlled. The controller 31 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory) not shown. Then, when the CPU executes the program recorded in the ROM, the controller 31 functionally includes the parts (the display area detection unit 34, the character area determination unit 35, and the display control unit 36) illustrated in FIG.

図3は、コントローラ31の機能を説明する機能ブロック図である。
表示領域検出部34は、右眼用カメラ21および左眼用カメラ22を通じて取得した画像データ(右眼周辺画像、左眼周辺画像)をもとに、HMD10を装着したユーザに視認される表示装置1の位置を第1領域として検出する。例えば、表示領域検出部34は、ビデオメモリに入力した右眼周辺画像と左眼周辺画像とに含まれる表示装置1の領域の座標を検出する。
FIG. 3 is a functional block diagram for explaining the functions of the controller 31.
The display area detection unit 34 is a display device that is visually recognized by a user wearing the HMD 10 based on image data (right eye peripheral image, left eye peripheral image) acquired through the right eye camera 21 and the left eye camera 22. The position of 1 is detected as the first region. For example, the display area detection unit 34 detects the coordinates of the area of the display device 1 included in the right eye peripheral image and the left eye peripheral image input to the video memory.

また、表示領域検出部34により検出された第1領域の座標は、文字領域決定部35に出力される。文字領域決定部35は、入力した第1領域の座標をもとに、通信IF33を通じて取得された文字情報WDを表示する右眼用表示部11および左眼用表示部12の位置である第2領域の座標を決定する。   The coordinates of the first area detected by the display area detection unit 34 are output to the character area determination unit 35. The character region determination unit 35 is a second position that is the position of the right-eye display unit 11 and the left-eye display unit 12 that displays the character information WD acquired through the communication IF 33 based on the input coordinates of the first region. Determine the coordinates of the region.

そして、表示制御部36は、文字領域決定部35により決定された第2領域の座標をもとに、右眼用画像生成部23および左眼用画像生成部24に出力する右眼用画像および左眼用画像を生成する。そのため、右眼用画像生成部23および左眼用画像生成部24は、生成された右眼画像および左眼用画像をもとに、右眼用表示部11、左眼用表示部12に文字情報WDを表示させる。また、表示制御部36は、ユーザが操作部25を操作している場合、操作入力を補正に加味する。   The display control unit 36 then outputs the right-eye image output to the right-eye image generation unit 23 and the left-eye image generation unit 24 based on the coordinates of the second region determined by the character region determination unit 35. An image for the left eye is generated. Therefore, the right-eye image generation unit 23 and the left-eye image generation unit 24 write characters to the right-eye display unit 11 and the left-eye display unit 12 based on the generated right-eye image and left-eye image. Information WD is displayed. In addition, when the user is operating the operation unit 25, the display control unit 36 considers the operation input for correction.

次に、表示装置1について説明を行う。
図4は、表示装置1の構成を示すブロック構成図である。
表示装置1は、CPU3、ROM4、RAM5、チューナ6、通信IF7、表示パネル8を備える。表示装置1の各部は、バス9を通じて互いに接続されている。各部は筺体2の内部に収容されている。
例えば、表示装置1は、液晶型の表示パネル8を備える、テレビジョン受像機である。
Next, the display device 1 will be described.
FIG. 4 is a block configuration diagram showing the configuration of the display device 1.
The display device 1 includes a CPU 3, a ROM 4, a RAM 5, a tuner 6, a communication IF 7, and a display panel 8. Each part of the display device 1 is connected to each other through a bus 9. Each part is housed inside the housing 2.
For example, the display device 1 is a television receiver including a liquid crystal display panel 8.

通信IF7は、HMD10との間で所定のプロトコルに応じた通信を行う。また、ROM4には、CPU3が通信IF6を用いてHMD10に文字情報WDを送信するためのOS41や、アプリケーション42が記録されている。   The communication IF 7 performs communication according to a predetermined protocol with the HMD 10. The ROM 4 also stores an OS 41 and an application 42 for the CPU 3 to transmit character information WD to the HMD 10 using the communication IF 6.

CPU3は、チューナ6または通信IF7を通じてコンテンツを受信すると、このコンテンツから文字情報WDを取得する。そして、取得した文字情報WDを、通信IF7を通じて、HMD10に送信する。   When the CPU 3 receives the content through the tuner 6 or the communication IF 7, the CPU 3 acquires character information WD from the content. Then, the acquired character information WD is transmitted to the HMD 10 through the communication IF 7.

(2)ペアリング方法
図5は、HMD10と表示装置1との間で行なわれるペアリング処理を説明する図である。図5(a)〜(c)は、ペアリング処理中に表示装置1に表示される画面を示している。このペアリング処理は、表示装置1からHMD10に文字情報WDが送信される前に開始され、ユーザが表示装置1を操作することで実施される。このペアリング処理により、表示装置1から送信される文字情報WDの種別が設定される。
(2) Pairing Method FIG. 5 is a diagram for explaining a pairing process performed between the HMD 10 and the display device 1. FIGS. 5A to 5C show screens displayed on the display device 1 during the pairing process. This pairing process is started before the character information WD is transmitted from the display device 1 to the HMD 10 and is implemented by the user operating the display device 1. By this pairing process, the type of character information WD transmitted from the display device 1 is set.

ステップS1において、表示装置1は、通信を確立するための通信要求をブロードキャストする。この際、表示装置1の表示パネル8には、ペアリング中であることを示す画像が表示される(図5(a))。   In step S1, the display device 1 broadcasts a communication request for establishing communication. At this time, an image indicating that pairing is in progress is displayed on the display panel 8 of the display device 1 (FIG. 5A).

次に、ステップS2において、表示装置1は、通信要求に対してレスポンスがあったHMD10を使用機器として登録するか否かの確認画像を表示する(図5(b))。ユーザが確認画面で表示したHMD10を登録すると(図5(b)では、HMD10a)、表示装置1は、このHMD10との間で通信を確立させる。このとき、表示装置1とHMD10との間で、ネットワークを接続するセキュリティーの設定等が行われる。   Next, in step S2, the display device 1 displays a confirmation image as to whether or not to register the HMD 10 that has responded to the communication request as a device to be used (FIG. 5B). When the user registers the HMD 10 displayed on the confirmation screen (HMD 10a in FIG. 5B), the display device 1 establishes communication with the HMD 10. At this time, the security setting etc. which connect a network are performed between the display apparatus 1 and HMD10.

ステップS3において、表示装置1は、通信を確立したHMD10に対して送信する文字情報WDの選択を受付ける。図5(c)では、表示装置1は2つのHMD(10a、10b)を使用機器として登録している。そして、ユーザが面上で、HMD10aに送信する字幕(文字情報WD)の種類を設定する。
以下、ペアリングが終了すると、表示装置1からHMD(10a、10bに対して文字情報WDの送信が行われる。
In step S <b> 3, the display device 1 accepts selection of character information WD to be transmitted to the HMD 10 that has established communication. In FIG. 5C, the display device 1 registers two HMDs (10a, 10b) as used devices. And a user sets the kind of subtitle (character information WD) transmitted to HMD10a on the surface.
Thereafter, when the pairing is completed, the display device 1 transmits the character information WD to the HMD (10a, 10b).

(3)文字情報の表示方法
次に、HMD10が文字情報WDを表示する手法を説明する。
図6は、HMD10を装着したユーザに視認される像を説明する図である。また、図7は、コントローラ31が文字情報WDを表示する際に実行する処理を示すフローチャートである。そして、図8は、コントローラ31が文字情報WDを表示する際に実行する処理を説明する図である。
(3) Display Method of Character Information Next, a method in which the HMD 10 displays the character information WD will be described.
FIG. 6 is a diagram for explaining an image visually recognized by a user wearing the HMD 10. FIG. 7 is a flowchart showing processing executed when the controller 31 displays the character information WD. And FIG. 8 is a figure explaining the process performed when the controller 31 displays the character information WD.

図6(a)は、文字情報WDが表示される前にHMD10を装着したユーザにより視認される像を示す。また、図6(b)は、文字情報WDが表示された後にHMD10を装着したユーザにより視認される像を示す。HMD10を装着したユーザは、右眼用表示部11および左眼用表示部12を通して前方の像が結像した図6(a)に示す像を視認しているものとする。この像には、装置1が図中中央に位置している。   FIG. 6A shows an image visually recognized by the user wearing the HMD 10 before the character information WD is displayed. FIG. 6B shows an image visually recognized by the user wearing the HMD 10 after the character information WD is displayed. It is assumed that the user wearing the HMD 10 is viewing the image shown in FIG. 6A in which a front image is formed through the right-eye display unit 11 and the left-eye display unit 12. In this image, the device 1 is located in the center in the figure.

ステップS11では、コントローラ(表示領域検出部34)31は、右眼用カメラ21からの右眼周辺画像をもとに右眼用検出画像を取得する。また、コントローラ(表示領域検出部34)31は左眼用カメラ22からの左眼周辺画像をもとに、左眼用検出画像を取得する。右眼用検出画像と、左眼用検出画像とは、コントローラ31が右眼周辺画像および左眼周辺画像の画素数をビデオメモリ32の画素数に合わせて変換したものである。
図8(a)は、ステップS11により取得された右眼用検出画像と左眼用検出画像とを示す。この右眼用検出画像と左眼用検出画像とには、ユーザの右眼または左眼で見える位置に対応して、表示装置1に対応する画素の領域である第1領域AR1が存在する。
In step S <b> 11, the controller (display region detection unit 34) 31 acquires a right eye detection image based on the right eye peripheral image from the right eye camera 21. The controller (display area detection unit 34) 31 acquires a left-eye detection image based on the left-eye peripheral image from the left-eye camera 22. The right eye detection image and the left eye detection image are obtained by converting the number of pixels of the right eye peripheral image and the left eye peripheral image according to the number of pixels of the video memory 32 by the controller 31.
FIG. 8A shows the detection image for the right eye and the detection image for the left eye acquired in step S11. In the detection image for the right eye and the detection image for the left eye, there is a first area AR1 that is a pixel area corresponding to the display device 1 corresponding to a position that can be seen by the user's right eye or left eye.

ステップS12では、コントローラ(表示領域検出部34)31は、取得した右眼用検出画像と左眼用検出画像から、表示装置1に対応する第1領域の座標を検出する。
表示領域検出部34が第1領域AR1の座標を検出する手法の一例として、周知のエッジサンプリング処理を用いる。例えば、表示領域検出部34は、右眼用検出画像を2値化し、第1領域AR1を構成する画素と周辺画素との境界を構成する画素を輪郭画素Eg(x、y)として検出する(図8(b))。なお、図8(b)では、第1領域AR1を構成する画素を斜線を付して示し、周辺画素と区別している。そして、輪郭画素Eg(x、y)により囲まれる領域を第1領域AR1の座標として検出する。
なお、説明を省略するが、左眼用検出画像に対しても同様の手法により第1領域AR1の座標が検出される。
In step S <b> 12, the controller (display area detection unit 34) 31 detects the coordinates of the first area corresponding to the display device 1 from the acquired right eye detection image and left eye detection image.
As an example of a method in which the display area detection unit 34 detects the coordinates of the first area AR1, a known edge sampling process is used. For example, the display area detection unit 34 binarizes the detection image for the right eye, and detects pixels constituting the boundary between the pixels constituting the first area AR1 and the surrounding pixels as contour pixels Eg (x, y) ( FIG. 8B). In FIG. 8B, the pixels constituting the first area AR1 are indicated by hatching to distinguish them from the peripheral pixels. Then, the area surrounded by the contour pixel Eg (x, y) is detected as the coordinates of the first area AR1.
In addition, although description is abbreviate | omitted, the coordinate of 1st area | region AR1 is detected with the same method also about the detection image for left eyes.

ステップS13では、コントローラ(文字領域決定部35)31は、ステップS12で取得された第1領域の座標をもとに、右眼用検出画像と左眼用検出画像との文字情報WDを表示する第2領域の座標を決定する。図8(c)は、ステップS12で決定された右眼用検出画像における第1領域AR1を点線で指名している。この第1の実施形態では、文字領域決定部35は、第1領域AR1内に第2領域AR2の位置を決定する。即ち、ユーザが文字情報WDを視認する際、前方に位置する表示装置1に文字情報WDが重なって視認されるよう第2領域AR2の座標を決定する。   In step S13, the controller (character region determination unit 35) 31 displays character information WD of the detection image for the right eye and the detection image for the left eye based on the coordinates of the first region acquired in step S12. The coordinates of the second area are determined. In FIG. 8C, the first area AR1 in the detection image for the right eye determined in step S12 is designated by a dotted line. In the first embodiment, the character area determination unit 35 determines the position of the second area AR2 in the first area AR1. That is, when the user visually recognizes the character information WD, the coordinates of the second area AR2 are determined so that the character information WD is visually recognized by being superimposed on the display device 1 positioned in front.

ここで、第1領域AR1内における第2領域AR2の位置は、ユーザが表示装置1を視認する際、文字情報WDが表示パネル8に表示される画像に干渉しない位置であることが望ましい。そのため、図8(c)では、第2領域AR2は、表示装置1における表示パネル8に対応する第1領域AR1における下部に位置している。これ以外にも、文字領域決定部35が周知のエッジサンプリング処理を用いて第1領域AR1内で画像が表示されない領域を判定し、第2領域AR2を決定してもよい。
なお、説明を省略するが、左眼用検出画像に対しても同様の手法により第2領域AR2の座標が検出される。
Here, the position of the second area AR2 in the first area AR1 is preferably a position where the character information WD does not interfere with the image displayed on the display panel 8 when the user visually recognizes the display device 1. Therefore, in FIG. 8C, the second area AR <b> 2 is located in the lower part of the first area AR <b> 1 corresponding to the display panel 8 in the display device 1. In addition to this, the character region determination unit 35 may determine a region in which no image is displayed in the first region AR1 by using a well-known edge sampling process, and determine the second region AR2.
In addition, although description is abbreviate | omitted, the coordinate of 2nd area | region AR2 is detected with the same method also about the detection image for left eyes.

ステップS14では、コントローラ(表示制御部36)31は、通信IF33を通じて取得された文字情報WDから、右眼用画像と左眼用画像とを生成する。例えば、表示制御部36は、文字情報WDを複製して、右眼用画像生成部23を駆動するための右眼用画像と、左眼用画像生成部24を駆動するための左眼用画像を生成する。   In step S <b> 14, the controller (display control unit 36) 31 generates a right eye image and a left eye image from the character information WD acquired through the communication IF 33. For example, the display control unit 36 duplicates the character information WD, and the right-eye image for driving the right-eye image generation unit 23 and the left-eye image for driving the left-eye image generation unit 24. Is generated.

図9は、文字情報WDから生成された右眼用画像と左眼用画像とを示す図である。図9(a)は、補正前の右眼用画像と左眼用画像とを示す。また、図9(b)は、補正後の右眼用画像と左眼用画像とを示す。
図9(a)に示すように、右眼用画像および左眼用画像には、文字情報WDに対応する文字列『おはよう』を構成する低階調の文字画素Gwと、情報を有さない背景画素Geとで構成される。また、右眼用画像および左眼用画像の画素数はビデオメモリ32の画素数と同数である。即ち、右眼用画像生成部23または左眼用画像生成部24を構成する液晶素子のピクセル数と同数となっている。
FIG. 9 is a diagram illustrating a right-eye image and a left-eye image generated from the character information WD. FIG. 9A shows a right eye image and a left eye image before correction. FIG. 9B shows the corrected right-eye image and left-eye image.
As shown in FIG. 9A, the image for the right eye and the image for the left eye do not have information and the low-gradation character pixels Gw constituting the character string “Good morning” corresponding to the character information WD. It consists of a background pixel Ge. The number of pixels of the right-eye image and the left-eye image is the same as the number of pixels in the video memory 32. That is, the number is the same as the number of pixels of the liquid crystal elements constituting the right-eye image generation unit 23 or the left-eye image generation unit 24.

ステップS15では、コントローラ(表示制御部36)31は、右眼用画像および左眼用画像に含まれる文字列の位置を、ステップS13において決定された第2領域AR2の座標となるよう補正し、右眼用画像生成部23と、左眼用画像生成部24とに出力する。そのため、図9(b)では、図9(a)と比べて右眼用画像と左眼用画像に含まれる文字画素Gwの座標が、低い位置に変更されている。   In step S15, the controller (display control unit 36) 31 corrects the position of the character string included in the right-eye image and the left-eye image so as to be the coordinates of the second area AR2 determined in step S13. The image is output to the right eye image generation unit 23 and the left eye image generation unit 24. Therefore, in FIG. 9B, the coordinates of the character pixel Gw included in the right-eye image and the left-eye image are changed to a lower position than in FIG. 9A.

以下、コントローラ31から出力された右眼用画像により右眼用画像生成部23が駆動し、右眼用表示部11に文字情報WDを表示させる。同様に、コントローラ31から出力された左眼用画像により左眼用画像生成部24が駆動し、左眼用表示部12に文字情報WDを表示させる。そのため、HMD10を装着したユーザは、右眼用表示部11および左眼用表示部12を通して前方の像(表示装置1)が合成された図6(b)に示す像を視認する。この像には、装置1の表示パネル8に文字列である『おはよう』が位置している。   Thereafter, the right-eye image generation unit 23 is driven by the right-eye image output from the controller 31 to display the character information WD on the right-eye display unit 11. Similarly, the left-eye image generation unit 24 is driven by the left-eye image output from the controller 31 to display the character information WD on the left-eye display unit 12. Therefore, the user wearing the HMD 10 visually recognizes the image shown in FIG. 6B in which the front image (display device 1) is synthesized through the display unit 11 for the right eye and the display unit 12 for the left eye. In this image, the character string “Good morning” is located on the display panel 8 of the apparatus 1.

以下、表示装置1からの文字情報WDの入力が継続していれば(ステップS16:NO)、コントローラ31は、ステップS11に戻り処理を繰返す。一方、表示装置1からの文字情報WDの入力が終了すれば(ステップS16:YES)、コントローラ31は、処理を終了する。   Hereinafter, if the input of the character information WD from the display device 1 continues (step S16: NO), the controller 31 returns to step S11 and repeats the process. On the other hand, if the input of the character information WD from the display device 1 is completed (step S16: YES), the controller 31 ends the process.

以上説明したようにこの第1の実施形態では、ユーザが表示装置1を視認する第1領域AR1に応じて、文字情報WDを表示する第2領域AR2が決定されるため、ユーザの視聴を妨げることなく、画像に同期して表示される文字情報WDを表示させることができる。
また、表示装置1と一体で文字情報WDを表示させるため、ユーザに違和感を覚えせること無く文字情報を視聴させることができる。
As described above, in the first embodiment, since the second area AR2 for displaying the character information WD is determined according to the first area AR1 for the user to visually recognize the display device 1, the user's viewing is hindered. Therefore, it is possible to display the character information WD displayed in synchronization with the image.
In addition, since the character information WD is displayed together with the display device 1, the character information can be viewed without making the user feel uncomfortable.

2.第2の実施形態:
HMD10により視認される文字情報WDの位置を、ユーザが操作部25を操作して調整するものであってもよい。
図10は、ユーザが操作部25を操作した場合にコントローラ31が実行する処理を説明するフローチャートである。また、図11は、ユーザが操作部25を操作する際にHMD10に表示されるアイコンを説明する図である。
図10に示すフローチャートは、例えば、第1の実施形態で示す図7のステップS15以下において、HMD10に文字情報WDが表示された後に実行される処理である。
2. Second embodiment:
The user may adjust the position of the character information WD visually recognized by the HMD 10 by operating the operation unit 25.
FIG. 10 is a flowchart for explaining processing executed by the controller 31 when the user operates the operation unit 25. FIG. 11 is a diagram illustrating icons displayed on the HMD 10 when the user operates the operation unit 25.
The flowchart shown in FIG. 10 is a process executed after the character information WD is displayed on the HMD 10 in, for example, step S15 and subsequent steps in FIG. 7 shown in the first embodiment.

ユーザが操作部25を操作して、文字情報WDの位置の調整を開始する入力を行うと(ステップS21:YES)、ステップS22では、コントローラ(表示制御部36)31は、HMD10に操作用アイコンを表示させる。図11(a)に示すアイコン201は、ユーザに文字情報WDの位置の変更を視覚的に補助するアイコンである。また、アイコン201は、文字情報WDを左右または上下に移動させる際に表示される。   When the user operates the operation unit 25 to input to start adjusting the position of the character information WD (step S21: YES), in step S22, the controller (display control unit 36) 31 displays an operation icon on the HMD 10. Is displayed. An icon 201 shown in FIG. 11A is an icon that visually assists the user in changing the position of the character information WD. The icon 201 is displayed when the character information WD is moved left and right or up and down.

ユーザがアイコン201の向きを視認しつつ、操作部25を操作すると(ステップS23:YES)、ステップS24では、表示制御部36は、文字情報WDを示す右眼用画像と左眼用画像とに含まれる文字側Gwの座標を、操作部25からの入力に応じて変更する。そのため、ユーザに視認される文字情報WDの位置が変更される。   When the user operates the operation unit 25 while visually recognizing the direction of the icon 201 (step S23: YES), in step S24, the display control unit 36 converts the right eye image and the left eye image indicating the character information WD. The coordinates of the included character side Gw are changed according to the input from the operation unit 25. Therefore, the position of the character information WD visually recognized by the user is changed.

ユーザが操作部25を操作して、文字情報WDの位置の調整を終了する入力を行うと(ステップS25:YES)、ステップS26では、コントローラ31は、アイコン201の表示を終了する。無論、ユーザが操作部25を操作して、文字情報WDの位置の調整を終了する入力を行わなければ(ステップS25:NO)、コントローラ31は、アイコン201の表示を継続する(ステップS23に戻る)。   When the user operates the operation unit 25 to input to end the adjustment of the position of the character information WD (step S25: YES), the controller 31 ends the display of the icon 201 in step S26. Of course, if the user operates the operation unit 25 and does not input to end the adjustment of the position of the character information WD (step S25: NO), the controller 31 continues to display the icon 201 (returns to step S23). ).

また、コントローラ31は、文字情報WDの大きさを変更するものであってもよい。図11(b)は、ユーザが操作部25を操作して文字情報WDの大きさを調整する際に表示されるアイコン202を示す。アイコン202を視認しつつユーザは操作部25を操作して文字情報WDのサイズを変更する。
更に、後述するように、HMD10により立体視画像を視認する場合に、文字情報WDの奥行き感を調整するものであってもよい。
そして、コントローラ31は、文字情報WDの向きやサイズのみを調整可能とするのではなく、文字情報WDの色を変更可能とするものであってもよい。
The controller 31 may change the size of the character information WD. FIG. 11B shows an icon 202 that is displayed when the user operates the operation unit 25 to adjust the size of the character information WD. While visually recognizing the icon 202, the user operates the operation unit 25 to change the size of the character information WD.
Furthermore, as will be described later, when a stereoscopic image is viewed with the HMD 10, the depth of the character information WD may be adjusted.
Then, the controller 31 may change the color of the character information WD instead of adjusting only the direction and size of the character information WD.

以上説明したようにこの第2の実施形態では、自動で設定された文字情報WDの視認位置をユーザが手動で調整することができるため、文字情報WDの使用をより使いやすいものとすることができる。   As described above, in the second embodiment, since the user can manually adjust the viewing position of the automatically set character information WD, the use of the character information WD may be easier to use. it can.

3.第3の実施形態:
文字情報WDが表示される位置は、表示装置1が視認される領域の内側に限定されない。例えば、ユーザにより視認される表示装置1のサイズや、表示を行う文字情報WDのサイズに応じて、第2領域AR2を決定するものであってもよい。
3. Third embodiment:
The position where the character information WD is displayed is not limited to the inside of the area where the display device 1 is visually recognized. For example, the second area AR2 may be determined according to the size of the display device 1 visually recognized by the user or the size of the character information WD to be displayed.

図12は、コントローラ31が実行する処理を示すフローチャートである。この図12に示すフローチャートでは、図7のステップS13において実行される処理である。また、図13は、HMD10を装着したユーザに視認される像を説明する図である。   FIG. 12 is a flowchart showing processing executed by the controller 31. The flowchart shown in FIG. 12 is the process executed in step S13 of FIG. FIG. 13 is a diagram illustrating an image visually recognized by the user wearing the HMD 10.

ステップS131では、コントローラ(文字領域決定部35)31は、右眼用検出画像および左眼用検出画像に含まれる第1領域AR1のサイズを取得する。第1領域AR1のサイズは、第1領域AR1を構成する画素G(x、y)の数をもとに取得される。例えば、表示領域検出部34により取得される。   In step S131, the controller (character area determination unit 35) 31 acquires the size of the first area AR1 included in the detection image for the right eye and the detection image for the left eye. The size of the first area AR1 is acquired based on the number of pixels G (x, y) constituting the first area AR1. For example, it is acquired by the display area detection unit 34.

ステップS132では、コントローラ31は、文字情報WDのサイズを取得する。例えば、コントローラ31は、文字情報WDの情報量や文字情報WDに含まれる文字数に応じて文字情報WDのサイズを判断する。   In step S132, the controller 31 acquires the size of the character information WD. For example, the controller 31 determines the size of the character information WD according to the information amount of the character information WD and the number of characters included in the character information WD.

ステップS133では、ステップS131で取得した第1領域AR1のサイズを閾値S1と比較する。閾値S1は、予め設定された領域のサイズを示す。第1領域AR1のサイズが閾値S1以下であれば(ステップS133:NO)、コントローラ31は、ステップS136に進む。   In step S133, the size of the first area AR1 acquired in step S131 is compared with the threshold value S1. The threshold value S1 indicates the size of a preset area. If the size of the first area AR1 is equal to or smaller than the threshold value S1 (step S133: NO), the controller 31 proceeds to step S136.

ステップS136では、コントローラ31は、第2領域AR2の位置(座標)を第1領域AR1の外部に決定する。この場合、ユーザによって視認される表示装置1のサイズが小さいため、コントローラ31は、文字情報WDを表示装置1が視認される位置に重ねて表示しないようにする。例えば、図13(a)に示すように、ユーザによりHMD10を通して視認される像には、表示装置1の図中右隣に文字情報WDが位置する。   In step S136, the controller 31 determines the position (coordinates) of the second area AR2 outside the first area AR1. In this case, since the size of the display device 1 visually recognized by the user is small, the controller 31 prevents the character information WD from being superimposed on the position where the display device 1 is visually recognized. For example, as shown in FIG. 13A, the character information WD is located on the right side in the drawing of the display device 1 in the image visually recognized by the user through the HMD 10.

また、第1領域AR1のサイズが閾値S1以上であっても(ステップS133:YES)、文字情報WDのサイズが閾値S2以上であれば(ステップS134:NO)、コントローラ31は、ステップS136に進む。即ち、この場合、文字情報WDが多数の文字からなるため、コントローラ31は、文字情報WDを表示装置1が視認される位置に重ねて表示しないようにする。例えば、図13(b)に示すように、ユーザによりHMD10を通して視認される像には、表示装置1の図中右隣に文字情報WDが位置する。   Further, even if the size of the first area AR1 is equal to or larger than the threshold value S1 (step S133: YES), if the size of the character information WD is equal to or larger than the threshold value S2 (step S134: NO), the controller 31 proceeds to step S136. . That is, in this case, since the character information WD is composed of a large number of characters, the controller 31 prevents the character information WD from being superimposed on the position where the display device 1 is visually recognized. For example, as shown in FIG. 13B, the character information WD is located on the right side of the display device 1 in the drawing in the image visually recognized by the user through the HMD 10.

そして、第1領域AR1のサイズが閾値S1以上であり(ステップS133:YES)、文字情報WDのサイズが閾値S2以下であれば(ステップS134:YES)、コントローラ31は、ステップS135に進む。即ち、この場合、コントローラ31は、文字情報WDを表示装置1が視認される位置に重ねて表示させる。そのため、例えば、図13(c)に示すように、ユーザによりHMD10を通して視認される像には、表示装置1の内部(表示パネル8)に文字情報WDが位置する。   If the size of the first area AR1 is equal to or larger than the threshold value S1 (step S133: YES) and the size of the character information WD is equal to or smaller than the threshold value S2 (step S134: YES), the controller 31 proceeds to step S135. In other words, in this case, the controller 31 displays the character information WD so as to overlap the position where the display device 1 is visually recognized. Therefore, for example, as shown in FIG. 13C, the character information WD is located inside the display device 1 (display panel 8) in the image visually recognized by the user through the HMD 10.

以上、説明したようにこの第3の実施形態では、HMD10を装着したユーザにより視認される表示装置1の大きさや、文字情報WDのサイズに応じて、文字情報WDを表示させる位置を変化させるため、ユーザによる表示装置の視聴を阻害させることなく文字情報WDを視認することができる。   As described above, in the third embodiment, the position where the character information WD is displayed is changed according to the size of the display device 1 visually recognized by the user wearing the HMD 10 and the size of the character information WD. The character information WD can be visually recognized without obstructing the viewing of the display device by the user.

4.その他の実施形態:
HMD10は、立体視画像を視聴するものであってもよい。HMD10が2つのカメラ部(右眼用カメラ21、左眼用カメラ22)を有する場合、視差の伴う右眼周辺画像と左眼周辺画像とを取得することができる。そのため、右眼周辺画像と左眼周辺画像との視差をもとに、文字情報WDを立体視させるものであってもよい。
4). Other embodiments:
The HMD 10 may be for viewing a stereoscopic image. When the HMD 10 includes two camera units (the right-eye camera 21 and the left-eye camera 22), a right-eye peripheral image and a left-eye peripheral image with parallax can be acquired. Therefore, the character information WD may be stereoscopically viewed based on the parallax between the right eye peripheral image and the left eye peripheral image.

HMD10が、2つの画像生成部(右眼用画像生成部23、左眼用画像生成部24)を備えることは一例に過ぎない。例えば、HMD10は、1つの画像生成部のみを有し、生成した画像光を右眼用表示部11と左眼用表示部12の両方に表示させる構成でもよい。この場合、本発明は、コントローラ31は、例えば、右側周辺画像、右目用検出画像、右眼用画像のみで本発明の処理が行われる。また、1つの画像生成部と、右眼用表示部11または左眼用表示部12のいずれかのみを有するHMD10であってもよい。   The HMD 10 includes only two image generation units (the right-eye image generation unit 23 and the left-eye image generation unit 24). For example, the HMD 10 may include only one image generation unit and display the generated image light on both the right-eye display unit 11 and the left-eye display unit 12. In this case, in the present invention, the controller 31 performs the processing of the present invention only with the right peripheral image, the right eye detection image, and the right eye image, for example. Alternatively, the HMD 10 may include only one image generation unit and either the right-eye display unit 11 or the left-eye display unit 12.

さらに、コントローラ31が有する、表示領域検出部34、文字領域決定部35、表示制御部36をプログラムの処理により実現することは一例に過ぎない。例えば、表示領域検出部34、文字領域決定部35、表示制御部36を、コントローラ31が有するハードウェアにより実現するものであってもよい。   Furthermore, realizing the display area detection unit 34, the character area determination unit 35, and the display control unit 36 included in the controller 31 is merely an example. For example, the display area detection unit 34, the character area determination unit 35, and the display control unit 36 may be realized by hardware included in the controller 31.

なお、本発明は上記実施例に限られるものでないことは言うまでもない。当業者であれば言うまでもないことであるが、
・上記実施例の中で開示した相互に置換可能な部材および構成等を適宜その組み合わせを変更して適用すること
・上記実施例の中で開示されていないが、公知技術であって上記実施例の中で開示した部材および構成等と相互に置換可能な部材および構成等を適宜置換し、またその組み合わせを変更して適用すること
・上記実施例の中で開示されていないが、公知技術等に基づいて当業者が上記実施例の中で開示した部材および構成等の代用として想定し得る部材および構成等と適宜置換し、またその組み合わせを変更して適用すること
は本発明の一実施例として開示されるものである。
Needless to say, the present invention is not limited to the above embodiments. It goes without saying for those skilled in the art,
・ Applying mutually interchangeable members and configurations disclosed in the above embodiments by appropriately changing the combination thereof.− Although not disclosed in the above embodiments, it is a publicly known technique and the above embodiments. The members and configurations that can be mutually replaced with the members and configurations disclosed in the above are appropriately replaced, and the combination is changed and applied. It is an embodiment of the present invention that a person skilled in the art can appropriately replace the members and configurations that can be assumed as substitutes for the members and configurations disclosed in the above-described embodiments, and change the combinations and apply them. It is disclosed as.

1…表示装置、2…筺体、3…CPU、4…ROM、5…RAM、6…チューナ、7…通信IF、8…表示パネル、9…バス、10…ヘッドマウントディスプレイ(HMD)、11…右眼用表示部、12…左眼用表示部、13…右眼用光学部品、14…左眼用光学部品、20…フレーム、21…右眼用カメラ、22…左眼用カメラ、23…右眼用画像生成部、24…左眼用画像生成部、25…操作部、30…制御ユニット、31…コントローラ、32…ビデオメモリ、33…通信IF、34…表示領域検出部、35…文字領域決定部、36…表示制御部、41…OS、42…アプリケーション、100…視聴システム   DESCRIPTION OF SYMBOLS 1 ... Display apparatus, 2 ... Housing, 3 ... CPU, 4 ... ROM, 5 ... RAM, 6 ... Tuner, 7 ... Communication IF, 8 ... Display panel, 9 ... Bus, 10 ... Head mounted display (HMD), 11 ... Display unit for right eye, 12 ... Display unit for left eye, 13 ... Optical component for right eye, 14 ... Optical component for left eye, 20 ... Frame, 21 ... Camera for right eye, 22 ... Camera for left eye, 23 ... Right eye image generation unit, 24 ... Left eye image generation unit, 25 ... Operation unit, 30 ... Control unit, 31 ... Controller, 32 ... Video memory, 33 ... Communication IF, 34 ... Display area detection unit, 35 ... Character Area determination unit, 36 ... display control unit, 41 ... OS, 42 ... application, 100 ... viewing system

Claims (8)

透過型の表示部を有するヘッドマウントディスプレイであって、
表示装置から文字情報を受信する受信部と、
前記表示部を通してユーザに視認される写像を画像データとして取得するカメラ部と、
取得した前記画像データ内の前記表示装置の位置を第1領域として検出する表示領域検出部と、
検出された前記第1領域に応じて、受信した前記文字情報を表示する前記表示部の位置である第2領域を決定する文字領域決定部と、
前記表示部に対して、決定された前記第2領域に受信した前記文字情報を表示させる表示制御部と、を有することを特徴とするヘッドマウントディスプレイ。
A head mounted display having a transmissive display unit,
A receiving unit for receiving character information from the display device;
A camera unit that obtains, as image data, a map visually recognized by the user through the display unit;
A display area detector for detecting the position of the display device in the acquired image data as a first area;
A character region determination unit that determines a second region that is a position of the display unit that displays the received character information according to the detected first region;
A display control unit that causes the display unit to display the received character information in the determined second area.
ユーザから、前記表示部に表示された文字情報の位置または大きさの調整を受付ける操作部を有し、
前記表示制御部は、受付けた前記調整に応じて、前記表示部に表示された前記文字情報の位置または大きさを変更する、ことを特徴とする請求項1に記載のヘッドマウントディスプレイ。
An operation unit that accepts an adjustment of the position or size of the character information displayed on the display unit from the user;
The head mounted display according to claim 1, wherein the display control unit changes the position or size of the character information displayed on the display unit according to the received adjustment.
前記文字領域決定部は、前記第1領域の内部に前記第2領域の位置を決定する、ことを特徴とする請求項1または請求項2のいずれかに記載のヘッドマウントディスプレイ。   The head-mounted display according to claim 1, wherein the character area determination unit determines a position of the second area inside the first area. 前記文字領域決定部は、前記第1領域のサイズに応じて、前記第2領域の位置を決定する、ことを特徴とする請求項1または請求項2のいずれかに記載のヘッドマウントディスプレイ。   The head-mounted display according to claim 1, wherein the character area determination unit determines a position of the second area according to a size of the first area. 前記文字領域決定部は、前記第1領域のサイズが小さければ、前記第2領域の位置を前記第1領域の外側に決定する、ことを特徴とする請求項4に記載のヘッドマウントディスプレイ。   5. The head mounted display according to claim 4, wherein if the size of the first area is small, the character area determination unit determines the position of the second area outside the first area. 前記文字領域決定部は、前記文字情報のサイズが大きければ、前記第2領域の位置を前記第1領域の外側に決定する、ことを特徴とする請求項4に記載のヘッドマウントディスプレイ。   5. The head mounted display according to claim 4, wherein if the size of the character information is large, the character area determination unit determines the position of the second area outside the first area. 前記表示制御部は、前記表示部に前記文字情報を立体視表示させる、ことを特徴とする請求項1から請求項6のいずれか一項に記載のヘッドマウントディスプレイ。   The head mounted display according to claim 1, wherein the display control unit causes the display unit to stereoscopically display the character information. 透過型の表示部を有するヘッドマウントディスプレイと、前記ヘッドマウントディスプレイに文字情報を出力する表示装置とで構成された視聴システムであって、
前記ヘッドマウントディスプレイは、
表示装置から文字情報を受信する受信部と、
前記表示部を通してユーザに視認される写像を画像データとして取得するカメラ部と、
取得した前記画像データ内の前記表示装置の位置を第1領域として検出する表示領域検出部と、
検出された前記第1領域に応じて、受信した前記文字情報を表示する前記表示部の位置である第2領域を決定する文字領域決定部と、
前記表示部に対して、決定された前記第2領域に受信した前記文字情報を表示させる表示制御部と、を有することを特徴とする視聴システム。
A viewing system composed of a head-mounted display having a transmissive display unit and a display device that outputs character information to the head-mounted display,
The head mounted display is
A receiving unit for receiving character information from the display device;
A camera unit that obtains, as image data, a map visually recognized by the user through the display unit;
A display area detector for detecting the position of the display device in the acquired image data as a first area;
A character region determination unit that determines a second region that is a position of the display unit that displays the received character information according to the detected first region;
A viewing system, comprising: a display control unit that causes the display unit to display the received character information in the determined second region.
JP2014022216A 2014-02-07 2014-02-07 Head mount display, viewing system Pending JP2015149654A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014022216A JP2015149654A (en) 2014-02-07 2014-02-07 Head mount display, viewing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014022216A JP2015149654A (en) 2014-02-07 2014-02-07 Head mount display, viewing system

Publications (1)

Publication Number Publication Date
JP2015149654A true JP2015149654A (en) 2015-08-20

Family

ID=53892704

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014022216A Pending JP2015149654A (en) 2014-02-07 2014-02-07 Head mount display, viewing system

Country Status (1)

Country Link
JP (1) JP2015149654A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017194735A (en) * 2016-04-18 2017-10-26 三菱重工業株式会社 Operation support system, display control method, and program
CN111934704A (en) * 2015-12-24 2020-11-13 索尼互动娱乐股份有限公司 Band determination device, head-mounted display, and band determination method
US11711332B2 (en) 2021-05-25 2023-07-25 Samsung Electronics Co., Ltd. System and method for conversation-based notification management

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111934704A (en) * 2015-12-24 2020-11-13 索尼互动娱乐股份有限公司 Band determination device, head-mounted display, and band determination method
US11528706B2 (en) 2015-12-24 2022-12-13 Sony Interactive Entertainment Inc. Frequency band determination based on image of communication environment for head-mounted display
US11881886B2 (en) 2015-12-24 2024-01-23 Sony Interactive Entertainment Inc. Frequency band determination based on image of communication environment for head-mounted display
JP2017194735A (en) * 2016-04-18 2017-10-26 三菱重工業株式会社 Operation support system, display control method, and program
WO2017183460A1 (en) * 2016-04-18 2017-10-26 三菱重工業株式会社 Operation assistance system, display control method, and program
US11711332B2 (en) 2021-05-25 2023-07-25 Samsung Electronics Co., Ltd. System and method for conversation-based notification management

Similar Documents

Publication Publication Date Title
US8629870B2 (en) Apparatus, method, and program for displaying stereoscopic images
JP6644371B2 (en) Video display device
EP3029935A1 (en) Holographic displaying method and device based on human eyes tracking
US9817628B2 (en) Display system, display terminal, display method and computer readable recording medium having program thereof
JPWO2014024649A1 (en) Image display device and image display method
US9846305B2 (en) Head mounted display, method for controlling head mounted display, and computer program
US20120320038A1 (en) Three-dimensional image processing apparatus, method for processing three-dimensional image, display apparatus, and computer program
WO2023184816A1 (en) Cloud desktop display method and apparatus, device and storage medium
JP2015149654A (en) Head mount display, viewing system
JP2015228543A (en) Electronic apparatus and display processing method
US11039124B2 (en) Information processing apparatus, information processing method, and recording medium
WO2017199495A1 (en) Image processing system, image processing device, and program
JP2016161611A (en) Display system and display control method
JP5836671B2 (en) Imaging apparatus and image display system
JP2013225745A (en) Stereoscopic video display system, stereoscopic video projection device, active shutter glasses, and parallax amount control method
KR101880751B1 (en) Method for reducing error by allignment of lenticular lens and user terminal for displaying glass free stereoscopic image and the user terminal of perporming the method
WO2017185557A1 (en) Virtual-reality helmet full-screen display drive method and virtual-reality helmet thereof
JPS61144192A (en) Stereoscopic television picture display device
JP2012049662A (en) Image processing apparatus, image processing method, and image display apparatus
JP2019105723A (en) Retina-scanning type image projection device, retina-scanning type image projection method, and retina-scanning type image projection system
WO2018073969A1 (en) Image display device and image display system
KR20130010543A (en) Display apparatus and control method thereof
WO2021063321A1 (en) Method and apparatus for realizing 3d display, and 3d display terminal
JP2012109706A (en) Stereoscopic image display device and stereoscopic image display system
US9762891B2 (en) Terminal device, image shooting system and image shooting method