JP2017079389A - Display device, display device control method, and program - Google Patents

Display device, display device control method, and program Download PDF

Info

Publication number
JP2017079389A
JP2017079389A JP2015206145A JP2015206145A JP2017079389A JP 2017079389 A JP2017079389 A JP 2017079389A JP 2015206145 A JP2015206145 A JP 2015206145A JP 2015206145 A JP2015206145 A JP 2015206145A JP 2017079389 A JP2017079389 A JP 2017079389A
Authority
JP
Japan
Prior art keywords
display
image
user
unit
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015206145A
Other languages
Japanese (ja)
Inventor
健郎 矢島
Takeo Yajima
健郎 矢島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2015206145A priority Critical patent/JP2017079389A/en
Publication of JP2017079389A publication Critical patent/JP2017079389A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To allow a display device to perform image display which has an enhanced presence and is less likely to visually induce motion sickness.SOLUTION: An HMD 100 with an image display section 20 displays an image such that a user wearing the image display section 20 can view the image with a first area giving a motion stimulation and a second area giving standstill stimulation superimposed to differentiate parallaxes.SELECTED DRAWING: Figure 1

Description

本発明は、表示装置、表示装置の制御方法、及び、プログラムに関する。   The present invention relates to a display device, a display device control method, and a program.

従来、ドライビングシミュレーター等の用途で使用される表示装置により、スピード感や臨場感のある映像を表示する技術が知られている(例えば、特許文献1参照)。   2. Description of the Related Art Conventionally, a technique for displaying a video with a sense of speed and presence using a display device used for a driving simulator or the like is known (see, for example, Patent Document 1).

特開平9−269723号公報JP-A-9-269723

人間の視覚を通じて運動刺激を与える場合、いわゆる映像酔いを起こすことが知られている。特許文献1記載の方法では、3D映像を視認させる場合に制御用の画像を付加しているが、3D映像により運動刺激を与えるため、没入感が高い状態では映像酔いを起こす懸念がある。
本発明は上記事情に鑑みてなされたものであり、表示装置によって、臨場感があり、映像酔いを起こしにくい画像表示を行うことを目的とする。
It is known that when motion stimulation is given through human vision, so-called video sickness is caused. In the method described in Patent Document 1, a control image is added when a 3D video is viewed. However, since motion stimulation is given by the 3D video, there is a concern that video sickness may occur when the immersive feeling is high.
The present invention has been made in view of the above circumstances, and an object of the present invention is to display an image with a sense of reality and less prone to motion sickness by a display device.

上記目的を達成するために、本発明の表示装置は、表示部と、前記表示部を視認する使用者が、運動刺激を与える第1領域と、静止刺激を与える第2領域とが視差が異なるように重ねて視認可能なように、前記表示部に画像を表示させる表示制御部と、を備えることを特徴とする。
本発明によれば、運動刺激を与える第1領域及び静止刺激を与える第2領域を、視差が異なるように組み合わせて使用者に知覚させる。これにより、単一の3D映像に頼らない方法で、使用者の自己運動感覚を強めたり、弱めたりすることが可能になるので、臨場感を誘起しやすい映像を表示でき、映像酔いの軽減を図ることができる。
In order to achieve the above object, in the display device of the present invention, the display unit and the first region where the user who visually recognizes the display unit gives a motion stimulus and the second region where a stationary stimulus is given have different parallaxes. And a display control unit that displays an image on the display unit so that the display unit can be visually recognized.
According to the present invention, the first region for applying the motion stimulus and the second region for applying the static stimulus are combined with each other so that the parallax is different, and the user is made to perceive. This makes it possible to enhance or weaken the user's self-motion sensation without relying on a single 3D image, so that it is possible to display an image that is easy to induce realism and to reduce image sickness. Can be planned.

また、本発明は、上記表示装置において、前記表示制御部は、前記使用者が前記第1領域を視認する視距離と、前記使用者が前記第2領域を視認する視距離とが異なる距離となるように、前記表示部に画像を表示させること、を特徴とする。
本発明によれば、異なる距離で知覚される映像または画像を組み合わせることにより、効果的に、表示装置を見る使用者に自己運動感覚を誘起しやすい表示、或いは、自己運動感覚を誘起しにくい表示など、様々な視覚効果を有する表示が可能になる。
In the display device according to the aspect of the invention, the display control unit may be configured such that a viewing distance at which the user visually recognizes the first area is different from a viewing distance at which the user visually recognizes the second area. Thus, an image is displayed on the display unit.
According to the present invention, by combining images or images perceived at different distances, it is possible to effectively display a self-motion sensation or a display that does not easily induce a self-motion sensation to a user viewing a display device. The display having various visual effects is possible.

また、本発明は、上記表示装置において、前記表示制御部は、前記第2領域の視距離が前記第1領域よりも前記使用者から遠い距離となるように、前記表示部に画像を表示させること、を特徴とする。
本発明によれば、使用者に、運動刺激を与える第1領域よりも静止刺激を与える第2領域が遠くにあるように知覚されやすい表示を行い、使用者自身の自己運動感覚に影響を与えやすい表示ができる。
In the display device according to the present invention, the display control unit causes the display unit to display an image so that a viewing distance of the second region is farther from the user than the first region. It is characterized by this.
According to the present invention, the user is provided with a display that is more easily perceived as if the second region that gives a stationary stimulus is farther than the first region that gives a motor stimulus, thereby affecting the user's own self-motion sensation. Easy display.

また、本発明は、上記表示装置において、前記表示部は、外景を透過して前記使用者が視認可能に構成され、前記表示制御部は、前記第2領域としての外景に重なるように、前記表示部により前記第1領域の画像を表示させること、を特徴とする。
本発明によれば、表示部を透過して視認される外景を利用して、使用者自身の自己運動感覚に影響を与えやすい表示ができる。
In the display device according to the present invention, the display unit is configured to be visible to the user through the outside scene, and the display control unit overlaps the outside scene as the second region. The display unit displays an image of the first area.
ADVANTAGE OF THE INVENTION According to this invention, the display which is easy to influence a user's own self-motion sensation can be performed using the external scene visually perceived through a display part.

また、本発明は、上記表示装置において、前記表示部は、外景を透過して前記使用者が視認可能に構成され、前記表示制御部は、前記第1領域としての外景とともに視認されるように、前記表示部により前記第2領域の画像を表示させること、を特徴とする。
本発明によれば、表示部を透過して視認される外景を利用して、動きのある映像や画像を見ながら、使用者自身の自己運動感覚に対し、は動いていないような影響を与えやすい表示をすることができる。
In the display device according to the aspect of the invention, the display unit may be configured to be visible to the user through the outside scene, and the display control unit may be visually recognized together with the outside scene as the first area. The image of the second area is displayed by the display unit.
According to the present invention, an outside scene that is visible through the display unit is used to watch a moving image or image, and the user's own self-motion sensation is not affected. Easy display.

また、本発明は、上記表示装置において、前記表示制御部は、前記第1領域の画像、及び前記第2領域の画像のそれぞれを前記表示部に表示させること、を特徴とする。
本発明によれば、表示装置が表示する画像を組み合わせることにより、動きのある映像や画像を見ながら、使用者自身の自己運動感覚に対し、動いていないような影響を与えやすい表示ができる。
In the display device according to the present invention, the display control unit causes the display unit to display each of the image of the first area and the image of the second area.
According to the present invention, by combining the images displayed by the display device, it is possible to perform a display that easily affects the user's own self-motion sensation while watching a moving image or image.

また、本発明は、上記表示装置において、前記表示制御部は、前記第2領域の視距離が前記第1領域よりも前記使用者に近い距離となるように、前記表示部に画像を表示させること、を特徴とする。
本発明によれば、使用者に、静止刺激を与える第2領域よりも運動刺激を与える第1領域が遠くにあるように知覚させることで、使用者自身の自己運動感覚に対し、運動するような影響を与えやすい表示ができる。
In the display device, the display control unit causes the display unit to display an image so that a viewing distance of the second region is closer to the user than the first region. It is characterized by this.
According to the present invention, the user perceives that the first region that gives the motor stimulus is farther than the second region that gives the static stimulus, so that the user can move with respect to the self-motion sense of the user. Can be easily affected.

また、本発明は、上記表示装置において、前記表示部は、外景を透過して前記使用者が視認可能に構成され、前記表示制御部は、前記第2領域としての外景に重なるように、前記表示部により前記第1領域の画像を表示させること、を特徴とする。
本発明によれば、表示部を透過して視認される外景を利用して、使用者に対し、運動するような影響を与えやすい表示ができる。
In the display device according to the present invention, the display unit is configured to be visible to the user through the outside scene, and the display control unit overlaps the outside scene as the second region. The display unit displays an image of the first area.
ADVANTAGE OF THE INVENTION According to this invention, the display which is easy to give the influence which exercise | moves with respect to a user using the external scene visually permeate | transmitted through a display part can be performed.

また、本発明は、上記表示装置において、前記表示部は、外景を透過して前記使用者が視認可能に構成され、前記表示制御部は、前記第1領域としての外景に重なるように、前記表示部により前記第2領域の画像を表示させること、を特徴とする。
本発明によれば、表示部を透過して視認される外景を利用して、使用者に対し、運動するような影響を与えやすい表示ができる。
In the display device according to the present invention, the display unit is configured to be visible to the user through the outside scene, and the display control unit overlaps the outside scene as the first region. The display unit displays an image of the second area.
ADVANTAGE OF THE INVENTION According to this invention, the display which is easy to give the influence which exercise | moves with respect to a user using the external scene visually permeate | transmitted through a display part can be performed.

また、本発明は、上記表示装置において、前記表示制御部は、前記第1領域の画像、及び前記第2領域の画像のそれぞれを前記表示部に表示させること、を特徴とする。
本発明によれば、表示装置が表示する画像を組み合わせることにより、使用者が運動するような影響を与えやすい表示ができる。
In the display device according to the present invention, the display control unit causes the display unit to display each of the image of the first area and the image of the second area.
ADVANTAGE OF THE INVENTION According to this invention, the display which is easy to give the influence which a user exercises can be performed by combining the image which a display apparatus displays.

また、本発明は、上記表示装置において、前記表示制御部は、前記使用者の視野の占める前記第2領域の割合が予め設定された所定割合以上となるように、前記表示部に画像を表示させること、を特徴とする。
本発明によれば、第2領域が使用者に与える静止刺激の効果を、より確実に得ることができる。
In the display device according to the present invention, the display control unit displays an image on the display unit such that a ratio of the second area occupied by the visual field of the user is equal to or higher than a predetermined ratio set in advance. It is characterized by making it.
According to the present invention, the effect of the static stimulus given to the user by the second region can be obtained more reliably.

また、本発明は、上記表示装置において、前記表示制御部は、前記使用者の視野の占める前記第2領域の割合が予め設定された所定割合以下となるように、前記表示部に画像を表示させること、を特徴とする。
本発明によれば、第1領域と第2領域との組合せにより使用者に与える静止刺激の効果を、より確実に得ることができる。
In the display device according to the present invention, the display control unit displays an image on the display unit such that a ratio of the second area occupied by the visual field of the user is equal to or less than a predetermined ratio set in advance. It is characterized by making it.
According to the present invention, it is possible to more reliably obtain the effect of static stimulation given to the user by the combination of the first region and the second region.

また、本発明は、上記表示装置において、前記表示制御部は、前記第1領域の単位時間あたりの動きの量が前記第2領域の単位時間あたりの動きの量よりも大きくなるように、前記表示部に画像を表示させること、を特徴とする。
本発明によれば、第1領域と第2領域のそれぞれが動きを有する場合であっても、第1領域による運動刺激の効果と、第2領域による静止刺激の効果とを得ることができる。
In the display device according to the present invention, the display control unit may be configured such that the amount of movement per unit time of the first area is larger than the amount of movement per unit time of the second area. An image is displayed on the display unit.
According to the present invention, even if each of the first region and the second region has a motion, it is possible to obtain the effect of the motion stimulus by the first region and the effect of the static stimulus by the second region.

また、本発明は、上記表示装置において、前記使用者の頭部の動きを検出する動き検出部を備え、前記表示部は、前記動き検出部により検出される動きに対応して、前記第1領域及び前記第2領域の少なくともいずれかの表示状態を変化させること、を特徴とする。
本発明によれば、使用者の頭部の動きに応じて表示を変化させることで、より効果的な表示の演出、或いは、新たな情報の伝達を行うことができる。
The display device may further include a motion detection unit that detects a motion of the user's head, and the display unit corresponds to the motion detected by the motion detection unit. The display state of at least one of the area and the second area is changed.
According to the present invention, it is possible to produce a more effective display or to transmit new information by changing the display according to the movement of the user's head.

また、本発明は、上記表示装置において、撮像部を備え、前記撮像部により撮像された撮像画像から検出される動きに対応して、前記第1領域及び前記第2領域の少なくともいずれかの表示状態を変化させること、を特徴とする。
本発明によれば、撮像画像を利用して、より効果的に、運動感覚に影響を与えやすい表示を行える。
According to the present invention, the display device includes an imaging unit, and displays at least one of the first region and the second region corresponding to a motion detected from a captured image captured by the imaging unit. It is characterized by changing the state.
According to the present invention, a captured image can be used to more effectively perform a display that easily affects the kinesthetic sense.

また、本発明は、上記表示装置において、前記表示制御部は、前記撮像部の撮像画像に基づいて生成される画像を、前記第1領域または前記第2領域として表示させること、を特徴とする。
本発明によれば、撮像画像を利用して、使用者自身の運動感覚に刺激を与える表示を実現できる。
In the display device, the display control unit displays an image generated based on a captured image of the imaging unit as the first region or the second region. .
According to the present invention, it is possible to realize a display that gives a stimulus to the user's own kinesthetic sense by using a captured image.

また、本発明は、上記表示装置において、前記表示制御部は、前記第1領域及び前記第2領域のいずれか前記使用者が注目する側の視認性を高めるように、前記表示部に画像を表示させること、を特徴とする。
本発明によれば、より臨場感を感じさせやすい映像表示を実現でき、映像酔いの軽減を図ることができる。
In the display device according to the aspect of the invention, the display control unit may display an image on the display unit so as to improve visibility on a side of the first region or the second region on which the user pays attention. It is characterized by displaying.
According to the present invention, it is possible to realize video display that makes it easier to feel a sense of reality, and to reduce video sickness.

また、本発明は、上記表示装置において、前記表示制御部は、前記使用者の動きを検出して、検出した動きに対応して前記表示部に表示させる画像の動きを制御すること、を特徴とする。
本発明によれば、使用者の動きに対応して画像の動きを制御することで、より効果的に、いわゆる映像酔いを抑制できる。
In the display device according to the present invention, the display control unit detects a movement of the user and controls a movement of an image displayed on the display unit in response to the detected movement. And
According to the present invention, so-called video sickness can be more effectively suppressed by controlling the movement of the image in response to the movement of the user.

また、上記目的を達成するために、本発明は、表示部を備える表示装置の制御方法であって、前記表示部を視認する使用者が、運動刺激を与える第1領域と、静止刺激を与える第2領域とが視差が異なるように重ねて視認可能なように、前記表示部に画像を表示させること、を特徴とする。
本発明によれば、運動刺激を与える第1領域及び静止刺激を与える第2領域を、視差が異なるように組み合わせて使用者に知覚させる。これにより、単一の3D映像に頼らない方法で、使用者の自己運動感覚を強めたり、弱めたりすることが可能になるので、臨場感を誘起しやすい映像を表示でき、映像酔いの軽減を図ることができる。
In order to achieve the above object, the present invention provides a method for controlling a display device including a display unit, in which a user who visually recognizes the display unit provides a first region for applying a motion stimulus and a static stimulus. An image is displayed on the display unit so that the second region can be visually recognized with different parallax.
According to the present invention, the first region for applying the motion stimulus and the second region for applying the static stimulus are combined with each other so that the parallax is different, and the user is made to perceive. This makes it possible to enhance or weaken the user's self-motion sensation without relying on a single 3D image, so that it is possible to display an image that is easy to induce realism and to reduce image sickness. Can be planned.

また、上記目的を達成するために、本発明は、表示部を備えるコンピューターが実行可能なプログラムであって、前記コンピューターにより、前記表示部を視認する使用者が、運動刺激を与える第1領域と、静止刺激を与える第2領域とが視差が異なるように重ねて視認可能なように、前記表示部に画像を表示させる、プログラムである。
本発明によれば、運動刺激を与える第1領域及び静止刺激を与える第2領域を、視差が異なるように組み合わせて使用者に知覚させる。これにより、単一の3D映像に頼らない方法で、使用者の自己運動感覚を強めたり、弱めたりすることが可能になるので、臨場感を誘起しやすい映像を表示でき、映像酔いの軽減を図ることができる。
In order to achieve the above object, the present invention is a program executable by a computer including a display unit, and a first region where a user who visually recognizes the display unit gives an exercise stimulus by the computer, A program for displaying an image on the display unit so that the second region to which a static stimulus is applied can be visually recognized with different parallaxes.
According to the present invention, the first region for applying the motion stimulus and the second region for applying the static stimulus are combined with each other so that the parallax is different, and the user is made to perceive. This makes it possible to enhance or weaken the user's self-motion sensation without relying on a single 3D image, so that it is possible to display an image that is easy to induce realism and to reduce image sickness. Can be planned.

本発明は、表示装置以外の種々の形態で実現することも可能である。例えば、上記制御方法を実現するためのコンピュータープログラム、そのコンピュータープログラムを記録した記録媒体、および、コンピュータープログラムを配信するためのサーバー装置、そのコンピュータープログラムを含み搬送波内に具現化されたデータ信号等の形態で実現できる。   The present invention can also be realized in various forms other than the display device. For example, a computer program for realizing the above control method, a recording medium recording the computer program, a server device for distributing the computer program, a data signal including the computer program and embodied in a carrier wave, etc. It can be realized in the form.

HMDの外観構成を示す説明図。Explanatory drawing which shows the external appearance structure of HMD. 画像表示部の光学系の構成を示す図。The figure which shows the structure of the optical system of an image display part. 画像表示部の要部構成を示す図。The figure which shows the principal part structure of an image display part. HMDを構成する各部の機能ブロック図。The functional block diagram of each part which comprises HMD. 視覚による運動刺激の作用の説明図であり、(A)は前景と背景とが視認される例を示し、(B)は広い視野角で画像を視認させる例を示し、(C)は通常の視野角で画像を視認させる例を示す。It is explanatory drawing of the effect | action of the movement stimulus by vision, (A) shows the example for which a foreground and a background are visually recognized, (B) shows the example for visually recognizing an image with a wide viewing angle, (C) is normal An example of visually recognizing an image at a viewing angle is shown. HMDの表示例を示す図であり、(A)はゲーム画像及び背景画像を表示する例を示し、(B)はゲーム画像を表示する例を示し、(C)は背景画像を表示する例を示す。It is a figure which shows the example of a display of HMD, (A) shows the example which displays a game image and a background image, (B) shows the example which displays a game image, (C) shows the example which displays a background image Show. HMDの動作を示すフローチャート。The flowchart which shows operation | movement of HMD.

図1は、本発明を適用した実施形態に係るHMD(ヘッドマウントディスプレイ,Head Mounted Display)100の外観構成を示す説明図である。
HMD100は、使用者の頭部に装着された状態で使用者に虚像を視認させる画像表示部20と、画像表示部20を制御する制御装置10と、を備える表示装置である。制御装置10は、使用者がHMD100を操作するコントローラーとしても機能する。
FIG. 1 is an explanatory diagram showing an external configuration of an HMD (Head Mounted Display) 100 according to an embodiment to which the present invention is applied.
The HMD 100 is a display device that includes an image display unit 20 that allows a user to visually recognize a virtual image while being mounted on the user's head, and a control device 10 that controls the image display unit 20. The control device 10 also functions as a controller for the user to operate the HMD 100.

画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有する。画像表示部20は、右保持部21と、右表示駆動部22と、左保持部23と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、カメラ61(撮像部)と、マイク63とを備える。右光学像表示部26及び左光学像表示部28は、それぞれ、使用者が画像表示部20を装着した際に使用者の右及び左の眼前に位置するように配置されている。右光学像表示部26の一端と左光学像表示部28の一端とは、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置で、互いに連結される。   The image display unit 20 is a wearing body that is worn on the user's head, and has a glasses shape in the present embodiment. The image display unit 20 includes a right holding unit 21, a right display driving unit 22, a left holding unit 23, a left display driving unit 24, a right optical image display unit 26, a left optical image display unit 28, and a camera 61. (Imaging part) and a microphone 63 are provided. The right optical image display unit 26 and the left optical image display unit 28 are arranged so as to be positioned in front of the right and left eyes of the user when the user wears the image display unit 20, respectively. One end of the right optical image display unit 26 and one end of the left optical image display unit 28 are connected to each other at a position corresponding to the eyebrow of the user when the user wears the image display unit 20.

右保持部21は、右光学像表示部26の他端である端部ERから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。同様に、左保持部23は、左光学像表示部28の他端である端部ELから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。右保持部21及び左保持部23は、眼鏡のテンプル(つる)のようにして、使用者の頭部に画像表示部20を保持する。   The right holding unit 21 extends from the end ER which is the other end of the right optical image display unit 26 to a position corresponding to the user's temporal region when the user wears the image display unit 20. It is a member. Similarly, the left holding unit 23 extends from the end EL which is the other end of the left optical image display unit 28 to a position corresponding to the user's temporal region when the user wears the image display unit 20. It is a member provided. The right holding unit 21 and the left holding unit 23 hold the image display unit 20 on the user's head like a temple of glasses.

右表示駆動部22と左表示駆動部24とは、使用者が画像表示部20を装着した際の使用者の頭部に対向する側に配置されている。なお、右表示駆動部22及び左表示駆動部24を総称して単に「表示駆動部」とも呼び、右光学像表示部26及び左光学像表示部28を総称して単に「光学像表示部」とも呼ぶ。   The right display drive unit 22 and the left display drive unit 24 are disposed on the side facing the user's head when the user wears the image display unit 20. The right display drive unit 22 and the left display drive unit 24 are collectively referred to simply as “display drive unit”, and the right optical image display unit 26 and the left optical image display unit 28 are simply referred to as “optical image display unit”. Also called.

表示駆動部22,24は、液晶ディスプレイ241,242(Liquid Crystal Display、以下「LCD241,242」と呼ぶ)、図2〜図4を参照して後述する投写光学系251,252等を含む。
右光学像表示部26及び左光学像表示部28は、導光板261,262(図2)と、調光板20Aとを備える。導光板261,262は、光透過性の樹脂等によって形成され、表示駆動部22,24が出力する画像光を、使用者の眼に導く。調光板20Aは、薄板状の光学素子であり、使用者の眼の側とは反対の側である画像表示部20の表側を覆うように配置される。調光板20Aは、光透過性がほぼ無いもの、透明に近いもの、光量を減衰させて光を透過するもの、特定の波長の光を減衰又は反射するもの等、種々のものを用いることができる。調光板20Aの光学特性(光透過率など)を適宜選択することにより、外部から右光学像表示部26及び左光学像表示部28に入射する外光量を調整して、虚像の視認のしやすさを調整できる。本実施形態では、少なくとも、HMD100を装着した使用者が外の景色を視認できる程度の光透過性を有する調光板20Aを用いる場合について説明する。調光板20Aは、右導光板261及び左導光板262を保護し、右導光板261及び左導光板262の損傷や汚れの付着等を抑制する。
調光板20Aは、右光学像表示部26及び左光学像表示部28に対し着脱可能としてもよく、複数種類の調光板20Aを交換して装着可能としてもよいし、省略してもよい。
The display driving units 22 and 24 include liquid crystal displays 241 and 242 (hereinafter referred to as “LCDs 241 and 242”), projection optical systems 251 and 252 described later with reference to FIGS.
The right optical image display unit 26 and the left optical image display unit 28 include light guide plates 261 and 262 (FIG. 2) and a light control plate 20A. The light guide plates 261 and 262 are formed of a light transmissive resin or the like, and guide the image light output from the display driving units 22 and 24 to the user's eyes. The light control plate 20A is a thin plate-like optical element, and is disposed so as to cover the front side of the image display unit 20 which is the side opposite to the user's eye side. As the light control plate 20A, various materials such as a material that has almost no light transmission, a material that is nearly transparent, a material that attenuates the amount of light and transmits light, and a material that attenuates or reflects light of a specific wavelength may be used. it can. By appropriately selecting the optical characteristics (light transmittance, etc.) of the light control plate 20A, the external light amount incident on the right optical image display unit 26 and the left optical image display unit 28 from the outside is adjusted to visually recognize the virtual image. You can adjust the ease. In the present embodiment, a case will be described in which at least a light control plate 20A having a light transmittance that allows a user wearing the HMD 100 to visually recognize an outside scene is described. The light control plate 20A protects the right light guide plate 261 and the left light guide plate 262, and suppresses damage to the right light guide plate 261 and the left light guide plate 262, adhesion of dirt, and the like.
The dimming plate 20A may be detachable from the right optical image display unit 26 and the left optical image display unit 28, or may be mounted by replacing a plurality of types of dimming plates 20A, or may be omitted. .

カメラ61は、画像表示部20の前面の中央位置に配置される。カメラ61は、CCDやCMOS等の撮像素子及び撮像レンズ等を備えるデジタルカメラである。カメラ61をステレオカメラで構成してもよい。カメラ61は、HMD100の表側方向、換言すれば、HMD100を装着した状態における使用者の視界方向の少なくとも一部の外景(実空間)を撮像する。別の表現では、カメラ61は、使用者の視界と重なる範囲または方向を撮像し、使用者が注視する方向を撮像するということもできる。カメラ61の画角の広さは適宜設定可能であるが、本実施形態では、後述するように、使用者が右光学像表示部26、左光学像表示部28を通して視認する外界を含む。さらに、調光板20Aを通した使用者の視界の全体を撮像できるようにカメラ61の撮像範囲が設定されているとより好ましい。
カメラ61は、制御部140が備える撮像制御部161(図4)の制御に従って撮像を実行し、撮像画像データを撮像制御部161に出力する。
The camera 61 is disposed at the center position on the front surface of the image display unit 20. The camera 61 is a digital camera that includes an imaging element such as a CCD or CMOS, an imaging lens, and the like. The camera 61 may be a stereo camera. The camera 61 images at least a part of the outside scene (real space) in the front side direction of the HMD 100, in other words, the user's viewing direction when the HMD 100 is worn. In another expression, the camera 61 captures a range or direction that overlaps the user's field of view, and captures the direction in which the user gazes. Although the angle of view of the camera 61 can be set as appropriate, in the present embodiment, as will be described later, the camera 61 includes the outside world visually recognized through the right optical image display unit 26 and the left optical image display unit 28. Furthermore, it is more preferable that the imaging range of the camera 61 is set so that the entire field of view of the user through the light control plate 20A can be imaged.
The camera 61 executes imaging in accordance with the control of the imaging control unit 161 (FIG. 4) provided in the control unit 140, and outputs captured image data to the imaging control unit 161.

ここで、HMD100は、予め設定された測定方向に位置する測定対象物までの距離を検出する距離センサー(図示略)を備えてもよい。距離センサーは、例えば、右光学像表示部26と左光学像表示部28との境目部分に配置される。この場合、使用者が画像表示部20を装着した状態で、距離センサー64の位置は、水平方向においては使用者の両眼のほぼ中間であり、鉛直方向においては使用者の両眼より上である。距離センサー64の測定方向は、例えば、HMD100の表側方向で、カメラ61の撮像方向と重複する方向とすることができる。
距離センサーは、例えば、LEDやレーザーダイオード等の光源と、光源が発する光が測定対象物に反射する反射光を受光する受光部とを有する構成とすることができる。距離センサーは、制御部140の制御に従い、三角測距処理や時間差に基づく測距処理を実行すればよい。また、距離センサーは、超音波を発する音源と、測定対象物で反射する超音波を受信する検出部とを備える構成としてもよい。この場合、距離センサーは、制御部140の制御に従い、超音波の反射までの時間差に基づき測距処理を実行すればよい。
Here, the HMD 100 may include a distance sensor (not shown) that detects a distance to a measurement object positioned in a preset measurement direction. The distance sensor is disposed, for example, at the boundary between the right optical image display unit 26 and the left optical image display unit 28. In this case, when the user wears the image display unit 20, the position of the distance sensor 64 is substantially in the middle of both eyes of the user in the horizontal direction and above the eyes of the user in the vertical direction. is there. The measurement direction of the distance sensor 64 can be a direction that overlaps the imaging direction of the camera 61 in the front side direction of the HMD 100, for example.
The distance sensor can be configured to include, for example, a light source such as an LED or a laser diode, and a light receiving unit that receives reflected light that is reflected from the light to be measured. The distance sensor may perform a triangulation process or a distance measurement process based on a time difference according to the control of the control unit 140. The distance sensor may be configured to include a sound source that emits ultrasonic waves and a detection unit that receives ultrasonic waves reflected by the measurement object. In this case, the distance sensor may perform the distance measurement process based on the time difference until the reflection of the ultrasonic wave according to the control of the control unit 140.

図2は、画像表示部20が備える光学系の構成を示す要部平面図である。図2には説明のため使用者の左眼LE及び右眼REを図示する。
左表示駆動部24は、LED等の光源と拡散板とを有する左バックライト222、左バックライト222の拡散板から発せられる光の光路上に配置される透過型の左LCD242、及び、左LCD242を透過した画像光Lを導くレンズ群等を備えた左投写光学系252を備える。左LCD242は、複数の画素をマトリクス状に配置した透過型液晶パネルである。
FIG. 2 is a principal plan view showing the configuration of the optical system provided in the image display unit 20. FIG. 2 shows the user's left eye LE and right eye RE for explanation.
The left display driving unit 24 includes a left backlight 222 having a light source such as an LED and a diffusion plate, a transmissive left LCD 242 disposed on an optical path of light emitted from the diffusion plate of the left backlight 222, and a left LCD 242. A left projection optical system 252 including a lens group that guides the image light L that has passed through the lens. The left LCD 242 is a transmissive liquid crystal panel in which a plurality of pixels are arranged in a matrix.

左投写光学系252は、左LCD242から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、左導光板262に入射される。左導光板262は、画像光Lを反射する複数の反射面が形成されたプリズムであり、画像光Lは、左導光板262の内部において複数回の反射を経て左眼LE側に導かれる。左導光板262には、左眼LEの眼前に位置するハーフミラー262A(反射面)が形成される。
ハーフミラー262Aで反射した画像光Lは左眼LEに向けて左光学像表示部28から射出され、この画像光Lが左眼LEの網膜に像を結び、使用者に画像を視認させる。
The left projection optical system 252 includes a collimator lens that converts the image light L emitted from the left LCD 242 into a light beam in a parallel state. The image light L converted into a parallel light beam by the collimator lens is incident on the left light guide plate 262. The left light guide plate 262 is a prism formed with a plurality of reflecting surfaces that reflect the image light L, and the image light L is guided to the left eye LE side through a plurality of reflections inside the left light guide plate 262. The left light guide plate 262 is formed with a half mirror 262A (reflection surface) positioned in front of the left eye LE.
The image light L reflected by the half mirror 262A is emitted from the left optical image display unit 28 toward the left eye LE, and this image light L forms an image on the retina of the left eye LE so that the user can visually recognize the image.

右表示駆動部22は、左表示駆動部24と左右対称に構成される。右表示駆動部22は、LED等の光源と拡散板とを有する右バックライト221、右バックライト221の拡散板から発せられる光の光路上に配置される透過型の右LCD241、及び、右LCD241を透過した画像光Lを導くレンズ群等を備えた右投写光学系251を備える。右LCD241は、複数の画素をマトリクス状に配置した透過型液晶パネルである。   The right display driving unit 22 is configured to be symmetrical with the left display driving unit 24. The right display driving unit 22 includes a right backlight 221 having a light source such as an LED and a diffusion plate, a transmissive right LCD 241 disposed on an optical path of light emitted from the diffusion plate of the right backlight 221, and a right LCD 241. A right projection optical system 251 including a lens group that guides the image light L that has passed through the lens. The right LCD 241 is a transmissive liquid crystal panel in which a plurality of pixels are arranged in a matrix.

右投写光学系251は、右LCD241から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、右導光板261に入射される。右導光板261は、画像光Lを反射する複数の反射面が形成されたプリズムであり、画像光Lは、右導光板261の内部において複数回の反射を経て右眼RE側に導かれる。右導光板261には、右眼REの眼前に位置するハーフミラー261A(反射面)が形成される。
ハーフミラー261Aで反射した画像光Lは右眼REに向けて右光学像表示部26から射出され、この画像光Lが右眼REの網膜に像を結び、使用者に画像を視認させる。
The right projection optical system 251 includes a collimator lens that converts the image light L emitted from the right LCD 241 into a light beam in a parallel state. The image light L converted into a parallel light beam by the collimator lens is incident on the right light guide plate 261. The right light guide plate 261 is a prism formed with a plurality of reflecting surfaces that reflect the image light L, and the image light L is guided to the right eye RE side through a plurality of reflections inside the right light guide plate 261. The right light guide plate 261 is formed with a half mirror 261A (reflection surface) located in front of the right eye RE.
The image light L reflected by the half mirror 261A is emitted from the right optical image display unit 26 toward the right eye RE, and this image light L forms an image on the retina of the right eye RE to make the user visually recognize the image.

使用者の右眼REには、ハーフミラー261Aで反射した画像光Lと、調光板20Aを透過した外光OLとが入射する。左眼LEには、ハーフミラー262Aで反射した画像光Lと、調光板20Aを透過した外光OLとが入射する。このように、HMD100は、内部で処理した画像の画像光Lと外光OLとを重ねて使用者の眼に入射させ、使用者にとっては、調光板20Aを透かして外景が見え、この外景に重ねて、画像光Lによる画像が視認される。このように、HMD100は、シースルー型の表示装置として機能する。   The image light L reflected by the half mirror 261A and the external light OL transmitted through the light control plate 20A are incident on the right eye RE of the user. The image light L reflected by the half mirror 262A and the external light OL transmitted through the light control plate 20A are incident on the left eye LE. In this way, the HMD 100 superimposes the image light L of the internally processed image and the external light OL on the user's eyes and allows the user to see the external scene through the light control plate 20A. The image by the image light L is visually recognized. As described above, the HMD 100 functions as a see-through display device.

なお、左投写光学系252と左導光板262とを総称して「左導光部」とも呼び、右投写光学系251と右導光板261とを総称して「右導光部」と呼ぶ。右導光部及び左導光部の構成は上記の例に限定されず、画像光を用いて使用者の眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いても良いし、半透過反射膜を用いても良い。   The left projection optical system 252 and the left light guide plate 262 are collectively referred to as “left light guide unit”, and the right projection optical system 251 and the right light guide plate 261 are collectively referred to as “right light guide unit”. The configuration of the right light guide and the left light guide is not limited to the above example, and any method can be used as long as a virtual image is formed in front of the user's eyes using image light. It may be used, or a semi-transmissive reflective film may be used.

画像表示部20は、制御装置10に接続ケーブル40を介して接続する。接続ケーブル40はコネクター46を備え、コネクター46には、右イヤホン32、左イヤホン34及びマイク63を有するイヤホンマイクを接続できる。   The image display unit 20 is connected to the control device 10 via the connection cable 40. The connection cable 40 includes a connector 46, and an earphone microphone having a right earphone 32, a left earphone 34, and a microphone 63 can be connected to the connector 46.

マイク63は、例えば図1に示すように、マイク63の集音部が使用者の視線方向を向くように配置され、音声を集音して、音声信号を音声処理部187(図4)に出力する。マイク63は、例えばモノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであってもよいし、無指向性のマイクであってもよい。   For example, as shown in FIG. 1, the microphone 63 is arranged so that the sound collecting unit of the microphone 63 faces the user's line of sight, collects sound, and sends the sound signal to the sound processing unit 187 (FIG. 4). Output. For example, the microphone 63 may be a monaural microphone or a stereo microphone, may be a directional microphone, or may be an omnidirectional microphone.

接続ケーブル40は画像表示部20に対し固定的に接続され、制御装置10に対してはコネクター(図示略)に接離可能に接続される。制御装置10と画像表示部20とは、接続ケーブル40を介して各種信号、及び/又は各種データを送受信する。   The connection cable 40 is fixedly connected to the image display unit 20, and is connected to the control device 10 so as to be able to contact and separate from a connector (not shown). The control device 10 and the image display unit 20 transmit and receive various signals and / or various data via the connection cable 40.

制御装置10は、HMD100を制御する。制御装置10は、操作部111(図4)として、キー操作部11、LEDインジケーター12、トラックパッド14、上下キー15、切替スイッチ16、及び電源スイッチ18を備える。   The control device 10 controls the HMD 100. The control device 10 includes a key operation unit 11, an LED indicator 12, a track pad 14, an up / down key 15, a changeover switch 16, and a power switch 18 as an operation unit 111 (FIG. 4).

キー操作部11は、制御装置10が実行するオペレーティングシステム150(図4)の操作等を行うためのメニューキー、ホームキー、戻るキー等を備える。
LEDインジケーター12は、HMD100の動作状態に対応して点灯し、或いは点滅する。上下キー15は、右イヤホン32及び左イヤホン34から出力する音量の増減の指示入力や、画像表示部20の表示の明るさの増減の指示入力に利用される。切替スイッチ16は、上下キー15の操作に対応する入力を切り替えるスイッチである。電源スイッチ18は、HMD100の電源のオン/オフを切り替えるスイッチであり、例えばスライドスイッチで構成される。
The key operation unit 11 includes a menu key, a home key, a return key, and the like for operating the operating system 150 (FIG. 4) executed by the control device 10.
The LED indicator 12 lights up or flashes in accordance with the operating state of the HMD 100. The up / down key 15 is used to input an instruction to increase / decrease the volume output from the right earphone 32 and the left earphone 34 and to input an instruction to increase / decrease the display brightness of the image display unit 20. The changeover switch 16 is a switch for changing an input corresponding to the operation of the up / down key 15. The power switch 18 is a switch for switching on / off the power of the HMD 100, and is configured by a slide switch, for example.

トラックパッド14は、接触操作を検出する操作面を有し、操作面に対する操作に応じて操作信号を出力する。操作面における検出方式は限定されず、静電式、圧力検出式、光学式等を採用できる。   The track pad 14 has an operation surface for detecting a contact operation, and outputs an operation signal according to an operation on the operation surface. The detection method on the operation surface is not limited, and an electrostatic method, a pressure detection method, an optical method, or the like can be adopted.

図3は、画像表示部20の要部構成を示す図であり、(A)は画像表示部20を使用者の頭部側から見た要部斜視図、(B)はカメラ61の画角の説明図である。なお、図3(A)では接続ケーブル40の図示を省略する。   3A and 3B are diagrams illustrating a configuration of a main part of the image display unit 20, where FIG. 3A is a main part perspective view of the image display unit 20 viewed from the user's head side, and FIG. 3B is an angle of view of the camera 61. It is explanatory drawing of. Note that the connection cable 40 is not shown in FIG.

図3(A)は、画像表示部20の使用者の頭部に接する側、言い換えれば使用者の右眼RE及び左眼LEに見える側である。別の言い方をすれば、右光学像表示部26及び左光学像表示部28の裏側が見えている。
図3(A)では、使用者の右眼REに画像光を照射するハーフミラー261A、及び、左眼LEに画像光を照射するハーフミラー262Aが、略四角形の領域として見える。また、ハーフミラー261A、262Aを含む右光学像表示部26及び左光学像表示部28の全体が、上述したように外光を透過する。このため、使用者には、右光学像表示部26及び左光学像表示部28の全体を透過して外景が視認され、ハーフミラー261A、262Aの位置に矩形の表示画像が視認される。
FIG. 3A shows the side of the image display unit 20 in contact with the user's head, in other words, the side visible to the user's right eye RE and left eye LE. In other words, the back sides of the right optical image display unit 26 and the left optical image display unit 28 are visible.
In FIG. 3A, the half mirror 261A that irradiates the user's right eye RE with the image light and the half mirror 262A that irradiates the left eye LE with the image light appear as substantially rectangular areas. Further, the entire right optical image display unit 26 and left optical image display unit 28 including the half mirrors 261A and 262A transmit external light as described above. For this reason, the user sees the outside scene through the entire right optical image display unit 26 and left optical image display unit 28, and visually recognizes a rectangular display image at the positions of the half mirrors 261A and 262A.

カメラ61は、上記のように画像表示部20の前面の中央位置に配置され、使用者の両眼が向く方向、すなわち使用者にとって前方を撮像する。図3(B)は、カメラ61の位置を、使用者の右眼RE及び左眼LEとともに平面視で模式的に示す図である。カメラ61の画角(撮像範囲)をCで示す。なお、図3(B)には水平方向の画角Cを示すが、カメラ61の実際の画角は一般的なデジタルカメラと同様に上下方向にも拡がる。   The camera 61 is arranged at the center position on the front surface of the image display unit 20 as described above, and images the direction in which both eyes of the user face, that is, the front for the user. FIG. 3B is a diagram schematically showing the position of the camera 61 in plan view together with the user's right eye RE and left eye LE. An angle of view (imaging range) of the camera 61 is indicated by C. FIG. 3B shows a horizontal angle of view C, but the actual angle of view of the camera 61 extends in the vertical direction as in a general digital camera.

画角Cは、画像表示部20の中央位置の真正面方向を含む。例えば、図3(B)に示すように、画像表示部20の正面方向に対象物OBがある場合、対象物OBは画角Cに含まる。このため、カメラ61の撮像画像には対象物OBが写る。ここで、使用者が対象物OBを注視すると、使用者の視線は、図中符号RD、LDに示すように対象物OBに向けられる。一般に、人間の視野角は水平方向におよそ200度、垂直方向におよそ125度とされ、そのうち情報受容能力に優れる有効視野は水平方向に30度、垂直方向に20度程度である。さらに、人間が注視する注視点が迅速に安定して見える安定注視野は、水平方向に60〜90度、垂直方向に45度〜70度程度とされている。
従って、注視点が対象物OBである場合、視線RD、LDを中心として水平方向に30度、垂直方向に20度程度が有効視野であり、水平方向に60〜90度、垂直方向に45度〜70度程度が安定注視野であり、水平方向に約200度、垂直方向に約125度が視野角となる。
The angle of view C includes the direction directly in front of the center position of the image display unit 20. For example, as shown in FIG. 3B, when the object OB is in the front direction of the image display unit 20, the object OB is included in the angle of view C. For this reason, the object OB appears in the captured image of the camera 61. Here, when the user gazes at the object OB, the user's line of sight is directed toward the object OB as indicated by reference signs RD and LD in the figure. In general, the viewing angle of a human is about 200 degrees in the horizontal direction and about 125 degrees in the vertical direction. Among them, the effective field of view with excellent information receiving ability is about 30 degrees in the horizontal direction and about 20 degrees in the vertical direction. Furthermore, the stable gaze field in which the gaze point that the human gazes at appears to be quickly and stably is about 60 to 90 degrees in the horizontal direction and about 45 to 70 degrees in the vertical direction.
Therefore, when the gazing point is the object OB, the effective visual field is about 30 degrees in the horizontal direction and about 20 degrees in the vertical direction around the lines of sight RD and LD, 60 to 90 degrees in the horizontal direction, and 45 degrees in the vertical direction. A stable viewing field of about ˜70 degrees is about 200 degrees in the horizontal direction and about 125 degrees in the vertical direction.

また、HMD100を装着する使用者が画像表示部20を透過して右光学像表示部26及び左光学像表示部28を透過して視認する実際の視野を、実視野(FOV:Field Of View)と呼ぶ。図1及び図2に示す本実施形態の構成で、実視野は、右光学像表示部26及び左光学像表示部28を透過して使用者が視認する実際の視野に相当する。実視野は、図3(B)を参照して説明した視野角及び安定注視野より狭いが、有効視野より広い。
カメラ61は、使用者の視野よりも広い範囲を撮像可能な画角を有することが好ましく、具体的には、画角Cが、少なくとも使用者の有効視野よりも広いことが好ましい。また、画角Cが、使用者の実視野よりも広いことが、より好ましい。さらに好ましくは、画角Cが、使用者の安定注視野よりも広く、最も好ましくは、画角Cが使用者の視野角よりも広い。
In addition, an actual field of view (FOV: Field Of View) is the actual field of view that the user wearing the HMD 100 sees through the image display unit 20 and the right optical image display unit 26 and the left optical image display unit 28. Call it. In the configuration of the present embodiment shown in FIGS. 1 and 2, the real field of view corresponds to an actual field of view that the user sees through the right optical image display unit 26 and the left optical image display unit 28. The real field of view is narrower than the viewing angle and stable focus field described with reference to FIG.
The camera 61 preferably has an angle of view that can capture a wider range than the field of view of the user. Specifically, the angle of view C is preferably at least wider than the effective field of view of the user. Further, it is more preferable that the angle of view C is wider than the actual field of view of the user. More preferably, the angle of view C is wider than the stable viewing field of the user, and most preferably, the angle of view C is wider than the viewing angle of the user.

カメラ61が、撮像レンズとして、いわゆる広角レンズを備え、広い画角を撮像できる構成としてもよい。広角レンズには、超広角レンズ、準広角レンズと呼ばれるレンズを含んでもよいし、単焦点レンズであってもズームレンズであってもよく、複数のレンズからなるレンズ群をカメラ61が備える構成であってもよい。   The camera 61 may include a so-called wide-angle lens as an imaging lens so that a wide angle of view can be captured. The wide-angle lens may include a lens called a super-wide-angle lens or a quasi-wide-angle lens, may be a single focus lens or a zoom lens, and the camera 61 includes a lens group including a plurality of lenses. There may be.

図4は、HMD100を構成する各部の機能ブロック図である。
HMD100は、コンテンツの供給元となる種々の外部機器OAを接続するインターフェイス114を備える。インターフェイス114は、例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等の有線接続に対応したインターフェイスを用いることができ、無線通信インターフェイスで構成してもよい。外部機器OAは、HMD100に画像を供給する画像供給装置であり、パーソナルコンピューター(PC)、携帯電話端末、携帯型ゲーム機等が用いられる。
FIG. 4 is a functional block diagram of each part constituting the HMD 100.
The HMD 100 includes an interface 114 for connecting various external devices OA that are content supply sources. For example, an interface corresponding to a wired connection such as a USB interface, a micro USB interface, a memory card interface, or the like may be used as the interface 114, and the interface 114 may be configured by a wireless communication interface. The external device OA is an image supply device that supplies an image to the HMD 100, and a personal computer (PC), a mobile phone terminal, a portable game machine, or the like is used.

制御装置10は、制御部140、入力情報取得部110、及び、記憶部120を有する。
入力情報取得部110は、操作部111に接続される。操作部111は、上述したようにキー操作部11、トラックパッド14、上下キー15及び切替スイッチ16を含む。入力情報取得部110は、操作部111から入力される信号に基づき、使用者の操作を受け付ける。入力情報取得部110は、操作部111における操作内容を示すデータを制御部140に出力する。また、入力情報取得部110は、制御部140の制御に従って、LEDインジケーター12(図1)の点灯、点滅、消灯を制御してもよい。
制御装置10は、電源部130を備え、制御装置10及び画像表示部20の各部に電源部130から電源を供給する。電源部130からの電源供給状態は、電源スイッチ18(図1)の操作、及び、制御部140が実行するプログラムの実行状況に応じて、制御部140が制御する。
The control device 10 includes a control unit 140, an input information acquisition unit 110, and a storage unit 120.
The input information acquisition unit 110 is connected to the operation unit 111. The operation unit 111 includes the key operation unit 11, the track pad 14, the up / down key 15, and the changeover switch 16 as described above. The input information acquisition unit 110 receives a user operation based on a signal input from the operation unit 111. The input information acquisition unit 110 outputs data indicating the operation content in the operation unit 111 to the control unit 140. Further, the input information acquisition unit 110 may control lighting, blinking, and extinguishing of the LED indicator 12 (FIG. 1) according to the control of the control unit 140.
The control device 10 includes a power supply unit 130 and supplies power from the power supply unit 130 to each unit of the control device 10 and the image display unit 20. The power supply state from the power supply unit 130 is controlled by the control unit 140 according to the operation of the power switch 18 (FIG. 1) and the execution status of the program executed by the control unit 140.

記憶部120は、不揮発性の記憶装置であって、種々のコンピュータープログラム、及び、これらのプログラムに係るデータを記憶する。このプログラムには、本発明の制御方法を実現するためのプログラムを含む。
記憶部120は、画像表示部20に表示する静止画像や動画像のデータを記憶しても良い。また、記憶部120は、設定データ121を記憶する。設定データ121は、制御部140が使用する各種の設定値を含む。設定データ121が含む設定値は、予め操作部111の操作で入力された値であってもよいし、通信部117またはインターフェイス114を介して外部機器OAまたは他の装置(図示略)から設定値を受信して記憶してもよい。
The storage unit 120 is a nonvolatile storage device, and stores various computer programs and data related to these programs. This program includes a program for realizing the control method of the present invention.
The storage unit 120 may store still image data or moving image data to be displayed on the image display unit 20. In addition, the storage unit 120 stores setting data 121. The setting data 121 includes various setting values used by the control unit 140. The setting value included in the setting data 121 may be a value input in advance by the operation of the operation unit 111, or may be a setting value from an external device OA or another device (not shown) via the communication unit 117 or the interface 114. May be received and stored.

また、記憶部120は、コンテンツデータ122、及び、表示設定データ123を記憶する。コンテンツデータ122は、静止画像、動画像など画像表示部20が制御部140の制御に従って表示する画像の画像データを含む。コンテンツデータ122は音声データを含んでもよい。また、コンテンツデータ122は複数の画像の画像データを含んでもよく、この場合、これら複数の画像は同時に画像表示部20に表示される画像に限定されない。表示設定データ123については後述する。   The storage unit 120 also stores content data 122 and display setting data 123. The content data 122 includes image data of an image displayed by the image display unit 20 under the control of the control unit 140, such as a still image or a moving image. The content data 122 may include audio data. The content data 122 may include image data of a plurality of images. In this case, the plurality of images are not limited to images displayed on the image display unit 20 at the same time. The display setting data 123 will be described later.

制御部140には、GPS115、及び通信部117が接続される。
GPS115は、アンテナ(図示略)を備え、GPS(Global Positioning System)信号を受信し、制御装置10の現在位置を算出する。GPS115は、GPS信号に基づいて求めた現在位置や現在時刻を制御部140に出力する。また、GPS115はGPS信号に含まれる情報に基づいて現在時刻を取得し、制御部140が計時する時刻を修正させる機能を備えてもよい。
A GPS 115 and a communication unit 117 are connected to the control unit 140.
The GPS 115 includes an antenna (not shown), receives a GPS (Global Positioning System) signal, and calculates the current position of the control device 10. The GPS 115 outputs the current position and the current time obtained based on the GPS signal to the control unit 140. The GPS 115 may have a function of acquiring the current time based on information included in the GPS signal and correcting the time counted by the control unit 140.

通信部117は、無線LAN(WiFi(登録商標))、Miracast(登録商標)、Bluetooth(登録商標)等の規格に準じた無線データ通信を実行する。
外部機器OAが、通信部117に無線接続された場合、制御部140は、コンテンツデータを通信部117より取得して、画像表示部20に画像を表示させる。一方、外部機器OAが、インターフェイス114に有線接続された場合、制御部140は、コンテンツデータをインターフェイス114より取得して、画像表示部20に画像を表示させる。通信部117及びインターフェイス114は、外部機器OAからコンテンツデータを取得するデータ取得部DAとして機能する。
The communication unit 117 executes wireless data communication conforming to a standard such as a wireless LAN (WiFi (registered trademark)), Miracast (registered trademark), or Bluetooth (registered trademark).
When the external device OA is wirelessly connected to the communication unit 117, the control unit 140 acquires content data from the communication unit 117 and causes the image display unit 20 to display an image. On the other hand, when the external device OA is wired to the interface 114, the control unit 140 acquires content data from the interface 114 and causes the image display unit 20 to display an image. The communication unit 117 and the interface 114 function as a data acquisition unit DA that acquires content data from the external device OA.

制御部140は、プログラムを実行するCPU(図示略)、CPUが実行するプログラムやデータを一時的に格納するRAM(図示略)、及び、CPUが実行する基本制御プログラムやデータを不揮発的に記憶するROM(図示略)を備える。制御部140は、記憶部120が記憶するコンピュータープログラムを読み出して実行し、オペレーティングシステム(OS)150、画像処理部160、撮像制御部161、動き検出部163、AR表示制御部164、通信制御部170、音声処理部187、及び、表示制御部190として機能する。   The control unit 140 stores a CPU (not shown) for executing a program, a RAM (not shown) for temporarily storing a program and data executed by the CPU, and a basic control program and data executed by the CPU in a nonvolatile manner. ROM (not shown). The control unit 140 reads and executes a computer program stored in the storage unit 120, and operates an operating system (OS) 150, an image processing unit 160, an imaging control unit 161, a motion detection unit 163, an AR display control unit 164, and a communication control unit. 170, functions as a sound processing unit 187 and a display control unit 190.

画像処理部160は、画像表示部20により表示するコンテンツの画像データに基づいて、右表示駆動部22及び左表示駆動部24に送信する信号を生成する。画像処理部160が生成する信号は、垂直同期信号、水平同期信号、クロック信号、アナログ画像信号等であってもよい。
また、画像処理部160は、必要に応じて、画像データの解像度を右表示駆動部22及び左表示駆動部24に適した解像度に変換する解像度変換処理を行ってもよい。また、画像処理部160は、画像データの輝度や彩度を調整する画像調整処理、3D画像データから2D画像データを作成し、或いは2D画像データから3D画像データを生成する2D/3D変換処理等を実行してもよい。画像処理部160は、これらの画像処理を実行した場合、処理後の画像データに基づき画像を表示するための信号を生成して、接続ケーブル40を介して画像表示部20に送信する。
The image processing unit 160 generates a signal to be transmitted to the right display driving unit 22 and the left display driving unit 24 based on the image data of the content displayed by the image display unit 20. The signal generated by the image processing unit 160 may be a vertical synchronization signal, a horizontal synchronization signal, a clock signal, an analog image signal, or the like.
Further, the image processing unit 160 may perform resolution conversion processing for converting the resolution of the image data to a resolution suitable for the right display driving unit 22 and the left display driving unit 24 as necessary. The image processing unit 160 also performs image adjustment processing for adjusting the brightness and saturation of image data, 2D image data is created from 3D image data, or 2D / 3D conversion processing is performed to generate 3D image data from 2D image data. May be executed. When these image processes are executed, the image processing unit 160 generates a signal for displaying an image based on the processed image data, and transmits the signal to the image display unit 20 via the connection cable 40.

表示制御部190は、右表示駆動部22及び左表示駆動部24を制御する制御信号を生成し、この制御信号により、右表示駆動部22及び左表示駆動部24のそれぞれによる画像光の生成及び射出を制御する。具体的には、右LCD制御部211による右LCD241の駆動ON/OFF、右バックライト制御部201による右バックライト221の駆動ON/OFFを制御する。また、表示制御部190は、左LCD制御部212による左LCD242の駆動ON/OFF、左バックライト制御部202による左バックライト222の駆動ON/OFFを制御する。   The display control unit 190 generates a control signal for controlling the right display drive unit 22 and the left display drive unit 24, and generates and generates image light by each of the right display drive unit 22 and the left display drive unit 24 based on the control signal. Control injection. Specifically, the right LCD 241 is controlled to be turned on / off by the right LCD control unit 211, and the right backlight 221 is turned on / off by the right backlight control unit 201. Further, the display control unit 190 controls the driving of the left LCD 242 by the left LCD control unit 212 and the driving of the left backlight 222 by the left backlight control unit 202.

撮像制御部161は、カメラ61を制御して撮像を実行させ、撮像画像データを生成し、記憶部120に一時的に記憶する。また、カメラ61が撮像画像データを生成する回路を含むカメラユニットとして構成される場合、撮像制御部161は撮像画像データをカメラ61から取得して、記憶部120に一時的に記憶する。   The imaging control unit 161 controls the camera 61 to execute imaging, generates captured image data, and temporarily stores the captured image data in the storage unit 120. When the camera 61 is configured as a camera unit including a circuit that generates captured image data, the imaging control unit 161 acquires captured image data from the camera 61 and temporarily stores the captured image data in the storage unit 120.

音声処理部187は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、右イヤホン32及び左イヤホン34に出力する。また、音声処理部187は、マイク63により集音される音声を取得してディジタル音声データに変換する。音声処理部187は、ディジタル音声データに対して予め設定された処理を行ってもよい。   The audio processing unit 187 acquires an audio signal included in the content, amplifies the acquired audio signal, and outputs the amplified audio signal to the right earphone 32 and the left earphone 34. In addition, the sound processing unit 187 acquires sound collected by the microphone 63 and converts it into digital sound data. The voice processing unit 187 may perform a preset process on the digital voice data.

画像表示部20は、カメラ61を備える。また、画像表示部20は、インターフェイス25、右表示駆動部22、左表示駆動部24、右光学像表示部26としての右導光板261、左光学像表示部28としての左導光板262、及び、9軸センサー66を備える。   The image display unit 20 includes a camera 61. The image display unit 20 includes an interface 25, a right display drive unit 22, a left display drive unit 24, a right light guide plate 261 as the right optical image display unit 26, a left light guide plate 262 as the left optical image display unit 28, and , A nine-axis sensor 66 is provided.

9軸センサー66は、加速度(3軸)、角速度(3軸)、地磁気(3軸)を検出するモーションセンサー(慣性センサー)である。9軸センサー66は、複数のセンサーを統合したセンサーユニットであってもよい。制御部140は、画像表示部20が使用者の頭部に装着された状態で、9軸センサー66の検出値に基づいて使用者の頭部の動きを検出できる。   The nine-axis sensor 66 is a motion sensor (inertial sensor) that detects acceleration (three axes), angular velocity (three axes), and geomagnetism (three axes). The 9-axis sensor 66 may be a sensor unit in which a plurality of sensors are integrated. The control unit 140 can detect the movement of the user's head based on the detection value of the 9-axis sensor 66 in a state where the image display unit 20 is mounted on the user's head.

インターフェイス25は、接続ケーブル40により制御装置10に接続され、制御装置10が送信する各種データ及び信号を、右表示駆動部22及び左表示駆動部24に出力する。また、インターフェイス25は、表示制御部190から送信される制御信号を、対応する右バックライト制御部201又は左バックライト制御部202に出力する。
また、インターフェイス25は、カメラ61、及び、9軸センサー66を制御装置10に接続する。カメラ61の撮像データ、9軸センサー66による加速度(3軸)、角速度(3軸)、及び、地磁気(3軸)の検出結果は、インターフェイス25を介して制御部140に送られる。
The interface 25 is connected to the control device 10 by a connection cable 40 and outputs various data and signals transmitted by the control device 10 to the right display drive unit 22 and the left display drive unit 24. Further, the interface 25 outputs a control signal transmitted from the display control unit 190 to the corresponding right backlight control unit 201 or left backlight control unit 202.
The interface 25 connects the camera 61 and the 9-axis sensor 66 to the control device 10. The imaging data of the camera 61, the acceleration (three axes), the angular velocity (three axes), and the geomagnetism (three axes) detected by the nine-axis sensor 66 are sent to the control unit 140 via the interface 25.

右表示駆動部22は、上述した右バックライト221、右LCD241、及び右投写光学系251を備える。また、右表示駆動部22は、右バックライト(BL)221を制御する右バックライト(BL)制御部201、及び、右LCD241を駆動する右LCD制御部211を備える。
右バックライト制御部201は、表示制御部190が送信する制御信号に従って、右バックライト221を駆動する。右LCD制御部211は、画像処理部160が送信する信号及び表示制御部190が送信する信号に基づいて、右LCD241を駆動する。
The right display drive unit 22 includes the right backlight 221, the right LCD 241, and the right projection optical system 251 described above. The right display drive unit 22 includes a right backlight (BL) control unit 201 that controls the right backlight (BL) 221 and a right LCD control unit 211 that drives the right LCD 241.
The right backlight control unit 201 drives the right backlight 221 in accordance with a control signal transmitted from the display control unit 190. The right LCD control unit 211 drives the right LCD 241 based on the signal transmitted from the image processing unit 160 and the signal transmitted from the display control unit 190.

左表示駆動部24は、右表示駆動部22と同様の構成を有する。左表示駆動部24は、上述した左バックライト222、左LCD242、及び左投写光学系252を備える。また、左表示駆動部24は、左バックライト222を駆動する左バックライト制御部202、及び、左LCD242を駆動する左LCD制御部212を備える。   The left display drive unit 24 has the same configuration as the right display drive unit 22. The left display driving unit 24 includes the left backlight 222, the left LCD 242 and the left projection optical system 252 described above. The left display drive unit 24 includes a left backlight control unit 202 that drives the left backlight 222 and a left LCD control unit 212 that drives the left LCD 242.

左バックライト制御部202は、表示制御部190が送信する制御信号に従って、左バックライト222を駆動する。左LCD制御部212は、画像処理部160が送信する信号及び表示制御部190が送信する信号に基づいて、左LCD242を駆動する。
なお、右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241とを総称して、右の「画像光生成部」とも呼ぶ。同様に、左バックライト制御部202と、左LCD制御部212と、左バックライト222と、左LCD242とを総称して、左の「画像光生成部」とも呼ぶ。
The left backlight control unit 202 drives the left backlight 222 according to the control signal transmitted from the display control unit 190. The left LCD control unit 212 drives the left LCD 242 based on the signal transmitted from the image processing unit 160 and the signal transmitted from the display control unit 190.
The right backlight control unit 201, the right LCD control unit 211, the right backlight 221 and the right LCD 241 are collectively referred to as a right “image light generation unit”. Similarly, the left backlight control unit 202, the left LCD control unit 212, the left backlight 222, and the left LCD 242 are collectively referred to as a left “image light generation unit”.

HMD100は、使用者に、視差の異なる複数の画像を視認させ、これら複数の画像のうち少なくとも一部が、異なる運動刺激を与える構成とする。使用者に視認させる画像は、画像表示部20が表示する画像、及び、画像表示部20を透過する外光により視認される実空間を含む。言い換えれば、HMD100は、画像表示部20が表示する画像と、画像表示部20を透過する外光により視認される実空間と、の少なくともいずれかを含む複数の領域を使用者に視認させる。この領域のうち一つを、第1領域とし、もう一つを第2領域とする。使用者は第1、第2領域以外の領域を視認してもよく、領域の数について上限はない。   The HMD 100 is configured to allow a user to visually recognize a plurality of images having different parallaxes, and at least some of the plurality of images give different motion stimuli. The image visually recognized by the user includes an image displayed by the image display unit 20 and a real space visually recognized by external light transmitted through the image display unit 20. In other words, the HMD 100 causes the user to visually recognize a plurality of areas including at least one of an image displayed by the image display unit 20 and a real space visually recognized by external light transmitted through the image display unit 20. One of the areas is a first area and the other is a second area. The user may visually recognize areas other than the first and second areas, and there is no upper limit on the number of areas.

ここで、運動刺激とは、使用者に対して、動きに関する感覚を想起させる刺激をいい、より詳細には、使用者自身が動いていると感じさせる運動刺激、及び使用者自身が静止していると感じさせる静止刺激を含む。   Here, the exercise stimulus refers to a stimulus that reminds the user of a sense of movement, and more specifically, an exercise stimulus that makes the user feel that he / she is moving, and the user himself / herself is stationary. Includes a static stimulus that makes you feel like you are.

第1領域は、使用者に対し、運動刺激を与える領域であり、第2領域は静止刺激を与える領域である。画像表示部20が表示する画像を第1領域とする場合、制御部140は画像表示部20により、使用者の視線に対して相対的に移動する画像を表示させる。第1領域が、外光により視認される実空間である場合もあり得る。すなわち、実空間に対して使用者の視野が相対的に移動する場合であり、具体的には、使用者が動いている場合である。また、画像表示部20が表示する画像を第2領域とする場合、制御部140は画像表示部20により、使用者の視野に対して相対的に移動しない、或いは、単位時間あたりの移動量、言い換えれば移動の速度が所定範囲内となるように、画像を表示する。第2領域が、外光により視認される実空間である場合もあり得る。すなわち、実空間に対して使用者の視線が相対的に移動しないか、移動の速度が所定範囲内である場合である。具体的には、使用者が動いていない場合である。   The first region is a region that gives a motion stimulus to the user, and the second region is a region that gives a static stimulus. When the image displayed by the image display unit 20 is the first region, the control unit 140 causes the image display unit 20 to display an image that moves relative to the user's line of sight. The first region may be a real space that is visually recognized by external light. That is, this is a case where the visual field of the user moves relative to the real space, and specifically, a case where the user is moving. Further, when the image displayed by the image display unit 20 is the second region, the control unit 140 does not move relative to the user's visual field by the image display unit 20, or the amount of movement per unit time, In other words, the image is displayed so that the moving speed is within a predetermined range. The second region may be a real space that is visually recognized by external light. That is, this is a case where the user's line of sight does not move relative to the real space or the movement speed is within a predetermined range. Specifically, this is a case where the user is not moving.

視覚による運動刺激の作用を生じる場合、第1領域と第2領域とは、使用者が知覚する使用者からの距離が異なる。使用者の右眼RE及び左眼LEから第1領域までの距離と、右眼RE及び左眼LEから第2領域までの距離とが、異なる距離として知覚される。第1、第2領域が実空間の像である場合、使用者が知覚する距離は、使用者から実空間までの距離である。第1、第2領域が画像表示部20により表示される画像である場合、使用者が知覚する距離は、画像の左右の視差に対応する。制御部140が、左右の視差が大きい画像を画像表示部20により表示させる場合、使用者は表示画像を近接した位置に知覚し、左右の視差が小さい画像を画像表示部20により表示させる場合は、使用者は表示画像を遠方に知覚する。   When the action of the visual motion stimulus is generated, the distance from the user perceived by the user is different between the first area and the second area. The distance from the user's right eye RE and left eye LE to the first area and the distance from the right eye RE and left eye LE to the second area are perceived as different distances. When the first and second regions are real space images, the distance perceived by the user is the distance from the user to the real space. When the first and second regions are images displayed by the image display unit 20, the distance perceived by the user corresponds to the left and right parallax of the image. When the control unit 140 causes the image display unit 20 to display an image with large left and right parallaxes, the user perceives the display image at a close position and causes the image display unit 20 to display an image with small left and right parallaxes. The user perceives the displayed image in the distance.

図5は、視覚による運動刺激の作用の説明図であり、図5(A)は前景FVと背景RVとが視認される例を示し、図5(B)は広い視野角で画像を視認させる例を示し、図5(C)は通常の視野角で画像を視認させる例を示す。
図5(A)に示す例では、使用者が前景FVと背景RVとを視認する。前景FVは、画像表示部20が表示する画像であってもよいし、実空間に存在する対象物OBであってもよい。また、背景RVは画像表示部20が表示する画像であってもよいし、実空間の外景(景色)であってもよい。
FIG. 5 is an explanatory diagram of the action of visual motion stimulation. FIG. 5A shows an example in which the foreground FV and the background RV are visually recognized, and FIG. 5B allows the image to be viewed with a wide viewing angle. An example is shown, and FIG. 5C shows an example in which an image is visually recognized at a normal viewing angle.
In the example shown in FIG. 5A, the user visually recognizes the foreground FV and the background RV. The foreground FV may be an image displayed by the image display unit 20 or may be an object OB existing in real space. Further, the background RV may be an image displayed by the image display unit 20, or may be an outside scene (scenery) in real space.

図5(A)の例において、背景RVが運動刺激を与える第1領域であり、前景FVが静止刺激を与える第2領域である場合、使用者は、自身が運動している感覚(自己運動感覚)を知覚する。つまり、使用者に対して運動刺激が与えられる。
また、図5(A)の例において、前景FVが運動刺激を与える第1領域であり、背景RVが静止刺激を与える第2領域である場合、使用者は、自身が運動していない(止まっている)と知覚する。つまり、使用者に対して、静止を知覚させる運動刺激が与えられる。
使用者に与えられる運動刺激が、実際の使用者の身体の動きとは異なる場合、使用者が視覚によって感じる運動感覚は、一種の錯覚に相当する。
In the example of FIG. 5A, when the background RV is a first region that gives a motion stimulus and the foreground FV is a second region that gives a static stimulus, the user senses that he is moving (self-motion). Perception. That is, exercise stimulation is given to the user.
Further, in the example of FIG. 5A, when the foreground FV is the first region that gives the motion stimulus and the background RV is the second region that gives the static stimulus, the user is not moving (stops). Perceived). That is, a motion stimulus that gives the user a perception of stillness is given.
When the movement stimulus given to the user is different from the actual movement of the user's body, the movement sensation that the user feels visually corresponds to a kind of illusion.

第1領域の運動刺激は使用者の視野に対する動きであり、使用者の視線に対する動きとは限らない。第1領域は、視線RD、LDと第1領域との交点において変化しなくても、右眼RE及び左眼LEの視野(視界)において像の動きがある場合には、使用者に運動刺激が与えられる。視線RD、LDと第1領域との交点において像の動きがある場合は、右眼RE及び左眼LEの視野において像の動きがあるので、使用者に運動刺激が与えられる。
つまり、第1領域の像が運動刺激を与える場合とは、少なくとも使用者の視野の一部または全部で、視界に対する像の相対的な位置が変化する場合、或いは視界に対して相対的に像が動く場合である。
The motion stimulation of the first region is a movement with respect to the user's visual field, and is not necessarily a movement with respect to the user's line of sight. Even if the first region does not change at the intersection of the lines of sight RD and LD and the first region, if the image moves in the field of view (field of view) of the right eye RE and the left eye LE, the user is subjected to a motion stimulus. Is given. When there is an image movement at the intersection of the lines of sight RD and LD and the first region, the image movement is present in the field of view of the right eye RE and the left eye LE, so that the user is given a motion stimulus.
That is, the case where the image of the first region gives a motion stimulus is the case where the relative position of the image with respect to the field of view changes at least in part or all of the user's field of view, or the image with respect to the field of view. Is moving.

第2領域の像が静止刺激を与える場合とは、少なくとも使用者の視野のうち所定割合以上で、視界に対する像の相対的な位置の変化、或いは視界に対する像の相対的な動きが、所定範囲内である場合である。所定割合は、例えば、視界の半分以上であり、好ましくは70%以上である。例えば、前景FVが運動刺激を与える第1領域であり、背景RVが静止刺激を与える第2領域である場合に、使用者の視野のうち第2領域が占める割合が所定割合以上であると、静止刺激がより確実に与えられ、第1領域の動きによる運動刺激が顕著に感じられる。また、動きの所定範囲は、像の単位時間あたりの動きの量すなわち動きの速度が、設定された上限以下であることに相当する。
すなわち、HMD100によって、前景FVと背景RVとが視認されるように表示を行う場合であって、前景FVが運動刺激を与える第1領域であり、背景RVが静止刺激を与える第2領域である場合を想定する。この場合、使用者の視野のうち第2領域である背景RVが占める割合が、所定割合以上であることが好ましい。この場合、HMD100を装着する使用者に、静止刺激を誘起しやすい表示を行うことができる。この場合、使用者は、HMD100を装着して前景FVと背景RVとを視認し、この使用者に対し、例えば、使用者自身は静止していて、前景FVの動きを見ているような刺激を感じさせる表示演出を行える。
一方、前景FVと背景RVとが使用者に視認される状態で、前景FVを第2領域として、前景FVによって静止刺激を与える場合には、使用者の視野に占める前景FV(第2領域)の割合を、所定割合以下としてもよい。この場合、使用者の視野に占める背景RVの割合を一定割合以上に確保できる。従って、背景RV(第1領域)による運動刺激を確保しやすい。この場合の所定割合は、例えば、視界の80%以下としてもよく、より好ましくは70%以下、さらに好ましくは50%以下とすることができる。
すなわち、HMD100によって、前景FVと背景RVとが視認されるように表示を行う場合であって、背景RVが運動刺激を与える第1領域であり、前景FVが静止刺激を与える第2領域である場合を想定する。この場合、使用者の視野のうち第2領域である前景FVが占める割合が、所定割合以下であることが好ましい。この場合、HMD100を装着する使用者に、静止刺激を誘起しやすい表示を行うことができる。この場合、使用者は、HMD100を装着して前景FVと背景RVとを視認し、この使用者に対し、例えば、使用者自身は静止していて、背景RVの動きを見ているような刺激を感じさせる表示演出を行える。
これらの場合において、前景FVが、画像表示部20により表示される画像であり、背景RVを、画像表示部20を透過する外光により使用者が視認する構成であってもよい。また、背景RVが、画像表示部20により表示される画像であり、前景FVを、画像表示部20を透過する外光により使用者が視認する構成であってもよい。
When the image of the second region gives a static stimulus, the change in the relative position of the image with respect to the field of view or the relative movement of the image with respect to the field of view is at least a predetermined range of the visual field of the user. This is the case. The predetermined ratio is, for example, half or more of the field of view, and preferably 70% or more. For example, when the foreground FV is a first region that gives a motion stimulus and the background RV is a second region that gives a static stimulus, the proportion of the user's visual field occupied by the second region is a predetermined rate or more. A stationary stimulus is more reliably applied, and a motion stimulus due to the movement of the first region is noticeable. The predetermined range of motion corresponds to the amount of motion per unit time of the image, that is, the speed of motion being equal to or less than a set upper limit.
That is, when the HMD 100 performs display so that the foreground FV and the background RV are visually recognized, the foreground FV is a first region that gives a motion stimulus, and the background RV is a second region that gives a static stimulus. Assume a case. In this case, it is preferable that the ratio of the background RV, which is the second region, in the user's visual field is equal to or greater than a predetermined ratio. In this case, it is possible to perform a display that easily induces a static stimulus to the user wearing the HMD 100. In this case, the user wears the HMD 100 and visually recognizes the foreground FV and the background RV. For example, the user feels that the user is stationary and watching the movement of the foreground FV. Can be displayed.
On the other hand, when the foreground FV and the background RV are visually recognized by the user and the foreground FV is used as the second area and the foreground FV gives a static stimulus, the foreground FV occupying the user's field of view (second area) The ratio may be a predetermined ratio or less. In this case, the ratio of the background RV occupying the user's field of view can be secured at a certain ratio or more. Therefore, it is easy to ensure exercise stimulation by the background RV (first region). The predetermined ratio in this case may be, for example, 80% or less of the field of view, more preferably 70% or less, and still more preferably 50% or less.
That is, when the HMD 100 performs display so that the foreground FV and the background RV are visually recognized, the background RV is a first region that gives a motion stimulus, and the foreground FV is a second region that gives a static stimulus. Assume a case. In this case, it is preferable that the proportion of the foreground FV that is the second region in the user's visual field is equal to or less than a predetermined proportion. In this case, it is possible to perform a display that easily induces a static stimulus to the user wearing the HMD 100. In this case, the user wears the HMD 100 and visually recognizes the foreground FV and the background RV. For example, the user feels that the user is stationary and watching the movement of the background RV. Can be displayed.
In these cases, the foreground FV may be an image displayed by the image display unit 20, and the background RV may be configured to be visually recognized by the user with external light transmitted through the image display unit 20. In addition, the background RV may be an image displayed by the image display unit 20, and the foreground FV may be configured to be visually recognized by the user with external light transmitted through the image display unit 20.

また、第1領域と第2領域との両方に動きがある場合に、第1領域の単位時間あたりの動きの量(速度)が第2領域よりも大きい場合は、第1領域が運動刺激を与え、第2領域が静止刺激を与えることができる。この場合、第1領域と第2領域のそれぞれの単位時間あたりの動きの量(速度)の差が、所定値以上であることが好ましい。   In addition, when there is movement in both the first area and the second area, if the amount of movement (speed) per unit time of the first area is larger than that in the second area, the first area is subjected to exercise stimulation. The second region can provide a static stimulus. In this case, it is preferable that the difference in the amount of movement (speed) per unit time between the first area and the second area is a predetermined value or more.

制御部140は、画像表示部20によって、前景FVに相当する画像と背景RVに相当する画像とを表示する場合、前景FVと背景RVの動きを制御することにより、使用者に、視覚による運動刺激を与えることができる。   When the image display unit 20 displays an image corresponding to the foreground FV and an image corresponding to the background RV by the image display unit 20, the control unit 140 controls the movement of the foreground FV and the background RV to allow the user to visually move. Can give irritation.

図6は、HMD100の表示例を示す図であり、図6(A)はゲーム画像GV及び背景画像BVを表示する例を示し、図6(B)はゲーム画像GVを表示する例を示し、図6(C)は背景画像BVを表示する例を示す。   6 is a diagram illustrating a display example of the HMD 100. FIG. 6A illustrates an example in which the game image GV and the background image BV are displayed. FIG. 6B illustrates an example in which the game image GV is displayed. FIG. 6C shows an example of displaying the background image BV.

図6(A)の例は、制御部140の制御により、画像表示部20が、ゲーム画像GVを前景FV(図5(A))として表示し、背景画像BVを背景RV(図5(A))として表示する例である。
この例では、制御部140がゲームプログラムを実行し、制御装置10に対する使用者の操作に応じてゲームを進行させ、ゲームの進行に対応するゲーム画像GVを表示する。
また、制御部140は、ゲーム画像GVよりも遠方に視認される背景画像BVを表示する。背景画像BVは上述したように背景用の画像データに基づき表示される画像である。より臨場感を向上させるため、制御部140は、実空間に基づき背景画像BVを表示してもよい。この場合、制御部140は、カメラ61の撮像画像を取得することにより、使用者の視線方向の実空間の外景画像を取得する。制御部140は、カメラ61の撮像画像に基づき視差を設ける処理を行って、背景画像BVの画像データを生成して画像表示部20により表示させる。
In the example of FIG. 6A, the image display unit 20 displays the game image GV as the foreground FV (FIG. 5A) and the background image BV as the background RV (FIG. 5A) under the control of the control unit 140. )).
In this example, the control unit 140 executes the game program, advances the game according to the user's operation on the control device 10, and displays a game image GV corresponding to the progress of the game.
In addition, the control unit 140 displays a background image BV that is viewed farther than the game image GV. The background image BV is an image displayed based on the background image data as described above. In order to further improve the sense of presence, the control unit 140 may display the background image BV based on the real space. In this case, the control unit 140 acquires a captured image of the camera 61, thereby acquiring an outside scene image in real space in the user's line-of-sight direction. The control unit 140 performs a process of providing parallax based on the captured image of the camera 61, generates image data of the background image BV, and causes the image display unit 20 to display the image data.

図6(A)の例では、使用者が前景FVとして視認するゲーム画像GV、及び、使用者が背景RVとして視認する背景画像BVの両方を、制御部140の制御により画像表示部20が表示する。このため、使用者に与える視覚による運動刺激を、制御部140が制御できる。例えば、アクションゲームやレーシングゲームのように、使用者に動いている感覚を与えることで臨場感を増し、興趣性が高まるゲームを実行する場合、制御部140は、ゲーム画像GVと背景画像BVの動きの組合せによって運動刺激を与える。この場合、制御部140は、背景画像BVにより運動刺激を与え、ゲーム画像GVにより静止刺激を与える。ゲームの進行により、ゲーム画像GVが動くことがある場合には、制御部140は、ゲーム画像GVよりも速い速度で背景画像BVを変化させる処理を行う。これにより、使用者は、アクションゲームやレーシングゲーム等を、より高い臨場感で遊戯できる。   In the example of FIG. 6A, the image display unit 20 displays both the game image GV visually recognized by the user as the foreground FV and the background image BV visually recognized by the user as the background RV by the control of the control unit 140. To do. For this reason, the control part 140 can control the visual motion stimulus given to a user. For example, when executing a game that increases the sense of presence by giving a sense of movement to the user, such as an action game or a racing game, and enhances the excitement, the control unit 140 displays the game image GV and the background image BV. A motor stimulus is given by a combination of movements. In this case, the control unit 140 gives a motion stimulus by the background image BV and gives a static stimulus by the game image GV. When the game image GV may move due to the progress of the game, the control unit 140 performs a process of changing the background image BV at a faster speed than the game image GV. Thereby, the user can play an action game, a racing game, etc. with a higher sense of reality.

また、この場合、画像表示部20により使用者に視認させる映像を3D映像として、3D映像を大きく動かす場合に比べ、使用者が映像酔いを生じにくい。これは、使用者が、ゲーム画像GVの他に、背景RV(背景画像BV)を視認するためである。すなわち、使用者は背景画像BVとゲーム画像GVを対比することで、ゲーム画像GVが動いていると知覚するが、視界の全体が一様に動くような状態となりにくいので、過度の没入感を生じにくい。このため、映像酔いの発生を抑制できる。   Further, in this case, it is less likely that the user is sick of video, compared to a case where the video visually recognized by the user by the image display unit 20 is a 3D video and the 3D video is moved greatly. This is because the user visually recognizes the background RV (background image BV) in addition to the game image GV. In other words, the user perceives that the game image GV is moving by comparing the background image BV and the game image GV. However, since the entire field of view is unlikely to move uniformly, an excessive immersive feeling is felt. Hard to occur. For this reason, the occurrence of video sickness can be suppressed.

制御部140が実行するゲームのプログラムは、コンテンツデータ122として記憶部120が記憶する。また、制御部140が表示させる背景画像BVのデータを、コンテンツデータ122として記憶してもよい。   The game unit executed by the control unit 140 is stored in the storage unit 120 as the content data 122. Further, the background image BV data displayed by the control unit 140 may be stored as the content data 122.

また、図6(A)の例において、制御部140は、ゲーム画像GVを第1領域とし、背景画像BVを第2領域として表示してもよい。この場合、背景画像BVの動きが小さいか、或いは、背景画像BVの動きの速度がゲーム画像GVよりも小さければよい。この場合、使用者に静止刺激を与えることができる。例えば、使用者がHMD100でパズルゲームを遊戯する場合や、映画を視聴する場合など、使用者に静止している感覚を与え、快適性を高めることが効果的な場合、制御部140は、ゲーム画像GVと背景画像BVの動きの組合せによって静止刺激を与える。   In the example of FIG. 6A, the control unit 140 may display the game image GV as the first area and the background image BV as the second area. In this case, it is only necessary that the movement of the background image BV is small or the movement speed of the background image BV is lower than that of the game image GV. In this case, a stationary stimulus can be given to the user. For example, when the user plays a puzzle game with the HMD 100, or when watching a movie, when the user is effective to give the user a feeling of being at rest and increase comfort, the control unit 140 A static stimulus is given by a combination of the movement of the image GV and the background image BV.

また、制御部140は、使用者の視線RD、LD方向に実空間が外景として視認される場合に、この外景よりも手前に前景FVとして視認される画像を画像表示部20により表示する。具体的には、制御部140は、前景FVとして視認される画像の画像データを利用して、前景用の画像データを生成する。前景用の画像データは、右光学像表示部26で表示する右眼用の画像データと左光学像表示部28で表示する左眼用の画像データとで構成され、右眼用の画像データと左眼用の画像データとは視差を有する。制御部140は、前景用の画像データの視差を、実空間よりも近い位置で知覚される視差に設定して前景用の画像データを生成する。   In addition, when the real space is visually recognized as an outside scene in the direction of the user's line of sight RD or LD, the control unit 140 causes the image display unit 20 to display an image visually recognized as the foreground FV in front of the outside scene. Specifically, the control unit 140 generates image data for foreground using image data of an image visually recognized as the foreground FV. The foreground image data is composed of image data for the right eye displayed on the right optical image display unit 26 and image data for the left eye displayed on the left optical image display unit 28. The image data for the left eye has a parallax. The control unit 140 sets the parallax of the foreground image data to a parallax that is perceived at a position closer to the real space, and generates the foreground image data.

画像表示部20が表示する前景FVは、実空間よりも明瞭に視認されることが好ましい。このため、制御部140は、前景FVとして表示する画像の表示輝度を、使用者が画像表示部20を透過して視認する外光OL(図2)よりも高輝度とする、表示色の明度及び/又は彩度を高くする等の処理を行って、前景FVの視認性を高めてもよい。このように前景FVの視認性を高める処理は、使用者が前景FVを注視している場合に効果的である。また、前景FVの視認性を高める手法あるいは構成の一例として、透過型液晶などを用いて構成される調光シェードを具備することが挙げられる。この場合、調光シェードの透過率を、例えば画素ごとに変更することで、外光OLの透過量を調整し、これにより前景FVの視認性を調整できる。例えば、調光シェードの透過率を低下させて外光OLの光量を低減させ、前景FVの視認性を相対的に高めることができる。   The foreground FV displayed by the image display unit 20 is preferably viewed more clearly than in real space. Therefore, the control unit 140 sets the display brightness of the image displayed as the foreground FV to be higher than the external light OL (FIG. 2) that the user sees through the image display unit 20. Further, the visibility of the foreground FV may be improved by performing a process such as increasing the saturation. Thus, the process for improving the visibility of the foreground FV is effective when the user is gazing at the foreground FV. In addition, as an example of a technique or configuration for improving the visibility of the foreground FV, a light control shade configured using a transmissive liquid crystal or the like is included. In this case, by changing the transmittance of the light control shade for each pixel, for example, the transmission amount of the external light OL can be adjusted, and thereby the visibility of the foreground FV can be adjusted. For example, the visibility of the foreground FV can be relatively increased by reducing the transmittance of the light control shade to reduce the amount of external light OL.

また、例えば、使用者が背景RVの方を注視している場合には、背景RVの視認性を前景FVよりも高める処理を行ってもよい。この処理は、背景RVの視認性が結果的に高まるような各種の処理を含む。例えば、背景RVが外光OLでなく画像表示部20の表示により構成される場合、背景RVの表示輝度を高める、表示色の明度及び/又は彩度を高くする等の処理を行って視認性を高めてもよい。また、背景RVの視認性を前景FVに比べて相対的に高める処理を行ってもよく、例えば、前景FVが背景RVの視認性を阻害しないように、前景FVの視認性を低下させる処理を行ってもよい。具体的には、前景FVの表示輝度を低下させる、表示色の明度及び/又は彩度を低下させる、使用者の視野VRにおける前景FVの占有領域を減らす、前景FVの画像を、使用者の視線を中心として所定の距離以上離れた位置に配置する等の処理が挙げられる。   Further, for example, when the user is gazing at the background RV, a process for increasing the visibility of the background RV as compared to the foreground FV may be performed. This process includes various processes that result in an increase in the visibility of the background RV. For example, when the background RV is configured by the display of the image display unit 20 instead of the external light OL, the visibility is improved by performing processing such as increasing the display luminance of the background RV and increasing the brightness and / or saturation of the display color. May be increased. Further, a process of relatively increasing the visibility of the background RV compared to the foreground FV may be performed. For example, a process of reducing the visibility of the foreground FV so that the foreground FV does not hinder the visibility of the background RV. You may go. Specifically, the foreground FV image is reduced by reducing the display brightness of the foreground FV, reducing the brightness and / or saturation of the display color, reducing the occupied area of the foreground FV in the user's visual field VR, and For example, processing such as disposing at a position more than a predetermined distance around the line of sight.

ここで、制御部140は、使用者が前景FVを注視しているか、背景RVを注視しているかを判定して、上記のように前景FVの視認性を高める処理、及び、背景RVの視認性を高める処理のいずれかを選択して実行してもよい。この場合、使用者の視線方向を検出する具体的態様は限定されず、例えば、使用者の眼を撮像して視線方向を検出する視線センサーを設け、視線センサーの検出値から、制御部140が視線を検出してもよい。上記視線センサーを、使用者の右眼RE、及び、左眼LEのそれぞれに対応するように、右光学像表示部26と左光学像表示部28との中央位置に一対、設けてもよい。また、例えば、使用者の眼の眼電位または眼筋の筋電位を計測して眼球運動を検出することにより、視線を推定する構成であってもよい。また、制御部140は、カメラ61の撮像画像や9軸センサー66が検出する画像表示部20の動きに基づき、視線方向を特定してもよい。
また、使用者が前景FVを注視しているか、背景RVを注視しているかを判定する構成の一例として、左眼と右眼のそれぞれの視線を推定し、2つの視線(両眼の視線)の交点に基づいて、「使用者の位置」から「使用者が両目で見ている場所」までの距離を求める構成が挙げられる。この場合、求めた距離に基づいて、使用者が前景と背景のどちらを注視しているのかを判定することができる。ここで、使用者の位置は、使用者の各眼の位置、使用者の頭部の中心または前面の位置、画像表示部20の位置、カメラ61の位置など、使用者の位置の基準として予め定められた位置であればよい。
Here, the control unit 140 determines whether the user is watching the foreground FV or the background RV, and increases the visibility of the foreground FV as described above, and the viewing of the background RV. Any of the processes for improving the performance may be selected and executed. In this case, the specific mode of detecting the user's line-of-sight direction is not limited. For example, a line-of-sight sensor that detects the direction of the line of sight by imaging the user's eyes is provided, and the control unit 140 determines the detection value of the line-of-sight sensor. A line of sight may be detected. A pair of the line-of-sight sensors may be provided at the center positions of the right optical image display unit 26 and the left optical image display unit 28 so as to correspond to the right eye RE and the left eye LE of the user. Further, for example, the eye gaze may be estimated by measuring the eye potential of the user's eye or the myoelectric potential of the eye muscle and detecting the eye movement. Further, the control unit 140 may specify the line-of-sight direction based on the captured image of the camera 61 and the movement of the image display unit 20 detected by the 9-axis sensor 66.
In addition, as an example of a configuration for determining whether the user is gazing at the foreground FV or the background RV, the gazes of the left eye and the right eye are estimated, and two gazes (both eyes gaze) are estimated. Based on the intersection of the two, there is a configuration in which the distance from “the position of the user” to “the place where the user is looking with both eyes” is obtained. In this case, based on the obtained distance, it can be determined whether the user is looking at the foreground or the background. Here, the position of the user is determined in advance as a reference for the position of the user, such as the position of each eye of the user, the position of the center or front of the user's head, the position of the image display unit 20, and the position of the camera 61. It may be a predetermined position.

このように、制御部140は、画像表示部20の表示画像を、実空間よりも近くに位置する前景FVの像として、表示させることができる。
この場合の表示例を図6(B)に示す。
図6(B)の例では、制御部140がゲームプログラムを実行し、制御装置10に対する使用者の操作に応じてゲームを進行させ、ゲームの進行に対応するゲーム画像GVを表示する。また、使用者は、画像表示部20を透過して、背景RVを視認する。背景RVは画像表示部20越しに見える実空間の景色である。
Thus, the control unit 140 can display the display image of the image display unit 20 as an image of the foreground FV located closer to the real space.
A display example in this case is shown in FIG.
In the example of FIG. 6B, the control unit 140 executes the game program, advances the game according to the user's operation on the control device 10, and displays a game image GV corresponding to the progress of the game. Further, the user views the background RV through the image display unit 20. The background RV is a view of the real space that can be seen through the image display unit 20.

図6(B)の例では、使用者が前景FVとして視認するゲーム画像GVを、制御部140の制御により画像表示部20が表示する。このため、制御部140が前景FVにより運動刺激を与えることができる。使用者が静止していて、背景RVが動いていない場合、ゲーム画像GVの動きにかかわらず使用者は静止刺激を受ける。また、制御部140は、カメラ61の撮像画像または9軸センサー66の検出値に基づき、使用者の身体の動きあるいは頭部の動きが、設定された閾値よりも速い動きである場合に、この動きよりも高速でゲーム画像GVを変化させてもよい。この場合、使用者が動いても静止刺激を与えることができる。ここで、背景画像BVを、静止刺激を与える第2領域として画像で表示する場合には、使用者の頭部の動きと使用者が視認する背景画像BVとの対応関係が遅れないように、背景画像BVを動かす処理を行ってもよい。この場合の背景画像BVの動きは、9軸センサー66又はカメラ61の撮像画像から検出される頭部の動きに追従する動きとすることができる。この場合、使用者の頭部に対して背景画像BVが相対的に静止し、或いは動きが小さくなり、背景画像BVをスタビライズする効果が得られ、いわゆる映像酔いを効果的に抑制あるいは防止できる。また、背景画像BVを、運動刺激を与える第1領域として画像で表示する場合、使用者の頭部が静止し、または短時間あたりの動きの量が所定値以下であれば、予め設定されたパターンで背景画像BVを動かす。そして、使用者の頭部の動きの単位時間あたりの動き量が所定値を超える場合は、予め設定されたパターンに、使用者の頭部の動きに対応する動きを加算して、背景画像BVを動かしてもよい。この場合も、使用者の頭部の動きに反する映像の動きを抑制できるので、いわゆる映像酔いを効果的に抑制あるいは防止できる。   In the example of FIG. 6B, the image display unit 20 displays the game image GV visually recognized by the user as the foreground FV under the control of the control unit 140. For this reason, the control part 140 can give a motion stimulus by the foreground FV. When the user is stationary and the background RV is not moving, the user receives a stationary stimulus regardless of the movement of the game image GV. In addition, the control unit 140 determines that the movement of the user's body or the head is faster than a set threshold based on the captured image of the camera 61 or the detection value of the 9-axis sensor 66. The game image GV may be changed at a higher speed than the movement. In this case, a stationary stimulus can be applied even when the user moves. Here, in the case where the background image BV is displayed as an image as the second region for applying a static stimulus, the correspondence between the movement of the user's head and the background image BV visually recognized by the user is not delayed. Processing to move the background image BV may be performed. The movement of the background image BV in this case can be a movement that follows the movement of the head detected from the captured image of the 9-axis sensor 66 or the camera 61. In this case, the background image BV is stationary relative to the user's head, or the movement becomes small, and the effect of stabilizing the background image BV can be obtained, and so-called video sickness can be effectively suppressed or prevented. In addition, when the background image BV is displayed as an image as a first region that gives a motion stimulus, if the user's head is stationary or the amount of movement per short time is equal to or less than a predetermined value, the background image BV is set in advance. The background image BV is moved by the pattern. When the amount of movement of the user's head per unit time exceeds a predetermined value, the movement corresponding to the movement of the user's head is added to the preset pattern, and the background image BV You may move. Also in this case, since the movement of the video contrary to the movement of the user's head can be suppressed, so-called video sickness can be effectively suppressed or prevented.

また、制御部140は、使用者の視線RD、LD方向に実空間の対象物OBが存在する場合に、この対象物OBの背景RVとして視認される画像を画像表示部20により表示する。この例を図6(C)に示す。
図6(C)の例では、実空間に存在する対象物OBが視認され、制御部140は、この対象物OBの背景として視認されるように背景画像BVを表示する。
例えば、制御部140は、背景画像BVの画像データから、対象物OBに重なって視認される範囲を切り取って背景用の画像データを生成する。制御部140は、対象物OBに重なる範囲を避けて、背景用の画像データに基づく画像を表示する。これらの処理の結果、背景画像BVの画像データにおいて対象物OBに重なる領域では画素のデータが非表示の状態(黒画素)となる。或いは、背景画像BVの画像データを加工せず、対象物OBに重なる領域の画素を構成する画像光Lが出力されないように又は光量が低減するように、例えば遮光あるいは光源を消灯する処理を行ってもよい。
また、背景用の画像データは、右光学像表示部26で表示する右眼用の画像データと左光学像表示部28で表示する左眼用の画像データとで構成され、右眼用の画像データと左眼用の画像データとは視差を有する。制御部140は、背景用の画像データの視差を、対象物OBよりも遠くに知覚される視差に設定して背景用の画像データを生成する。これにより、制御部140は、画像表示部20が表示する背景画像BVを、実空間の対象物OBよりも遠くに位置する像として視認させることができる。
Further, when there is an object OB in real space in the user's line of sight RD, LD, the control unit 140 displays an image that is visually recognized as the background RV of the object OB by the image display unit 20. An example of this is shown in FIG.
In the example of FIG. 6C, the object OB existing in the real space is visually recognized, and the control unit 140 displays the background image BV so as to be visually recognized as the background of the object OB.
For example, the control unit 140 generates background image data by cutting out a range that is visually recognized by overlapping the object OB from the image data of the background image BV. The control unit 140 displays an image based on the background image data while avoiding a range that overlaps the object OB. As a result of these processes, pixel data is in a non-display state (black pixel) in a region overlapping the object OB in the image data of the background image BV. Alternatively, the image data of the background image BV is not processed, and, for example, the light is blocked or the light source is turned off so that the image light L constituting the pixels in the region overlapping the object OB is not output or the amount of light is reduced. May be.
The background image data is composed of right-eye image data displayed on the right optical image display unit 26 and left-eye image data displayed on the left optical image display unit 28, and the right-eye image data. The data and the image data for the left eye have parallax. The control unit 140 sets the parallax of the background image data to a parallax that is perceived farther than the object OB, and generates background image data. Thereby, the control part 140 can visually recognize the background image BV which the image display part 20 displays as an image located far from the target object OB in real space.

ここで、対象物OBが使用者の視界に対して相対的に静止または設定された上限以下の速度で動く場合、前景FVが静止刺激を与える第2領域となる。この場合、制御部140が背景画像BVを、動きを有する画像として表示させれば、背景画像BVが第1領域となり、使用者に運動刺激を与えることができる。また、背景画像BVを、動きを有しない画像あるいは動きの速度が対象物OBよりも低速の画像として表示させれば、背景画像BVが第2領域となり、使用者に静止刺激を与えることができる。   Here, when the object OB moves relative to the user's field of view or moves at a speed equal to or less than the set upper limit, the foreground FV is a second region that gives a stationary stimulus. In this case, if the control unit 140 displays the background image BV as an image having movement, the background image BV becomes the first region, and it is possible to give an exercise stimulus to the user. Further, if the background image BV is displayed as an image having no movement or an image whose movement speed is slower than that of the object OB, the background image BV becomes the second region, and a static stimulus can be given to the user. .

また、視覚により使用者に運動刺激を与える例として、単一の領域を利用する例もある。
例えば、図5(B)に示すように、使用者が像Vを視認する構成で、使用者が像Vを視認する視野角が大きい場合、像Vが動くことで使用者に運動刺激が与えられる。この効果は、使用者が像Vを視認する視角は、右眼の視野角RA、及び、左眼の視野角LAが、所定の角度(例えば、120度)以上の場合に起こることが知られている。像Vは実空間の視界であってもよいし、画像表示部20が表示する画像であってもよい。
In addition, there is an example in which a single region is used as an example in which a user is given a motion stimulus visually.
For example, as shown in FIG. 5B, in a configuration in which the user visually recognizes the image V, when the viewing angle at which the user visually recognizes the image V is large, the user is given a motion stimulus by moving the image V. It is done. This effect is known to occur when the viewing angle at which the user views the image V is greater than or equal to a predetermined angle (for example, 120 degrees) for the right-eye viewing angle RA and the left-eye viewing angle LA. ing. The image V may be a real space field of view or an image displayed by the image display unit 20.

また、例えば図5(C)に示すように、使用者が像Vを視認する構成で、使用者が像Vを視認する場合、像Vが静止していると、使用者は自身が静止していると知覚する。この効果は、使用者が像Vを視認する視角が使用者の視界の大半を占める場合に起こることが知られている。   Further, for example, as shown in FIG. 5C, when the user visually recognizes the image V and the user visually recognizes the image V, when the image V is stationary, the user is stationary. Perceive. This effect is known to occur when the viewing angle at which the user views the image V occupies most of the user's field of view.

このように、制御部140は、画像表示部20における表示を制御することで、使用者に与える視覚による運動刺激を制御できる。
HMD100は、使用者が静止している状態に限らず、使用することができる。例えば、使用者は、自動車、自転車、航空機、船舶、ジェットコースター等の移動体に搭乗している間に、HMD100を装着してもよい。この場合、使用者が外部の景色を視認できる状態であれば、使用者が視認する実空間が移動し、使用者は自己運動感覚を知覚する。このような場合に、使用者に静止刺激を与えることにより、興趣性に富む表示を行うことができる。また、使用者が静止している状態で、画像表示部20の表示によって、自己運動感覚を知覚させることも可能である。
In this way, the control unit 140 can control the visual motion stimulus given to the user by controlling the display on the image display unit 20.
The HMD 100 can be used without being limited to a state where the user is stationary. For example, the user may wear the HMD 100 while riding on a moving body such as an automobile, a bicycle, an aircraft, a ship, or a roller coaster. In this case, if the user can visually recognize the outside scenery, the real space visually recognized by the user moves, and the user perceives a sense of self-motion. In such a case, an interesting display can be performed by giving a static stimulus to the user. Moreover, it is possible to perceive a sense of self-motion by displaying on the image display unit 20 while the user is stationary.

動き検出部163は、使用者の身体の動き、及び/又は、使用者の頭部の動きを検出する。動き検出部163は、カメラ61の撮像画像を取得して解析することにより、動きを検出してもよい。また、動き検出部163は、9軸センサー66の検出値を取得することにより、この検出値に基づいて動きを検出してもよい。   The motion detector 163 detects the movement of the user's body and / or the movement of the user's head. The motion detection unit 163 may detect motion by acquiring and analyzing a captured image of the camera 61. Further, the motion detection unit 163 may detect the motion based on the detection value by acquiring the detection value of the 9-axis sensor 66.

AR表示制御部164は、画像表示部20による表示するゲーム画像GVや背景画像BVの表示を制御する。AR表示制御部164は、画像表示部20が表示する画像について、右眼REに対応して右光学像表示部26により表示する右眼用の画像と、左眼LEに対応して左光学像表示部28に表示する左眼用の画像との視差に基づき、表示用の画像データを生成する。例えば、AR表示制御部164は、記憶部120が記憶するコンテンツデータ122、または、カメラ61の撮像画像に基づき、所定の視差を有する画像データを生成し、決定した表示位置に表示されるように表示制御部190を制御する。   The AR display control unit 164 controls display of the game image GV and the background image BV displayed by the image display unit 20. For the image displayed by the image display unit 20, the AR display control unit 164 displays an image for the right eye displayed by the right optical image display unit 26 corresponding to the right eye RE, and a left optical image corresponding to the left eye LE. Based on the parallax with the image for the left eye displayed on the display unit 28, image data for display is generated. For example, the AR display control unit 164 generates image data having a predetermined parallax based on the content data 122 stored in the storage unit 120 or the captured image of the camera 61 and displays the image data at the determined display position. The display control unit 190 is controlled.

また、AR表示制御部164は、画像の表示位置を決定する処理において、カメラ61の撮像画像を解析して、使用者が対象物OBを視認する位置を求めることができる。この場合、AR表示制御部164、カメラ61の撮像画像から対象物OBの画像を抽出する。この処理においては、例えば、対象物OBを撮像した撮像画像の特徴量が使用される。対象物OBの特徴量を示すデータは、設定データ121として予め記憶部120に記憶される。特徴量のデータは、例えば、対象物が物体である場合に、この物体を撮像した場合の撮像画像の色、形状、その他の特徴を示す特徴量を含む。この場合、AR表示制御部164は、カメラ61の撮像画像データから物体の画像を抽出する処理を行い、抽出した物体の画像の特徴量を算出し、算出した特徴量と、設定データ121に含まれる特徴量とを比較照合する。特徴量が近い値であり、或いは同一である場合は、撮像画像データから抽出した画像の物体を対象物OBとして認識する。また、対象物OBについて複数の特徴量が設定データ121に含まれる場合、AR表示制御部164は複数の特徴量に基づき撮像画像データから対象物OBを検出し、認識してもよい。   In addition, the AR display control unit 164 can determine the position where the user visually recognizes the object OB by analyzing the captured image of the camera 61 in the process of determining the display position of the image. In this case, the image of the object OB is extracted from the captured image of the AR display control unit 164 and the camera 61. In this process, for example, a feature amount of a captured image obtained by capturing the object OB is used. Data indicating the feature amount of the object OB is stored in advance in the storage unit 120 as setting data 121. The feature amount data includes, for example, a feature amount indicating the color, shape, and other features of a captured image when the object is captured when the target is an object. In this case, the AR display control unit 164 performs a process of extracting the object image from the captured image data of the camera 61, calculates the feature amount of the extracted object image, and includes the calculated feature amount and the setting data 121. Compared with the feature amount to be checked. When the feature values are close or the same, the object of the image extracted from the captured image data is recognized as the object OB. In addition, when the setting data 121 includes a plurality of feature amounts for the object OB, the AR display control unit 164 may detect and recognize the object OB from the captured image data based on the plurality of feature amounts.

AR表示制御部164は、対象物OBを検出した場合、使用者の視野VRにおける対象物OBの位置を特定する。さらに、AR表示制御部164は、対象物OBに対応する位置に画像が視認されるように、画像の表示位置を決定する。この処理で、AR表示制御部164は、視野VRと、画像表示部20の表示領域であるハーフミラー261A、262Aの位置と、カメラ61の画角と、カメラ61の撮像画像データにおける位置との相対的な位置関係を示すデータを使用する。これらの相対的な位置関係は、画像表示部20の機械的構造及びカメラ61の仕様により定まる。この位置関係は事前のキャリブレーションにより求められ、位置関係を示すデータが設定データ121として記憶される。   When the AR display control unit 164 detects the object OB, the AR display control unit 164 specifies the position of the object OB in the user's visual field VR. Furthermore, the AR display control unit 164 determines the display position of the image so that the image is visually recognized at a position corresponding to the object OB. In this process, the AR display control unit 164 includes the visual field VR, the positions of the half mirrors 261A and 262A that are display areas of the image display unit 20, the angle of view of the camera 61, and the position of the camera 61 in the captured image data. Use data indicating relative positional relationships. These relative positional relationships are determined by the mechanical structure of the image display unit 20 and the specifications of the camera 61. This positional relationship is obtained by prior calibration, and data indicating the positional relationship is stored as setting data 121.

AR表示制御部164は、図6(C)に例示したように、対象物OBを避けるように、或いは、対象物OBに重なるように、画像を表示できる。このようにして表示される画像は、いわゆるAR(Augmented Reality:拡張現実)効果を奏する画像(以下、AR画像という)に相当する。   As illustrated in FIG. 6C, the AR display control unit 164 can display an image so as to avoid the object OB or to overlap the object OB. The image displayed in this way corresponds to an image that exhibits a so-called AR (Augmented Reality) effect (hereinafter referred to as an AR image).

図7は、HMD100の動作を示すフローチャートである。
HMD100の制御部140は、制御装置10の操作等に基づいてコンテンツの画像の表示を開始する指示を受け付けて、表示するコンテンツを選択する(ステップS11)。制御部140は、例えば制御装置10に対する操作に基づき、コンテンツデータ122に基づき表示可能なコンテンツのいずれかを選択する。
FIG. 7 is a flowchart showing the operation of the HMD 100.
The control unit 140 of the HMD 100 receives an instruction to start displaying the content image based on the operation of the control device 10 and the like, and selects the content to be displayed (step S11). The control unit 140 selects any of the contents that can be displayed based on the content data 122 based on, for example, an operation on the control device 10.

制御部140は、ステップS11で選択したコンテンツに対応する表示設定データ123を参照し、運動刺激に係る設定を取得する(ステップS12)。表示設定データ123は、コンテンツデータ122に含まれるコンテンツのそれぞれに対応付けて、画像の表示形態を指定するデータを含む。具体的には、運動刺激を与える表示を行うか、運動刺激を与えない表示を行うかを、コンテンツに対応付けて設定するデータを含む。
表示設定データ123を用いることで、視覚による運動刺激に関して、コンテンツの内容に適した設定を行うことができる。また、使用者がコンテンツを選択すると、視覚による運動刺激に関して、コンテンツの内容に適した態様でコンテンツが表示されるので、使用者が煩雑な設定を行わずに、効果的な表示を行えるという利点がある。
The control unit 140 refers to the display setting data 123 corresponding to the content selected in step S11, and acquires settings related to exercise stimulation (step S12). The display setting data 123 includes data that specifies an image display form in association with each content included in the content data 122. Specifically, it includes data for setting whether to perform display that gives exercise stimulation or display that does not give exercise stimulation in association with the content.
By using the display setting data 123, settings suitable for the content can be performed with respect to visual motion stimulation. In addition, when the user selects the content, the content is displayed in a mode suitable for the content of the visual stimulus, so that the user can perform an effective display without performing complicated settings. There is.

制御部140は、ステップS12で取得した設定に基づき、運動刺激を与える表示、すなわち自己運動感覚を想起する表示を行うか否かを判定する(ステップS13)。
自己運動感覚を想起する表示を行う場合(ステップS13;Yes)、制御部140は、使用者が視認する背景が実空間であるか否かを判定する(ステップS14)。例えば、コンテンツが背景画像BVの画像データを含む場合、画像データが背景として利用されるので、背景は実空間ではない。また、コンテンツが背景画像BVの画像データを含まない場合には、背景として実空間が使用される。つまり、背景は実空間である。
Based on the setting acquired in step S12, the control unit 140 determines whether or not to perform a display that gives a motion stimulus, that is, a display that recalls a sense of self-motion (step S13).
When the display which recalls the sense of self-motion is performed (step S13; Yes), the control unit 140 determines whether or not the background visually recognized by the user is real space (step S14). For example, when the content includes image data of the background image BV, the image data is used as the background, so the background is not real space. When the content does not include the image data of the background image BV, the real space is used as the background. In other words, the background is real space.

背景として実空間が使用される場合、すなわち背景が実空間である場合(ステップS14;Yes)、制御部140は、カメラ61の動き検出部163により動きを検出することにより、背景として視認される実空間の動きの有無を判定する(ステップS15)。背景に動きがある場合(ステップS15;Yes)、前景が静止刺激を与えれば、自己運動感覚を想起する表示を行える。この場合、制御部140は、コンテンツの画像を前景FV(図5(A))として表示し(ステップS16)、後述するステップS25に移行する。   When the real space is used as the background, that is, when the background is the real space (step S14; Yes), the control unit 140 is visually recognized as the background by detecting the motion by the motion detection unit 163 of the camera 61. The presence / absence of movement in the real space is determined (step S15). When there is a motion in the background (step S15; Yes), if the foreground gives a static stimulus, a display reminiscent of a self-motion sensation can be performed. In this case, the control unit 140 displays the content image as the foreground FV (FIG. 5A) (step S16), and proceeds to step S25 described later.

また、背景が実空間であって(ステップS14;Yes)、背景に動きがない場合(ステップS15;No)、自己運動感覚を想起する表示を行うためには、背景を動かす必要がある。このため、制御部140は、背景画像BVのデータを生成する(ステップS17)。この場合、ステップS17で、制御部140は、実空間に基づいて動きのある背景を表示するため、カメラ61の撮像画像データに基づいて、動きのある背景となる背景画像BVのデータを生成する。そして、制御部140は、コンテンツの画像を前景FVとして表示するとともに背景画像BVのデータに基づき背景画像を背景RVとして表示し(ステップS18)、ステップS25に移行する。   Further, when the background is a real space (step S14; Yes) and there is no movement in the background (step S15; No), it is necessary to move the background in order to perform a display reminiscent of the sense of self-motion. For this reason, the control unit 140 generates data of the background image BV (step S17). In this case, in step S <b> 17, the control unit 140 generates a background image BV serving as a background with motion based on the captured image data of the camera 61 in order to display a background with motion based on the real space. . Then, the control unit 140 displays the content image as the foreground FV and displays the background image as the background RV based on the data of the background image BV (step S18), and proceeds to step S25.

また、背景が実空間でないと判定した場合(ステップS14;No)、制御部140はステップS17に移行して上記処理を行う。この場合、背景が実空間ではなく、コンテンツに含まれる画像を背景として使用する場合、ステップS17で、制御部140は、コンテンツの画像データに基づき背景画像BVのデータを生成する。また、実空間に対応する画像を背景として表示する場合、制御部140は、ステップS17で、撮像画像に基づき背景画像BVのデータを生成する。   If it is determined that the background is not real space (step S14; No), the control unit 140 proceeds to step S17 and performs the above processing. In this case, when the background is not a real space and an image included in the content is used as the background, in step S17, the control unit 140 generates data of the background image BV based on the image data of the content. When displaying an image corresponding to the real space as the background, the control unit 140 generates data of the background image BV based on the captured image in step S17.

また、自己運動感覚を想起する表示を行わない場合(ステップS13;No)、制御部140は、使用者が視認する背景が実空間であるか否かを判定する(ステップS19)。
背景が実空間である場合(ステップS19;Yes)、制御部140は、コンテンツの画像を前景FVとして表示し(ステップS20)、ステップS25に移行する。
Moreover, when the display which recalls a self-motion sensation is not performed (step S13; No), the control part 140 determines whether the background which a user visually recognizes is real space (step S19).
When the background is real space (step S19; Yes), the control unit 140 displays the content image as the foreground FV (step S20), and proceeds to step S25.

背景が実空間でないと判定した場合(ステップS19;No)、制御部140は、コンテンツに含まれる画像データに基づき、前景FV及び背景RVを表示し(ステップS21)、ステップS25に移行する。   When it determines with a background not being real space (step S19; No), the control part 140 displays foreground FV and background RV based on the image data contained in a content (step S21), and transfers to step S25.

ステップS25では、動き検出部163がカメラ61の撮像画像または9軸センサー66の検出値に基づき使用者の動きを検出し、使用者が特定動作を行ったか否かを判定する(ステップS25)。特定動作とは、例えば、使用者が頭を下げる等、予め指定された特定の動作である。HMD100は、使用者が特定動作を行った場合に、ゲームのマニュアル(操作説明)を表示する動作モード、HMD100の機能設定用のメニューを表示して機能設定を行う動作モード等に移行するよう設定することができる。   In step S25, the motion detection unit 163 detects the user's movement based on the captured image of the camera 61 or the detection value of the 9-axis sensor 66, and determines whether or not the user has performed a specific operation (step S25). The specific action is a specific action specified in advance, for example, when the user bows his / her head. The HMD 100 is set so as to shift to an operation mode for displaying a game manual (operation description) when the user performs a specific operation, an operation mode for displaying a function setting menu of the HMD 100, and setting a function. can do.

特定動作が行われたと判定した場合(ステップS25;Yes)、制御部140は、特定動作に対応する動作モードの表示への切り替えを行い(ステップS26)、特定動作が終了するまで待機する(ステップS27)。特定動作の終了は、動き検出部163の検出結果に基づき判定できる。制御部140は、特定動作が終了するまでの間は(ステップS27;No)、ステップS26の表示を継続する。特定動作が終了した場合(ステップS27;Yes)制御部140は、コンテンツの表示を再開し(ステップS28)、ステップS29に移行する。
また、特定動作が行われていないと判定した場合(ステップS25;No)、制御部140はステップS29に移行する。
When it is determined that the specific operation has been performed (step S25; Yes), the control unit 140 switches to display the operation mode corresponding to the specific operation (step S26), and waits until the specific operation is completed (step S26). S27). The end of the specific operation can be determined based on the detection result of the motion detection unit 163. The control unit 140 continues the display in step S26 until the specific operation ends (step S27; No). When the specific operation is finished (step S27; Yes), the control unit 140 resumes the display of the content (step S28), and proceeds to step S29.
Moreover, when it determines with specific operation | movement not being performed (step S25; No), the control part 140 transfers to step S29.

ステップS29で、制御部140は、コンテンツの表示を終了するか否かを判定する(ステップS29)。制御装置10に対する操作等によりコンテンツの表示終了が指示された場合(ステップS29;Yes)、制御部140は本処理を終了する。また、コンテンツの表示終了が指示されていない場合(ステップS29;No)、制御部140はステップS25に戻る。   In step S29, the control unit 140 determines whether or not to end the content display (step S29). When the display end of the content is instructed by an operation on the control device 10 or the like (step S29; Yes), the control unit 140 ends this process. If the end of content display is not instructed (step S29; No), the control unit 140 returns to step S25.

以上説明したように、本発明を適用した実施形態に係るHMD100は、画像表示部20を備える。HMD100は、画像表示部20を視認する使用者が、運動刺激を与える第1領域と、静止刺激を与える第2領域とが視差が異なるように重ねて視認可能なように、画像表示部20に画像を表示させる制御部140を備える。
このHMD100の構成、及び、HMD100を制御する制御方法によれば、運動刺激を与える第1領域及び静止刺激を与える第2領域を、視差が異なるように組み合わせて使用者に知覚させる。これにより、単一の3D映像に頼らない方法で、使用者の自己運動感覚を強めたり、弱めたりすることが可能になる。例えば、臨場感を誘起しやすい映像を表示でき、映像酔いの軽減を図ることができる。HMD100を使用する使用者は、臨場感のある映像表示を視聴できる。また、この制御方法は、制御部140が備えるCPUが実行可能なプログラムとして実現することもできる。この場合、当該プログラムは、制御部140が備える図示しないROM、或いは記憶部120に、制御部140のCPUが読み取り可能な態様で記憶すればよい。
As described above, the HMD 100 according to the embodiment to which the present invention is applied includes the image display unit 20. The HMD 100 is arranged on the image display unit 20 so that a user who visually recognizes the image display unit 20 can visually recognize the first region that gives the motion stimulus and the second region that gives the static stimulus so that the parallax is different. A control unit 140 that displays an image is provided.
According to the configuration of the HMD 100 and the control method for controlling the HMD 100, the first region that gives the motion stimulus and the second region that gives the static stimulus are combined so that the parallaxes are different, and the user perceives them. As a result, it is possible to enhance or weaken the user's sense of self-motion in a manner that does not rely on a single 3D image. For example, it is possible to display an image that easily induces a sense of reality, and to reduce image sickness. A user using the HMD 100 can view a realistic video display. This control method can also be realized as a program that can be executed by the CPU of the control unit 140. In this case, the program may be stored in a ROM (not shown) included in the control unit 140 or in the storage unit 120 in a mode that can be read by the CPU of the control unit 140.

また、HMD100において、制御部140は、使用者が第1領域を視認する視距離と、使用者が第2領域を視認する視距離とが異なる距離となるように、画像表示部20に画像を表示させる。これにより、異なる距離で知覚される映像または画像を組み合わせることにより、効果的に、HMD100を見る使用者に対し、自己運動感覚を誘起しやすい表示、或いは、誘起しにくい表示など、様々な視覚効果を有する表示が可能となる。HMD100の使用者は、例えば、自己運動感覚を強めたり、弱めたりする表示を見ることができる。   In the HMD 100, the control unit 140 displays an image on the image display unit 20 so that the viewing distance at which the user visually recognizes the first area is different from the viewing distance at which the user visually recognizes the second area. Display. Accordingly, various visual effects such as a display that easily induces a self-motion sensation or a display that hardly induces a user who views the HMD 100 by combining images or images perceived at different distances. A display having The user of the HMD 100 can see a display that enhances or weakens the sense of self-motion, for example.

また、HMD100において、制御部140は、第2領域の視距離が第1領域よりも使用者から遠い距離となるように、画像表示部20に画像を表示させる。これにより、使用者に、運動刺激を与える第1領域よりも静止刺激を与える第2領域が遠くにあるように知覚されやすい表示を行い、使用者自身の自己運動感覚に影響を与えやすい表示ができる。この場合、使用者は、例えば、第1領域よりも第2領域が遠くにあるように知覚しやすく、動きのある映像や画像を見ながら、使用者自身が動いていないような感覚を、使用者に対して演出できる。   In the HMD 100, the control unit 140 causes the image display unit 20 to display an image so that the viewing distance of the second region is farther from the user than the first region. Thereby, the display that is easy to perceive to the user as if the second region that gives the static stimulus is farther than the first region that gives the motor stimulus, and the display that easily affects the user's own self-motion sense. it can. In this case, for example, the user can easily perceive that the second area is farther than the first area, and uses a feeling that the user himself / herself does not move while watching moving images and images. It can produce to the person.

また、HMD100において、画像表示部20は、外景を透過して使用者が視認可能に構成され、制御部140は、第2領域としての外景に重なるように、画像表示部20により第1領域の画像を表示させる。これにより、画像表示部20を透過して視認される外景を利用して、使用者自身の自己運動感覚に影響を与えやすい表示ができる。HMD100を使用する使用者に対し、例えば、動きのある映像や画像を見ながら、使用者自身が動いていない感覚を演出できる。   Further, in the HMD 100, the image display unit 20 is configured to be visible to the user through the outside scene, and the control unit 140 causes the image display unit 20 to overlap the outside scene as the second area. Display an image. Thereby, the display which is easy to influence a user's own self-motion sense can be performed using the outside scene which permeate | transmits and can be seen through the image display part 20. FIG. For a user who uses the HMD 100, for example, it is possible to produce a feeling that the user himself / herself is not moving while watching a moving image or image.

また、HMD100において、画像表示部20は外景を透過して使用者が視認可能に構成され、制御部140は、第1領域としての外景に重なるように、画像表示部20により第2領域の画像を表示させる。これにより、画像表示部20を透過して視認される外景を利用して、動きのある映像や画像を見ながら、使用者自身は動いていない感覚を演出できる。   In the HMD 100, the image display unit 20 is configured to be visible to the user through the outside scene, and the control unit 140 causes the image display unit 20 to overlap the image of the second area so as to overlap the outside scene as the first area. Is displayed. Thereby, the user can produce a sense that the user himself / herself is not moving while viewing a moving image or image using an outside scene that is visible through the image display unit 20.

また、HMD100において、制御部140は、第1領域の画像、及び第2領域の画像のそれぞれを画像表示部20に表示させる。これにより、HMD100が表示する画像を組み合わせることにより、動きのある映像や画像を見ながら、使用者自身の自己運動感覚に対し、動いていないような影響を与えやすい表示ができる。これにより、使用者に対し、例えば、使用者自身は動いていない感覚を演出できる。   In the HMD 100, the control unit 140 causes the image display unit 20 to display each of the first area image and the second area image. Thus, by combining the images displayed by the HMD 100, it is possible to perform a display that easily affects the user's own self-motion sensation while watching a moving image or image. Thereby, for example, the user can produce a feeling that the user is not moving.

また、HMD100において、制御部140は、第2領域の視距離が第1領域よりも使用者に近い距離となるように、画像表示部20に画像を表示させる。これにより、使用者に、静止刺激を与える第2領域よりも運動刺激を与える第1領域が遠くにあるように知覚させることで、使用者自身の自己運動感覚に対し、運動するような影響を与えやすい表示ができる。これにより、使用者に対し、例えば、使用者自身が運動するような感覚を演出できる。   In the HMD 100, the control unit 140 causes the image display unit 20 to display an image so that the viewing distance of the second area is closer to the user than the first area. This allows the user to perceive that the first region that gives the motor stimulus is farther than the second region that gives the static stimulus, thereby exerting an influence on the user's own self-motion sensation. Easy to give display. Thereby, for example, it is possible to produce a feeling that the user himself / herself exercises.

また、HMD100において、画像表示部20は、外景を透過して使用者が視認可能に構成され、制御部140は、第2領域としての外景に重なるように、画像表示部20により第1領域の画像を表示させる。これにより、画像表示部20を透過して視認される外景を利用して、使用者に対し、運動するような影響を与えやすい表示ができる。これにより、例えば、使用者自身が運動するような感覚を演出できる。   Further, in the HMD 100, the image display unit 20 is configured to be visible to the user through the outside scene, and the control unit 140 causes the image display unit 20 to overlap the outside scene as the second area. Display an image. Thereby, the display which is easy to give the influence which exercise | moves with respect to a user using the external view visually permeate | transmitted through the image display part 20 can be performed. Thereby, for example, it is possible to produce a feeling that the user himself / herself exercises.

また、HMD100において、画像表示部20は、外景を透過して使用者が視認可能に構成され、制御部140は、第1領域としての外景に重なるように、画像表示部20により第2領域の画像を表示させてもよい。この場合、画像表示部20を透過して視認される外景を利用して、使用者自身が運動するような感覚を演出できる。   Further, in the HMD 100, the image display unit 20 is configured to be visible to the user through the outside scene, and the control unit 140 causes the second area to be overlapped with the outside scene as the first area. An image may be displayed. In this case, it is possible to produce a feeling that the user himself / herself exercises by using an outside scene that is visible through the image display unit 20.

また、HMD100において、制御部140は、第1領域の画像、及び第2領域の画像のそれぞれを画像表示部20に表示させる。これにより、HMD100が表示する画像を組み合わせることにより、使用者自身が運動するような影響を与えやすい表示ができる。これにより、例えば、使用者自身が運動するような感覚を演出できる。   In the HMD 100, the control unit 140 causes the image display unit 20 to display each of the first area image and the second area image. Thus, by combining the images displayed by the HMD 100, it is possible to perform a display that easily influences the user to exercise. Thereby, for example, it is possible to produce a feeling that the user himself / herself exercises.

また、HMD100において、制御部140は、使用者の視野の占める第2領域の割合が予め設定された所定割合以上となるように、画像表示部20に画像を表示させてもよい。この場合、第2領域が使用者に与える静止刺激の効果を、より確実に得ることができる。   In the HMD 100, the control unit 140 may cause the image display unit 20 to display an image so that the ratio of the second region occupied by the user's visual field is equal to or greater than a predetermined ratio set in advance. In this case, the effect of the static stimulus given to the user by the second region can be obtained more reliably.

また、HMD100において、制御部140は、使用者の視野の占める第2領域の割合が予め設定された所定割合以下となるように、画像表示部20に画像を表示させてもよい。この場合、第1領域と第2領域との組合せにより使用者に与える静止刺激の効果を、より確実に得ることができる。   In the HMD 100, the control unit 140 may cause the image display unit 20 to display an image so that the ratio of the second region occupied by the user's visual field is equal to or less than a predetermined ratio set in advance. In this case, the effect of the static stimulus given to the user by the combination of the first region and the second region can be obtained more reliably.

また、HMD100において、制御部140は、第1領域の単位時間あたりの動きの量が第2領域の単位時間あたりの動きの量よりも大きくなるように、画像表示部20に画像を表示させてもよい。この場合、第1領域と第2領域のそれぞれが動きを有する場合であっても、第1領域による運動刺激の効果と、第2領域による静止刺激の効果とを得ることができる。   In the HMD 100, the control unit 140 causes the image display unit 20 to display an image so that the amount of movement per unit time of the first area is larger than the amount of movement per unit time of the second area. Also good. In this case, even if each of the first region and the second region has a motion, it is possible to obtain the effect of the motion stimulus by the first region and the effect of the static stimulus by the second region.

また、HMD100において、使用者の頭部の動きを検出する動き検出部を備え、画像表示部20は、動き検出部により検出される動きに対応して、第1領域及び第2領域の少なくともいずれかの表示状態を変化させる。これにより、使用者の頭部の動きに応じて表示を変化させることで、より効果的な表示の演出、或いは、新たな情報の伝達を行うことができる。   In addition, the HMD 100 includes a motion detection unit that detects the motion of the user's head, and the image display unit 20 corresponds to the motion detected by the motion detection unit and is at least one of the first region and the second region. Change the display state. Thus, by changing the display according to the movement of the user's head, it is possible to produce a more effective display or to transmit new information.

また、HMD100において、カメラ61を備え、カメラ61により撮像された撮像画像から検出される動きに対応して、第1領域及び第2領域の少なくともいずれかの表示状態を変化させる。これにより、撮像画像を利用して、より効果的に、運動感覚に影響を与えやすい表示を行える。   Further, the HMD 100 includes a camera 61, and changes the display state of at least one of the first area and the second area in response to a motion detected from a captured image captured by the camera 61. As a result, the captured image can be used for more effective display that easily affects the kinesthetic sense.

また、HMD100において、制御部140は、カメラ61の撮像画像に基づいて生成される画像を、第1領域または第2領域として表示させる。これにより、撮像画像を利用して、使用者自身の運動感覚に刺激を与える表示を実現できる。   In the HMD 100, the control unit 140 displays an image generated based on the captured image of the camera 61 as the first area or the second area. Thereby, the display which gives a stimulus to a user's own motor sensation using a captured image is realizable.

また、HMD100において、制御部140は、第1領域及び第2領域のいずれか使用者が注目する側の視認性を高めるように、画像表示部20に画像を表示させてもよい。この場合、より臨場感のある映像表示を実現でき、映像酔いの軽減を図ることができる。   Moreover, in HMD100, the control part 140 may display an image on the image display part 20 so that the visibility of the side which the user pays attention to either the 1st area | region or the 2nd area | region may be improved. In this case, more realistic video display can be realized, and video sickness can be reduced.

また、HMD100において、制御部140は、使用者の動きを検出して、検出した動きに対応して画像表示部20に表示させる画像の動きを制御してもよい。この場合、使用者の動きに対応して画像の動きを制御することで、より効果的に、いわゆる映像酔いを抑制できる。   In HMD100, control part 140 may detect a user's movement and may control a movement of an image displayed on image display part 20 corresponding to a detected movement. In this case, so-called video sickness can be more effectively suppressed by controlling the movement of the image in response to the movement of the user.

なお、この発明は上記各実施形態の構成に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。
上記実施形態において、使用者が表示部を透過して外景を視認する構成は、右光学像表示部26及び左光学像表示部28が外光を透過する構成に限定されない。例えば外景を視認できない状態で画像を表示する表示装置にも適用可能である。具体的には、カメラ61の撮像画像、この撮像画像に基づき生成される画像やCG、予め記憶された映像データや外部から入力される映像データに基づく映像等を表示する表示装置に、本発明を適用できる。この種の表示装置としては、外景を視認できない、いわゆるクローズ型の表示装置を含むことができる。また、AR表示、MR表示、或いはVR表示といった処理を行わず、外部から入力される映像データまたはアナログ映像信号を表示する表示装置も、本発明の適用対象として勿論含まれる。
In addition, this invention is not restricted to the structure of said each embodiment, In the range which does not deviate from the summary, it can be implemented in a various aspect.
In the above embodiment, the configuration in which the user visually recognizes the outside scene through the display unit is not limited to the configuration in which the right optical image display unit 26 and the left optical image display unit 28 transmit external light. For example, the present invention can be applied to a display device that displays an image in a state where an outside scene cannot be visually recognized. Specifically, the present invention is applied to a display device that displays a captured image of the camera 61, an image or CG generated based on the captured image, video based on video data stored in advance or video data input from the outside, and the like. Can be applied. This type of display device can include a so-called closed display device in which an outside scene cannot be visually recognized. Of course, a display device that displays video data or an analog video signal input from the outside without performing processing such as AR display, MR display, or VR display is also included as an application target of the present invention.

また、例えば、画像表示部20に代えて、例えば帽子のように装着する画像表示部等の他の方式の画像表示部を採用してもよく、使用者の左眼に対応して画像を表示する表示部と、使用者の右眼に対応して画像を表示する表示部とを備えていればよい。また、本発明の表示装置は、例えば、自動車や飛行機等の車両に搭載されるヘッドマウントディスプレイとして構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたヘッドマウントディスプレイとして構成されてもよい。この場合、使用者の身体に対する位置を位置決めする部分、及び、当該部分に対し位置決めされる部分を装着部とすることができる。   Further, for example, instead of the image display unit 20, another type of image display unit such as an image display unit worn like a hat may be adopted, and an image is displayed corresponding to the left eye of the user. And a display unit that displays an image corresponding to the right eye of the user. The display device of the present invention may be configured as a head mounted display mounted on a vehicle such as an automobile or an airplane. Further, for example, it may be configured as a head-mounted display built in a body protective device such as a helmet. In this case, the part for positioning the position with respect to the user's body and the part positioned with respect to the part can be used as the mounting portion.

さらに、上記実施形態では、画像表示部20と制御装置10とが分離され、接続ケーブル40を介して接続された構成を例に挙げて説明したが、制御装置10と画像表示部20とが一体に構成され、使用者の頭部に装着される構成とすることも可能である。
また、制御装置10として、ノート型コンピューター、タブレット型コンピューター又はデスクトップ型コンピューターを用いてもよい。また、制御装置10として、ゲーム機や携帯型電話機やスマートフォンや携帯型メディアプレーヤーを含む携帯型電子機器、その他の専用機器等を用いてもよい。また、制御装置10が画像表示部20と分離して構成され、制御装置10と画像表示部20との間で無線通信により各種信号を送受信する構成としてもよい。
Further, in the above embodiment, the image display unit 20 and the control device 10 are separated and connected via the connection cable 40 as an example. However, the control device 10 and the image display unit 20 are integrated. It is also possible to be configured to be mounted on the user's head.
As the control device 10, a notebook computer, a tablet computer, or a desktop computer may be used. The control device 10 may be a game machine, a portable phone, a portable electronic device including a smartphone or a portable media player, other dedicated devices, or the like. Further, the control device 10 may be configured separately from the image display unit 20, and various signals may be transmitted and received between the control device 10 and the image display unit 20 by wireless communication.

また、例えば、画像表示部20において画像光を生成する構成として、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部とを備える構成としてもよい。また、画像光を生成する構成として、LCOS(Liquid Crystal on silicon, LCoSは登録商標)や、デジタル・マイクロミラー・デバイス等を用いることもできる。   For example, as a configuration for generating image light in the image display unit 20, a configuration including an organic EL (Organic Electro-Luminescence) display and an organic EL control unit may be used. Further, as a configuration for generating image light, LCOS (Liquid Crystal on silicon, LCoS is a registered trademark), a digital micromirror device, or the like can be used.

本発明でいう「表示部」は、画像光を出射する構成に相当し、HMD100が画像光を出射することを「表示する」と説明した。すなわち、上記各実施形態では、左右の画像光生成部により画像光を生成し、右光学像表示部26及び左光学像表示部28によって、使用者の右眼と左眼のそれぞれに向けて画像光を照射し、使用者の右眼と左眼のそれぞれに画像光を入射させる構成を例示する。「表示部」の構成はこれに限定されない。すなわち、画像光を照射するものであればよい。例えば本実施形態の構成では、ハーフミラー261A、262Aを有する「右導光部」及び「左導光部」によって、使用者の眼に向けて画像光を出射する。また、画像光を生成する構成として、右バックライト221及び左バックライト222と、右LCD241及び左LCD242とを備える。「表示部」はこれらの構成を必須としない。   The “display unit” in the present invention corresponds to a configuration that emits image light, and it has been described as “display” that the HMD 100 emits image light. That is, in each of the above embodiments, image light is generated by the left and right image light generation units, and images are directed toward the right eye and the left eye of the user by the right optical image display unit 26 and the left optical image display unit 28, respectively. The structure which irradiates light and makes image light inject into each of a user's right eye and left eye is illustrated. The configuration of the “display unit” is not limited to this. That is, any object that irradiates image light may be used. For example, in the configuration of the present embodiment, image light is emitted toward the user's eyes by the “right light guide” and “left light guide” having the half mirrors 261A and 262A. Further, as a configuration for generating image light, a right backlight 221 and a left backlight 222, and a right LCD 241 and a left LCD 242 are provided. The “display unit” does not require these configurations.

例えば、画像表示部20の右表示駆動部22及び左表示駆動部24のいずれか、又は両方に内蔵する機構によって生成される画像光を、画像表示部20の使用者側すなわち使用者の眼を向く側に設けられる反射機構により反射して、使用者の眼に出射してもよい。ここで、反射機構は、例えばMEMS(Micro Electro Mechanical Systems)ミラーを用いた走査光学系を採用することもできる。すなわち、画像光生成部が射出する光を走査するMEMSミラーを有する走査光学系を備え、この走査光学系で走査される光が使用者の眼に直接入射する構成としてもよい。また、走査光学系により走査される光によって虚像が形成される光学部材を、画像表示部20に設けてもよい。この光学部材はMEMSミラーが走査する走査光による虚像を形成する。この場合、MEMSミラーが光を走査することにより、虚像形成面に虚像が形成され、この虚像を使用者が眼で捉えることで、画像が視認(認識)される。この場合の光学部品は、例えば上記実施形態の右導光板261及び左導光板262のように、複数回の反射を経て光を導くものであってもよく、ハーフミラー面を利用してもよい。   For example, image light generated by a mechanism built in either or both of the right display driving unit 22 and the left display driving unit 24 of the image display unit 20 is transmitted to the user side of the image display unit 20, that is, the user's eyes. The light may be reflected by a reflection mechanism provided on the facing side and emitted to the user's eyes. Here, as the reflection mechanism, for example, a scanning optical system using a MEMS (Micro Electro Mechanical Systems) mirror can be adopted. In other words, a scanning optical system having a MEMS mirror that scans the light emitted from the image light generation unit may be provided, and the light scanned by the scanning optical system may be directly incident on the user's eyes. Further, an optical member on which a virtual image is formed by light scanned by the scanning optical system may be provided in the image display unit 20. This optical member forms a virtual image by scanning light scanned by the MEMS mirror. In this case, when the MEMS mirror scans light, a virtual image is formed on the virtual image forming surface, and the image is visually recognized (recognized) when the user catches the virtual image with eyes. The optical component in this case may be one that guides light through a plurality of reflections, such as the right light guide plate 261 and the left light guide plate 262 of the above embodiment, and may use a half mirror surface. .

また、走査光学系はMEMSミラーを備えた構成に限定されない。画像光を生成する機構も、レーザー光を発するレーザー光源であってもよい。例えば、レーザー網膜投影型のヘッドマウントディスプレイに対して本発明を適用することも可能である。すなわち、光射出部が、レーザー光源と、レーザー光源を使用者の眼に導く光学系とを備え、レーザー光を使用者の眼に入射させて網膜上を走査し、網膜に結像させることにより、使用者に画像を視認させる構成を採用してもよい。
また、走査される光を受ける虚像形成面に代えて、回折格子を用いて使用者の眼に画像光を導く構成であってもよい。つまり、光学部材の内部で画像光を導光させるものに限らず、使用者の眼に向けて画像光を屈折及び/又は反射させて導く機能のみを有するものであってもよい。
Further, the scanning optical system is not limited to the configuration including the MEMS mirror. The mechanism that generates the image light may also be a laser light source that emits laser light. For example, the present invention can also be applied to a laser retinal projection type head mounted display. That is, the light emitting unit includes a laser light source and an optical system that guides the laser light source to the user's eyes, and the laser light is incident on the user's eyes to scan the retina and form an image on the retina. A configuration that allows the user to visually recognize an image may be employed.
Moreover, it may replace with the virtual image formation surface which receives the light scanned, and the structure which guides image light to a user's eyes using a diffraction grating may be sufficient. That is, the optical member is not limited to guiding the image light inside the optical member, and may have only a function of guiding the image light by refracting and / or reflecting it toward the user's eyes.

MEMS等を有する走査光学系を備えた構成では、画像表示部20における走査光学系の取り付け角度を変更することで、使用者が画像を視認する位置、すなわち画像の表示位置を変更できる。従って、上記各実施形態で表示位置を変更する処理において、右LCD241、左LCD242における画像の表示位置を変更する動作に代えて、走査光学系の角度を変更する動作を行ってもよい。   In the configuration including the scanning optical system having MEMS or the like, the position where the user visually recognizes the image, that is, the display position of the image can be changed by changing the mounting angle of the scanning optical system in the image display unit 20. Therefore, in the process of changing the display position in each of the above embodiments, an operation of changing the angle of the scanning optical system may be performed instead of the operation of changing the display position of the image on the right LCD 241 and the left LCD 242.

また、画像光を使用者の眼に導く光学系としては、外部から装置に向けて入射する外光を透過する光学部材を備え、画像光とともに使用者の眼に入射させる構成を採用できる。また、使用者の眼の前方に位置して使用者の視界の一部または全部に重なる光学部材を用いてもよい。   The optical system that guides the image light to the user's eyes may include an optical member that transmits external light that is incident on the apparatus from the outside and that is incident on the user's eyes together with the image light. Moreover, you may use the optical member which is located ahead of a user's eyes and overlaps a part or all of a user's visual field.

また、上記各実施形態では使用者の眼前に位置する右光学像表示部26及び左光学像表示部28の一部に、ハーフミラー261A、262Aにより虚像が形成される構成を例示した。本発明はこれに限定されず、右光学像表示部26及び左光学像表示部28の全面または大部分を占める面積を有する表示領域に、画像を表示する構成としてもよい。この場合、画像の表示位置を変化させる動作において、画像を縮小する処理を含めてもよい。   Further, in each of the above embodiments, a configuration in which virtual images are formed by the half mirrors 261A and 262A on a part of the right optical image display unit 26 and the left optical image display unit 28 positioned in front of the user's eyes is illustrated. The present invention is not limited to this, and an image may be displayed on a display area having an area that occupies the entire surface or most of the right optical image display unit 26 and the left optical image display unit 28. In this case, a process of reducing the image may be included in the operation of changing the display position of the image.

さらに、本発明の光学素子は、ハーフミラー261A、262Aを有する右導光板261、左導光板262に限定されず、画像光を使用者の眼に入射させる光学部品であればよく、具体的には、回折格子、プリズム、ホログラフィー表示部を用いてもよい。   Furthermore, the optical element of the present invention is not limited to the right light guide plate 261 and the left light guide plate 262 having the half mirrors 261A and 262A, and may be any optical component that allows image light to enter the user's eyes. A diffraction grating, a prism, or a holographic display unit may be used.

また、本発明の表示装置は頭部装着型の表示装置に限定されず、フラットパネルディスプレイやプロジェクター等の各種の表示装置に適用できる。本発明の表示装置は、外光とともに画像光により画像を視認させるものであればよく、例えば、外光を透過させる光学部材により画像光による画像を視認させる構成が挙げられる。具体的には、上記のヘッドマウントディスプレイにおいて外光を透過する光学部材を備えた構成の他、使用者から離れた位置に固定的に、又は可動に設置された透光性の平面や曲面(ガラスや透明なプラスチック等)に画像光を投射する表示装置にも適用可能である。一例としては、車両の窓ガラスに画像光を投射し、乗車している使用者や車両の外にいる使用者に、画像光による画像とともに、車両内外の景色を視認させる表示装置の構成が挙げられる。また、例えば、建物の窓ガラスなど固定的に設置された透明また半透明、或いは有色透明な表示面に画像光を投射し、表示面の周囲にいる使用者に、画像光による画像とともに、表示面を透かして景色を視認させる表示装置の構成が挙げられる。   The display device of the present invention is not limited to a head-mounted display device, and can be applied to various display devices such as a flat panel display and a projector. The display device of the present invention may be any device that allows an image to be visually recognized by external light and image light. For example, a configuration in which an image by image light is visually recognized by an optical member that transmits external light is exemplified. Specifically, the above-described head-mounted display includes an optical member that transmits external light, and a light-transmitting plane or curved surface that is fixedly or movably installed at a position away from the user ( The present invention can also be applied to a display device that projects image light onto glass, transparent plastic, or the like. As an example, a configuration of a display device that projects image light onto a window glass of a vehicle and allows a user who is on board or a user outside the vehicle to visually recognize the scenery inside and outside the vehicle together with an image by the image light. It is done. In addition, for example, image light is projected onto a transparent, semi-transparent, or colored transparent display surface that is fixedly installed such as a window glass of a building, and is displayed together with an image by the image light to a user around the display surface. A configuration of a display device that visually recognizes a scene through the surface can be given.

また、図4等に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよく、図に示した通りに独立したハードウェア資源を配置する構成に限定されない。また、制御部140が実行するプログラムは、記憶部120または制御装置10内の他の記憶装置(図示略)に記憶されてもよいし、外部の装置に記憶されたプログラムを通信部117、又はインターフェイス114を介して取得して実行する構成としてもよい。また、制御装置10に形成された構成のうち、操作部111のみが単独の使用者インターフェイス(UI)として形成されてもよい。また、制御装置10に形成された構成が重複して画像表示部20に形成されていてもよい。例えば、制御部140が制御装置10と画像表示部20との両方に形成されていてもよいし、制御装置10に形成された制御部140と画像表示部20に形成されたCPUとが行う機能が別々に分けられている構成としてもよい。   Also, at least a part of each functional block shown in FIG. 4 or the like may be realized by hardware, or may be realized by cooperation of hardware and software, as shown in the figure. It is not limited to a configuration in which independent hardware resources are arranged. The program executed by the control unit 140 may be stored in the storage unit 120 or another storage device (not shown) in the control device 10, or the program stored in an external device may be stored in the communication unit 117, or The configuration may be such that it is acquired through the interface 114 and executed. Moreover, only the operation part 111 among the structures formed in the control apparatus 10 may be formed as a single user interface (UI). Further, the configuration formed in the control device 10 may be formed in the image display unit 20 in an overlapping manner. For example, the control unit 140 may be formed in both the control device 10 and the image display unit 20, or a function performed by the control unit 140 formed in the control device 10 and the CPU formed in the image display unit 20. May be configured separately.

10…制御装置、20…画像表示部(表示部)、22…右表示駆動部、24…左表示駆動部、26…右光学像表示部、28…左光学像表示部、61…カメラ(撮像部)、100…HMD(表示装置)、114…インターフェイス、117…通信部、120…記憶部、122…コンテンツデータ、123…表示設定データ、140…制御部、150…オペレーティングシステム、160…画像処理部、161…撮像制御部、163…動き検出部、164…AR表示制御部(表示制御部)、170…通信制御部、187…音声処理部、190…表示制御部、201…右バックライト制御部、202…左バックライト制御部、211…右LCD制御部、212…左LCD制御部、221…右バックライト、222…左バックライト、241…右LCD、242…左LCD、251…右投写光学系、252…左投写光学系、261…右導光板、262…左導光板、FV…前景、RV…背景、OB…対象物。   DESCRIPTION OF SYMBOLS 10 ... Control apparatus, 20 ... Image display part (display part), 22 ... Right display drive part, 24 ... Left display drive part, 26 ... Right optical image display part, 28 ... Left optical image display part, 61 ... Camera (imaging) Part), 100 ... HMD (display device), 114 ... interface, 117 ... communication part, 120 ... storage part, 122 ... content data, 123 ... display setting data, 140 ... control part, 150 ... operating system, 160 ... image processing 161: Imaging control unit, 163 ... Motion detection unit, 164 ... AR display control unit (display control unit), 170 ... Communication control unit, 187 ... Audio processing unit, 190 ... Display control unit, 201 ... Right backlight control , 202 ... Left backlight control unit, 211 ... Right LCD control unit, 212 ... Left LCD control unit, 221 ... Right backlight, 222 ... Left backlight, 241 ... Right LC , 242 ... left LCD, 251 ... right projection optical system, 252 ... left projection optical system, 261 ... Migishirubekoban, 262 ... Hidarishirubekoban, FV ... foreground, RV ... background, OB ... object.

Claims (20)

表示部と、
前記表示部を視認する使用者が、運動刺激を与える第1領域と、静止刺激を与える第2領域とが視差が異なるように重ねて視認可能なように、前記表示部に画像を表示させる表示制御部と、
を備えることを特徴とする表示装置。
A display unit;
Display that displays an image on the display unit so that a user who visually recognizes the display unit can visually recognize the first region that gives a motion stimulus and the second region that gives a stationary stimulus with different parallax. A control unit;
A display device comprising:
前記表示制御部は、前記使用者が前記第1領域を視認する視距離と、前記使用者が前記第2領域を視認する視距離とが異なる距離となるように、前記表示部に画像を表示させること、を特徴とする請求項1記載の表示装置。   The display control unit displays an image on the display unit such that a viewing distance at which the user visually recognizes the first area is different from a viewing distance at which the user visually recognizes the second area. The display device according to claim 1, wherein: 前記表示制御部は、前記第2領域の視距離が前記第1領域よりも前記使用者から遠い距離となるように、前記表示部に画像を表示させること、を特徴とする請求項2記載の表示装置。   3. The display unit according to claim 2, wherein the display control unit causes the display unit to display an image such that a viewing distance of the second region is farther from the user than the first region. Display device. 前記表示部は、外景を透過して前記使用者が視認可能に構成され、
前記表示制御部は、前記第2領域としての外景に重なるように、前記表示部により前記第1領域の画像を表示させること、を特徴とする請求項3記載の表示装置。
The display unit is configured to be visible to the user through the outside scene,
The display device according to claim 3, wherein the display control unit causes the display unit to display an image of the first region so as to overlap an outside scene as the second region.
前記表示部は、外景を透過して前記使用者が視認可能に構成され、
前記表示制御部は、前記第1領域としての外景とともに視認されるように、前記表示部により前記第2領域の画像を表示させること、を特徴とする請求項3記載の表示装置。
The display unit is configured to be visible to the user through the outside scene,
The display device according to claim 3, wherein the display control unit causes the display unit to display an image of the second region so that the display unit is visually recognized together with an outside scene as the first region.
前記表示制御部は、前記第1領域の画像、及び前記第2領域の画像のそれぞれを前記表示部に表示させること、を特徴とする請求項3記載の表示装置。   The display device according to claim 3, wherein the display control unit causes the display unit to display each of the image of the first region and the image of the second region. 前記表示制御部は、前記第2領域の視距離が前記第1領域よりも前記使用者に近い距離となるように、前記表示部に画像を表示させること、を特徴とする請求項2記載の表示装置。   3. The display control unit according to claim 2, wherein the display control unit displays an image on the display unit such that a viewing distance of the second region is closer to the user than the first region. Display device. 前記表示部は、外景を透過して前記使用者が視認可能に構成され、
前記表示制御部は、前記第2領域としての外景に重なるように、前記表示部により前記第1領域の画像を表示させること、を特徴とする請求項7記載の表示装置。
The display unit is configured to be visible to the user through the outside scene,
The display device according to claim 7, wherein the display control unit causes the display unit to display an image of the first region so as to overlap an outside scene as the second region.
前記表示部は、外景を透過して前記使用者が視認可能に構成され、
前記表示制御部は、前記第1領域としての外景に重なるように、前記表示部により前記第2領域の画像を表示させること、を特徴とする請求項7記載の表示装置。
The display unit is configured to be visible to the user through the outside scene,
The display device according to claim 7, wherein the display control unit causes the display unit to display an image of the second area so as to overlap an outside scene as the first area.
前記表示制御部は、前記第1領域の画像、及び前記第2領域の画像のそれぞれを前記表示部に表示させること、を特徴とする請求項7記載の表示装置。   The display device according to claim 7, wherein the display control unit causes the display unit to display each of the image of the first area and the image of the second area. 前記表示制御部は、前記使用者の視野の占める前記第2領域の割合が予め設定された所定割合以上となるように、前記表示部に画像を表示させること、を特徴とする請求項1から10のいずれかに記載の表示装置。   The display control unit causes the display unit to display an image so that a ratio of the second region occupied by the field of view of the user is equal to or higher than a predetermined ratio set in advance. The display device according to any one of 10. 前記表示制御部は、前記使用者の視野の占める前記第2領域の割合が予め設定された所定割合以下となるように、前記表示部に画像を表示させること、を特徴とする請求項1から10のいずれかに記載の表示装置。   The display control unit causes the display unit to display an image so that a ratio of the second area occupied by the visual field of the user is equal to or less than a predetermined ratio set in advance. The display device according to any one of 10. 前記表示制御部は、前記第1領域の単位時間あたりの動きの量が前記第2領域の単位時間あたりの動きの量よりも大きくなるように、前記表示部に画像を表示させること、を特徴とする請求項1から12のいずれかに記載の表示装置。   The display control unit causes the display unit to display an image such that the amount of movement per unit time of the first region is larger than the amount of movement per unit time of the second region. The display device according to claim 1. 前記使用者の頭部の動きを検出する動き検出部を備え、
前記表示部は、前記動き検出部により検出される動きに対応して、前記第1領域及び前記第2領域の少なくともいずれかの表示状態を変化させること、を特徴とする請求項1から13のいずれかに記載の表示装置。
A movement detecting unit for detecting movement of the user's head;
14. The display unit according to claim 1, wherein the display unit changes a display state of at least one of the first region and the second region in accordance with the motion detected by the motion detection unit. The display apparatus in any one.
撮像部を備え、
前記撮像部により撮像された撮像画像から検出される動きに対応して、前記第1領域及び前記第2領域の少なくともいずれかの表示状態を変化させること、を特徴とする請求項1から14のいずれかに記載の表示装置。
With an imaging unit,
15. The display state of at least one of the first area and the second area is changed in accordance with a motion detected from a captured image captured by the imaging unit. The display apparatus in any one.
前記表示制御部は、前記撮像部の撮像画像に基づいて生成される画像を、前記第1領域または前記第2領域として表示させること、を特徴とする請求項15記載の表示装置。   The display device according to claim 15, wherein the display control unit displays an image generated based on a captured image of the imaging unit as the first region or the second region. 前記表示制御部は、前記第1領域及び前記第2領域のいずれか前記使用者が注目する側の視認性を高めるように、前記表示部に画像を表示させること、を特徴とする請求項1から16のいずれかに記載の表示装置。   The display control unit causes the display unit to display an image so as to improve visibility on a side of the first region or the second region on which the user pays attention. The display device according to any one of 1 to 16. 前記表示制御部は、前記使用者の動きを検出して、検出した動きに対応して前記表示部に表示させる画像の動きを制御すること、を特徴とする請求項1から17のいずれかに記載の表示装置。   18. The display control unit according to claim 1, wherein the display control unit detects a movement of the user and controls a movement of an image displayed on the display unit in response to the detected movement. The display device described. 表示部を備える表示装置の制御方法であって、
前記表示部を視認する使用者が、運動刺激を与える第1領域と、静止刺激を与える第2領域とが視差が異なるように重ねて視認可能なように、前記表示部に画像を表示させること、
を特徴とする表示装置の制御方法。
A control method of a display device including a display unit,
Displaying an image on the display unit so that a user who visually recognizes the display unit can visually recognize the first region that gives a motion stimulus and the second region that gives a static stimulus with different parallax. ,
A control method of a display device characterized by the above.
表示部を備えるコンピューターが実行可能なプログラムであって、
前記コンピューターにより、
前記表示部を視認する使用者が、運動刺激を与える第1領域と、静止刺激を与える第2領域とが視差が異なるように重ねて視認可能なように、前記表示部に画像を表示させる、プログラム。
A computer executable program including a display unit,
By the computer
The user who visually recognizes the display unit displays an image on the display unit so that the first region for applying the motion stimulus and the second region for applying the static stimulus can be viewed with different parallaxes, program.
JP2015206145A 2015-10-20 2015-10-20 Display device, display device control method, and program Pending JP2017079389A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015206145A JP2017079389A (en) 2015-10-20 2015-10-20 Display device, display device control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015206145A JP2017079389A (en) 2015-10-20 2015-10-20 Display device, display device control method, and program

Publications (1)

Publication Number Publication Date
JP2017079389A true JP2017079389A (en) 2017-04-27

Family

ID=58667005

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015206145A Pending JP2017079389A (en) 2015-10-20 2015-10-20 Display device, display device control method, and program

Country Status (1)

Country Link
JP (1) JP2017079389A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111279410A (en) * 2017-11-02 2020-06-12 佳能株式会社 Display apparatus and display apparatus control method
WO2022247956A1 (en) * 2021-05-24 2022-12-01 华为技术有限公司 Human-computer interaction method, human-computer interaction device, and storage medium
WO2023276921A1 (en) * 2021-07-01 2023-01-05 マクセル株式会社 Air floating video display apparatus

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111279410A (en) * 2017-11-02 2020-06-12 佳能株式会社 Display apparatus and display apparatus control method
CN111279410B (en) * 2017-11-02 2022-10-11 佳能株式会社 Display apparatus and display apparatus control method
WO2022247956A1 (en) * 2021-05-24 2022-12-01 华为技术有限公司 Human-computer interaction method, human-computer interaction device, and storage medium
WO2023276921A1 (en) * 2021-07-01 2023-01-05 マクセル株式会社 Air floating video display apparatus

Similar Documents

Publication Publication Date Title
CN112130329B (en) Head-mounted display device and method for controlling head-mounted display device
US9959591B2 (en) Display apparatus, method for controlling display apparatus, and program
JP6060512B2 (en) Head-mounted display device
KR101845350B1 (en) Head-mounted display device, control method of head-mounted display device, and display system
CN106199963B (en) Display device and its control method and computer program
JP6089705B2 (en) Display device and control method of display device
KR101926577B1 (en) Expanded 3D stereoscopic display system
JP6369005B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP6492531B2 (en) Display device and control method of display device
JP6459380B2 (en) Head-mounted display device, head-mounted display device control method, and computer program
JP2018142857A (en) Head mounted display device, program, and control method of head mounted display device
JP6707809B2 (en) Display device, display device control method, and program
JP7218376B2 (en) Eye-tracking method and apparatus
JP7243193B2 (en) Display system, display system control method, information processing device, and information processing device control program
JP2017049468A (en) Display device, control method for display device, and program
JP2016224086A (en) Display device, control method of display device and program
JP6575117B2 (en) Display device, display device control method, and program
JP6303274B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP2016122177A (en) Display device and control method of display device
JP2016024208A (en) Display device, method for controlling display device, and program
US11743447B2 (en) Gaze tracking apparatus and systems
JP6620417B2 (en) Display device, control method therefor, and computer program
JP2017079389A (en) Display device, display device control method, and program
JP6428024B2 (en) Display device, display device control method, and program
JP6582374B2 (en) Display device, control method therefor, and computer program