JP2014071230A - Image display device, control method, program, and recording medium - Google Patents

Image display device, control method, program, and recording medium Download PDF

Info

Publication number
JP2014071230A
JP2014071230A JP2012216439A JP2012216439A JP2014071230A JP 2014071230 A JP2014071230 A JP 2014071230A JP 2012216439 A JP2012216439 A JP 2012216439A JP 2012216439 A JP2012216439 A JP 2012216439A JP 2014071230 A JP2014071230 A JP 2014071230A
Authority
JP
Japan
Prior art keywords
image
user
display
unit
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012216439A
Other languages
Japanese (ja)
Other versions
JP6026836B2 (en
Inventor
Shigeru Tanaka
茂 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2012216439A priority Critical patent/JP6026836B2/en
Publication of JP2014071230A publication Critical patent/JP2014071230A/en
Application granted granted Critical
Publication of JP6026836B2 publication Critical patent/JP6026836B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image display device capable of displaying an image appropriately taking characteristics of sight of a user into consideration.SOLUTION: An image display device includes a sight information acquisition part and a display control part. The sight information acquisition part acquires information about sight of a user. The display control part causes a display part to display an image on a display part so as to generate a virtual image in a focal position of a line of sight of the user. Then, the display control part adjusts the image on the basis of the acquisition result of the sight information acquisition part and causes the display part to display it.

Description

本発明は、画像を表示する技術に関する。   The present invention relates to a technique for displaying an image.

従来から、観察者の眼の負担を低減するように、画像の調整を行う技術が知られている。例えば、特許文献1には、立体視ディスプレイの画像調整において、左眼用画像と右眼用画像との輝度をそれぞれ測定し、その差を所定値以下に抑制するように制御する技術が開示されている。その他、本発明に関連する技術が特許文献2に開示されている。   2. Description of the Related Art Conventionally, a technique for adjusting an image so as to reduce the burden on the eyes of an observer is known. For example, Patent Document 1 discloses a technique for measuring brightness of an image for the left eye and an image for the right eye, respectively, and controlling the difference to be a predetermined value or less in image adjustment of a stereoscopic display. ing. In addition, Patent Document 2 discloses a technique related to the present invention.

特開2012−073434号公報JP2012-073434A 特開平07−321087号公報Japanese Patent Application Laid-Open No. 07-321087

特許文献1等に記載の技術では、観察者の視覚の特性を考慮していないため、種々の眼の特性を有する観察者に応じて眼の負担を低減するように画像を表示することができない。   In the technique described in Patent Document 1 and the like, since the visual characteristics of the observer are not taken into consideration, an image cannot be displayed so as to reduce the burden on the eyes according to the observer having various eye characteristics. .

本発明は、上記のような課題を解決するためになされたものであり、観察者の視覚の特性を考慮して適切に画像を表示させることが可能な画像表示装置を提供することを主な目的とする。   The present invention has been made to solve the above-described problems, and mainly provides an image display device capable of displaying an image appropriately in consideration of the visual characteristics of an observer. Objective.

請求項1に記載の発明では、画像表示装置は、利用者の視覚に関する情報を取得する視覚情報取得部と、前記利用者の視線の焦点位置に虚像が生成されるように、画像を表示部に表示させる表示制御部と、を備え、前記表示制御部は、前記視覚情報取得部の取得結果に基づいて、前記画像を調整して、前記表示部に表示させることを特徴とする。   In the first aspect of the present invention, the image display device includes a visual information acquisition unit that acquires information related to the user's vision, and an image display unit that generates a virtual image at the focal position of the user's line of sight. A display control unit to be displayed on the display unit, wherein the display control unit adjusts the image based on the acquisition result of the visual information acquisition unit and displays the image on the display unit.

請求項10に記載の発明は、画像表示装置が実行する制御方法であって、利用者の視覚に関する情報を取得する視覚情報取得工程と、前記利用者の視線の焦点位置に虚像が生成されるように、画像を表示部に表示させる表示制御工程と、を有し、前記表示制御工程では、前記視覚情報取得工程での取得結果に基づいて、前記画像を調整して、前記表示部に表示させることを特徴とする。   According to a tenth aspect of the present invention, there is provided a control method executed by the image display device, wherein a visual information acquisition step of acquiring information related to a user's vision and a virtual image are generated at a focal position of the user's line of sight. The display control step for displaying the image on the display unit, and in the display control step, the image is adjusted based on the acquisition result in the visual information acquisition step and displayed on the display unit. It is characterized by making it.

請求項11に記載の発明は、画像表示装置が実行するプログラムであって、利用者の視覚に関する情報を取得する視覚情報取得部と、前記利用者の視線の焦点位置に虚像が生成されるように、画像を表示部に表示させる表示制御部として前記画像表示装置を機能させ、前記表示制御部は、前記視覚情報取得部の取得結果に基づいて、前記画像を調整して、前記表示部に表示させることを特徴とする。   The invention according to claim 11 is a program executed by the image display device, wherein a virtual information is generated at a visual information acquisition unit that acquires information relating to a user's vision and a focus position of the user's line of sight. In addition, the image display device is caused to function as a display control unit that displays an image on a display unit, and the display control unit adjusts the image based on an acquisition result of the visual information acquisition unit, and displays the image on the display unit. It is characterized by being displayed.

ヘッドマウントディスプレイシステムの概略構成図である。It is a schematic block diagram of a head mounted display system. ヘッドマウントディスプレイの機能的な構成を示すブロック図である。It is a block diagram which shows the functional structure of a head mounted display. 眼球及び瞳孔の位置関係を示す。The positional relationship between the eyeball and the pupil is shown. ヘッドマウントユニットの概略構成を示す。The schematic structure of a head mount unit is shown. 利用者情報のデータ構造を示す。The data structure of user information is shown. ヘッドマウントディスプレイの起動時の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence at the time of starting of a head mounted display. 眼位が正眼位の場合の虚像の位置調整の概要図を示す。The schematic diagram of position adjustment of a virtual image in case eye positions are right eye positions is shown. 片眼に斜位がある場合の虚像の位置調整の概要図を示す。The schematic diagram of the position adjustment of the virtual image when there is an oblique position in one eye is shown. 表示可能範囲と有効領域Rtagとの位置関係を示す。The positional relationship between the displayable range and the effective area Rtag is shown. コンテンツ視聴時の焦点位置及び有効領域の調整処理の手順を示す。A procedure for adjusting the focal position and the effective area during content viewing will be described. 焦点位置調整処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of a focus position adjustment process. 有効領域調整処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of an effective area adjustment process.

本発明の好適な実施形態によれば、画像表示装置は、利用者の視覚に関する情報を取得する視覚情報取得部と、前記利用者の視線の焦点位置に虚像が生成されるように、画像を表示部に表示させる表示制御部と、を備え、前記表示制御部は、前記視覚情報取得部の取得結果に基づいて、前記画像を調整して、前記表示部に表示させる。   According to a preferred embodiment of the present invention, the image display device obtains an image so that a virtual image is generated at a focal information position of the user's line of sight, and a visual information acquisition unit that acquires information related to the user's vision. A display control unit to be displayed on the display unit, and the display control unit adjusts the image based on the acquisition result of the visual information acquisition unit and displays the image on the display unit.

上記の画像表示装置は、視覚情報取得部と、表示制御部とを備える。視覚情報取得部は、利用者の視覚に関する情報を取得する。表示制御部は、利用者の視線の焦点位置に虚像が生成されるように、画像を表示部に表示させる。そして、表示制御部は、視覚情報取得部の取得結果に基づいて、画像を調整して、表示部に表示させる。このように、画像表示装置は、利用者の視線の焦点位置に虚像が生成されるように、画像を表示部に表示させることで、利用者の眼の負担を低減させることができる。また、画像表示装置は、利用者の視覚の情報に基づいて画像を調整することで、種々の視覚特性を有する利用者ごとに適した画像を表示させることができる。   The image display device includes a visual information acquisition unit and a display control unit. The visual information acquisition unit acquires information related to the user's vision. The display control unit displays an image on the display unit so that a virtual image is generated at the focal position of the user's line of sight. And a display control part adjusts an image based on the acquisition result of a visual information acquisition part, and displays it on a display part. As described above, the image display apparatus can reduce the burden on the eyes of the user by displaying the image on the display unit so that a virtual image is generated at the focal position of the user's line of sight. Moreover, the image display apparatus can display an image suitable for each user having various visual characteristics by adjusting the image based on the visual information of the user.

上記画像表示装置の一態様では、利用者の頭部に装着され、当該利用者の視認可能な位置に画像を表示する前記表示部をさらに備える。このように、本発明は、頭部に装着する利用者専用のディスプレイであるヘッドマウントディスプレイに好適に適用することができる。   In one aspect of the image display device, the image display device further includes the display unit that is attached to a user's head and displays an image at a position where the user can visually recognize the image. As described above, the present invention can be suitably applied to a head mounted display that is a display exclusively for the user to be worn on the head.

上記画像表示装置の他の一態様では、前記視覚情報取得部は、前記利用者の眼位情報を取得し、前記表示制御部は、前記眼位情報に基づいて、前記虚像の位置が調整されるように、前記画像を前記表示部に表示させる。これにより、利用者に斜位等の眼位特性がある場合であっても、好適に利用者の眼の負担を低減させることができる。   In another aspect of the image display device, the visual information acquisition unit acquires the eye position information of the user, and the display control unit adjusts the position of the virtual image based on the eye position information. As described above, the image is displayed on the display unit. Thereby, even if the user has eye position characteristics such as oblique position, the burden on the user's eyes can be suitably reduced.

上記画像表示装置の他の一態様では、前記表示部は、右眼用表示部と、左眼用表示部とを有し、前記表示制御部は、前記右眼用表示部と、前記左眼用表示部とのそれぞれに対して画像を表示させる。一般に、視覚の特性は、左眼と右眼とで異なる場合がある。従って、この態様により、画像表示装置は、左右の眼のそれぞれの特性を勘案して、左右の眼のそれぞれに適切に画像を調整して虚像を視認させることができる。   In another aspect of the image display device, the display unit includes a right eye display unit and a left eye display unit, and the display control unit includes the right eye display unit and the left eye. An image is displayed on each display unit. In general, visual characteristics may differ between the left eye and the right eye. Therefore, according to this aspect, the image display device can make the virtual image visible by appropriately adjusting the images to the left and right eyes in consideration of the characteristics of the left and right eyes.

上記画像表示装置の他の一態様では、前記視覚情報取得部は、前記利用者の動体視力情報を取得し、前記表示制御部は、前記動体視力情報に基づいて、前記画像の輝度又は/及びコントラストを調整する。この態様により、画像表示装置は、動画コンテンツを視聴させる際に、好適に眼の疲労を抑制することができる。   In another aspect of the image display device, the visual information acquisition unit acquires the moving object visual acuity information of the user, and the display control unit determines the luminance or / and / or the image based on the moving object visual acuity information. Adjust the contrast. According to this aspect, the image display apparatus can appropriately suppress eye fatigue when viewing the moving image content.

上記画像表示装置の他の一態様では、前記表示制御部は、前記動体視力情報に基づいて、前記画像を複数の領域に分割し、当該領域ごとに、輝度又は/及びコントラストを異ならせるように調整する。この態様により、画像表示装置は、動画コンテンツを視聴させる際に、好適に眼の疲労を抑制することができる。   In another aspect of the image display device, the display control unit divides the image into a plurality of regions based on the moving body visual acuity information, and changes the brightness or / and contrast for each region. adjust. According to this aspect, the image display apparatus can appropriately suppress eye fatigue when viewing the moving image content.

上記画像表示装置の他の一態様では、前記利用者の視線の焦点位置から遠い領域ほど目立たなくなるように、前記輝度又は/及びコントラストを調整する。このようにすることで、画像表示装置は、好適に眼の疲労を抑制することができる。   In another aspect of the image display device, the luminance or / and the contrast are adjusted so that the region farther from the focal position of the user's line of sight becomes less noticeable. By doing in this way, the image display apparatus can suppress eye fatigue suitably.

上記画像表示装置の他の一態様では、画像表示装置は、利用者を識別するための識別情報を取得する利用者識別情報取得部と、前記視覚情報取得部が取得した前記利用者の視覚に関する情報を、前記識別情報に関連付けて記憶する記憶部と、をさらに備える。この態様により、画像表示装置は、利用者ごとに視覚情報を好適に記録して使用することができる。   In another aspect of the image display device, the image display device relates to a user identification information acquisition unit that acquires identification information for identifying a user, and the user's vision acquired by the visual information acquisition unit. And a storage unit that stores information in association with the identification information. According to this aspect, the image display apparatus can preferably record and use visual information for each user.

上記画像表示装置の他の一態様では、前記識別情報は、利用者の眼の光彩情報である。この態様により、画像表示装置は、好適に利用者を識別することができる。   In another aspect of the image display device, the identification information is iris information of the user's eyes. According to this aspect, the image display apparatus can preferably identify the user.

本発明の好適な他の実施形態によれば、画像表示装置が実行する制御方法であって、利用者の視覚に関する情報を取得する視覚情報取得工程と、前記利用者の視線の焦点位置に虚像が生成されるように、画像を表示部に表示させる表示制御工程と、を有し、前記表示制御工程では、前記視覚情報取得工程での取得結果に基づいて、前記画像を調整して、前記表示部に表示させる。画像表示装置は、この制御方法を実行することで、観察者の視覚の特性を考慮して適切に画像を表示させることができる。   According to another preferred embodiment of the present invention, there is provided a control method executed by the image display device, the visual information acquiring step for acquiring information relating to the user's vision, and the virtual image at the focal position of the user's line of sight A display control step of displaying an image on a display unit so as to be generated, and in the display control step, the image is adjusted based on an acquisition result in the visual information acquisition step, Display on the display. By executing this control method, the image display apparatus can appropriately display an image in consideration of the visual characteristics of the observer.

本発明の好適な他の実施形態によれば、画像表示装置が実行するプログラムであって、利用者の視覚に関する情報を取得する視覚情報取得部と、前記利用者の視線の焦点位置に虚像が生成されるように、画像を表示部に表示させる表示制御部として前記画像表示装置を機能させ、前記表示制御部は、前記視覚情報取得部の取得結果に基づいて、前記画像を調整して、前記表示部に表示させる。画像表示装置は、このプログラムを実行することで、観察者の視覚の特性を考慮して適切に画像を表示させることができる。   According to another preferred embodiment of the present invention, the program is executed by the image display device, and a visual information acquisition unit that acquires information related to a user's vision and a virtual image at a focal position of the user's line of sight The image display device is caused to function as a display control unit that displays an image on a display unit so as to be generated, and the display control unit adjusts the image based on an acquisition result of the visual information acquisition unit, Display on the display unit. By executing this program, the image display apparatus can appropriately display an image in consideration of the visual characteristics of the observer.

以下、図面を参照して本発明の好適な実施例について説明する。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.

[ヘッドマウントディスプレイシステムの構成]
図1は、本実施例に係るヘッドマウントディスプレイシステムの概略構成図である。以下では、ヘッドマウントディスプレイを適宜「HMD」と表記する。図1に示すように、HMDシステムは、主に、HMD1と、ヘッドフォン2と、ヘッドマウント(HM)ユニット3と、頭部固定器4と、外部再生機5と、操作部6とを有する。以後では、HMD1が表示する画像の縦方向(即ち主走査方向)をY軸方向、当該画像の横方向(即ち副走査方向)をX軸方向、XY平面に垂直な方向をZ軸方向とし、各軸の正方向を図示のように定める。
[Configuration of head mounted display system]
FIG. 1 is a schematic configuration diagram of a head mounted display system according to the present embodiment. Hereinafter, the head-mounted display is appropriately expressed as “HMD”. As shown in FIG. 1, the HMD system mainly includes an HMD 1, a headphone 2, a head mount (HM) unit 3, a head fixing device 4, an external playback device 5, and an operation unit 6. Hereinafter, the vertical direction (that is, the main scanning direction) of the image displayed by the HMD 1 is the Y-axis direction, the horizontal direction (that is, the sub-scanning direction) of the image is the X-axis direction, and the direction perpendicular to the XY plane is the Z-axis direction. The positive direction of each axis is determined as shown in the figure.

HMD1は、頭部固定器4により利用者の頭部に装着され、外部再生機5から出力される画像等を表示することで利用者にその虚像を視認させる。ヘッドフォン2は、利用者の耳に装着され、外部再生機5から出力される音声データ等を出力する。HMユニット3は、HMD1の表示制御やヘッドフォン2の音声出力制御などのHMDシステム全体の制御を行う。外部再生機5は、ハードディスクや記憶媒体に記憶されたコンテンツを読み込んでHMユニット3にコンテンツの画像や音声データを出力する。操作部6は、利用者が各種操作を行う際に使用するリモートコントローラである。   The HMD 1 is attached to the user's head by the head fixing device 4 and displays an image or the like output from the external playback device 5 so that the user can visually recognize the virtual image. The headphone 2 is attached to the user's ear and outputs audio data and the like output from the external player 5. The HM unit 3 controls the entire HMD system such as display control of the HMD 1 and sound output control of the headphones 2. The external player 5 reads the content stored in the hard disk or storage medium and outputs the content image or audio data to the HM unit 3. The operation unit 6 is a remote controller used when the user performs various operations.

なお、図1には、HMD1、ヘッドフォン2、及び外部再生機5とHMユニット3とは有線接続している様子が示されているが、これに代えて、BlueTooth(登録商標)などの通信規格に従い無線接続してもよい。また、操作部6は、HMD1やHMユニット3に設けられたキーやボタン等であってもよい。   FIG. 1 shows a state in which the HMD 1, the headphones 2, the external player 5 and the HM unit 3 are connected by wire, but instead of this, a communication standard such as BlueTooth (registered trademark). Wireless connection may be made according to Further, the operation unit 6 may be a key, a button, or the like provided in the HMD 1 or the HM unit 3.

[HMDの構成]
図2は、HMD1の機能的な構成を示すブロック図である。図2は、Y軸正方向からHMD1を観察した場合のHMD1の各構成要素の配置を概略的に示している。図2に示すように、HMD1は、主に、右眼用表示部11Rと、左眼用表示部11Lと、眼情報測定部12R、12Lと、通信部13とを有する。
[Configuration of HMD]
FIG. 2 is a block diagram illustrating a functional configuration of the HMD 1. FIG. 2 schematically shows the arrangement of the components of the HMD 1 when the HMD 1 is observed from the positive direction of the Y axis. As illustrated in FIG. 2, the HMD 1 mainly includes a right-eye display unit 11R, a left-eye display unit 11L, eye information measurement units 12R and 12L, and a communication unit 13.

右眼用表示部11Rは、利用者が右眼により視認する画像を表示する。左眼用表示部11Lは、利用者が左眼により視認する画像を表示する。右眼用表示部11R及び左眼用表示部11Lは、例えば透過性を有するスクリーンと、表示像を構成する光をスクリーンに出射する光源とを有し、スクリーンの反射光に基づき利用者に虚像を視認させる。また、右眼用表示部11R及び左眼用表示部11Lは、眼から視認する虚像までの距離(「虚像距離Lv」とも呼ぶ。)を調整自在に構成されている。また、右眼用表示部11R及び左眼用表示部11Lは、利用者の眼幅や虚像距離Lvに応じて、位置調整自在に構成されている。また、右眼用表示部11R及び左眼用表示部11Lは、立体映像表示に対応している。   The right-eye display unit 11R displays an image that the user visually recognizes with the right eye. The left-eye display unit 11L displays an image that is visually recognized by the user with the left eye. The display unit 11R for the right eye and the display unit 11L for the left eye have, for example, a transparent screen and a light source that emits light constituting the display image to the screen, and a virtual image is displayed to the user based on the reflected light of the screen. Make it visible. In addition, the right-eye display unit 11R and the left-eye display unit 11L are configured to be able to adjust the distance from the eye to the visually recognized virtual image (also referred to as “virtual image distance Lv”). Moreover, the display part 11R for right eyes and the display part 11L for left eyes are comprised so that position adjustment is possible according to a user's eye width and virtual image distance Lv. Further, the right-eye display unit 11R and the left-eye display unit 11L correspond to stereoscopic image display.

眼情報測定部12Rは、利用者の右眼の各視覚機能の測定(「視覚検査」とも呼ぶ。)を行う。眼情報測定部12Lは、利用者の左眼の視覚検査を行う。また、眼情報測定部12R、12Lは、撮像手段を有し、利用者の眼の光彩情報を取得する。通信部13は、HMユニット3との通信を行う。   The eye information measurement unit 12R performs measurement of each visual function of the user's right eye (also referred to as “visual inspection”). The eye information measurement unit 12L performs a visual inspection of the user's left eye. Further, the eye information measuring units 12R and 12L have an imaging unit, and acquire iris information of the user's eyes. The communication unit 13 performs communication with the HM unit 3.

ここで、眼情報測定部12R、12Lが行う視覚検査について具体的に説明する。   Here, the visual inspection performed by the eye information measurement units 12R and 12L will be specifically described.

視覚検査には、例えば、視力検査、眼位検査、他覚的屈折検査などが含まれる。視力検査は左眼・右眼・両眼に対して行う。視力検査には、静止視力の検査と動体視力の検査とが含まれる。静止視力検査では、眼情報測定部12R、12Lは、一般的に使用されるランドルト環を使用した測定、アルファベットを用いるスネレン視標やEチャート、その他平仮名や片仮名を用いた測定を行う。動体視力検査は、横方向の動きを識別するDVA(Dynamic Visual Acuity)動体視力の検査と、前後方向の動きを識別するKVA(Kinetic Visual Acuity)動体視力の検査とを含む。眼位検査は、斜視又は斜位(潜在的斜視)の有無及びその程度(即ち眼位ずれ)を検出する検査であり、左・右・両眼に対して行われ、カバーテスト、カバーアンカバーテスト、ヒルシュベルグテストなどが用いられる。他覚的屈折検査は、オートレフラクトメータと同様、他覚的屈折度数や角膜曲率半径の測定などを行うことで、弱視、遠視、乱視の有無及びその度合いを計測する検査である。そして、視覚検査の際には、眼情報測定部12R、12Lは、右眼用表示部11Rや左眼用表示部11Lに対して、検査用の画像等を必要に応じて表示させる。また、眼情報測定部12R、12Lは、視力検査等において、利用者に対して操作部6への入力を適宜要求し、操作部6から送信された操作情報に基づき検査結果を認識する。   The visual examination includes, for example, a visual acuity examination, an eye position examination, an objective refraction examination, and the like. Visual acuity tests are performed on the left eye, right eye, and both eyes. The visual acuity test includes a static visual acuity test and a moving visual acuity test. In the static visual acuity test, the eye information measuring units 12R and 12L perform measurement using a commonly used Landolt ring, Snellen target using alphabet, E chart, and other hiragana or katakana. The dynamic visual acuity test includes a dynamic visual acuity (DVA) visual acuity test that identifies lateral movement, and a dynamic visual acuity (KVA) visual acuity test that identifies longitudinal movement. The eye position inspection is an inspection to detect the presence or absence of strabismus or oblique position (potential strabismus) and its degree (ie, misalignment), and is performed on the left, right, and both eyes. Test, Hirschberg test, etc. are used. Similar to the autorefractometer, the objective refraction test is a test that measures the presence and degree of amblyopia, hyperopia, and astigmatism by measuring the objective refractive power and the corneal curvature radius. In the visual inspection, the eye information measurement units 12R and 12L cause the right-eye display unit 11R and the left-eye display unit 11L to display an inspection image or the like as necessary. Further, the eye information measuring units 12R and 12L appropriately request the user to input to the operation unit 6 in the visual acuity test or the like, and recognize the inspection result based on the operation information transmitted from the operation unit 6.

なお、上述の視覚検査の検査結果を算出する際、眼情報測定部12R、12Lは、視覚検査用のプログラムが記憶されたサーバに検査結果を算出させてもよい。この場合、眼情報測定部12R、12Lは、通信部13を介し、検査結果を算出するのに必要な計測結果を上述のサーバに送信し、当該サーバが算出した検査結果を受信する。   When calculating the inspection result of the visual inspection described above, the eye information measurement units 12R and 12L may cause the server storing the visual inspection program to calculate the inspection result. In this case, the eye information measurement units 12R and 12L transmit the measurement result necessary for calculating the test result to the above-described server via the communication unit 13, and receive the test result calculated by the server.

次に、図3を参照し、眼情報測定部12R、12Lが実行する視覚検査の具体例について説明する。ここでは、一例として、眼位検査の例について説明する。まず、斜位を有する左眼を対象とした単眼計測の場合について説明する。   Next, a specific example of visual inspection performed by the eye information measurement units 12R and 12L will be described with reference to FIG. Here, an example of eye position examination will be described as an example. First, the case of monocular measurement for the left eye having an oblique position will be described.

図3(A)は、左眼用表示部11Lにより左眼に対して正面位置に検査用のマーク等の対象物を表示させて左眼により視認させた場合の眼球8L及び瞳孔9Lの位置関係を示す。この場合、図3(A)に示すように、眼位ずれが生じていない。   FIG. 3A shows the positional relationship between the eyeball 8L and the pupil 9L when an object such as an inspection mark is displayed at the front position with respect to the left eye by the left eye display unit 11L and visually recognized by the left eye. Indicates. In this case, as shown in FIG.

図3(B)は、左眼のみで対象物を見ている状態から左眼の視界を遮断した場合の眼球8L及び瞳孔9Lの位置関係を示す。なお、図3(B)では、図3(A)の時の瞳孔9Lの位置を破線により示している。   FIG. 3B shows the positional relationship between the eyeball 8L and the pupil 9L when the left eye field of view is blocked from a state in which the object is viewed only with the left eye. In FIG. 3B, the position of the pupil 9L at the time of FIG.

図3(B)に示すように、この場合、瞳孔9LがX軸負方向に矢印ARが示す幅だけずれている。従って、この場合、眼情報測定部12Lは、左眼を撮影した画像等に基づき、矢印ARが示す幅だけ眼位ずれが生じていることを認識する。このように、眼情報測定部12R、12Lは、各眼に対して単眼計測を行う。   As shown in FIG. 3B, in this case, the pupil 9L is displaced by the width indicated by the arrow AR in the negative X-axis direction. Therefore, in this case, the eye information measurement unit 12L recognizes that the eye position shift has occurred by the width indicated by the arrow AR based on the image obtained by photographing the left eye. As described above, the eye information measurement units 12R and 12L perform monocular measurement on each eye.

また、眼情報測定部12R、12Lは、単眼計測に加え、両眼により対象物を視認する際のいずれか一方又は両方の眼に生じる眼位のずれを計測する両眼計測を行う。両眼計測の場合、眼情報測定部12R、12Lは、注視させる対象物の表示位置に対する正常な眼位を示す情報を予め記憶しておき、当該対象物を注視させているときの各眼の眼位と比較をすることで、各眼の眼位ずれの有無及びその程度を検出する。   Further, in addition to monocular measurement, the eye information measurement units 12R and 12L perform binocular measurement that measures a shift in eye position that occurs in one or both eyes when the object is visually recognized by both eyes. In the case of binocular measurement, the eye information measuring units 12R and 12L store in advance information indicating a normal eye position with respect to the display position of the object to be watched, and each eye when the object is being stared is stored. By comparing with the eye position, the presence / absence and degree of eye position shift of each eye is detected.

ここで、好適には、眼情報測定部12R、12Lは、単眼計測及び両眼計測において、眼視させる対象物の表示位置を変えて眼位のずれを複数回計測する。例えば、眼情報測定部12R、12Lは、左眼用表示部11L、右眼用表示部11Rの表示可能範囲の四隅の各々に順番に対象物を表示させて、眼位のずれをそれぞれ計測し、検査結果として記憶する。他の例では、眼情報測定部12R、12Lは、左眼用表示部11L、右眼用表示部11RのXY平面における表示可能範囲を複数のブロックに区分し、ブロックごとに対象物を表示させて、眼位のずれをそれぞれ計測し、検査結果として記憶する。これらの例において、好適には、眼情報測定部12R、12Lは、表示させる対象物の眼に対するZ軸方向の距離を変化させて、それぞれの距離ごとに、眼位のずれを計測するとよい。即ち、この場合、眼情報測定部12R、12Lは、虚像距離Lvごとに、眼位のずれを計測する。このように、眼情報測定部12R、12Lは、好適には、表示させる対象物の表示位置をX、Y、Z軸方向に変化させて、各表示位置での眼位のずれを計測する。   Here, preferably, in the monocular measurement and the binocular measurement, the eye information measurement units 12R and 12L change the display position of the object to be visually observed and measure the eye position deviation a plurality of times. For example, the eye information measurement units 12R and 12L display the target object in order at each of the four corners of the displayable range of the left-eye display unit 11L and the right-eye display unit 11R, and measure the eye position deviation. And memorize it as a test result. In another example, the eye information measurement units 12R and 12L divide the displayable range in the XY plane of the left-eye display unit 11L and the right-eye display unit 11R into a plurality of blocks, and display an object for each block. Then, the eye position deviation is measured and stored as a test result. In these examples, preferably, the eye information measuring units 12R and 12L may change the distance in the Z-axis direction of the object to be displayed with respect to the eyes, and measure the eye position deviation for each distance. That is, in this case, the eye information measurement units 12R and 12L measure the eye position deviation for each virtual image distance Lv. As described above, the eye information measurement units 12R and 12L preferably change the display position of the object to be displayed in the X, Y, and Z axis directions and measure the eye position shift at each display position.

なお、眼情報測定部12R、12Lは、両眼計測において、全ての対象物の表示位置で眼位ずれを検知した場合、眼位ずれが生じている眼が恒常性斜視である可能性が高いと判断し、対象物の表示位置によって眼位ずれの有無が変わる場合には、眼位ずれが生じている眼が間歇性斜視である可能性が高いと判断する。そして、後述するHMユニット3は、これらの斜視傾向がある場合、正眼位の眼(効眼)に負担が集中するのを防ぐため、当該効眼の負担を軽減するように、虚像の位置の調整等を行う。   In the binocular measurement, when the eye information measurement units 12R and 12L detect eye misalignment at the display positions of all objects, it is highly likely that the eye in which the eye misalignment has occurred is a homeostatic perspective. If the presence / absence of eye misalignment changes depending on the display position of the object, it is determined that there is a high possibility that the eye where the eye misalignment has occurred is an intermittent strabismus. When the HM unit 3 to be described later has such a perspective tendency, in order to prevent the burden from concentrating on the right eye (effect), the position of the virtual image is reduced so as to reduce the burden of the effect. Make adjustments.

[HMユニットの構成]
図4は、HMユニット3の概略構成を示す。図4に示すように、HMユニット3は、主に、通信部31と、制御部32と、記憶部33とを有する。
[Configuration of HM unit]
FIG. 4 shows a schematic configuration of the HM unit 3. As shown in FIG. 4, the HM unit 3 mainly includes a communication unit 31, a control unit 32, and a storage unit 33.

通信部31は、外部再生機5及びHMD1と通信を行い、画像、音声データ及びその他の情報の送受信を行う。また、通信部31は、操作部6から操作情報を受信する。   The communication unit 31 communicates with the external playback device 5 and the HMD 1 to transmit / receive images, audio data, and other information. In addition, the communication unit 31 receives operation information from the operation unit 6.

制御部32は、CPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access Memory)を含んでおり、ROMなどに記憶された制御プログラムを実行することで、HMユニット3全体を制御する。例えば、制御部32は、HMD1を装着した利用者の視覚情報に基づいて、HMD1に送信する画像の画質を調整したり、利用者に視認させる虚像の位置を調整するようにHMD1を制御したりする。制御部32は、眼情報測定部12R、12Lと共に本発明における「視覚情報取得部」及び「利用者識別情報取得部」として機能する。また、制御部32は、本発明における「表示制御部」として機能する。   The control unit 32 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory), and controls the entire HM unit 3 by executing a control program stored in the ROM or the like. To do. For example, the control unit 32 adjusts the image quality of an image transmitted to the HMD 1 based on the visual information of the user wearing the HMD 1 or controls the HMD 1 so as to adjust the position of a virtual image to be visually recognized by the user. To do. The control unit 32 functions as a “visual information acquisition unit” and a “user identification information acquisition unit” in the present invention together with the eye information measurement units 12R and 12L. The control unit 32 functions as a “display control unit” in the present invention.

記憶部33は、眼情報測定部12R、12Lから送信された利用者ごとの視覚検査の情報(「利用者情報」とも呼ぶ。)を記憶する。また、記憶部33は、視覚情報の組み合わせごとに適した画質に関する調整値のマップや、視覚情報の組み合わせごとに適した虚像の位置の調整値のマップを記憶する。上述のマップに記憶される各調整値は、対応付けられた視覚情報に対して、実験的又は理論的に適した値となるように予め定められる。   The storage unit 33 stores visual inspection information (also referred to as “user information”) for each user transmitted from the eye information measurement units 12R and 12L. In addition, the storage unit 33 stores a map of adjustment values relating to image quality suitable for each combination of visual information and a map of adjustment values of virtual image positions suitable for each combination of visual information. Each adjustment value stored in the above-described map is determined in advance so as to be an experimentally or theoretically suitable value for the associated visual information.

図5(A)は、記憶部33が記憶する利用者情報のデータ構造を示す。図5(A)に示すように、利用者情報は、利用者(ここでは利用者A、B)ごとに、利用者識別情報、視覚情報、及びその他利用時記録域の項目を有する。利用者識別情報は、HMD1を装着する利用者を判別するための情報であり、例えば眼情報測定部12R、12Lにより測定された光彩情報であってもよく、各利用者がHMD1の利用時に操作部6等に入力する利用者ID等であってもよい。視覚情報は、眼情報測定部12R、12Lが実行した視覚検査の検査結果を示す情報である。その他利用時記憶域は、視聴したコンテンツの視聴時間や、視聴時の眼位の情報などを記憶する。   FIG. 5A shows the data structure of user information stored in the storage unit 33. As shown in FIG. 5 (A), the user information has items of user identification information, visual information, and other use time recording areas for each user (here, users A and B). The user identification information is information for discriminating the user wearing the HMD1, and may be, for example, the glow information measured by the eye information measurement units 12R and 12L, and each user operates when using the HMD1. The user ID or the like input to the unit 6 or the like may be used. The visual information is information indicating the inspection result of the visual inspection performed by the eye information measuring units 12R and 12L. The other use storage area stores the viewing time of the viewed content, information on the eye position during viewing, and the like.

図5(B)は、視覚情報に含まれる項目を詳細に示した図である。図5(B)に示すように、記憶部33は、視覚情報として、光彩情報と、左右両眼の各々の静止視力と、動体視力を示すDVA値及びKVA値とを記憶する。さらに、記憶部33は、視覚情報として、左右両眼の各々の眼位の情報、及び、左右両眼の各々についての弱視、遠視、乱視などの他覚的屈折異常の有無及びその程度を記憶する。   FIG. 5B is a diagram showing in detail the items included in the visual information. As shown in FIG. 5B, the storage unit 33 stores, as visual information, glow information, static visual acuity of each of the left and right eyes, and a DVA value and a KVA value indicating moving visual acuity. Further, the storage unit 33 stores, as visual information, information on the positions of the left and right eyes, and the presence and extent of objective refractive errors such as amblyopia, hyperopia, and astigmatism for each of the left and right eyes. To do.

[起動時の制御]
次に、利用者がHMD1を装着してHMD1を起動させた際に実行する処理について図6を参照して説明する。図6は、HMD1の起動時の処理手順を示すフローチャートの一例である。概略的には、HMユニット3の制御部32は、利用者から取得した利用者識別情報に基づき、当該利用者が未登録の場合には、視覚検査を実行して当該利用者の登録処理を行い、当該利用者が登録済みの場合には、対応する利用者情報を記憶部33から読み出す。
[Control at startup]
Next, processing executed when the user wears the HMD 1 and activates the HMD 1 will be described with reference to FIG. FIG. 6 is an example of a flowchart showing a processing procedure when the HMD 1 is activated. Schematically, the control unit 32 of the HM unit 3 performs a visual inspection to perform registration processing of the user based on the user identification information acquired from the user when the user is not registered. If the user is registered, the corresponding user information is read from the storage unit 33.

まず、制御部32は、HMD1を装着した利用者の利用者識別情報を取得する(ステップS101)。例えば、制御部32は、眼情報測定部12R、12Lに利用者の眼の光彩を計測させ、その計測結果を示す光彩情報を、利用者識別情報として眼情報測定部12R、12Lから取得する。   First, the control unit 32 acquires user identification information of a user wearing the HMD 1 (step S101). For example, the control unit 32 causes the eye information measurement units 12R and 12L to measure the iris of the user's eye, and acquires the glow information indicating the measurement result from the eye information measurement units 12R and 12L as user identification information.

次に、制御部32は、取得した利用者識別情報は登録済みであるか否か判定する(ステップS102)。即ち、制御部32は、記憶部33に、当該利用者識別情報を含む利用者情報が記憶されているか否か判定する。そして、利用者識別情報が登録済みである場合(ステップS102;Yes)、制御部32は、視覚情報などを含む利用者情報を記憶部33から取得する(ステップS106)。その後、制御部32は、当該視覚情報に基づき、右眼用表示部11R、左眼用表示部11Lにより表示させる画像の画質調整や、虚像の表示位置などを調整する。   Next, the control unit 32 determines whether or not the acquired user identification information has been registered (step S102). That is, the control unit 32 determines whether or not user information including the user identification information is stored in the storage unit 33. When the user identification information has been registered (step S102; Yes), the control unit 32 acquires user information including visual information and the like from the storage unit 33 (step S106). Thereafter, the control unit 32 adjusts the image quality of the image displayed by the right-eye display unit 11R and the left-eye display unit 11L, the display position of the virtual image, and the like based on the visual information.

一方、取得した利用者識別情報が登録済みではない場合(ステップS102;No)、制御部32は、利用者に新規登録手続きを実施する旨をヘッドフォン2などにより通知する(ステップS103)。そして、制御部32は、眼情報測定部12R、12Lに、利用者の視覚検査を実行させる(ステップS104)。この場合、眼情報測定部12R、12Lは、[HMDの構成]のセクションで述べた視覚検査を実行し、その視覚検査の検査結果を制御部32に送信する。   On the other hand, when the acquired user identification information has not been registered (step S102; No), the control unit 32 notifies the user through the headphones 2 that a new registration procedure is to be performed (step S103). Then, the control unit 32 causes the eye information measurement units 12R and 12L to perform a visual inspection of the user (step S104). In this case, the eye information measurement units 12R and 12L perform the visual inspection described in the section [Configuration of HMD], and transmit the inspection result of the visual inspection to the control unit 32.

次に、制御部32は、視覚検査の検査結果を利用者識別情報と関連付けて利用者情報として記憶部33に記憶させる(ステップS105)。その後、制御部32は、視覚検査により取得した視覚情報に基づき、右眼用表示部11R、左眼用表示部11Lにより表示させる画像の画質調整や、虚像の表示位置などを調整する。   Next, the control unit 32 associates the inspection result of the visual inspection with the user identification information and stores it in the storage unit 33 as user information (step S105). Thereafter, the control unit 32 adjusts the image quality of the image displayed by the display unit 11R for the right eye and the display unit 11L for the left eye, the display position of the virtual image, and the like based on the visual information acquired by the visual inspection.

[虚像の位置調整]
次に、利用者がHMD1によりコンテンツを視聴する際の虚像の表示位置の調整方法について説明する。概略的には、制御部32は、視覚情報に含まれる視力や屈折異常の情報等に基づき、虚像の表示位置をZ軸方向に移動させると共に、眼位の情報等に基づき、虚像の表示位置をXY平面上で移動させる。これについて、図7及び図8を参照して説明する。
[Position adjustment of virtual image]
Next, a method for adjusting the display position of the virtual image when the user views content with the HMD 1 will be described. Schematically, the control unit 32 moves the display position of the virtual image in the Z-axis direction based on visual acuity and refractive error information included in the visual information, and also displays the virtual image display position based on the eye position information and the like. Is moved on the XY plane. This will be described with reference to FIGS.

図7は、眼位が正眼位の場合の虚像の位置調整の概要図を示す。図7では、虚像「Iv」をZ軸方向にずらす前後の視線40A、40Bと、各視線の焦点位置「Pf」とがそれぞれ示されている。なお、図7及び後述する図8では、便宜上、虚像IvのX軸方向における幅を実際よりも小さく描いている。   FIG. 7 shows a schematic diagram of position adjustment of the virtual image when the eye position is the right eye position. In FIG. 7, the lines of sight 40A and 40B before and after shifting the virtual image “Iv” in the Z-axis direction and the focal position “Pf” of each line of sight are shown. In FIG. 7 and FIG. 8 described later, for convenience, the width of the virtual image Iv in the X-axis direction is drawn smaller than the actual width.

制御部32は、視覚検査により得られた視力の情報と、弱視や遠視等の他覚的屈折異常の情報とに基づき、Z軸方向における虚像Ivの位置を変化させる。例えば、制御部32は、視力が弱い傾向や弱視の傾向があると判断した場合には、視力が強い傾向や遠視の傾向がある場合と比較して虚像Ivの位置をZ軸負方向側に設定する。また、制御部32は、虚像Ivを拡大させる旨の操作部6への操作を検知した場合には、虚像Ivの位置をZ軸負方向側に設定する。   The control unit 32 changes the position of the virtual image Iv in the Z-axis direction based on information on visual acuity obtained by visual inspection and information on objective refractive errors such as amblyopia and hyperopia. For example, when the control unit 32 determines that the eyesight tends to be weak or amblyopic, the position of the virtual image Iv is on the Z axis negative direction side as compared with the case where the eyesight tends to be strong or hyperopic. Set. In addition, when the control unit 32 detects an operation on the operation unit 6 for enlarging the virtual image Iv, the control unit 32 sets the position of the virtual image Iv on the Z axis negative direction side.

一方、眼位が正眼位の場合、図7に示すように、視線の焦点位置Pf及び虚像Ivの中心位置は、左右の眼の真ん中を通りZ軸に平行な補助線42上に存在する。このように、制御部32は、両眼が正眼位の場合には、虚像Ivの中心位置を補助線42上と重なる位置に設定し、一方の眼に負担がかかるのを抑制する。   On the other hand, when the eye position is the right eye position, as shown in FIG. 7, the focus position Pf of the line of sight and the center position of the virtual image Iv exist on the auxiliary line 42 that passes through the middle of the left and right eyes and is parallel to the Z axis. As described above, when both eyes are in the normal eye position, the control unit 32 sets the center position of the virtual image Iv to a position that overlaps the auxiliary line 42 and suppresses the burden on one eye.

図8は、片眼に斜位がある場合の虚像の位置調整の概要図を示す。図8では、虚像Ivの位置をZ軸方向にずらす前後の視線40C、40Dと、その焦点位置Pfとがそれぞれ示されている。   FIG. 8 shows a schematic diagram of virtual image position adjustment when one eye has an oblique position. In FIG. 8, the lines of sight 40C and 40D before and after shifting the position of the virtual image Iv in the Z-axis direction and its focal position Pf are shown.

図8に示すように、この場合、制御部32は、焦点位置Pfが最も自然な(即ち両眼の負担が少ない)位置になるように、虚像Ivを図7に示した位置よりもX軸正方向側にずらして表示している。その結果、焦点位置Pfは、図7に示した焦点位置PfよりX軸正方向側にずれる。これにより、利用者が虚像Ivを視認する際に、一方の眼に偏って負荷がかかるのを抑制することができる。   As shown in FIG. 8, in this case, the control unit 32 causes the virtual image Iv to be on the X axis more than the position shown in FIG. 7 so that the focal position Pf is the most natural position (that is, less burden on both eyes). The screen is shifted to the positive direction. As a result, the focal position Pf is shifted to the X axis positive direction side from the focal position Pf shown in FIG. Thereby, when a user visually recognizes virtual image Iv, it can control that load is biased to one eye.

ここで、眼位ずれに基づく具体的な虚像Ivの表示位置の補正方法について説明する。制御部32は、表示させる虚像Ivの虚像距離Lvと、当該虚像距離Lvの場合の眼位ずれの情報とに基づいて、所定のマップを参照し、虚像IvのXY平面上での位置の補正量を決定する。上述のマップは、例えば、虚像距離Lvごとに、眼位ずれと、当該眼位ずれに対する適切な補正量とを規定したマップ等であり、記憶部33等に予め記憶されている。そして、マップに記録される補正量は、例えば実験等に基づき、各眼位ずれに対して適切な補正値に設定されている。   Here, a specific method for correcting the display position of the virtual image Iv based on the eye position deviation will be described. The control unit 32 refers to a predetermined map based on the virtual image distance Lv of the virtual image Iv to be displayed and the information on the eye position deviation in the case of the virtual image distance Lv, and corrects the position of the virtual image Iv on the XY plane. Determine the amount. The above-described map is, for example, a map that defines the eye position deviation and an appropriate correction amount for the eye position deviation for each virtual image distance Lv, and is stored in advance in the storage unit 33 or the like. The correction amount recorded in the map is set to an appropriate correction value for each eye position shift based on, for example, experiments.

一般に、眼位は、弱視、遠視、乱視等の屈折異常の影響を受ける。従って、制御部32は、上述のように、眼位ずれに加え、虚像距離Lvに基づき虚像Ivの位置の補正量を決定することで、虚像Ivの位置の補正量をより的確に定めることができる。   In general, the eye position is affected by refractive errors such as amblyopia, hyperopia, and astigmatism. Therefore, as described above, the control unit 32 can determine the correction amount of the position of the virtual image Iv more accurately by determining the correction amount of the position of the virtual image Iv based on the virtual image distance Lv in addition to the eye position shift. it can.

以上のように、制御部32は、利用者の眼位の特性を勘案して、虚像Ivの位置を調整することで、利用者の眼の疲労等を好適に抑制することができる。また、一般に、立体映像を表示させる場合には、左眼で視認する像と、右眼で視認する像とが異なるため、利用者の眼位の特性を考慮せずに映像を視認させた場合には、利用者の眼の負担が特に大きくなる。従って、本実施例によれば、制御部32は、立体映像を表示させる場合であっても、利用者の眼の負荷を好適に低減させることができる。   As described above, the control unit 32 can appropriately suppress the fatigue of the user's eyes and the like by adjusting the position of the virtual image Iv in consideration of the characteristics of the user's eye position. Also, in general, when displaying a stereoscopic image, the image viewed with the left eye is different from the image viewed with the right eye, so that the image is viewed without considering the characteristics of the user's eye position. In particular, the burden on the user's eyes is particularly large. Therefore, according to the present embodiment, the control unit 32 can suitably reduce the load on the user's eyes even when displaying a stereoscopic image.

[画質調整]
次に、利用者がHMD1によりコンテンツを視聴する際の画質の調整方法について説明する。概略的には、制御部32は、視覚検査で得られた動体視力の情報に基づいて、焦点位置Pfを中心とした領域(「有効領域Rtag」とも呼ぶ。)を設定し、有効領域Rtag外の輝度又は/及びコントラストを小さくする。このとき、制御部32は、有効領域Rtagを、動画コンテンツの場合に利用者が動体を好適に視認可能であると推定される領域に設定する。これにより、利用者の眼の負担を好適に低減しつつ、有効領域Rtag内の映像を好適に視認させる。
[Image quality adjustment]
Next, an image quality adjustment method when a user views content with the HMD 1 will be described. Schematically, the control unit 32 sets an area centered on the focal position Pf (also referred to as “effective area Rtag”) based on the information on the moving body visual acuity obtained by visual inspection, and outside the effective area Rtag. Reduce the brightness or / and contrast of At this time, the control part 32 sets the effective area | region Rtag to the area | region estimated that a user can visually recognize a moving body suitably in the case of a moving image content. Thereby, the video in the effective area Rtag is suitably viewed while suitably reducing the burden on the user's eyes.

図9(A)は、画像の表示可能範囲「Rmax」に対する有効領域Rtagの位置を示す。図9(A)では、利用者は正面を向いた状態であり、視線の焦点位置Pfは、表示可能範囲Rmaxの中心と一致している。   FIG. 9A shows the position of the effective area Rtag relative to the image displayable range “Rmax”. In FIG. 9A, the user is facing the front, and the focus position Pf of the line of sight coincides with the center of the displayable range Rmax.

図9(A)に示すように、制御部32は、有効領域Rtagの中心が焦点位置Pfと重なる位置に、矩形の有効領域Rtagを設定する。また、制御部32は、有効領域RtagのX軸方向の幅(単に「横幅」とも呼ぶ。)及びY軸方向の幅(単に「縦幅」とも呼ぶ。)を、利用者情報に含まれる動体視力を示すDVA値及びKVA値に基づき設定する。ここで、制御部32は、DVA値及びKVA値に基づき、利用者が好適に動体を視認可能であると推定される領域と有効領域Rtagが一致するように、上述の縦幅及び横幅を決定する。具体的には、制御部32は、各DVA値及びKVA値に対する適切な有効領域Rtagの横幅及び縦幅を示すマップ又は式を参照し、有効領域RtagのX軸方向及びY軸方向の幅を決定する。上述のマップ等は、実験等に基づき作成し、予め記憶部33に記憶される。   As shown in FIG. 9A, the control unit 32 sets a rectangular effective area Rtag at a position where the center of the effective area Rtag overlaps the focal position Pf. The control unit 32 also includes the width of the effective area Rtag in the X-axis direction (also simply referred to as “horizontal width”) and the width in the Y-axis direction (also simply referred to as “vertical width”) included in the user information. It sets based on the DVA value and KVA value which show visual acuity. Here, based on the DVA value and the KVA value, the control unit 32 determines the above-described vertical width and horizontal width so that the effective area Rtag matches the area where it is estimated that the user can preferably see the moving object. To do. Specifically, the control unit 32 refers to a map or expression indicating the appropriate width and height of the effective area Rtag for each DVA value and KVA value, and determines the width of the effective area Rtag in the X-axis direction and the Y-axis direction. decide. The above-described map or the like is created based on an experiment or the like and stored in the storage unit 33 in advance.

そして、制御部32は、有効領域Rtag外の表示可能範囲Rmaxの領域(斜線部分参照)に該当する各画素の輝度又は/及びコントラストを下げる。このように、制御部32は、利用者が動体を好適に視認可能な範囲に相当する有効領域Rtag以外を目立たなくすることで、視聴時の眼の疲れを好適に低減させることができる。   Then, the control unit 32 reduces the luminance or / and the contrast of each pixel corresponding to the displayable range Rmax area (see the shaded area) outside the effective area Rtag. As described above, the control unit 32 can appropriately reduce eye fatigue during viewing by making the area other than the effective area Rtag corresponding to the range in which the user can visually recognize the moving object inconspicuous.

また、制御部32は、視線の焦点位置Pfが移動した場合、焦点位置Pfに応じて有効領域Rtagを遷移させる。図9(B)は、利用者がX軸正方向に視線をずらした場合の表示可能範囲Rmax内の有効領域Rtagの位置を示す。   In addition, when the focus position Pf of the line of sight moves, the control unit 32 changes the effective region Rtag according to the focus position Pf. FIG. 9B shows the position of the effective area Rtag within the displayable range Rmax when the user shifts his / her line of sight in the positive X-axis direction.

図9(B)に示すように、この場合、利用者がX軸正方向に視線をずらしたことにより、焦点位置PfもX軸正方向にずれている。この場合、まず、制御部32は、例えば眼情報測定部12R、12Lに各眼の視線方向及び眼幅を検出させることで、焦点位置Pfを認識する。そして、制御部32は、認識した焦点位置Pfに有効領域Rtagの中心位置が重なるように、有効領域Rtagを右方向に遷移させる。このようにすることで、利用者の視線が動いた場合であっても、的確に有効領域Rtagを定めることができる。   As shown in FIG. 9B, in this case, the focus position Pf is also shifted in the X-axis positive direction because the user has shifted the line of sight in the X-axis positive direction. In this case, first, the control unit 32 recognizes the focal position Pf by causing the eye information measurement units 12R and 12L to detect the line-of-sight direction and the eye width of each eye, for example. Then, the control unit 32 shifts the effective region Rtag in the right direction so that the center position of the effective region Rtag overlaps the recognized focal position Pf. By doing in this way, even if it is a case where a user's eyes | visual_axis moved, the effective area | region Rtag can be defined exactly.

また、好適には、制御部32は、コンテンツの視聴時間に応じて有効領域Rtagを小さくするとよい。一般に、コンテンツの視聴時間が長くなるにつれて、利用者の眼の疲労が蓄積し、動体視力が相対的に低下する。従って、制御部32は、コンテンツの視聴時間に応じて有効領域Rtagを小さくすることで、動体視力の低下に適切に対応した有効領域Rtagを設定することができる。この場合、例えば、制御部32は、コンテンツの視聴時間の各々に対して有効領域Rtagの縦幅及び横幅に乗じる係数のマップ等を参照することで、有効領域Rtagを小さくする。   Preferably, the control unit 32 may reduce the effective area Rtag in accordance with the content viewing time. In general, as the viewing time of the content becomes longer, fatigue of the user's eyes accumulates and the dynamic visual acuity relatively decreases. Therefore, the control unit 32 can set the effective region Rtag appropriately corresponding to the decrease in the moving visual acuity by reducing the effective region Rtag according to the viewing time of the content. In this case, for example, the control unit 32 makes the effective area Rtag smaller by referring to a map or the like of a coefficient by which the vertical width and the horizontal width of the effective area Rtag are multiplied for each viewing time of the content.

[コンテンツ視聴時の処理]
制御部32は、コンテンツの再生時に、所定の間隔ごとに、眼から焦点位置Pfまでの距離(即ち虚像距離Lv)を算出し、当該虚像距離Lvが所定の閾値以上の場合には、有効領域Rtagを縮小する。これについて、図10乃至図12のフローチャートを参照して具体的に説明する。
[Processing when viewing content]
The control unit 32 calculates the distance from the eye to the focal position Pf (that is, the virtual image distance Lv) at predetermined intervals during the reproduction of the content, and when the virtual image distance Lv is equal to or greater than a predetermined threshold, the effective region Reduce Rtag. This will be specifically described with reference to the flowcharts of FIGS.

図10は、コンテンツ視聴時の焦点位置Pf及び有効領域Rtagの調整処理の手順を示すフローチャートである。制御部32は、図10に示すフローチャートの処理を、コンテンツ視聴時において、所定の周期に従い繰り返し実行する。   FIG. 10 is a flowchart showing a procedure for adjusting the focal position Pf and the effective area Rtag when viewing content. The control unit 32 repeatedly executes the processing of the flowchart shown in FIG. 10 according to a predetermined cycle when viewing the content.

まず、制御部32は、眼情報測定部12R、12Lから眼位情報及び視線方向に関する視線情報を取得する(ステップS201)。次に、制御部32は、後述する図11に示す焦点位置調整処理を実行する(ステップS202)。そして、制御部32は、後述する図12に示す有効領域調整処理を実行する(ステップS203)。そして、制御部32は、ステップS203で調整した有効領域Rtagに基づき画質調整を行う(ステップS204)。具体的には、制御部32は、[画質調整]のセクションで述べたように、有効領域Rtag以外の輝度又は/及びコントラストを小さくする。   First, the control unit 32 acquires eye position information and line-of-sight information related to the line-of-sight direction from the eye information measurement units 12R and 12L (step S201). Next, the control unit 32 executes a focus position adjustment process shown in FIG. 11 described later (step S202). And the control part 32 performs the effective area | region adjustment process shown in FIG. 12 mentioned later (step S203). Then, the control unit 32 performs image quality adjustment based on the effective area Rtag adjusted in step S203 (step S204). Specifically, as described in the section [Image quality adjustment], the control unit 32 reduces the luminance or / and the contrast other than the effective area Rtag.

図11は、図10のステップS202で実行する焦点位置調整処理の手順を示すフローチャートである。   FIG. 11 is a flowchart showing the procedure of the focus position adjustment process executed in step S202 of FIG.

まず、制御部32は、視覚検査時に検出した眼位に対するステップS201で取得した眼位のずれは許容範囲内であるか否か判定する(ステップS301)。具体的には、制御部32は、上述の眼位のずれの大きさが、所定値より小さいか否か判定する。上述の所定値は、利用者が画像を視認する際に影響がない眼位のずれの大きさに実験等に基づき設定される。そして、上述の眼位ずれが許容範囲内である場合(ステップS301;Yes)、制御部32は、フローチャートの処理を終了する。   First, the control unit 32 determines whether or not the deviation of the eye position acquired in step S201 with respect to the eye position detected during the visual inspection is within an allowable range (step S301). Specifically, the control unit 32 determines whether or not the magnitude of the above-described eye position shift is smaller than a predetermined value. The predetermined value described above is set based on an experiment or the like in the magnitude of the eye position deviation that does not affect the user viewing the image. And when the above-mentioned eye position shift is in an allowable range (Step S301; Yes), control part 32 ends processing of a flow chart.

一方、上述の眼位ずれが許容範囲を超えている場合(ステップS301;No)、制御部32は、眼位ずれから焦点位置Pfを移動させるべき距離及び方向を示す調整値を算出し、当該調整値に基づき虚像の位置を移動させる(ステップS302)。例えば、制御部32は、[虚像の位置調整]のセクションで説明した虚像の表示位置の補正するためのマップを参照し、眼位ずれに基づき上述の調整値を算出する。そして、制御部32は、上述の調整値をコンテンツ視聴開始からの経過時間と共に記憶部33に記憶させる(ステップS303)。この場合、好適には、記憶部33は、図5(A)に示す利用者情報の「その他利用時記録域」に、これらの情報を記録するとよい。   On the other hand, when the above-described eye misalignment exceeds the allowable range (step S301; No), the control unit 32 calculates an adjustment value indicating the distance and direction to move the focal position Pf from the eye misalignment. The position of the virtual image is moved based on the adjustment value (step S302). For example, the control unit 32 refers to the map for correcting the display position of the virtual image described in the section [Adjustment of the position of the virtual image], and calculates the adjustment value described above based on the eye position shift. And the control part 32 memorize | stores the above-mentioned adjustment value in the memory | storage part 33 with the elapsed time from content viewing start (step S303). In this case, the storage unit 33 preferably records these pieces of information in the “other use recording area” of the user information shown in FIG.

図12は、図10のステップS203で実行する有効領域調整処理の手順を示すフローチャートである。   FIG. 12 is a flowchart showing the procedure of the effective area adjustment process executed in step S203 of FIG.

まず、制御部32は、ステップS201で取得した視線情報等に基づき焦点位置Pf(即ち、虚像の位置)を認識し、虚像距離Lvを算出する。そして、制御部32は、虚像距離Lvが所定の閾値以下であるか否か判定する(ステップS401)。上述の閾値は、有効領域Rtagの調整をする必要があるか否かを判定するための閾値であり、例えば実験等に基づき決定される。そして、虚像距離Lvが閾値以下の場合には(ステップS401;Yes)、制御部32は、有効領域Rtagを調整する必要がないと判断し、フローチャートの処理を終了する。   First, the control unit 32 recognizes the focal position Pf (that is, the position of the virtual image) based on the line-of-sight information acquired in step S201, and calculates the virtual image distance Lv. And the control part 32 determines whether the virtual image distance Lv is below a predetermined threshold value (step S401). The above threshold is a threshold for determining whether or not the effective region Rtag needs to be adjusted, and is determined based on, for example, experiments. If the virtual image distance Lv is equal to or smaller than the threshold (step S401; Yes), the control unit 32 determines that there is no need to adjust the effective area Rtag and ends the process of the flowchart.

虚像距離Lvが閾値を超えている場合(ステップS401;No)、制御部32は、虚像距離Lvに応じて有効領域Rtagの縦幅及び横幅に乗じる調整値を算出し、当該調整値に基づき有効領域Rtagを調整する(ステップS402)。このとき、制御部32は、虚像距離Lvが長いほど、有効領域Rtagを縮小させるように、調整値を定める。一般に、虚像距離Lvが長い場合には、利用者が注視している範囲は相対的に小さくなる。従って、制御部32は、この処理により、有効領域Rtagを適切に調整することができる。そして、制御部32は、上述の調整値をコンテンツ視聴開始からの経過時間と共に記憶部33に記憶させる(ステップS403)。この場合、好適には、記憶部33は、図5(A)に示す利用者情報の「その他利用時記録域」に、これらの情報を記録するとよい。   When the virtual image distance Lv exceeds the threshold (step S401; No), the control unit 32 calculates an adjustment value by which the vertical width and the horizontal width of the effective area Rtag are multiplied according to the virtual image distance Lv, and is effective based on the adjustment value. The region Rtag is adjusted (step S402). At this time, the control unit 32 determines the adjustment value so that the effective area Rtag is reduced as the virtual image distance Lv is longer. In general, when the virtual image distance Lv is long, the range in which the user is gazing is relatively small. Therefore, the control part 32 can adjust the effective area | region Rtag appropriately by this process. And the control part 32 memorize | stores the above-mentioned adjustment value in the memory | storage part 33 with the elapsed time from content viewing start (step S403). In this case, the storage unit 33 preferably records these pieces of information in the “other use recording area” of the user information shown in FIG.

なお、好適には、制御部32は、虚像距離Lvが閾値より大きい状態から再び閾値以下になった場合には、ステップS402で調整値に基づき縮小させた有効領域Rtagの大きさを、当該調整値を適用する前の大きさに戻すとよい。   Preferably, when the virtual image distance Lv becomes smaller than the threshold value again from the state where the virtual image distance Lv is larger than the threshold value, the control unit 32 determines the size of the effective area Rtag reduced based on the adjustment value in step S402. It is good to return to the size before applying the value.

以上説明したように、本実施例に係るHMDシステムでは、HMユニット3の制御部32は、眼情報測定部12R、12Lにより利用者の視覚情報を取得する。また、制御部32は、利用者の視線の焦点位置に虚像が生成されるように、画像を右眼用表示部11R及び左眼用表示部11Lに表示させる。このとき、制御部32は、取得した視覚情報に基づいて、画像を調整して、右眼用表示部11Rや左眼用表示部11Lに表示させる。これにより、HMDシステムは、観察者の視覚の特性を考慮して適切に画像を表示させることができる。   As described above, in the HMD system according to the present embodiment, the control unit 32 of the HM unit 3 acquires the visual information of the user by the eye information measurement units 12R and 12L. Moreover, the control part 32 displays an image on the display part 11R for left eyes and the display part 11L for left eyes so that a virtual image is produced | generated in the focus position of a user's eyes | visual_axis. At this time, the control part 32 adjusts an image based on the acquired visual information, and displays it on the display part 11R for right eyes or the display part 11L for left eyes. Thereby, the HMD system can appropriately display an image in consideration of the visual characteristics of the observer.

[変形例]
[画質調整]のセクションにおける図9の説明では、制御部32は、表示可能範囲Rmaxを、有効領域Rtagと、それ以外の領域とに分けて、輝度又は/及びコントラストの調整を行った。これに代えて、制御部32は、表示可能範囲Rmaxを、3以上の領域にわけてもよい。この場合であっても、制御部32は、焦点位置Pfから遠い領域ほど、輝度又は/及びコントラストを小さくして目立たなくする。これにより、制御部32は、利用者が注目しない部分を目立たなくして眼の負担を低減させることができる。
[Modification]
In the description of FIG. 9 in the section [Image quality adjustment], the control unit 32 adjusts the brightness or / and contrast by dividing the displayable range Rmax into the effective area Rtag and the other areas. Instead of this, the control unit 32 may divide the displayable range Rmax into three or more regions. Even in this case, the control unit 32 makes the brightness or / and the contrast smaller in the region farther from the focal position Pf so as to be inconspicuous. Thereby, the control part 32 can make the part which a user does not pay attention inconspicuous, and can reduce the burden of eyes.

また、図9では、有効領域Rtagは、矩形であったが、これに限らず、楕円等の任意の形状であってもよい。例えば、有効領域Rtagが楕円の場合には、制御部32は、有効領域Rtagの縦幅及び横幅に乗じる調整値を決定するのに代えて、有効領域Rtagの長径及び短径に乗じる調整値を決定することで、有効領域Rtagの大きさを調整する。   In FIG. 9, the effective area Rtag is rectangular, but is not limited thereto, and may be any shape such as an ellipse. For example, when the effective area Rtag is an ellipse, the control unit 32 determines adjustment values to be multiplied by the major axis and the minor axis of the effective area Rtag instead of determining the adjustment values to be multiplied by the vertical width and the horizontal width of the effective area Rtag. By determining, the size of the effective area Rtag is adjusted.

本発明は、ヘッドマウントディスプレイ、その他の個人ごとに観察する表示システムなどに好適に適用することができる。   The present invention can be suitably applied to a head-mounted display and other display systems for observing each individual.

1 HMD
2 ヘッドフォン
3 HMユニット
4 頭部固定器
5 外部再生機
6 操作部
1 HMD
2 Headphones 3 HM unit 4 Head fixing device 5 External player 6 Operation unit

Claims (12)

利用者の視覚に関する情報を取得する視覚情報取得部と、
前記利用者の視線の焦点位置に虚像が生成されるように、画像を表示部に表示させる表示制御部と、
を備え、
前記表示制御部は、前記視覚情報取得部の取得結果に基づいて、前記画像を調整して、前記表示部に表示させることを特徴とする画像表示装置。
A visual information acquisition unit that acquires information about the user's vision;
A display control unit that displays an image on a display unit so that a virtual image is generated at a focal position of the user's line of sight;
With
The display control unit adjusts the image based on an acquisition result of the visual information acquisition unit and displays the image on the display unit.
前記利用者の頭部に装着され、当該利用者の視認可能な位置に画像を表示する前記表示部をさらに備えることを特徴とする請求項1に記載の画像表示装置。   The image display apparatus according to claim 1, further comprising the display unit that is mounted on the head of the user and displays an image at a position where the user can visually recognize the image. 前記視覚情報取得部は、前記利用者の眼位情報を取得し、
前記表示制御部は、前記眼位情報に基づいて、前記虚像の位置が調整されるように、前記画像を前記表示部に表示させることを特徴とする請求項1または2に記載の画像表示装置。
The visual information acquisition unit acquires eye position information of the user,
The image display device according to claim 1, wherein the display control unit displays the image on the display unit so that a position of the virtual image is adjusted based on the eye position information. .
前記表示部は、右眼用表示部と、左眼用表示部とを有し、
前記表示制御部は、前記右眼用表示部と、前記左眼用表示部とのそれぞれに対して画像を表示させることを特徴とする請求項1乃至3のいずれか一項に記載の画像表示装置。
The display unit includes a right-eye display unit and a left-eye display unit,
The image display according to any one of claims 1 to 3, wherein the display control unit displays an image on each of the right-eye display unit and the left-eye display unit. apparatus.
前記視覚情報取得部は、前記利用者の動体視力情報を取得し、
前記表示制御部は、前記動体視力情報に基づいて、前記画像の輝度又は/及びコントラストを調整することを特徴とする請求項1乃至4のいずれか一項に記載の画像表示装置。
The visual information acquisition unit acquires the moving body vision information of the user,
5. The image display device according to claim 1, wherein the display control unit adjusts luminance or / and contrast of the image based on the moving object visual acuity information. 6.
前記表示制御部は、前記動体視力情報に基づいて、前記画像を複数の領域に分割し、当該領域ごとに、輝度又は/及びコントラストを異ならせるように調整することを特徴とする請求項5に記載の画像表示装置。   The said display control part divides | segments the said image into several area | region based on the said moving body visual acuity information, and adjusts so that a brightness | luminance or / and contrast may differ for every said area | region. The image display device described. 前記表示制御部は、前記利用者の視線の焦点位置から遠い領域ほど目立たなくなるように、前記輝度又は/及びコントラストを調整することを特徴とする請求項6に記載の画像表示装置。   The image display apparatus according to claim 6, wherein the display control unit adjusts the luminance or / and contrast so that the region farther from the focal position of the user's line of sight becomes less conspicuous. 利用者を識別するための識別情報を取得する利用者識別情報取得部と、
前記視覚情報取得部が取得した前記利用者の視覚に関する情報を、前記識別情報に関連付けて記憶する記憶部と、をさらに備えることを特徴とする請求項1乃至7のいずれか一項に記載の画像表示装置。
A user identification information acquisition unit for acquiring identification information for identifying a user;
8. The storage unit according to claim 1, further comprising a storage unit that stores information relating to the user's vision acquired by the visual information acquisition unit in association with the identification information. Image display device.
前記識別情報は、利用者の眼の光彩情報であることを特徴とする請求項8に記載の画像表示装置。   The image display apparatus according to claim 8, wherein the identification information is glow information of a user's eyes. 画像表示装置が実行する制御方法であって、
利用者の視覚に関する情報を取得する視覚情報取得工程と、
前記利用者の視線の焦点位置に虚像が生成されるように、画像を表示部に表示させる表示制御工程と、を有し、
前記表示制御工程では、前記視覚情報取得工程での取得結果に基づいて、前記画像を調整して、前記表示部に表示させることを特徴とする制御方法。
A control method executed by an image display device,
A visual information acquisition process for acquiring information about the user's vision;
A display control step of displaying an image on a display unit so that a virtual image is generated at a focal position of the user's line of sight,
In the display control step, the image is adjusted based on the acquisition result in the visual information acquisition step and displayed on the display unit.
画像表示装置が実行するプログラムであって、
利用者の視覚に関する情報を取得する視覚情報取得部と、
前記利用者の視線の焦点位置に虚像が生成されるように、画像を表示部に表示させる表示制御部
として前記画像表示装置を機能させ、
前記表示制御部は、前記視覚情報取得部の取得結果に基づいて、前記画像を調整して、前記表示部に表示させることを特徴とするプログラム。
A program executed by the image display device,
A visual information acquisition unit that acquires information about the user's vision;
The image display device functions as a display control unit that displays an image on a display unit so that a virtual image is generated at a focal position of the user's line of sight,
The display control unit adjusts the image based on an acquisition result of the visual information acquisition unit, and displays the image on the display unit.
請求項11に記載のプログラムを記憶したことを特徴とする記憶媒体。   A storage medium storing the program according to claim 11.
JP2012216439A 2012-09-28 2012-09-28 Image display device, control method, program, and storage medium Active JP6026836B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012216439A JP6026836B2 (en) 2012-09-28 2012-09-28 Image display device, control method, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012216439A JP6026836B2 (en) 2012-09-28 2012-09-28 Image display device, control method, program, and storage medium

Publications (2)

Publication Number Publication Date
JP2014071230A true JP2014071230A (en) 2014-04-21
JP6026836B2 JP6026836B2 (en) 2016-11-16

Family

ID=50746501

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012216439A Active JP6026836B2 (en) 2012-09-28 2012-09-28 Image display device, control method, program, and storage medium

Country Status (1)

Country Link
JP (1) JP6026836B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016085322A (en) * 2014-10-24 2016-05-19 セイコーエプソン株式会社 Display device, control method of display device, display system and program
JP2017009777A (en) * 2015-06-22 2017-01-12 セイコーエプソン株式会社 Display device, control method of display device, display system and program
US9846305B2 (en) 2014-10-20 2017-12-19 Seiko Epson Corporation Head mounted display, method for controlling head mounted display, and computer program
JP2018523321A (en) * 2015-04-30 2018-08-16 グーグル エルエルシー A set of virtual glasses to see the actual scene, correcting the position of the lens different from the eye
KR20190001983A (en) * 2017-06-29 2019-01-08 전자부품연구원 High visibility microdisplay device and HMD comprising the same
JP2019532535A (en) * 2016-08-04 2019-11-07 ドルビー ラボラトリーズ ライセンシング コーポレイション Single depth tracking perspective accommodation-binocular transduction solution
KR20190132491A (en) * 2017-05-17 2019-11-27 애플 인크. Head-Mount Display Device with Vision Correction
JP2021089351A (en) * 2019-12-03 2021-06-10 キヤノン株式会社 Head-mounted system and information processing apparatus
CN114995646A (en) * 2016-09-30 2022-09-02 索尼互动娱乐股份有限公司 Method for reducing discomfort when viewing virtual reality content in a head mounted display

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101952942B1 (en) * 2017-06-27 2019-05-17 주식회사 포스코 Simulating apparatus for hot rolling
CN108520728B (en) * 2018-04-20 2020-08-04 京东方科技集团股份有限公司 Backlight adjusting method and device, computing device, display device and storage medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10239634A (en) * 1997-02-27 1998-09-11 Minolta Co Ltd Stereoscopic video display device
JP2002328330A (en) * 2001-04-27 2002-11-15 Sony Corp Video display device
JP2005270451A (en) * 2004-03-25 2005-10-06 Konica Minolta Photo Imaging Inc Virtual image display apparatus for strabismus training
JP2007003745A (en) * 2005-06-23 2007-01-11 Aruze Corp Image display apparatus and image display system
JP2012168346A (en) * 2011-02-15 2012-09-06 Casio Comput Co Ltd Browsing device
WO2014017348A1 (en) * 2012-07-24 2014-01-30 ソニー株式会社 Image display device and image display method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10239634A (en) * 1997-02-27 1998-09-11 Minolta Co Ltd Stereoscopic video display device
JP2002328330A (en) * 2001-04-27 2002-11-15 Sony Corp Video display device
JP2005270451A (en) * 2004-03-25 2005-10-06 Konica Minolta Photo Imaging Inc Virtual image display apparatus for strabismus training
JP2007003745A (en) * 2005-06-23 2007-01-11 Aruze Corp Image display apparatus and image display system
JP2012168346A (en) * 2011-02-15 2012-09-06 Casio Comput Co Ltd Browsing device
WO2014017348A1 (en) * 2012-07-24 2014-01-30 ソニー株式会社 Image display device and image display method

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9846305B2 (en) 2014-10-20 2017-12-19 Seiko Epson Corporation Head mounted display, method for controlling head mounted display, and computer program
JP2016085322A (en) * 2014-10-24 2016-05-19 セイコーエプソン株式会社 Display device, control method of display device, display system and program
JP2018523321A (en) * 2015-04-30 2018-08-16 グーグル エルエルシー A set of virtual glasses to see the actual scene, correcting the position of the lens different from the eye
US10715791B2 (en) 2015-04-30 2020-07-14 Google Llc Virtual eyeglass set for viewing actual scene that corrects for different location of lenses than eyes
JP2017009777A (en) * 2015-06-22 2017-01-12 セイコーエプソン株式会社 Display device, control method of display device, display system and program
JP7335285B2 (en) 2016-08-04 2023-08-29 ドルビー ラボラトリーズ ライセンシング コーポレイション Single Depth Tracking Accommodation-Binocular Diversion Solution
JP2019532535A (en) * 2016-08-04 2019-11-07 ドルビー ラボラトリーズ ライセンシング コーポレイション Single depth tracking perspective accommodation-binocular transduction solution
US11694353B2 (en) 2016-08-04 2023-07-04 Dolby Laboratories Licensing Corporation Single depth tracked accommodation-vergence solutions
US10943359B2 (en) 2016-08-04 2021-03-09 Dolby Laboratories Licensing Corporation Single depth tracked accommodation-vergence solutions
US20210264631A1 (en) 2016-08-04 2021-08-26 Dolby Laboratories Licensing Corporation Single depth tracked accommodation-vergence solutions
JP2021122109A (en) * 2016-08-04 2021-08-26 ドルビー ラボラトリーズ ライセンシング コーポレイション Single-depth pursuit type accommodation-vergence solution
CN114995646A (en) * 2016-09-30 2022-09-02 索尼互动娱乐股份有限公司 Method for reducing discomfort when viewing virtual reality content in a head mounted display
KR102337620B1 (en) * 2017-05-17 2021-12-08 애플 인크. Head-mounted display device with vision correction
KR20190132491A (en) * 2017-05-17 2019-11-27 애플 인크. Head-Mount Display Device with Vision Correction
US11874530B2 (en) 2017-05-17 2024-01-16 Apple Inc. Head-mounted display device with vision correction
KR102347128B1 (en) 2017-06-29 2022-01-05 한국전자기술연구원 High visibility microdisplay device and HMD comprising the same
KR20190001983A (en) * 2017-06-29 2019-01-08 전자부품연구원 High visibility microdisplay device and HMD comprising the same
JP2021089351A (en) * 2019-12-03 2021-06-10 キヤノン株式会社 Head-mounted system and information processing apparatus

Also Published As

Publication number Publication date
JP6026836B2 (en) 2016-11-16

Similar Documents

Publication Publication Date Title
JP6026836B2 (en) Image display device, control method, program, and storage medium
JP5637560B2 (en) Methods and devices for prevention and treatment of myopia and fatigue
JP5414946B2 (en) Head-mounted display and method for adjusting misalignment thereof
JP5565258B2 (en) Image processing apparatus, image processing method, and program
US11914156B1 (en) System and method for automatic vision correction in near-to-eye displays
US20190310478A1 (en) Method of determining an eye parameter of a user of a display device
JP6332392B2 (en) Spectacle lens design method, spectacle lens manufacturing method, spectacle lens selection device, and spectacle lens selection method
US10349827B2 (en) Vision testing device and head-mount type display device
CN111373307B (en) Stereoscopic glasses, method for designing glasses lenses used in stereoscopic glasses, and method for observing stereoscopic image
KR102233000B1 (en) Vision training device for cognitive correction
ES2932157T3 (en) Determination of a refractive error of an eye
JP2013195931A (en) Simulation device, simulation program, and binocular vision feeling method
JP6500570B2 (en) Image display apparatus and image display method
TWI683134B (en) Image display method of head-mounted display apparatus and head-mounted display apparatus
US9921418B2 (en) Spectacle lens supply system, program therefor, prism amount determination device, prism amount determination method, and method for producing spectacle lens
US11740478B2 (en) Display device, control method thereof, and recording medium
JP6467293B2 (en) Visual inspection device
JP2015529029A (en) Method and apparatus for adapting 3D content to an observer wearing prescription glasses
TWI762231B (en) Virtual reality headset having adjustable focal length
KR102511062B1 (en) Augmented reality optical apparatus
WO2023102500A1 (en) Methods for controlling performance of extended reality display systems
WO2022084076A1 (en) Vision correction display device, eye-tracking system and method to compensate for visual impairments
CN111489670A (en) Image display method of head-mounted display device and head-mounted display device
JP2017060896A (en) Subjective optometer

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150803

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160502

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160908

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161013

R150 Certificate of patent or registration of utility model

Ref document number: 6026836

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150