JP2010199788A - Head-mounted display - Google Patents

Head-mounted display Download PDF

Info

Publication number
JP2010199788A
JP2010199788A JP2009040413A JP2009040413A JP2010199788A JP 2010199788 A JP2010199788 A JP 2010199788A JP 2009040413 A JP2009040413 A JP 2009040413A JP 2009040413 A JP2009040413 A JP 2009040413A JP 2010199788 A JP2010199788 A JP 2010199788A
Authority
JP
Japan
Prior art keywords
image
image presentation
user
presentation device
state information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009040413A
Other languages
Japanese (ja)
Other versions
JP5163534B2 (en
Inventor
Kazuhiro Nishii
一浩 西井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2009040413A priority Critical patent/JP5163534B2/en
Publication of JP2010199788A publication Critical patent/JP2010199788A/en
Application granted granted Critical
Publication of JP5163534B2 publication Critical patent/JP5163534B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a head-mounted display with superior ease of operation that is suitably calibrated with respect to the direction of the line of sight of a user. <P>SOLUTION: An image presenting device, which projects an image represented by content data on the side of a first position as a predetermined position on the side of a temporal part from almost the front of one eye of the user (S110, S112), is moved to the side of a second position as a predetermined position of almost the front of the one eye of the user (S106), and reference state data for controlling a predetermined operation in the head-mounted display are stored in a flash ROM (S108). <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、利用者の眼に、例えばコンテンツデータにより示される画像を視認可能に提示し、この利用者に画像を認識させるヘッドマウントディスプレイに関するものである。   The present invention relates to a head mounted display that presents, for example, an image indicated by content data to a user's eyes so that the user can recognize the image, and allows the user to recognize the image.

利用者の眼にコンテンツデータ等によって示される画像を視認可能に提示し、この利用者に画像を認識させるヘッドマウントディスプレイに関する技術が提案されている。例えば、観察者が良好な映像を得るためには、良好な映像が得られる光を観察者の左右の瞳の全面で受ける必要があるので、射出瞳又はその前後の良好な光の交わっている領域内に観察者の瞳を置かねばならないところ、瞳がずれていた時にどちらの方向に装置を調節したらよいのかが分かり難く、このような課題を解決する手段として、次のような構成が提案されている。すなわち、映像表示素子への映像表示を遮断するか映像表示素子からの映像を遮断する映像遮断手段と、映像表示素子の表示映像を観察者の眼球まで導く光路内に配置された凹面反射鏡と、瞳ずれを判定するための照明光源とを有し、観察者の瞳位置を調整する際に、映像遮断手段と照明光源を動作させ、眼球の瞳の像が凹面反射鏡により遠方に結像させる。そして、この構成によれば、観察者の瞳が本表示装置の射出瞳と一致せず瞳ずれがある時は、その遠方像を観察者が視軸方向に見ることができないので、瞳ずれがあることが容易に分かるとされている(例えば、特許文献1参照)。   A technology related to a head-mounted display has been proposed in which an image indicated by content data or the like is presented to a user's eye so as to be visible, and the user recognizes the image. For example, in order for the observer to obtain a good image, it is necessary to receive light that can obtain a good image on the entire left and right pupils of the observer, so that the exit pupil or good light before and after the pupil intersects. Where the observer's pupil must be placed in the area, it is difficult to know in which direction the device should be adjusted when the pupil is misaligned, and the following configuration is proposed as a means to solve this problem. Has been. That is, an image blocking means for blocking an image display on the image display element or an image from the image display element, and a concave reflector disposed in an optical path for guiding the display image on the image display element to an observer's eyeball, And an illumination light source for determining pupil misalignment, and when adjusting the observer's pupil position, the image blocking means and the illumination light source are operated, and the pupil image of the eyeball is formed far away by the concave reflector Let According to this configuration, when the observer's pupil does not coincide with the exit pupil of the display device and there is a pupil shift, the distant image cannot be viewed in the visual axis direction by the observer, so the pupil shift does not occur. It is said that it is easily understood (see, for example, Patent Document 1).

また、別の技術として、眼球の運動パターンを利用し、装着者が手を使わないで電子像と外界像の切り替えを行えるようにする技術が提案されている。すなわち、左右の眼球がなす輻輳角を算出し、予め定めた基準輻輳角に対する輻輳角の大小関係の状態が変化し、かつ、予め定めた基準時間に対する同一状態の継続時間が長いことを条件として、輻輳パターン抽出処理装置は、電子像と外界像の切り替えを指示する変更信号を像切替制御装置に出力する構成が提案されている(例えば、特許文献2参照)。   As another technique, a technique has been proposed that uses a movement pattern of an eyeball so that a wearer can switch between an electronic image and an external image without using a hand. That is, on the condition that the convergence angle formed by the left and right eyeballs is calculated, the state of the relationship of the convergence angle with respect to the predetermined reference convergence angle changes, and the duration of the same state with respect to the predetermined reference time is long A configuration is proposed in which the convergence pattern extraction processing device outputs a change signal instructing switching between an electronic image and an external image to the image switching control device (see, for example, Patent Document 2).

特開平7−115607号公報JP-A-7-115607 特開平8−160345号公報JP-A-8-160345

ところで、ヘッドマウントディスプレイを装着している利用者の視線方向に応じ、ヘッドマウントディスプレイの動作を制御する構成は、ヘッドマウントディスプレイの操作性を向上させることができる。しかし、このような制御は、利用者の視線方向を適切に検知することで実現される。したがって、このような制御を実現可能なヘッドマウントディスプレイにおいて、その動作に対応する利用者の視線方向が適切に調整(キャリブレーション)されていなければならない。なお、眼の動かし方には個人差がありため、利用者毎に適切なキャリブレーションが実施される必要がある。   By the way, the structure which controls the operation | movement of a head mounted display according to the gaze direction of the user with whom the head mounted display is mounted | worn can improve the operativity of a head mounted display. However, such control is realized by appropriately detecting the user's line-of-sight direction. Therefore, in a head mounted display capable of realizing such control, the user's line-of-sight direction corresponding to the operation must be appropriately adjusted (calibrated). Since there are individual differences in how to move the eyes, it is necessary to perform appropriate calibration for each user.

本発明は、利用者の視線方向に関するキャリブレーションを適切に行うことが可能な操作性に優れたヘッドマウントディスプレイを提供することを目的とする。   An object of the present invention is to provide a head mounted display excellent in operability capable of appropriately performing calibration relating to a user's line-of-sight direction.

上記課題に鑑みなされた本発明のヘッドマウントディスプレイは、画像を示す画像光を出射する画像提示装置を第1位置と第2位置に配置可能とし、画像提示装置が第1位置に配置された状態で、利用者の視線方向が第1方向である場合に、ヘッドマウントディスプレイの第1動作を制御し、画像提示装置の配置が第2位置である場合に、基準状態情報を記憶することとしたものである。ここで、基準状態情報は、画像提示装置が第2位置に配置された状態で、利用者の視線方向が第1方向にある一方の眼の状態を示す第2状態情報に対応する情報である。本発明のヘッドマウントディスプレイは、画像提示装置が第1位置に配置された状態で、利用者の一方の眼の状態を示す第1状態情報を取得し、この取得された1状態情報と基準状態情報とを比較することで、画像提示装置が第1位置に配置された状態で、利用者の視線方向が第1方向であると検知する。   The head mounted display of the present invention made in view of the above-described problem enables an image presentation device that emits image light indicating an image to be arranged at the first position and the second position, and the image presentation device is arranged at the first position. Thus, when the line of sight of the user is the first direction, the first operation of the head mounted display is controlled, and the reference state information is stored when the arrangement of the image presentation device is at the second position. Is. Here, the reference state information is information corresponding to the second state information indicating the state of one eye in which the user's line-of-sight direction is in the first direction in a state where the image presentation device is disposed at the second position. . The head mounted display of the present invention acquires first state information indicating the state of one eye of the user in a state where the image presentation device is disposed at the first position, and the acquired one state information and the reference state By comparing with the information, it is detected that the line-of-sight direction of the user is the first direction in a state where the image presentation device is arranged at the first position.

本発明を反映した第1の課題解決手段は、利用者の頭部に装着され、前記利用者に画像を視認させるヘッドマウントディスプレイであって、前記利用者の眼に、前記画像を示す画像光を出射する画像提示装置と、前記利用者の一方の眼の略前方から側頭部側の所定の位置である第1位置と、前記一方の眼の略前方の所定の位置である第2位置と、に前記画像提示装置を配置する配置手段と、前記画像提示装置が前記第1位置に配置された状態で、前記一方の眼の状態を示す第1状態情報を取得し、前記画像提示装置が前記第2位置に配置された状態で、前記利用者の視線方向が第1方向にある前記一方の眼の状態を示す第2状態情報を取得する状態情報取得手段と、前記第2状態情報に対応する基準状態情報を記憶する記憶手段と、前記状態情報取得手段により取得された第1状態情報と、前記記憶手段に記憶された基準状態情報と、を比較し、前記画像提示装置が前記第1位置に配置された状態における前記利用者の一方の眼の視線方向が前記第1方向であることを検知する検知手段と、前記検知手段が前記第1方向であることを検知した場合、前記ヘッドマウントディスプレイの第1動作を制御する動作制御手段と、前記基準状態情報の前記記憶手段への記憶を指示する実行指令を取得する指令取得手段と、前記指令取得手段が前記実行指令を取得した場合、前記配置手段における前記画像提示装置の配置を、前記第1位置から前記第2位置に移動させる移動手段と、前記移動手段によって前記画像提示装置が前記第2位置に配置された状態で前記状態情報取得手段が取得した第2状態情報に対応する基準状態情報を、前記記憶手段に記憶する記憶制御手段と、を備えることを特徴とするヘッドマウントディスプレイである。   A first problem-solving means reflecting the present invention is a head-mounted display that is mounted on a user's head and allows the user to visually recognize an image, and the image light that indicates the image to the user's eyes. An image presentation device that emits light, a first position that is a predetermined position on the temporal side from approximately the front of one eye of the user, and a second position that is a predetermined position approximately in front of the one eye And an arrangement means for arranging the image presentation device, and in a state where the image presentation device is arranged at the first position, first state information indicating the state of the one eye is acquired, and the image presentation device State information acquisition means for acquiring second state information indicating the state of the one eye in which the user's line-of-sight direction is in the first direction in a state in which the user is positioned at the second position; and the second state information Storage means for storing reference state information corresponding to the state, and the state The first state information acquired by the information acquisition unit is compared with the reference state information stored in the storage unit, and the one of the users in the state where the image presentation device is arranged at the first position Detection means for detecting that the line-of-sight direction of the eye is the first direction, and operation control means for controlling the first operation of the head mounted display when the detection means detects the first direction. A command acquisition unit that acquires an execution command that instructs the storage unit to store the reference state information; and when the command acquisition unit acquires the execution command, the arrangement of the image presentation device in the arrangement unit is: The state information acquisition means acquires the moving means for moving from the first position to the second position, and the image presentation apparatus is located at the second position by the moving means. The reference state information corresponding to the second state information, a head-mounted display, characterized by comprising: a storage control means for storing in the storage means.

これによれば、利用者の視線方向に基づき制御される第1動作に関し、その基準となる基準状態情報の基礎となる第2状態情報を、画像提示装置が利用者の一方眼の略前方に配置された状態(画像提示装置が第2位置に配置された状態)で取得することができる。   According to this, with respect to the first movement controlled based on the user's line-of-sight direction, the image presentation device displays the second state information that is the basis of the reference state information serving as the reference approximately in front of one eye of the user. It can be acquired in the arranged state (the state where the image presentation device is arranged at the second position).

第2の課題解決手段は、第1の課題解決手段のヘッドマウントディスプレイであって、前記移動手段は、前記記憶制御手段が前記記憶手段に前記基準状態情報を記憶した場合、前記配置手段における前記画像提示装置の配置を、前記第2位置から前記第1位置に移動させることを特徴とする。   The second problem-solving means is the head-mounted display of the first problem-solving means, and the moving means, when the storage control means stores the reference state information in the storage means, The arrangement of the image presentation device is moved from the second position to the first position.

これによれば、基準状態情報を記憶した場合、画像提示装置の配置を第1位置に戻すことができる。   According to this, when the reference state information is stored, the arrangement of the image presentation device can be returned to the first position.

第3の課題解決手段は、第1又は第2の課題解決手段のヘッドマウントディスプレイであって、前記基準状態情報は、前記第2状態情報を、前記第1位置に前記画像提示装置が配置された状態で、前記利用者の視線方向が前記第1方向にある前記一方の眼の状態を示すように補正された状態情報であることを特徴とする。   The third problem solving means is a head-mounted display of the first or second problem solving means, wherein the reference state information is the second state information, and the image presentation device is disposed at the first position. The state information is corrected so as to indicate the state of the one eye in which the user's line-of-sight direction is in the first direction.

これによれば、画像提示装置が第1位置に配置されている状態において、利用者の一方の眼の視線方向が第1方向であることを適切に検知することができる。   According to this, it is possible to appropriately detect that the line-of-sight direction of one eye of the user is the first direction in a state where the image presentation device is arranged at the first position.

第4の課題解決手段は、第1乃至第3の課題解決手段のいずれか1つのヘッドマウントディスプレイであって、前記画像提示装置は、前記画像光を出射する画像提示手段と、前記画像提示手段から出射される画像光を前記利用者の眼の方向に反射させる反射手段と、を含み、前記配置手段は、前記第1位置及び前記第2位置に前記反射手段を配置し、前記移動手段は、前記第1位置から前記第2位置に前記反射手段を移動させることを特徴とする。   The fourth problem solving means is a head-mounted display according to any one of the first to third problem solving means, wherein the image presentation device includes image presentation means for emitting the image light, and the image presentation means. Reflecting means for reflecting image light emitted from the user in the direction of the eyes of the user, wherein the arranging means arranges the reflecting means at the first position and the second position, and the moving means includes The reflecting means is moved from the first position to the second position.

これによれば、第2状態情報の取得に際し、第2位置に移動させる構成を少なくすることができる。   According to this, when acquiring 2nd status information, the structure moved to a 2nd position can be decreased.

本発明によれば、利用者の視線方向に関するキャリブレーションを適切に行うことが可能な操作性に優れたヘッドマウントディスプレイを得ることができる。   ADVANTAGE OF THE INVENTION According to this invention, the head mounted display excellent in the operativity which can perform the calibration regarding a user's gaze direction appropriately can be obtained.

本発明の実施形態におけるヘッドマウントディスプレイの外観を示す図The figure which shows the external appearance of the head mounted display in embodiment of this invention 本発明に係る実施形態のヘッドマウントディスプレイを装着した状態を示す図The figure which shows the state which mounted | wore the head mounted display of embodiment which concerns on this invention. 本発明に係る実施形態の画像提示装置の機能ブロックを示す図The figure which shows the functional block of the image presentation apparatus of embodiment which concerns on this invention. 本発明に係る実施形態の画像提示装部の構成を示す図The figure which shows the structure of the image presentation mounting part of embodiment which concerns on this invention. 本発明に係る実施形態の画像提示装置及びハーフミラーの移動機構を示す図The figure which shows the moving mechanism of the image presentation apparatus and half mirror of embodiment which concerns on this invention 本発明に係る実施形態の画像提示装置に取り付けられたハーフミラーが第2位置に配置された状態を示す図The figure which shows the state by which the half mirror attached to the image presentation apparatus of embodiment which concerns on this invention was arrange | positioned in the 2nd position. (a)及び(b)は、本発明に係る実施形態の画像提示装置本体(CCDカメラ)及びハーフミラーの移動を説明する図(A) And (b) is a figure explaining the movement of the image presentation apparatus main body (CCD camera) and half mirror of embodiment which concerns on this invention. 本発明に係る実施形態のメイン処理の処理フローを示す図The figure which shows the processing flow of the main process of embodiment which concerns on this invention. 本発明に係る実施形態のキャリブレーションの処理フローを示す図The figure which shows the processing flow of the calibration of embodiment which concerns on this invention 本発明に係る実施形態のキャリブレーションにおいて利用者に提示される画像を示す図The figure which shows the image shown to a user in the calibration of embodiment which concerns on this invention 本発明に係る実施形態の補正処理について説明する図The figure explaining the correction process of embodiment which concerns on this invention 本発明に係る実施形態のコンテンツ提示の処理フローを示す図The figure which shows the processing flow of the content presentation of embodiment which concerns on this invention.

本発明を反映した上記課題解決手段を実施するための実施形態について、図面を用いて以下に詳細に説明する。なお、上記課題解決手段は、以下に記載の構成に限定されるものではなく、同一の技術的思想において種々の構成を採用することができる。例えば、以下の説明では、一体型のヘッドマウントディスプレイ(Head Mounted Display/以下、「HMD」という。)を例に説明するが、ヘッドマウントディスプレイ本体と、ヘッドマウントディスプレイ本体にコンテンツデータにより示される画像を提供する制御ボックスと、を接続した構成とすることもできる。   Embodiments for implementing the above problem solving means reflecting the present invention will be described below in detail with reference to the drawings. In addition, the said subject solution means is not limited to the structure described below, Various structures can be employ | adopted in the same technical idea. For example, in the following description, an integrated head-mounted display (Head Mounted Display / hereinafter referred to as “HMD”) will be described as an example. However, the head-mounted display main body and an image indicated by content data on the head-mounted display main body are described. It is also possible to connect the control box that provides

(ヘッドマウントディスプレイの概要)
図1は、HMDの構成、より具体的には、図1(a)はHMDの上面図、図1(b)はHMDの正面図、図1(c)はHMDの左側面図を示す。また、図2は利用者がHMDを装着した状態を示す。なお、図1及び図2において、画像提示装置(ハーフミラー)を3347移動させるための移動機構は省略する(図5〜図7参照)。
(Overview of head mounted display)
1 shows the configuration of the HMD. More specifically, FIG. 1A shows a top view of the HMD, FIG. 1B shows a front view of the HMD, and FIG. 1C shows a left side view of the HMD. FIG. 2 shows a state in which the user wears the HMD. 1 and 2, a moving mechanism for moving the image presentation device (half mirror) 3347 is omitted (see FIGS. 5 to 7).

HMD100は、一端に利用者の耳に当たるモダン102A,102Bが取り付けられたテンプル104A,104Bと、テンプル104A,104Bの他端に蝶番112A,112Bを介して連結されたヨロイ106A,106Bと、ヨロイ106A,106Bを連結するフロントフレーム108と、フロントフレーム108の中央部に取り付けられ、利用者の鼻に当接する鼻パッド110と、により骨格部が形成されている。ヨロイ106A,106Bに形成された蝶番112A,112Bでテンプル104A,104Bを折りたたむことができる。HMD100の骨格部の構成は、例えば、通常の眼鏡と同様であり、HMD100は、利用者に装着された状態において、モダン102A,102Bと、鼻パッド110と、により利用者の顔に支持される(図2参照)。なお、図1(b)において、モダン102A,102B及びテンプル104A,104Bの描画を省略している。   The HMD 100 includes temples 104A and 104B each having a modern 102A and 102B that hits the user's ear at one end, armatures 106A and 106B coupled to the other ends of the temples 104A and 104B via hinges 112A and 112B, and armor 106A. , 106B and a nose pad 110 attached to the center of the front frame 108 and abutting the user's nose form a skeleton. Temples 104A and 104B can be folded with hinges 112A and 112B formed on armor 106A and 106B. The structure of the skeleton part of the HMD 100 is the same as, for example, normal glasses, and the HMD 100 is supported on the user's face by the modern 102A and 102B and the nose pad 110 when worn on the user. (See FIG. 2). In FIG. 1B, drawing of the moderns 102A and 102B and the temples 104A and 104B is omitted.

HMD100には画像提示装置114が、図1に示す位置から利用者の左眼118の前方側に移動可能に取り付けられている(詳細は後述する。)。画像提示装置114は、HMD100に取り付けられた状態において、HMD100を装着した利用者の左眼118と略同一の高さとなる位置に配設される。また、画像提示装置114は、後述のとおり、その内部に種々の構成を含む。画像提示装置114が内部に備える構成によって、コンテンツデータが処理(レンダリング)され、所定の画像が生成される。そして、生成された画像を示す画像光が、画像提示装置114に内蔵された画像提示部310(図3参照)からハーフミラー116に向けて光学的に出射される。なお、ハーフミラー116は、画像提示部310等を内蔵する画像提示装置114の所定の位置に取り付けられ、画像提示装置114を構成する。   An image presentation device 114 is movably attached to the HMD 100 from the position shown in FIG. 1 to the front side of the user's left eye 118 (details will be described later). When the image presentation device 114 is attached to the HMD 100, the image presentation device 114 is disposed at a position that is substantially the same height as the left eye 118 of the user wearing the HMD 100. Further, the image presentation device 114 includes various configurations therein as described later. The content data is processed (rendered) by a configuration included in the image presentation device 114, and a predetermined image is generated. Then, image light indicating the generated image is optically emitted from the image presentation unit 310 (see FIG. 3) built in the image presentation device 114 toward the half mirror 116. The half mirror 116 is attached to a predetermined position of the image presentation device 114 that incorporates the image presentation unit 310 and the like, and constitutes the image presentation device 114.

画像提示部310から出射された画像光は、ハーフミラー116で、反射し、利用者の左眼118に入射、換言すれば、視認可能に提示(投影)される。これにより、利用者は所定の画像を認識する。ここで、図1(a)において符号120aは、画像提示部310から出射された画像に関する画像光を示し、符号120bは、ハーフミラー116で反射し、利用者の左眼118に入射する画像光を示す。なお、画像提示部310は、取得した画像信号に応じた画像光120a,120bを2次元方向に走査し、その走査された画像光120a,120bを利用者の左眼118に導き網膜上に画像を形成する網膜走査型のディスプレイを用いて構成することができる他、液晶ディスプレイ、有機EL(Organic Electroluminescence)ディスプレイその他の装置を用いた構成とすることもできる。   The image light emitted from the image presentation unit 310 is reflected by the half mirror 116 and is incident on the user's left eye 118, in other words, presented (projected) so as to be visible. Thereby, the user recognizes a predetermined image. Here, in FIG. 1A, reference numeral 120a indicates image light relating to an image emitted from the image presentation unit 310, and reference numeral 120b indicates image light reflected by the half mirror 116 and incident on the left eye 118 of the user. Indicates. The image presentation unit 310 scans the image light 120a and 120b in accordance with the acquired image signal in a two-dimensional direction, guides the scanned image light 120a and 120b to the user's left eye 118, and displays the image on the retina. In addition to a retinal scanning type display that forms a liquid crystal display, a liquid crystal display, an organic EL (Organic Electroluminescence) display, and other devices may be used.

ここで、画像提示装置114の上面には利用者の左眼118を撮像可能なCCDカメラ300が取り付けられている。   Here, a CCD camera 300 capable of capturing an image of the user's left eye 118 is attached to the upper surface of the image presentation device 114.

(画像提示装置の構成)
図3に、画像提示装置114の機能ブロックを示す。画像提示装置114は、自装置の制御を司るCPU202と、各種プログラムを記憶するプログラムROM204とを備える。また、画像提示装置114は、コンテンツデータ、基準状態データその他各種データを記憶する不揮発性のフラッシュロム206と、作業領域としてのRAM208とを備える。ここで、基準状態データは、利用者の視線方向が左側方向及び右側方向(詳細については後述する。)にある左眼118(図1参照)の状態に対応する基準状態を示すデータ(情報)である。
(Configuration of image presentation device)
FIG. 3 shows functional blocks of the image presentation device 114. The image presentation device 114 includes a CPU 202 that controls the device itself and a program ROM 204 that stores various programs. Further, the image presentation device 114 includes a nonvolatile flash ROM 206 that stores content data, reference state data, and other various data, and a RAM 208 as a work area. Here, the reference state data is data (information) indicating the reference state corresponding to the state of the left eye 118 (see FIG. 1) in which the user's line-of-sight direction is the left direction and the right direction (details will be described later). It is.

また、画像提示装置114は、CCDカメラ300が接続されるCCDカメラ接続I/F210を備える。CCDカメラ接続I/F210は、CCDカメラ接続コントローラ2102とCCDカメラ用VRAM(Video RAM)2104とを搭載する。ここで、CCDカメラ接続コントローラ2102は、CCDカメラ300からの撮像画像データの入力(受信)を、CPU202からの指令に基づき制御する。また、CCDカメラ用VRAM(Video RAM)2104は、CCDカメラ300によって撮像された画像を記憶する。   In addition, the image presentation device 114 includes a CCD camera connection I / F 210 to which the CCD camera 300 is connected. The CCD camera connection I / F 210 includes a CCD camera connection controller 2102 and a CCD camera VRAM (Video RAM) 2104. Here, the CCD camera connection controller 2102 controls the input (reception) of the captured image data from the CCD camera 300 based on a command from the CPU 202. A CCD camera VRAM (Video RAM) 2104 stores an image captured by the CCD camera 300.

また、画像提示装置114は、画像提示部310が接続される画像提示部接続I/F212を備える。画像提示部接続I/F212は、画像提示部接続コントローラ2122と画像提示部用VRAM2124とを搭載する。ここで、画像提示部接続コントローラ2122は、CPU202からの指令に基づき画像提示部310との間の各種データを含む信号の入出力(送受信)を制御する。画像提示部用VRAM2124は、画像提示部310に出力される画像を記憶する。画像提示部310は、画像提示部用VRAM2124に記憶され、画像提示部接続コントローラ2122によって入力されるレンダリングによって生成された所定の画像を示す画像光120aを出射する。出射された画像光120aは、ハーフミラー116で反射する。   In addition, the image presentation device 114 includes an image presentation unit connection I / F 212 to which the image presentation unit 310 is connected. The image presentation unit connection I / F 212 includes an image presentation unit connection controller 2122 and an image presentation unit VRAM 2124. Here, the image presentation unit connection controller 2122 controls input / output (transmission / reception) of signals including various data with the image presentation unit 310 based on a command from the CPU 202. The image presentation unit VRAM 2124 stores an image output to the image presentation unit 310. The image presenting unit 310 emits image light 120 a that is stored in the image presenting unit VRAM 2124 and that indicates a predetermined image generated by rendering input by the image presenting unit connection controller 2122. The emitted image light 120 a is reflected by the half mirror 116.

また、画像提示装置114は、周辺I/F214と通信部216とを備える。ここで、周辺I/F214は、例えば、CCDカメラ300による撮像位置を照らすランプ320と、HMD100の電源スイッチ330とが接続される。通信部216は、例えば、キーボード(図3において描画せず)から所定の指示の入力を受け付ける。   In addition, the image presentation device 114 includes a peripheral I / F 214 and a communication unit 216. Here, the peripheral I / F 214 is connected to, for example, a lamp 320 that illuminates an imaging position by the CCD camera 300 and a power switch 330 of the HMD 100. The communication unit 216 receives an input of a predetermined instruction from, for example, a keyboard (not drawn in FIG. 3).

さらに、画像提示装置114は、CPU202からの指令に基づき、画像提示装置114の移動を制御する画像提示装置移動部コントローラ218を備える。画像提示装置移動部コントローラ218は、画像提示装置114を移動するための駆動源であるモータ154(図5(b)参照)を制御する。なお、画像提示装置114の移動が、例えば、利用者の手操作(手動)で行われる構成を採用する場合、モータ154を制御する機能は含まれなくてもよい。画像提示装置移動部コントローラ218は、画像提示装置114(ハーフミラー116)が所定の第1位置に移動し配置されたこと及び所定の第2位置に移動し配置されたことを検出するための位置センサ340が接続される。画像提示装置移動部コントローラ218は、この位置センサ340からの信号の入力(受信)を、CPU202からの指令に基づき制御する。位置センサ340から入力された画像提示装置114の位置情報は、CPU202に伝達される。   Furthermore, the image presentation device 114 includes an image presentation device moving unit controller 218 that controls the movement of the image presentation device 114 based on a command from the CPU 202. The image presentation device moving unit controller 218 controls a motor 154 (see FIG. 5B) that is a drive source for moving the image presentation device 114. Note that, for example, when adopting a configuration in which the movement of the image presentation device 114 is performed by a user's manual operation (manual), the function of controlling the motor 154 may not be included. The image presentation device moving unit controller 218 is a position for detecting that the image presentation device 114 (half mirror 116) has been moved to the predetermined first position and has been moved to the predetermined second position. A sensor 340 is connected. The image presentation device moving unit controller 218 controls the input (reception) of the signal from the position sensor 340 based on a command from the CPU 202. The position information of the image presentation device 114 input from the position sensor 340 is transmitted to the CPU 202.

なお、第1位置は、利用者の左眼118の略前方から左側頭部側の所定の位置である。換言すれば、第1位置は、コンテンツデータによって示される画像の画像光120aを出射し、ハーフミラー116での反射を介し、画像光120bが利用者の左眼118に入射するとき、画像提示装置114に取り付けられたハーフミラー116が配置される位置である。すなわち、HMD100が、利用者の左眼118にコンテンツデータにより示される画像(画像光120a,120b)を視認可能に提示し、この利用者に画像を認識させるといった、HMD100の本質的機能を発揮する場合、画像提示装置114に取り付けられたハーフミラー116は、この第1位置に配置される。   The first position is a predetermined position on the left head side from approximately the front of the left eye 118 of the user. In other words, the first position emits the image light 120a of the image indicated by the content data, and when the image light 120b is incident on the left eye 118 of the user via reflection by the half mirror 116, the image presentation device This is the position where the half mirror 116 attached to 114 is disposed. In other words, the HMD 100 exhibits the essential functions of the HMD 100 such that the image (image light 120a, 120b) indicated by the content data is presented to the user's left eye 118 so that the user can recognize the image. In this case, the half mirror 116 attached to the image presentation device 114 is disposed at the first position.

これに対し、第2位置は、利用者の左眼118の略前方の所定の位置である。換言すれば、第2位置は、例えば、HMD100の動作(例えば、再生開始、再生停止)を制御するための基準となる基準状態データ(詳細は後述する。)を記憶する際(キャリブレーションを実行する際)、ハーフミラー116が配置される位置である。   On the other hand, the second position is a predetermined position substantially in front of the user's left eye 118. In other words, the second position stores, for example, reference state data (details will be described later) serving as a reference for controlling the operation (for example, reproduction start and reproduction stop) of the HMD 100 (calibration is executed). The half mirror 116 is disposed.

第1位置において画像を視認可能に提示し、第2位置においてキャリブレーションを実行することで、以下に述べる利点がある。第1位置では左眼118の略前方から左側頭部側の所定の位置だけずれた方向から画像光が出射される。これにより、利用者が通常前方を見ているときには、画像光は左眼118に入射しない。すなわち、利用者は、画像光を視認できないため、前方の外界のみを画像光に邪魔されることなく視認できる。利用者が左側頭部側の所定の位置(後述する図5でθだけ左方向)を見ると、画像光が左眼118に入射し、画像光を視認することができる。これにより、画像光を見る必要があるときのみ左側頭部側の所定の位置を見れば画像光を視認でき、必要がないときは前方を見て画像光に邪魔されることなく外界を見て所定の作業を行うことができる。特にレーザ光を走査して網膜上に画像を形成する場合、レーザ光のビーム径は小さいので、利用者が左側頭部側の所定の位置から正面方向に視線を移動させるだけで、レーザ光は左眼118に入らなくなる。ただし、第1位置においてキャリブレーションを行おうとしても、キャリブレーションのガイダンスを視認するためには、視線を常に左側頭部側の所定の位置に向ける必要がある。利用者の視線がほぼ左側頭部側の所定の位置に固定されるので、上下左右に視線方向を動かすためのガイダンスが表示されても、利用者は、上下左右に視線方向を動かし、基準状態データを取得することが困難となる。すなわち、キャリブレーションを良好に行うことができない。一方、第2位置は利用者の左眼118の略前方の所定の位置であるため、キャリブレーションのガイダンスを表示させて、利用者が上下左右に視線方向を動かすことで、基準状態データを取得することができる。ただし、第2状態のまま作業を行うと作業対象の外界と、所定の作業のための作業指示書やマニュアルの表示とが常に重なって見えてしまい、画像光が作業の邪魔になってしまう。そこで、本実施形態では、第1位置において画像を視認可能に提示することで作業の邪魔とならず、第2位置においてキャリブレーションを実行することでキャリブレーションを良好に行うことができるようにしている。   By presenting the image at the first position so as to be visible and executing the calibration at the second position, there are the following advantages. At the first position, the image light is emitted from a direction deviated by a predetermined position on the left head side from substantially the front of the left eye 118. Thereby, when the user is normally looking forward, the image light does not enter the left eye 118. That is, since the user cannot visually recognize the image light, the user can visually recognize only the front outside world without being disturbed by the image light. When the user looks at a predetermined position on the left head side (leftward by θ in FIG. 5 described later), the image light is incident on the left eye 118 and the image light can be viewed. As a result, the image light can be visually recognized by looking at a predetermined position on the left side of the head only when it is necessary to see the image light, and when it is not necessary, the front can be seen and the outside world can be seen without being disturbed by the image light. Predetermined work can be performed. In particular, when an image is formed on the retina by scanning with laser light, the laser light has a small beam diameter. Therefore, the user simply moves his / her line of sight from a predetermined position on the left side of the head to move the laser light. The left eye 118 cannot be entered. However, even if the calibration is performed at the first position, it is necessary to always turn the line of sight toward a predetermined position on the left side of the head in order to visually recognize the calibration guidance. Since the user's line of sight is fixed at a predetermined position on the left side of the head, the user moves the line of sight up and down, left and right, even if guidance for moving the line of sight up and down and left and right is displayed. It becomes difficult to obtain data. That is, calibration cannot be performed satisfactorily. On the other hand, since the second position is a predetermined position substantially in front of the left eye 118 of the user, the calibration guidance is displayed, and the user acquires the reference state data by moving the line of sight up, down, left, and right. can do. However, if the work is performed in the second state, the work environment and the display of the work instruction manual and manual for the predetermined work always appear to overlap each other, and the image light interferes with the work. Therefore, in the present embodiment, it is possible to satisfactorily perform the calibration by executing the calibration at the second position without causing an obstacle to the work by presenting the image at the first position so as to be visible. Yes.

CPU202は、プログラムROM204に記憶されているコンテンツデータを再生(レンダリング)するためのプログラムを、RAM208上で実行することで、所定の画像を取得する。そして、プログラムROM204に記憶されている画像提示部接続I/F212を制御するためのプログラムをRAM208上で実行し、この画像を含む画像信号の画像提示装置100への出力を、画像提示部接続コントローラ2122に指令する。   The CPU 202 acquires a predetermined image by executing a program for reproducing (rendering) the content data stored in the program ROM 204 on the RAM 208. Then, a program for controlling the image presentation unit connection I / F 212 stored in the program ROM 204 is executed on the RAM 208, and an image signal including the image is output to the image presentation device 100 as an image presentation unit connection controller. 2122 is commanded.

また、CPU202は、CCDカメラ300からCCDカメラ接続I/F210を介して入力され、CCDカメラ接続コントローラ2102によってCCDカメラ用VRAM2104に記憶された利用者の左眼118の画像及び基準状態データによって示される画像を用いて、プログラムROM204に記憶されている解析用プログラム(例えば、パターンマッチングのためのプログラム)をRAM208上で実行することで、利用者の左眼118の状態について解析する。また、CPU202は、プログラムROM204に記憶されているHMD100を制御するためのプログラムをRAM208上で実行し、解析結果に基づいたHMD100の動作を制御する。   Further, the CPU 202 is indicated by the image of the left eye 118 of the user and the reference state data which are input from the CCD camera 300 via the CCD camera connection I / F 210 and stored in the CCD camera VRAM 2104 by the CCD camera connection controller 2102. Using the image, an analysis program (for example, a program for pattern matching) stored in the program ROM 204 is executed on the RAM 208 to analyze the state of the left eye 118 of the user. In addition, the CPU 202 executes a program for controlling the HMD 100 stored in the program ROM 204 on the RAM 208, and controls the operation of the HMD 100 based on the analysis result.

さらに、CPU202は、通信部216が受け付けた指示又は図3には図示されていないHMD100が備える操作部を介した指示を取得し、この指示に基づき、プログラムROM204に記憶されたキャリブレーション用のプログラムを実行することで、後述する処理(図9に示すキャリブレーション)を実行する。   Further, the CPU 202 acquires an instruction received by the communication unit 216 or an instruction via an operation unit included in the HMD 100 not illustrated in FIG. 3, and a calibration program stored in the program ROM 204 based on the instruction. By executing this, the process described later (calibration shown in FIG. 9) is executed.

したがって、CPU202が、コンテンツデータ、CCDカメラ300で撮像された左左眼118の画像及び基準状態データによって示される画像等の各種データを用い、プログラムROM204に記憶された各種プログラムをRAM208上で実行することにより、各種機能手段(例えば、検知手段、動作制御手段、指令取得手段、記憶制御手段)が構成される。   Therefore, the CPU 202 executes various programs stored in the program ROM 204 on the RAM 208 by using various data such as content data, an image of the left / left eye 118 imaged by the CCD camera 300 and an image indicated by the reference state data. Thus, various function means (for example, detection means, operation control means, command acquisition means, storage control means) are configured.

(画像提示部の構成)
図4に、画像提示装置の構成を示す。画像提示部310は、走査画像光生成部3121、コリメート光学系3122、水平走査部3123、垂直走査部3124、リレー光学系3125、リレー光学系3126を有している。
(Configuration of image presentation unit)
FIG. 4 shows the configuration of the image presentation device. The image presentation unit 310 includes a scanned image light generation unit 3121, a collimating optical system 3122, a horizontal scanning unit 3123, a vertical scanning unit 3124, a relay optical system 3125, and a relay optical system 3126.

走査画像光生成部3121は、画像提示部接続I/F212が出力する画像信号を、ドットクロック毎に読み出し、読み出した画像信号に応じて強度変調して走査画像光を生成する装置である。走査画像光生成部3121は、信号処理回路3211、光源部3212、光合成部3213を有している。   The scanned image light generation unit 3121 is a device that reads the image signal output from the image presentation unit connection I / F 212 for each dot clock and modulates the intensity according to the read image signal to generate the scanned image light. The scanned image light generation unit 3121 includes a signal processing circuit 3211, a light source unit 3212, and a light combining unit 3213.

信号処理回路3211は、画像提示部接続I/F212と接続している。信号処理回路3211は、画像提示部接続I/F212から入力された「画像信号」に基づいて、走査画像光を生成するための要素となるB(青)、G(緑)、R(赤)の各画像信号3214a〜3214cを生成し、光源部3212に出力する。また、信号処理回路3211は、後述する水平走査部3123の水平走査制御回路3123bと接続している。信号処理回路3211は、画像提示部接続I/F212から入力された「画像信号」に基づいて水平駆動信号3215を生成し、この水平駆動信号3215を水平走査制御回路3123bに出力する。更に、信号処理回路3211は、後述する垂直走査制御回路3124bと接続している。信号処理回路3211は、画像提示部接続I/F212から入力された「画像信号」に基づいて垂直駆動信号3216を生成し、この垂直駆動信号3216を垂直走査制御回路3124bに出力する。   The signal processing circuit 3211 is connected to the image presentation unit connection I / F 212. The signal processing circuit 3211 is based on the “image signal” input from the image presentation unit connection I / F 212 and serves as an element for generating scanned image light B (blue), G (green), and R (red). The image signals 3214a to 3214c are generated and output to the light source unit 3212. The signal processing circuit 3211 is connected to a horizontal scanning control circuit 3123b of the horizontal scanning unit 3123 described later. The signal processing circuit 3211 generates a horizontal drive signal 3215 based on the “image signal” input from the image presentation unit connection I / F 212 and outputs the horizontal drive signal 3215 to the horizontal scanning control circuit 3123b. Further, the signal processing circuit 3211 is connected to a vertical scanning control circuit 3124b described later. The signal processing circuit 3211 generates a vertical drive signal 3216 based on the “image signal” input from the image presentation unit connection I / F 212 and outputs the vertical drive signal 3216 to the vertical scanning control circuit 3124b.

光源部3212は、Bレーザドライバ3212a、Gレーザドライバ3212b、Rレーザドライバ3212c、Bレーザ3212d、Gレーザ3212e、Rレーザ3212fから構成されている。Bレーザドライバ3212aは、信号処理回路3211からドットクロック毎に出力されたB(青)の画像信号3214aに基づき、Bレーザ3212dを駆動させる。Bレーザ3212dは、B(青)の画像信号3214aに基づき、強度変調された青色のレーザ光を出射する。Gレーザ3212e及びRレーザ3212fも、同様に、それぞれ強度変調された、緑色のレーザ光、赤色のレーザ光を出射する。   The light source unit 3212 includes a B laser driver 3212a, a G laser driver 3212b, an R laser driver 3212c, a B laser 3212d, a G laser 3212e, and an R laser 3212f. The B laser driver 3212a drives the B laser 3212d based on the B (blue) image signal 3214a output from the signal processing circuit 3211 for each dot clock. The B laser 3212d emits intensity-modulated blue laser light based on the B (blue) image signal 3214a. Similarly, the G laser 3212e and the R laser 3212f emit green laser light and red laser light, which are respectively intensity-modulated.

各レーザ3212d〜3212fには、半導体レーザや、高調波発生機能付固体レーザが含まれる。なお、半導体レーザを用いる場合には、駆動電流を直接変調して、レーザ光の強度変調を行う。また、高調波発生機能付固体レーザを用いる場合には、各レーザ3212d〜3212fそれぞれに、外部変調器を備えてレーザ光の強度変調を行う。なお、高調波発生の効率は高くなく、さらに外部変調器での損失も加わるため、高調波発生機能付固体レーザの消費電力は大きくなるため、各レーザ3212d〜3212fに半導体レーザを用いることが好ましい。   Each of the lasers 3212d to 3212f includes a semiconductor laser and a solid-state laser with a harmonic generation function. When a semiconductor laser is used, the drive current is directly modulated to modulate the intensity of the laser beam. When using a solid state laser with a harmonic generation function, each of the lasers 3212d to 3212f is provided with an external modulator to modulate the intensity of the laser light. Note that the efficiency of harmonic generation is not high, and the loss of the external modulator is also added, so that the power consumption of the solid-state laser with the harmonic generation function is increased. Therefore, it is preferable to use a semiconductor laser for each of the lasers 3212d to 3212f. .

光合成部3213は、コリメート光学系3213a〜3213c、ダイクロイックミラー3213d〜3213f、結合光学系3213gとから構成されている。コリメート光学系3213a〜3213cは、それぞれ、各レーザ3212d〜3212fの前方に配設されていて、各レーザ3212d〜3212fが出射したレーザ光を、平行光化する。ダイクロイックミラー3213d〜3213fは、それぞれ、コリメート光学系3213a〜3213cの前方に配設されていて、各コリメート光学系3213a〜3213cが平行化した各レーザ光を、所定の範囲の波長のレーザ光のみを選択的に、反射又は透過する。   The light combining unit 3213 includes collimating optical systems 3213a to 3213c, dichroic mirrors 3213d to 3213f, and a coupling optical system 3213g. The collimating optical systems 3213a to 3213c are arranged in front of the lasers 3212d to 3212f, respectively, and collimate the laser beams emitted from the lasers 3212d to 3212f. The dichroic mirrors 3213d to 3213f are arranged in front of the collimating optical systems 3213a to 3213c, respectively, and each laser beam paralleled by the collimating optical systems 3213a to 3213c is used only for laser beams having a wavelength in a predetermined range. Optionally, reflect or transmit.

結合光学系3213gは、ダイクロイックミラー3213dの前方に配設されている。ダイクロイックミラー3213dを透過した青色のレーザ光及び、ダイクロイックミラー3213e、3213fでそれぞれ反射された、緑色のレーザ光、赤色のレーザ光が、結合光学系3213gに入射する。結合光学系3213gは、各3原色のレーザ光を集光(混合)させて、光ファイバ3127に入射させる。なお、青色のレーザ光、緑色のレーザ光、赤色の各レーザ光の強度を均等にすると、白色を表現することができる。   The coupling optical system 3213g is disposed in front of the dichroic mirror 3213d. Blue laser light transmitted through the dichroic mirror 3213d and green laser light and red laser light reflected by the dichroic mirrors 3213e and 3213f are incident on the coupling optical system 3213g. The coupling optical system 3213 g condenses (mixes) the laser beams of the three primary colors and enters the optical fiber 3127. Note that white can be expressed by equalizing the intensity of each of the blue laser light, the green laser light, and the red laser light.

水平走査部3123及び垂直走査部3124は、光ファイバ3127に入射されたレーザ光を、画像として照射するために、当該レーザ光を水平方向と垂直方向に走査して走査画像光を生成する。   In order to irradiate the laser beam incident on the optical fiber 3127 as an image, the horizontal scanning unit 3123 and the vertical scanning unit 3124 scan the laser beam in the horizontal direction and the vertical direction to generate scanning image light.

水平走査部3123は、共振型偏向素子3123a、水平走査制御回路3123b、水平走査角検出回路3123cとから構成されている。光ファイバ3127に入射されたレーザ光は、コリメート光学系3122で平行光化され、共振型偏向素子3123aに入射される。共振型偏向素子3123aは、水平走査制御回路3123bで揺動される反射面3123dを有し、入射されたレーザ光を、揺動する反射面3123dで反射させて水平方向に走査する。水平走査制御回路3123bは、信号処理回路3211から出力される水平駆動信号3215に基づいて、共振型偏向素子3123aの反射面3123dを揺動させる駆動信号を発生する。水平走査角検出回路3123cは、共振型偏向素子3123aから出力される変位信号に基づいて、共振型偏向素子3123aの反射面3123dの揺動範囲及び揺動周波数等の揺動状態を検出し、当該揺動状態を示す信号を、画像提示部接続I/F212に出力する。   The horizontal scanning unit 3123 includes a resonant deflection element 3123a, a horizontal scanning control circuit 3123b, and a horizontal scanning angle detection circuit 3123c. The laser light incident on the optical fiber 3127 is collimated by the collimating optical system 3122 and is incident on the resonant deflection element 3123a. The resonant deflection element 3123a has a reflection surface 3123d that is swung by the horizontal scanning control circuit 3123b, and scans the incident laser light in the horizontal direction by being reflected by the swinging reflection surface 3123d. The horizontal scanning control circuit 3123b generates a driving signal for swinging the reflecting surface 3123d of the resonant deflection element 3123a based on the horizontal driving signal 3215 output from the signal processing circuit 3211. The horizontal scanning angle detection circuit 3123c detects a swing state such as a swing range and a swing frequency of the reflection surface 3123d of the resonant deflection element 3123a based on the displacement signal output from the resonant deflection element 3123a. A signal indicating the swing state is output to the image presentation unit connection I / F 212.

垂直走査部3124は、偏向素子3124a、垂直走査制御回路3124b、垂直走査角検出回路3124cとから構成されている。偏向素子3124aは、垂直走査制御回路3124bで揺動される反射面3124dを有し、入射されたレーザ光を、揺動する反射面3124dで反射させて垂直方向に走査し、2次元的に走査された画像光として、リレー光学系3126に出射する。垂直走査制御回路3124bは、信号処理回路3211から出力される垂直駆動信号3216に基づいて、偏向素子3124aの反射面3124dを揺動させる駆動信号を発生する。垂直走査角検出回路3124cは、偏向素子3124aから出力される変位信号に基づいて、偏向素子3124aの反射面3124dの揺動範囲及び揺動周波数等の揺動状態を検出し、当該揺動状態を示す信号を、画像提示部接続I/F212に出力する。   The vertical scanning unit 3124 includes a deflection element 3124a, a vertical scanning control circuit 3124b, and a vertical scanning angle detection circuit 3124c. The deflection element 3124a has a reflection surface 3124d that is oscillated by the vertical scanning control circuit 3124b. The incident laser beam is reflected by the oscillating reflection surface 3124d and scanned in the vertical direction to scan two-dimensionally. The emitted image light is emitted to the relay optical system 3126. Based on the vertical drive signal 3216 output from the signal processing circuit 3211, the vertical scanning control circuit 3124b generates a drive signal for swinging the reflection surface 3124d of the deflection element 3124a. Based on the displacement signal output from the deflection element 3124a, the vertical scanning angle detection circuit 3124c detects the oscillation state such as the oscillation range and oscillation frequency of the reflection surface 3124d of the deflection element 3124a, and detects the oscillation state. Is output to the image presentation unit connection I / F 212.

リレー光学系3125は、共振型偏向素子3123aと偏向素子3124aの間に配設されている。リレー光学系3125は、共振型偏向素子3123aの反射面3123dで水平方向に走査されたレーザ光を、偏向素子3124aの反射面3124dに入射させる。   The relay optical system 3125 is disposed between the resonant deflection element 3123a and the deflection element 3124a. The relay optical system 3125 causes the laser beam scanned in the horizontal direction by the reflection surface 3123d of the resonance type deflection element 3123a to enter the reflection surface 3124d of the deflection element 3124a.

信号処理回路3211は、画像提示部接続I/F212から入力された「画像信号」に基づいて、水平駆動信号3215と垂直駆動信号3216を、それぞれ水平走査制御回路3123bと垂直走査制御回路3124bに出力し、反射面3123d、3124dの走査角を変更することにより、画像光を生成する。   Based on the “image signal” input from the image presentation unit connection I / F 212, the signal processing circuit 3211 outputs a horizontal drive signal 3215 and a vertical drive signal 3216 to the horizontal scanning control circuit 3123b and the vertical scanning control circuit 3124b, respectively. Then, image light is generated by changing the scanning angle of the reflecting surfaces 3123d and 3124d.

こうして変更された反射面3123d、3124dの走査角度は、水平走査角検出回路3123c及び垂直走査角検出回路3124cによって検出信号として検出され、当該検出信号が画像提示部接続I/F212に入力され、水平駆動信号3215及び垂直駆動信号3216にフィードバックされる。   The scanning angles of the reflection surfaces 3123d and 3124d thus changed are detected as detection signals by the horizontal scanning angle detection circuit 3123c and the vertical scanning angle detection circuit 3124c, and the detection signals are input to the image presentation unit connection I / F 212 to be This is fed back to the drive signal 3215 and the vertical drive signal 3216.

リレー光学系3126は、正の屈折力を持つレンズ系3126a、3126bを有している。偏向素子3124aから出射された画像光は、レンズ系26aによって、それぞれの画像光が、その走査画像光の中心線を相互に略平行にされ、かつそれぞれ収束画像光に変換される。前記収束画像光は、レンズ系26bによってそれぞれほぼ平行な走査画像光となるとともに、これらの走査画像光の中心線が利用者の瞳孔Eaに収束するように集光される。   The relay optical system 3126 includes lens systems 3126a and 3126b having a positive refractive power. The image light emitted from the deflecting element 3124a is converted into convergent image light by the lens system 26a so that the center lines of the scanned image light are made substantially parallel to each other. The converged image light is converted into substantially parallel scanned image light by the lens system 26b, and is condensed so that the center line of the scanned image light converges on the pupil Ea of the user.

なお、本実施形態では、光ファイバ3127から入射されたレーザ光を、水平走査部3123で水平方向に走査した後、垂直走査部3124によって垂直方向に走査することとしたが、水平走査部3123と垂直走査部3124の配置を入れ替え、垂直走査部3124に垂直方向に走査した後、水平走査部3123で水平方向に走査するように構成してもよい。   In the present embodiment, laser light incident from the optical fiber 3127 is scanned in the horizontal direction by the horizontal scanning unit 3123 and then scanned in the vertical direction by the vertical scanning unit 3124. The arrangement of the vertical scanning unit 3124 may be changed, and after the vertical scanning unit 3124 is scanned in the vertical direction, the horizontal scanning unit 3123 may scan in the horizontal direction.

(画像提示装置の移動機構)
図5は、画像提示装置の移動機構を示す図である。図5において、画像提示装置114に取り付けられたハーフミラー116は、上述した第1位置に配置されている。なお、図5において、CCDカメラ300(例えば、図1参照)は省略する。
(Movement mechanism of image presentation device)
FIG. 5 is a diagram illustrating a moving mechanism of the image presentation device. In FIG. 5, the half mirror 116 attached to the image presentation device 114 is disposed at the first position described above. In FIG. 5, the CCD camera 300 (see, for example, FIG. 1) is omitted.

画像提示装置の移動機構は、画像提示装置114に対向して配置されるベース150と、ベース150の画像提示装置114に対向する面に形成された移動ガイド152と、画像提示装置114を移動させるための駆動源であるモータ154とにより構成される。移動ガイド152にはギア152aが形成され、モータ154の回転軸の先端には移動ガイド152に形成されたギアにかみ合う小ギア154aが取り付けられている。画像提示装置114には、移動ガイド152に係合するカムローラ156が取り付けられている。   The moving mechanism of the image presentation device moves the base 150 arranged to face the image presentation device 114, the movement guide 152 formed on the surface of the base 150 facing the image presentation device 114, and the image presentation device 114. And a motor 154 which is a drive source for the above. A gear 152 a is formed on the movement guide 152, and a small gear 154 a that meshes with the gear formed on the movement guide 152 is attached to the tip of the rotating shaft of the motor 154. A cam roller 156 that engages with the movement guide 152 is attached to the image presentation device 114.

例えば、モータ154が一の方向に回転した場合、小ギア154aの一の方向への回転がギア152aに伝達され、画像提示装置114は第1位置側から第2位置側に移動する。この際、画像提示装置114は、移動ガイド152に係合したカムローラ156の作用によって、この移動ガイド152に沿って移動する。また、モータ154が他の方向に回転した場合、小ギア154aの他の方向への回転がギア152aに伝達され、画像提示装置114は、図5(a)に示す第2位置側から第1位置側に上記同様に移動する。ベース150には、上述した位置センサ340が第1位置側及び第2位置側各々に設置されている。画像提示装置114が第1位置側に移動した場合、第1位置側に設置された位置センサ340は、画像提示装置114を検知する。位置センサ340は、例えば、近接スイッチによって構成されている。また、位置センサ340は、スイッチと突起、ホール素子と磁石、反射型光センサによって構成することもできる。   For example, when the motor 154 rotates in one direction, the rotation of the small gear 154a in one direction is transmitted to the gear 152a, and the image presentation device 114 moves from the first position side to the second position side. At this time, the image presentation device 114 moves along the movement guide 152 by the action of the cam roller 156 engaged with the movement guide 152. In addition, when the motor 154 rotates in the other direction, the rotation of the small gear 154a in the other direction is transmitted to the gear 152a, and the image presentation device 114 starts from the second position side illustrated in FIG. Move to the position side as above. In the base 150, the above-described position sensor 340 is installed on each of the first position side and the second position side. When the image presentation device 114 moves to the first position side, the position sensor 340 installed on the first position side detects the image presentation device 114. The position sensor 340 is configured by a proximity switch, for example. Further, the position sensor 340 can also be configured by a switch and a protrusion, a Hall element and a magnet, and a reflective optical sensor.

画像提示装置114が移動し、ハーフミラー116が第1位置に配置された場合、画像提示装置114の画像提示部310から出射され(画像光120a参照)、ハーフミラー116で反射した画像光120bは、左眼118の前方に対して所定の角度θをもって左眼118に入射する。利用者は、画像光120b側に視線を向けることで画像光120bによって示される画像を視認し、また、左眼118の前方に視線を向けることで外界を視認することができる。   When the image presentation device 114 moves and the half mirror 116 is disposed at the first position, the image light 120b emitted from the image presentation unit 310 of the image presentation device 114 (see the image light 120a) and reflected by the half mirror 116 is obtained. Then, it enters the left eye 118 at a predetermined angle θ with respect to the front of the left eye 118. The user can visually recognize the image indicated by the image light 120b by directing his / her line of sight toward the image light 120b, and can visually recognize the outside world by directing his / her line of sight toward the front of the left eye 118.

なお、ベース150は、所定の方法で、例えば、テンプル104Aに取り付けられている。また、モータ154は、ベース150に取り付けられている。   The base 150 is attached to the temple 104A by a predetermined method, for example. The motor 154 is attached to the base 150.

図6は、画像提示装置が移動し、ハーフミラーが第2位置に配置された状態を示す図である。なお、図6において、CCDカメラ300(例えば、図1参照)は省略する。画像提示装置114が第2位置側に移動した場合、第2位置側に設置された位置センサ340(図6において図示を省略。図5(b)参照)は、画像提示装置114を検知する。画像提示装置114が移動し、ハーフミラー116が第2位置に配置された場合、画像提示装置114の画像提示部310から出射され(画像光120a参照)、ハーフミラー116で反射した画像光120bは、顔正面側から左眼118に入射する。利用者は、第2位置に配置された画像提示装置114の画像提示部310から出射される画像光120bを、視線方向が左眼118の前方にある状態で視認する。そのため、利用者は、画像光120bによって示されるキャリブレーション用のガイダンスにしたがい、例えば上下左右に視線方向を動かすことができる。なお、キャリブレーションについての詳細は後述する。   FIG. 6 is a diagram illustrating a state in which the image presentation device has moved and the half mirror is disposed at the second position. In FIG. 6, the CCD camera 300 (see, for example, FIG. 1) is omitted. When the image presentation device 114 moves to the second position side, the position sensor 340 (not shown in FIG. 6, see FIG. 5B) installed on the second position side detects the image presentation device 114. When the image presentation device 114 moves and the half mirror 116 is arranged at the second position, the image light 120b emitted from the image presentation unit 310 of the image presentation device 114 (see the image light 120a) and reflected by the half mirror 116 is obtained. The light enters the left eye 118 from the front side of the face. The user visually recognizes the image light 120b emitted from the image presentation unit 310 of the image presentation device 114 disposed at the second position in a state where the line-of-sight direction is in front of the left eye 118. Therefore, the user can move the line-of-sight direction up, down, left, and right, for example, according to the calibration guidance indicated by the image light 120b. Details of calibration will be described later.

図7(a)は、画像提示装置及びハーフミラーの移動軌跡を示す図である。この図から明らかなとおり、画像提示装置114の本体部分は左眼118を中心とした円弧M上を略水平移動し、ハーフミラー116は左眼118を中心とした円弧N上を略水平移動する。なお、画像提示装置114の上面に配置されたCCDカメラ300も、画像提示装置114とともに円弧M上を略水平移動する。CCDカメラ300が左眼118を撮像する方向(角度)は、ハーフミラー116を反射した画像光120bの入射角(左眼118の前方に対する角度。図5(a)の角度θ参照)より大きな角度となる方向である。   Fig.7 (a) is a figure which shows the movement locus | trajectory of an image presentation apparatus and a half mirror. As is clear from this figure, the main body of the image presentation device 114 moves substantially horizontally on the arc M centered on the left eye 118, and the half mirror 116 moves substantially horizontally on the arc N centered on the left eye 118. . The CCD camera 300 disposed on the upper surface of the image presentation device 114 also moves substantially horizontally on the arc M together with the image presentation device 114. The direction (angle) at which the CCD camera 300 images the left eye 118 is larger than the incident angle of the image light 120b reflected by the half mirror 116 (the angle with respect to the front of the left eye 118; see angle θ in FIG. 5A). This is the direction.

図7(b)は、画像提示装置に取り付けられたハーフミラーが第1位置から第2位置に移動した際の変化量を示す図である(CCDカメラ300の図示を省略)。なお、図7(b)において、符号114’,116’,120a’,120b’は、第1位置側にある各部(2点鎖線にて描画)を示し、符号114,116,120a,120bは、第2位置側にある各部を示す。図7(b)から明らかなとおり、ハーフミラー116は、画像提示装置114の移動にともない、左眼118を中心として角度θだけ移動し、第2位置に配置される。なお、画像提示装置114が移動ガイド152(図5,6参照)を移動した場合の移動量は、左眼118を中心とした角度θである。   FIG. 7B is a diagram showing the amount of change when the half mirror attached to the image presentation device moves from the first position to the second position (illustration of the CCD camera 300 is omitted). In FIG. 7B, reference numerals 114 ′, 116 ′, 120a ′, and 120b ′ indicate the respective parts (drawn by two-dot chain lines) on the first position side, and reference numerals 114, 116, 120a, and 120b indicate Each part on the second position side is shown. As is clear from FIG. 7B, the half mirror 116 moves by an angle θ about the left eye 118 as the image presentation device 114 moves, and is disposed at the second position. Note that the amount of movement when the image presentation device 114 moves the movement guide 152 (see FIGS. 5 and 6) is an angle θ with the left eye 118 as the center.

以下、CPU202が、プログラムROM204に記憶されている所定のプログラムをRAM208上で処理することで実行される各種処理について説明する。   Hereinafter, various processes executed when the CPU 202 processes a predetermined program stored in the program ROM 204 on the RAM 208 will be described.

(メイン処理)
図8は、メイン処理の処理フローを示す図である。このメイン処理は、CPU202がプログラムROM204に記憶されているメイン処理用プログラムを読み出すとともに、取得した各種データに基づき、このプログラムをRAM208上で実行することで行われる。メイン処理は、利用者がHMD100の電源スイッチ330をONにしたことを条件として開始、実行される。
(Main process)
FIG. 8 is a diagram illustrating a processing flow of the main processing. This main processing is performed by the CPU 202 reading out a main processing program stored in the program ROM 204 and executing this program on the RAM 208 based on the acquired various data. The main process is started and executed on condition that the user turns on the power switch 330 of the HMD 100.

この処理を開始したCPU202は、先ず、RAM208を初期化する(S100)。そして、CPU202は、画像提示部310からメニュー画面を示す画像光120aが出射されるよう、所定の制御を実行する(S102)。S102でCPU202は、画像提示部接続コントローラ2122に対して、画像提示部310にメニュー画像を入力する指令を与える。画像提示部310は、画像提示部接続コントローラ2122からメニュー画面の入力を受け、これを示す画像光120aを出射する。なお、メニュー画面には、コンテンツの提示(コンテンツデータの再生)の開始を指定する項目と、キャリブレーションの開始を指定する項目とが含まれる。   The CPU 202 that has started this process first initializes the RAM 208 (S100). Then, the CPU 202 executes predetermined control so that the image light 120a indicating the menu screen is emitted from the image presentation unit 310 (S102). In step S <b> 102, the CPU 202 gives a command for inputting a menu image to the image presentation unit 310 to the image presentation unit connection controller 2122. The image presentation unit 310 receives an input of the menu screen from the image presentation unit connection controller 2122, and emits image light 120a indicating this. The menu screen includes an item for designating the start of content presentation (reproduction of content data) and an item for designating the start of calibration.

S102を実行後、CPU202は、メニューの提示に応じ、利用者がキャリブレーションの実行を選択したか否かを判断する(S104)。ここで、利用者は、例えば、通信部216に接続されたキーボード又は図3には図示されていない操作部を介して提示された項目を選択する。判断の結果、コンテンツの提示の開始が指定された場合(S104:No)、CPU202は処理をS112に移行する。これに対し、キャリブレーションの開始が指定された場合(S104:Yes)、CPU202は、ハーフミラー116が第2位置に配置されるよう、画像提示装置114の第2位置側への移動(左眼118の前方正面側への移動)を制御する(S106)。具体的には、モータ154が回転し、画像提示装置114の第2位置側への移動が開始されるよう、画像提示装置移動部コントローラ218に対して所定の指令を与える。   After executing S102, the CPU 202 determines whether or not the user has selected to execute calibration according to the presentation of the menu (S104). Here, for example, the user selects an item presented via a keyboard connected to the communication unit 216 or an operation unit not shown in FIG. As a result of the determination, if the start of content presentation is specified (S104: No), the CPU 202 shifts the process to S112. On the other hand, when the start of calibration is designated (S104: Yes), the CPU 202 moves the image presentation device 114 to the second position side (left eye so that the half mirror 116 is disposed at the second position). The movement of 118 to the front front side is controlled (S106). Specifically, a predetermined command is given to the image presentation device moving unit controller 218 so that the motor 154 rotates and the movement of the image presentation device 114 to the second position side is started.

そして、CPU202は、第2位置側に設置された位置センサ340が出力する信号を、画像提示装置移動部コントローラ218を介して取得し、キャリブレーションを開始、実行する(S108)。キャリブレーションについての詳細は後述する。   Then, the CPU 202 acquires a signal output from the position sensor 340 installed on the second position side via the image presentation device moving unit controller 218, and starts and executes calibration (S108). Details of the calibration will be described later.

S108のキャリブレーションを実行後、CPU202は、ハーフミラー116が第1位置に配置されるよう、画像提示装置114の第1位置側への移動(左側頭部側への移動)を制御する(S110)。具体的には、モータ154が回転し、画像提示装置114の第1位置側への移動が開始されるよう、画像提示装置移動部コントローラ218に対して所定の指令を与える。その後、CPU202は処理をS112に移行する。S110の具体的処理は、上述したS106と同様であり、その説明を省略する。   After executing the calibration of S108, the CPU 202 controls the movement of the image presentation device 114 toward the first position (movement toward the left head side) so that the half mirror 116 is disposed at the first position (S110). ). Specifically, a predetermined command is given to the image presentation device moving unit controller 218 so that the motor 154 rotates and the movement of the image presentation device 114 to the first position side is started. Thereafter, the CPU 202 shifts the process to S112. The specific process of S110 is the same as that of S106 described above, and a description thereof will be omitted.

画像提示装置114の第1位置側への移動が完了したことを、第1位置側に設置された位置センサ340からの信号に基づき判断したCPU202は、続けて、フラッシュROM206に記憶されたコンテンツデータの再生(コンテンツ提示処理)を開始、実行する(S112)。コンテンツ提示処理についての詳細は後述する。そして、CPU202は、電源OFFの指令(終了指令)が入力されたか否かを判断する(S114)。ここで、電源OFFの指令は、利用者が電源スイッチ330を操作することで入力される。判断の結果、終了指令が入力されていない場合(S114:No)、CPU202は、処理をS102に戻す一方、終了指令が入力された場合(S114:Yes)、CPU202は、電源をOFFにし、このメイン処理を終了する。   The CPU 202 that has determined that the movement of the image presentation device 114 to the first position side has been completed based on the signal from the position sensor 340 installed on the first position side, continues the content data stored in the flash ROM 206 Playback (content presentation processing) is started and executed (S112). Details of the content presentation processing will be described later. Then, the CPU 202 determines whether or not a power OFF command (end command) has been input (S114). Here, the power-off command is input by the user operating the power switch 330. As a result of the determination, if the end command is not input (S114: No), the CPU 202 returns the process to S102, whereas if the end command is input (S114: Yes), the CPU 202 turns off the power, The main process ends.

(キャリブレーション)
図9は、キャリブレーションの処理フローを示す図である。このキャリブレーションは、CPU202がプログラムROM204に記憶されているキャリブレーション用プログラムを読み出すとともに、取得した各種データに基づき、このプログラムをRAM208上で実行することで行われる。キャリブレーションは、メイン処理のS112で開始、実行される。
(Calibration)
FIG. 9 is a diagram showing a calibration processing flow. This calibration is performed by the CPU 202 reading out a calibration program stored in the program ROM 204 and executing the program on the RAM 208 based on the acquired various data. Calibration is started and executed in S112 of the main process.

この処理を開始したCPU202は、図10(a)に示すようなキャリブレーション用の注視点Pを中心に表わした画像を生成し、これを示す画像光120aが出射されるよう、所定の制御を実行する(S200)。S200でCPU202は、画像提示部接続コントローラ2122に対して、画像提示部310に、図10(a)に示す画像を入力する指令を与える。画像提示部310は、画像提示部接続コントローラ2122から図10(a)に示す画像の入力を受け、これを示す画像光120aを出射する。   The CPU 202 that has started this process generates an image centered on the gazing point P for calibration as shown in FIG. 10A, and performs predetermined control so that the image light 120a indicating the image is emitted. Execute (S200). In S <b> 200, the CPU 202 gives an instruction to input an image shown in FIG. 10A to the image presentation unit 310 to the image presentation unit connection controller 2122. The image presentation unit 310 receives the input of the image shown in FIG. 10A from the image presentation unit connection controller 2122 and emits image light 120a indicating the input.

S200を実行後、CPU202は、注視点Pの位置を左へ所定距離移動した画像(図10(b)参照)を生成し、生成した画像が提示されるようにS200と同様の制御を実行する(S202)。利用者は、画像提示部310から出射される画像光120bに基づき、注視点Pを視認し認識する。なお、図10(b)に示す白丸は、後述の左側視線入力位置Lを説明するために描画したものであり、実際に生成される画像には含まれない。   After executing S200, the CPU 202 generates an image (see FIG. 10B) in which the position of the gazing point P is moved to the left by a predetermined distance, and executes control similar to S200 so that the generated image is presented. (S202). The user visually recognizes and recognizes the gazing point P based on the image light 120 b emitted from the image presentation unit 310. Note that the white circles shown in FIG. 10B are drawn to explain the left-eye line input position L described later, and are not included in the actually generated image.

CPU202は、注視点Pが左へ移動した画像を生成等し、注視点Pの位置が、移動の最終位置である左側視線入力位置Lであるか否かを判断する(S204)。ここで、CPU202は、視線入力位置を決定する旨の指示を取得した場合、移動の最終位置である左側視線入力位置Lを判断する。視線入力位置を決定する旨の指示は、利用者が通信部216に接続されたキーボード又はHMD100が備える操作部を操作することで、入力される。なお、利用者の視線方向に基づき所定の動作を制御するHMD100において、利用者からの入力に基づき視線入力位置を決定する構成は、利用者の好みに合った適切なキャリブレーションを実現することができる。判断の結果、注視点Pの位置が左側視線入力位置Lでない場合(S204:No)、CPU202は、処理をS202に戻し、注視点Pを順次左へ移動させた画像を生成し、生成された画像が順次提示されるように制御する。利用者は、順次提示される画像に基づき左へ移動する注視点Pを視認し続ける。   The CPU 202 generates an image in which the gazing point P has moved to the left, and determines whether or not the position of the gazing point P is the left gaze input position L, which is the final movement position (S204). Here, when the CPU 202 obtains an instruction to determine the line-of-sight input position, the CPU 202 determines the left-side line-of-sight input position L, which is the final movement position. An instruction to determine the line-of-sight input position is input when the user operates a keyboard connected to the communication unit 216 or an operation unit included in the HMD 100. In the HMD 100 that controls a predetermined operation based on the user's line-of-sight direction, the configuration in which the line-of-sight input position is determined based on the input from the user can realize an appropriate calibration according to the user's preference. it can. As a result of the determination, if the position of the gazing point P is not the left gaze input position L (S204: No), the CPU 202 returns the process to S202, generates an image in which the gazing point P is sequentially moved to the left, and is generated. Control is performed so that images are presented sequentially. The user continues to visually recognize the gazing point P that moves to the left based on the sequentially presented images.

これに対し、判断の結果、注視点Pの位置が左側視線入力位置Lである場合(S204:Yes)、CPU202は、左側視線入力位置Lにある注視点Pを視認している左眼118、すなわち、視線方向が左側視線入力位置Lにある左眼118の画像を取得し、所定の処理を実行する。そして、CPU202は、所定の処理によって得られた左側基準状態データをフラッシュROM206に記憶する(S206)。   On the other hand, as a result of the determination, when the position of the gazing point P is the left gaze input position L (S204: Yes), the CPU 202 visually recognizes the gazing point P at the left gaze input position L, That is, an image of the left eye 118 whose line-of-sight direction is at the left-eye line input position L is acquired, and predetermined processing is executed. Then, the CPU 202 stores the left reference state data obtained by the predetermined processing in the flash ROM 206 (S206).

S206の処理を具体的に説明すると、先ず、CPU202は、CCDカメラ接続コントローラ2102に対して所定の指令を与える。この指令を取得したCCDカメラ接続コントローラ2102は、CCDカメラ300によって撮像された、視線方向が左側視線入力位置Lにある左眼118の画像をCCDカメラ用VRAM2104に記憶する。CPU202は、CCDカメラ用VRAM2104に記憶された画像を、角度θ(図7(b)参照)に基づき補正する。この補正により、ハーフミラー116が第2位置に配置された状態でCCDカメラ300によって撮像された左眼118(視線方向が左側視線入力位置Lにある左眼118)を示す画像が、ハーフミラー116が第1位置に配置された状態で撮像される左眼118を示す画像に補正される。この点について、図11に基づき説明する。図11(a)は第2位置でCCDカメラ300によって撮像された左眼118を示すものである。ここで、点線が交わる点Oは、CCDカメラ300のレンズの中心点を示す。また、直線Qは、撮像された像面を示す。ここで、図11(a)の状態において点O及び直線Qを角度θ(図7(b)参照)だけ回転させると、左眼118の外形に対し、黒眼118aの画像を構成する各点の位置がずれるため、このずれを黒眼118aの各点において予め求め、例えば、フラッシュROM206に記憶しておく。CPU202は、フラッシュROM206に予め記憶してある黒眼118aの各点のずれに基づき、図11(a)に示す画像を、図11(b)に示す状態に補正する。   The process of S206 will be specifically described. First, the CPU 202 gives a predetermined command to the CCD camera connection controller 2102. The CCD camera connection controller 2102 that has acquired this command stores, in the CCD camera VRAM 2104, the image of the left eye 118 that is captured by the CCD camera 300 and whose viewing direction is at the left viewing line input position L. The CPU 202 corrects the image stored in the CCD camera VRAM 2104 based on the angle θ (see FIG. 7B). With this correction, an image showing the left eye 118 (the left eye 118 whose line-of-sight direction is at the left-eye line input position L) captured by the CCD camera 300 in a state where the half mirror 116 is disposed at the second position is the half mirror 116. Is corrected to an image showing the left eye 118 imaged in the state of being arranged at the first position. This point will be described with reference to FIG. FIG. 11A shows the left eye 118 imaged by the CCD camera 300 at the second position. Here, the point O at which the dotted lines intersect indicates the center point of the lens of the CCD camera 300. A straight line Q indicates a captured image plane. Here, when the point O and the straight line Q are rotated by an angle θ (see FIG. 7B) in the state of FIG. 11A, each point constituting the image of the black eye 118a with respect to the outer shape of the left eye 118. Therefore, this deviation is obtained in advance at each point of the black eye 118a and stored in the flash ROM 206, for example. The CPU 202 corrects the image shown in FIG. 11A to the state shown in FIG. 11B based on the deviation of each point of the black eye 118a stored in the flash ROM 206 in advance.

そして、CPU202は、補正後の画像を、左側基準状態データとしてフラッシュROM206に記憶する。本実施形態において左側基準状態データは、HMD100において実現される動作、具体的には、フラッシュROM206に記憶されているコンテンツデータの再生開始に関連付けられる(詳細は後述する「コンテンツ提示処理」参照)。   Then, the CPU 202 stores the corrected image in the flash ROM 206 as left reference state data. In the present embodiment, the left reference state data is associated with an operation realized in the HMD 100, specifically, with the start of reproduction of content data stored in the flash ROM 206 (refer to “content presentation processing” described later for details).

S206を実行後、CPU202は、S200同様、図10(c)に示すようなキャリブレーション用の注視点Pを中心に表わした画像を生成し、これを示す画像光120aが出射されるよう、所定の制御を実行する。なお、S206で実行される処理は、上記S200と同様であり、その説明を省略する。   After executing S206, as in S200, the CPU 202 generates an image centered on the gazing point P for calibration as shown in FIG. 10 (c), and outputs image light 120a indicating the image. Execute the control. Note that the processing executed in S206 is the same as that in S200, and a description thereof will be omitted.

そして、CPU202は、注視点Pの位置をS202とは逆の右へ所定距離移動した画像(図10(d)参照)を生成し、これが提示されるようにS206(S200)と同様の制御を実行する(S210)。利用者は、画像提示部310から出射され、ハーフミラー116を反射した画像光120bに基づき、注視点Pを視認し認識する。なお、図10(d)に示す白丸は、後述の右側視線入力位置Rを説明するために描画したものであり、実際に生成される画像には含まれない。   Then, the CPU 202 generates an image (see FIG. 10D) in which the position of the gazing point P is moved to the right opposite to S202 by a predetermined distance, and performs the same control as S206 (S200) so that this is presented. Execute (S210). The user visually recognizes and recognizes the gazing point P based on the image light 120 b emitted from the image presentation unit 310 and reflected by the half mirror 116. Note that the white circles shown in FIG. 10D are drawn to explain the right-hand line-of-sight input position R described later, and are not included in the actually generated image.

CPU202は、注視点Pが右へ移動した画像を生成等し、注視点Pの位置が、移動の最終位置である右側視線入力位置Rであるか否かを判断する(S212)。CPU202は、左側視線入力位置Lの場合と同様の手法により、右側視線入力位置Rを判断する。判断の結果、注視点Pの位置が右側視線入力位置Rでない場合(S212:No)、CPU202は、処理をS210に戻し、注視点Pを順次右へ移動させた画像を生成し、生成された画像が順次提示されるように制御する。利用者は、順次提示される画像に基づき右へ移動する注視点Pを視認し続ける。   The CPU 202 generates an image in which the gazing point P has moved to the right, and determines whether or not the position of the gazing point P is the right gaze input position R that is the final position of movement (S212). The CPU 202 determines the right gaze input position R by the same method as that for the left gaze input position L. As a result of the determination, when the position of the gazing point P is not the right gaze input position R (S212: No), the CPU 202 returns the process to S210, generates an image in which the gazing point P is sequentially moved to the right, and is generated. Control is performed so that images are presented sequentially. The user continues to visually recognize the gazing point P that moves to the right based on the sequentially presented images.

これに対し、判断の結果、注視点Pの位置が右側視線入力位置Rである場合(S212:Yes)、CPU202は、右側視線入力位置Rにある注視点Pを視認している左眼118、すなわち、視線方向が右側視線入力位置Rにある左眼118の画像を取得し、S206に関連して説明した補正処理を実行する。そして、CPU202は、補正処理によって得られた右側基準状態データをフラッシュROM206に記憶する(S214)。S214を実行後、CPU202は処理を図8のS110に戻す。   On the other hand, as a result of the determination, when the position of the gazing point P is the right gaze input position R (S212: Yes), the CPU 202 visually recognizes the gazing point P at the right gaze input position R, That is, the image of the left eye 118 whose line-of-sight direction is at the right-eye line input position R is acquired, and the correction process described in relation to S206 is executed. Then, the CPU 202 stores the right reference state data obtained by the correction process in the flash ROM 206 (S214). After executing S214, the CPU 202 returns the process to S110 in FIG.

本実施形態において右側基準状態データは、HMD100において実現される動作、具体的には、フラッシュROM206に記憶されているコンテンツデータの再生停止に関連付けられる(詳細は後述する「コンテンツ提示処理」参照)。なお、S214で実行される処理は、上述のS206と同様であり、その説明を省略する。   In the present embodiment, the right reference state data is associated with the operation realized in the HMD 100, specifically, the reproduction stop of the content data stored in the flash ROM 206 (refer to “content presentation process” described later for details). Note that the processing executed in S214 is the same as that in S206 described above, and a description thereof is omitted.

(コンテンツ提示処理)
図12は、コンテンツ提示処理の処理フローを示す図である。このコンテンツ提示のための処理は、CPU202がプログラムROM204に記憶されているコンテンツ提示用プログラムを読み出すとともに、取得した各種データに基づき、このプログラムをRAM208上で実行することで行われる。コンテンツ提示処理は、メイン処理のS112で開始、実行される。
(Content presentation process)
FIG. 12 is a diagram illustrating a processing flow of content presentation processing. The processing for content presentation is performed by the CPU 202 reading out the content presentation program stored in the program ROM 204 and executing the program on the RAM 208 based on the acquired various data. The content presentation process is started and executed in S112 of the main process.

この処理を開始したCPU202は、左眼118の視線方向が左側であるか否かを判断する(S300)。ここで、CPU202は、CCDカメラ300が撮像し、CCDカメラ用VRAM2104に記憶された左眼118の状態を示す撮像画像と、左側基準状態データによって示される画像とを用いたパターンマッチングによって、S300の判断を行う。なお、左側基準状態データは、図9のキャリブレーションのS206でフラッシュROM206に記憶される。   The CPU 202 that has started this process determines whether or not the line of sight of the left eye 118 is the left side (S300). Here, the CPU 202 performs pattern matching using the captured image indicating the state of the left eye 118 captured by the CCD camera 300 and stored in the CCD camera VRAM 2104 and the image indicated by the left reference state data in S300. Make a decision. Note that the left reference state data is stored in the flash ROM 206 in S206 of calibration in FIG.

S300の判断の結果、視線方向が左側である場合、換言すれば、パターンマッチングの結果、両画像の間に同一性があると判断された場合(S300:Yes)、CPU202は、フラッシュROM206に記憶されたコンテンツデータの再生を開始する(S302)。具体的には、CPU202は、コンテンツデータをレンダリングし、レンダリングによって生成された画像を画像提示部用VRAM2124に記憶する。そして、CPU202は、画像提示部用VRAM2124に記憶に記憶された画像を示す画像光120aが画像提示部310から出射されるよう、画像提示部接続コントローラ2122に対して所定の指令を与える。一方、S300の判断の結果、視線方向が左側でない場合、換言すれば、パターンマッチングの結果、両画像の間に同一性がないと判断された場合(S300:No)、CPU202は処理をS304に移行する。   As a result of the determination in S300, if the line-of-sight direction is the left side, in other words, if it is determined that there is an identity between both images as a result of pattern matching (S300: Yes), the CPU 202 stores in the flash ROM 206. The reproduction of the content data thus started is started (S302). Specifically, the CPU 202 renders the content data and stores the image generated by the rendering in the image presentation unit VRAM 2124. Then, the CPU 202 gives a predetermined command to the image presentation unit connection controller 2122 so that the image light 120 a indicating the image stored in the storage in the image presentation unit VRAM 2124 is emitted from the image presentation unit 310. On the other hand, as a result of the determination in S300, if the line-of-sight direction is not the left side, in other words, if it is determined that there is no identity between the two images as a result of pattern matching (S300: No), the CPU 202 advances the process to S304. Transition.

S304でCPU202は、左眼118の視線方向が右側であるか否かを判断する。ここで、CPU202は、S304の判断をS300と同様の手法で行う。すなわち、CCDカメラ用VRAM2104に記憶された左眼118の状態を示す撮像画像と、右側基準状態データによって示される画像とを用いたパターンマッチングを実行する。なお、右側基準状態データは、図9のキャリブレーションのS214でフラッシュROM206に記憶される。   In step S304, the CPU 202 determines whether the line-of-sight direction of the left eye 118 is the right side. Here, the CPU 202 performs the determination in S304 by the same method as in S300. That is, pattern matching is performed using the captured image indicating the state of the left eye 118 stored in the CCD camera VRAM 2104 and the image indicated by the right reference state data. The right reference state data is stored in the flash ROM 206 in S214 of calibration in FIG.

S304の判断の結果、視線方向が右側である場合(S304:Yes)、CPU202は、S302で開始した再生を停止し(S306)、処理を図8のS114に戻す。一方、視線方向が右側でない場合(S304:No)、CPU202は、S306を実行することなく、処理を図8のS114に戻す。   As a result of the determination in S304, if the line-of-sight direction is the right side (S304: Yes), the CPU 202 stops the reproduction started in S302 (S306), and returns the process to S114 in FIG. On the other hand, when the line-of-sight direction is not the right side (S304: No), the CPU 202 returns the process to S114 of FIG. 8 without executing S306.

(本実施形態に基づく有利な効果)
本実施形態のHMD100は、最初に注視点Pを中心に表わした画像を生成し、これを利用者に提示するとともに、その後、最終の視線入力位置L,Rまで注視点Pを所定の方向に順次移動して、キャリブレーションを実行する構成を採用した。これによれば、利用者は、最終の視線入力位置L,Rまで、順次移動する注視点Pを視認し続けることができる。その結果、視線方向が所定の視線入力位置にある利用者の左眼118をCCDカメラ300で撮像し、撮像された画像に基づく基準状態データをフラッシュROM206に記憶することができる。
(Advantageous effects based on this embodiment)
The HMD 100 according to the present embodiment first generates an image centered on the gazing point P, presents it to the user, and then moves the gazing point P in a predetermined direction to the final line-of-sight input positions L and R. A configuration was adopted in which calibration was performed by moving sequentially. According to this, the user can continue to visually recognize the gazing point P that sequentially moves to the final line-of-sight input positions L and R. As a result, the left eye 118 of the user whose line-of-sight direction is at a predetermined line-of-sight input position can be captured by the CCD camera 300, and the reference state data based on the captured image can be stored in the flash ROM 206.

なお、最初から視線入力位置L,Rに注視点Pが表示された画像を、利用者に提示した場合、例えば、利用者は注視点Pに気付かず、その結果、利用者が注視点Pを視認しないといった状況も想定し得る。この場合、視線方向が視線入力位置にある利用者の左眼118をCCDカメラ300で撮像できず、その結果、フラッシュROM206に基準状態データを記憶することができない。   When an image in which the gazing point P is displayed at the line-of-sight input positions L and R from the beginning is presented to the user, for example, the user does not notice the gazing point P, and as a result, the user sets the gazing point P. It is possible to assume a situation where the user does not visually recognize. In this case, the left eye 118 of the user whose line-of-sight direction is at the line-of-sight input position cannot be imaged by the CCD camera 300, and as a result, the reference state data cannot be stored in the flash ROM 206.

(変形例)
(1)上記では、左眼118を対象とした単眼型のHMD100を例に説明した。しかし、両眼に画像を視認可能に提示するHMDに本実施形態の構成を採用することもできる。この場合、右眼用の画像提示装置と左眼用の画像提示装置とが各眼の前方及び各側頭部側に移動可能な構成を採用する。そして、各眼についてキャリブレーションを実行する。その上で、左右両眼を撮像した各画像(2個のCCDカメラによって各々撮像)がともに各側基準状態データに一致する場合、HMDの動作(例えば、コンテンツデータの再生開始)が制御される。
(Modification)
(1) In the above description, the monocular HMD 100 for the left eye 118 has been described as an example. However, the configuration of the present embodiment can also be adopted in an HMD that presents images to both eyes so as to be visible. In this case, a configuration is adopted in which the image presentation device for the right eye and the image presentation device for the left eye are movable in front of each eye and each temporal region. Then, calibration is performed for each eye. In addition, when each image obtained by imaging the left and right eyes (each captured by two CCD cameras) matches each side reference state data, the operation of the HMD (for example, reproduction start of content data) is controlled. .

なお、両眼型のHMDであっても、例えば、左眼118の状態のみを対象としてキャリブレーションを実行し、左眼118のみに基づきHMDの動作を制御する構成とすることもできる。また、両眼の組合せに基づいた構成とすることもできる。   Note that even a binocular HMD can be configured such that calibration is executed only for the state of the left eye 118 and the operation of the HMD is controlled based only on the left eye 118, for example. Moreover, it can also be set as the structure based on the combination of both eyes.

(2)上記では、左右の視線方向を例に説明した。しかし、左右に基づく構成の他、例えば、上又は下に基づく構成とすることもできる。また、視線方向に対応づけられるHMD100の動作を、再生開始及び停止以外の動作とすることもできる。   (2) In the above description, the left and right gaze directions are described as an example. However, in addition to the configuration based on the left and right, for example, a configuration based on the top or bottom may be used. In addition, the operation of the HMD 100 associated with the line-of-sight direction can be an operation other than the start and stop of reproduction.

(3)上記では、画像提示装置114にハーフミラー116を取り付け、画像提示装置114を移動させることで、ハーフミラー116が移動するHMD100を例に説明した。しかし、これ以外の構成を採用することもできる。例えば、ハーフミラー116を単独で移動させる構成とすることもできる。この場合、ハーフミラー116が独立して、例えば、図5(a)及び図6(a)に示す各位置に移動し、配置される。なお、ハーフミラー116に替え、回折格子又はホログラムを採用したHMDでは、回折格子又はホログラムを第1位置と第2位置との間を移動し、各位置に配置する。そして、上述した各動作と同様の動作が実行される。また、ハーフミラー116などの反射手段を採用しないHMDの場合、画像提示装置(画像提示部)が、図5(a)及び図6に示すハーフミラー116が配置された位置に配置され、上述した各動作と同様の動作が実行される。   (3) In the above description, the HMD 100 in which the half mirror 116 moves by attaching the half mirror 116 to the image presentation device 114 and moving the image presentation device 114 has been described as an example. However, other configurations can be employed. For example, the half mirror 116 can be moved alone. In this case, the half mirror 116 is independently moved and arranged at each position shown in FIG. 5A and FIG. 6A, for example. In an HMD that employs a diffraction grating or hologram instead of the half mirror 116, the diffraction grating or hologram is moved between the first position and the second position and arranged at each position. And the operation | movement similar to each operation | movement mentioned above is performed. In the case of an HMD that does not employ a reflecting means such as the half mirror 116, the image presentation device (image presentation unit) is disposed at the position where the half mirror 116 illustrated in FIGS. 5A and 6 is disposed. The same operation as each operation is executed.

(4)上記では、図12に示すコンテンツ提示処理のS300及びS304の判断をパターンマッチングによって実行する構成を例に説明した。しかし、これ以外の構成を採用することもできる。例えば、CCDカメラ300によって撮像された画像に表わされた白眼及び黒眼の比率と、基準状態データによって示される画像に表わされた白眼及び黒眼の比率とを比較し、S300及びS304の判断を行う構成とすることもできる。   (4) In the above description, the configuration in which the determination in S300 and S304 of the content presentation process illustrated in FIG. However, other configurations can be employed. For example, the ratio of white eyes and black eyes represented in the image captured by the CCD camera 300 is compared with the ratio of white eyes and black eyes represented in the image indicated by the reference state data. It can also be set as the structure which performs judgment.

(5)上記では、CCDカメラ300によって撮像された左眼118の画像を補正し、補正後の状態を示す基準状態データを記憶する構成を例に説明した(図9に示すキャリブレーションのS206及びS214参照)。しかし、これ以外の構成を採用することもできる。例えば、撮像された左眼118の画像をフラッシュROM206に記憶し、図12に示すコンテンツ提示処理のS300及びS304の実行の都度、S206等で実行した補正と同じ補正を実行する構成とすることもできる。   (5) In the above description, the configuration in which the image of the left eye 118 imaged by the CCD camera 300 is corrected and the reference state data indicating the corrected state is stored is described as an example (the calibration S206 and the calibration shown in FIG. 9). (See S214). However, other configurations can be employed. For example, the captured image of the left eye 118 may be stored in the flash ROM 206, and the same correction as the correction executed in S206 or the like may be executed each time the content presentation process S300 and S304 shown in FIG. it can.

(6)上記では、図9に示すキャリブレーションのS206及びS214で基準状態データをフラッシュROM206に記憶する構成を例に説明した。しかし、これ以外の構成を採用することもできる。例えば、図7に示すメイン処理で、基準状態データをフラッシュROM206に記憶する構成とすることもできる。この場合、図9のS204及びS212の判断が肯定された場合(S204,S212:Yes)、CCDカメラ300によって撮像された画像は、例えば、CCDカメラ用VRAM2104にそのまま記憶される。   (6) In the above description, the configuration in which the reference state data is stored in the flash ROM 206 in the calibration S206 and S214 illustrated in FIG. However, other configurations can be employed. For example, the main state shown in FIG. 7 may be configured to store the reference state data in the flash ROM 206. In this case, when the determinations of S204 and S212 in FIG. 9 are affirmed (S204, S212: Yes), the image captured by the CCD camera 300 is stored in the CCD camera VRAM 2104 as it is, for example.

100 HMD
114 画像提示装置
202 CPU
204 プログラムROM
206フラッシュROM
208 RAM
300 CCDカメラ
340 位置センサ
100 HMD
114 Image presentation device 202 CPU
204 Program ROM
206 flash ROM
208 RAM
300 CCD camera 340 Position sensor

Claims (4)

利用者の頭部に装着され、前記利用者に画像を視認させるヘッドマウントディスプレイであって、
前記利用者の眼に、前記画像を示す画像光を出射する画像提示装置と、
前記利用者の一方の眼の略前方から側頭部側の所定の位置である第1位置と、前記一方の眼の略前方の所定の位置である第2位置と、に前記画像提示装置を配置する配置手段と、
前記画像提示装置が前記第1位置に配置された状態で、前記一方の眼の状態を示す第1状態情報を取得し、前記画像提示装置が前記第2位置に配置された状態で、前記利用者の視線方向が第1方向にある前記一方の眼の状態を示す第2状態情報を取得する状態情報取得手段と、
前記第2状態情報に対応する基準状態情報を記憶する記憶手段と、
前記状態情報取得手段により取得された第1状態情報と、前記記憶手段に記憶された基準状態情報と、を比較し、前記画像提示装置が前記第1位置に配置された状態における前記利用者の一方の眼の視線方向が前記第1方向であることを検知する検知手段と、
前記検知手段が前記第1方向であることを検知した場合、前記ヘッドマウントディスプレイの第1動作を制御する動作制御手段と、
前記基準状態情報の前記記憶手段への記憶を指示する実行指令を取得する指令取得手段と、
前記指令取得手段が前記実行指令を取得した場合、前記配置手段における前記画像提示装置の配置を、前記第1位置から前記第2位置に移動させる移動手段と、
前記移動手段によって前記画像提示装置が前記第2位置に配置された状態で前記状態情報取得手段が取得した第2状態情報に対応する基準状態情報を、前記記憶手段に記憶する記憶制御手段と、を備えることを特徴とするヘッドマウントディスプレイ。
A head-mounted display that is mounted on a user's head and allows the user to visually recognize an image,
An image presentation device that emits image light indicating the image to the eyes of the user;
The image presentation device is arranged at a first position, which is a predetermined position from the front side of the user's one eye to the temporal region, and a second position, which is a predetermined position substantially in front of the one eye. Arrangement means to arrange;
The first state information indicating the state of the one eye is acquired in a state where the image presentation device is disposed at the first position, and the use is performed in a state where the image presentation device is disposed at the second position. State information acquisition means for acquiring second state information indicating the state of the one eye whose gaze direction of the person is in the first direction;
Storage means for storing reference state information corresponding to the second state information;
The first state information acquired by the state information acquisition unit is compared with the reference state information stored in the storage unit, and the user of the user in a state where the image presentation device is arranged at the first position is compared. Detecting means for detecting that the line-of-sight direction of one eye is the first direction;
An operation control means for controlling a first operation of the head mounted display when the detection means detects that the first direction is detected;
Command acquisition means for acquiring an execution command for instructing storage of the reference state information in the storage means;
Moving means for moving the arrangement of the image presentation device in the arrangement means from the first position to the second position when the instruction acquisition means acquires the execution instruction;
Storage control means for storing, in the storage means, reference state information corresponding to the second state information acquired by the state information acquisition means in a state where the image presentation device is arranged at the second position by the moving means; A head-mounted display comprising:
前記移動手段は、前記記憶制御手段が前記記憶手段に前記基準状態情報を記憶した場合、前記配置手段における前記画像提示装置の配置を、前記第2位置から前記第1位置に移動させることを特徴とする請求項1に記載のヘッドマウントディスプレイ。   The moving means moves the arrangement of the image presentation device in the arrangement means from the second position to the first position when the storage control means stores the reference state information in the storage means. The head mounted display according to claim 1. 前記基準状態情報は、前記第2状態情報を、前記第1位置に前記画像提示装置が配置された状態で、前記利用者の視線方向が前記第1方向にある前記一方の眼の状態を示すように補正された状態情報であることを特徴とする請求項1又は請求項2に記載のヘッドマウントディスプレイ。   The reference state information indicates the state of the one eye in which the user's line-of-sight direction is in the first direction in a state where the image presentation device is arranged at the first position. The head mounted display according to claim 1, wherein the state information is corrected as described above. 前記画像提示装置は、
前記画像光を出射する画像提示手段と、
前記画像提示手段から出射される画像光を前記利用者の眼の方向に反射させる反射手段と、を含み、
前記配置手段は、前記第1位置及び前記第2位置に前記反射手段を配置し、
前記移動手段は、前記第1位置から前記第2位置に前記反射手段を移動させることを特徴とする請求項1乃至請求項3のいずれか1項に記載のヘッドマウントディスプレイ。
The image presentation device includes:
Image presentation means for emitting the image light;
Reflecting means for reflecting image light emitted from the image presentation means in the direction of the user's eyes,
The arrangement means arranges the reflection means at the first position and the second position,
The head mounted display according to any one of claims 1 to 3, wherein the moving means moves the reflecting means from the first position to the second position.
JP2009040413A 2009-02-24 2009-02-24 Head mounted display Expired - Fee Related JP5163534B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009040413A JP5163534B2 (en) 2009-02-24 2009-02-24 Head mounted display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009040413A JP5163534B2 (en) 2009-02-24 2009-02-24 Head mounted display

Publications (2)

Publication Number Publication Date
JP2010199788A true JP2010199788A (en) 2010-09-09
JP5163534B2 JP5163534B2 (en) 2013-03-13

Family

ID=42824078

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009040413A Expired - Fee Related JP5163534B2 (en) 2009-02-24 2009-02-24 Head mounted display

Country Status (1)

Country Link
JP (1) JP5163534B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016066846A (en) * 2014-09-24 2016-04-28 株式会社テレパシージャパン Wearable device having image display device
US10564424B2 (en) 2014-08-18 2020-02-18 Sony Corporation Image display device and display apparatus

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07115607A (en) * 1993-10-19 1995-05-02 Olympus Optical Co Ltd Head mounting type video display device
JPH08160345A (en) * 1994-12-05 1996-06-21 Olympus Optical Co Ltd Head mounted display device
JP2001285676A (en) * 2000-03-30 2001-10-12 Minolta Co Ltd Display device
JP2006105889A (en) * 2004-10-08 2006-04-20 Canon Inc Eye detection device and image display device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07115607A (en) * 1993-10-19 1995-05-02 Olympus Optical Co Ltd Head mounting type video display device
JPH08160345A (en) * 1994-12-05 1996-06-21 Olympus Optical Co Ltd Head mounted display device
JP2001285676A (en) * 2000-03-30 2001-10-12 Minolta Co Ltd Display device
JP2006105889A (en) * 2004-10-08 2006-04-20 Canon Inc Eye detection device and image display device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10564424B2 (en) 2014-08-18 2020-02-18 Sony Corporation Image display device and display apparatus
US11073698B2 (en) 2014-08-18 2021-07-27 Sony Corporation Image display device and display apparatus
JP2016066846A (en) * 2014-09-24 2016-04-28 株式会社テレパシージャパン Wearable device having image display device

Also Published As

Publication number Publication date
JP5163534B2 (en) 2013-03-13

Similar Documents

Publication Publication Date Title
JP4829765B2 (en) Image display device and image display system
JP5293025B2 (en) Head mounted display
JP5104679B2 (en) Head mounted display
US20090096714A1 (en) Image display device
WO2010073879A1 (en) Head-mounted display
WO2010071110A1 (en) Head-mounted display
CN107407812A (en) Image display device
JP6231541B2 (en) Image projection device
JP6231545B2 (en) Image projection device
JP4385742B2 (en) Image display device
JP2008176096A (en) Image display
JP2011075956A (en) Head-mounted display
JP2010139901A (en) Head mount display
US6967781B2 (en) Image display apparatus for displaying image in variable direction relative to viewer
JP2010085786A (en) Head-mounted display device
JP5163535B2 (en) Head mounted display
JP2010091944A (en) Image display device and image display system
JP5163534B2 (en) Head mounted display
JP5267256B2 (en) Head mounted display
JP2002318365A (en) Retina projection type display
WO2016208266A1 (en) Image projection device
JP5272813B2 (en) Head mounted display
JP5163166B2 (en) Image display device
JPH11109278A (en) Video display device
JP2011070093A (en) Head-mounted display

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110921

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121203

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151228

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees