JP6347067B2 - Eyeglass type display device - Google Patents

Eyeglass type display device Download PDF

Info

Publication number
JP6347067B2
JP6347067B2 JP2014005568A JP2014005568A JP6347067B2 JP 6347067 B2 JP6347067 B2 JP 6347067B2 JP 2014005568 A JP2014005568 A JP 2014005568A JP 2014005568 A JP2014005568 A JP 2014005568A JP 6347067 B2 JP6347067 B2 JP 6347067B2
Authority
JP
Japan
Prior art keywords
user
light beam
line
distance
sight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014005568A
Other languages
Japanese (ja)
Other versions
JP2015132786A (en
Inventor
渉 妹尾
渉 妹尾
大木 誠
誠 大木
崇 黒澤
崇 黒澤
英生 植村
英生 植村
昌彦 高橋
昌彦 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2014005568A priority Critical patent/JP6347067B2/en
Publication of JP2015132786A publication Critical patent/JP2015132786A/en
Application granted granted Critical
Publication of JP6347067B2 publication Critical patent/JP6347067B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Liquid Crystal (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、ユーザの眼の周辺に装着可能な眼鏡型表示装置に関する。   The present invention relates to a glasses-type display device that can be worn around a user's eyes.

従来、この種の眼鏡型表示装置としては、例えば下記の特許文献1に記載のヘッドマウントディスプレー装置(以下、HMD装置という)がある。このHMD装置は、まず、画像表示手段と、画像表示手段に表示された像をユーザの眼に導く観察用光学手段と、外界からの像を観察用光学手段の光路中に導入し、外界からの像を画像表示手段に表示された像に重ねて観察することを可能にするための光路合成手段と、ユーザの観察範囲内での注視点を検出して、注視点検出信号を出力する注視点検出手段と、を備えている。HMD装置はさらに、上記四手段を収納すると共に、ユーザの眼の周囲に固定可能に構成されたハウジングと、を有する表示部と、注視点検出信号に基づいて画像表示手段を制御する制御部と、を備えている。   Conventionally, as this type of eyeglass-type display device, for example, there is a head mounted display device (hereinafter referred to as an HMD device) described in Patent Document 1 below. This HMD apparatus first introduces an image display means, an observation optical means for guiding an image displayed on the image display means to a user's eye, and an image from the outside world into the optical path of the observation optical means, and from the outside world. And an optical path synthesis means for allowing the image displayed on the image display means to be observed, and detecting a gazing point within the user's observation range and outputting a gazing point detection signal. Viewpoint detection means. The HMD device further accommodates the above four means and includes a housing configured to be fixed around the user's eye, and a control unit that controls the image display means based on the gazing point detection signal; It is equipped with.

特開平09−211376号公報Japanese Patent Laid-Open No. 09-212376

以上の通り、従来の眼鏡型表示装置では、画像表示手段に表示された像(つまり、投射装置からの所定の情報を表す像)に、外界からの像(つまり、ユーザ前方の景色を表す像)が重畳され、合成像としてユーザに提供される。しかし、ユーザの顔の形状および/または眼鏡型表示装置の装着の仕方により、各種パラメータが設計値と異なる場合がある。その結果、所定の情報がユーザ前方の景色の適切な位置に重畳されないことがあった。   As described above, in the conventional glasses-type display device, the image displayed on the image display means (that is, the image representing the predetermined information from the projection device) is replaced with the image from the outside (that is, the image representing the scenery in front of the user). ) Are superimposed and provided to the user as a composite image. However, various parameters may differ from design values depending on the shape of the user's face and / or the manner in which the glasses-type display device is worn. As a result, the predetermined information may not be superimposed at an appropriate position in the scene in front of the user.

それゆえに、本発明の目的は、ユーザの前方景色においてより適切な位置に所定の情報を重畳可能な眼鏡型表示装置を提供することである。   Therefore, an object of the present invention is to provide a glasses-type display device that can superimpose predetermined information at a more appropriate position in the user's forward scenery.

上記目的を達成するために、本発明の一局面は、眼鏡型表示装置に向けられており、ユーザの顔に装着可能に構成されたフレームと、前記ユーザ前方を撮影可能に前記フレームに設けられた第一撮影装置と、所定の情報を表す第一光束を投射可能に前記フレームに設けられた投射装置と、装着時に前記ユーザの眼前に配置可能に前記フレームに設けられた接眼光学系であって、前記投射装置からの第一光束と、前記ユーザ前方の景色を表す第二光束とが入射されると、前記景色上に前記所定の情報が重畳された第三光束を前記ユーザの眼に向けて出射可能に構成された接眼光学系と、前記ユーザの眼と前記接眼光学系との間の距離を第一距離として導出し、導出した第一距離に基づき、前記景色上における前記所定の情報が重畳される位置を調整する制御回路と、を備え、前記接眼光学系は、第一目印および第二目印を第一位置および第二位置に表す第四光束および第五光束を前記ユーザの眼に向けて出射し、前記制御回路は、前記第四光束および前記第五光束の出射後に前記ユーザの第一視線および第二視線を検出し、検出した第一視線および第二視線に基づき、前記ユーザの眼と前記接眼光学系との間の第一距離を導出する

In order to achieve the above object, one aspect of the present invention is directed to a glasses-type display device, and is provided on the frame so as to be attached to a user's face and capable of photographing the front of the user. A first imaging device, a projection device provided on the frame so as to be able to project a first light beam representing predetermined information, and an eyepiece optical system provided on the frame so that it can be placed in front of the user's eyes when worn. When the first luminous flux from the projection device and the second luminous flux representing the scenery in front of the user are incident, the third luminous flux in which the predetermined information is superimposed on the scenery is applied to the user's eyes. A distance between the eyepiece optical system configured to be able to emit light toward the user and the eye of the user and the eyepiece optical system is derived as a first distance, and based on the derived first distance, the predetermined on the scene Where the information is superimposed And a control circuit for integer, the ocular optical system, and emitted to the fourth light flux and fifth light flux representing a first mark and the second mark in the first position and the second position in the eye of the user, The control circuit detects the user's first line of sight and the second line of sight after emission of the fourth light beam and the fifth light beam, and based on the detected first line of sight and second line of sight, the user's eyes and the eyepiece A first distance to the optical system is derived .

上記局面によれば、ユーザの前方景色においてより適切な位置に所定の情報を重畳可能となる。   According to the above aspect, it is possible to superimpose predetermined information at a more appropriate position in the user's forward scenery.

本発明の第一実施形態に係る眼鏡型表示装置を示す外観斜視図である。1 is an external perspective view showing an eyeglass-type display device according to a first embodiment of the present invention. 図1の眼鏡型表示装置の機能ブロック図である。FIG. 2 is a functional block diagram of the eyeglass-type display device of FIG. 1. 図1の接眼光学系および投射装置の縦断面図である。It is a longitudinal cross-sectional view of the eyepiece optical system and projection apparatus of FIG. 図2の制御回路の処理であって、個人差を考慮しない場合の処理の手順を示すフロー図である。FIG. 3 is a flowchart showing a processing procedure when the control circuit of FIG. 2 is not considered individual differences. 図4の処理で求められる所定の情報の表示位置を示す模式図である。It is a schematic diagram which shows the display position of the predetermined | prescribed information calculated | required by the process of FIG. 図2の制御回路の処理であって、第一距離(測定値)を求める処理の手順を示すフロー図である。FIG. 3 is a flowchart showing a procedure of processing for obtaining a first distance (measured value), which is processing of the control circuit of FIG. 2. 図6の処理の内容を示す模式図である。It is a schematic diagram which shows the content of the process of FIG. 図2の制御回路の処理であって、個人差を考慮した場合の処理の手順を示すフロー図である。FIG. 3 is a flowchart showing a procedure of the process of the control circuit of FIG. 2 when individual differences are taken into consideration. 図8の処理で求められる所定の情報の表示位置を示す模式図である。It is a schematic diagram which shows the display position of the predetermined | prescribed information calculated | required by the process of FIG. 第一目印および第二目印の表示手法の第二変形例を示す図である。It is a figure which shows the 2nd modification of the display method of a 1st mark and a 2nd mark. 第三変形例に係る眼鏡型表示装置を示す外観斜視図である。It is an external appearance perspective view which shows the spectacles type display apparatus which concerns on a 3rd modification. 図11の眼鏡型表示装置の機能ブロック図である。It is a functional block diagram of the spectacles type display apparatus of FIG. 図12の制御回路の処理であって、第一距離(測定値)を求める処理の手順を示すフロー図である。FIG. 13 is a flowchart showing a procedure of processing for obtaining a first distance (measured value), which is processing of the control circuit of FIG. 12. 図13の処理の内容を示す模式図である。It is a schematic diagram which shows the content of the process of FIG. 第四変形例に係る第一目印および第二目印を示す第一模式図である。It is a 1st schematic diagram which shows the 1st mark and 2nd mark which concern on a 4th modification. 第四変形例に係る第一目印および第二目印を示す第二模式図である。It is a 2nd schematic diagram which shows the 1st mark and 2nd mark which concern on a 4th modification. 第二実施形態に係る眼鏡型表示装置の第一距離(測定値)および第三距離(測定値)を求めるためのフロー図である。It is a flowchart for calculating | requiring the 1st distance (measured value) and 3rd distance (measured value) of the spectacles type display apparatus which concern on 2nd embodiment. 図17において第三距離を求める処理の内容を示す模式図である。It is a schematic diagram which shows the content of the process which calculates | requires a 3rd distance in FIG. 第二実施形態に係る制御回路の処理であって、個人差を考慮した場合の処理の手順を示すフロー図である。FIG. 10 is a flowchart showing a processing procedure when the control circuit according to the second embodiment considers individual differences. 図19の処理で求められる所定の情報の表示位置を示す模式図である。It is a schematic diagram which shows the display position of the predetermined | prescribed information calculated | required by the process of FIG.

《カメラ座標系について》
本発明の各実施形態に係る眼鏡型表示装置1aの説明に先立ち、いくつかの図面に示されるX軸、Y軸、Z軸を定義する。X軸、Y軸およびZ軸は互いに直交する。Y軸は、標準ユーザが本眼鏡型表示装置1aを装着した状態で真正面を視た時の視線方向(つまり、前後方向)である。ここで、標準ユーザは、本眼鏡型表示装置1aを設計するために設定された仮想的なモデルである。X軸,Z軸は、同状態で真正面を視た時の左右方向(つまり、横方向)および上下方向を示す。
《Camera coordinate system》
Prior to the description of the eyeglass-type display device 1a according to each embodiment of the present invention, the X axis, the Y axis, and the Z axis shown in several drawings are defined. The X axis, the Y axis, and the Z axis are orthogonal to each other. The Y-axis is the line-of-sight direction (that is, the front-rear direction) when a standard user looks directly in front with the glasses-type display device 1a attached. Here, the standard user is a virtual model set in order to design the glasses-type display device 1a. The X axis and the Z axis indicate the left and right direction (that is, the horizontal direction) and the up and down direction when looking directly in front in the same state.

《第一実施形態》
図1および図2を参照して、眼鏡型表示装置1aの大略的な構成を説明する。眼鏡型表示装置1aは、フレーム2と、接眼光学系3と、投射装置4と、透明部材5と、第一および第二カメラ61,62と、操作器7と、を備えている。
<< first embodiment >>
With reference to FIG. 1 and FIG. 2, a schematic configuration of the glasses-type display device 1a will be described. The eyeglass-type display device 1 a includes a frame 2, an eyepiece optical system 3, a projection device 4, a transparent member 5, first and second cameras 61 and 62, and an operating device 7.

フレーム2は、眼鏡型表示装置1aをユーザの眼の周辺に装着可能にする部材である。ここで、以下の説明では、眼鏡型表示装置1aをユーザが眼の周辺に装着した時のことを、単に、装着時と略記する。また、フレーム2は、例えば、右側および左側のテンプル21R,21Lと、右側および左側の蝶番22R,22Lと、ブリッジ23と、右側および左側の鼻パッド24R,24Lと、を備えている。   The frame 2 is a member that allows the eyeglass-type display device 1a to be mounted around the user's eyes. Here, in the following description, the time when the user wears the glasses-type display device 1a around the eye is simply abbreviated as the time of wearing. The frame 2 includes, for example, right and left temples 21R and 21L, right and left hinges 22R and 22L, a bridge 23, and right and left nose pads 24R and 24L.

接眼光学系3は、一般的な眼鏡の右側レンズと類似した形状を有し、蝶番22Rの左端とブリッジ23の右端との間に固定される。また、接眼光学系3は、装着時に右眼前方に位置決めされる。この接眼光学系3は、前方の景色をユーザが視認可能にすべく、前方からの光束(つまり、ユーザの前方の景色を表す第二光束)を透過可能に構成される。   The eyepiece optical system 3 has a shape similar to that of the right lens of general glasses, and is fixed between the left end of the hinge 22R and the right end of the bridge 23. The eyepiece optical system 3 is positioned in front of the right eye when worn. The eyepiece optical system 3 is configured to transmit a light beam from the front (that is, a second light beam representing the scene in front of the user) so that the user can visually recognize the scene in front.

投射装置4は、ユーザの前方視界を遮らないように、接眼光学系3の周縁に固定的に取り付けられる。図示した例では、投射装置4の取付位置は、接眼光学系3の上側の周縁である。しかし、取付位置は、上下左右のいずれの周縁でも構わない。かかる投射装置4は、接眼光学系3に対し、所定の情報を表す第一光束を投射する。ここで、所定の情報とは、典型的には、第一カメラ61から得られる第一画像信号から得られる対象物α(図5等を参照)であったり、操作器7に備わる制御回路72により生成された文字情報であったりする。   The projection device 4 is fixedly attached to the periphery of the eyepiece optical system 3 so as not to block the user's front view. In the illustrated example, the mounting position of the projection device 4 is the upper peripheral edge of the eyepiece optical system 3. However, the attachment position may be any peripheral edge, up, down, left and right. The projection device 4 projects a first light beam representing predetermined information onto the eyepiece optical system 3. Here, the predetermined information is typically the object α (see FIG. 5 and the like) obtained from the first image signal obtained from the first camera 61, or the control circuit 72 provided in the operation device 7. Or character information generated by.

ここで、図3は、図1の仮想線I−I’に沿う接眼光学系3および投射装置4の縦断面をX軸方向から見た時の縦断面図である。ここで、この縦断面は、YZ平面に概ね平行であるとする。以下、図1〜図3を参照して、投射装置4、接眼光学系3の順番でそれぞれの構成を詳説する。   Here, FIG. 3 is a longitudinal sectional view of the longitudinal sections of the eyepiece optical system 3 and the projection device 4 taken along the imaginary line I-I ′ in FIG. 1 when viewed from the X-axis direction. Here, this longitudinal section is assumed to be substantially parallel to the YZ plane. Hereinafter, with reference to FIGS. 1-3, each structure is explained in full detail in order of the projection apparatus 4 and the eyepiece optical system 3. FIG.

投射装置4は、光源41と、集光レンズ42と、透過型表示パネル43と、を、筐体44内に備えている。光源41は、例えばLED(Light Emitting Diode)等であり、典型的には白色光を出射する。ここで、図3には破線にて光路が仮想的に示されている。集光レンズ42は、コンデンサレンズ等を含んでおり、光源41の出射光を集光し、概ね平行な光(以下、平行光という)にして出射する。透過型表示パネル43は、例えば、空間光変調素子LCDであって、集光レンズ42からの平行光が入射されると共に、上記所定の情報を制御回路72から受信する。透過型表示パネル43は、入射光を受信情報で変調して所定の情報を表す第一光束を生成し、接眼光学系3の上端面P1に向けて出射する。   The projection device 4 includes a light source 41, a condenser lens 42, and a transmissive display panel 43 in a housing 44. The light source 41 is, for example, an LED (Light Emitting Diode) or the like, and typically emits white light. Here, in FIG. 3, an optical path is virtually shown by a broken line. The condensing lens 42 includes a condenser lens and the like, condenses the light emitted from the light source 41, and emits it as substantially parallel light (hereinafter referred to as parallel light). The transmissive display panel 43 is, for example, a spatial light modulator LCD, and receives parallel light from the condenser lens 42 and receives the predetermined information from the control circuit 72. The transmissive display panel 43 modulates incident light with received information to generate a first light beam representing predetermined information, and emits the light toward the upper end surface P <b> 1 of the eyepiece optical system 3.

接眼光学系3は、透明部材31と、透明部材31と一体的に形成されたプリズム32およびホログラフィック光学素子(以下、HOEという場合がある)33と、を備えている。   The eyepiece optical system 3 includes a transparent member 31, a prism 32 formed integrally with the transparent member 31, and a holographic optical element (hereinafter sometimes referred to as HOE) 33.

プリズム32は、例えばガラスまたは樹脂のような透明材料で作製され、例えばY軸方向に向かい合う前面P2および背面P3を有する。ここで、前面P2,背面P3はZX平面に概ね平行でY軸と直交するよう設計される。また、プリズム32は、接眼光学系3の上端面P1から下方向に延在している。この上端面P1から、透過型表示パネル43から出射された第一光束が、プリズム32の内部に入射される。入射光束は、前面P2および背面P3で全反射を繰り返してプリズム32の内部を下方に伝搬され、HOE33に向けて案内される。   The prism 32 is made of a transparent material such as glass or resin, and has a front surface P2 and a back surface P3 facing in the Y-axis direction, for example. Here, the front surface P2 and the back surface P3 are designed to be substantially parallel to the ZX plane and orthogonal to the Y axis. The prism 32 extends downward from the upper end surface P1 of the eyepiece optical system 3. The first light flux emitted from the transmissive display panel 43 enters the prism 32 from the upper end surface P1. The incident light beam repeats total reflection on the front surface P2 and the back surface P3, propagates downward in the prism 32, and is guided toward the HOE 33.

HOE33は、薄い板状の基板上に形成されており、装着時に右眼前方に基板面が斜めに位置するように、プリズム32と透明部材31との間に設けられている。また、HOE33は、基板面に対して非平行な二種類の干渉縞からなるパターンを有する。   The HOE 33 is formed on a thin plate-like substrate, and is provided between the prism 32 and the transparent member 31 so that the substrate surface is obliquely positioned in front of the right eye when mounted. The HOE 33 has a pattern composed of two types of interference fringes that are non-parallel to the substrate surface.

HOE33には、プリズム32内を伝搬してきた第一光束が入射される。HOE33は、上記干渉縞パターンの回折作用によって、入射光束を右眼に向けて回折し反射する。これによって、接眼光学系3は、ユーザに所定の情報を仮想的に表示することが可能となる。   The first light flux that has propagated through the prism 32 is incident on the HOE 33. The HOE 33 diffracts and reflects the incident light beam toward the right eye by the diffraction action of the interference fringe pattern. As a result, the eyepiece optical system 3 can virtually display predetermined information to the user.

また、上記の通り、接眼光学系3は、前方景色を表す第二光束を透過可能に構成される。より具体的には、HOE33には、入射光束がHOE33で屈折しないように補正プリズム(図示せず)が接合されている。したがって、HOE33は、第二光束に対しては単なる平板ガラスとして働き、これによって、ユーザは前方景色を視認可能となる。   Moreover, as above-mentioned, the eyepiece optical system 3 is comprised so that the 2nd light beam showing a front scene can be permeate | transmitted. More specifically, a correction prism (not shown) is joined to the HOE 33 so that the incident light beam is not refracted by the HOE 33. Therefore, the HOE 33 functions as a mere flat glass for the second light flux, so that the user can visually recognize the front scene.

以上から明らかなように、ユーザは、接眼光学系3を介して、第二光束が表す前方景色に第一景色が表す所定の情報を合成した映像を右眼で視認することになる。   As is clear from the above, the user visually recognizes, with the right eye, an image in which predetermined information represented by the first scenery is combined with the forward scenery represented by the second light flux through the eyepiece optical system 3.

ここで、再度、図1を参照する。透明部材5は、一般的な眼鏡の左側レンズに類似した形状を有しており、左側の蝶番22Lの右端とブリッジ23の左端との間に固定されている。この透明部材5は、ユーザの前方視界を確保にすべく、前方からの光束を透過可能に構成されている。   Here, referring to FIG. 1 again. The transparent member 5 has a shape similar to that of a left lens of general glasses, and is fixed between the right end of the left hinge 22L and the left end of the bridge 23. The transparent member 5 is configured to be able to transmit a light beam from the front in order to secure the user's front view.

第一カメラ61は、右側のテンプル21Rの右側面上に固定的に取り付けられている。ここで、第一カメラ61は、自身の光軸61aがY軸と略平行となるように、かつ、かつ標準ユーザの視点位置と同じY軸方向位置で撮像を行うように取り付けられる。第一カメラ61は、自身の視野内の景色を表す画像を所定のフレームレートで撮影して、第一映像信号として操作器7に送信する。   The first camera 61 is fixedly mounted on the right side surface of the right temple 21R. Here, the first camera 61 is attached so that its own optical axis 61a is substantially parallel to the Y axis and performs imaging at the same Y-axis direction position as the standard user viewpoint position. The first camera 61 captures an image representing a scene in its field of view at a predetermined frame rate, and transmits the image as a first video signal to the operation device 7.

第二カメラ62は、右側の蝶番22Rの上面に固定的に取り付けられている。ここで、装着時に第二カメラ62が右眼を撮影可能となるように、第二カメラ62の光軸61aは右眼の方向を向くように設計される。以上の第二カメラ62は、必要に応じて、右眼の画像を所定のフレームレートで撮影して、第二映像信号として操作器7に送信する。   The second camera 62 is fixedly attached to the upper surface of the right hinge 22R. Here, the optical axis 61a of the second camera 62 is designed to face the right eye so that the second camera 62 can photograph the right eye when mounted. The second camera 62 described above captures an image of the right eye at a predetermined frame rate as necessary, and transmits the image to the controller 7 as a second video signal.

ここで、図1に加え図2を参照する。操作器7は、筐体に、ユーザによりマニュアル操作されるHMI(より具体的には、電源スイッチおよび操作ボタン等)71を備えている。また、操作器7は、筐体内に、制御回路72を備えている。この制御回路72は、少なくとも、通信インターフェース(図示は通信IF)73と、CPU74と、EEPROM75と、RAM76と、を備えている。   Reference is now made to FIG. 2 in addition to FIG. The operating device 7 includes an HMI 71 (more specifically, a power switch and operation buttons) 71 that is manually operated by a user. The operation device 7 includes a control circuit 72 in the housing. The control circuit 72 includes at least a communication interface (illustrated communication IF) 73, a CPU 74, an EEPROM 75, and a RAM 76.

通信IF73は、第一カメラ61、第二カメラ62およびHMI71からの各種情報を受信してCPU74に転送する。それに加えて、通信IF73は、CPU74からの各種情報を投射装置4に送信する。   The communication IF 73 receives various information from the first camera 61, the second camera 62, and the HMI 71 and transfers it to the CPU 74. In addition, the communication IF 73 transmits various information from the CPU 74 to the projection device 4.

CPU74は、RAM76を作業領域として使いつつ、EEPROM75に予め格納されたプログラムに従って動作する。   The CPU 74 operates in accordance with a program stored in advance in the EEPROM 75 while using the RAM 76 as a work area.

ところで、「発明が解決しようとする課題」の欄における説明からも明らかな通り、個人差により装着時の右眼と接眼光学系3の間の距離が設計値と異なる場合、所定の情報が接眼光学系3における適切な位置に表示されない場合がある。   By the way, as is clear from the description in the column “Problems to be Solved by the Invention”, when the distance between the right eye and the eyepiece optical system 3 at the time of wearing differs from the design value due to individual differences, the predetermined information is the eyepiece. In some cases, the image is not displayed at an appropriate position in the optical system 3.

《個人差を考慮しない場合》
以下、個人差を考慮しない場合の制御回路72の動作について、図4のフロー図を参照して説明する。この場合、ユーザの視点は本眼鏡型表示装置1aに対し設計通りの位置にある。つまり、ユーザ視点は標準ユーザの視点と同じ位置にある。ここで、説明の便宜のため、図5に示すように、装着時の標準ユーザの視点位置を既知のCとする。また、位置Cを通りかつ接眼光学系3の背面P3と略平行な面と、第一カメラ61の光軸61aとの交点の位置をAとする。また、対象物αの位置をBとする。また、本眼鏡型表示装置1aの各部から視点への距離を下記の通り例示する。
交点Aから視点CへのX軸方向距離(設計値)d:50mm
背面P3と視点Cとの間の距離(設計値)l(第一距離の一例):20mm
<When not considering individual differences>
Hereinafter, the operation of the control circuit 72 when individual differences are not taken into account will be described with reference to the flowchart of FIG. In this case, the viewpoint of the user is at a position as designed with respect to the present glasses-type display device 1a. That is, the user viewpoint is at the same position as the standard user viewpoint. Here, for convenience of explanation, the viewpoint position of the standard user at the time of wearing is assumed to be C as shown in FIG. Also, let A be the position of the intersection of the surface passing through the position C and substantially parallel to the back surface P3 of the eyepiece optical system 3 and the optical axis 61a of the first camera 61. The position of the object α is B. Moreover, the distance from each part of this spectacles type display apparatus 1a to a viewpoint is illustrated as follows.
X-axis direction distance from intersection A to viewpoint C (design value) d: 50 mm
Distance (design value) 1 between back P3 and viewpoint C (an example of the first distance): 20 mm

まず、CPU74は、接眼光学系3に表示すべき対象物α(図5を参照)を検出する(図4:S01)。具体的には、CPU74は、第二カメラ62の第二映像信号を1フレーム分取得すると共に、第一カメラ61の第一映像信号を1フレーム分取得する。次に、CPU74は、周知の視線検出手法により、取得した第二映像信号(より具体的は、1フレーム)から視線ベクトルを検出する。次に、CPU74は、周知の注視点検出手法により、取得した第一映像信号が表す景色(つまり、画像)と、検出した視線ベクトルとが交差する注視点を特定する。次に、CPU74は、第一映像信号が表す景色において、特定した注視点に映っている対象物(つまり、被写体)αを特定すると共に、注視点の位置を対象物αの位置Bとして特定する。   First, the CPU 74 detects an object α (see FIG. 5) to be displayed on the eyepiece optical system 3 (FIG. 4: S01). Specifically, the CPU 74 acquires the second video signal of the second camera 62 for one frame, and acquires the first video signal of the first camera 61 for one frame. Next, the CPU 74 detects a line-of-sight vector from the acquired second video signal (more specifically, one frame) by a known line-of-sight detection method. Next, the CPU 74 specifies a gazing point at which the scene (that is, the image) represented by the acquired first video signal and the detected gaze vector intersect by a known gazing point detection method. Next, the CPU 74 specifies the object (that is, the subject) α shown in the specified gazing point in the landscape represented by the first video signal, and specifies the position of the gazing point as the position B of the object α. .

ここで、図5において、点Cを通りかつ線分ABと平行な直線と、接眼光学系3の背面P3との交点をDとし、線分CBと背面P3との交点をEとする。△ABCと△CDEにおいて、平行線に対する錯角の関係から、∠CDE=∠BACの関係と、∠ACB=∠DECの関係が成り立つ。ここで、第一カメラ61を基準とする対象物αの方位と、視点Cを基準とする点Dの方位とは実質的に同じである。対象物αが非常に遠くにある場合には、第一映像信号から抽出した対象物αを接眼光学系3の位置Dに表示しても、ユーザは違和を感じない。しかし、対象物αが相対的に近くにある場合には、ユーザが視認する対象物αは位置Dの方向には存在しないため、図5上段に示すように、第一映像信号から抽出した対象物αを位置Dに表示すると、ユーザは違和を感じる。   Here, in FIG. 5, the intersection of the straight line passing through the point C and parallel to the line segment AB and the back surface P3 of the eyepiece optical system 3 is D, and the intersection of the line segment CB and the back surface P3 is E. In ΔABC and ΔCDE, the relationship of ∠CDE = ∠BAC and the relationship of ∠ACB = ∠DEC are established from the relationship of the complex angle with respect to the parallel lines. Here, the orientation of the object α with respect to the first camera 61 and the orientation of the point D with respect to the viewpoint C are substantially the same. When the object α is very far away, even if the object α extracted from the first video signal is displayed at the position D of the eyepiece optical system 3, the user does not feel strange. However, when the target object α is relatively close, the target object α that the user visually recognizes does not exist in the direction of the position D. Therefore, as illustrated in the upper part of FIG. When the object α is displayed at the position D, the user feels uncomfortable.

かかる違和は、第一カメラ61の位置とユーザの視点位置との視差に起因する。この視差を補正するために、CPU74は、第一映像信号から抽出した対象物αを点Eに表示するよう決定する。この点Eを表示位置とすると、図5下段に示すように、ユーザを基準とする実際の対象物αの方位と、ユーザを基準とする表示位置Eの方位とが一致するため、ユーザの違和感を低減できる。   Such discomfort is caused by the parallax between the position of the first camera 61 and the viewpoint position of the user. In order to correct this parallax, the CPU 74 determines to display the object α extracted from the first video signal at the point E. When this point E is set as the display position, as shown in the lower part of FIG. 5, the orientation of the actual object α with respect to the user coincides with the orientation of the display position E with reference to the user. Can be reduced.

点Eの位置を求めるために、CPU74は、S01で検出した対象物αから線分ACまでの光軸方向距離L(第二距離の一例)を検出し(図4:S02)、その後、L>Lrefを満たすか否かを判断する(図4:S03)。このLrefは、対象物αが遠くにあるか否かを評価するための基準値である。   In order to obtain the position of the point E, the CPU 74 detects an optical axis direction distance L (an example of the second distance) from the object α detected in S01 to the line segment AC (an example of the second distance) (FIG. 4: S02). It is determined whether or not> Lref is satisfied (FIG. 4: S03). This Lref is a reference value for evaluating whether or not the object α is far away.

S03でYesと判断した場合、CPU74は交点Dの位置を求めて、第一映像信号から特定した対象物αの表示位置と決定する(図4:S04)。   When it is determined Yes in S03, the CPU 74 obtains the position of the intersection D and determines the display position of the object α specified from the first video signal (FIG. 4: S04).

それに対し、S03でNoと判断した場合、CPU74は、交点Eの位置を求めて、求めた位置を、第一映像信号から抽出した対象物αの表示位置と決定する(図4:S05)。より具体的には、交点Dと交点Eとの間の距離を視差aとすると、aは次式(1)より算出される。
a=l×d/L …(1)
On the other hand, when it is determined No in S03, the CPU 74 obtains the position of the intersection E, and decides the obtained position as the display position of the object α extracted from the first video signal (FIG. 4: S05). More specifically, when the distance between the intersection D and the intersection E is a parallax a, a is calculated from the following equation (1).
a = 1 × d / L (1)

CPU74はさらに、S04と同様に交点Dの位置を求めた後、X軸正方向側に視差aだけ平行移動させて、点Eの位置を求める。ここで、本実施形態では、d=50mmで、l=20mmである。また、S02で得られたLがL=400mmとすると、aは、2.5mmとなる。   Further, the CPU 74 obtains the position of the point E by obtaining the position of the intersection point D in the same manner as in S04 and then translating it by the parallax “a” to the X axis positive direction side. Here, in this embodiment, d = 50 mm and l = 20 mm. Further, when L obtained in S02 is L = 400 mm, a is 2.5 mm.

S04またはS05の実行後、CPU74は、下記の表示制御を実行する(図4:S06)。具体的には、CPU74は、第一映像信号から抽出した対象物αを、S04またはS05で決定した位置Dまたは位置Eに表示可能な画像情報を、所定の情報の一例として生成する。CPU74は、生成した所定の情報を、投射装置4の透過型表示パネルに通信IF73を介して送信する。投射装置4では上記のような処理を実行する。その結果、接眼光学系3は、第二光束に第一光束を合成した第三光束を眼に向けて出射する。これにより、ユーザは、接眼光学系3を介して、前方景色に所定の情報を合成した画像を視認する。   After execution of S04 or S05, the CPU 74 executes the following display control (FIG. 4: S06). Specifically, the CPU 74 generates image information that can display the object α extracted from the first video signal at the position D or E determined in S04 or S05 as an example of predetermined information. The CPU 74 transmits the generated predetermined information to the transmissive display panel of the projection device 4 via the communication IF 73. The projection device 4 performs the above processing. As a result, the eyepiece optical system 3 emits a third light beam, which is a combination of the first light beam and the second light beam, toward the eye. Accordingly, the user visually recognizes an image obtained by combining predetermined information with the front scene via the eyepiece optical system 3.

《個人差を考慮する場合》
次に、個人差を考慮する場合の制御回路72の動作について説明する。この場合、視点は設計通りの位置にないため、上述の視差aを適用することは好ましくない。よって、制御回路72は、所定のタイミング(例えば、ユーザが装着した時やユーザがHMI71に対し所定の操作をした場合)で、図6のフロー図の手順に従って、第一距離l’を求める。
《When considering individual differences》
Next, the operation of the control circuit 72 when individual differences are taken into account will be described. In this case, since the viewpoint is not in the position as designed, it is not preferable to apply the above-described parallax a. Therefore, the control circuit 72 obtains the first distance l ′ according to the procedure of the flowchart of FIG. 6 at a predetermined timing (for example, when worn by the user or when the user performs a predetermined operation on the HMI 71).

まず、CPU74は、図7上段に示すように、背面P3上の第一位置Fに第一目印β1を表示可能な第一画像信号を生成して、通信IF73を介して投射装置4に送信する。投射装置4は、第一画像信号を受信すると、背面P3上の第一位置Fに第一目印β1を表示する。つまり、投射装置4は、第一位置Fに第一目印β1を表した第四光束をユーザに出射し、これによって、注視することをユーザに促す。ユーザが注視した状態で、CPU74は、第二カメラ62の第二映像信号を1フレーム分取得し、その後、周知の視線検出手法により、取得した第二映像信号(より具体的は、1フレーム)から、ユーザの現在の視点と第一目印β1とを結ぶ第一視線ベクトルを検出する(図6:S11)。   First, as shown in the upper part of FIG. 7, the CPU 74 generates a first image signal capable of displaying the first mark β1 at the first position F on the back surface P3 and transmits the first image signal to the projection device 4 via the communication IF 73. . When receiving the first image signal, the projection device 4 displays the first mark β1 at the first position F on the back surface P3. That is, the projection device 4 emits a fourth light beam representing the first mark β1 at the first position F to the user, thereby prompting the user to gaze. The CPU 74 obtains one frame of the second video signal of the second camera 62 with the user's gaze, and then obtains the second video signal (more specifically, one frame) by a known gaze detection method. Then, a first line-of-sight vector connecting the current viewpoint of the user and the first mark β1 is detected (FIG. 6: S11).

次に、接眼光学系3は、上記と同様に、CPU74の制御下で、図7中段に示すように、第二位置Gに第二目印γ1を表した第四光束をユーザに出射し、これによって、第二目印γ1を注視するようユーザに促す。ここで、第二位置Gは、好ましくは、第一位置FからX軸方向に平行移動した位置である。ユーザが注視した状態で、CPU74は、第二カメラ62の第二映像信号から、ユーザの現在の視点から第二目印γ1に向かう第二視線ベクトルを検出する(図6:S12)。ここで、第一視線ベクトルおよび第二視線ベクトルの方向の基準は適宜適切に選択されれば構わない。本実施形態では、第一視線ベクトルおよび第二視線ベクトルの方向の基準は線分FGとする。   Next, as described above, the eyepiece optical system 3 emits a fourth light beam representing the second mark γ1 at the second position G to the user under the control of the CPU 74 as shown in the middle part of FIG. To prompt the user to gaze at the second mark γ1. Here, the second position G is preferably a position translated from the first position F in the X-axis direction. In a state in which the user is gazing, the CPU 74 detects a second line-of-sight vector from the current viewpoint of the user toward the second mark γ1 from the second video signal of the second camera 62 (FIG. 6: S12). Here, the reference of the directions of the first line-of-sight vector and the second line-of-sight vector may be appropriately selected as appropriate. In the present embodiment, the reference for the direction of the first line-of-sight vector and the second line-of-sight vector is the line segment FG.

次に、CPU74は、S11およびS12で求めた二つの視線ベクトルの交点Hの位置を求め、その後、図7下段に示すように、求めた交点Hの位置から背面P3までの距離を第一距離(測定値)l’として求める(図6:S13)。ここで、交点Hは、ユーザが真正面を視た時の視点位置と実質的に均等である。また、第一距離l’は、交点Hから平面P3に下した垂線における、交点Hからこの垂線の足までの距離である。   Next, the CPU 74 obtains the position of the intersection H of the two line-of-sight vectors obtained in S11 and S12, and then sets the distance from the obtained intersection H to the back surface P3 as the first distance as shown in the lower part of FIG. (Measured value) Obtained as l ′ (FIG. 6: S13). Here, the intersection H is substantially equal to the viewpoint position when the user looks directly in front. The first distance l 'is the distance from the intersection H to the leg of the perpendicular in the perpendicular drawn from the intersection H to the plane P3.

CPU74は、S13で求めた第一距離l’をEEPROM75に格納し(図6:S14)、図6の処理を終了する。   The CPU 74 stores the first distance l ′ obtained in S13 in the EEPROM 75 (FIG. 6: S14), and ends the process in FIG.

図6の終了後、CPU74は、図8のフロー図の手順に従って、所定の情報を接眼光学系3に表示する。以下、図8の処理手順を詳細に説明する。この場合、視点位置は、図9に示すように交点Hにあり、交点Hから背面P3までの第一距離l’は上述から明らかなようにEEPROM75に格納されている。また、後述の対象物αの位置を、便宜上、上述同様にBとする。また、本眼鏡型表示装置1aの各部に対する視点への距離を下記の通り例示する。
交点Aから交点HへのX軸方向距離(測定値)d:50mm
背面P3と交点Hとの間の第一距離(測定値)l’:26mm
After the end of FIG. 6, the CPU 74 displays predetermined information on the eyepiece optical system 3 according to the procedure of the flowchart of FIG. 8. Hereinafter, the processing procedure of FIG. 8 will be described in detail. In this case, the viewpoint position is at the intersection H as shown in FIG. 9, and the first distance l ′ from the intersection H to the back surface P3 is stored in the EEPROM 75 as apparent from the above. In addition, the position of an object α, which will be described later, is set to B for the sake of convenience. Moreover, the distance to the viewpoint with respect to each part of this spectacles type display device 1a is illustrated as follows.
X-axis direction distance from intersection A to intersection H (measured value) d: 50 mm
First distance (measured value) l ′ between back surface P3 and intersection H: 26 mm

まず、CPU74は、図4のS01〜S03と同様の処理を行う(図8:S21〜S23)。   First, the CPU 74 performs the same processing as S01 to S03 in FIG. 4 (FIG. 8: S21 to S23).

S23でYesと判断した場合、CPU74は、図4のS04と同様の処理を行って、対象物αの表示位置Dを決定する(図8:S24)。   When it is determined Yes in S23, the CPU 74 performs the same process as S04 in FIG. 4 and determines the display position D of the object α (FIG. 8: S24).

S23でNoと判断した場合、CPU74は、EEPROM75に第一距離(測定値)l’が格納されているか否かを確認する(図8:S25)。   When it is determined No in S23, the CPU 74 checks whether or not the first distance (measured value) 1 'is stored in the EEPROM 75 (FIG. 8: S25).

S25でNoと判断した場合、CPU74は、図4のS04と同様にして、表示位置Dを決定する(図8:S26)。   When it is determined No in S25, the CPU 74 determines the display position D in the same manner as S04 in FIG. 4 (FIG. 8: S26).

S25でYesと判断した場合、CPU74は、S27を実行する。S27において、CPU74は、まず、EEPROM75から第一距離(測定値)l’を読み出して、上式(1)中のlをl’に書き換えて、次式(2)に変更する。
a’=l’×d/L …(2)
CPU74はさらに、上式(2)にl’,dおよびLを代入して個人差を考慮した視差a’を近似的に求める。
When it is determined Yes in S25, the CPU 74 executes S27. In S27, the CPU 74 first reads the first distance (measured value) l ′ from the EEPROM 75, rewrites l in the above equation (1) to l ′, and changes to the following equation (2).
a ′ = l ′ × d / L (2)
Further, the CPU 74 substitutes l ′, d, and L into the above equation (2) to approximately obtain the parallax a ′ considering individual differences.

CPU74はさらに、点Dの位置を求め、求めた点Dの位置からX軸正方向側に視差a’だけ平行移動させて、点E’の位置を求める(図8:S27)。ここで、本実施形態では、d=50mmで、l’=26mmである。また、S22で得られたLを400mmとすると、a’は、3.25mmとなる。   Further, the CPU 74 obtains the position of the point D, and translates it from the obtained position of the point D to the X axis positive direction side by the parallax a ′ to obtain the position of the point E ′ (FIG. 8: S27). Here, in this embodiment, d = 50 mm and l ′ = 26 mm. Further, when L obtained in S22 is 400 mm, a ′ is 3.25 mm.

S24,S26またはS27の実行後、CPU74は、下記の表示制御を実行する(図8:S28)。具体的には、CPU74は、第一映像信号から抽出した対象物αを、S24,S26またはS27で決定した点Dまたは点E’の位置に表示可能な画像情報を、所定の情報の一例として生成する。CPU74は、生成した所定の情報を、投射装置4に通信IF73を介して送信する。投射装置4では上記のような処理を実行する。その結果、接眼光学系3は、第二光束に第一光束を合成した第三光束を眼に向けて出射する。これにより、ユーザは、接眼光学系3を介して、前方景色に所定の情報を合成した画像を視認する。ここで、いずれの場合においても、所定の情報は、前方景色における対象物の殆ど同じ位置か近接して表示される。   After execution of S24, S26, or S27, the CPU 74 executes the following display control (FIG. 8: S28). Specifically, the CPU 74 uses, as an example of the predetermined information, image information that can display the object α extracted from the first video signal at the position of the point D or the point E ′ determined in S24, S26, or S27. Generate. The CPU 74 transmits the generated predetermined information to the projection device 4 via the communication IF 73. The projection device 4 performs the above processing. As a result, the eyepiece optical system 3 emits a third light beam, which is a combination of the first light beam and the second light beam, toward the eye. Accordingly, the user visually recognizes an image obtained by combining predetermined information with the front scene via the eyepiece optical system 3. Here, in any case, the predetermined information is displayed at or near the same position of the object in the front scene.

《効果》
以上説明した通り、本眼鏡型表示装置1aによれば、個人差によりユーザの視点位置が設計値からY軸方向にずれたとしても、図6の処理により、第一距離(測定値)l’が算出される。そして、図8の処理により、第一距離(測定値)l’を用いて視差a’が算出される。これにより、ユーザ個々の視点位置に対応して所定の情報の表示位置をより好ましいものとすることができる。
"effect"
As described above, according to the glasses-type display device 1a, the first distance (measured value) l ′ can be obtained by the process of FIG. 6 even if the viewpoint position of the user is shifted from the design value in the Y-axis direction due to individual differences. Is calculated. Then, the parallax a ′ is calculated using the first distance (measured value) l ′ by the process of FIG. Thereby, the display position of the predetermined information can be made more preferable corresponding to the viewpoint position of each user.

また、本眼鏡型表示装置1aによれば、第一カメラ61の光軸61aは、標準ユーザが真正面を視た時の視線方向と略平行となっている。これによって、光軸61aと視線とのずれに起因する誤差を抑えて、より正しい位置に所定の情報を表示させることが可能となる。   Further, according to the glasses-type display device 1a, the optical axis 61a of the first camera 61 is substantially parallel to the line-of-sight direction when the standard user looks directly in front. Thereby, it is possible to suppress the error caused by the deviation between the optical axis 61a and the line of sight and display predetermined information at a more correct position.

また、本眼鏡型表示装置1aによれば、図6の処理を実行することにより、ユーザの現在の視点と接眼光学系3との間の第一距離l’を測定することが可能となる。   Further, according to the present glasses-type display device 1a, it is possible to measure the first distance l 'between the user's current viewpoint and the eyepiece optical system 3 by executing the processing of FIG.

《第一変形例》
なお、接眼光学系3は、時間軸上で、第一位置への第一目印β1の表示と、第二位置への第二目印γ1の表示との間に、第三位置に第三目印を表示させても構わない。ここで、第三位置は、位置的に、第一位置および第二位置の間であることが好ましい。これにより、目印はあたかも第一位置から第三位置を経由して第二位置に移動するように視認される。このようにして、制御回路72は、第一位置から第二位置へのユーザの視線移動を促すことが可能となるため、より正確に第一距離l’を検出することが可能となる。
<First modification>
The eyepiece optical system 3 places a third mark at the third position between the display of the first mark β1 at the first position and the display of the second mark γ1 at the second position on the time axis. You may display. Here, the third position is preferably located between the first position and the second position. Thereby, the mark is visually recognized as if it moved from the first position to the second position via the third position. In this way, the control circuit 72 can prompt the user to move the line of sight from the first position to the second position, so that the first distance l ′ can be detected more accurately.

《第二変形例》
また、上記実施形態では、第一目印および第二目印は単に接眼光学系3に表示されるとして説明した。しかし、第一目印および第二目印は、より目立つように、図10に例示するように、時間軸上で点灯・消灯を繰り返しても構わない。また、ある点灯時と別の点灯時に、第一目印および第二目印は輝度を変えて表示されても構わない。以上のような表示制御により、ユーザへの注視をより効果的に促すことが可能となる。
《Second modification》
In the above-described embodiment, the first mark and the second mark are described as being simply displayed on the eyepiece optical system 3. However, as illustrated in FIG. 10, the first mark and the second mark may be repeatedly turned on / off on the time axis so as to be more conspicuous. In addition, the first mark and the second mark may be displayed with different luminances at the time of lighting and another lighting. With the display control as described above, it is possible to more effectively prompt the user to pay attention.

《第三変形例》
次に、第三変形例に係る眼鏡型表示装置1bについて、図11および図12を参照して説明する。図11,図12において、眼鏡型表示装置1bは、図1,図2に示す眼鏡型表示装置1aと比較すると、構成面では、操作検出部81をさらに備える点で異なり、処理面では、第一距離l’を求める処理の一部が異なる点で異なる。それ以外に、両眼鏡型表示装置1a,1bの間に相違点は無い。それゆえ、図11,図12において、図1,図2の構成に相当するものには同一参照符号を付け、それぞれの説明を省略する。
《Third modification》
Next, an eyeglass-type display device 1b according to a third modification will be described with reference to FIGS. 11 and 12, the eyeglass-type display device 1b differs from the eyeglass-type display device 1a shown in FIGS. 1 and 2 in that the operation detection unit 81 is further provided in terms of configuration, It differs in that a part of the processing for obtaining the one distance l ′ is different. Other than that, there is no difference between the binocular display devices 1a and 1b. Therefore, in FIGS. 11 and 12, components corresponding to those in FIGS. 1 and 2 are denoted by the same reference numerals, and description thereof is omitted.

操作検出部81は、例えば、ユーザによる所定の動作を検出するセンサであって、いわゆるタッチスクリーンまたは近接センサにより実現される。かかる操作検出部81は、本変形例の説明では、第一カメラ61の周面上に取り付けられる。ユーザが操作検出部81に指を近接させたり、操作検出部81を指で触れたりすると、操作検出部81は、ユーザが所定の動作を行ったことを示す信号を制御回路72に送信する。   The operation detection unit 81 is, for example, a sensor that detects a predetermined operation by the user, and is realized by a so-called touch screen or proximity sensor. The operation detection unit 81 is attached on the circumferential surface of the first camera 61 in the description of the present modification. When the user brings a finger close to the operation detection unit 81 or touches the operation detection unit 81 with a finger, the operation detection unit 81 transmits a signal indicating that the user has performed a predetermined operation to the control circuit 72.

次に、図13のフロー図を参照して、眼鏡型表示装置1bによる第一距離l’を求める際の動作について説明する。   Next, with reference to the flowchart of FIG. 13, an operation for obtaining the first distance l ′ by the glasses-type display device 1 b will be described.

図13において、接眼光学系3は、CPU74の制御下で、図14上段に示すように、前述の第一位置F周辺に第一目印β2を表した第四光束をユーザに出射し、これによって、第一目印β2を注視するよう促す。第一目印β2は、ユーザの視線がさほど移動しない範囲内(第一位置Fの周辺)で移動するよう表示される。ここで、第一目印β2の一部が移動しても良いし、その全てが移動しても構わない。   In FIG. 13, under the control of the CPU 74, the eyepiece optical system 3 emits a fourth light beam representing the first mark β2 around the aforementioned first position F to the user as shown in the upper part of FIG. Urge the user to watch the first mark β2. The first mark β2 is displayed so as to move within a range where the user's line of sight does not move so much (around the first position F). Here, a part of the first mark β2 may move, or all of it may move.

ユーザは、第一目印β2を注視すると、操作検出部81に対し所定の動作を行う。これに応答して、操作検出部81は、検出信号を制御回路72に送信する。その後、CPU74は、ユーザが注視した状態で、周知の視線検出手法により、第二カメラ62の第二映像信号から、ユーザ視点から第一目印β2に向かう第一視線ベクトルを検出する(図13:S31)。   When the user gazes at the first mark β2, the user performs a predetermined operation on the operation detection unit 81. In response to this, the operation detection unit 81 transmits a detection signal to the control circuit 72. Thereafter, the CPU 74 detects the first line-of-sight vector from the user viewpoint toward the first mark β2 from the second video signal of the second camera 62 by a well-known line-of-sight detection method with the user gazing (FIG. 13: S31).

次に、接眼光学系3は、CPU74の制御下で、図14下段に示すように、前述の第二位置G周辺に第二目印γ2を表した第四光束をユーザに出射し、これによって、第二目印γ2を注視するようユーザに促す。ユーザが注視した状態で、CPU74は、第二カメラ62の第二映像信号から、ユーザの現在の視点から第二目印γ2に向かう第二視線ベクトルを検出する(図13:S32)。   Next, under the control of the CPU 74, the eyepiece optical system 3 emits a fourth light beam representing the second mark γ2 around the aforementioned second position G to the user as shown in the lower part of FIG. The user is encouraged to gaze at the second mark γ2. In a state in which the user is gazing, the CPU 74 detects a second line-of-sight vector from the current viewpoint of the user toward the second mark γ2 from the second video signal of the second camera 62 (FIG. 13: S32).

以降、CPU74は、図6のS13,S14と同様にして第一距離l’を測定する(図13:S33,S34)。   Thereafter, the CPU 74 measures the first distance l ′ in the same manner as S13 and S14 in FIG. 6 (FIG. 13: S33 and S34).

以上説明したように、本変形例によれば、眼鏡型表示装置1bが操作検出部81を備え、制御回路72が操作検出部81の検出信号を受信してから、第一視線および第二視線を検出することで、より正確な第一視線および第二視線を検出することが可能となる。   As described above, according to this modification, the eyeglass-type display device 1b includes the operation detection unit 81, and the control circuit 72 receives the detection signal from the operation detection unit 81, and then the first line of sight and the second line of sight. By detecting this, it becomes possible to detect a more accurate first gaze and second gaze.

《第四変形例》
なお、上記第三変形例では、第一目印β2および第二目印γ2は背面P3上で移動するとして説明した。しかし、これに限らず、図15に示すように、第一目印β2および第二目印γ2の色を時間経過により変化させても構わない。より具体的には、色は連続的または非連続的に変化させられる。また、他にも、図16に示すように、第一目印β2および第二目印γ2の形状を時間経過により変化させても構わない。さらに他にも、第一目印β2および第二目印γ2のそれぞれについて濃度または輝度を変化させても構わない。以上のような表示制御により、ユーザへの注視をより効果的に促すことが可能となる。
《Fourth modification》
In the third modification, the first mark β2 and the second mark γ2 are described as moving on the back surface P3. However, the present invention is not limited to this, and as shown in FIG. 15, the colors of the first mark β2 and the second mark γ2 may be changed over time. More specifically, the color is changed continuously or discontinuously. In addition, as shown in FIG. 16, the shapes of the first mark β2 and the second mark γ2 may be changed over time. In addition, the density or brightness may be changed for each of the first mark β2 and the second mark γ2. With the display control as described above, it is possible to more effectively prompt the user to pay attention.

《付記1》
以上の説明では、所定の情報は、第一カメラ61から得られる第一画像信号から得られる対象物αであるとして説明した。しかし、これに限らず、所定の情報は、前述の通り、制御回路72により生成された文字情報(詳細は後述)であっても構わない。ここで、文字情報の生成手法に関しては、例えば特開2006−309314に詳しく記載されているため、ここでは、これ以上の説明を控える。
<< Appendix 1 >>
In the above description, the predetermined information has been described as the object α obtained from the first image signal obtained from the first camera 61. However, the present invention is not limited thereto, and the predetermined information may be character information (details will be described later) generated by the control circuit 72 as described above. Here, since the generation method of character information is described in detail in, for example, Japanese Patent Application Laid-Open No. 2006-309314, further explanation is omitted here.

《付記2》
また、以上の説明では、第一目印および第二目印に関し、複数の表示制御について説明した。第一目印および第二目印の表示制御に関しては、上記複数の表示制御のうち、少なくとも二種類以上を組み合わせても構わない。
<< Appendix 2 >>
In the above description, a plurality of display controls have been described with respect to the first mark and the second mark. Regarding the display control of the first mark and the second mark, at least two kinds of the plurality of display controls may be combined.

《付記3》
また、図6および図13の処理において、制御回路72は、検出した第一視線ベクトルおよび第二視線ベクトルが一定時間以上、第一目印および第二目印の方向に留まっているか否かを判断し、留まっていると判断した場合に、検出した第一視線ベクトルおよび第二視線ベクトルを第一距離l’の算出に用いるものと確定するようにしても構わない。これにより、さらに正確に第一距離l’を求めることが可能となる。
<< Appendix 3 >>
6 and 13, the control circuit 72 determines whether or not the detected first line-of-sight vector and second line-of-sight vector remain in the direction of the first mark and the second mark for a certain time or more. When it is determined that the user has stayed, the detected first line-of-sight vector and second line-of-sight vector may be determined to be used for calculating the first distance l ′. As a result, the first distance l ′ can be obtained more accurately.

《付記4》
以上の説明では、HMI71および制御回路72は、投射装置4と有線により接続された操作器7に備わるとして説明した。しかし、これに限らず、HMI71および制御回路72は投射装置4に備わっていても構わない。
<< Appendix 4 >>
In the above description, the HMI 71 and the control circuit 72 are described as being provided in the operating device 7 connected to the projection device 4 by wire. However, the present invention is not limited to this, and the HMI 71 and the control circuit 72 may be provided in the projection device 4.

《付記5》
以上の説明では、接眼光学系3は、HOE33を備えるとして説明した。しかし、これに限らず、接眼光学系3は、HOE33に代えてハーフミラーにより、HOE33と同等の機能を実現しても構わない。
<< Appendix 5 >>
In the above description, the eyepiece optical system 3 has been described as including the HOE 33. However, the eyepiece optical system 3 is not limited to this, and a function equivalent to that of the HOE 33 may be realized by a half mirror instead of the HOE 33.

《第二実施形態》
次に、第二実施形態に係る眼鏡型表示装置1cについて、図17〜図20を参照して説明する。まず、本眼鏡型表示装置1cは、前述の眼鏡型表示装置1aと比較すると、構成面で相違点は無く、第一距離l’に加え、ユーザ視点から第一カメラ61へのX軸方向距離である第三距離d’を考慮した視差a”を算出する点で相違する。それ以外に相違点は無いので、以下の説明では、図1〜図3を援用する。
<< Second Embodiment >>
Next, the eyeglass-type display device 1c according to the second embodiment will be described with reference to FIGS. First, the present glasses-type display device 1c has no structural difference compared to the above-described glasses-type display device 1a, and in addition to the first distance l ′, the distance from the user viewpoint to the first camera 61 in the X-axis direction. The third difference d ′ is calculated in consideration of the third distance d ′. Since there is no other difference, FIGS. 1 to 3 are used in the following description.

《個人差を考慮しない場合》
本眼鏡型表示装置1cは、個人差を考慮しない場合、前述の眼鏡型表示装置1aと同様の処理を行うため、その説明を控える。
<When not considering individual differences>
When the eyeglass-type display device 1c does not consider individual differences, the same processing as that of the eyeglass-type display device 1a described above is performed, and a description thereof is omitted.

《個人差を考慮する場合》
次に、個人差を考慮する場合の制御回路72の動作について説明する。この場合、視点は設計通りの位置にないため、前述の視差aを適用することは好ましくない。よって、制御回路72は、所定のタイミング(例えば、ユーザが装着した時やユーザがHMI71に対し所定の操作をした場合)で、図17のフロー図の手順に従って、第一距離l’に加え、第三距離d’を求める。
《When considering individual differences》
Next, the operation of the control circuit 72 when individual differences are taken into account will be described. In this case, since the viewpoint is not located as designed, it is not preferable to apply the above-described parallax a. Therefore, the control circuit 72 adds to the first distance l ′ according to the procedure of the flowchart of FIG. 17 at a predetermined timing (for example, when the user wears or when the user performs a predetermined operation on the HMI 71). The third distance d ′ is obtained.

まず、眼鏡型表示装置1cでは、図6のS11〜S13と同様にして、第一距離(測定値)l’を求める(図17:S41〜S43)。その後、図18に示すように、求めた交点Hの位置から第一カメラ61までのX軸方向距離を第三距離(測定値)d’として求める(図17:S44)。ここで、第三距離d’は、交点Hから光軸61aに下した垂線における、交点Hからこの垂線の足までの距離である。   First, in the eyeglass-type display device 1c, the first distance (measured value) l ′ is obtained in the same manner as S11 to S13 in FIG. 6 (FIG. 17: S41 to S43). Thereafter, as shown in FIG. 18, the X-axis direction distance from the obtained position of the intersection H to the first camera 61 is obtained as a third distance (measured value) d '(FIG. 17: S44). Here, the third distance d 'is the distance from the intersection H to the leg of the perpendicular in the perpendicular drawn from the intersection H to the optical axis 61a.

CPU74は、S43で求めた第一距離l’およびS44で求めた第三距離d’をEEPROM75に格納し(図6:S45)、図17の処理を終了する。   The CPU 74 stores the first distance l ′ obtained in S43 and the third distance d ′ obtained in S44 in the EEPROM 75 (FIG. 6: S45), and ends the process in FIG.

図17の終了後、CPU74は、図19のフロー図の手順に従って、所定の情報を接眼光学系3に表示する。以下、図19の処理手順を詳細に説明する。ここで、視点位置は、図20に示すように交点Hにある。また、上述から明らかなように、交点Hから背面P3までの第一距離l’と、交点Hから交点Aまでの第三距離d’とはEEPROM75に格納されている。また、後述の対象物αの位置を、便宜上、上述同様にBとする。また、本眼鏡型表示装置1cの各部に対する視点への距離を下記の通り例示する。
背面P3と交点Hとの間の第一距離(測定値)l’:26mm
交点Aから交点Hへの第三距離(測定値)d’:60mm
After the end of FIG. 17, the CPU 74 displays predetermined information on the eyepiece optical system 3 according to the procedure of the flowchart of FIG. 19. Hereinafter, the processing procedure of FIG. 19 will be described in detail. Here, the viewpoint position is at the intersection H as shown in FIG. As apparent from the above, the first distance l ′ from the intersection H to the back surface P3 and the third distance d ′ from the intersection H to the intersection A are stored in the EEPROM 75. In addition, the position of an object α, which will be described later, is set to B for the sake of convenience. Moreover, the distance to the viewpoint with respect to each part of this spectacles type display device 1c is illustrated as follows.
First distance (measured value) l ′ between back surface P3 and intersection H: 26 mm
Third distance from intersection A to intersection H (measured value) d ′: 60 mm

まず、CPU74は、図4のS01〜S03と同様の処理を行う(図19:S51〜S53)。   First, the CPU 74 performs the same processing as S01 to S03 in FIG. 4 (FIG. 19: S51 to S53).

S53でYesと判断した場合、CPU74は、図4のS04と同様の処理を行って、対象物αの表示位置Dを決定する(図19:S54)。   When it is determined Yes in S53, the CPU 74 performs the same process as S04 in FIG. 4 and determines the display position D of the object α (FIG. 19: S54).

S53でNoと判断した場合、CPU74は、EEPROM75に第一距離(測定値)l’および第三距離(測定値)d’が格納されているか否かを確認する(図19:S55)。   When it is determined No in S53, the CPU 74 checks whether or not the first distance (measured value) 1 'and the third distance (measured value) d' are stored in the EEPROM 75 (FIG. 19: S55).

S55でNoと判断した場合、CPU74は、図4のS04と同様にして、表示位置Dを決定する(図19:S56)。   If it is determined No in S55, the CPU 74 determines the display position D in the same manner as S04 in FIG. 4 (FIG. 19: S56).

S55でYesと判断した場合、CPU74は、S57を実行する。S57において、CPU74は、まず、EEPROM75から第一距離(測定値)l’および第三距離(測定値)d’を読み出して、上式(1)中のlをl’に、dをd’に書き換えて、次式(3)に変更する。
a”=l’×d’/L …(3)
CPU74はさらに、上式(3)にl’,d’およびLを代入して個人差を考慮した視差a”を近似的に求める。
When determining Yes in S55, the CPU 74 executes S57. In S57, the CPU 74 first reads the first distance (measured value) l ′ and the third distance (measured value) d ′ from the EEPROM 75, and sets l in the above equation (1) to l ′ and d to d ′. To the following formula (3).
a ″ = l ′ × d ′ / L (3)
Further, the CPU 74 substitutes l ′, d ′ and L into the above equation (3) to approximately obtain the parallax a ″ considering individual differences.

CPU74はさらに、点Dの位置を求め、求めた点Dの位置からX軸正方向側に視差a”だけ平行移動させて、点E”の位置を求める(図19:S57)。ここで、本実施形態では、d’=60mmで、l’=26mmである。また、S52で得られたLを400mmとすると、a”は、3.9mmとなる。   Further, the CPU 74 obtains the position of the point D, translates the position of the obtained point D to the X axis positive direction side by the parallax a ″, and obtains the position of the point E ″ (FIG. 19: S57). Here, in this embodiment, d ′ = 60 mm and l ′ = 26 mm. Further, when L obtained in S52 is 400 mm, a ″ is 3.9 mm.

S54,S56またはS57の実行後、CPU74は、図8のS28と同様の表示制御を実行する(図19:S58)。   After execution of S54, S56, or S57, the CPU 74 executes display control similar to S28 in FIG. 8 (FIG. 19: S58).

《効果》
以上説明した通り、本眼鏡型表示装置1cによれば、個人差によりユーザの視点位置が設計値からX軸方向およびY軸方向の両方向にずれたとしても、図17の処理により、第一距離(測定値)l’および第三距離(測定値)d’が算出される。そして、図19の処理により、第一距離(測定値)l’および第三距離(測定値)d’を用いて視差a”が算出される。この視差a”に基づき表示位置を定めることにより、ユーザ個々の視点位置に対応して所定の情報の表示位置をより好ましいものとすることができる。
"effect"
As described above, according to the glasses-type display device 1c, even if the user's viewpoint position is shifted from the design value in both the X-axis direction and the Y-axis direction due to individual differences, the first distance is obtained by the process of FIG. (Measurement value) l ′ and third distance (measurement value) d ′ are calculated. Then, the process of FIG. 19 calculates the parallax a ″ using the first distance (measured value) l ′ and the third distance (measured value) d ′. By determining the display position based on the parallax a ″. The display position of the predetermined information can be made more preferable corresponding to the viewpoint position of each user.

本発明に係る眼鏡型表示装置は、前方景色においてより適切な位置に所定の情報を重畳可能であり、ウェアラブルコンピュータ等に好適である。   The glasses-type display device according to the present invention can superimpose predetermined information at a more appropriate position in the front scene, and is suitable for a wearable computer or the like.

1a,1b,1c 眼鏡型表示装置
2 フレーム
3 接眼光学系
4 投射装置
5 透明部材
61 第一カメラ
62 第二カメラ
7 操作器
72 制御回路
81 操作検出部
DESCRIPTION OF SYMBOLS 1a, 1b, 1c Glasses type display apparatus 2 Frame 3 Eyepiece optical system 4 Projection apparatus 5 Transparent member 61 1st camera 62 2nd camera 7 Operation device 72 Control circuit 81 Operation detection part

Claims (13)

ユーザの顔に装着可能に構成されたフレームと、
前記ユーザ前方を撮影可能に前記フレームに設けられた第一撮影装置と、
所定の情報を表す第一光束を投射可能に前記フレームに設けられた投射装置と、
装着時に前記ユーザの眼前に配置可能に前記フレームに設けられた接眼光学系であって、前記投射装置からの第一光束と、前記ユーザ前方の景色を表す第二光束とが入射されると、前記景色上に前記所定の情報が重畳された第三光束を前記ユーザの眼に向けて出射可能に構成された接眼光学系と、
前記ユーザの眼と前記接眼光学系との間の距離を第一距離として導出し、導出した第一距離に基づき、前記景色上における前記所定の情報が重畳される位置を調整する制御回路と、を備え
前記接眼光学系は、第一目印および第二目印を第一位置および第二位置に表す第四光束および第五光束を前記ユーザの眼に向けて出射し、
前記制御回路は、前記第四光束および前記第五光束の出射後に前記ユーザの第一視線および第二視線を検出し、検出した第一視線および第二視線に基づき、前記ユーザの眼と前記接眼光学系との間の第一距離を導出する、眼鏡型表示装置。
A frame configured to be worn on the user's face;
A first photographing device provided in the frame so as to photograph the user front;
A projection device provided on the frame so as to be capable of projecting a first light beam representing predetermined information;
The eyepiece optical system provided in the frame so that it can be placed in front of the user's eyes when worn, and when the first light flux from the projection device and the second light flux representing the scenery in front of the user are incident, An eyepiece optical system configured to be able to emit a third light flux on which the predetermined information is superimposed on the scene toward the user's eye;
A control circuit for deriving a distance between the user's eye and the eyepiece optical system as a first distance, and adjusting a position where the predetermined information is superimposed on the scenery based on the derived first distance; equipped with a,
The eyepiece optical system emits a fourth light beam and a fifth light beam representing the first mark and the second mark at the first position and the second position toward the user's eye,
The control circuit detects the user's first line of sight and the second line of sight after emission of the fourth light beam and the fifth light beam, and based on the detected first line of sight and second line of sight, the user's eyes and the eyepiece An eyeglass-type display device for deriving a first distance from an optical system .
前記制御回路は、前記第一距離に加え、前記第一撮影装置および前記ユーザの注視点との間の光軸方向距離である第二距離と、前記第一撮影装置および前記ユーザの眼を結ぶ直線に対する前記第一撮影装置および前記注視点を結ぶ直線の角度と、前記第一撮影装置および前記ユーザの眼の間の距離とから、前記景色上における前記所定の情報が重畳される位置を調整する、請求項1に記載の眼鏡型表示装置。   In addition to the first distance, the control circuit connects a second distance that is a distance in the optical axis direction between the first imaging device and the user's gazing point, and the first imaging device and the user's eyes. The position where the predetermined information is superimposed on the scenery is adjusted from the angle of the straight line connecting the first photographing device and the gazing point with respect to a straight line and the distance between the first photographing device and the user's eyes. The eyeglass-type display device according to claim 1. 装着時に、前記第一撮影装置の光軸と、前記ユーザの真正面への視線とは略平行となっている、請求項1または2に記載の眼鏡型表示装置。   3. The eyeglass-type display device according to claim 1, wherein an optical axis of the first imaging device and a line of sight toward the front of the user are substantially parallel when mounted. 前記接眼光学系は、前記第一位置および前記第二位置の間の第三位置に、第三目印を表す第六光束を前記ユーザの眼に向けて出射し、これによって、目印が前記第一位置から前記第三位置を経由して前記第二位置まで連続的に移動するようユーザによって視認される、請求項1〜3のいずれかに記載の眼鏡型表示装置。 The eyepiece optical system emits a sixth light beam representing a third mark toward the user's eye at a third position between the first position and the second position, whereby the mark is moved to the first position. The eyeglass-type display device according to claim 1, which is visually recognized by a user so as to continuously move from a position to the second position via the third position. 前記接眼光学系は、前記第一目印および/または前記第二目印を点滅するよう第一位置および/または第二位置に表す第四光束および第五光束を出射する、請求項1〜4のいずれかに記載の眼鏡型表示装置。 The eyepiece optical system emits the fourth light beam and fifth light flux representing a first position and / or the second position so as to blink the first mark and / or the second mark, any of claims 1 to 4 Glasses display device according to any. 前記接眼光学系は、前記第一目印および/または前記第二目印が第一位置および/または第二位置周辺で動くような第四光束および第五光束を出射する、請求項1〜4のいずれかに記載の眼鏡型表示装置。 The eyepiece optical system emits the fourth light beam and fifth light beam as the first mark and / or said second mark is moved around the first position and / or the second position, one of the claims 1 to 4 Glasses display device according to any. 前記接眼光学系は、前記第一目印および/または前記第二目印の色が時間により変化する第四光束および第五光束を出射する、請求項1〜4のいずれかに記載の眼鏡型表示装置。 The ocular optical system, the color of the first marker and / or the second marker emits a fourth light beam and fifth light beam varies with time, the eyeglass-type display device according to claim 1 . 前記接眼光学系は、前記第一目印および/または前記第二目印の形状が時間により変化する第四光束および第五光束を出射する、請求項1〜4のいずれかに記載の眼鏡型表示装置。 The ocular optical system, the shape of the first marks and / or said second mark emits a fourth light beam and fifth light beam varies with time, the eyeglass-type display device according to claim 1 . 前記接眼光学系が第四光束および第五光束を出射後に、ユーザによる所定の動作を検出可能に構成された操作検出部を、さらに備える請求項1〜8のいずれかに記載の眼鏡型表示装置。 The glasses-type display device according to any one of claims 1 to 8 , further comprising an operation detection unit configured to be able to detect a predetermined operation by a user after the eyepiece optical system emits the fourth light beam and the fifth light beam. . 前記制御回路は、前記第四光束および前記第五光束の出射後所定時間の間、前記第一位置周辺および前記第二位置周辺に、前記ユーザの第一視線および第二視線が留まっているか否かを判断し、留まっていると判断した場合に、前記ユーザの第一視線および第二視線を検出する、請求項1〜9のいずれかに記載の眼鏡型表示装置。 The control circuit determines whether or not the first line of sight and the second line of sight of the user remain around the first position and the second position for a predetermined time after emission of the fourth light beam and the fifth light beam. or the determining, when it is determined that the remains, for detecting a first line of sight and the second line of sight of the user, the eyeglass-type display apparatus according to any one of claims 1 to 9. 前記第一位置から前記第三位置を経由して前記第二位置まで目印が連続的に移動するようユーザによって視認され、
前記制御回路は、前記第四光束および前記第五光束の出射後所定時間の間、前記第一位置周辺および前記第二位置周辺に、前記ユーザの第一視線および第二視線が留まっているか否かを判断し、留まっていると判断した場合に、前記ユーザの第一視線および第二視線を検出する、請求項に記載の眼鏡型表示装置。
The mark is visually recognized by the user so as to continuously move from the first position to the second position via the third position,
The control circuit determines whether or not the first line of sight and the second line of sight of the user remain around the first position and the second position for a predetermined time after emission of the fourth light beam and the fifth light beam. The eyeglass-type display device according to claim 4 , wherein the first line of sight and the second line of sight of the user are detected when it is determined that the user has stayed.
前記制御回路は、前記接眼光学系における所定面に対するユーザの視線の角度を第一視線および第二視線として検出する、請求項1〜11のいずれかに記載の眼鏡型表示装置。 The eyeglass-type display device according to claim 1, wherein the control circuit detects an angle of a user's line of sight with respect to a predetermined surface in the eyepiece optical system as a first line of sight and a second line of sight. 前記制御回路は、前記ユーザの眼と前記第一撮像装置との間の距離を第三距離として導出し、前記第一距離に加えて、導出した第三距離にも基づいて前記景色上における前記所定の情報が重畳される位置を調整する、請求項1〜12のいずれかに記載の眼鏡型表示装置。 The control circuit derives a distance between the user's eye and the first imaging device as a third distance, and in addition to the first distance, based on the derived third distance, adjusting the position of predetermined information is superimposed, the eyeglass-type display apparatus according to any one of claims 1 to 12.
JP2014005568A 2014-01-16 2014-01-16 Eyeglass type display device Active JP6347067B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014005568A JP6347067B2 (en) 2014-01-16 2014-01-16 Eyeglass type display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014005568A JP6347067B2 (en) 2014-01-16 2014-01-16 Eyeglass type display device

Publications (2)

Publication Number Publication Date
JP2015132786A JP2015132786A (en) 2015-07-23
JP6347067B2 true JP6347067B2 (en) 2018-06-27

Family

ID=53900009

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014005568A Active JP6347067B2 (en) 2014-01-16 2014-01-16 Eyeglass type display device

Country Status (1)

Country Link
JP (1) JP6347067B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11579688B2 (en) 2019-06-28 2023-02-14 Canon Kabushiki Kaisha Imaging display device and wearable device

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07323008A (en) * 1994-05-31 1995-12-12 Canon Inc Line of sight detecting apparatus, camera and method for correcting line of sight
JP2005038008A (en) * 2003-07-15 2005-02-10 Canon Inc Image processing method, image processor
JP4364047B2 (en) * 2004-04-14 2009-11-11 オリンパス株式会社 Display device, imaging device
US8130261B2 (en) * 2006-10-10 2012-03-06 Exelis, Inc. System and method for dynamically correcting parallax in head borne video systems
JP5286371B2 (en) * 2009-02-05 2013-09-11 パナソニック株式会社 Information display device and information display method
JP5926546B2 (en) * 2011-12-02 2016-05-25 キヤノン株式会社 Image processing apparatus and method
JP5844880B2 (en) * 2012-03-01 2016-01-20 パイオニア株式会社 Head mounted display, calibration method and calibration program, and recording medium
WO2013179427A1 (en) * 2012-05-30 2013-12-05 パイオニア株式会社 Display device, head-mounted display, calibration method, calibration program, and recording medium

Also Published As

Publication number Publication date
JP2015132786A (en) 2015-07-23

Similar Documents

Publication Publication Date Title
JP6089705B2 (en) Display device and control method of display device
JP6492531B2 (en) Display device and control method of display device
JP6786792B2 (en) Information processing device, display device, information processing method, and program
WO2015012280A1 (en) Sight line detection device
JP5960799B2 (en) Head mounted display and display method
EP3301545B1 (en) Computer program, object tracking method, and display device
JP6349660B2 (en) Image display device, image display method, and image display program
JP6094305B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP6707809B2 (en) Display device, display device control method, and program
JP6036291B2 (en) Display device, display system, and display device control method
EP3771967A2 (en) Electronic device, control method, and computer readable medium
JP4811683B2 (en) Visual field detector
JP6314339B2 (en) Eyeglass type display device
JP6347067B2 (en) Eyeglass type display device
JP2012165085A (en) Head-mounted type display device and control method of head-mounted type display device
JP4504160B2 (en) Composite display device
JP6304415B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP2016116066A (en) Display device and control method of display device
JP2016034091A (en) Display device, control method of the same and program
JP6287399B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP2019004471A (en) Head-mounted type display device, and control method of head-mounted type display device
JP6488546B2 (en) Spectacle wearing image analysis apparatus, spectacle wearing image analysis method, and spectacle wearing image analysis program
JP2016181864A (en) Display device and control method of the same
KR20230021551A (en) Augmented reality device and method for detecting gaze of user
CN116830014A (en) Augmented reality device and method for detecting user gaze

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160427

RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20160602

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161020

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20161021

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171101

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180424

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180507

R150 Certificate of patent or registration of utility model

Ref document number: 6347067

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150