WO2013145147A1 - ヘッドマウントディスプレイ及び表示方法 - Google Patents

ヘッドマウントディスプレイ及び表示方法 Download PDF

Info

Publication number
WO2013145147A1
WO2013145147A1 PCT/JP2012/058119 JP2012058119W WO2013145147A1 WO 2013145147 A1 WO2013145147 A1 WO 2013145147A1 JP 2012058119 W JP2012058119 W JP 2012058119W WO 2013145147 A1 WO2013145147 A1 WO 2013145147A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
user
display
adjustment
mounted display
Prior art date
Application number
PCT/JP2012/058119
Other languages
English (en)
French (fr)
Inventor
佐々木 智子
小林 孝史
新飼 康広
Original Assignee
パイオニア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パイオニア株式会社 filed Critical パイオニア株式会社
Priority to JP2014507115A priority Critical patent/JP5960799B2/ja
Priority to PCT/JP2012/058119 priority patent/WO2013145147A1/ja
Publication of WO2013145147A1 publication Critical patent/WO2013145147A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0129Head-up displays characterised by optical features comprising devices for correcting parallax
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0181Adaptation to the pilot/driver

Definitions

  • the present invention relates to a technique for displaying information.
  • Patent Literature 1 discloses a head-mounted display that changes the display position of an AR image by detecting the tilt of the wearer's head.
  • the present invention has been made to solve the above-described problems, and has as its main object to provide a head-mounted display and a display method capable of adjusting the display position of an image to an appropriate position for each user. To do.
  • the invention according to claim 1 is a head-mounted display that causes a user to recognize an image superimposed on a scene observed through a transmissive member, and that displays the image to be recognized by the user.
  • the invention according to claim 9 is a display method executed by a head-mounted display that superimposes an image on a scene observed through a transmissive member so as to be recognized by a user, and the image to be recognized by the user is displayed.
  • the display position of the image by the display step is determined based on the position of the image for adjustment recognized in the landscape and the position of the mirror image observed by the user through the transmission member.
  • an adjusting step for adjusting is performed by a head-mounted display that superimposes an image on a scene observed through a transmissive member so as to be recognized by a user, and the image to be recognized by the user is displayed.
  • the schematic structure of the head mounted display which concerns on a present Example is shown.
  • the front view in the mounting state of a head mounted display is shown.
  • a state in which a user wearing a head mounted display faces the mirror is shown.
  • a photographed image and a trimmed image are shown.
  • the field of view of the user when a trimmed image is displayed is shown.
  • It is a flowchart which shows a user's operation procedure and the process sequence which a control part performs in connection with it.
  • the display positions of the AR image when the distance from the viewpoint to the display object is short and when the distance is long are shown.
  • a head-mounted display that superimposes an image on a scene observed through a transmissive member and allows the user to recognize the display, the display displaying the image to be recognized by the user.
  • a user who is recognized by the user by displaying the adjustment image by means of the display means, a photographing means for photographing an adjustment image that is at least a part of a mirror image of the user wearing the head-mounted display, and the display means.
  • the display position of the AR image by the display means is determined by the user.
  • the head mounted display includes a display unit, a photographing unit, and an adjusting unit by superimposing an image on a scene observed through the transmissive member and allowing the user to recognize the image.
  • the display means displays an image (AR image) that is recognized by the user.
  • the imaging means captures an adjustment image that is at least a part of a mirror image of the user wearing the head mounted display.
  • the adjustment means is based on the position of the adjustment image in the landscape recognized by the user by displaying the adjustment image on the display means and the position of the mirror image observed by the user via the transmission member. Then, the user adjusts the display position of the AR image. In this way, the head mounted display can adjust the display position of the AR image to an appropriate position for each user.
  • the adjustment means includes an image for adjustment recognized by the user via the transmission member and a mirror image observed by the user via the transmission member. So that the user can adjust the display position of the image. By doing in this way, the head mounted display can adjust suitably the shift
  • the adjusting means displays the adjustment image in which a mark provided on the head mounted display is located at the center.
  • the head mounted display can adjust suitably the shift
  • the display means determines a position for displaying the image based on the distance of the optical path. According to this aspect, the head mounted display can accurately determine the display position of the AR image.
  • the display means causes the user to recognize the image by reflecting a part of light for drawing the image on the transmissive member.
  • the head mounted display can adjust suitably the shift
  • the adjusting unit causes the user to adjust the display position of the image by the display unit for each eye of the user.
  • the head mounted display sets the display position of the AR image to an appropriate position for each user. Can be set to
  • the photographing unit includes a camera positioned in the vicinity of each eye of the user when the head mounted display is mounted.
  • the head-mounted display can capture the adjustment image from the vicinity of the viewpoint of the eye viewing the AR image, so that the display position of the AR image can be adjusted with higher accuracy.
  • the photographing unit has a camera provided at a central portion in the longitudinal direction of the head mounted display.
  • the camera is disposed at a position between both eyes close to either eye of the user, and thus the head mounted display can adjust the display position of the AR image with high accuracy.
  • a display method executed by a head-mounted display that superimposes an image on a scene observed through a transmissive member so as to be recognized by the user, and allows the user to recognize the display method.
  • a display step of displaying an image a photographing step of photographing an adjustment image that is at least a part of a mirror image of the user wearing the head mounted display, and displaying the adjustment image by the display step. Display of the image by the display step based on the position in the landscape of the image for adjustment recognized by the user and the position of the mirror image observed by the user through the transmission member And an adjusting step for adjusting the position.
  • the head mounted display can adjust the display position of the AR image to an appropriate position for each user by executing this display method.
  • FIG. 1 is a schematic configuration diagram illustrating an example of a head mounted display 1 according to the present embodiment.
  • the head-mounted display is appropriately expressed as “HMD”.
  • the HMD 1 mainly includes a control unit 2, a light source unit 3, a half mirror 4, and a camera 5.
  • the HMD 1 is a see-through type HMD configured in, for example, a glasses type, and is configured to be worn on the user's head.
  • the HMD 1 is configured to display an image only on one eye of the user or display an image on both eyes, for example.
  • the light source unit 3 emits light constituting the image generated by the control unit 2 toward the half mirror 4.
  • the light source unit 3 includes a laser light source, an LCD light source, and the like, and emits light from such a light source.
  • the control unit 2 and the light source unit 3 function as “display means” in the present invention.
  • the half mirror 4 reflects the light from the light source unit 3 toward the user's eyeball. Thereby, a virtual image corresponding to an image (also referred to as “AR image”) formed by the HMD 1 is visually recognized by the user.
  • the half mirror 4 has substantially the same transmittance and reflectance, but instead of using such a half mirror 4, a mirror (so-called beam splitter) whose transmittance and reflectance are not equal may be used. .
  • the half mirror 4 is an example of the “transmission member” in the present invention.
  • the camera 5 captures a scene in front of the HMD 1 based on the control of the control unit 2 and generates a captured image “Ic”.
  • the camera 5 supplies the generated captured image Ic to the control unit 2.
  • the camera 5 is preferably installed at a central portion in the longitudinal direction of the HMD 1 and is set so as to be positioned between both eyes of the user when the HMD 1 is worn. In this way, the control unit 2 and the camera 5 function as “photographing means” in the present invention.
  • the input unit 7 generates an input signal based on a user operation and transmits it to the control unit 2.
  • the input unit 7 is a remote controller having, for example, a button for operation by a user, a cross key, and a button.
  • the input unit 7 generates an input signal for instructing start of AR image position adjustment based on a user's operation, or instructs to change the display position of the AR image according to the user's operation amount. Generate an input signal.
  • the control unit 2 and the input unit 7 function as “adjusting means” in the present invention.
  • the control unit 2 has a processor such as a CPU (not shown) and a memory such as a RAM and a ROM, and performs overall control of the HMD 1. For example, the control unit 2 performs control for allowing the user to recognize an AR image superimposed on a scene observed through the half mirror 4. That is, control for AR display is performed.
  • a processor such as a CPU (not shown)
  • a memory such as a RAM and a ROM
  • the control unit 2 displays an AR image indicating information on the display object.
  • the “AR image” is an image indicating information about an object such as a place, a facility, or a signboard, and is represented by an icon, a tag, a comment, a balloon, or the like.
  • the control unit 2 analyzes the captured image Ic of the camera 5 to identify a display object on which information is to be displayed, generates information about the display object, and selects an AR image corresponding to the information. Generate.
  • the control unit 2 acquires information about a display object from a navigation device (including a portable terminal device such as a smartphone) (not shown) and generates an AR image corresponding to the information.
  • control unit 2 performs control so that the virtual image corresponding to the AR image is recognized at a position corresponding to the display object in the scenery.
  • the “position according to the display object” corresponds to, for example, a position superimposed on the display object or a position near the display object.
  • the control unit 2 appropriately corrects the display position (focus position) of the AR image based on the user's operation. Specifically, the control unit 2 changes the display position of the AR image, for example, by changing the light emission direction of the light source unit 3 according to the operation amount of the user to the input unit 7. This will be described in detail in the section [AR image position adjustment].
  • FIG. 2 shows a front view of the HMD 1 mounted.
  • the longitudinal direction of the HMD 1 is defined as “X-axis direction”
  • the lateral direction of the HMD 1 is defined as “Y-axis direction”
  • each positive direction is determined as shown in FIG.
  • a marker 6 is pasted on the front surface of the HMD 1 on the side opposite to the surface facing the user 10.
  • the marker 6 is pasted at a position that does not overlap the drawable range “Rd” indicating the range in which the light source unit 3 can emit light in the HMD 1 so as not to obstruct the field of view of the user 10.
  • the marker 6 preferably has a color or the like different from that of the HMD 1 or the like so that the control unit 2 can easily recognize the position of the marker 6 from the acquired photographed image Ic.
  • Information such as the width “Wm” of the marker 6 in the X-axis direction and the color for identifying the marker 6 is stored in advance in the memory of the control unit 2.
  • the marker 6 is an example of the “mark” in the present invention.
  • the control unit 2 operates the user 10 to align the mirror image of the marker 6 captured by the camera 5 and displayed as an AR image with the mirror image of the marker 6 observed through the half mirror 4. Based on. Thereby, the control unit 2 sets the display position of the AR image suitable for the user 10 wearing the HMD 1.
  • FIG. 3 shows a state where the user 10 wearing the HMD 1 faces the mirror 8.
  • the direction perpendicular to the XY plane and directed from the HMD 1 toward the mirror 8 is defined as a positive Z-axis direction.
  • the user 10 first stands still in a state of facing the mirror 8 so that the mirror 8 and the marker 6 are in a parallel position.
  • the user 10 views the mirror image of the HMD 1 to which the user 10 and the marker 6 are attached through the half mirror 4.
  • the distance from the mirror 8 to the marker 6 substantially matches the distance from the mirror 8 to the viewpoint of the user 10 (also referred to as “adjustment target distance Dtag”). That is, the gazing point distance is twice the distance from the viewpoint of the user 10 to the mirror 8. That is, the width indicated by the double arrow 90 in FIG. 3 corresponds to 1 ⁇ 2 of the adjustment target distance Dtag.
  • the distance twice the distance between the user 10 and the mirror 8 becomes the adjustment target distance Dtag. Therefore, in this case, even when the display position of the AR image is adjusted indoors or the like, it is possible to suppress the adjustment target distance Dtag from becoming excessively short. Further, by adjusting the position of the AR image, which will be described later, with the user 10 facing the mirror 8, the user 10 can be prevented from moving unintentionally during the position adjustment of the AR image, and the position adjustment of the AR image can be performed with high accuracy. It can be carried out.
  • the control unit 2 recognizes the marker 6 from the captured image Ic acquired from the camera 5 in the state shown in FIG. 3, and the width in the X-axis direction of the marker 6 in the captured image Ic (“in-image marker width”). Is also measured.). Then, the control unit 2 calculates the adjustment target distance Dtag with reference to a predetermined map or expression based on the width Wm of the marker 6 and the marker width in the image stored in advance in the memory.
  • the above-described map and expression are determined experimentally or theoretically, for example, and stored in advance in the memory of the control unit 2. The use of the calculated adjustment target distance Dtag will be described in detail in the section “Corresponding to Changes in Focal Length”.
  • FIG. 4A shows the captured image Ic generated in the state of FIG.
  • the captured image Ic of FIG. 4A for the sake of convenience of explanation, a vertical center line “91V”, a horizontal center line “91H”, and a center point “91C” that is an intersection of these are shown.
  • the captured image Ic mainly includes a display area 8A of the mirror 8, a mirror image display area 1A of the HMD 1, a mirror image display area 6A of the marker 6, and a mirror image of the user 10. Display area 10A.
  • the mirror image display area 1A of the HMD 1 is shifted from the vertical center line 91V of the captured image Ic due to the installation position of the camera 5 and the like.
  • the control unit 2 generates an image (also referred to as “trimming image It”) obtained by cutting out the captured image Ic so that the mirror image display area 6A of the marker 6 is positioned at the center of the image.
  • FIG. 4B shows a trimmed image It cut from the captured image Ic so that the mirror image display area 6A of the marker 6 is located at the center.
  • the center point 92C which is the intersection of the vertical center line 92V and the horizontal center line 92H, and the center of the mirror image display area 6A overlap. That is, the display area 6A of the mirror image of the marker 6 exists at the center point 92C of the trimmed image It.
  • the trimmed image It is an example of the “adjustment image” in the present invention.
  • FIG. 5A shows the field of view of the user 10 when the trimmed image It shown in FIG. 4B is displayed.
  • a trimmed image It that is an AR image
  • a mirror 8 that is observed through the HMD1
  • a mirror image 1B of the HMD1 in the mirror 8 and a marker 6
  • 6B of the user 10 and a mirror image 10B of the user 10 exist.
  • the control unit 2 matches the display area 6A of the marker 6 in the trimming image It with the position of the mirror image 6B of the marker 6 observed through the HMD 1 based on the operation of the user 10 to the input unit 7. .
  • the user 10 instructs parallel movement of the AR image in the XY plane, rotational movement in the XY plane, and the like.
  • the control unit 2 adjusts the position of the light source unit 3 in accordance with the input signal received from the input unit 7, so that the display region 6 ⁇ / b> A of the marker 6 in the trimming image It is actually observed.
  • control unit 2 draws the trimmed image It in a range smaller than the drawable range Rd. Thereby, the control part 2 can perform easily operation which performs the instruction
  • FIG. 1
  • FIG. 5B shows the field of view of the user 10 after the display position of the AR image is adjusted by the operation of the user 10 on the input unit 7.
  • the display area 6A of the marker 6 in the trimmed image It has moved to a position overlapping the mirror image 6B of the marker 6 that is actually observed.
  • the control unit 2 can adjust the display position of the AR image to a position suitable for the user 10.
  • control unit 2 and the user 10 execute the above-described processing for each of the right eye and the left eye of the user 10.
  • the control unit 2 can display the AR image at a display position suitable for the user 10 regardless of whether the AR image is visually recognized by either one of the left eye or the right eye or both eyes. . This will be described later with reference to the flowchart of FIG.
  • FIG. 6 is an example of a flowchart showing an operation procedure of the user 10 and a processing procedure executed by the control unit 2 in association therewith.
  • the control unit 2 adjusts the position of the HMD for each eye of the user 10.
  • the user 10 wearing the HMD 1 faces the mirror 8 (step S201).
  • the user 10 performs an operation for instructing the start of the position adjustment of the AR image on the input unit 7 (step S202).
  • the control part 2 of HMD1 starts the process after step S101.
  • step S202 the control unit 2 notifies the user 10 that the position adjustment of the AR image is performed for a predetermined one eye (for example, the right eye) (step S101).
  • the control unit 2 performs voice guidance for closing eyes other than the target eye using, for example, a speaker (not shown).
  • the user 10 closes the eyes that are not the adjustment target of the display position of the AR image (step S203).
  • the control unit 2 acquires a captured image Ic (see FIG. 4A) generated by the camera 5 (step S102). Then, the control unit 2 calculates the adjustment target distance Dtag based on the in-image marker width that is the width of the marker 6 in the captured image Ic (step S103). Specifically, the control unit 2 calculates the adjustment target distance Dtag using a predetermined formula based on the width Wm of the marker 6 stored in advance and the marker width in the image. The use of the calculated adjustment target distance Dtag will be described in detail in the section “Corresponding to Changes in Focal Length”.
  • control unit 2 trims the captured image Ic so that the display area 6A of the marker 6 is centered (step S104). Thereby, the control part 2 produces
  • the user 10 operates the input unit 7 so that the display area 6A of the marker 6 of the trimmed image It overlaps the mirror image 6B of the marker 6 (step S204).
  • the user 10 instructs the control unit 2 to perform parallel movement and rotational movement of the AR image in the XY plane by operating the input unit 7.
  • control part 2 changes the position of the trimming image It which is AR image by changing the position etc. of the light source unit 3 based on the input signal transmitted from the input part 7 (step S106).
  • the control unit 2 changes the position of the trimming image It that is the AR image to a position where the display area 6A of the marker 6 in the trimming image It overlaps with the mirror image 6B of the marker 6 that is observed through the HMD1. (See FIG. 5B).
  • the control unit 2 sets the AR image at a display position suitable for the user 10 who is the wearer, regardless of individual differences for each wearing user, alignment errors of each component of the HMD 1, and the like. Can do.
  • control unit 2 includes the position information of the AR image after execution of step S106 or the amount of movement of the XY plane adjusted in step S106 together with the information for specifying the adjusted one eye and the adjustment target distance Dtag calculated in step S103. And adjustment information such as rotation angle is stored in the memory.
  • step S107 determines whether or not both eyes of the user 10 have been adjusted. In other words, the control unit 2 determines whether or not the processing from step S102 to step S106 has been performed for each of the right eye and the left eye. And when both eyes of the user 10 are adjusted (step S107: Yes), the control part 2 complete
  • control unit 2 notifies that the AR image position is adjusted for one eye different from the one eye (for example, the right eye) targeted in the previous step S101 (step S101).
  • the process of step S106 is performed again.
  • the user 10 performs the processes of step S203 and step S204.
  • the control unit 2 can control either the left eye or the right eye or both eyes when viewing the AR image. Even so, the AR image can be displayed at a display position suitable for the user 10.
  • the appropriate display position of the AR image also changes. This will be described with reference to FIG.
  • FIG. 7A shows the display position 81 of the AR image when the distance from the viewpoint to the display object 80 is short
  • FIG. 7B shows the distance from the viewpoint to the display object 80 shown in FIG.
  • the direction of the line of sight changes according to the distance from the viewpoint to the display object 80.
  • the angle “D1” formed between the line of sight and the HMD1 in FIG. 7A is smaller than the angle “D2” formed between the line of sight and the HMD1 in FIG.
  • the control unit 2 needs to move the display position of the AR image in the direction away from the center of the HMD 1 on the X axis.
  • the control unit 2 when displaying an AR image on an arbitrary display object 80, the control unit 2 recognizes the distance from the viewpoint to the display object 80, and determines the AR image according to the distance. Move the display position. For example, the control unit 2 first refers to the current position information acquired from a GPS receiver (not shown), the map information stored in the memory, and the like from the position of the user 10 based on the position information of the display object 80. The distance to the display object 80 is calculated. Next, the control unit 2 determines the display position of the AR image according to the difference or ratio between the calculated distance and the adjustment target distance Dtag when the AR image position adjustment is performed in FIG. Move from the position set in the process. In this case, the control unit 2 determines the movement amount of the AR image based on the above-described difference or ratio with reference to, for example, a map or formula obtained in advance by experiment or theory.
  • control unit 2 can appropriately move the position of the AR image to an appropriate position even when the distance from the viewpoint to the display object 80 changes.
  • the HMD 1 is installed in the vicinity of the left eye of the user 10 in the wearing state and is installed in the vicinity of the right eye of the user 10 in the wearing state and a left-eye camera for adjusting the position of the AR image that is visually recognized by the left eye. You may provide two with the camera for right eyes for adjusting the position of AR image visually recognized by eyes.
  • the HMD 1 when the position of the AR image to be visually recognized by the left eye is adjusted, the HMD 1 generates a captured image Ic by the left-eye camera and performs an AR image position adjustment process, and the AR image to be visually recognized by the right eye.
  • the captured image Ic is generated by the right-eye camera and the AR image position adjustment process is performed. Thereby, the HMD 1 can adjust the position of the AR image with higher accuracy.
  • the marker 6 is not limited to a member attached to the HMD 1, and may be a protruding shape formed on the front surface of the HMD 1 or a region colored in a predetermined color. Even in this case, the control unit 2 stores in advance the width in the X-axis direction of the above-described shape or region. Also by this, the control part 2 can calculate the adjustment object distance Dtag suitably.
  • the marker 6 may be formed in a cross shape. Accordingly, the user can easily align the position in the X-axis direction when performing an operation of superimposing the display area 6A of the marker 6 in the trimmed image It on the mirror image 6B of the marker 6 in step S204 of FIG. it can.
  • the present invention can be suitably applied to an apparatus that performs AR display.
  • HMD Head mounted display
  • Control unit Control unit 3
  • Light source unit 4
  • Half mirror 5

Abstract

 ヘッドマウントディスプレイは、透過部材を介して観察される景色に、画像を重畳させて利用者に認識させ、表示手段と、撮影手段と、調整手段とを有する。表示手段は、利用者に認識させるAR画像を表示させる。撮影手段は、ヘッドマウントディスプレイを装着した利用者の鏡像の少なくとも一部である調整用画像を撮影する。調整手段は、表示手段によって調整用画像を表示させることで利用者に認識される調整用画像の風景中での位置と、透過部材を介して利用者に観察される鏡像の位置とに基づいて、AR画像の表示位置を利用者に調整させる。

Description

ヘッドマウントディスプレイ及び表示方法
 本発明は、情報を表示する技術に関する。
 近年、ヘッドマウントディスプレイなどの表示装置を用いて、所定の情報をユーザの前方の景色に重畳して表示させるAR(Augmented Reality)に関する技術が提案されている。例えば、特許文献1には、装着者の頭部の傾きを検知することで、AR画像の表示位置を変化させるヘッドマウントディスプレイが開示されている。
特開2008-176096号公報
 一般に、ユーザごとに視差等が異なることから、ヘッドマウントディスプレイによる画像(AR画像)の適切な表示位置は、ユーザごとに異なる。従って、特許文献1のように、装着者の頭部の傾きを検知することでは、ユーザごとの視差等の個人差に基づく画像の表示位置の調整を行うことができない。
 本発明は、上記のような課題を解決するためになされたものであり、画像の表示位置をユーザごとに適切な位置に調整可能なヘッドマウントディスプレイ及び表示方法を提供することを主な目的とする。
 請求項1に記載の発明は、透過部材を介して観察される景色に、画像を重畳させて利用者に認識させるヘッドマウントディスプレイであって、前記利用者に認識させる画像を表示させる表示手段と、当該ヘッドマウントディスプレイを装着した前記利用者の鏡像の少なくとも一部である調整用画像を撮影する撮影手段と、前記表示手段によって前記調整用画像を表示させることで前記利用者に認識される前記調整用画像の前記風景中での位置と、前記透過部材を介して前記利用者に観察される前記鏡像の位置と、に基づいて、前記表示手段による前記画像の表示位置を前記利用者に調整させる調整手段と、を有する。
 請求項9に記載の発明は、透過部材を介して観察される景色に、画像を重畳させて利用者に認識させるヘッドマウントディスプレイが実行する表示方法であって、前記利用者に認識させる画像を表示させる表示工程と、当該ヘッドマウントディスプレイを装着した前記利用者の鏡像の少なくとも一部である調整用画像を撮影する撮影工程と、前記表示工程によって前記調整用画像を表示させることで前記利用者に認識される前記調整用画像の前記風景中での位置と、前記透過部材を介して前記利用者に観察される前記鏡像の位置と、に基づいて、前記表示工程による前記画像の表示位置を調整させる調整工程と、を有する。
本実施例に係るヘッドマウントディスプレイの概略構成を示す。 ヘッドマウントディスプレイの装着状態での正面図を示す。 ヘッドマウントディスプレイを装着したユーザが鏡に正対した状態を示す。 撮影画像及びトリミング画像を示す。 トリミング画像が表示された際のユーザの視界を示す。 ユーザの操作手順及びそれに伴い制御部が実行する処理手順を示すフローチャートである。 視点から表示対象物までの距離が短い場合及び長い場合のAR画像の表示位置をそれぞれ示す。
 本発明の1つの好適な実施形態では、透過部材を介して観察される景色に、画像を重畳させて利用者に認識させるヘッドマウントディスプレイであって、前記利用者に認識させる画像を表示させる表示手段と、当該ヘッドマウントディスプレイを装着した前記利用者の鏡像の少なくとも一部である調整用画像を撮影する撮影手段と、前記表示手段によって前記調整用画像を表示させることで前記利用者に認識される前記調整用画像の前記風景中での位置と、前記透過部材を介して前記利用者に観察される前記鏡像の位置と、に基づいて、前記表示手段によるAR画像の表示位置を前記利用者に調整させる調整手段と、を有する。
 上記ヘッドマウントディスプレイは、透過部材を介して観察される景色に、画像を重畳させて利用者に認識させ、表示手段と、撮影手段と、調整手段とを有する。表示手段は、利用者に認識させる画像(AR画像)を表示させる。撮影手段は、ヘッドマウントディスプレイを装着した利用者の、鏡像の少なくとも一部である調整用画像を撮影する。調整手段は、表示手段によって調整用画像を表示させることで利用者に認識される、調整用画像の風景中での位置と、透過部材を介して利用者に観察される鏡像の位置とに基づいて、AR画像の表示位置を利用者に調整させる。このようにすることで、ヘッドマウントディスプレイは、AR画像の表示位置をユーザごとに適切な位置に調整することができる。
 上記ヘッドマウントディスプレイの一態様では、前記調整手段は、前記透過部材を介して前記利用者に認識された前記調整用画像と、前記透過部材を介して前記利用者が観察する鏡像とが重複して認識されるように、前記画像の表示位置を前記利用者に調整させる。このようにすることで、ヘッドマウントディスプレイは、好適に、AR画像の表示位置のずれをユーザの視線位置に合わせて調整することができる。
 上記ヘッドマウントディスプレイの他の一態様では、前記調整手段は、前記ヘッドマウントディスプレイに設けられた目印が中心に位置する前記調整用画像を表示させる。このようにすることで、ヘッドマウントディスプレイは、好適に、AR画像の表示位置のずれをユーザの視線位置に合わせて調整することができる。
 上記ヘッドマウントディスプレイの他の一態様では、前記ヘッドマウントディスプレイに設けられた目印の大きさと、前記調整用画像内での前記目印の大きさとに基づき、前記目印から前記利用者の視点までの光路の距離を算出する算出手段を有し、前記表示手段は、前記光路の距離に基づいて、前記画像を表示させる位置を決定する。この態様により、ヘッドマウントディスプレイは、AR画像の表示位置を的確に定めることができる。
 上記ヘッドマウントディスプレイの他の一態様では、前記表示手段は、前記画像を描画するための光の一部を前記透過部材に反射させることで、前記利用者に前記画像を認識させる。このようにすることで、ヘッドマウントディスプレイは、好適に、AR画像の表示位置のずれをユーザの視線位置に合わせて調整することができる。
 上記ヘッドマウントディスプレイの他の一態様では、前記調整手段は、前記利用者の片眼ごとに、前記表示手段による前記画像の表示位置を前記利用者に調整させる。このようにすることで、いずれかの眼にAR画像を表示する場合や両眼にAR画像を表示する場合であっても、ヘッドマウントディスプレイは、AR画像の表示位置をユーザごとに適切な位置に設定することができる。
 上記ヘッドマウントディスプレイの他の一態様では、前記撮影手段は、前記ヘッドマウントディスプレイの装着時に前記利用者の各眼の近傍にそれぞれ位置するカメラを有する。この態様により、ヘッドマウントディスプレイは、調整用画像を、AR画像を視認する眼の視点の近傍から撮影することができるため、より高精度にAR画像の表示位置を調整することができる。
 上記ヘッドマウントディスプレイの他の一態様では、前記撮影手段は、前記ヘッドマウントディスプレイの長手方向における中央部分に設けられたカメラを有する。この態様により、カメラは、ユーザのいずれの眼にも近い両眼の間の位置に配置されるため、ヘッドマウントディスプレイは、高精度にAR画像の表示位置を調整することができる。
 本発明の他の好適な実施形態では、透過部材を介して観察される景色に、画像を重畳させて利用者に認識させるヘッドマウントディスプレイが実行する表示方法であって、前記利用者に認識させる画像を表示させる表示工程と、当該ヘッドマウントディスプレイを装着した前記利用者の鏡像の少なくとも一部である調整用画像を撮影する撮影工程と、前記表示工程によって前記調整用画像を表示させることで前記利用者に認識される前記調整用画像の前記風景中での位置と、前記透過部材を介して前記利用者に観察される前記鏡像の位置と、に基づいて、前記表示工程による前記画像の表示位置を調整させる調整工程と、を有する。ヘッドマウントディスプレイは、この表示方法を実行することで、AR画像の表示位置をユーザごとに適切な位置に調整することが可能となる。
 以下、図面を参照して本発明の好適な実施例について説明する。
 [装置構成]
 図1は、本実施例に係るヘッドマウントディスプレイ1の一例を示した概略構成図である。以下では、ヘッドマウントディスプレイを適宜「HMD」と表記する。
 図1に示すように、HMD1は、主に、制御部2と、光源ユニット3と、ハーフミラー4と、カメラ5とを有する。HMD1は、例えば眼鏡型に構成されたシースルー型HMDであり、ユーザの頭部に装着可能に構成されている。また、HMD1は、例えばユーザの片眼にのみ画像を表示したり、両眼に対して画像を表示したりするように構成されている。
 光源ユニット3は、制御部2によって生成された画像を構成する光を、ハーフミラー4に向けて出射する。例えば、光源ユニット3は、レーザ光源やLCD光源などを有しており、このような光源から光を出射する。このように、制御部2及び光源ユニット3は、本発明における「表示手段」として機能する。
 ハーフミラー4は、光源ユニット3からの光を、ユーザの眼球に向けて反射する。これにより、HMD1によって形成された画像(「AR画像」とも呼ぶ。)に対応する虚像が、ユーザに視認されることとなる。なお、ハーフミラー4は透過率と反射率とが概ね等しいが、このようなハーフミラー4を用いる代わりに、透過率と反射率とが等しくないようなミラー(所謂ビームスプリッタ)を用いても良い。ハーフミラー4は、本発明における「透過部材」の一例である。
 カメラ5は、制御部2の制御に基づき、HMD1の前方の景色を撮影し、撮影画像「Ic」を生成する。カメラ5は、生成した撮影画像Icを制御部2に供給する。カメラ5は、好適には、HMD1の長手方向における中央部分に設置され、HMD1の装着状態において、ユーザの両眼の間に位置するように設定される。このように、制御部2及びカメラ5は、本発明における「撮影手段」として機能する。
 入力部7は、ユーザの操作に基づく入力信号を生成して制御部2に送信する。入力部7は、例えばユーザが操作するためのボタンや十字キー及びボタンなどを有するリモートコントローラである。本実施例では、入力部7は、ユーザの操作に基づき、AR画像の位置調整の開始を指示する入力信号を生成したり、ユーザの操作量に応じたAR画像の表示位置の変更を指示する入力信号を生成したりする。このように、制御部2及び入力部7は、本発明における「調整手段」として機能する。
 制御部2は、図示しないCPUなどのプロセッサやRAMやROMなどのメモリを有しており、HMD1の全体的な制御を行う。例えば、制御部2は、ハーフミラー4を透して観察される景色に重畳させたAR画像をユーザに認識させるための制御を行う。つまり、AR表示のための制御を行う。
 具体的には、制御部2は、ハーフミラー4を透して観察される景色に含まれる所定のオブジェクト(「表示対象物」とも呼ぶ。)について、当該表示対象物の情報を示すAR画像を生成する。ここで、「AR画像」は、場所や、施設や、看板などの対象物についての情報を示す画像であり、アイコンや、タグや、コメントや、吹き出しなどによって表される。例えば、制御部2は、カメラ5の撮影画像Icを解析することで情報を表示すべき表示対象物を特定して、当該表示対象物についての情報を生成し、当該情報に対応するAR画像を生成する。他の例では、制御部2は、図示しないナビゲーション装置(スマートフォンなどの携帯型端末装置も含む)などから表示対象物についての情報を取得し、当該情報に対応するAR画像を生成する。
 さらに、制御部2は、AR画像に対応する虚像が、景色中の表示対象物に応じた位置にて認識されるように制御を行う。ここで、「表示対象物に応じた位置」とは、例えば表示対象物に重畳する位置や、表示対象物の近傍の位置が該当する。一般に、AR画像の表示位置は、両目の間隔の違い等に起因して、ユーザごとに適切な位置が異なる。従って、本実施例では、制御部2は、AR画像の表示位置(焦点位置)をユーザの操作に基づき適切に補正する。具体的には、制御部2は、入力部7へのユーザの操作量に応じて、光源ユニット3の光の出射方向を変更することなどにより、AR画像の表示位置を変更する。これについては、[AR画像位置調整]のセクションで詳しく説明する。
 図2は、HMD1の装着状態での正面図を示す。以後では、HMD1の長手方向を「X軸方向」、HMD1の短手方向を「Y軸方向」とし、各正方向を図2に示すように定める。
 図2に示すように、ユーザ10と対向する面と反対側にあるHMD1の正面には、マーカ6が貼り付けられている。マーカ6は、ユーザ10の視界を遮らないように、HMD1において光源ユニット3が光を出射可能な範囲を示す描画可能範囲「Rd」と重ならない位置に貼り付けられる。また、マーカ6は、好適には、取得した撮影画像Icから制御部2がマーカ6の位置を容易に認識できるように、HMD1等とは異なる色等を有する。マーカ6のX軸方向の幅「Wm」及びマーカ6を識別するための色などの情報は、制御部2のメモリにより予め記憶される。マーカ6は、本発明における「目印」の一例である。
 [AR画像位置調整]
 次に、AR画像の位置調整方法について説明する。概略的には、制御部2は、カメラ5が撮影してAR画像として表示したマーカ6の鏡像と、ハーフミラー4を透して観察したマーカ6の鏡像との位置合わせを、ユーザ10の操作に基づき行う。これにより、制御部2は、HMD1を装着したユーザ10に適したAR画像の表示位置を設定する。
 (1)処理概要
 まず、図3乃至図5を参照してAR画像の位置調整方法の概要を説明する。
 図3は、HMD1を装着したユーザ10が鏡8に正対した状態を示す。図3では、XY平面と垂直な方向であって、HMD1から鏡8に向かう方向をZ軸正方向とする。図3に示すように、ユーザ10は、まず、鏡8とマーカ6とが平行な位置となるように、鏡8に正対した状態で静止する。この状態では、ユーザ10は、ハーフミラー4を透してユーザ10及びマーカ6が付されたHMD1の鏡像を視認する。このとき、鏡8からマーカ6までの距離は、概ね鏡8からユーザ10の視点の距離(「調整対象距離Dtag」とも呼ぶ。)と一致する。即ち注視点距離は、ユーザ10の視点から鏡8までの距離の2倍となる。即ち、図3の両矢印90が示す幅は、調整対象距離Dtagの1/2に相当する。
 本実施例では、ユーザ10が鏡8に正対した状態でAR画像の位置調整を行うことで、ユーザ10と鏡8との距離の2倍の距離が調整対象距離Dtagとなる。従って、この場合、屋内等でAR画像の表示位置を調整する場合であっても、調整対象距離Dtagが過度に短くなるのを抑制することができる。また、ユーザ10が鏡8に正対した状態で後述するAR画像の位置調整を行うことで、ユーザ10がAR画像の位置調整時に無意識に動くのを防ぎ、高精度にAR画像の位置調整を行うことができる。
 次に、制御部2は、図3に示す状態でカメラ5から取得された撮影画像Icからマーカ6を認識し、撮影画像Ic内でのマーカ6のX軸方向における幅(「画像内マーカ幅」とも呼ぶ。)を測定する。そして、制御部2は、メモリに予め記憶したマーカ6の幅Wmと画像内マーカ幅とに基づき、所定のマップ又は式などを参照して、調整対象距離Dtagを算出する。上述のマップ及び式は、例えば実験又は理論的に定められ、制御部2のメモリに予め記憶される。算出した調整対象距離Dtagの用途については、[焦点距離の変化への対応]のセクションで詳しく説明する。
 図4(a)は、図3の状態で生成された撮影画像Icを示す。図4(a)の撮影画像Icには、説明の便宜上、縦中心線「91V」、横中心線「91H」、及びこれらの交点である中心点「91C」が示されている。図4(a)に示すように、撮影画像Icは、主に、鏡8の表示領域8Aと、HMD1の鏡像の表示領域1Aと、マーカ6の鏡像の表示領域6Aと、ユーザ10の鏡像の表示領域10Aとを有する。撮影画像Icでは、カメラ5の設置位置等に起因して、HMD1の鏡像の表示領域1Aが、撮影画像Icの縦中心線91Vからずれている。
 ここで、制御部2は、マーカ6の鏡像の表示領域6Aが画像の中心に位置するように撮影画像Icを切り出した画像(「トリミング画像It」とも呼ぶ。)を生成する。図4(b)は、マーカ6の鏡像の表示領域6Aが中心に位置するように撮影画像Icから切り取られたトリミング画像Itを示す。図4(b)に示すように、トリミング画像Itでは、縦中心線92V及び横中心線92Hとの交点である中心点92Cと、マーカ6の鏡像の表示領域6Aの中心とが重なっている。即ち、トリミング画像Itの中心点92Cには、マーカ6の鏡像の表示領域6Aが存在する。トリミング画像Itは、本発明における「調整用画像」の一例である。
 次に、制御部2は、トリミング画像ItをAR画像として表示する。図5(a)は、図4(b)に示すトリミング画像Itが表示された際のユーザ10の視界を示す。図5(a)に示すように、ユーザ10の視界には、AR画像であるトリミング画像Itと、HMD1を透して観察される鏡8と、鏡8内のHMD1の鏡像1Bと、マーカ6の鏡像6Bと、ユーザ10の鏡像10Bとが存在する。
 ここで、AR画像であるトリミング画像It内のマーカ6の表示領域6Aと、HMD1を透して観察されるマーカ6の鏡像6Bとにずれが生じている。従って、制御部2は、ユーザ10の入力部7への操作に基づき、トリミング画像It内のマーカ6の表示領域6Aが、HMD1を透して観察されるマーカ6の鏡像6Bの位置に一致させる。ここで、ユーザ10は、AR画像のXY平面内での平行移動及びXY平面内での回転移動等を指示する。これにより、制御部2は、入力部7から受信した入力信号に応じて光源ユニット3の位置調整などを行うことで、トリミング画像It内のマーカ6の表示領域6Aを、実際に観察されるマーカ6の鏡像6Bに重ねる。ここで、制御部2は、トリミング画像Itを、描画可能範囲Rdよりも小さい範囲に描画している。これにより、制御部2は、トリミング画像It内のマーカ6の表示領域6Aをマーカ6の鏡像6Bに重ねるための指示を行う操作を、容易に実行させることができる。
 図5(b)は、ユーザ10の入力部7への操作によりAR画像の表示位置が調整された後のユーザ10の視界を示す。図5(b)に示すように、この場合、トリミング画像It内のマーカ6の表示領域6Aは、実際に観察されるマーカ6の鏡像6Bと重なる位置に移動している。これにより、制御部2は、AR画像の表示位置を、ユーザ10に適した位置に調整することができる。
 なお、制御部2及びユーザ10は、上述した処理を、ユーザ10の右眼及び左眼の各々を対象にしてそれぞれ実行する。これにより、制御部2は、左眼若しくは右眼のいずれか一方又は両眼にAR画像を視認させる場合のいずれであっても、ユーザ10に適した表示位置でAR画像を表示させることができる。これについては、後述する図6のフローチャートで説明する。
 (2)フローチャート
 図6は、ユーザ10の操作手順及びそれに伴い制御部2が実行する処理手順を示すフローチャートの一例である。図6に示す例では、制御部2は、ユーザ10の両眼を対象に片眼ずつHMDの位置調整を行う。
 まず、HMD1を装着したユーザ10は、鏡8に正対する(ステップS201)。次に、ユーザ10は、AR画像の位置調整の開始を指示する操作を入力部7に対して行う(ステップS202)。これにより、HMD1の制御部2は、ステップS101以降の処理を開始する。
 そして、制御部2は、ステップS202の後、所定の片眼(例えば右眼)を対象にAR画像の位置調整を行う旨をユーザ10に通知する(ステップS101)。この場合、制御部2は、例えば図示しないスピーカにより、対象となる眼以外の眼を閉じる旨の音声案内を行う。これに従い、ユーザ10は、AR画像の表示位置の調整対象でない眼を閉じる(ステップS203)。
 次に、制御部2は、カメラ5が生成した撮影画像Ic(図4(a)参照)を取得する(ステップS102)。そして、制御部2は、撮影画像Ic内のマーカ6の幅である画像内マーカ幅に基づき、調整対象距離Dtagを算出する(ステップS103)。具体的には、制御部2は、予め記憶したマーカ6の幅Wmと、画像内マーカ幅とに基づき、所定の式などを用いて、調整対象距離Dtagを算出する。算出した調整対象距離Dtagの用途については、[焦点距離の変化への対応]のセクションで詳しく説明する。
 次に、制御部2は、マーカ6の表示領域6Aが中心となるように、撮影画像Icのトリミングを行う(ステップS104)。これにより、制御部2は、トリミング画像Itを生成する(図4(b)参照)。そして、制御部2は、トリミング画像ItをAR画像として表示する(ステップS105)。これにより、ユーザ10は、トリミング画像Itを視認した状態で、HMD1を透してマーカ6の鏡像6B等を視認する(図5(a)参照)。そして、制御部2は、好適には、ユーザ10に対し、後述するステップS204の操作を実行すべき旨の音声案内などを行う。
 次に、ユーザ10は、トリミング画像Itのマーカ6の表示領域6Aが、マーカ6の鏡像6Bと重なるように入力部7に対して操作を行う(ステップS204)。この場合、ユーザ10は、入力部7への操作により、AR画像のXY平面内での平行移動及びXY平面内での回転移動を制御部2に対して指示する。
 そして、制御部2は、入力部7から送信される入力信号に基づき、光源ユニット3の位置等を変更することで、AR画像であるトリミング画像Itの位置を変更する(ステップS106)。これにより、制御部2は、トリミング画像It内のマーカ6の表示領域6Aが、HMD1を透して観察されるマーカ6の鏡像6Bと重なる位置に、AR画像であるトリミング画像Itの位置を変更する(図5(b)参照)。このようにすることで、制御部2は、装着するユーザごとの個人差やHMD1の各部品のアライメント誤差等によらず、AR画像を装着者であるユーザ10に適した表示位置に設定することができる。そして、制御部2は、調整を行った片眼を特定する情報及びステップS103で算出した調整対象距離Dtagと共に、ステップS106実行後のAR画像の位置情報又はステップS106で調整したXY平面の移動量や回転角度などの調整情報をメモリに記憶する。
 次に、制御部2は、ユーザ10の両方の眼とも調整を行ったか否か判定する(ステップS107)。言い換えると、制御部2は、右眼及び左眼の各々に対し、ステップS102乃至ステップS106の処理を行ったか否か判定する。そして、ユーザ10の両方の眼とも調整を行った場合(ステップS107:Yes)、制御部2は、フローチャートの処理を終了する。この場合、同様に、ユーザ10は、AR画像の位置調整のための操作を終了する(ステップS205)。一方、ユーザ10の一方の眼に対するAR画像の位置調整を行っていない場合(ステップS107:No)、制御部2は、ステップS101へ処理を戻す。この場合、制御部2は、前回ステップS101で対象とした片眼(例えば右眼)とは異なる片眼を対象にAR画像位置の調整を行う旨の通知を行い(ステップS101)、ステップS102乃至ステップS106の処理を再度行う。また、この場合、ユーザ10は、ステップS203及びステップS204の処理を行う。
 このように、左眼及び右眼の両方について、それぞれAR画像の位置調整を行うことで、制御部2は、左眼若しくは右眼のいずれか一方又は両眼にAR画像を視認させる場合のいずれであっても、ユーザ10に適した表示位置でAR画像を表示することができる。
 [焦点距離の変化への対応]
 次に、種々の表示対象物にAR画像を重畳して表示させる場合のAR画像の位置調整について説明する。
 一般に、表示対象物によって当該表示対象物からユーザ10の視点までの距離(即ち焦点距離)が異なり、また、上述の距離が変化した場合、AR画像の適切な表示位置も変化する。これについて、図7を参照して説明する。
 図7(a)は、視点から表示対象物80までの距離が短い場合のAR画像の表示位置81を示し、図7(b)は、視点から表示対象物80までの距離が図7(a)の例よりも長い場合のAR画像の表示位置82を示す。なお、図7では、説明の便宜上、HMD1は、右眼に対応するAR画像のみを表示するものとする。
 図7に示すように、視点から表示対象物80までの距離に応じて、視線の方向が変化する。具体的には、図7(a)において視線とHMD1とがなす角度「D1」は、図7(b)において視線とHMD1とがなす角度「D2」よりも小さくなっている。このように、制御部2は、視点から表示対象物80までの距離が長い程、AR画像の表示位置をX軸においてHMD1の中心から離れて外側に向かう方向に移動させる必要がある。
 以上を勘案し、制御部2は、任意の表示対象物80に対してAR画像を表示する場合には、視点から表示対象物80までの距離を認識し、当該距離に応じて、AR画像の表示位置を移動させる。例えば、制御部2は、まず、図示しないGPS受信機から取得した現在位置情報と、メモリに記憶した地図情報などを参照して、表示対象物80の位置情報とに基づき、ユーザ10の位置から表示対象物80までの距離を算出する。次に、制御部2は、算出した距離と、図6でAR画像の位置調整を行った際の調整対象距離Dtagとの差又は比などに応じて、AR画像の表示位置を、図6の処理で設定した位置から移動させる。この場合、制御部2は、例えば、予め実験又は理論的に求めたマップ又は式を参照して、上述の差又は比によりAR画像の移動量を定める。
 これにより、制御部2は、視点から表示対象物80までの距離が変化した場合であっても、適切にAR画像の位置を適切な位置に移動させることができる。
 [変形例]
 以下、上述の実施例に好適な変形例について説明する。以下の変形例は、任意に組み合わせて上述の実施例に適用してもよい。
 (変形例1)
 HMD1は、装着状態においてユーザ10の左眼近傍に設置され、左眼に視認させるAR画像の位置調整を行うための左眼用カメラと、装着状態においてユーザ10の右眼近傍に設置され、右眼に視認させるAR画像の位置調整を行うための右眼用カメラとの2つを備えてもよい。この場合、HMD1は、左眼に視認させるAR画像の位置調整を行う場合には左眼用カメラにより撮影画像Icを生成してAR画像の位置調整処理を行い、右眼に視認させるAR画像の位置調整を行う場合には右眼用カメラにより撮影画像Icを生成してAR画像の位置調整処理を行う。これにより、HMD1は、より高精度にAR画像の位置調整を行うことができる。
 (変形例2)
 マーカ6は、HMD1に貼り付ける部材に限定されず、HMD1の正面に形成された突起した形状又は所定の色に着色された領域であってもよい。この場合であっても、制御部2は、上述の形状又は領域のX軸方向の幅を予め記憶しておく。これによっても、制御部2は、好適に、調整対象距離Dtagを算出することができる。
 (変形例3)
 マーカ6は、十字型に形成されていてもよい。これにより、ユーザは、図6のステップS204において、トリミング画像It内のマーカ6の表示領域6Aを、マーカ6の鏡像6Bに重ねる操作を行う際に、X軸方向の位置を揃え易くすることができる。
 本発明は、AR表示を行う装置に好適に適用することができる。
 1 ヘッドマウントディスプレイ(HMD)
 2 制御部
 3 光源ユニット
 4 ハーフミラー
 5 カメラ
 6 マーカ

Claims (9)

  1.  透過部材を介して観察される景色に、画像を重畳させて利用者に認識させるヘッドマウントディスプレイであって、
     前記利用者に認識させる画像を表示させる表示手段と、
     当該ヘッドマウントディスプレイを装着した前記利用者の鏡像の少なくとも一部である調整用画像を撮影する撮影手段と、
     前記表示手段によって前記調整用画像を表示させることで前記利用者に認識される前記調整用画像の前記風景中での位置と、前記透過部材を介して前記利用者に観察される前記鏡像の位置と、に基づいて、前記表示手段による前記画像の表示位置を前記利用者に調整させる調整手段と、
     を有することを特徴とするヘッドマウントディスプレイ。
  2.  前記調整手段は、前記透過部材を介して前記利用者に認識された前記調整用画像と、前記透過部材を介して前記利用者が観察する鏡像とが重複して認識されるように、前記画像の表示位置を前記利用者に調整させることを特徴とする請求項1に記載のヘッドマウントディスプレイ。
  3.  前記調整手段は、前記ヘッドマウントディスプレイに設けられた目印が中心に位置する前記調整用画像を表示させることを特徴とする請求項1または2に記載のヘッドマウントディスプレイ。
  4.  前記ヘッドマウントディスプレイに設けられた目印の大きさと、前記調整用画像内での前記目印の大きさとに基づき、前記目印から前記利用者の視点までの光路の距離を算出する算出手段を有し、
     前記表示手段は、前記光路の距離に基づいて、前記画像を表示させる位置を決定することを特徴とする請求項3に記載のヘッドマウントディスプレイ。
  5.  前記表示手段は、前記画像を描画するための光の一部を前記透過部材に反射させることで、前記利用者に前記画像を認識させることを特徴とする請求項1乃至4のいずれか一項に記載のヘッドマウントディスプレイ。
  6.  前記調整手段は、前記利用者の片眼ごとに、前記表示手段による前記画像の表示位置を前記利用者に調整させることを特徴とする請求項1乃至5のいずれか一項に記載のヘッドマウントディスプレイ。
  7.  前記撮影手段は、前記ヘッドマウントディスプレイの装着時に前記利用者の各眼の近傍にそれぞれ位置するカメラを有することを特徴とする請求項6に記載のヘッドマウントディスプレイ。
  8.  前記撮影手段は、前記ヘッドマウントディスプレイの長手方向における中央部分に設けられたカメラを有することを特徴とする請求項1乃至6のいずれか一項に記載のヘッドマウントディスプレイ。
  9.  透過部材を介して観察される景色に、画像を重畳させて利用者に認識させるヘッドマウントディスプレイが実行する表示方法であって、
     前記利用者に認識させる画像を表示させる表示工程と、
     当該ヘッドマウントディスプレイを装着した前記利用者の鏡像の少なくとも一部である調整用画像を撮影する撮影工程と、
     前記表示工程によって前記調整用画像を表示させることで前記利用者に認識される前記調整用画像の前記風景中での位置と、前記透過部材を介して前記利用者に観察される前記鏡像の位置と、に基づいて、前記表示工程による前記画像の表示位置を調整させる調整工程と、
    を有することを特徴とする表示方法。
PCT/JP2012/058119 2012-03-28 2012-03-28 ヘッドマウントディスプレイ及び表示方法 WO2013145147A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014507115A JP5960799B2 (ja) 2012-03-28 2012-03-28 ヘッドマウントディスプレイ及び表示方法
PCT/JP2012/058119 WO2013145147A1 (ja) 2012-03-28 2012-03-28 ヘッドマウントディスプレイ及び表示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/058119 WO2013145147A1 (ja) 2012-03-28 2012-03-28 ヘッドマウントディスプレイ及び表示方法

Publications (1)

Publication Number Publication Date
WO2013145147A1 true WO2013145147A1 (ja) 2013-10-03

Family

ID=49258513

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/058119 WO2013145147A1 (ja) 2012-03-28 2012-03-28 ヘッドマウントディスプレイ及び表示方法

Country Status (2)

Country Link
JP (1) JP5960799B2 (ja)
WO (1) WO2013145147A1 (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015213271A (ja) * 2014-05-07 2015-11-26 セイコーエプソン株式会社 画像表示装置
JP2016009912A (ja) * 2014-06-23 2016-01-18 富士通株式会社 キャリブレーション装置、キャリブレーション方法、表示制御装置および表示制御方法
JP2017102696A (ja) * 2015-12-02 2017-06-08 セイコーエプソン株式会社 頭部装着型表示装置およびコンピュータープログラム
JP2017107359A (ja) * 2015-12-09 2017-06-15 Kddi株式会社 眼鏡状の光学シースルー型の両眼のディスプレイにオブジェクトを表示する画像表示装置、プログラム及び方法
US10222876B2 (en) 2016-03-08 2019-03-05 Fujitsu Limited Display control system and method
US10613333B2 (en) 2017-02-28 2020-04-07 Seiko Epson Corporation Head-mounted display device, computer program, and control method for head-mounted display device
JP2020520487A (ja) * 2017-03-29 2020-07-09 ベステル エレクトロニク サナイー ベ ティカレト エー.エス. Vrインタラクションの改良された方法およびシステム
JP2021509482A (ja) * 2018-01-02 2021-03-25 ルムス エルティーディー. アクティブアライメントを備えた拡張現実ディスプレイおよび対応する方法
WO2022270455A1 (ja) * 2021-06-21 2022-12-29 ピクシーダストテクノロジーズ株式会社 表示制御装置、表示制御方法、及びプログラム
US11747635B2 (en) 2016-12-31 2023-09-05 Lumus Ltd. Eye tracker based on retinal imaging via light-guide optical element
US11822088B2 (en) 2021-05-19 2023-11-21 Lumus Ltd. Active optical engine
US11860369B2 (en) 2021-03-01 2024-01-02 Lumus Ltd. Optical system with compact coupling from a projector into a waveguide
US11886008B2 (en) 2021-08-23 2024-01-30 Lumus Ltd. Methods of fabrication of compound light-guide optical elements having embedded coupling-in reflectors

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000276613A (ja) * 1999-03-29 2000-10-06 Sony Corp 情報処理装置および情報処理方法
JP2008287588A (ja) * 2007-05-18 2008-11-27 Canon Inc 画像処理装置および方法
JP2009284175A (ja) * 2008-05-21 2009-12-03 Nippon Telegr & Teleph Corp <Ntt> 表示デバイスのキャリブレーション方法及び装置
JP2010156929A (ja) * 2009-01-05 2010-07-15 Toshiba Corp 表示装置
JP2011002753A (ja) * 2009-06-22 2011-01-06 Sony Corp 頭部装着型ディスプレイ、及び、頭部装着型ディスプレイにおける画像表示方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004289548A (ja) * 2003-03-24 2004-10-14 Olympus Corp 画像調整装置及び頭部装着型表示装置
WO2013128612A1 (ja) * 2012-03-01 2013-09-06 パイオニア株式会社 ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000276613A (ja) * 1999-03-29 2000-10-06 Sony Corp 情報処理装置および情報処理方法
JP2008287588A (ja) * 2007-05-18 2008-11-27 Canon Inc 画像処理装置および方法
JP2009284175A (ja) * 2008-05-21 2009-12-03 Nippon Telegr & Teleph Corp <Ntt> 表示デバイスのキャリブレーション方法及び装置
JP2010156929A (ja) * 2009-01-05 2010-07-15 Toshiba Corp 表示装置
JP2011002753A (ja) * 2009-06-22 2011-01-06 Sony Corp 頭部装着型ディスプレイ、及び、頭部装着型ディスプレイにおける画像表示方法

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015213271A (ja) * 2014-05-07 2015-11-26 セイコーエプソン株式会社 画像表示装置
JP2016009912A (ja) * 2014-06-23 2016-01-18 富士通株式会社 キャリブレーション装置、キャリブレーション方法、表示制御装置および表示制御方法
JP2017102696A (ja) * 2015-12-02 2017-06-08 セイコーエプソン株式会社 頭部装着型表示装置およびコンピュータープログラム
JP2017107359A (ja) * 2015-12-09 2017-06-15 Kddi株式会社 眼鏡状の光学シースルー型の両眼のディスプレイにオブジェクトを表示する画像表示装置、プログラム及び方法
US10222876B2 (en) 2016-03-08 2019-03-05 Fujitsu Limited Display control system and method
US11747635B2 (en) 2016-12-31 2023-09-05 Lumus Ltd. Eye tracker based on retinal imaging via light-guide optical element
US10613333B2 (en) 2017-02-28 2020-04-07 Seiko Epson Corporation Head-mounted display device, computer program, and control method for head-mounted display device
JP2020520487A (ja) * 2017-03-29 2020-07-09 ベステル エレクトロニク サナイー ベ ティカレト エー.エス. Vrインタラクションの改良された方法およびシステム
US11294450B2 (en) 2017-03-29 2022-04-05 Vestel Elektronik Sanayi Ve Ticaret A.S. Method and system for VR interaction
JP2021509482A (ja) * 2018-01-02 2021-03-25 ルムス エルティーディー. アクティブアライメントを備えた拡張現実ディスプレイおよび対応する方法
US11860369B2 (en) 2021-03-01 2024-01-02 Lumus Ltd. Optical system with compact coupling from a projector into a waveguide
US11822088B2 (en) 2021-05-19 2023-11-21 Lumus Ltd. Active optical engine
WO2022270455A1 (ja) * 2021-06-21 2022-12-29 ピクシーダストテクノロジーズ株式会社 表示制御装置、表示制御方法、及びプログラム
US11886008B2 (en) 2021-08-23 2024-01-30 Lumus Ltd. Methods of fabrication of compound light-guide optical elements having embedded coupling-in reflectors

Also Published As

Publication number Publication date
JPWO2013145147A1 (ja) 2015-08-03
JP5960799B2 (ja) 2016-08-02

Similar Documents

Publication Publication Date Title
JP5960799B2 (ja) ヘッドマウントディスプレイ及び表示方法
CN105589199B (zh) 显示装置、显示装置的控制方法以及程序
JP4686586B2 (ja) 車載用表示装置及び表示方法
JP6387825B2 (ja) 表示システム、及び、情報表示方法
JP4886751B2 (ja) 車載用表示システム及び表示方法
KR101845350B1 (ko) 두부 장착형 표시 장치 및 두부 장착형 표시 장치의 제어 방법
US8693103B2 (en) Display device and display method
US20160284129A1 (en) Display, control method of display, and program
US9076248B2 (en) Display apparatus
US10365710B2 (en) Head-mounted display device configured to display a visual element at a location derived from sensor data and perform calibration
JP2019159076A (ja) 頭部装着型表示装置、表示制御方法、およびコンピュータープログラム
JP2015060071A (ja) 画像表示装置、画像表示方法、および画像表示プログラム
JP2006308674A (ja) 画像表示装置
JP6590050B2 (ja) 表示装置、表示システム、表示装置の制御方法、及び、プログラム
JP2016085350A (ja) 表示装置、及び、表示装置の制御方法
JP2019109850A (ja) 透過型表示装置、表示制御方法、およびコンピュータープログラム
JP2015026286A (ja) 表示装置、表示システムおよび表示装置の制御方法
JP2016186561A (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP2018182570A (ja) 視線情報共有方法および視線情報共有システム
US10690923B1 (en) Scanning system for a tiling display
JP2006039359A (ja) 頭部装着型表示装置
JP4504160B2 (ja) 合成表示装置
WO2018147084A1 (ja) 視線情報共有方法および視線情報共有システム
JP2016090853A (ja) 表示装置、表示装置の制御方法、及び、プログラム
WO2013179425A1 (ja) 表示装置、ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12872713

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014507115

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12872713

Country of ref document: EP

Kind code of ref document: A1