JP5960799B2 - Head mounted display and display method - Google Patents

Head mounted display and display method Download PDF

Info

Publication number
JP5960799B2
JP5960799B2 JP2014507115A JP2014507115A JP5960799B2 JP 5960799 B2 JP5960799 B2 JP 5960799B2 JP 2014507115 A JP2014507115 A JP 2014507115A JP 2014507115 A JP2014507115 A JP 2014507115A JP 5960799 B2 JP5960799 B2 JP 5960799B2
Authority
JP
Japan
Prior art keywords
image
user
display
adjustment
mounted display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014507115A
Other languages
Japanese (ja)
Other versions
JPWO2013145147A1 (en
Inventor
佐々木 智子
智子 佐々木
小林 孝史
孝史 小林
新飼 康広
康広 新飼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corp filed Critical Pioneer Corp
Publication of JPWO2013145147A1 publication Critical patent/JPWO2013145147A1/en
Application granted granted Critical
Publication of JP5960799B2 publication Critical patent/JP5960799B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0129Head-up displays characterised by optical features comprising devices for correcting parallax
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0181Adaptation to the pilot/driver

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、情報を表示する技術に関する。   The present invention relates to a technique for displaying information.

近年、ヘッドマウントディスプレイなどの表示装置を用いて、所定の情報をユーザの前方の景色に重畳して表示させるAR(Augmented Reality)に関する技術が提案されている。例えば、特許文献1には、装着者の頭部の傾きを検知することで、AR画像の表示位置を変化させるヘッドマウントディスプレイが開示されている。   In recent years, there has been proposed a technique related to AR (Augmented Reality) in which predetermined information is displayed superimposed on a scene in front of a user using a display device such as a head-mounted display. For example, Patent Literature 1 discloses a head-mounted display that changes the display position of an AR image by detecting the tilt of the wearer's head.

特開2008−176096号公報JP 2008-176096 A

一般に、ユーザごとに視差等が異なることから、ヘッドマウントディスプレイによる画像(AR画像)の適切な表示位置は、ユーザごとに異なる。従って、特許文献1のように、装着者の頭部の傾きを検知することでは、ユーザごとの視差等の個人差に基づく画像の表示位置の調整を行うことができない。   Generally, since the parallax and the like are different for each user, the appropriate display position of the image (AR image) by the head mounted display is different for each user. Therefore, as in Patent Document 1, by detecting the inclination of the wearer's head, the display position of the image cannot be adjusted based on individual differences such as parallax for each user.

本発明は、上記のような課題を解決するためになされたものであり、画像の表示位置をユーザごとに適切な位置に調整可能なヘッドマウントディスプレイ及び表示方法を提供することを主な目的とする。   The present invention has been made to solve the above-described problems, and has as its main object to provide a head-mounted display and a display method capable of adjusting the display position of an image to an appropriate position for each user. To do.

請求項1に記載の発明は、透過部材を介して観察される景色に、画像を重畳させて利用者に認識させるヘッドマウントディスプレイであって、前記利用者に認識させる画像を表示させる表示手段と、当該ヘッドマウントディスプレイを装着した前記利用者の前方画像を撮影する撮影手段と、前記ヘッドマウントディスプレイにおいて、前記利用者と対向する面の反対面に設けられた目印と、前記撮影手段により撮影された前記前方画像一部み、前記利用者が鏡に向かっている際の前記前方画像に含まれる前記目印が中心に位置する調整用画像を生成して前記表示手段に表示させるとともに、前記調整用画像の表示位置の調整を受付ける調整手段と、を備えことを特徴とする。
The invention according to claim 1 is a head-mounted display that causes a user to recognize an image superimposed on a scene observed through a transmissive member, and that displays the image to be recognized by the user. Photographing means for photographing a front image of the user wearing the head mounted display, a mark provided on a surface opposite to the surface facing the user in the head mounted display, and photographing by the photographing means. viewed contains a part of the front image, with displays on the display means generate the adjustment image the said landmarks included in the front image located at the center when the user is heading in the mirror, and adjusting means for accepting an adjustment of the display position of the image for adjustment, characterized in that Ru comprising a.

また、請求項に記載の発明は、透過部材を介して観察される景色に、画像を重畳させて利用者に認識させるヘッドマウントディスプレイが実行する表示方法であって、当該ヘッドマウントディスプレイを装着した前記利用者の前方画像を撮影する撮影工程と、前記撮影工程により撮影された前記前方画像一部み、前記利用者が鏡に向かっている際の前記前方画像に含まれる前記目印が中心に位置する調整用画像を生成して表示手段に表示させるとともに、前記調整用画像の表示位置を調整する入力を受付ける調整工程と、を有し、記目印は、前記ヘッドマウントディスプレイにおいて、前記利用者と対向する面の反対面に設けられていることを特徴とする。 The invention according to claim 4 is a display method executed by a head mounted display that superimposes an image on a scene observed through a transmissive member and recognizes the user, and the head mounted display is mounted. a photographing step of photographing a front image of the user who, seeing containing a portion of the forward side image photographed by the photographing step, the mark which the user is included in the front image when heading to the mirror causes display on the display means generates the adjustment image but in the center, has an adjustment step of receiving an input for adjusting the display position of the image for adjustment, the pre-Symbol mark, in the head-mounted display It is provided on the surface opposite to the surface facing the user.

本実施例に係るヘッドマウントディスプレイの概略構成を示す。The schematic structure of the head mounted display which concerns on a present Example is shown. ヘッドマウントディスプレイの装着状態での正面図を示す。The front view in the mounting state of a head mounted display is shown. ヘッドマウントディスプレイを装着したユーザが鏡に正対した状態を示す。A state in which a user wearing a head mounted display faces the mirror is shown. 撮影画像及びトリミング画像を示す。A photographed image and a trimmed image are shown. トリミング画像が表示された際のユーザの視界を示す。The field of view of the user when a trimmed image is displayed is shown. ユーザの操作手順及びそれに伴い制御部が実行する処理手順を示すフローチャートである。It is a flowchart which shows a user's operation procedure and the process sequence which a control part performs in connection with it. 視点から表示対象物までの距離が短い場合及び長い場合のAR画像の表示位置をそれぞれ示す。The display positions of the AR image when the distance from the viewpoint to the display object is short and when the distance is long are shown.

本発明の1つの好適な実施形態では、透過部材を介して観察される景色に、画像を重畳させて利用者に認識させるヘッドマウントディスプレイであって、前記利用者に認識させる画像を表示させる表示手段と、当該ヘッドマウントディスプレイを装着した前記利用者の鏡像の少なくとも一部である調整用画像を撮影する撮影手段と、前記表示手段によって前記調整用画像を表示させることで前記利用者に認識される前記調整用画像の前記風景中での位置と、前記透過部材を介して前記利用者に観察される前記鏡像の位置と、に基づいて、前記表示手段によるAR画像の表示位置を前記利用者に調整させる調整手段と、を有する。   In one preferred embodiment of the present invention, a head-mounted display that superimposes an image on a scene observed through a transmissive member and allows the user to recognize the display, the display displaying the image to be recognized by the user. A user who is recognized by the user by displaying the adjustment image by means of the display means, a photographing means for photographing an adjustment image that is at least a part of a mirror image of the user wearing the head-mounted display, and the display means. Based on the position of the adjustment image in the landscape and the position of the mirror image observed by the user through the transmission member, the display position of the AR image by the display means is determined by the user. And adjusting means for adjusting.

上記ヘッドマウントディスプレイは、透過部材を介して観察される景色に、画像を重畳させて利用者に認識させ、表示手段と、撮影手段と、調整手段とを有する。表示手段は、利用者に認識させる画像(AR画像)を表示させる。撮影手段は、ヘッドマウントディスプレイを装着した利用者の、鏡像の少なくとも一部である調整用画像を撮影する。調整手段は、表示手段によって調整用画像を表示させることで利用者に認識される、調整用画像の風景中での位置と、透過部材を介して利用者に観察される鏡像の位置とに基づいて、AR画像の表示位置を利用者に調整させる。このようにすることで、ヘッドマウントディスプレイは、AR画像の表示位置をユーザごとに適切な位置に調整することができる。   The head-mounted display includes a display unit, a photographing unit, and an adjusting unit by superimposing an image on a scene observed through the transmissive member and allowing the user to recognize the image. The display means displays an image (AR image) that is recognized by the user. The imaging means captures an adjustment image that is at least a part of a mirror image of the user wearing the head mounted display. The adjustment means is based on the position of the adjustment image in the landscape recognized by the user by displaying the adjustment image on the display means and the position of the mirror image observed by the user via the transmission member. Then, the user adjusts the display position of the AR image. In this way, the head mounted display can adjust the display position of the AR image to an appropriate position for each user.

上記ヘッドマウントディスプレイの一態様では、前記調整手段は、前記透過部材を介して前記利用者に認識された前記調整用画像と、前記透過部材を介して前記利用者が観察する鏡像とが重複して認識されるように、前記画像の表示位置を前記利用者に調整させる。このようにすることで、ヘッドマウントディスプレイは、好適に、AR画像の表示位置のずれをユーザの視線位置に合わせて調整することができる。   In one aspect of the head-mounted display, the adjustment means includes an image for adjustment recognized by the user via the transmission member and a mirror image observed by the user via the transmission member. So that the user can adjust the display position of the image. By doing in this way, the head mounted display can adjust suitably the shift | offset | difference of the display position of AR image according to a user's eyes | visual_axis position.

上記ヘッドマウントディスプレイの他の一態様では、前記調整手段は、前記ヘッドマウントディスプレイに設けられた目印が中心に位置する前記調整用画像を表示させる。このようにすることで、ヘッドマウントディスプレイは、好適に、AR画像の表示位置のずれをユーザの視線位置に合わせて調整することができる。   In another aspect of the head mounted display, the adjustment unit displays the adjustment image in which a mark provided on the head mounted display is located at the center. By doing in this way, the head mounted display can adjust suitably the shift | offset | difference of the display position of AR image according to a user's eyes | visual_axis position.

上記ヘッドマウントディスプレイの他の一態様では、前記ヘッドマウントディスプレイに設けられた目印の大きさと、前記調整用画像内での前記目印の大きさとに基づき、前記目印から前記利用者の視点までの光路の距離を算出する算出手段を有し、前記表示手段は、前記光路の距離に基づいて、前記画像を表示させる位置を決定する。この態様により、ヘッドマウントディスプレイは、AR画像の表示位置を的確に定めることができる。   In another aspect of the head mounted display, an optical path from the mark to the user's viewpoint based on the size of the mark provided on the head mounted display and the size of the mark in the adjustment image. The display means determines a position for displaying the image based on the distance of the optical path. According to this aspect, the head mounted display can accurately determine the display position of the AR image.

上記ヘッドマウントディスプレイの他の一態様では、前記表示手段は、前記画像を描画するための光の一部を前記透過部材に反射させることで、前記利用者に前記画像を認識させる。このようにすることで、ヘッドマウントディスプレイは、好適に、AR画像の表示位置のずれをユーザの視線位置に合わせて調整することができる。   In another aspect of the head-mounted display, the display unit causes the user to recognize the image by reflecting a part of light for drawing the image to the transmissive member. By doing in this way, the head mounted display can adjust suitably the shift | offset | difference of the display position of AR image according to a user's eyes | visual_axis position.

上記ヘッドマウントディスプレイの他の一態様では、前記調整手段は、前記利用者の片眼ごとに、前記表示手段による前記画像の表示位置を前記利用者に調整させる。このようにすることで、いずれかの眼にAR画像を表示する場合や両眼にAR画像を表示する場合であっても、ヘッドマウントディスプレイは、AR画像の表示位置をユーザごとに適切な位置に設定することができる。   In another aspect of the head-mounted display, the adjustment unit causes the user to adjust the display position of the image by the display unit for each eye of the user. By doing in this way, even when an AR image is displayed on one of the eyes or an AR image is displayed on both eyes, the head mounted display sets the display position of the AR image to an appropriate position for each user. Can be set to

上記ヘッドマウントディスプレイの他の一態様では、前記撮影手段は、前記ヘッドマウントディスプレイの装着時に前記利用者の各眼の近傍にそれぞれ位置するカメラを有する。この態様により、ヘッドマウントディスプレイは、調整用画像を、AR画像を視認する眼の視点の近傍から撮影することができるため、より高精度にAR画像の表示位置を調整することができる。   In another aspect of the head-mounted display, the photographing unit includes a camera positioned in the vicinity of each eye of the user when the head-mounted display is mounted. According to this aspect, the head-mounted display can capture the adjustment image from the vicinity of the viewpoint of the eye viewing the AR image, so that the display position of the AR image can be adjusted with higher accuracy.

上記ヘッドマウントディスプレイの他の一態様では、前記撮影手段は、前記ヘッドマウントディスプレイの長手方向における中央部分に設けられたカメラを有する。この態様により、カメラは、ユーザのいずれの眼にも近い両眼の間の位置に配置されるため、ヘッドマウントディスプレイは、高精度にAR画像の表示位置を調整することができる。   In another aspect of the head mounted display, the photographing unit includes a camera provided at a central portion in the longitudinal direction of the head mounted display. According to this aspect, the camera is disposed at a position between both eyes close to either eye of the user, and thus the head mounted display can adjust the display position of the AR image with high accuracy.

本発明の他の好適な実施形態では、透過部材を介して観察される景色に、画像を重畳させて利用者に認識させるヘッドマウントディスプレイが実行する表示方法であって、前記利用者に認識させる画像を表示させる表示工程と、当該ヘッドマウントディスプレイを装着した前記利用者の鏡像の少なくとも一部である調整用画像を撮影する撮影工程と、前記表示工程によって前記調整用画像を表示させることで前記利用者に認識される前記調整用画像の前記風景中での位置と、前記透過部材を介して前記利用者に観察される前記鏡像の位置と、に基づいて、前記表示工程による前記画像の表示位置を調整させる調整工程と、を有する。ヘッドマウントディスプレイは、この表示方法を実行することで、AR画像の表示位置をユーザごとに適切な位置に調整することが可能となる。   In another preferred embodiment of the present invention, there is provided a display method executed by a head-mounted display that superimposes an image on a scene observed through a transmissive member so as to be recognized by the user, and allows the user to recognize the display method. A display step of displaying an image, a photographing step of photographing an adjustment image that is at least a part of a mirror image of the user wearing the head mounted display, and displaying the adjustment image by the display step. Display of the image by the display step based on the position in the landscape of the image for adjustment recognized by the user and the position of the mirror image observed by the user through the transmission member And an adjusting step for adjusting the position. The head mounted display can adjust the display position of the AR image to an appropriate position for each user by executing this display method.

以下、図面を参照して本発明の好適な実施例について説明する。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.

[装置構成]
図1は、本実施例に係るヘッドマウントディスプレイ1の一例を示した概略構成図である。以下では、ヘッドマウントディスプレイを適宜「HMD」と表記する。
[Device configuration]
FIG. 1 is a schematic configuration diagram illustrating an example of a head mounted display 1 according to the present embodiment. Hereinafter, the head-mounted display is appropriately expressed as “HMD”.

図1に示すように、HMD1は、主に、制御部2と、光源ユニット3と、ハーフミラー4と、カメラ5とを有する。HMD1は、例えば眼鏡型に構成されたシースルー型HMDであり、ユーザの頭部に装着可能に構成されている。また、HMD1は、例えばユーザの片眼にのみ画像を表示したり、両眼に対して画像を表示したりするように構成されている。   As shown in FIG. 1, the HMD 1 mainly includes a control unit 2, a light source unit 3, a half mirror 4, and a camera 5. The HMD 1 is a see-through type HMD configured in, for example, a glasses type, and is configured to be worn on the user's head. The HMD 1 is configured to display an image only on one eye of the user or display an image on both eyes, for example.

光源ユニット3は、制御部2によって生成された画像を構成する光を、ハーフミラー4に向けて出射する。例えば、光源ユニット3は、レーザ光源やLCD光源などを有しており、このような光源から光を出射する。このように、制御部2及び光源ユニット3は、本発明における「表示手段」として機能する。   The light source unit 3 emits light constituting the image generated by the control unit 2 toward the half mirror 4. For example, the light source unit 3 includes a laser light source, an LCD light source, and the like, and emits light from such a light source. Thus, the control unit 2 and the light source unit 3 function as “display means” in the present invention.

ハーフミラー4は、光源ユニット3からの光を、ユーザの眼球に向けて反射する。これにより、HMD1によって形成された画像(「AR画像」とも呼ぶ。)に対応する虚像が、ユーザに視認されることとなる。なお、ハーフミラー4は透過率と反射率とが概ね等しいが、このようなハーフミラー4を用いる代わりに、透過率と反射率とが等しくないようなミラー(所謂ビームスプリッタ)を用いても良い。ハーフミラー4は、本発明における「透過部材」の一例である。   The half mirror 4 reflects the light from the light source unit 3 toward the user's eyeball. Thereby, a virtual image corresponding to an image (also referred to as “AR image”) formed by the HMD 1 is visually recognized by the user. The half mirror 4 has substantially the same transmittance and reflectance, but instead of using such a half mirror 4, a mirror (so-called beam splitter) whose transmittance and reflectance are not equal may be used. . The half mirror 4 is an example of the “transmission member” in the present invention.

カメラ5は、制御部2の制御に基づき、HMD1の前方の景色を撮影し、撮影画像「Ic」を生成する。カメラ5は、生成した撮影画像Icを制御部2に供給する。カメラ5は、好適には、HMD1の長手方向における中央部分に設置され、HMD1の装着状態において、ユーザの両眼の間に位置するように設定される。このように、制御部2及びカメラ5は、本発明における「撮影手段」として機能する。   Based on the control of the control unit 2, the camera 5 captures a scene in front of the HMD 1 and generates a captured image “Ic”. The camera 5 supplies the generated captured image Ic to the control unit 2. The camera 5 is preferably installed at a central portion in the longitudinal direction of the HMD 1 and is set so as to be positioned between both eyes of the user when the HMD 1 is worn. In this way, the control unit 2 and the camera 5 function as “photographing means” in the present invention.

入力部7は、ユーザの操作に基づく入力信号を生成して制御部2に送信する。入力部7は、例えばユーザが操作するためのボタンや十字キー及びボタンなどを有するリモートコントローラである。本実施例では、入力部7は、ユーザの操作に基づき、AR画像の位置調整の開始を指示する入力信号を生成したり、ユーザの操作量に応じたAR画像の表示位置の変更を指示する入力信号を生成したりする。このように、制御部2及び入力部7は、本発明における「調整手段」として機能する。   The input unit 7 generates an input signal based on a user operation and transmits it to the control unit 2. The input unit 7 is a remote controller having, for example, a button for operation by a user, a cross key, and a button. In this embodiment, the input unit 7 generates an input signal for instructing start of AR image position adjustment based on a user's operation, or instructs to change the display position of the AR image according to the user's operation amount. Generate an input signal. Thus, the control unit 2 and the input unit 7 function as “adjusting means” in the present invention.

制御部2は、図示しないCPUなどのプロセッサやRAMやROMなどのメモリを有しており、HMD1の全体的な制御を行う。例えば、制御部2は、ハーフミラー4を透して観察される景色に重畳させたAR画像をユーザに認識させるための制御を行う。つまり、AR表示のための制御を行う。   The control unit 2 includes a processor such as a CPU (not shown) and a memory such as a RAM and a ROM, and performs overall control of the HMD 1. For example, the control unit 2 performs control for allowing the user to recognize an AR image superimposed on a scene observed through the half mirror 4. That is, control for AR display is performed.

具体的には、制御部2は、ハーフミラー4を透して観察される景色に含まれる所定のオブジェクト(「表示対象物」とも呼ぶ。)について、当該表示対象物の情報を示すAR画像を生成する。ここで、「AR画像」は、場所や、施設や、看板などの対象物についての情報を示す画像であり、アイコンや、タグや、コメントや、吹き出しなどによって表される。例えば、制御部2は、カメラ5の撮影画像Icを解析することで情報を表示すべき表示対象物を特定して、当該表示対象物についての情報を生成し、当該情報に対応するAR画像を生成する。他の例では、制御部2は、図示しないナビゲーション装置(スマートフォンなどの携帯型端末装置も含む)などから表示対象物についての情報を取得し、当該情報に対応するAR画像を生成する。   Specifically, for the predetermined object (also referred to as “display object”) included in the scenery observed through the half mirror 4, the control unit 2 displays an AR image indicating information on the display object. Generate. Here, the “AR image” is an image indicating information about an object such as a place, a facility, or a signboard, and is represented by an icon, a tag, a comment, a balloon, or the like. For example, the control unit 2 analyzes the captured image Ic of the camera 5 to identify a display object on which information is to be displayed, generates information about the display object, and selects an AR image corresponding to the information. Generate. In another example, the control unit 2 acquires information about a display object from a navigation device (including a portable terminal device such as a smartphone) (not shown) and generates an AR image corresponding to the information.

さらに、制御部2は、AR画像に対応する虚像が、景色中の表示対象物に応じた位置にて認識されるように制御を行う。ここで、「表示対象物に応じた位置」とは、例えば表示対象物に重畳する位置や、表示対象物の近傍の位置が該当する。一般に、AR画像の表示位置は、両目の間隔の違い等に起因して、ユーザごとに適切な位置が異なる。従って、本実施例では、制御部2は、AR画像の表示位置(焦点位置)をユーザの操作に基づき適切に補正する。具体的には、制御部2は、入力部7へのユーザの操作量に応じて、光源ユニット3の光の出射方向を変更することなどにより、AR画像の表示位置を変更する。これについては、[AR画像位置調整]のセクションで詳しく説明する。   Furthermore, the control unit 2 performs control so that the virtual image corresponding to the AR image is recognized at a position corresponding to the display target in the scenery. Here, the “position according to the display object” corresponds to, for example, a position superimposed on the display object or a position near the display object. In general, the display position of the AR image differs depending on the user because of the difference in the distance between the eyes. Therefore, in the present embodiment, the control unit 2 appropriately corrects the display position (focus position) of the AR image based on the user's operation. Specifically, the control unit 2 changes the display position of the AR image, for example, by changing the light emission direction of the light source unit 3 according to the operation amount of the user to the input unit 7. This will be described in detail in the section [AR image position adjustment].

図2は、HMD1の装着状態での正面図を示す。以後では、HMD1の長手方向を「X軸方向」、HMD1の短手方向を「Y軸方向」とし、各正方向を図2に示すように定める。   FIG. 2 shows a front view of the HMD 1 mounted. Hereinafter, the longitudinal direction of the HMD 1 is defined as “X-axis direction”, the lateral direction of the HMD 1 is defined as “Y-axis direction”, and each positive direction is determined as shown in FIG.

図2に示すように、ユーザ10と対向する面と反対側にあるHMD1の正面には、マーカ6が貼り付けられている。マーカ6は、ユーザ10の視界を遮らないように、HMD1において光源ユニット3が光を出射可能な範囲を示す描画可能範囲「Rd」と重ならない位置に貼り付けられる。また、マーカ6は、好適には、取得した撮影画像Icから制御部2がマーカ6の位置を容易に認識できるように、HMD1等とは異なる色等を有する。マーカ6のX軸方向の幅「Wm」及びマーカ6を識別するための色などの情報は、制御部2のメモリにより予め記憶される。マーカ6は、本発明における「目印」の一例である。   As shown in FIG. 2, a marker 6 is pasted on the front surface of the HMD 1 on the side opposite to the surface facing the user 10. The marker 6 is pasted at a position that does not overlap the drawable range “Rd” indicating the range in which the light source unit 3 can emit light in the HMD 1 so as not to obstruct the field of view of the user 10. The marker 6 preferably has a color or the like different from that of the HMD 1 or the like so that the control unit 2 can easily recognize the position of the marker 6 from the acquired photographed image Ic. Information such as the width “Wm” of the marker 6 in the X-axis direction and the color for identifying the marker 6 is stored in advance in the memory of the control unit 2. The marker 6 is an example of the “mark” in the present invention.

[AR画像位置調整]
次に、AR画像の位置調整方法について説明する。概略的には、制御部2は、カメラ5が撮影してAR画像として表示したマーカ6の鏡像と、ハーフミラー4を透して観察したマーカ6の鏡像との位置合わせを、ユーザ10の操作に基づき行う。これにより、制御部2は、HMD1を装着したユーザ10に適したAR画像の表示位置を設定する。
[AR image position adjustment]
Next, a method for adjusting the position of the AR image will be described. Schematically, the control unit 2 operates the user 10 to align the mirror image of the marker 6 captured by the camera 5 and displayed as an AR image with the mirror image of the marker 6 observed through the half mirror 4. Based on. Thereby, the control unit 2 sets the display position of the AR image suitable for the user 10 wearing the HMD 1.

(1)処理概要
まず、図3乃至図5を参照してAR画像の位置調整方法の概要を説明する。
(1) Processing Overview First, an overview of the AR image position adjustment method will be described with reference to FIGS. 3 to 5.

図3は、HMD1を装着したユーザ10が鏡8に正対した状態を示す。図3では、XY平面と垂直な方向であって、HMD1から鏡8に向かう方向をZ軸正方向とする。図3に示すように、ユーザ10は、まず、鏡8とマーカ6とが平行な位置となるように、鏡8に正対した状態で静止する。この状態では、ユーザ10は、ハーフミラー4を透してユーザ10及びマーカ6が付されたHMD1の鏡像を視認する。このとき、鏡8からマーカ6までの距離は、概ね鏡8からユーザ10の視点の距離(「調整対象距離Dtag」とも呼ぶ。)と一致する。即ち注視点距離は、ユーザ10の視点から鏡8までの距離の2倍となる。即ち、図3の両矢印90が示す幅は、調整対象距離Dtagの1/2に相当する。   FIG. 3 shows a state where the user 10 wearing the HMD 1 faces the mirror 8. In FIG. 3, the direction perpendicular to the XY plane and directed from the HMD 1 toward the mirror 8 is defined as a positive Z-axis direction. As shown in FIG. 3, the user 10 first stands still in a state of facing the mirror 8 so that the mirror 8 and the marker 6 are in a parallel position. In this state, the user 10 views the mirror image of the HMD 1 to which the user 10 and the marker 6 are attached through the half mirror 4. At this time, the distance from the mirror 8 to the marker 6 substantially matches the distance from the mirror 8 to the viewpoint of the user 10 (also referred to as “adjustment target distance Dtag”). That is, the gazing point distance is twice the distance from the viewpoint of the user 10 to the mirror 8. That is, the width indicated by the double arrow 90 in FIG. 3 corresponds to ½ of the adjustment target distance Dtag.

本実施例では、ユーザ10が鏡8に正対した状態でAR画像の位置調整を行うことで、ユーザ10と鏡8との距離の2倍の距離が調整対象距離Dtagとなる。従って、この場合、屋内等でAR画像の表示位置を調整する場合であっても、調整対象距離Dtagが過度に短くなるのを抑制することができる。また、ユーザ10が鏡8に正対した状態で後述するAR画像の位置調整を行うことで、ユーザ10がAR画像の位置調整時に無意識に動くのを防ぎ、高精度にAR画像の位置調整を行うことができる。   In the present embodiment, by adjusting the position of the AR image with the user 10 facing the mirror 8, the distance twice the distance between the user 10 and the mirror 8 becomes the adjustment target distance Dtag. Therefore, in this case, even when the display position of the AR image is adjusted indoors or the like, it is possible to suppress the adjustment target distance Dtag from becoming excessively short. Further, by adjusting the position of the AR image, which will be described later, with the user 10 facing the mirror 8, the user 10 can be prevented from moving unintentionally during the position adjustment of the AR image, and the position adjustment of the AR image can be performed with high accuracy. It can be carried out.

次に、制御部2は、図3に示す状態でカメラ5から取得された撮影画像Icからマーカ6を認識し、撮影画像Ic内でのマーカ6のX軸方向における幅(「画像内マーカ幅」とも呼ぶ。)を測定する。そして、制御部2は、メモリに予め記憶したマーカ6の幅Wmと画像内マーカ幅とに基づき、所定のマップ又は式などを参照して、調整対象距離Dtagを算出する。上述のマップ及び式は、例えば実験又は理論的に定められ、制御部2のメモリに予め記憶される。算出した調整対象距離Dtagの用途については、[焦点距離の変化への対応]のセクションで詳しく説明する。   Next, the control unit 2 recognizes the marker 6 from the captured image Ic acquired from the camera 5 in the state shown in FIG. 3, and the width in the X-axis direction of the marker 6 in the captured image Ic (“in-image marker width”). Is also measured.). Then, the control unit 2 calculates the adjustment target distance Dtag with reference to a predetermined map or expression based on the width Wm of the marker 6 and the marker width in the image stored in advance in the memory. The above-described map and expression are determined experimentally or theoretically, for example, and stored in advance in the memory of the control unit 2. The use of the calculated adjustment target distance Dtag will be described in detail in the section “Corresponding to Changes in Focal Length”.

図4(a)は、図3の状態で生成された撮影画像Icを示す。図4(a)の撮影画像Icには、説明の便宜上、縦中心線「91V」、横中心線「91H」、及びこれらの交点である中心点「91C」が示されている。図4(a)に示すように、撮影画像Icは、主に、鏡8の表示領域8Aと、HMD1の鏡像の表示領域1Aと、マーカ6の鏡像の表示領域6Aと、ユーザ10の鏡像の表示領域10Aとを有する。撮影画像Icでは、カメラ5の設置位置等に起因して、HMD1の鏡像の表示領域1Aが、撮影画像Icの縦中心線91Vからずれている。   FIG. 4A shows the captured image Ic generated in the state of FIG. In the captured image Ic of FIG. 4A, for the sake of convenience of explanation, a vertical center line “91V”, a horizontal center line “91H”, and a center point “91C” that is an intersection of these are shown. As shown in FIG. 4A, the captured image Ic mainly includes a display area 8A of the mirror 8, a mirror image display area 1A of the HMD 1, a mirror image display area 6A of the marker 6, and a mirror image of the user 10. Display area 10A. In the captured image Ic, the mirror image display area 1A of the HMD 1 is shifted from the vertical center line 91V of the captured image Ic due to the installation position of the camera 5 and the like.

ここで、制御部2は、マーカ6の鏡像の表示領域6Aが画像の中心に位置するように撮影画像Icを切り出した画像(「トリミング画像It」とも呼ぶ。)を生成する。図4(b)は、マーカ6の鏡像の表示領域6Aが中心に位置するように撮影画像Icから切り取られたトリミング画像Itを示す。図4(b)に示すように、トリミング画像Itでは、縦中心線92V及び横中心線92Hとの交点である中心点92Cと、マーカ6の鏡像の表示領域6Aの中心とが重なっている。即ち、トリミング画像Itの中心点92Cには、マーカ6の鏡像の表示領域6Aが存在する。トリミング画像Itは、本発明における「調整用画像」の一例である。   Here, the control unit 2 generates an image (also referred to as “trimming image It”) obtained by cutting out the captured image Ic so that the mirror image display area 6A of the marker 6 is located at the center of the image. FIG. 4B shows a trimmed image It cut from the captured image Ic so that the mirror image display area 6A of the marker 6 is located at the center. As shown in FIG. 4B, in the trimmed image It, the center point 92C, which is the intersection of the vertical center line 92V and the horizontal center line 92H, and the center of the mirror image display area 6A overlap. That is, the display area 6A of the mirror image of the marker 6 exists at the center point 92C of the trimmed image It. The trimmed image It is an example of the “adjustment image” in the present invention.

次に、制御部2は、トリミング画像ItをAR画像として表示する。図5(a)は、図4(b)に示すトリミング画像Itが表示された際のユーザ10の視界を示す。図5(a)に示すように、ユーザ10の視界には、AR画像であるトリミング画像Itと、HMD1を透して観察される鏡8と、鏡8内のHMD1の鏡像1Bと、マーカ6の鏡像6Bと、ユーザ10の鏡像10Bとが存在する。   Next, the control unit 2 displays the trimmed image It as an AR image. FIG. 5A shows the field of view of the user 10 when the trimmed image It shown in FIG. 4B is displayed. As shown in FIG. 5 (a), in the field of view of the user 10, a trimmed image It that is an AR image, a mirror 8 that is observed through the HMD1, a mirror image 1B of the HMD1 in the mirror 8, and a marker 6 Mirror image 6B of the user 10 and a mirror image 10B of the user 10 exist.

ここで、AR画像であるトリミング画像It内のマーカ6の表示領域6Aと、HMD1を透して観察されるマーカ6の鏡像6Bとにずれが生じている。従って、制御部2は、ユーザ10の入力部7への操作に基づき、トリミング画像It内のマーカ6の表示領域6Aが、HMD1を透して観察されるマーカ6の鏡像6Bの位置に一致させる。ここで、ユーザ10は、AR画像のXY平面内での平行移動及びXY平面内での回転移動等を指示する。これにより、制御部2は、入力部7から受信した入力信号に応じて光源ユニット3の位置調整などを行うことで、トリミング画像It内のマーカ6の表示領域6Aを、実際に観察されるマーカ6の鏡像6Bに重ねる。ここで、制御部2は、トリミング画像Itを、描画可能範囲Rdよりも小さい範囲に描画している。これにより、制御部2は、トリミング画像It内のマーカ6の表示領域6Aをマーカ6の鏡像6Bに重ねるための指示を行う操作を、容易に実行させることができる。   Here, there is a deviation between the display area 6A of the marker 6 in the trimming image It that is an AR image and the mirror image 6B of the marker 6 observed through the HMD 1. Therefore, the control unit 2 matches the display area 6A of the marker 6 in the trimming image It with the position of the mirror image 6B of the marker 6 observed through the HMD 1 based on the operation of the user 10 to the input unit 7. . Here, the user 10 instructs parallel movement of the AR image in the XY plane, rotational movement in the XY plane, and the like. Thereby, the control unit 2 adjusts the position of the light source unit 3 in accordance with the input signal received from the input unit 7, so that the display region 6 </ b> A of the marker 6 in the trimming image It is actually observed. 6 on the mirror image 6B. Here, the control unit 2 draws the trimmed image It in a range smaller than the drawable range Rd. Thereby, the control part 2 can perform easily operation which performs the instruction | indication for superimposing the display area 6A of the marker 6 in the trimming image It on the mirror image 6B of the marker 6. FIG.

図5(b)は、ユーザ10の入力部7への操作によりAR画像の表示位置が調整された後のユーザ10の視界を示す。図5(b)に示すように、この場合、トリミング画像It内のマーカ6の表示領域6Aは、実際に観察されるマーカ6の鏡像6Bと重なる位置に移動している。これにより、制御部2は、AR画像の表示位置を、ユーザ10に適した位置に調整することができる。   FIG. 5B shows the field of view of the user 10 after the display position of the AR image is adjusted by the user 10 operating the input unit 7. As shown in FIG. 5B, in this case, the display area 6A of the marker 6 in the trimmed image It has moved to a position overlapping the mirror image 6B of the marker 6 that is actually observed. Thereby, the control unit 2 can adjust the display position of the AR image to a position suitable for the user 10.

なお、制御部2及びユーザ10は、上述した処理を、ユーザ10の右眼及び左眼の各々を対象にしてそれぞれ実行する。これにより、制御部2は、左眼若しくは右眼のいずれか一方又は両眼にAR画像を視認させる場合のいずれであっても、ユーザ10に適した表示位置でAR画像を表示させることができる。これについては、後述する図6のフローチャートで説明する。   Note that the control unit 2 and the user 10 execute the above-described processing for each of the right eye and the left eye of the user 10. As a result, the control unit 2 can display the AR image at a display position suitable for the user 10 regardless of whether the AR image is visually recognized by either one of the left eye or the right eye or both eyes. . This will be described later with reference to the flowchart of FIG.

(2)フローチャート
図6は、ユーザ10の操作手順及びそれに伴い制御部2が実行する処理手順を示すフローチャートの一例である。図6に示す例では、制御部2は、ユーザ10の両眼を対象に片眼ずつHMDの位置調整を行う。
(2) Flowchart FIG. 6 is an example of a flowchart showing an operation procedure of the user 10 and a processing procedure executed by the control unit 2 in association therewith. In the example illustrated in FIG. 6, the control unit 2 adjusts the position of the HMD for each eye of the user 10.

まず、HMD1を装着したユーザ10は、鏡8に正対する(ステップS201)。次に、ユーザ10は、AR画像の位置調整の開始を指示する操作を入力部7に対して行う(ステップS202)。これにより、HMD1の制御部2は、ステップS101以降の処理を開始する。   First, the user 10 wearing the HMD 1 faces the mirror 8 (step S201). Next, the user 10 performs an operation for instructing the start of the position adjustment of the AR image on the input unit 7 (step S202). Thereby, the control part 2 of HMD1 starts the process after step S101.

そして、制御部2は、ステップS202の後、所定の片眼(例えば右眼)を対象にAR画像の位置調整を行う旨をユーザ10に通知する(ステップS101)。この場合、制御部2は、例えば図示しないスピーカにより、対象となる眼以外の眼を閉じる旨の音声案内を行う。これに従い、ユーザ10は、AR画像の表示位置の調整対象でない眼を閉じる(ステップS203)。   Then, after step S202, the control unit 2 notifies the user 10 that the position adjustment of the AR image is performed for a predetermined one eye (for example, the right eye) (step S101). In this case, the control unit 2 performs voice guidance for closing eyes other than the target eye using, for example, a speaker (not shown). Following this, the user 10 closes the eyes that are not the adjustment target of the display position of the AR image (step S203).

次に、制御部2は、カメラ5が生成した撮影画像Ic(図4(a)参照)を取得する(ステップS102)。そして、制御部2は、撮影画像Ic内のマーカ6の幅である画像内マーカ幅に基づき、調整対象距離Dtagを算出する(ステップS103)。具体的には、制御部2は、予め記憶したマーカ6の幅Wmと、画像内マーカ幅とに基づき、所定の式などを用いて、調整対象距離Dtagを算出する。算出した調整対象距離Dtagの用途については、[焦点距離の変化への対応]のセクションで詳しく説明する。   Next, the control unit 2 acquires a captured image Ic (see FIG. 4A) generated by the camera 5 (step S102). Then, the control unit 2 calculates the adjustment target distance Dtag based on the in-image marker width that is the width of the marker 6 in the captured image Ic (step S103). Specifically, the control unit 2 calculates the adjustment target distance Dtag using a predetermined formula based on the width Wm of the marker 6 stored in advance and the marker width in the image. The use of the calculated adjustment target distance Dtag will be described in detail in the section “Corresponding to Changes in Focal Length”.

次に、制御部2は、マーカ6の表示領域6Aが中心となるように、撮影画像Icのトリミングを行う(ステップS104)。これにより、制御部2は、トリミング画像Itを生成する(図4(b)参照)。そして、制御部2は、トリミング画像ItをAR画像として表示する(ステップS105)。これにより、ユーザ10は、トリミング画像Itを視認した状態で、HMD1を透してマーカ6の鏡像6B等を視認する(図5(a)参照)。そして、制御部2は、好適には、ユーザ10に対し、後述するステップS204の操作を実行すべき旨の音声案内などを行う。   Next, the control unit 2 trims the captured image Ic so that the display area 6A of the marker 6 is at the center (step S104). Thereby, the control part 2 produces | generates the trimming image It (refer FIG.4 (b)). Then, the control unit 2 displays the trimmed image It as an AR image (step S105). As a result, the user 10 visually recognizes the mirror image 6B of the marker 6 through the HMD 1 while viewing the trimmed image It (see FIG. 5A). Then, the control unit 2 preferably provides the user 10 with voice guidance indicating that an operation in step S204 described later should be executed.

次に、ユーザ10は、トリミング画像Itのマーカ6の表示領域6Aが、マーカ6の鏡像6Bと重なるように入力部7に対して操作を行う(ステップS204)。この場合、ユーザ10は、入力部7への操作により、AR画像のXY平面内での平行移動及びXY平面内での回転移動を制御部2に対して指示する。   Next, the user 10 operates the input unit 7 so that the display area 6A of the marker 6 of the trimmed image It overlaps the mirror image 6B of the marker 6 (step S204). In this case, the user 10 instructs the control unit 2 to perform parallel movement and rotational movement of the AR image in the XY plane by operating the input unit 7.

そして、制御部2は、入力部7から送信される入力信号に基づき、光源ユニット3の位置等を変更することで、AR画像であるトリミング画像Itの位置を変更する(ステップS106)。これにより、制御部2は、トリミング画像It内のマーカ6の表示領域6Aが、HMD1を透して観察されるマーカ6の鏡像6Bと重なる位置に、AR画像であるトリミング画像Itの位置を変更する(図5(b)参照)。このようにすることで、制御部2は、装着するユーザごとの個人差やHMD1の各部品のアライメント誤差等によらず、AR画像を装着者であるユーザ10に適した表示位置に設定することができる。そして、制御部2は、調整を行った片眼を特定する情報及びステップS103で算出した調整対象距離Dtagと共に、ステップS106実行後のAR画像の位置情報又はステップS106で調整したXY平面の移動量や回転角度などの調整情報をメモリに記憶する。   And the control part 2 changes the position of the trimming image It which is AR image by changing the position etc. of the light source unit 3 based on the input signal transmitted from the input part 7 (step S106). As a result, the control unit 2 changes the position of the trimming image It that is the AR image to a position where the display area 6A of the marker 6 in the trimming image It overlaps with the mirror image 6B of the marker 6 that is observed through the HMD1. (See FIG. 5B). In this way, the control unit 2 sets the AR image at a display position suitable for the user 10 who is the wearer, regardless of individual differences for each wearing user, alignment errors of each component of the HMD 1, and the like. Can do. Then, the control unit 2 includes the position information of the AR image after execution of step S106 or the amount of movement of the XY plane adjusted in step S106 together with the information for specifying the adjusted one eye and the adjustment target distance Dtag calculated in step S103. And adjustment information such as rotation angle is stored in the memory.

次に、制御部2は、ユーザ10の両方の眼とも調整を行ったか否か判定する(ステップS107)。言い換えると、制御部2は、右眼及び左眼の各々に対し、ステップS102乃至ステップS106の処理を行ったか否か判定する。そして、ユーザ10の両方の眼とも調整を行った場合(ステップS107:Yes)、制御部2は、フローチャートの処理を終了する。この場合、同様に、ユーザ10は、AR画像の位置調整のための操作を終了する(ステップS205)。一方、ユーザ10の一方の眼に対するAR画像の位置調整を行っていない場合(ステップS107:No)、制御部2は、ステップS101へ処理を戻す。この場合、制御部2は、前回ステップS101で対象とした片眼(例えば右眼)とは異なる片眼を対象にAR画像位置の調整を行う旨の通知を行い(ステップS101)、ステップS102乃至ステップS106の処理を再度行う。また、この場合、ユーザ10は、ステップS203及びステップS204の処理を行う。   Next, the control unit 2 determines whether or not both eyes of the user 10 have been adjusted (step S107). In other words, the control unit 2 determines whether or not the processing from step S102 to step S106 has been performed for each of the right eye and the left eye. And when both eyes of the user 10 are adjusted (step S107: Yes), the control part 2 complete | finishes the process of a flowchart. In this case, similarly, the user 10 ends the operation for adjusting the position of the AR image (step S205). On the other hand, when the position adjustment of the AR image with respect to one eye of the user 10 is not performed (step S107: No), the control unit 2 returns the process to step S101. In this case, the control unit 2 notifies that the AR image position is adjusted for one eye different from the one eye (for example, the right eye) targeted in the previous step S101 (step S101). The process of step S106 is performed again. In this case, the user 10 performs the processes of step S203 and step S204.

このように、左眼及び右眼の両方について、それぞれAR画像の位置調整を行うことで、制御部2は、左眼若しくは右眼のいずれか一方又は両眼にAR画像を視認させる場合のいずれであっても、ユーザ10に適した表示位置でAR画像を表示することができる。   In this way, by adjusting the position of the AR image for both the left eye and the right eye, the control unit 2 can control either the left eye or the right eye or both eyes when viewing the AR image. Even so, the AR image can be displayed at a display position suitable for the user 10.

[焦点距離の変化への対応]
次に、種々の表示対象物にAR画像を重畳して表示させる場合のAR画像の位置調整について説明する。
[Responding to changes in focal length]
Next, the adjustment of the position of the AR image when displaying the AR image superimposed on various display objects will be described.

一般に、表示対象物によって当該表示対象物からユーザ10の視点までの距離(即ち焦点距離)が異なり、また、上述の距離が変化した場合、AR画像の適切な表示位置も変化する。これについて、図7を参照して説明する。   Generally, the distance (that is, the focal length) from the display object to the viewpoint of the user 10 differs depending on the display object, and when the above-described distance changes, the appropriate display position of the AR image also changes. This will be described with reference to FIG.

図7(a)は、視点から表示対象物80までの距離が短い場合のAR画像の表示位置81を示し、図7(b)は、視点から表示対象物80までの距離が図7(a)の例よりも長い場合のAR画像の表示位置82を示す。なお、図7では、説明の便宜上、HMD1は、右眼に対応するAR画像のみを表示するものとする。   FIG. 7A shows the display position 81 of the AR image when the distance from the viewpoint to the display object 80 is short, and FIG. 7B shows the distance from the viewpoint to the display object 80 shown in FIG. The display position 82 of the AR image when it is longer than the example of FIG. In FIG. 7, for convenience of explanation, it is assumed that the HMD 1 displays only an AR image corresponding to the right eye.

図7に示すように、視点から表示対象物80までの距離に応じて、視線の方向が変化する。具体的には、図7(a)において視線とHMD1とがなす角度「D1」は、図7(b)において視線とHMD1とがなす角度「D2」よりも小さくなっている。このように、制御部2は、視点から表示対象物80までの距離が長い程、AR画像の表示位置をX軸においてHMD1の中心から離れて外側に向かう方向に移動させる必要がある。   As shown in FIG. 7, the direction of the line of sight changes according to the distance from the viewpoint to the display object 80. Specifically, the angle “D1” formed between the line of sight and the HMD1 in FIG. 7A is smaller than the angle “D2” formed between the line of sight and the HMD1 in FIG. Thus, as the distance from the viewpoint to the display object 80 is longer, the control unit 2 needs to move the display position of the AR image in the direction away from the center of the HMD 1 on the X axis.

以上を勘案し、制御部2は、任意の表示対象物80に対してAR画像を表示する場合には、視点から表示対象物80までの距離を認識し、当該距離に応じて、AR画像の表示位置を移動させる。例えば、制御部2は、まず、図示しないGPS受信機から取得した現在位置情報と、メモリに記憶した地図情報などを参照して、表示対象物80の位置情報とに基づき、ユーザ10の位置から表示対象物80までの距離を算出する。次に、制御部2は、算出した距離と、図6でAR画像の位置調整を行った際の調整対象距離Dtagとの差又は比などに応じて、AR画像の表示位置を、図6の処理で設定した位置から移動させる。この場合、制御部2は、例えば、予め実験又は理論的に求めたマップ又は式を参照して、上述の差又は比によりAR画像の移動量を定める。   Considering the above, when displaying an AR image on an arbitrary display object 80, the control unit 2 recognizes the distance from the viewpoint to the display object 80, and determines the AR image according to the distance. Move the display position. For example, the control unit 2 first refers to the current position information acquired from a GPS receiver (not shown), the map information stored in the memory, and the like from the position of the user 10 based on the position information of the display object 80. The distance to the display object 80 is calculated. Next, the control unit 2 determines the display position of the AR image according to the difference or ratio between the calculated distance and the adjustment target distance Dtag when the AR image position adjustment is performed in FIG. Move from the position set in the process. In this case, the control unit 2 determines the movement amount of the AR image based on the above-described difference or ratio with reference to, for example, a map or formula obtained in advance by experiment or theory.

これにより、制御部2は、視点から表示対象物80までの距離が変化した場合であっても、適切にAR画像の位置を適切な位置に移動させることができる。   Thereby, the control unit 2 can appropriately move the position of the AR image to an appropriate position even when the distance from the viewpoint to the display object 80 changes.

[変形例]
以下、上述の実施例に好適な変形例について説明する。以下の変形例は、任意に組み合わせて上述の実施例に適用してもよい。
[Modification]
Hereinafter, modified examples suitable for the above-described embodiments will be described. The following modifications may be applied in any combination to the above-described embodiments.

(変形例1)
HMD1は、装着状態においてユーザ10の左眼近傍に設置され、左眼に視認させるAR画像の位置調整を行うための左眼用カメラと、装着状態においてユーザ10の右眼近傍に設置され、右眼に視認させるAR画像の位置調整を行うための右眼用カメラとの2つを備えてもよい。この場合、HMD1は、左眼に視認させるAR画像の位置調整を行う場合には左眼用カメラにより撮影画像Icを生成してAR画像の位置調整処理を行い、右眼に視認させるAR画像の位置調整を行う場合には右眼用カメラにより撮影画像Icを生成してAR画像の位置調整処理を行う。これにより、HMD1は、より高精度にAR画像の位置調整を行うことができる。
(Modification 1)
The HMD 1 is installed in the vicinity of the left eye of the user 10 in the wearing state and is installed in the vicinity of the right eye of the user 10 in the wearing state and a left-eye camera for adjusting the position of the AR image that is visually recognized by the left eye. You may provide two with the camera for right eyes for adjusting the position of AR image visually recognized by eyes. In this case, when the position of the AR image to be visually recognized by the left eye is adjusted, the HMD 1 generates a captured image Ic by the left-eye camera and performs an AR image position adjustment process, and the AR image to be visually recognized by the right eye. When the position adjustment is performed, the captured image Ic is generated by the right-eye camera and the AR image position adjustment process is performed. Thereby, the HMD 1 can adjust the position of the AR image with higher accuracy.

(変形例2)
マーカ6は、HMD1に貼り付ける部材に限定されず、HMD1の正面に形成された突起した形状又は所定の色に着色された領域であってもよい。この場合であっても、制御部2は、上述の形状又は領域のX軸方向の幅を予め記憶しておく。これによっても、制御部2は、好適に、調整対象距離Dtagを算出することができる。
(Modification 2)
The marker 6 is not limited to a member attached to the HMD 1 and may be a protruding shape formed on the front surface of the HMD 1 or a region colored in a predetermined color. Even in this case, the control unit 2 stores in advance the width in the X-axis direction of the above-described shape or region. Also by this, the control part 2 can calculate the adjustment object distance Dtag suitably.

(変形例3)
マーカ6は、十字型に形成されていてもよい。これにより、ユーザは、図6のステップS204において、トリミング画像It内のマーカ6の表示領域6Aを、マーカ6の鏡像6Bに重ねる操作を行う際に、X軸方向の位置を揃え易くすることができる。
(Modification 3)
The marker 6 may be formed in a cross shape. Accordingly, the user can easily align the position in the X-axis direction when performing an operation of superimposing the display area 6A of the marker 6 in the trimmed image It on the mirror image 6B of the marker 6 in step S204 of FIG. it can.

本発明は、AR表示を行う装置に好適に適用することができる。   The present invention can be suitably applied to an apparatus that performs AR display.

1 ヘッドマウントディスプレイ(HMD)
2 制御部
3 光源ユニット
4 ハーフミラー
5 カメラ
6 マーカ
1 Head mounted display (HMD)
2 Control unit 3 Light source unit 4 Half mirror 5 Camera 6 Marker

Claims (4)

透過部材を介して観察される景色に、画像を重畳させて利用者に認識させるヘッドマウントディスプレイであって、
前記利用者に認識させる画像を表示させる表示手段と、
当該ヘッドマウントディスプレイを装着した前記利用者の前方画像を撮影する撮影手段と、
前記ヘッドマウントディスプレイにおいて、前記利用者と対向する面の反対面に設けられた目印と、
前記撮影手段により撮影された前記前方画像一部み、前記利用者が鏡に向かっている際の前記前方画像に含まれる前記目印が中心に位置する調整用画像を生成して前記表示手段に表示させるとともに、前記調整用画像の表示位置の調整を受付ける調整手段と、
を備えことを特徴とするヘッドマウントディスプレイ。
A head-mounted display that allows a user to recognize an image by superimposing an image on a scene observed through a transmissive member,
Display means for displaying an image to be recognized by the user;
Photographing means for photographing a front image of the user wearing the head mounted display;
In the head mounted display, a mark provided on the opposite surface of the surface facing the user,
The portion of the forward side image photographed by the photographing means seen including, said display and generates an adjustment image the landmarks the user is included in the front image when heading to the mirror is located at the center Adjusting means for displaying on the means and receiving adjustment of the display position of the adjustment image;
Head-mounted display, characterized in that Ru comprising a.
前記調整手段は、前記利用者の片眼ごとに、前記表示手段による前記調整用画像の表示位置を調整する入力を受け付けることを特徴とする請求項に記載のヘッドマウントディスプレイ。 The head mounted display according to claim 1 , wherein the adjustment unit receives an input for adjusting a display position of the adjustment image by the display unit for each eye of the user. 前記撮影手段は、前記ヘッドマウントディスプレイの装着時に前記利用者の各眼の近傍にそれぞれ位置するカメラを有することを特徴とする請求項に記載のヘッドマウントディスプレイ。 The head-mounted display according to claim 2 , wherein the photographing unit includes a camera positioned in the vicinity of each eye of the user when the head-mounted display is mounted. 透過部材を介して観察される景色に、画像を重畳させて利用者に認識させるヘッドマウントディスプレイが実行する表示方法であって、
当該ヘッドマウントディスプレイを装着した前記利用者の前方画像を撮影する撮影工程と、
前記撮影工程により撮影された前記前方画像一部み、前記利用者が鏡に向かっている際の前記前方画像に含まれる前記目印が中心に位置する調整用画像を生成して表示手段に表示させるとともに、前記調整用画像の表示位置を調整する入力を受付ける調整工程と、
を有し、
記目印は、前記ヘッドマウントディスプレイにおいて、前記利用者と対向する面の反対面に設けられていることを特徴とする表示方法。
A display method executed by a head mounted display that superimposes an image on a scene observed through a transmissive member and recognizes the user,
A photographing step of photographing a front image of the user wearing the head mounted display;
Said portion only free captured the forward side image photographed by the process, displaying the user generates an adjustment image the landmarks located in the center included in the front image when heading to the mirror means And an adjustment process for receiving an input for adjusting the display position of the adjustment image,
Have
Before SL indicia, display method in the head-mounted display, characterized in that provided on the opposite face of the user and the surface facing.
JP2014507115A 2012-03-28 2012-03-28 Head mounted display and display method Active JP5960799B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/058119 WO2013145147A1 (en) 2012-03-28 2012-03-28 Head mounted display and display method

Publications (2)

Publication Number Publication Date
JPWO2013145147A1 JPWO2013145147A1 (en) 2015-08-03
JP5960799B2 true JP5960799B2 (en) 2016-08-02

Family

ID=49258513

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014507115A Active JP5960799B2 (en) 2012-03-28 2012-03-28 Head mounted display and display method

Country Status (2)

Country Link
JP (1) JP5960799B2 (en)
WO (1) WO2013145147A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10613333B2 (en) 2017-02-28 2020-04-07 Seiko Epson Corporation Head-mounted display device, computer program, and control method for head-mounted display device

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6364936B2 (en) * 2014-05-07 2018-08-01 セイコーエプソン株式会社 Image display device
JP6394107B2 (en) * 2014-06-23 2018-09-26 富士通株式会社 Calibration apparatus, calibration method, display control apparatus, and display control method
JP6701694B2 (en) * 2015-12-02 2020-05-27 セイコーエプソン株式会社 Head-mounted display and computer program
JP6509101B2 (en) * 2015-12-09 2019-05-08 Kddi株式会社 Image display apparatus, program and method for displaying an object on a spectacle-like optical see-through type binocular display
JP6711033B2 (en) 2016-03-08 2020-06-17 富士通株式会社 Display control method, communication device, display control program, and display control device
WO2018122859A1 (en) 2016-12-31 2018-07-05 Lumus Ltd. Eye tracker based on retinal imaging via light-guide optical element
US11294450B2 (en) 2017-03-29 2022-04-05 Vestel Elektronik Sanayi Ve Ticaret A.S. Method and system for VR interaction
IL275615B (en) 2018-01-02 2022-08-01 Lumus Ltd Augmented reality displays with active alignment and corresponding methods
EP4237903B1 (en) 2021-03-01 2024-09-04 Lumus Ltd. Optical system with compact coupling from a projector into a waveguide
EP4232868A4 (en) 2021-05-19 2024-04-17 Lumus Ltd. Active optical engine
WO2022270455A1 (en) * 2021-06-21 2022-12-29 ピクシーダストテクノロジーズ株式会社 Display control device, display control method, and program
IL310952A (en) 2021-08-23 2024-04-01 Lumus Ltd Methods of fabrication of compound light-guide optical elements having embedded coupling-inreflectors

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000276613A (en) * 1999-03-29 2000-10-06 Sony Corp Device and method for processing information
JP2004289548A (en) * 2003-03-24 2004-10-14 Olympus Corp Image adjuster and head-mounted display device
JP4892405B2 (en) * 2007-05-18 2012-03-07 キヤノン株式会社 Image processing apparatus and method
JP4681629B2 (en) * 2008-05-21 2011-05-11 日本電信電話株式会社 Display device calibration method and apparatus
JP5259429B2 (en) * 2009-01-05 2013-08-07 株式会社東芝 Display device
JP5402293B2 (en) * 2009-06-22 2014-01-29 ソニー株式会社 Head-mounted display and image display method in head-mounted display
WO2013128612A1 (en) * 2012-03-01 2013-09-06 パイオニア株式会社 Head mounted display, calibration method, calibration program, and recording medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10613333B2 (en) 2017-02-28 2020-04-07 Seiko Epson Corporation Head-mounted display device, computer program, and control method for head-mounted display device

Also Published As

Publication number Publication date
WO2013145147A1 (en) 2013-10-03
JPWO2013145147A1 (en) 2015-08-03

Similar Documents

Publication Publication Date Title
JP5960799B2 (en) Head mounted display and display method
CN105589199B (en) Display device, control method for display device, and program
JP4886751B2 (en) In-vehicle display system and display method
JP4686586B2 (en) In-vehicle display device and display method
KR101845350B1 (en) Head-mounted display device, control method of head-mounted display device, and display system
JP7087481B2 (en) Head-mounted display device, display control method, and computer program
US10657722B2 (en) Transmissive display device, display control method, and computer program
US20120170130A1 (en) Display device and display method
US10304253B2 (en) Computer program, object tracking method, and display device
US20130181982A1 (en) Display apparatus
US20180373318A1 (en) Head-mounted display device configured to display a visual element at a location derived from sensor data and perform calibration
US9563058B2 (en) Display device, display method, and readable medium
JP2016126365A (en) Display system, display device, information display method, and program
JP2015060071A (en) Image display device, image display method, and image display program
JP2012198149A (en) Single-eye head-mounted display
JP2019109850A (en) Transmissive display device, display control method, and computer program
JP6590050B2 (en) Display device, display system, display device control method, and program
JP2018182570A (en) Line-of-sight information sharing method and line-of-sight information sharing system
JP2015026286A (en) Display device, display system and control method of display device
JP2016186561A (en) Display device, control method for display device, and program
JP2016122177A (en) Display device and control method of display device
JP4370997B2 (en) Head-mounted display device
JP4504160B2 (en) Composite display device
JP2016090853A (en) Display device, control method of display device and program
WO2013179425A1 (en) Display device, head-mounted display, calibration method, calibration program, and recording medium

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150924

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160623

R150 Certificate of patent or registration of utility model

Ref document number: 5960799

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150