JP6349660B2 - Image display device, image display method, and image display program - Google Patents

Image display device, image display method, and image display program Download PDF

Info

Publication number
JP6349660B2
JP6349660B2 JP2013193535A JP2013193535A JP6349660B2 JP 6349660 B2 JP6349660 B2 JP 6349660B2 JP 2013193535 A JP2013193535 A JP 2013193535A JP 2013193535 A JP2013193535 A JP 2013193535A JP 6349660 B2 JP6349660 B2 JP 6349660B2
Authority
JP
Japan
Prior art keywords
reference position
feature point
observer
content information
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013193535A
Other languages
Japanese (ja)
Other versions
JP2015060071A (en
Inventor
壮功 北田
壮功 北田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2013193535A priority Critical patent/JP6349660B2/en
Publication of JP2015060071A publication Critical patent/JP2015060071A/en
Application granted granted Critical
Publication of JP6349660B2 publication Critical patent/JP6349660B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、画像表示装置、画像表示方法、および画像表示プログラムに関する。   The present invention relates to an image display device, an image display method, and an image display program.

近年、現実の環境に付加的な情報を重畳させて表示する拡張現実(AR:Augmen
ted Reality)と呼ばれる技術が注目されている。AR技術を用いれば、現実
の環境に、案内、広告などの各種コンテンツ(「AR画像」とも称する)を重ね合わせて表示できる。AR技術を用いた代表的な装置としては、シースルー型のヘッドマウントディスプレイ(HMD:Head Mounted Display)などがある。
In recent years, augmented reality (AR: Augmen) displays additional information superimposed on the real environment.
A technique called “ted Reality” has attracted attention. If AR technology is used, various contents (also referred to as “AR images”) such as guidance and advertisements can be superimposed and displayed in an actual environment. As a typical apparatus using the AR technology, there is a see-through type head mounted display (HMD).

一般的に、ヘッドマウントディスプレイには、外界を撮像するためのカメラが設けられている。たとえば、カメラによって撮像された画像は、ヘッドマウントディスプレイを頭部に装着している観察者(ユーザー)が観察している外界を認識して、適切な位置にAR画像を表示させるために利用される。   In general, a head-mounted display is provided with a camera for imaging the outside world. For example, an image captured by a camera is used for recognizing the outside world observed by an observer (user) wearing a head-mounted display on the head and displaying an AR image at an appropriate position. The

このとき、カメラによって撮像された画像から認識される外界と、観察者が実際に観察している外界と、にずれが生じると、意図した位置にAR画像を表示できない。そこで、このようなずれが生じないようにするために、観察者の視線方向とカメラの撮像方向を、完全に一致させたいという要望がある。   At this time, if there is a difference between the external world recognized from the image captured by the camera and the external world actually observed by the observer, the AR image cannot be displayed at the intended position. Therefore, in order to prevent such a shift, there is a desire to completely match the observer's line-of-sight direction with the camera's imaging direction.

しかし、ヘッドマウントディスプレイにおいて、観察者の視線方向と、カメラの撮像方向と、を完全に一致させようとすると、複雑な光学系になる。そのため、カメラは、観察者の視線上ではない位置(たとえば、ヘッドマウントディスプレイのフレーム部分など)に設置されることが多い。   However, in the head-mounted display, if the observer's line-of-sight direction and the imaging direction of the camera are made to coincide completely, a complicated optical system is obtained. Therefore, the camera is often installed at a position that is not on the observer's line of sight (for example, a frame portion of a head-mounted display).

このような位置にカメラが設置されると、当然ながら、カメラによって撮像された画像から認識される外界と、観察者が実際に観察している外界と、にずれが生じる。そこで、このずれを軽減するために、カメラによって撮像された画像を補正する技術が開発されている(たとえば、特許文献1)。特許文献1に記載の技術を用いれば、AR画像を、適切な位置、適切なサイズ、適切な向きで、現実の環境に重ね合わせて表示させることができる。   When the camera is installed at such a position, naturally, there is a difference between the outside world recognized from the image captured by the camera and the outside world actually observed by the observer. Therefore, in order to reduce this shift, a technique for correcting an image captured by a camera has been developed (for example, Patent Document 1). If the technique described in Patent Literature 1 is used, an AR image can be displayed in an appropriate position, in an appropriate size, in an appropriate orientation and superimposed on an actual environment.

特開2009−284175号公報JP 2009-284175 A

しかし、撮像画像から認識される外界と、観察者が実際に観察している外界と、の間で奥行き方向(観察者の視線方向)にずれが生じるケースがあり、特許文献1では、このケースについて何も考慮されていない。このような奥行き方向のずれが生じた場合には、特許文献1の技術を用いても、AR画像を適切な位置に表示できない。つまり、AR画像の表示位置(存在しているように見える位置)が、観察者が注視している対象物(人物など)から、手前または奥にずれてしまう。このような状態では、観察者は、その対象物とAR画像に対して、交互にピントを合わせて観察する必要があり、眼が疲れてしまう。   However, there is a case where a deviation occurs in the depth direction (observer's line-of-sight direction) between the outside world recognized from the captured image and the outside world actually observed by the observer. Nothing is considered about. When such a shift in the depth direction occurs, the AR image cannot be displayed at an appropriate position even using the technique of Patent Document 1. That is, the display position of the AR image (the position that appears to exist) is shifted toward the front or back from the object (person or the like) that the observer is gazing at. In such a state, it is necessary for the observer to observe the object and the AR image while alternately focusing on the object and the AR image, and the eyes become tired.

本発明は、上記事情に鑑みてなされたものであり、AR画像を観察するための特別なピント合わせを観察者に要求しない画像表示装置、画像表示方法、および画像表示プログラムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object thereof is to provide an image display apparatus, an image display method, and an image display program that do not require the observer to perform special focusing for observing an AR image. And

(1)外界からの光を透過しつつ、コンテンツ情報に応じた画像光を観察者の眼に投射する画像表示装置であって、外界を撮像して撮像画像を生成する撮像部と、前記撮像部により生成された前記撮像画像を用いて、外界に実在する特徴点を選択する選択部と、前記撮像部の設置位置から前記特徴点までの距離を測定する測距部と、
前記測距部により測定された前記距離を用いて、前記撮像部の設置位置を基準とした場合の前記特徴点の位置を、第一基準位置として算出する算出部と、前記観察者が前記特徴点の方向を見たときに、前記特徴点と前記コンテンツ情報を、奥行き方向において、共にピントを合わせて見ることが可能な第二基準位置であるとの前記観察者の指定を受け付ける受付部と、前記算出部により算出された前記第一基準位置と、前記受付部により受け付けられた前記第二基準位置と、のずれに基づいて、前記第一基準位置を前記第二基準位置に補正するための基準データを作成する基準作成部と、を備える画像表示装置。
(2)外界からの光を透過しつつ、コンテンツ情報に応じた画像光を観察者の眼に投射する画像表示装置であって、外界を撮像して撮像画像を生成する撮像部と、前記撮像部により生成された前記撮像画像を用いて、外界に実在する特徴点を選択する選択部と、前記撮像部の設置位置を基準とした場合の前記特徴点の位置を、第一基準位置として算出する算出部と、前記観察者が前記特徴点の方向を見たときに、前記特徴点と前記コンテンツ情報を、奥行き方向において、共にピントを合わせて見ることが可能な第二基準位置であるとの前記観察者の指定を受け付ける受付部と、前記算出部により算出された前記第一基準位置と、前記受付部により受け付けられた前記第二基準位置と、のずれに基づいて、前記第一基準位置を前記第二基準位置に補正するための基準データを作成する基準作成部と、を備え、前記撮像部は、ステレオカメラまたはアレイカメラであって、
前記算出部は、前記ステレオカメラまたは前記アレイカメラにより生成された複数枚の撮像画像を用いて、前記第一基準位置を算出する、画像表示装置。
(3)外界からの光を透過しつつ、コンテンツ情報に応じた画像光を観察者の眼に投射する画像表示装置であって、外界を撮像して撮像画像を生成する撮像部と、
前記撮像部により生成された前記撮像画像を用いて、外界に実在する特徴点を選択する選択部と、前記撮像部の設置位置を基準とした場合の前記特徴点の位置を、第一基準位置として算出する算出部と、前記観察者が前記特徴点の方向を見たときに、前記特徴点と前記コンテンツ情報を、奥行き方向において、共にピントを合わせて見ることが可能な第二基準位置であるとの前記観察者の指定を受け付ける受付部と、前記算出部により算出された前記第一基準位置と、前記受付部により受け付けられた前記第二基準位置と、のずれに基づいて、前記第一基準位置を前記第二基準位置に補正するための基準データを作成する基準作成部と、を備え、前記受付部は、表示された前記コンテンツ情報を、前記特徴点と共にピントを合わせて見ることが可能な位置まで奥行き方向に移動させてから、前記奥行き方向と垂直な平面内において前記コンテンツ情報を前記特徴点に重ねるように移動させる、前記観察者の操作により、前記第二基準位置の指定を受け付ける、画像表示装置。
(1) An image display device that projects image light according to content information onto an observer's eye while transmitting light from the outside, and an imaging unit that images the outside and generates a captured image; Using the captured image generated by the unit, a selection unit that selects a feature point that exists in the outside world, a distance measurement unit that measures a distance from the installation position of the imaging unit to the feature point,
Using the distance measured by the distance measuring unit, a calculation unit that calculates the position of the feature point when the installation position of the imaging unit is used as a reference as a first reference position, and the observer uses the feature A reception unit that receives designation of the observer that the feature point and the content information are a second reference position that can be viewed in focus in the depth direction when the direction of the point is viewed; In order to correct the first reference position to the second reference position based on a deviation between the first reference position calculated by the calculation unit and the second reference position received by the receiving unit. An image display device comprising: a reference creation unit that creates the reference data.
(2) An image display device that projects image light according to content information to an observer's eye while transmitting light from the outside, and an imaging unit that images the outside and generates a captured image; Using the captured image generated by the unit, the selection unit that selects a feature point that actually exists in the outside world, and the position of the feature point based on the installation position of the imaging unit is calculated as a first reference position The second reference position where the feature point and the content information can both be viewed in the depth direction when the observer sees the direction of the feature point. The first reference based on a deviation between the accepting unit that receives the designation of the observer, the first reference position calculated by the calculating unit, and the second reference position received by the receiving unit Position the second reference position And a reference generating unit configured to generate a reference data for correcting the said imaging unit is a stereo camera or array camera,
The image display device, wherein the calculation unit calculates the first reference position using a plurality of captured images generated by the stereo camera or the array camera.
(3) An image display device that projects image light according to content information to an observer's eye while transmitting light from the outside, and an imaging unit that captures the outside and generates a captured image;
Using the captured image generated by the imaging unit, a selection unit that selects a feature point that actually exists in the outside world, and a position of the feature point when the installation position of the imaging unit is used as a reference, a first reference position And a second reference position that allows the feature point and the content information to be viewed in focus in the depth direction when the observer sees the direction of the feature point. The first reference position calculated by the calculation unit and the second reference position received by the reception unit based on a shift between the reception unit that receives the observer's designation as being; A reference creation unit that creates reference data for correcting one reference position to the second reference position, and the reception unit focuses the displayed content information together with the feature points. The second reference position is designated by the observer's operation of moving in the depth direction to a possible position and then moving the content information so as to overlap the feature point in a plane perpendicular to the depth direction. Accept image display device.

)前記算出部により算出された前記第一基準位置に前記コンテンツ情報が存在するように表示する表示部をさらに備え、前記受付部は、前記表示部に表示された前記コンテンツ情報を、前記特徴点の位置に移動させる、前記観察者の操作によって、前記第二基準位置の指定を受け付ける、上記(1)〜(3)のいずれかに記載の画像表示装置。 ( 4 ) The display unit further includes a display unit that displays the content information at the first reference position calculated by the calculation unit, and the reception unit displays the content information displayed on the display unit as the content information. The image display device according to any one of (1) to (3) , wherein designation of the second reference position is received by an operation of the observer that is moved to a feature point position.

)前記基準作成部により作成された基準データを用いて、新たなコンテンツ情報の表示位置を補正する補正部をさらに備え、前記補正部は、前記観察者が注視している対象物に応じて、前記新たなコンテンツ情報の表示位置を変更する、上記(1)〜()のいずれかに記載の画像表示装置。 ( 5 ) The image processing apparatus further includes a correction unit that corrects a display position of new content information using the reference data created by the reference creation unit, the correction unit corresponding to an object being watched by the observer. The image display device according to any one of (1) to ( 4 ), wherein the display position of the new content information is changed.

)外界からの光を透過しつつ、コンテンツ情報に応じた画像光を観察者の眼に投射する画像表示方法であって、(a)外界を撮像して撮像画像を生成するステップと、(b)前記ステップ(a)において生成された撮像画像を用いて、外界に実在する特徴点を選択するステップと、(c)前記撮像装置の設置位置から、前記ステップ(b)により選択された前記特徴点までの距離を測定するステップと、前記ステップ(c)において測定された前記距離を用いて、前記ステップ(a)において撮像を行う撮像装置の設置位置を基準とした場合の前記特徴点の位置を、第一基準位置として算出するステップと、()前記観察者が前記特徴点の方向を見たときに、前記特徴点と前記コンテンツ情報を、奥行き方向において、共にピントを合わせて見ることが可能な第二基準位置であるとの前記観察者の指定を受け付けるステップと、()前記ステップ()において算出された前記第一基準位置と、前記ステップ()において受け付けられた前記第二基準位置と、のずれに基づいて、前記第一基準位置を前記第二基準位置に補正するための基準データを作成するステップと、を行う画像表示方法。
(7)外界からの光を透過しつつ、コンテンツ情報に応じた画像光を観察者の眼に投射する画像表示方法であって、(a)外界を撮像して撮像画像を生成するステップと、(b)前記ステップ(a)において生成された撮像画像を用いて、外界に実在する特徴点を選択するステップと、(d)前記ステップ(a)において撮像を行う撮像装置の設置位置を基準とした場合の前記特徴点の位置を、第一基準位置として算出するステップと、(e)前記観察者が前記特徴点の方向を見たときに、前記特徴点と前記コンテンツ情報を、奥行き方向において、共にピントを合わせて見ることが可能な第二基準位置であるとの前記観察者の指定を受け付けるステップと、(f)前記ステップ(d)において算出された前記第一基準位置と、前記ステップ(e)において受け付けられた前記第二基準位置と、のずれに基づいて、前記第一基準位置を前記第二基準位置に補正するための基準データを作成するステップと、を行い、前記撮像装置は、ステレオカメラまたはアレイカメラであって、前記ステップ(d)は、前記ステレオカメラまたは前記アレイカメラにより生成された複数枚の撮像画像を用いて、前記第一基準位置を算出する、画像表示方法。
(8)外界からの光を透過しつつ、コンテンツ情報に応じた画像光を観察者の眼に投射する画像表示方法であって、(a)外界を撮像して撮像画像を生成するステップと、(b)前記ステップ(a)において生成された撮像画像を用いて、外界に実在する特徴点を選択するステップと、(d)前記ステップ(a)において撮像を行う撮像装置の設置位置を基準とした場合の前記特徴点の位置を、第一基準位置として算出するステップと、(e)前記観察者が前記特徴点の方向を見たときに、前記特徴点と前記コンテンツ情報を、奥行き方向において、共にピントを合わせて見ることが可能な第二基準位置であるとの前記観察者の指定を受け付けるステップと、(f)前記ステップ(d)において算出された前記第一基準位置と、前記ステップ(e)において受け付けられた前記第二基準位置と、のずれに基づいて、前記第一基準位置を前記第二基準位置に補正するための基準データを作成するステップと、を行い、前記ステップ(e)は、表示された前記コンテンツ情報を、前記特徴点と共にピントを合わせて見ることが可能な位置まで奥行き方向に移動させてから、前記奥行き方向と垂直な平面内において前記コンテンツ情報を前記特徴点に重ねるように移動させる、前記観察者の操作により、前記第二基準位置の指定を受け付ける、画像表示方法。
( 6 ) An image display method for projecting image light according to content information onto the eyes of an observer while transmitting light from the outside, and (a) capturing the outside and generating a captured image; (B) using the captured image generated in the step (a), selecting a feature point that exists in the outside world; and (c) selecting from the installation position of the imaging device in the step (b) A step of measuring a distance to the feature point; and ( d ) using the distance measured in the step (c) as a reference when an installation position of the imaging device that performs imaging in the step (a) is used as a reference. the position of the feature point, a step of calculating a first reference position, the content information, and the feature point when the (e) the viewer sees the direction of the feature point, in the depth direction, co A step of accepting the viewer's specified as the second reference position which can be viewed Focus, said first reference position calculated in (f) said step (d), the step (e And a step of creating reference data for correcting the first reference position to the second reference position based on a deviation from the second reference position received in step (2).
(7) An image display method for projecting image light according to content information to an observer's eyes while transmitting light from the outside world, and (a) imaging the outside world to generate a captured image; (B) using the captured image generated in step (a) to select a feature point that exists in the outside world; and (d) using the installation position of the imaging device that performs imaging in step (a) as a reference. A step of calculating the position of the feature point as a first reference position, and (e) when the observer sees the direction of the feature point, the feature point and the content information in the depth direction A step of accepting the observer's designation of being a second reference position where both can be viewed in focus; (f) the first reference position calculated in step (d); and the step e) generating reference data for correcting the first reference position to the second reference position based on a deviation from the second reference position received in e), wherein the imaging device An image display method, wherein the step (d) calculates the first reference position using a plurality of captured images generated by the stereo camera or the array camera.
(8) An image display method for projecting image light according to content information to an observer's eyes while transmitting light from the outside, and (a) capturing the outside and generating a captured image; (B) using the captured image generated in step (a) to select a feature point that exists in the outside world; and (d) using the installation position of the imaging device that performs imaging in step (a) as a reference. A step of calculating the position of the feature point as a first reference position, and (e) when the observer sees the direction of the feature point, the feature point and the content information in the depth direction A step of accepting the observer's designation of being a second reference position where both can be viewed in focus; (f) the first reference position calculated in step (d); and the step e) generating reference data for correcting the first reference position to the second reference position based on the deviation from the second reference position received in e), and performing the step (e ) Moves the displayed content information in the depth direction to a position where it can be viewed together with the feature points, and then moves the content information in the plane perpendicular to the depth direction. An image display method for accepting designation of the second reference position by an operation of the observer, which is moved so as to overlap with each other.

)()前記ステップ()において算出された前記第一基準位置に前記コンテンツ情報が存在するように表示するステップをさらに行い、前記ステップ()は、前記ステップ()において表示された前記コンテンツ情報を、前記特徴点の位置に移動させる、前記観察者の操作によって、前記第二基準位置の指定を受け付ける、上記(6)〜(8)のいずれかに記載の画像表示方法。 ( 9 ) ( g ) A step of displaying the content information so as to exist at the first reference position calculated in the step ( d ) is further performed, and the step ( e ) is displayed in the step ( g ). The image display method according to any one of (6) to (8) , wherein the designation of the second reference position is received by the operation of the observer, the content information being moved to the position of the feature point .

10)(h)前記ステップ()において作成された基準データを用いて、新たなコンテンツ情報の表示位置を補正するステップをさらに行い、前記ステップ(h)は、前記観察者が注視している対象物に応じて、前記新たなコンテンツ情報の表示位置を変更する、上記()〜()のいずれかに記載の画像形成方法。 ( 10 ) (h) A step of correcting the display position of the new content information is further performed using the reference data created in the step ( f ), and the step (h) The image forming method according to any one of ( 6 ) to ( 9 ), wherein a display position of the new content information is changed according to a target object.

11)外界からの光を透過しつつ、コンテンツ情報に応じた画像光を観察者の眼に投射する画像表示装置として機能するコンピューターに、(a)外界を撮像して撮像画像を生成するステップと、(b)前記ステップ(a)において生成された撮像画像を用いて、外界に実在する特徴点を選択するステップと、(c)前記撮像装置の設置位置から、前記ステップ(b)により選択された前記特徴点までの距離を測定するステップと、前記ステップ(c)において測定された前記距離を用いて、前記ステップ(a)において撮像を行う撮像装置の設置位置を基準とした場合の前記特徴点の位置を、第一基準位置として算出するステップと、()前記観察者が前記特徴点の方向を見たときに、前記特徴点と前記コンテンツ情報を、共にピントを合わせて見ることが可能な第二基準位置の指定を受け付けるステップと、()前記ステップ()において算出された前記第一基準位置と、前記ステップ()において受け付けられた前記第二基準位置と、のずれに基づいて、前記第一基準位置を前記第二基準位置に補正するための基準データを作成するステップと、を実行させる画像表示プログラム。
(12)外界からの光を透過しつつ、コンテンツ情報に応じた画像光を観察者の眼に投射する画像表示装置として機能するコンピューターに、(a)外界を撮像して撮像画像を生成するステップと、(b)前記ステップ(a)において生成された撮像画像を用いて、外界に実在する特徴点を選択するステップと、(d)前記ステップ(a)において撮像を行う撮像装置の設置位置を基準とした場合の前記特徴点の位置を、第一基準位置として算出するステップと、(e)前記観察者が前記特徴点の方向を見たときに、前記特徴点と前記コンテンツ情報を、奥行き方向において、共にピントを合わせて見ることが可能な第二基準位置であるとの前記観察者の指定を受け付けるステップと、(f)前記ステップ(d)において算出された前記第一基準位置と、前記ステップ(e)において受け付けられた前記第二基準位置と、のずれに基づいて、前記第一基準位置を前記第二基準位置に補正するための基準データを作成するステップと、を実行させ、前記撮像装置は、ステレオカメラまたはアレイカメラであって、前記ステップ(d)は、前記ステレオカメラまたは前記アレイカメラにより生成された複数枚の撮像画像を用いて、前記第一基準位置を算出する、画像表示プログラム。
(13)外界からの光を透過しつつ、コンテンツ情報に応じた画像光を観察者の眼に投射する画像表示装置として機能するコンピューターに、(a)外界を撮像して撮像画像を生成するステップと、(b)前記ステップ(a)において生成された撮像画像を用いて、外界に実在する特徴点を選択するステップと、(d)前記ステップ(a)において撮像を行う撮像装置の設置位置を基準とした場合の前記特徴点の位置を、第一基準位置として算出するステップと、(e)前記観察者が前記特徴点の方向を見たときに、前記特徴点と前記コンテンツ情報を、奥行き方向において、共にピントを合わせて見ることが可能な第二基準位置であるとの前記観察者の指定を受け付けるステップと、(f)前記ステップ(d)において算出された前記第一基準位置と、前記ステップ(e)において受け付けられた前記第二基準位置と、のずれに基づいて、前記第一基準位置を前記第二基準位置に補正するための基準データを作成するステップと、を実行させ、前記ステップ(e)は、表示された前記コンテンツ情報を、前記特徴点と共にピントを合わせて見ることが可能な位置まで奥行き方向に移動させてから、前記奥行き方向と垂直な平面内において前記コンテンツ情報を前記特徴点に重ねるように移動させる、前記観察者の操作により、前記第二基準位置の指定を受け付ける、画像表示プログラム。
( 11 ) A step of (a) imaging the outside world and generating a captured image by a computer functioning as an image display device that projects image light according to content information to the viewer's eyes while transmitting light from the outside world (B) using the captured image generated in step (a) to select a feature point that exists in the outside world; and (c) selecting from the installation position of the imaging device in step (b) measuring the distance to the feature points were referenced using said measured distance, the installation position of the imaging device for imaging in said step (a) in; (d) step (c) said feature point position in the case, a step of calculating a first reference position, the content information, and the feature point when the (e) the viewer sees the direction of the feature point A step of accepting both specified second reference that can be seen by focusing position, (f) and said first reference position calculated in step (d), accepted in the step (e) the And a step of creating reference data for correcting the first reference position to the second reference position based on a deviation from the second reference position.
(12) A step of (a) imaging the outside world and generating a captured image by a computer functioning as an image display device that projects image light according to the content information to the viewer's eyes while transmitting light from the outside world And (b) using the captured image generated in step (a) to select feature points that exist in the outside world; and (d) the installation position of the imaging device that performs imaging in step (a). A step of calculating the position of the feature point when used as a reference as a first reference position; and (e) when the observer sees the direction of the feature point, the feature point and the content information are Receiving the observer's designation of being a second reference position that can be viewed in focus in both directions, (f) the first calculated in step (d) Creating reference data for correcting the first reference position to the second reference position based on the deviation between the quasi-position and the second reference position received in step (e); The imaging device is a stereo camera or an array camera, and the step (d) uses the plurality of captured images generated by the stereo camera or the array camera to perform the first reference position. An image display program for calculating
(13) A step of generating a captured image by imaging the outside world on a computer that functions as an image display device that projects image light according to content information to the viewer's eyes while transmitting light from the outside world. And (b) using the captured image generated in step (a) to select feature points that exist in the outside world; and (d) the installation position of the imaging device that performs imaging in step (a). A step of calculating the position of the feature point when used as a reference as a first reference position; and (e) when the observer sees the direction of the feature point, the feature point and the content information are Receiving the observer's designation of being a second reference position that can be viewed in focus in both directions, (f) the first calculated in step (d) Creating reference data for correcting the first reference position to the second reference position based on the deviation between the quasi-position and the second reference position received in step (e); In the step (e), the displayed content information is moved in the depth direction to a position where it can be viewed in focus with the feature points, and then in a plane perpendicular to the depth direction. In the image display program, the content information is moved so as to be superimposed on the feature point, and the designation of the second reference position is received by the operation of the observer.

(14)()前記ステップ()において算出された前記第一基準位置に前記コンテンツ情報が存在するように表示するステップをさらに前記コンピューターに実行させ、前記ステップ()は、前記ステップ()において表示された前記コンテンツ情報を、前記特徴点の位置に移動させる操作によって、前記第二基準位置の指定を受け付ける、上記(11)〜(13)のいずれかに記載の画像表示プログラム。 (14) ( g ) causing the computer to further execute a step of displaying the content information so that the content information exists at the first reference position calculated in the step ( d ), and the step ( e ) includes the step ( e ) The image display program according to any one of (11) to (13), wherein the designation of the second reference position is received by an operation of moving the content information displayed in g ) to the position of the feature point.

15)(h)前記ステップ()において作成された基準データを用いて、新たなコンテンツ情報の表示位置を補正するステップをさらに前記コンピューターに実行させ、前記ステップ(h)は、前記観察者が注視している対象物に応じて、前記新たなコンテンツ情報の表示位置を変更する、上記(11)〜(14)のいずれかに記載の画像表示プログラム。 ( 15 ) (h) Using the reference data created in step ( f ), the computer further executes a step of correcting a display position of new content information, and the step (h) The image display program according to any one of ( 11 ) to ( 14 ), wherein the display position of the new content information is changed according to the object being watched by the user.

本発明によれば、撮像画像から認識される外界と、観察者が実際に観察している外界と、のずれを補正するための基準を作る。これにより、光学系を複雑にすることなく、観察者が注視している対象物の近傍にAR画像が存在するような表示が可能になる。その結果、観察者は、その対象物とAR画像の両方に同時にピントを合わせて観察することができるようになり、眼が疲れない。   According to the present invention, a reference for correcting a deviation between the outside world recognized from the captured image and the outside world actually observed by the observer is created. Thereby, it is possible to display such that the AR image is present in the vicinity of the target object being watched by the observer without complicating the optical system. As a result, the observer can focus and observe both the object and the AR image at the same time, and the eyes are not tired.

第一実施形態に係るヘッドマウントディスプレイ(HMD)装置の外観例を示す図である。It is a figure which shows the example of an external appearance of the head mounted display (HMD) apparatus which concerns on 1st embodiment. HMD装置に設けられるAR提供装置の概略構成図である。It is a schematic block diagram of AR provision apparatus provided in a HMD apparatus. HMD装置のハードウェア構成例を示すブロック図である。It is a block diagram which shows the hardware structural example of an HMD apparatus. HMD装置の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of an HMD apparatus. キャリブレーション処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of a calibration process. 観察者の頭部に装着されたHMD装置と、撮像方向に存在する物体との位置関係の例を示す図である。It is a figure which shows the example of the positional relationship of the HMD apparatus with which the observer's head was mounted | worn, and the object which exists in an imaging direction. 撮像画像の一例を示す図である。It is a figure which shows an example of a captured image. ARマーカーの位置を調整する方法について説明するための図である。It is a figure for demonstrating the method to adjust the position of AR marker. ARマーカーの奥行き方向(Z方向)の調整方法について説明するための図である。It is a figure for demonstrating the adjustment method of the depth direction (Z direction) of AR marker. ARマーカーの左右方向(X方向)および上下方向(Y方向)の調整方法について説明するための図である。It is a figure for demonstrating the adjustment method of the left-right direction (X direction) and the up-down direction (Y direction) of AR marker. 第二実施形態に係るAR提供装置の概略構成図である。It is a schematic block diagram of AR provision apparatus which concerns on 2nd embodiment. AR画像表示処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of AR image display processing. 観察者が注視している対象物に応じてAR画像の表示位置を変更したときの表示例を示す図である。It is a figure which shows the example of a display when the display position of AR image is changed according to the target object which the observer is gazing at. ARマーカーの調整時における表示装置についての変形例を示す図である。It is a figure which shows the modification about a display apparatus at the time of adjustment of AR marker. 観察者の頭が揺れたときの撮像画像および観察者の視界の例を示す図である。It is a figure which shows the example of the captured image when an observer's head shakes, and an observer's visual field.

以下、添付した図面を参照して、本発明の実施形態を説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。また、図面の寸法比率は、説明の都合上誇張されており、実際の比率とは異なる場合がある。   Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In the description of the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted. In addition, the dimensional ratios in the drawings are exaggerated for convenience of explanation, and may be different from the actual ratios.

<第一実施形態>
図1は、第一実施形態に係るヘッドマウントディスプレイ(HMD)装置の外観例を示す図である。図2は、HMD装置に設けられるAR提供装置の概略構成図である。図3は、HMD装置のハードウェア構成例を示すブロック図である。
<First embodiment>
FIG. 1 is a diagram illustrating an appearance example of a head mounted display (HMD) device according to the first embodiment. FIG. 2 is a schematic configuration diagram of an AR providing apparatus provided in the HMD apparatus. FIG. 3 is a block diagram illustrating a hardware configuration example of the HMD device.

以下、図1〜図3を参照して、HMD装置10の概略構成、特にハードウェア構成について説明する。   Hereinafter, a schematic configuration of the HMD device 10, particularly a hardware configuration, will be described with reference to FIGS. 1 to 3.

<HMD装置10(ハードウェア構成)>
第一実施形態に係るHMD装置10は、ユーザー(以下「観察者」とも称する)の頭部に装着して使用される画像表示装置である。たとえば、HMD装置10は、外界からの光を透過しつつ、提示したいコンテンツ情報に応じた画像光をAR(Augmented Reality)画像として観察者の眼に投射するシースルー型の画像表示装置である。AR画像は、観察者が観察している現実の環境(現実空間)に、あたかも存在しているかのように表示される。
<HMD device 10 (hardware configuration)>
The HMD device 10 according to the first embodiment is an image display device used by being mounted on the head of a user (hereinafter also referred to as “observer”). For example, the HMD device 10 is a see-through type image display device that projects image light according to content information desired to be presented to an observer's eyes as an AR (Augmented Reality) image while transmitting light from the outside world. The AR image is displayed as if it exists in the actual environment (real space) that the observer is observing.

図1に示すとおり、HMD装置10は、フレーム11と、透明部材12と、撮像装置13と、AR提供装置20と、本体部30とを有している。   As shown in FIG. 1, the HMD device 10 includes a frame 11, a transparent member 12, an imaging device 13, an AR providing device 20, and a main body 30.

フレーム11は、HMD装置10を観察者の頭部に装着可能にする形状を有しており、たとえば、メガネ型の形状を有する。   The frame 11 has a shape that allows the HMD device 10 to be mounted on the observer's head, and has, for example, an eyeglass shape.

透明部材12は、HMD装置10を装着した観察者が外界を観察できるように、外界からの光を透過して観察者の眼に届けることが可能な透明な材料(ガラス、プラスチック、フィルムなど)により形成される。透明部材12は、フレーム11のリム(透明部材12を支える部分)にはめ込まれて固定される。なお、フレーム11のリムに透明部材12を設けず、外界からの光がダイレクトに観察者の眼に届くようにしてもよい。   The transparent member 12 is a transparent material (glass, plastic, film, etc.) that can transmit light from the outside world and reach the eyes of the observer so that the observer wearing the HMD device 10 can observe the outside world. It is formed by. The transparent member 12 is fitted and fixed to the rim of the frame 11 (the portion that supports the transparent member 12). The transparent member 12 may not be provided on the rim of the frame 11 and light from the outside world may directly reach the observer's eyes.

撮像装置13は、撮像用レンズの光軸方向(以下では、「撮像方向」とも称する)の外界を撮像する。たとえば、撮像装置13は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などのイメージセンサーを備えたデジタルカメラあるいはビデオカメラである。撮像装置13の撮像によって、たとえば、JPEG、MPEG2/4等の撮像画像(動画)が生成される。なお、第一実施形態の撮像装置13は、図1に示すとおり、観察者の視線上ではないフレーム11部分に設置される。   The imaging device 13 images the outside of the imaging lens in the optical axis direction (hereinafter also referred to as “imaging direction”). For example, the imaging device 13 is a digital camera or a video camera provided with an image sensor such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS). For example, a captured image (moving image) such as JPEG or MPEG2 / 4 is generated by the imaging of the imaging device 13. In addition, the imaging device 13 of 1st embodiment is installed in the flame | frame 11 part which is not on an observer's eyes | visual_axis as shown in FIG.

また、撮像装置13は、たとえば、撮像方向に存在する特徴点(たとえば、人物の顔や特徴的な形状を有する物体など)までの距離を測定可能な測距装置としても機能する。なお、撮像装置13は、特徴点までの距離を測定できるものであれば、どのような形態、名称、構造のものであってもよく、ステレオカメラ、アレイカメラ、近赤外発光素子(近赤外レーザーなど)と近赤外受光素子、超音波センサー等により構成されてもよい。また、撮像装置13には、HMD装置10の姿勢を検出するために必要なセンサー、たとえば、3軸加速度センサー、ジャイロセンサー等が含まれてもよい。   The imaging device 13 also functions as a distance measuring device that can measure the distance to a feature point (for example, a human face or an object having a characteristic shape) existing in the imaging direction. Note that the imaging device 13 may have any form, name, and structure as long as it can measure the distance to the feature point. A stereo camera, an array camera, a near-infrared light emitting element (near red) An external laser, etc.), a near-infrared light receiving element, an ultrasonic sensor or the like. In addition, the imaging device 13 may include sensors necessary for detecting the attitude of the HMD device 10, such as a triaxial acceleration sensor and a gyro sensor.

AR提供装置20は、外界からの光に付加的に重畳させる画像(AR画像)を表示する。たとえば、AR提供装置20は、観察者の視線方向に存在する人物の近くに、名前、勤務先などの情報を含む吹き出しがあたかも存在するかのように表示する。このような表示は、AR画像の位置、サイズ、向き、形状、色(彩度、明度、コントラストなど)、陰影などを調整することによって実現される。なお、AR提供装置20は、図1に示すような単眼式ではなく、双眼式でもよい。AR提供装置20の具体的な構成については後述する。   The AR providing device 20 displays an image (AR image) that is additionally superimposed on light from the outside. For example, the AR providing apparatus 20 displays a balloon including information such as a name and a work place as if there is a person near the person existing in the viewing direction of the observer. Such a display is realized by adjusting the position, size, orientation, shape, color (saturation, brightness, contrast, etc.), shadow, etc. of the AR image. The AR providing apparatus 20 may be a binocular type instead of the monocular type as shown in FIG. A specific configuration of the AR providing apparatus 20 will be described later.

本体部30は、撮像装置13と、AR提供装置20とを制御し、全体としてヘッドマウントディスプレイとして機能させるために必要な構成を有する。本体部30の具体的な構成については後述する。   The main body 30 has a configuration necessary for controlling the imaging device 13 and the AR providing device 20 to function as a head mounted display as a whole. A specific configuration of the main body 30 will be described later.

(AR提供装置20の具体的な構成)
次に、AR提供装置20の具体的な構成について説明する。
(Specific Configuration of AR Providing Device 20)
Next, a specific configuration of the AR providing device 20 will be described.

図2に示すとおり、AR提供装置20は、表示装置21と、レンズ22と、導光部23とを備える。   As illustrated in FIG. 2, the AR providing device 20 includes a display device 21, a lens 22, and a light guide unit 23.

表示装置21は、AR画像を表示する。図2に示すとおり、表示装置21から出力された画像光は、レンズ22を介して、導光部23へ入射する。たとえば、表示装置21には、LED(Light Emitting Diode)ディスプレイ、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ、などが採用される。   The display device 21 displays an AR image. As shown in FIG. 2, the image light output from the display device 21 enters the light guide unit 23 through the lens 22. For example, the display device 21 employs an LED (Light Emitting Diode) display, a liquid crystal display, an organic EL (Electro Luminescence) display, and the like.

また、表示装置21は、図2に示す光軸方向(+L方向または−L方向)に沿って移動可能に設置される。表示装置21が導光部23から遠のく方向(+L方向)に移動すると、表示装置21から観察者の眼までの光路長は長くなる。このとき、観察者は、AR画像が遠のく方向(+Z方向)に移動したように見える。これとは反対に、表示装置21が導光部23に近づく方向(−L方向)に移動すると、表示装置21から観察者の眼までの光路長は短くなる。このとき、観察者は、AR画像が近づく方向(−Z方向)に移動したように見える。   Further, the display device 21 is installed to be movable along the optical axis direction (+ L direction or −L direction) shown in FIG. When the display device 21 moves in a direction away from the light guide 23 (+ L direction), the optical path length from the display device 21 to the eyes of the observer becomes longer. At this time, the observer seems to have moved the AR image in the far direction (+ Z direction). On the contrary, when the display device 21 moves in the direction approaching the light guide 23 (−L direction), the optical path length from the display device 21 to the eyes of the observer is shortened. At this time, the observer seems to have moved in the direction in which the AR image approaches (−Z direction).

なお、以下では、観察者の両眼間の中点を座標原点(0,0,0)として、観察者からみて左右方向をX軸とし、観察者からみて上下方向をY軸とし、観察者からみて前後方向(手前方向、奥行き方向)をZ軸とする。また、このような座標系を、観察者基準の座標系XYZと称する。   In the following, the midpoint between the observer's eyes is the coordinate origin (0, 0, 0), the horizontal direction as viewed from the observer is the X axis, and the vertical direction as viewed from the observer is the Y axis. The front-rear direction (front direction, depth direction) viewed from the viewpoint is taken as the Z axis. Such a coordinate system is referred to as an observer-based coordinate system XYZ.

レンズ22は、複数枚のレンズ群から構成される。このレンズ群を構成する各レンズは、独立して光軸方向(+L方向または−L方向)に移動可能である。各レンズの位置関係を調節することにより、焦点距離を自由に変更できる。これに伴い、たとえば、表示装置21の移動量ΔLに対するAR画像(観察者から見てAR画像が存在しているように見える位置)の移動量ΔZの比(ΔZ/ΔL)を調整できる。   The lens 22 is composed of a plurality of lens groups. Each lens constituting this lens group is independently movable in the optical axis direction (+ L direction or -L direction). The focal length can be freely changed by adjusting the positional relationship of each lens. Accordingly, for example, the ratio (ΔZ / ΔL) of the movement amount ΔZ of the AR image (the position where the AR image appears to be present when viewed by the observer) to the movement amount ΔL of the display device 21 can be adjusted.

導光部23は、表示装置21からの画像光を観察者の眼に導く。図2に示すとおり、導光部23は、透明板24および第一HOE(Holographic Optical Element)25を有する。   The light guide 23 guides the image light from the display device 21 to the eyes of the observer. As shown in FIG. 2, the light guide 23 includes a transparent plate 24 and a first HOE (Holographic Optical Element) 25.

透明板24は、屈折率が空気よりも大きいガラス、樹脂などの材料で形成された透明な板である。   The transparent plate 24 is a transparent plate formed of a material such as glass or resin having a refractive index larger than that of air.

第一HOE25は、ホログラムを利用した光学素子であり、特定の波長の光のみを反射し、その他の波長の光を透過する性質を有する。第一実施形態では、第一HOE25は、表示装置21からの画像光を回折反射させて観察者の眼に導くと共に、外界からの光を透過させて観察者の眼に導く体積位相型で反射型のホログラフィック光学素子である。すなわち、第一HOE25は、外界とAR画像を同時に観察可能にするコンバイナとして機能する。なお、第一HOE25の代わりに、ハーフミラーや偏光ビームスプリッターなどを用いてもよい。   The first HOE 25 is an optical element using a hologram and has a property of reflecting only light of a specific wavelength and transmitting light of other wavelengths. In the first embodiment, the first HOE 25 reflects and reflects the image light from the display device 21 to the observer's eyes while diffracting and reflecting the image light, and transmits the light from the outside to the observer's eyes. Type holographic optical element. That is, the first HOE 25 functions as a combiner that enables simultaneous observation of the outside world and the AR image. In place of the first HOE 25, a half mirror, a polarization beam splitter, or the like may be used.

(本体部30の具体的な構成)
次に、本体部30の具体的な構成について説明する。
(Specific configuration of main body 30)
Next, a specific configuration of the main body 30 will be described.

図3に示すとおり、本体部30は、CPU(Central Processing Unit)31と、メモリー32と、ストレージ33と、入力装置34と、駆動装置35と、表示コントローラー36とを備える。   As shown in FIG. 3, the main body unit 30 includes a CPU (Central Processing Unit) 31, a memory 32, a storage 33, an input device 34, a drive device 35, and a display controller 36.

CPU31は、プログラムにしたがって上記各部の制御や各種の演算処理を実行するプロセッサ等から構成される制御回路であり、HMD装置10の各機能は、それに対応するプログラムをCPU31が実行することにより発揮される。   The CPU 31 is a control circuit composed of a processor or the like that controls the above-described units and executes various arithmetic processes according to a program. Each function of the HMD device 10 is exhibited by the CPU 31 executing a corresponding program. The

メモリー32は、作業領域として一時的にプログラムおよびデータを記憶する高速アクセス可能な主記憶装置である。メモリー32には、たとえば、DRAM(Dymamic Random Access Memory)、SDRAM(Synchronous Dymamic Random Access Memory)、SRAM(Static Random Access Memory)等が採用される。   The memory 32 is a high-speed accessible main storage device that temporarily stores programs and data as a work area. As the memory 32, for example, a DRAM (Dynamic Random Access Memory), an SDRAM (Synchronous Dynamic Access Memory), an SRAM (Static Random Access Memory), or the like is adopted.

ストレージ33は、オペレーティングシステムを含む各種プログラムや各種データを格納する大容量の補助記憶装置である。ストレージ13には、たとえば、フラッシュメモリー等が採用される。   The storage 33 is a large-capacity auxiliary storage device that stores various programs including an operating system and various data. For example, a flash memory or the like is employed as the storage 13.

入力装置34は、AR画像の選択や移動などの指示を入力するための物理的な方向キーやボタンにより構成される。また、入力装置34として、外部のコントローラー(たとえば、スマートフォン、リモートコントローラーなど)を利用してもよい。   The input device 34 includes physical direction keys and buttons for inputting instructions for selecting and moving the AR image. Moreover, you may utilize an external controller (for example, a smart phone, a remote controller, etc.) as the input device 34. FIG.

駆動装置35は、表示装置21およびレンズ22を光軸方向に移動させる装置である。駆動装置35には、たとえば、ステッピングモータ、ボイスコイルモータ等が採用される。   The drive device 35 is a device that moves the display device 21 and the lens 22 in the optical axis direction. For the drive device 35, for example, a stepping motor, a voice coil motor, or the like is employed.

表示コントローラー36は、AR画像などを表示装置21に表示させる。たとえば、表示コントローラー36は、所定の表示周期毎にメモリー32からAR画像を読み出して、表示装置21へ入力するための信号に変換するとともに、水平同期信号、垂直同期信号などのパルス信号を生成する。   The display controller 36 causes the display device 21 to display an AR image or the like. For example, the display controller 36 reads out an AR image from the memory 32 every predetermined display period, converts it into a signal for input to the display device 21, and generates a pulse signal such as a horizontal synchronizing signal and a vertical synchronizing signal. .

以上のようなハードウェア構成を有するHMD装置10は、以下の機能構成を有する。   The HMD device 10 having the hardware configuration as described above has the following functional configuration.

図4は、HMD装置の機能構成例を示すブロック図である。   FIG. 4 is a block diagram illustrating a functional configuration example of the HMD device.

<HMD装置10(機能構成)>
図4に示すとおり、HMD装置10は、機能構成として、撮像部41と、特徴点選択部42と、測距部43と、第一基準算出部44と、表示制御部45と、第二基準受付部46と、基準作成部47と、ARアプリケーション部48とを有する。
<HMD device 10 (functional configuration)>
As illustrated in FIG. 4, the HMD device 10 includes an imaging unit 41, a feature point selection unit 42, a distance measurement unit 43, a first reference calculation unit 44, a display control unit 45, and a second reference as functional configurations. A reception unit 46, a reference creation unit 47, and an AR application unit 48 are included.

ここで、破線枠内の機能部41〜47は、撮像装置13の撮像により得られた撮像画像から認識される外界と、観察者が実際に観察している外界と、のずれを補正するための基準を作成するキャリブレーション機能に関する。一方、ARアプリケーション部48は、キャリブレーション機能により作成された基準を利用して、観察者の視線方向にある対象物の近傍にAR画像が存在するように表示する機能に関する。   Here, the function units 41 to 47 in the broken line frame correct the deviation between the external world recognized from the captured image obtained by the imaging of the imaging device 13 and the external world actually observed by the observer. The present invention relates to a calibration function for creating a standard for the above. On the other hand, the AR application unit 48 relates to a function for displaying an AR image so that an AR image exists in the vicinity of an object in the direction of the observer's line of sight, using a reference created by a calibration function.

以下、各機能部41〜48について具体的に説明する。なお、各機能部41〜48は、CPU31が、ストレージ33にインストールされているプログラムをメモリー32に読み出して実行することにより実現される。また、これに限らず、ASIC等のハードウェアにより実現されてもよい。   Hereinafter, the functional units 41 to 48 will be described in detail. The function units 41 to 48 are realized by the CPU 31 reading out a program installed in the storage 33 to the memory 32 and executing the program. Further, the present invention is not limited to this, and hardware such as ASIC may be used.

撮像部41は、撮像装置13を制御して、外界を撮像する。これにより、撮像画像が生成される。   The imaging unit 41 controls the imaging device 13 to image the outside world. Thereby, a captured image is generated.

特徴点選択部42は、撮像部41により生成された撮像画像を用いて、外界に実在する特徴点を選択する。   The feature point selection unit 42 uses the captured image generated by the imaging unit 41 to select a feature point that exists in the outside world.

測距部43は、撮像装置13を制御して、撮像装置13の設置位置から、特徴点選択部42により選択された特徴点までの撮像方向の距離を測定する。   The distance measuring unit 43 controls the imaging device 13 to measure the distance in the imaging direction from the installation position of the imaging device 13 to the feature point selected by the feature point selection unit 42.

第一基準算出部44は、撮像装置13の設置位置を基準とした場合の特徴点の位置を、第一基準位置として算出する。   The first reference calculation unit 44 calculates the position of the feature point based on the installation position of the imaging device 13 as the first reference position.

表示制御部45は、表示装置21にAR画像を表示させる。たとえば、表示制御部45は、第一基準算出部44により算出された第一基準位置にARマーカーを表示する。   The display control unit 45 causes the display device 21 to display an AR image. For example, the display control unit 45 displays the AR marker at the first reference position calculated by the first reference calculation unit 44.

第二基準受付部46は、観察者が外界に実在する特徴点の方向を見たときに、その特徴点とAR画像を共にピントを合わせて見ることが可能な第二基準位置の指定を受け付ける。たとえば、第二基準受付部46は、最初に、表示制御部45により表示されたARマーカーを、外界に実在する特徴点と共にピントを合わせて見ることが可能な奥行き方向の位置まで移動させる操作を受け付ける。次に、その奥行き方向と垂直な平面内(上下左右方向)においてARマーカーを移動させる操作により、第二基準位置の指定を受け付ける。   The second reference acceptance unit 46 accepts designation of a second reference position at which both the feature point and the AR image can be viewed when the observer sees the direction of the feature point that exists in the outside world. . For example, the second reference receiving unit 46 first performs an operation of moving the AR marker displayed by the display control unit 45 to a position in the depth direction where the AR marker can be focused and viewed together with the feature points that exist in the outside world. Accept. Next, designation of the second reference position is accepted by an operation of moving the AR marker in a plane perpendicular to the depth direction (up / down / left / right direction).

基準作成部47は、第一基準算出部44により算出された第一基準位置と、第二基準受付部46により受け付けられた第二基準位置と、のずれに基づいて、第一基準位置を第二基準位置に補正するための基準データを作成する。   The reference creation unit 47 sets the first reference position based on the difference between the first reference position calculated by the first reference calculation unit 44 and the second reference position received by the second reference reception unit 46. Create reference data for correction to two reference positions.

ARアプリケーション部48は、AR画像の表示を伴う各種機能を提供する。たとえば、ARアプリケーション部48は、観察者の視線方向にある対象物(人物など)の近傍に、AR画像(名前、勤務先などの情報を含む吹き出しなど)が存在するように表示する。このとき、ARアプリケーション部48は、基準作成部47により作成された基準データを適用することによって表示位置を補正してからAR画像を表示する。   The AR application unit 48 provides various functions involving display of an AR image. For example, the AR application unit 48 displays an AR image (such as a balloon including information such as a name and work place) in the vicinity of an object (such as a person) in the observer's line of sight. At this time, the AR application unit 48 displays the AR image after correcting the display position by applying the reference data created by the reference creation unit 47.

各機能部41〜48の詳細な動作については以下に詳述する。   Detailed operations of the functional units 41 to 48 will be described in detail below.

<HMD装置10の動作>
図5は、HMD装置において実行されるキャリブレーション処理の手順を示すフローチャートである。図6は、観察者の頭部に装着されたHMD装置と、撮像方向に存在する物体との位置関係の例を示す図である。図7は、撮像画像の一例を示す図である。図8は、ARマーカーの位置を調整する方法について説明するための図である。図8(A)は、調整前のARマーカーの位置を示す図であり、図8(B)は、調整後のARマーカーの位置を示す図である。図9は、ARマーカーの奥行き方向(Z方向)の調整方法について説明するための図である。図9(A)は、撮像画像の例を示す図であり、図9(B)は、ARマーカー調整前の観察者の視界の例を示す図であり、図9(C)は、ARマーカー調整後の観察者の視界の例を示す図である。図10は、ARマーカーの左右方向(X方向)および上下方向(Y方向)の調整方法について説明するための図である。図10(A)は、ARマーカー調整前の観察者の視界の例を示す図であり、図10(B)は、ARマーカー調整後の観察者の視界の例を示す図であり、図10(C)は、全特徴点についてARマーカー調整後の観察者の視界の例を示す図である。
<Operation of HMD Device 10>
FIG. 5 is a flowchart showing a procedure of calibration processing executed in the HMD apparatus. FIG. 6 is a diagram illustrating an example of a positional relationship between the HMD device mounted on the observer's head and an object existing in the imaging direction. FIG. 7 is a diagram illustrating an example of a captured image. FIG. 8 is a diagram for explaining a method of adjusting the position of the AR marker. FIG. 8A is a diagram showing the position of the AR marker before adjustment, and FIG. 8B is a diagram showing the position of the AR marker after adjustment. FIG. 9 is a diagram for explaining a method of adjusting the depth direction (Z direction) of the AR marker. 9A is a diagram illustrating an example of a captured image, FIG. 9B is a diagram illustrating an example of the field of view of an observer before AR marker adjustment, and FIG. 9C is a diagram illustrating an AR marker. It is a figure which shows the example of the observer's visual field after adjustment. FIG. 10 is a diagram for explaining an adjustment method of the AR marker in the left-right direction (X direction) and the up-down direction (Y direction). 10A is a diagram showing an example of the observer's field of view before the AR marker adjustment, and FIG. 10B is a diagram showing an example of the observer's field of view after the AR marker adjustment. (C) is a figure which shows the example of the visual field of the observer after AR marker adjustment about all the feature points.

以下、図5〜図10を参照して、キャリブレーション処理の手順について説明する。   Hereinafter, the procedure of the calibration process will be described with reference to FIGS.

(キャリブレーション処理)
たとえば、HMD装置10は、本体の電源が投入されると、図5に示すキャリブレーション処理を開始する。ただし、キャリブレーション処理を開始するタイミングは、これに限定されず、入力装置34に対してキャリブレーション処理を開始するための操作がなされたときに、キャリブレーション処理を開始してもよい。また、HMD装置10が観察者の頭部に装着されたことを検知したときにキャリブレーション処理を開始してもよい。
(Calibration process)
For example, when the power of the main body is turned on, the HMD device 10 starts the calibration process shown in FIG. However, the timing for starting the calibration process is not limited to this, and the calibration process may be started when an operation for starting the calibration process is performed on the input device 34. Further, the calibration process may be started when it is detected that the HMD device 10 is mounted on the observer's head.

[ステップS101]
キャリブレーション処理を開始すると、HMD装置10は、撮像部41として機能し、外界を撮像する。具体的には、HMD装置10は、撮像装置13を制御して撮像を開始することにより、撮像用レンズの光軸方向の撮像画像を生成する。
[Step S101]
When the calibration process is started, the HMD device 10 functions as the imaging unit 41 and images the outside world. Specifically, the HMD device 10 controls the imaging device 13 to start imaging, thereby generating a captured image in the optical axis direction of the imaging lens.

たとえば、図6に示す例のように、HMD装置10を頭部に装着した観察者が、外界に実在する立方体形状の物体を観察しているとする。このとき、撮像装置13によって、撮像用レンズの光軸方向(Z’方向)の風景が撮像されると、図7に示す例のような撮像画像が生成される。   For example, as in the example shown in FIG. 6, it is assumed that an observer wearing the HMD device 10 on the head is observing a cube-shaped object that exists in the outside world. At this time, when the imaging device 13 captures an image of a landscape in the optical axis direction (Z ′ direction) of the imaging lens, a captured image as in the example illustrated in FIG. 7 is generated.

なお、以下では、図6、図7に示すように、撮像装置13の撮像用レンズの中心を座標原点(0,0,0)として、撮像装置13の水平軸をX’軸とし、垂直軸をY’軸とし、光軸(撮像方向)をZ’軸とする。また、このような座標系を、撮像装置基準の座標系X’Y’Z’と称する。   In the following, as shown in FIGS. 6 and 7, the center of the imaging lens of the imaging device 13 is the coordinate origin (0, 0, 0), the horizontal axis of the imaging device 13 is the X ′ axis, and the vertical axis Is the Y ′ axis, and the optical axis (imaging direction) is the Z ′ axis. Such a coordinate system is referred to as an image pickup apparatus reference coordinate system X′Y′Z ′.

また、HMD装置10は、生成した撮像画像をメモリー32やストレージ33に記憶する。   Further, the HMD device 10 stores the generated captured image in the memory 32 or the storage 33.

[ステップS102]
次に、HMD装置10は、特徴点選択部42として機能し、ステップS101において生成された撮像画像を用いて、外界に実在する特徴点を選択する。たとえば、HMD装置10は、エッジ検出や顔認識などの一般的な手法を用いて、撮像画像内で特徴的な部分を、特徴点として抽出する。その後、HMD装置10は、抽出された特徴点の中から、一つの特徴点を選択する。たとえば、図7に示す例のような撮像画像の場合、特徴点選択部42は、立方体形状の物体の頂点を特徴点(A、B、C、D)として選択する。
[Step S102]
Next, the HMD device 10 functions as the feature point selection unit 42, and uses the captured image generated in step S101 to select feature points that exist in the outside world. For example, the HMD device 10 extracts a characteristic portion in the captured image as a feature point using a general method such as edge detection or face recognition. Thereafter, the HMD device 10 selects one feature point from the extracted feature points. For example, in the case of a captured image as in the example illustrated in FIG. 7, the feature point selection unit 42 selects the vertices of a cube-shaped object as feature points (A, B, C, D).

[ステップS103]
続いて、HMD装置10は、第一基準算出部44として機能し、ステップS102において選択された特徴点について、撮像装置13の設置位置を基準とした場合の位置を、第一基準位置として算出する。すなわち、HMD装置10は、撮像装置基準の座標系X’Y’Z’における特徴点の位置(三次元座標)を、第一基準位置として算出する。なお、特徴点のX’Y’座標については、撮像画像を用いて算出し、特徴点のZ’座標については、測距部43により測定された値(距離)を用いて算出する。
[Step S103]
Subsequently, the HMD device 10 functions as the first reference calculation unit 44, and calculates the position when the feature point selected in step S102 is based on the installation position of the imaging device 13 as the first reference position. . That is, the HMD device 10 calculates the position (three-dimensional coordinate) of the feature point in the imaging device reference coordinate system X′Y′Z ′ as the first reference position. Note that the X′Y ′ coordinate of the feature point is calculated using a captured image, and the Z ′ coordinate of the feature point is calculated using a value (distance) measured by the distance measuring unit 43.

より具体的には、HMD装置10は、ステップS101において生成された撮像画像内での特徴点のx座標およびy座標を、第一基準位置のX’座標およびY’座標とする。   More specifically, the HMD device 10 sets the x coordinate and y coordinate of the feature point in the captured image generated in step S101 as the X ′ coordinate and the Y ′ coordinate of the first reference position.

さらに、HMD装置10は、測距部43として機能し、撮像装置13の設置位置から、特徴点までの距離を測定する。たとえば、HMD装置10は、撮像装置13を制御して、不図示の近赤外レーザーから観察者の視界内をスキャンするように出射されたレーザー光のうち、特徴点に反射して戻ってきたレーザー光を受光する。このとき、レーザー光が特徴点まで往復するのに要する時間を計測することによって、特徴点までの奥行き方向の距離を算出する。なお、撮像装置13がステレオカメラまたはアレイカメラである場合には、HMD装置10は、ステレオカメラまたはアレイカメラにより撮像された複数枚の撮像画像を用いて、特徴点までの奥行き方向の距離を算出する。そして、HMD装置10は、ここで算出された奥行き方向の距離を、第一基準位置のZ’座標とする。   Furthermore, the HMD device 10 functions as the distance measuring unit 43 and measures the distance from the installation position of the imaging device 13 to the feature point. For example, the HMD device 10 controls the imaging device 13 to return to the feature point out of the laser light emitted from the near-infrared laser (not shown) so as to scan the field of view of the observer. Receives laser light. At this time, the distance in the depth direction to the feature point is calculated by measuring the time required for the laser beam to reciprocate to the feature point. When the imaging device 13 is a stereo camera or an array camera, the HMD device 10 calculates a distance in the depth direction to the feature point using a plurality of captured images captured by the stereo camera or the array camera. To do. Then, the HMD device 10 sets the distance in the depth direction calculated here as the Z ′ coordinate of the first reference position.

[ステップS104]
次に、HMD装置10は、表示制御部45として機能し、ステップS103において算出された第一基準位置(X’,Y’,Z’)にARマーカーが存在しているかのように表示する。たとえば、HMD装置10は、図8(A)に示すような黒丸のAR画像を、ARマーカーMとして表示装置21に表示する。このとき、HMD装置10は、観察者基準の座標系XYZと撮像装置基準の座標系X’Y’Z’とが同一とみなして、第一基準算出部44により算出された第一基準位置(X’,Y’,Z’)にARマーカーMが存在しているかのように表示する。以下では、ARマーカーMが第一基準位置に存在しているかのように表示されたときの表示装置21上の座標(二次元座標)を、第一基準座標K(x,y)と置く。
[Step S104]
Next, the HMD device 10 functions as the display control unit 45 and displays it as if an AR marker exists at the first reference position (X ′, Y ′, Z ′) calculated in step S103. For example, the HMD device 10 displays a black circle AR image as shown in FIG. 8A on the display device 21 as the AR marker M. At this time, the HMD device 10 assumes that the observer-based coordinate system XYZ and the imaging device-based coordinate system X′Y′Z ′ are the same, and calculates the first reference position ( X ′, Y ′, Z ′) is displayed as if the AR marker M exists. In the following, the coordinates (two-dimensional coordinates) on the display device 21 when the AR marker M is displayed as if present at the first reference position are set as the first reference coordinates K (x, y).

なお、第一基準位置(X’,Y’,Z’)にARマーカーが存在しているかのように表示するために、HMD装置10は、ARマーカーの表示位置、サイズ、向き、形状、色(彩度、明度、コントラストなど)、陰影などを調整する。より具体的に説明すると、表示位置については、ARマーカーの周辺に存在する対象物(たとえば、立方体形状の物体など)との距離を調整すればよい。また、サイズ、向き、形状については、一般的な遠近法に従って調整すればよい。また、色については、遠くのものほど霞んで見えるように、彩度、明度、コントラストをそれぞれ調整すればよい。また、陰影については、影の向き、長さなどを調整すればよい。   Note that the HMD device 10 displays the display position, size, orientation, shape, and color of the AR marker in order to display the AR marker as if it exists at the first reference position (X ′, Y ′, Z ′). (Saturation, brightness, contrast, etc.), shadows, etc. are adjusted. More specifically, regarding the display position, the distance from an object (for example, a cube-shaped object, etc.) existing around the AR marker may be adjusted. The size, orientation, and shape may be adjusted according to a general perspective method. As for colors, it is only necessary to adjust the saturation, lightness, and contrast so that distant objects appear more blurred. For the shadow, the direction and length of the shadow may be adjusted.

ただし、ステップS103において算出された第一基準位置は、撮像装置13の位置を基準としており、観察者の視点とは異なるため、その第一基準位置にARマーカーが存在しているかのように表示しても、期待する位置からずれていることがある。たとえば、図9(A)に示す第一基準位置にARマーカーMが存在しているかのように表示しても、図8(A)、図9(B)に示すように、観察者からは、ARマーカーMが特徴点Aからずれて見えることがある。   However, since the first reference position calculated in step S103 is based on the position of the imaging device 13 and is different from the viewpoint of the observer, it is displayed as if the AR marker exists at the first reference position. Even so, it may deviate from the expected position. For example, even if it is displayed as if the AR marker M is present at the first reference position shown in FIG. 9 (A), as shown in FIG. 8 (A) and FIG. , The AR marker M may appear to deviate from the feature point A.

[ステップS105]
そこで、HMD装置10は、第二基準受付部46として機能し、観察者が特徴点の方向を見たときに、特徴点とARマーカーを共にピントを合わせて見ることが可能な第二基準位置の指定を受け付ける。たとえば、HMD装置10は、図8(B)に示す例のように、観察者が一つの特徴点Aの方向を見ながら、表示装置21に表示されたARマーカーMを、その特徴点Aと重なる位置に移動させるマニュアル操作によって、第二基準位置の指定を受け付ける。なお、ARマーカーMが第二基準位置に存在しているかのように表示されたときの表示装置21上の座標(二次元座標)を、第二基準座標K’(x’,y’)と置く。
[Step S105]
Accordingly, the HMD device 10 functions as the second reference receiving unit 46, and when the observer sees the direction of the feature point, the second reference position where both the feature point and the AR marker can be seen in focus. The specification of is accepted. For example, the HMD device 10 uses the AR marker M displayed on the display device 21 as the feature point A while the observer looks at the direction of one feature point A as in the example shown in FIG. The designation of the second reference position is accepted by a manual operation for moving to the overlapping position. Note that the coordinates (two-dimensional coordinates) on the display device 21 when the AR marker M is displayed as if it exists at the second reference position are the second reference coordinates K ′ (x ′, y ′). Put.

なお、第二基準位置にARマーカーを移動させるために、HMD装置10の駆動装置35は、最初に、観察者による入力装置34の操作に従って、表示装置21およびレンズ22を光軸方向(図2に示すL方向)に移動させる。これに伴い、ARマーカーは、観察者から見て、奥行き方向(Z方向)に移動するように見える。最終的には、図9(C)に示すように、駆動装置35は、観察者による入力装置34の操作に従って、観察者がARマーカーMと特徴点Aを共にピントを合わせて見ることが可能だと判断した位置まで、ARマーカーMを奥行き方向に移動させる。これにより、観察者は、特徴点AとARマーカーMを共にピントを合わせて見ることが可能になる。   In order to move the AR marker to the second reference position, the driving device 35 of the HMD device 10 first moves the display device 21 and the lens 22 in the optical axis direction according to the operation of the input device 34 by the observer (FIG. 2). In the L direction). Accordingly, the AR marker appears to move in the depth direction (Z direction) as viewed from the observer. Finally, as shown in FIG. 9C, the driving device 35 allows the observer to focus on the AR marker M and the feature point A in accordance with the operation of the input device 34 by the observer. The AR marker M is moved in the depth direction to the position determined to be. As a result, the observer can see both the feature point A and the AR marker M in focus.

しかし、特徴点とARマーカーの両者にピントを合わせて見ることが可能になっても、図9(C)、図10(A)に示すように、観察者から見て左右方向(X方向)、上下方向(Y方向)にずれて見えることもある。   However, even if it is possible to see both the feature point and the AR marker in focus, as shown in FIGS. 9C and 10A, the left and right direction (X direction) as viewed from the observer. , It may appear shifted in the vertical direction (Y direction).

そこで、HMD装置10の駆動装置35は、次に、観察者による入力装置34の操作に従って、ARマーカーの表示位置を、左右方向(X方向)、上下方向(Y方向)に移動させる。最終的には、図10(B)に示すように、駆動装置35は、観察者による入力装置34の操作に従って、観察者がARマーカーMと特徴点Aが重なる位置まで、ARマーカーMを左右方向、上下方向に移動させる。そして、HMD装置10は、ARマーカーMが特徴点Aと重なったときの位置(X,Y,Z)を第二基準位置とする。   Therefore, the driving device 35 of the HMD device 10 next moves the display position of the AR marker in the horizontal direction (X direction) and the vertical direction (Y direction) according to the operation of the input device 34 by the observer. Finally, as shown in FIG. 10B, the drive device 35 moves the AR marker M left and right until the observer overlaps the AR marker M and the feature point A according to the operation of the input device 34 by the observer. Move it up and down. Then, the HMD device 10 sets the position (X, Y, Z) when the AR marker M overlaps with the feature point A as the second reference position.

[ステップS106]
次に、HMD装置10は、四点の特徴点について処理済みであるか否か判別する。具体的には、HMD装置10は、四点の特徴点について第一基準座標Kおよび第二基準座標K’が得られた場合には、処理済みであると判別し、得られていない場合には、処理済みではないと判別する。
[Step S106]
Next, the HMD device 10 determines whether or not the four feature points have been processed. Specifically, the HMD device 10 determines that the first reference coordinate K and the second reference coordinate K ′ have been obtained for the four feature points, and has determined that the processing has been completed. Determines that it has not been processed.

HMD装置10は、四点の特徴点について処理済みではないと判別した場合には(ステップS106:NO)、四点の特徴点について処理済みになるまで、ステップS101〜ステップS105の処理を繰り返す。これにより、残りの特徴点(B、C、Dなど)についても、第一基準位置が算出され、第二基準位置も指定される(図10(C))。そして、HMD装置10は、四点の特徴点(A、B、C、D)について、第一基準座標Kおよび第二基準座標K’を得る。   If it is determined that the four feature points have not been processed (step S106: NO), the HMD device 10 repeats the processing from step S101 to step S105 until the four feature points have been processed. As a result, the first reference position is also calculated for the remaining feature points (B, C, D, etc.), and the second reference position is also designated (FIG. 10C). Then, the HMD device 10 obtains the first reference coordinate K and the second reference coordinate K ′ for the four feature points (A, B, C, D).

また、HMD装置10は、四点の特徴点について処理済みであると判別した場合には(ステップS106:YES)、処理をステップS107に進める。   If the HMD device 10 determines that the four feature points have been processed (step S106: YES), the process proceeds to step S107.

[ステップS107]
HMD装置10は、基準作成部47として機能し、ステップS103において算出された第一基準位置と、ステップS105において受け付けられた第二基準位置と、のずれに基づいて、第一基準位置を第二基準位置に補正するための基準データを作成する。
[Step S107]
The HMD device 10 functions as the reference creation unit 47, and sets the second reference position to the second reference position based on the difference between the first reference position calculated in step S103 and the second reference position received in step S105. Create reference data for correction to the reference position.

具体的には、HMD装置10は、全ての特徴点(A、B、C、D)についての第一基準座標K(x,y)を第二基準座標K’(x’,y’)に変換可能なホモグラフィ行列Hを求める。すなわち、基準作成部47は、HK=sK’を満たすホモグラフィ行列Hを求める。ここで、ホモグラフィ行列Hは3×3の行列であり、sはスケール係数である。具体的には、HK=sK’は以下の数式1のように記述できる。   Specifically, the HMD device 10 changes the first reference coordinates K (x, y) for all feature points (A, B, C, D) to the second reference coordinates K ′ (x ′, y ′). A convertible homography matrix H is obtained. That is, the reference creation unit 47 obtains a homography matrix H that satisfies HK = sK ′. Here, the homography matrix H is a 3 × 3 matrix, and s is a scale factor. Specifically, HK = sK ′ can be described as in Equation 1 below.

なお、以下に数式1を満たすホモグラフィ行列Hの求め方について簡単に説明する。具体的には、下記の(i)〜(iv)の手順でホモグラフィ行列Hを求める。   A method for obtaining the homography matrix H satisfying Equation 1 will be briefly described below. Specifically, the homography matrix H is obtained by the following procedures (i) to (iv).

(i)HMD装置10は、ホモグラフィのスケーリングを固定するために、数式1のスケール係数sに「1」を代入する。これにより、以下の数式2を得る。   (I) The HMD device 10 substitutes “1” for the scale factor s of Equation 1 in order to fix the scaling of the homography. As a result, the following formula 2 is obtained.

(ii)HMD装置10は、数式2の行列式を分解し、sを消去することにより、以下の数式3を得る。   (Ii) The HMD device 10 decomposes the determinant of Equation 2 and eliminates s to obtain Equation 3 below.

(iii)HMD装置10は、数式3を整理して行列の形で表すと、以下の数式4を得る。   (Iii) The HMD device 10 obtains the following formula 4 when formula 3 is arranged and expressed in the form of a matrix.

(iv)HMD装置10は、数式4の6×2の行列について逆行列を求め、求めた逆行列を左から両辺に乗じることによりパラメータh11〜h32を得る。 (Iv) The HMD device 10 obtains parameters h 11 to h 32 by obtaining an inverse matrix for the 6 × 2 matrix of Equation 4 and multiplying the obtained inverse matrix on both sides from the left.

[ステップS108]
続いて、HMD装置10は、基準作成部47として機能し、ステップS107において求めたパラメータh11〜h32を要素としたホモグラフィ行列Hを、基準データとしてメモリー32やストレージ33に記憶する。
[Step S108]
Subsequently, the HMD device 10 functions as the reference creation unit 47, and stores the homography matrix H having the parameters h11 to h32 obtained in step S107 as elements in the memory 32 and the storage 33 as reference data.

その後、HMD装置10は、キャリブレーション処理を終了する。   Thereafter, the HMD device 10 ends the calibration process.

以上のキャリブレーション処理がHMD装置10において実行されることにより、撮像画像から認識される外界と、観察者が実際に観察している外界と、のずれを補正するための基準を作成することができる。ARアプリケーション部48は、作成された基準を用いてAR画像の表示位置を補正すれば、光学系を複雑にすることなく、観察者が観察している対象物の近傍にAR画像が存在しているかのような表示が可能になる。その結果、観察者は、その対象物とAR画像の両方に同時にピントを合わせて観察することができるようになり、眼が疲れない。   By executing the above calibration processing in the HMD device 10, it is possible to create a reference for correcting a deviation between the outside world recognized from the captured image and the outside world actually observed by the observer. it can. If the AR application unit 48 corrects the display position of the AR image using the created reference, the AR image is present in the vicinity of the object being observed by the observer without complicating the optical system. Display as if it is. As a result, the observer can focus and observe both the object and the AR image at the same time, and the eyes are not tired.

なお、上記したフローチャートの各処理単位は、HMD装置10の理解を容易にするために、主な処理内容に応じて分割したものである。処理ステップの分類の仕方やその名称によって、本願発明が制限されることはない。HMD装置10で行われる処理は、さらに多くの処理ステップに分割することもできる。また、1つの処理ステップが、さらに多くの処理を実行してもよい。   Note that each processing unit of the above-described flowchart is divided according to main processing contents in order to facilitate understanding of the HMD device 10. The invention of the present application is not limited by the method of classification of the processing steps and the names thereof. The processing performed in the HMD device 10 can be divided into more processing steps. One processing step may execute more processes.

<第二実施形態>
上記の第一実施形態では、撮像方向(Z方向)に複数の対象物(たとえば、人物など)が存在する場合には、観察者が注視している対象物を正確に特定できず、AR画像をどの対象物の近傍に表示すればよいのか判断できない。
<Second embodiment>
In the first embodiment described above, when there are a plurality of objects (for example, a person) in the imaging direction (Z direction), the object being watched by the observer cannot be accurately identified, and the AR image It is impossible to determine in which object the object should be displayed.

そこで、第二実施形態に係るHMD装置10は、この問題を解決すべく、観察者の視線方向を検知して、その視線方向の先に存在する対象物の近傍にAR画像を表示可能にする。   Therefore, in order to solve this problem, the HMD device 10 according to the second embodiment detects an observer's line-of-sight direction and enables an AR image to be displayed in the vicinity of an object existing ahead of the line-of-sight direction. .

以下の説明では、上記の第一実施形態と異なる点を中心に説明し、同様の構成については同じ符号を付して説明を省略する。   In the following description, differences from the first embodiment will be mainly described, and the same reference numerals will be given to the same configurations, and description thereof will be omitted.

図11は、第二実施形態に係るAR提供装置の概略構成図である。   FIG. 11 is a schematic configuration diagram of an AR providing apparatus according to the second embodiment.

第二実施形態に係るHMD装置10は、第一実施形態とは一部の構成が異なるAR提供装置20を備える。AR提供装置20は、図11に示すとおり、表示装置21、レンズ22、導光部23、透明板24、第一HOE25の構成に加えて、視線検出装置26、第二HOE27を備える。   The HMD device 10 according to the second embodiment includes an AR providing device 20 that is partially different from the first embodiment. As shown in FIG. 11, the AR providing device 20 includes a line-of-sight detection device 26 and a second HOE 27 in addition to the configuration of the display device 21, the lens 22, the light guide 23, the transparent plate 24, and the first HOE 25.

視線検出装置26は、照明装置26Aと、視線検出用の撮像装置26Bとを備え、第二HOE27は、第一HOE25と同様の機能を有する。   The line-of-sight detection device 26 includes an illumination device 26A and an imaging device 26B for line-of-sight detection, and the second HOE 27 has the same function as the first HOE 25.

図11に示すように、照明装置26Aから照射された照射光(破線)は、第二HOE27にて反射され、透明板24の方向に向きを変えて進行する。そして、照射光は、導光部23内を全反射しながら第一HOE25に向かって進行し、第一HOE25にて反射され、観察者の眼に到達する。そして、観察者の眼にて反射された反射光(実線)は、第一HOE25にて反射され、照射光とは逆方向に導光部23内を全反射しながら第二HOE27に向かって進行し、第二HOE27にて反射され、撮像装置26Bに到達する。   As shown in FIG. 11, the irradiation light (broken line) irradiated from the illumination device 26 </ b> A is reflected by the second HOE 27 and travels in the direction of the transparent plate 24. Then, the irradiation light travels toward the first HOE 25 while being totally reflected in the light guide portion 23, is reflected by the first HOE 25, and reaches the observer's eyes. The reflected light (solid line) reflected by the observer's eyes is reflected by the first HOE 25 and travels toward the second HOE 27 while totally reflecting the light guide 23 in the direction opposite to the irradiation light. Then, it is reflected by the second HOE 27 and reaches the imaging device 26B.

HMD装置10は、撮像部41として機能し、視線検出装置26を制御することによって、観察者の眼に関する撮像画像を得る。そして、HMD装置10は、ARアプリケーション部48として機能し、観察者の眼に関する撮像画像を分析して、観察者の視線方向を検出する。   The HMD device 10 functions as the imaging unit 41 and obtains a captured image related to the eyes of the observer by controlling the line-of-sight detection device 26. The HMD device 10 functions as the AR application unit 48, analyzes a captured image related to the eyes of the observer, and detects the direction of the observer's line of sight.

次に、以上のような視線検出機能を持つ第二実施形態に係るHMD装置10において実行されるAR画像表示処理について説明する。   Next, an AR image display process executed in the HMD device 10 according to the second embodiment having the above-described line-of-sight detection function will be described.

図12は、AR画像表示処理の手順を示すフローチャートである。図13は、観察者が注視している対象物に応じてAR画像の表示位置を変更したときの表示例を示す図である。図13(A)は、観察者が「Aさん」を見ているときの表示例であり、図13(B)は、観察者が「Bさん」を見ているときの表示例である。   FIG. 12 is a flowchart illustrating the procedure of the AR image display process. FIG. 13 is a diagram illustrating a display example when the display position of the AR image is changed according to the object that the observer is gazing at. FIG. 13A is a display example when the observer is looking at “Mr. A”, and FIG. 13B is a display example when the observer is looking at “Mr. B”.

以下、図12、図13を参照して、AR画像表示処理の手順について説明する。   Hereinafter, the procedure of the AR image display process will be described with reference to FIGS. 12 and 13.

(AR画像表示処理)
たとえば、HMD装置10は、第一実施形態のキャリブレーション処理が終了すると、図12に示すAR画像表示処理を開始する。ただし、AR画像表示処理を開始するタイミングは、これに限定されず、入力装置34に対してAR画像表示処理を開始するための操作がなされたときに、AR画像表示処理を開始してもよい。
(AR image display processing)
For example, the HMD device 10 starts the AR image display process shown in FIG. 12 when the calibration process of the first embodiment is completed. However, the timing of starting the AR image display process is not limited to this, and the AR image display process may be started when an operation for starting the AR image display process is performed on the input device 34. .

[ステップS201]
AR画像表示処理を開始すると、HMD装置10は、撮像部41として機能し、観察者の眼を撮像する。具体的には、HMD装置10は、照明装置26Aおよび撮像装置26Bを制御して撮像を開始することにより、観察者の眼に関する撮像画像を生成する。そして、HMD装置10は、生成した撮像画像をメモリー32やストレージ33に記憶する。
[Step S201]
When the AR image display process is started, the HMD device 10 functions as the imaging unit 41 and images the observer's eyes. Specifically, the HMD device 10 controls the illumination device 26A and the imaging device 26B to start imaging, thereby generating a captured image related to the observer's eyes. The HMD device 10 stores the generated captured image in the memory 32 or the storage 33.

[ステップS202]
次に、HMD装置10は、ARアプリケーション部48として機能し、ステップS201において生成された撮像画像を解析して、AR画像を近傍に表示する対象となり得る対象物を認識する。たとえば、HMD装置10は、エッジ検出や顔認識などの一般的な手法を用いて、撮像画像内で特徴的な領域(たとえば、顔など)を抽出する。
[Step S202]
Next, the HMD device 10 functions as the AR application unit 48, analyzes the captured image generated in step S201, and recognizes an object that can be an object for displaying the AR image in the vicinity. For example, the HMD device 10 extracts a characteristic region (for example, a face or the like) in the captured image using a general method such as edge detection or face recognition.

[ステップS203]
HMD装置10は、ステップS202においてAR画像を近傍に表示する対象物が撮像画像内に存在しない場合には(ステップS203:NO)、対象物が見つかるまでステップS201、S202の処理を繰り返す。
[Step S203]
In step S202, if there is no target object that displays an AR image in the vicinity in step S202 (step S203: NO), the HMD device 10 repeats the processes of steps S201 and S202 until the target object is found.

そして、HMD装置10は、少なくとも一つ以上の対象物が見つかると(ステップS203:YES)、処理をステップS204に進める。   Then, when at least one or more objects are found (step S203: YES), the HMD device 10 advances the process to step S204.

[ステップS204]
HMD装置10は、ARアプリケーション部48として機能し、観察者の視線を検出する。たとえば、HMD装置10は、図11に示すAR提供装置20を用いて、観察者の眼に関する撮像画像を得る。そして、HMD装置10は、得られた撮像画像に基づいて、導光部23と観察者の眼の瞳孔または虹彩との間の位置関係を測定し、当該位置関係に基づいて観察者の視点および視線方向を検出する。
[Step S204]
The HMD device 10 functions as the AR application unit 48 and detects the observer's line of sight. For example, the HMD device 10 obtains a captured image relating to the eyes of the observer using the AR providing device 20 illustrated in FIG. Then, the HMD device 10 measures the positional relationship between the light guide 23 and the pupil or iris of the observer's eye based on the obtained captured image, and based on the positional relationship, the observer's viewpoint and Detect gaze direction.

[ステップS205]
次に、HMD装置10は、ARアプリケーション部48として機能し、ステップS204において検出された観察者の視線方向の先に、AR画像を近傍に表示する対象物が存在するか否か判別する。たとえば、HMD装置10は、以下の処理(α)〜(γ)により判別すればよい。
[Step S205]
Next, the HMD device 10 functions as the AR application unit 48 and determines whether or not there is an object for displaying an AR image in the vicinity of the viewer in the direction of the line of sight detected in step S204. For example, the HMD device 10 may determine by the following processes (α) to (γ).

(α)観察者の視点(座標)を通り、ステップS204において検出された観察者の視線方向(方向ベクトル)に延びる直線を求める。   (Α) A straight line passing through the observer's viewpoint (coordinates) and extending in the observer's line-of-sight direction (direction vector) detected in step S204 is obtained.

(β)ステップS202において認識された対象物が占める現実空間(三次元空間)での領域(範囲)を求める。たとえば、上述のステップS103の処理と同様に、撮像装置13により得られる撮像画像と、撮像装置13により算出される奥行き方向の距離とを用いれば求められる。   (Β) A region (range) in the real space (three-dimensional space) occupied by the object recognized in step S202 is obtained. For example, similar to the processing in step S103 described above, the image can be obtained by using the captured image obtained by the imaging device 13 and the distance in the depth direction calculated by the imaging device 13.

なお、処理を簡単にするため、対象物が占める領域ではなく、その対象物を代表する点の座標を求めてもよい。   In order to simplify the process, the coordinates of a point representing the object may be obtained instead of the area occupied by the object.

(γ)上記(α)で求めた直線が、上記(β)で求めた領域と交われば、観察者の視線方向の先に、AR画像を近傍に表示する対象物が存在すると判別する。一方、上記(α)で求めた直線が、上記(β)で求めた領域と交わらなければ、観察者の視線方向の先に、AR画像を近傍に表示する対象物は存在しないと判別する。   (Γ) If the straight line obtained in (α) intersects with the region obtained in (β), it is determined that there is an object for displaying an AR image in the vicinity of the observer's line-of-sight direction. On the other hand, if the straight line obtained in the above (α) does not intersect the area obtained in the above (β), it is determined that there is no object for displaying the AR image in the vicinity of the observer's line of sight.

なお、上記(β)において対象物を代表する点しか求めていない場合には、上記(α)で求めた直線と、上記(β)で求めた代表点との距離を求めればよい。ここで求めた距離が所定閾値以内であれば、観察者の視線方向の先に、AR画像を近傍に表示する対象物が存在することになる。   When only the point representing the object is obtained in (β), the distance between the straight line obtained in (α) and the representative point obtained in (β) may be obtained. If the distance obtained here is within a predetermined threshold, there is an object for displaying the AR image in the vicinity of the viewer's line of sight.

観察者の視線方向の先に、AR画像を近傍に表示する対象物が存在しない場合には(ステップS205:NO)、HMD装置10は、AR画像を表示する必要がないため、処理をステップS201に戻す。一方、観察者の視線方向の先に、AR画像を近傍に表示する対象物が存在する場合には(ステップS205:YES)、処理をステップS206に進める。   If there is no object that displays the AR image in the vicinity of the observer's line of sight (step S205: NO), the HMD device 10 does not need to display the AR image, so the process is performed in step S201. Return to. On the other hand, if there is an object for displaying the AR image in the vicinity of the observer's line of sight (step S205: YES), the process proceeds to step S206.

[ステップS206]
HMD装置10は、ARアプリケーション部48として機能し、AR画像の表示位置を補正する。具体的には、HMD装置10は、上記実施形態のキャリブレーション処理により作成された基準データを適用して、AR画像の表示位置を補正する。たとえば、観察者が観察している対象物の近傍にAR画像を表示したときの表示装置21上の位置(二次元座標)を、上記のステップS107において算出されたホモグラフィ行列Hによって変換すればよい。
[Step S206]
The HMD device 10 functions as the AR application unit 48 and corrects the display position of the AR image. Specifically, the HMD device 10 corrects the display position of the AR image by applying the reference data created by the calibration process of the above embodiment. For example, if the position (two-dimensional coordinates) on the display device 21 when the AR image is displayed near the object being observed by the observer is converted by the homography matrix H calculated in step S107 described above. Good.

[ステップS207]
HMD装置10は、ステップS206の処理によって補正された後の表示位置(表示装置21上の二次元座標で表せる位置)にAR画像を表示する。ステップS207の処理により、観察者が観察している対象物の近傍にAR画像が存在しているかのような表示が可能になる。たとえば、図13(A)に示すように、手前の人物の横に名前(「Aさん」というふきだし画像)を表示することも可能である。このとき、観察者は、視線方向に存在するAさんと、名前(AR画像)の両方に同時にピントを合わせて観察できる。また、HMD装置10は、観察者の視線方向に存在しないBさん(Aさんより奥に存在する人物)の横にはAR画像を表示させない。これにより、視線方向に存在するAさんと同時にピントを合わせて観察できないAR画像の表示を防止している。
[Step S207]
The HMD device 10 displays the AR image at the display position (position represented by two-dimensional coordinates on the display device 21) after being corrected by the process of step S206. By the processing in step S207, it is possible to display as if the AR image is present in the vicinity of the object being observed by the observer. For example, as shown in FIG. 13A, a name (a speech bubble “Mr. A”) can be displayed next to the person in front. At this time, the observer can observe both Mr. A who exists in the line-of-sight direction and the name (AR image) in focus at the same time. Further, the HMD device 10 does not display an AR image next to Mr. B (a person existing behind Mr. A) who does not exist in the viewing direction of the observer. This prevents display of an AR image that cannot be observed in focus at the same time as Mr. A who exists in the line-of-sight direction.

[ステップS208]
HMD装置10は、ARアプリケーション部48として機能し、AR画像表示処理を終了する指示が観察者よりなされたか否か判別する。具体的には、HMD装置10は、入力装置34に対してAR画像表示処理を終了する操作がなされたか否かに応じて判別すればよい。
[Step S208]
The HMD device 10 functions as the AR application unit 48 and determines whether or not an instruction to end the AR image display process has been given by the observer. Specifically, the HMD device 10 may determine whether or not the input device 34 has been operated to end the AR image display process.

HMD装置10は、AR画像表示処理を終了する指示がなされていない場合には(ステップS208:NO)、処理をステップS201に戻し、AR画像表示処理を継続する。このとき、後のステップS204において観察者の視線方向が変わると、HMD装置10は、図13(B)に示すように、新たに視線が向けられた奥の人物の横に名前(「Bさん」というふきだし画像)を表示することが可能になる(ステップS206、S207)。この場合も、観察者は、新たな視線方向に存在するBさんと、名前(AR画像)の両方に同時にピントを合わせて観察できる。また、HMD装置10は、観察者の新たな視線方向にいないAさんの横にはAR画像を表示させない。   If there is no instruction to end the AR image display process (step S208: NO), the HMD device 10 returns the process to step S201 and continues the AR image display process. At this time, if the observer's line-of-sight direction changes in the subsequent step S204, the HMD device 10 displays the name ("Mr. B" next to the person in the back where the line-of-sight is newly directed, as shown in FIG. Can be displayed (steps S206 and S207). Also in this case, the observer can observe by focusing on both Mr. B existing in the new line-of-sight direction and the name (AR image) at the same time. Further, the HMD device 10 does not display an AR image beside Mr. A who is not in the observer's new line-of-sight direction.

一方、HMD装置10は、AR画像表示処理を終了する指示がなされた場合には(ステップS208:YES)、AR画像表示処理を終了する。   On the other hand, when an instruction to end the AR image display process is given (step S208: YES), the HMD device 10 ends the AR image display process.

以上のAR画像表示処理がHMD装置10において実行されることにより、観察者の視線方向を検知しながらAR画像の表示対象を変更できる。そのため、そのとき観察者が注視している対象物の近傍にAR画像が存在しているかのような表示が可能になる。その結果、観察者は、常に、視線の先にある対象物とAR画像の両方に同時にピントを合わせて観察可能になり、眼が疲れない。   By executing the above AR image display processing in the HMD device 10, it is possible to change the display target of the AR image while detecting the line of sight of the observer. Therefore, it is possible to display as if the AR image is present in the vicinity of the target object being watched by the observer. As a result, the observer can always focus and observe both the object in the line of sight and the AR image at the same time, and the eyes are not tired.

<変形例>
なお、上記の各実施形態は、本発明の要旨を例示することを意図し、本発明を限定するものではない。多くの代替物、修正、変形例は当業者にとって明らかである。
<Modification>
In addition, each said embodiment intends to illustrate the summary of this invention, and does not limit this invention. Many alternatives, modifications, and variations will be apparent to those skilled in the art.

たとえば、上記の第一実施形態では、図7に示すように、ARマーカーの調整時にARマーカーしか表示していない。そのため、観察者は、どのような作業をすればよいのかわかりにくい。   For example, in the first embodiment, as shown in FIG. 7, only the AR marker is displayed when the AR marker is adjusted. Therefore, it is difficult for the observer to understand what kind of work should be performed.

そこで、ARマーカーの調整時における表示装置21の表示について、変形例として、HMD装置10は、ARマーカーと共に、ARマーカーの調整中に観察者が見つめているべき点A’を表示装置21に表示してもよい。図14は、ARマーカーの調整時における表示装置21の表示についての変形例を示す図である。図14の太枠内の画像を追加して表示することにより、観察者は、どこを見てARマーカーを調整すればよいのか容易に把握できる。   Therefore, as a modification of the display on the display device 21 during the adjustment of the AR marker, the HMD device 10 displays, on the display device 21, the point A ′ that the observer should look at during the adjustment of the AR marker together with the AR marker. May be. FIG. 14 is a diagram showing a modification of the display on the display device 21 when adjusting the AR marker. By adding and displaying the image within the thick frame in FIG. 14, the observer can easily grasp where to view and adjust the AR marker.

また、HMD装置10は、ARマーカー以外に、たとえば、観察者に調整を促すメッセージや図形を表示装置21に表示してもよい。   In addition to the AR marker, the HMD device 10 may display, for example, a message or a graphic for urging the observer to make adjustments on the display device 21.

また、上記の各実施形態では、HMD装置10のフレーム11は、メガネ型の形状をしている。しかし、本発明は、これに限定されない。フレーム11は、HMD装置10を観察者の頭部に装着可能にして、AR提供装置20を観察者の目前に配置させることさえできればよく、その名称、形状、寸法、材質などは特に限定されない。   Further, in each of the above embodiments, the frame 11 of the HMD device 10 has a glasses shape. However, the present invention is not limited to this. The frame 11 only needs to be able to mount the HMD device 10 on the observer's head and to place the AR providing device 20 in front of the observer, and the name, shape, dimensions, material, and the like are not particularly limited.

また、上記の第一実施形態では、観察者基準の座標系XYZにおいて、座標原点を観察者の両眼間の中点としている。しかし、本発明は、これに限定されない。たとえば、観察者基準の座標原点は、利き目の眼球の中心位置としてもよいし、観察者がマニュアル操作により両眼の中心位置として指定した位置としてもよい。   In the first embodiment, the coordinate origin is the midpoint between the eyes of the observer in the observer-based coordinate system XYZ. However, the present invention is not limited to this. For example, the observer reference coordinate origin may be the center position of the dominant eyeball, or may be the position designated by the observer as the center position of both eyes by manual operation.

また、上記の第一実施形態では、ARマーカーを移動させることにより第二基準位置を指定している。しかし、本発明は、これに限定されず、ARマーカーを移動させる方法以外の方法によって第二基準位置を指定してもよい。たとえば、ARマーカーの代わりに、線や平面などの図形のAR画像を、移動、回転、縮尺変更などして第二基準位置を指定できるようにしてもよい。   In the first embodiment, the second reference position is designated by moving the AR marker. However, the present invention is not limited to this, and the second reference position may be designated by a method other than the method of moving the AR marker. For example, instead of the AR marker, a second reference position may be designated by moving, rotating, or changing the scale of an AR image of a figure such as a line or a plane.

また、上記の第一実施形態において、ステップS102で選択される各特徴点(A、B、C、D)は、なるべく観察者の位置から同距離にある方が好ましい。たとえば、各特徴点(A、B、C、D)は、平面被写体の中の四点であることが好ましい。   In the first embodiment, it is preferable that the feature points (A, B, C, D) selected in step S102 be as far as possible from the position of the observer. For example, each feature point (A, B, C, D) is preferably four points in a plane subject.

図15は、観察者の頭が揺れたときの撮像画像および観察者の視界の例を示す図である。図15(A)は、観察者の頭が揺れたときの撮像画像の例を示す図であり、図15(B)は、観察者の頭が揺れたときの観察者の視界の例を示す図である。   FIG. 15 is a diagram illustrating an example of a captured image and an observer's field of view when the observer's head is shaken. FIG. 15A is a diagram illustrating an example of a captured image when the observer's head is shaken, and FIG. 15B is an example of the observer's field of view when the observer's head is shaken. FIG.

図15(A)に示すように、上記の第一実施形態では、ARマーカーの調整中に観察者の頭が揺れて、撮像装置13により撮像された撮像画像内で特徴点が動いてしまう場合がある。しかし、このように観察者の頭が揺れた場合であっても、図15(B)に示すように、ARマーカーの表示位置は、撮像画像内の特徴点の位置と連動しているため、頭が揺れずに固定されている場合と同様に、ARマーカーの調整を行うことができる。   As shown in FIG. 15A, in the first embodiment described above, the observer's head is shaken during the adjustment of the AR marker, and the feature point moves in the captured image captured by the imaging device 13. There is. However, even when the observer's head is shaken in this way, as shown in FIG. 15B, the display position of the AR marker is linked to the position of the feature point in the captured image. As in the case where the head is fixed without shaking, the AR marker can be adjusted.

以上のHMD装置10の構成は、上記の各実施形態および変形例の特徴を説明するにあたって主要構成を説明したのであって、上記の構成に限られない。また、一般的なHMD装置10が備える構成を排除するものではない。   The above-described configuration of the HMD device 10 has described the main configuration in describing the features of the above-described embodiments and modifications, and is not limited to the above-described configuration. Further, the configuration of the general HMD device 10 is not excluded.

また、上記したHMD装置10の各機能構成は、各機能構成を理解容易にするために、主な処理内容に応じて分類したものである。構成要素の分類の仕方や名称によって、本願発明が制限されることはない。各機能構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、一つの構成要素がさらに多くの処理を実行するように分類することもできる。   In addition, each functional configuration of the HMD device 10 described above is classified according to main processing contents in order to facilitate understanding of each functional configuration. The present invention is not limited by the way of classification and names of the constituent elements. Each functional configuration can be classified into more components according to the processing content. Moreover, it can also classify | categorize so that one component may perform more processes.

また、上記したHMD装置10の各機能構成の処理は、専用のハードウェア回路によっても実現することもできる。この場合には、1つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。   The processing of each functional configuration of the HMD device 10 described above can also be realized by a dedicated hardware circuit. In this case, it may be executed by one hardware or a plurality of hardware.

また、HMD装置10を動作させるプログラムは、USBメモリー、フレキシブルディスク、CD−ROM等のコンピューター読み取り可能な記録媒体によって提供されてもよいし、インターネット等のネットワークを介してオンラインで提供されてもよい。この場合、コンピューター読み取り可能な記録媒体に記録されたプログラムは、通常、メモリー32やストレージ33等に転送され記憶される。また、このプログラムは、たとえば、単独のアプリケーションソフトとして提供されてもよいし、HMD装置10の一機能としてその各装置のソフトウェアに組み込んでもよい。   The program for operating the HMD device 10 may be provided by a computer-readable recording medium such as a USB memory, a flexible disk, or a CD-ROM, or may be provided online via a network such as the Internet. . In this case, the program recorded on the computer-readable recording medium is usually transferred and stored in the memory 32, the storage 33, or the like. Further, this program may be provided as, for example, a single application software, or may be incorporated in the software of each device as one function of the HMD device 10.

10 HMD装置、
11 フレーム、
12 透明部材、
13 撮像装置、
20 AR提供装置、
21 表示装置、
22 レンズ、
23 導光部、
24 透明板、
25 第一HOE、
26 視線検出装置、
26A 照明装置、
26B 視線検出用の撮像装置、
27 第二HOE、
30 本体部、
31 CPU、
32 メモリー、
33 ストレージ、
34 入力装置、
35 駆動装置、
36 表示コントローラー、
41 撮像部、
42 特徴点選択部、
43 測距部、
44 第一基準算出部、
45 表示制御部、
46 第二基準受付部、
47 基準作成部、
48 ARアプリケーション部、
M ARマーカー。
10 HMD device,
11 frames,
12 Transparent member,
13 imaging device,
20 AR providing device,
21 display device,
22 lenses,
23 light guide,
24 Transparent plate,
25 First HOE,
26 gaze detection device,
26A lighting device,
26B An imaging device for detecting a line of sight,
27 Second HOE,
30 body part,
31 CPU,
32 memory,
33 storage,
34 input devices,
35 drive unit,
36 Display controller,
41 imaging unit,
42 feature point selection unit,
43 Ranging section,
44 1st standard calculation part,
45 Display control unit,
46 Second Standard Reception Department,
47 Standard creation department,
48 AR application part,
MAR marker.

Claims (15)

外界からの光を透過しつつ、コンテンツ情報に応じた画像光を観察者の眼に投射する画像表示装置であって、
外界を撮像して撮像画像を生成する撮像部と、
前記撮像部により生成された前記撮像画像を用いて、外界に実在する特徴点を選択する選択部と、
前記撮像部の設置位置から前記特徴点までの距離を測定する測距部と、
前記測距部により測定された前記距離を用いて、前記撮像部の設置位置を基準とした場合の前記特徴点の位置を、第一基準位置として算出する算出部と、
前記観察者が前記特徴点の方向を見たときに、前記特徴点と前記コンテンツ情報を、奥行き方向において、共にピントを合わせて見ることが可能な第二基準位置であるとの前記観察者の指定を受け付ける受付部と、
前記算出部により算出された前記第一基準位置と、前記受付部により受け付けられた前記第二基準位置と、のずれに基づいて、前記第一基準位置を前記第二基準位置に補正するための基準データを作成する基準作成部と、
を備える画像表示装置。
An image display device that projects image light according to content information to an observer's eye while transmitting light from the outside world,
An imaging unit that images the outside world and generates a captured image;
Using the captured image generated by the imaging unit, a selection unit that selects feature points that exist in the outside world; and
A distance measuring unit for measuring a distance from an installation position of the imaging unit to the feature point;
Using the distance measured by the distance measuring unit, a calculation unit that calculates the position of the feature point when the installation position of the imaging unit is used as a reference, and a first reference position;
When the observer sees the direction of the feature point, the observer sees that the feature point and the content information are the second reference position where the feature point and the content information can both be viewed in focus in the depth direction. A reception unit that accepts the designation;
For correcting the first reference position to the second reference position based on a deviation between the first reference position calculated by the calculation unit and the second reference position received by the receiving unit. A reference creation unit for creating reference data;
An image display device comprising:
外界からの光を透過しつつ、コンテンツ情報に応じた画像光を観察者の眼に投射する画像表示装置であって、
外界を撮像して撮像画像を生成する撮像部と、
前記撮像部により生成された前記撮像画像を用いて、外界に実在する特徴点を選択する選択部と、
前記撮像部の設置位置を基準とした場合の前記特徴点の位置を、第一基準位置として算出する算出部と、
前記観察者が前記特徴点の方向を見たときに、前記特徴点と前記コンテンツ情報を、奥行き方向において、共にピントを合わせて見ることが可能な第二基準位置であるとの前記観察者の指定を受け付ける受付部と、
前記算出部により算出された前記第一基準位置と、前記受付部により受け付けられた前記第二基準位置と、のずれに基づいて、前記第一基準位置を前記第二基準位置に補正するための基準データを作成する基準作成部と、を備え
前記撮像部は、ステレオカメラまたはアレイカメラであって、
前記算出部は、前記ステレオカメラまたは前記アレイカメラにより生成された複数枚の撮像画像を用いて、前記第一基準位置を算出する、画像表示装置。
An image display device that projects image light according to content information to an observer's eye while transmitting light from the outside world,
An imaging unit that images the outside world and generates a captured image;
Using the captured image generated by the imaging unit, a selection unit that selects feature points that exist in the outside world; and
A calculation unit that calculates the position of the feature point when the installation position of the imaging unit is a reference, as a first reference position;
When the observer sees the direction of the feature point, the observer sees that the feature point and the content information are the second reference position where the feature point and the content information can both be viewed in focus in the depth direction. A reception unit that accepts the designation;
For correcting the first reference position to the second reference position based on a deviation between the first reference position calculated by the calculation unit and the second reference position received by the receiving unit. A standard creation unit for creating standard data ,
The imaging unit is a stereo camera or an array camera,
The image display device , wherein the calculation unit calculates the first reference position using a plurality of captured images generated by the stereo camera or the array camera .
外界からの光を透過しつつ、コンテンツ情報に応じた画像光を観察者の眼に投射する画像表示装置であって、
外界を撮像して撮像画像を生成する撮像部と、
前記撮像部により生成された前記撮像画像を用いて、外界に実在する特徴点を選択する選択部と、
前記撮像部の設置位置を基準とした場合の前記特徴点の位置を、第一基準位置として算出する算出部と、
前記観察者が前記特徴点の方向を見たときに、前記特徴点と前記コンテンツ情報を、奥行き方向において、共にピントを合わせて見ることが可能な第二基準位置であるとの前記観察者の指定を受け付ける受付部と、
前記算出部により算出された前記第一基準位置と、前記受付部により受け付けられた前記第二基準位置と、のずれに基づいて、前記第一基準位置を前記第二基準位置に補正するための基準データを作成する基準作成部と、を備え
前記受付部は、表示された前記コンテンツ情報を、前記特徴点と共にピントを合わせて見ることが可能な位置まで奥行き方向に移動させてから、前記奥行き方向と垂直な平面内において前記コンテンツ情報を前記特徴点に重ねるように移動させる、前記観察者の操作により、前記第二基準位置の指定を受け付ける、画像表示装置。
An image display device that projects image light according to content information to an observer's eye while transmitting light from the outside world,
An imaging unit that images the outside world and generates a captured image;
Using the captured image generated by the imaging unit, a selection unit that selects feature points that exist in the outside world; and
A calculation unit that calculates the position of the feature point when the installation position of the imaging unit is a reference, as a first reference position;
When the observer sees the direction of the feature point, the observer sees that the feature point and the content information are the second reference position where the feature point and the content information can both be viewed in focus in the depth direction. A reception unit that accepts the designation;
For correcting the first reference position to the second reference position based on a deviation between the first reference position calculated by the calculation unit and the second reference position received by the receiving unit. A standard creation unit for creating standard data ,
The reception unit moves the displayed content information in the depth direction to a position where the content point can be focused and viewed together with the feature point, and then moves the content information in a plane perpendicular to the depth direction. An image display device that accepts designation of the second reference position by an operation of the observer that is moved so as to overlap with a feature point .
前記算出部により算出された前記第一基準位置に前記コンテンツ情報が存在するように表示する表示部をさらに備え、
前記受付部は、前記表示部に表示された前記コンテンツ情報を、前記特徴点の位置に移動させる、前記観察者の操作によって、前記第二基準位置の指定を受け付ける、請求項1〜3のいずれか一項に記載の画像表示装置。
A display unit for displaying the content information so as to exist at the first reference position calculated by the calculation unit;
The said reception part receives designation | designated of said 2nd reference position by operation of the said observer who moves the said content information displayed on the said display part to the position of the said feature point , Any one of Claims 1-3 the image display apparatus according to an item or.
前記基準作成部により作成された基準データを用いて、新たなコンテンツ情報の表示位置を補正する補正部をさらに備え、
前記補正部は、前記観察者が注視している対象物に応じて、前記新たなコンテンツ情報の表示位置を変更する、請求項1〜のいずれか一項に記載の画像表示装置。
A correction unit that corrects the display position of new content information using the reference data created by the reference creation unit;
Wherein the correction unit in accordance with the object to the observer is gazing, to change the display position of the new content information, the image display apparatus according to any one of claims 1-4.
外界からの光を透過しつつ、コンテンツ情報に応じた画像光を観察者の眼に投射する画像表示方法であって、
(a)外界を撮像して撮像画像を生成するステップと、
(b)前記ステップ(a)において生成された撮像画像を用いて、外界に実在する特徴点を選択するステップと、
(c)前記撮像装置の設置位置から、前記ステップ(b)により選択された前記特徴点までの距離を測定するステップと、
前記ステップ(c)において測定された前記距離を用いて、前記ステップ(a)において撮像を行う撮像装置の設置位置を基準とした場合の前記特徴点の位置を、第一基準位置として算出するステップと、
)前記観察者が前記特徴点の方向を見たときに、前記特徴点と前記コンテンツ情報を、奥行き方向において、共にピントを合わせて見ることが可能な第二基準位置であるとの前記観察者の指定を受け付けるステップと、
)前記ステップ()において算出された前記第一基準位置と、前記ステップ()において受け付けられた前記第二基準位置と、のずれに基づいて、前記第一基準位置を前記第二基準位置に補正するための基準データを作成するステップと、
を行う画像表示方法。
An image display method for projecting image light according to content information to an observer's eye while transmitting light from the outside world,
(A) imaging the outside world to generate a captured image;
(B) using the captured image generated in step (a), selecting a feature point that exists in the outside world;
(C) measuring the distance from the installation position of the imaging device to the feature point selected in step (b);
( D ) Using the distance measured in step (c) as the first reference position, the position of the feature point when the installation position of the imaging device that performs imaging in step (a) is used as a reference A calculating step;
( E ) When the observer sees the direction of the feature point, the feature point and the content information are in a depth direction, and the second reference position can be viewed in focus in the depth direction. A step of accepting an observer's designation;
( F ) Based on the difference between the first reference position calculated in step ( d ) and the second reference position received in step ( e ), the first reference position is changed to the second reference position. Creating reference data for correcting the reference position;
Image display method.
外界からの光を透過しつつ、コンテンツ情報に応じた画像光を観察者の眼に投射する画像表示方法であって、
(a)外界を撮像して撮像画像を生成するステップと、
(b)前記ステップ(a)において生成された撮像画像を用いて、外界に実在する特徴点を選択するステップと、
)前記ステップ(a)において撮像を行う撮像装置の設置位置を基準とした場合の前記特徴点の位置を、第一基準位置として算出するステップと、
)前記観察者が前記特徴点の方向を見たときに、前記特徴点と前記コンテンツ情報を、奥行き方向において、共にピントを合わせて見ることが可能な第二基準位置であるとの前記観察者の指定を受け付けるステップと、
)前記ステップ()において算出された前記第一基準位置と、前記ステップ()において受け付けられた前記第二基準位置と、のずれに基づいて、前記第一基準位置を前記第二基準位置に補正するための基準データを作成するステップと、を行い
前記撮像装置は、ステレオカメラまたはアレイカメラであって、
前記ステップ(d)は、前記ステレオカメラまたは前記アレイカメラにより生成された複数枚の撮像画像を用いて、前記第一基準位置を算出する、画像表示方法。
An image display method for projecting image light according to content information to an observer's eye while transmitting light from the outside world,
(A) imaging the outside world to generate a captured image;
(B) using the captured image generated in step (a), selecting a feature point that exists in the outside world;
( D ) calculating the position of the feature point as a first reference position when the installation position of the imaging device that performs imaging in step (a) is used as a reference;
( E ) When the observer sees the direction of the feature point, the feature point and the content information are in a depth direction, and the second reference position can be viewed in focus in the depth direction. A step of accepting an observer's designation;
( F ) Based on the difference between the first reference position calculated in step ( d ) and the second reference position received in step ( e ), the first reference position is changed to the second reference position. Creating reference data for correcting to the reference position ,
The imaging device is a stereo camera or an array camera,
The step (d) is an image display method in which the first reference position is calculated using a plurality of captured images generated by the stereo camera or the array camera .
外界からの光を透過しつつ、コンテンツ情報に応じた画像光を観察者の眼に投射する画像表示方法であって、
(a)外界を撮像して撮像画像を生成するステップと、
(b)前記ステップ(a)において生成された撮像画像を用いて、外界に実在する特徴点を選択するステップと、
)前記ステップ(a)において撮像を行う撮像装置の設置位置を基準とした場合の前記特徴点の位置を、第一基準位置として算出するステップと、
)前記観察者が前記特徴点の方向を見たときに、前記特徴点と前記コンテンツ情報を、奥行き方向において、共にピントを合わせて見ることが可能な第二基準位置であるとの前記観察者の指定を受け付けるステップと、
)前記ステップ()において算出された前記第一基準位置と、前記ステップ()において受け付けられた前記第二基準位置と、のずれに基づいて、前記第一基準位置を前記第二基準位置に補正するための基準データを作成するステップと、を行い
前記ステップ(e)は、表示された前記コンテンツ情報を、前記特徴点と共にピントを合わせて見ることが可能な位置まで奥行き方向に移動させてから、前記奥行き方向と垂直な平面内において前記コンテンツ情報を前記特徴点に重ねるように移動させる、前記観察者の操作により、前記第二基準位置の指定を受け付ける、画像表示方法。
An image display method for projecting image light according to content information to an observer's eye while transmitting light from the outside world,
(A) imaging the outside world to generate a captured image;
(B) using the captured image generated in step (a), selecting a feature point that exists in the outside world;
( D ) calculating the position of the feature point as a first reference position when the installation position of the imaging device that performs imaging in step (a) is used as a reference;
( E ) When the observer sees the direction of the feature point, the feature point and the content information are in a depth direction, and the second reference position can be viewed in focus in the depth direction. A step of accepting an observer's designation;
( F ) Based on the difference between the first reference position calculated in step ( d ) and the second reference position received in step ( e ), the first reference position is changed to the second reference position. Creating reference data for correcting to the reference position ,
The step (e) moves the displayed content information in the depth direction to a position where it can be seen together with the feature point, and then moves the content information in a plane perpendicular to the depth direction. An image display method for accepting designation of the second reference position by an operation of the observer, wherein the second reference position is moved so as to overlap the feature point .
)前記ステップ()において算出された前記第一基準位置に前記コンテンツ情報が存在するように表示するステップをさらに行い、
前記ステップ()は、前記ステップ()において表示された前記コンテンツ情報を、前記特徴点の位置に移動させる、前記観察者の操作によって、前記第二基準位置の指定を受け付ける、請求項6〜8のいずれか一項に記載の画像表示方法。
( G ) further performing a step of displaying the content information so as to exist at the first reference position calculated in the step ( d );
Wherein step (e) is the content information displayed in the step (g), is moved to the position of the feature point, by the observer's operation, it receives designation of the second reference position, according to claim 6 The image display method as described in any one of -8 .
(h)前記ステップ()において作成された基準データを用いて、新たなコンテンツ情報の表示位置を補正するステップをさらに行い、
前記ステップ(h)は、前記観察者が注視している対象物に応じて、前記新たなコンテンツ情報の表示位置を変更する、請求項のいずれか一項に記載の画像表示方法。
(H) further performing the step of correcting the display position of the new content information using the reference data created in the step ( f ),
Wherein step (h), depending on the object to the observer is gazing, to change the display position of the new content information, the image display method according to any one of claims 6-9.
外界からの光を透過しつつ、コンテンツ情報に応じた画像光を観察者の眼に投射する画像表示装置として機能するコンピューターに、
(a)外界を撮像して撮像画像を生成するステップと、
(b)前記ステップ(a)において生成された撮像画像を用いて、外界に実在する特徴点を選択するステップと、
(c)前記撮像装置の設置位置から、前記ステップ(b)により選択された前記特徴点までの距離を測定するステップと、
前記ステップ(c)において測定された前記距離を用いて、前記ステップ(a)において撮像を行う撮像装置の設置位置を基準とした場合の前記特徴点の位置を、第一基準位置として算出するステップと、
)前記観察者が前記特徴点の方向を見たときに、前記特徴点と前記コンテンツ情報を、奥行き方向において、共にピントを合わせて見ることが可能な第二基準位置であるとの前記観察者の指定を受け付けるステップと、
)前記ステップ()において算出された前記第一基準位置と、前記ステップ()において受け付けられた前記第二基準位置と、のずれに基づいて、前記第一基準位置を前記第二基準位置に補正するための基準データを作成するステップと、
を実行させる画像表示プログラム。
To a computer that functions as an image display device that projects image light according to content information to the viewer's eyes while transmitting light from the outside world,
(A) imaging the outside world to generate a captured image;
(B) using the captured image generated in step (a), selecting a feature point that exists in the outside world;
(C) measuring the distance from the installation position of the imaging device to the feature point selected in step (b);
( D ) Using the distance measured in step (c) as the first reference position, the position of the feature point when the installation position of the imaging device that performs imaging in step (a) is used as a reference A calculating step;
( E ) When the observer sees the direction of the feature point, the feature point and the content information are in a depth direction, and the second reference position can be viewed in focus in the depth direction. A step of accepting an observer's designation;
( F ) Based on the difference between the first reference position calculated in step ( d ) and the second reference position received in step ( e ), the first reference position is changed to the second reference position. Creating reference data for correcting the reference position;
An image display program that executes
外界からの光を透過しつつ、コンテンツ情報に応じた画像光を観察者の眼に投射する画像表示装置として機能するコンピューターに、
(a)外界を撮像して撮像画像を生成するステップと、
(b)前記ステップ(a)において生成された撮像画像を用いて、外界に実在する特徴点を選択するステップと、
)前記ステップ(a)において撮像を行う撮像装置の設置位置を基準とした場合の前記特徴点の位置を、第一基準位置として算出するステップと、
)前記観察者が前記特徴点の方向を見たときに、前記特徴点と前記コンテンツ情報を、奥行き方向において、共にピントを合わせて見ることが可能な第二基準位置であるとの前記観察者の指定を受け付けるステップと、
)前記ステップ()において算出された前記第一基準位置と、前記ステップ()において受け付けられた前記第二基準位置と、のずれに基づいて、前記第一基準位置を前記第二基準位置に補正するための基準データを作成するステップと、を実行させ
前記撮像装置は、ステレオカメラまたはアレイカメラであって、
前記ステップ(d)は、前記ステレオカメラまたは前記アレイカメラにより生成された複数枚の撮像画像を用いて、前記第一基準位置を算出する、画像表示プログラム。
To a computer that functions as an image display device that projects image light according to content information to the viewer's eyes while transmitting light from the outside world,
(A) imaging the outside world to generate a captured image;
(B) using the captured image generated in step (a), selecting a feature point that exists in the outside world;
( D ) calculating the position of the feature point as a first reference position when the installation position of the imaging device that performs imaging in step (a) is used as a reference;
( E ) When the observer sees the direction of the feature point, the feature point and the content information are in a depth direction, and the second reference position can be viewed in focus in the depth direction. A step of accepting an observer's designation;
( F ) Based on the difference between the first reference position calculated in step ( d ) and the second reference position received in step ( e ), the first reference position is changed to the second reference position. Creating reference data for correcting to a reference position ; and
The imaging device is a stereo camera or an array camera,
The step (d) is an image display program for calculating the first reference position using a plurality of captured images generated by the stereo camera or the array camera .
外界からの光を透過しつつ、コンテンツ情報に応じた画像光を観察者の眼に投射する画像表示装置として機能するコンピューターに、
(a)外界を撮像して撮像画像を生成するステップと、
(b)前記ステップ(a)において生成された撮像画像を用いて、外界に実在する特徴点を選択するステップと、
)前記ステップ(a)において撮像を行う撮像装置の設置位置を基準とした場合の前記特徴点の位置を、第一基準位置として算出するステップと、
)前記観察者が前記特徴点の方向を見たときに、前記特徴点と前記コンテンツ情報を、奥行き方向において、共にピントを合わせて見ることが可能な第二基準位置であるとの前記観察者の指定を受け付けるステップと、
)前記ステップ()において算出された前記第一基準位置と、前記ステップ()において受け付けられた前記第二基準位置と、のずれに基づいて、前記第一基準位置を前記第二基準位置に補正するための基準データを作成するステップと、を実行させ
前記ステップ(e)は、表示された前記コンテンツ情報を、前記特徴点と共にピントを合わせて見ることが可能な位置まで奥行き方向に移動させてから、前記奥行き方向と垂直な平面内において前記コンテンツ情報を前記特徴点に重ねるように移動させる、前記観察者の操作により、前記第二基準位置の指定を受け付ける、画像表示プログラム。
To a computer that functions as an image display device that projects image light according to content information to the viewer's eyes while transmitting light from the outside world,
(A) imaging the outside world to generate a captured image;
(B) using the captured image generated in step (a), selecting a feature point that exists in the outside world;
( D ) calculating the position of the feature point as a first reference position when the installation position of the imaging device that performs imaging in step (a) is used as a reference;
( E ) When the observer sees the direction of the feature point, the feature point and the content information are in a depth direction, and the second reference position can be viewed in focus in the depth direction. A step of accepting an observer's designation;
( F ) Based on the difference between the first reference position calculated in step ( d ) and the second reference position received in step ( e ), the first reference position is changed to the second reference position. Creating reference data for correcting to a reference position ; and
The step (e) moves the displayed content information in the depth direction to a position where it can be seen together with the feature point, and then moves the content information in a plane perpendicular to the depth direction. An image display program for accepting designation of the second reference position by an operation of the observer, which is moved so as to overlap the feature point .
)前記ステップ()において算出された前記第一基準位置に前記コンテンツ情報が存在するように表示するステップをさらに前記コンピューターに実行させ、
前記ステップ()は、前記ステップ()において表示された前記コンテンツ情報を、前記特徴点の位置に移動させる、前記観察者の操作によって、前記第二基準位置の指定を受け付ける、請求項11〜13のいずれか一項に記載の画像表示プログラム。
( G ) causing the computer to further execute a step of displaying the content information so as to exist at the first reference position calculated in the step ( d );
Wherein step (e) is the content information displayed in the step (g), is moved to the position of the feature point, by the observer's operation, receives designation of the second reference position, according to claim 11 The image display program according to any one of to 13.
(h)前記ステップ()において作成された基準データを用いて、新たなコンテンツ情報の表示位置を補正するステップをさらに前記コンピューターに実行させ、
前記ステップ(h)は、前記観察者が注視している対象物に応じて、前記新たなコンテンツ情報の表示位置を変更する、請求項1114のいずれか一項に記載の画像表示プログラム。
(H) causing the computer to further execute a step of correcting the display position of the new content information using the reference data created in the step ( f ),
The image display program according to any one of claims 11 to 14 , wherein the step (h) changes a display position of the new content information in accordance with an object being watched by the observer.
JP2013193535A 2013-09-18 2013-09-18 Image display device, image display method, and image display program Expired - Fee Related JP6349660B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013193535A JP6349660B2 (en) 2013-09-18 2013-09-18 Image display device, image display method, and image display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013193535A JP6349660B2 (en) 2013-09-18 2013-09-18 Image display device, image display method, and image display program

Publications (2)

Publication Number Publication Date
JP2015060071A JP2015060071A (en) 2015-03-30
JP6349660B2 true JP6349660B2 (en) 2018-07-04

Family

ID=52817651

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013193535A Expired - Fee Related JP6349660B2 (en) 2013-09-18 2013-09-18 Image display device, image display method, and image display program

Country Status (1)

Country Link
JP (1) JP6349660B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6701693B2 (en) * 2015-12-02 2020-05-27 セイコーエプソン株式会社 Head-mounted display and computer program
CN105867611A (en) * 2015-12-29 2016-08-17 乐视致新电子科技(天津)有限公司 Space positioning method, device and system in virtual reality system
CN106405838A (en) * 2016-09-30 2017-02-15 珠海市魅族科技有限公司 Sight distance adjustment method and device
CN106791399A (en) * 2016-12-22 2017-05-31 深圳市虚拟现实技术有限公司 Virtual reality zooming space localization method and system
CN107657235A (en) * 2017-09-28 2018-02-02 北京小米移动软件有限公司 Recognition methods and device based on augmented reality
WO2020069037A1 (en) * 2018-09-26 2020-04-02 Magic Leap, Inc. Eyewear with pinhole and slit cameras
JP7446780B2 (en) 2019-11-13 2024-03-11 キヤノン株式会社 display device
US20220390753A1 (en) * 2019-11-13 2022-12-08 Canon Kabushiki Kaisha Display device
CN113641318B (en) * 2021-08-11 2024-03-08 苏州华兴源创科技股份有限公司 Display data calibration method and system

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000350859A (en) * 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk Marker arranging method and composite reality really feeling device
JP2004289548A (en) * 2003-03-24 2004-10-14 Olympus Corp Image adjuster and head-mounted display device
JP4504160B2 (en) * 2004-11-09 2010-07-14 オリンパス株式会社 Composite display device
JP4857196B2 (en) * 2007-05-31 2012-01-18 キヤノン株式会社 Head-mounted display device and control method thereof
JP4681629B2 (en) * 2008-05-21 2011-05-11 日本電信電話株式会社 Display device calibration method and apparatus
EP2960867A4 (en) * 2013-02-21 2016-08-03 Fujitsu Ltd Display device, display method, display program, and position-setting system

Also Published As

Publication number Publication date
JP2015060071A (en) 2015-03-30

Similar Documents

Publication Publication Date Title
JP6349660B2 (en) Image display device, image display method, and image display program
JP6826174B2 (en) Display system and method
US10901223B2 (en) Beam angle sensor in virtual/augmented reality system
US11768377B2 (en) Systems and methods for display binocular deformation compensation
US10643389B2 (en) Mechanism to give holographic objects saliency in multiple spaces
US9961335B2 (en) Pickup of objects in three-dimensional display
US10382699B2 (en) Imaging system and method of producing images for display apparatus
US9035970B2 (en) Constraint based information inference
US9105210B2 (en) Multi-node poster location
JP3787939B2 (en) 3D image display device
US11200646B2 (en) Compensation for deformation in head mounted display systems
US20130088413A1 (en) Method to Autofocus on Near-Eye Display
US20150153572A1 (en) Adjustment of Location of Superimposed Image
JP2014219621A (en) Display device and display control program
KR20150086388A (en) People-triggered holographic reminders
AU2013351980A1 (en) Direct hologram manipulation using IMU
WO2022017447A1 (en) Image display control method, image display control apparatus, and head-mounted display device
JP2017049468A (en) Display device, control method for display device, and program
JP2017102696A (en) Head mounted display device and computer program
US20210218946A1 (en) Image display device and image display method
JP2016090853A (en) Display device, control method of display device and program
WO2013179425A1 (en) Display device, head-mounted display, calibration method, calibration program, and recording medium
JP2000132329A (en) Device and method for recognizing surface and virtual image solid synthesizer
JP2017091190A (en) Image processor, image processing method, and program
JP5332127B2 (en) Head-mounted display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170905

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20171102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180521

R150 Certificate of patent or registration of utility model

Ref document number: 6349660

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees