JP2014228595A - Augmented reality space display device - Google Patents

Augmented reality space display device Download PDF

Info

Publication number
JP2014228595A
JP2014228595A JP2013106422A JP2013106422A JP2014228595A JP 2014228595 A JP2014228595 A JP 2014228595A JP 2013106422 A JP2013106422 A JP 2013106422A JP 2013106422 A JP2013106422 A JP 2013106422A JP 2014228595 A JP2014228595 A JP 2014228595A
Authority
JP
Japan
Prior art keywords
image
augmented reality
reality space
display
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013106422A
Other languages
Japanese (ja)
Other versions
JP6341355B2 (en
Inventor
雅雄 高橋
Masao Takahashi
雅雄 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2013106422A priority Critical patent/JP6341355B2/en
Publication of JP2014228595A publication Critical patent/JP2014228595A/en
Application granted granted Critical
Publication of JP6341355B2 publication Critical patent/JP6341355B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an augmented reality space display device that allows a user to visually recognize a composite image and a reality space on the periphery of the image in good condition.SOLUTION: An augmented reality space display device includes an AR display unit 13 that overlaps light output from a self-luminous image display element 11 on external light L1 arriving from a reality space by using a prism 14 to display an augmented reality space in which an image displayed on the image display element 11 is combined with the reality space, and a shutter 14 that shields the external light L1 and can change a light-shielding area in an arbitrary manner. The augmented reality space display device shields, with the shutter 14, the external light L1 illuminating a portion overlapped with the image displayed on the image display element 11 in the augmented reality space seen by a user.

Description

本発明は、現実空間に画像を合成した拡張現実空間を表示する拡張現実空間表示装置に関する。   The present invention relates to an augmented reality space display device that displays an augmented reality space obtained by combining an image with a real space.

いわゆるAR(Augmented Reality)技術によって、視界内に画像を重ねて表示し操作ガイダンスなどを実現する方法が実用化されつつある。これに用いられるヘッドマウントディスプレイは、プリズムやハーフミラーなどにより画像表示素子に表示した画像を視界に光学的に合成する構成が一般的である。この際、使用環境によっては逆光や発光物や視界内の色彩によって、視界に重ねあわせた画像の視認性が悪くなることがあった。   A so-called AR (Augmented Reality) technique is being put to practical use in which an operation guidance and the like are realized by displaying images superimposed in the field of view. A head-mounted display used for this is generally configured to optically combine an image displayed on an image display element with a prism, a half mirror, or the like in the field of view. At this time, depending on the use environment, the visibility of an image superimposed on the field of view may be deteriorated due to backlight, light emitting matter, or color in the field of view.

この問題に対応する技術として、たとえば、外界からの光を減衰させる減衰フィルタを設けると共に外界の明るさを検出し、外界の明るさに応じて減光フィルタの透過率を制御する透過型ヘッドマウントディスプレイがある(特許文献1参照)。   As a technique for dealing with this problem, for example, a transmission type head mount that provides an attenuation filter that attenuates light from the outside, detects the brightness of the outside, and controls the transmittance of the neutral density filter according to the brightness of the outside. There is a display (see Patent Document 1).

また、輝度の高い部分の透過光量を選択的に減衰させるようにした表示装置がある(特許文献2参照)。この表示装置では、輝度が高い部分に情報表示が重なる場合には、情報表示する部分での減衰量を他の部分より少なくすることで、情報表示の視認性の低下を防いでいる。   In addition, there is a display device that selectively attenuates the amount of transmitted light in a portion with high luminance (see Patent Document 2). In this display device, when information display overlaps a portion with high luminance, the attenuation of the information display portion is made smaller than other portions, thereby preventing the visibility of information display from being lowered.

このほか、緊急度の高い情報を表示する場合に、外界からの光量をシャッタで低下させる情報表示システムがある(特許文献3参照)。   In addition, there is an information display system that reduces the amount of light from the outside with a shutter when displaying highly urgent information (see Patent Document 3).

特開2004−233908号公報Japanese Patent Laid-Open No. 2004-233908 特開2008−242134号公報JP 2008-242134 A 特開2009−251428号公報JP 2009-251428 A

特許文献1,3に開示された技術では、視界全体の輝度を下げている。このため、合成した画像以外の部分も暗くなり、見難くなってしまう。   In the techniques disclosed in Patent Documents 1 and 3, the brightness of the entire field of view is lowered. For this reason, parts other than the synthesized image become dark and difficult to see.

特許文献2に開示された技術では、眩しい箇所とその周辺の透過光量を減衰させる、もしくは、情報表示部分の周囲の透過光量を減衰させるので、たとえば、表示された情報を見ながら組立作業などを行う場合、周りが見え難くなって作業性が低下する。また、外光を光源として情報表示を行う方式のため(自発光式でないため)、表示している情報の色が外光の色に由来して変化してしまい、色再現性を要求される場合には使用できない。   In the technique disclosed in Patent Document 2, the amount of transmitted light around the dazzling part and its surroundings is attenuated, or the amount of transmitted light around the information display portion is attenuated. When this is done, it becomes difficult to see the surroundings and workability is reduced. In addition, because information is displayed using external light as a light source (because it is not self-luminous), the color of the displayed information changes due to the color of the external light, and color reproducibility is required. Can not be used in some cases.

本発明は、上記の問題を解決しようとするものであり、視界の色や明るさに影響されることなく、表示される情報の視認性、色再現性を良好に確保することのできる拡張現実空間表示装置を提供することを目的としている。   The present invention is intended to solve the above-described problem, and is augmented reality that can ensure good visibility and color reproducibility of displayed information without being affected by the color and brightness of the field of view. The object is to provide a spatial display device.

かかる目的を達成するための本発明の要旨とするところは、次の各項の発明に存する。   The gist of the present invention for achieving the object lies in the inventions of the following items.

[1]現実空間から到来する光に自発光式の表示部が出力する光を重ね合わせることで、前記表示部に表示した画像を現実空間に合成した拡張現実空間を表示するAR表示部と、
前記現実空間から到来する光を遮光もしくは減光する遮断領域を任意に変更可能なシャッタ部と、
前記表示部による画像の表示と前記シャッタ部による遮光もしくは減光を制御する制御部と、
を備え、
前記制御部は、前記拡張現実空間において前記表示部に表示させた画像と重なる部分の前記現実空間からの光を前記シャッタ部で遮光もしくは減光するように前記遮断領域を設定する
ことを特徴とする拡張現実空間表示装置。
[1] An AR display unit that displays an augmented reality space in which an image displayed on the display unit is combined with the real space by superimposing light output from the self-luminous display unit on light arriving from the real space;
A shutter part capable of arbitrarily changing a blocking area for blocking or dimming light coming from the real space; and
A control unit that controls display of an image by the display unit and light shielding or dimming by the shutter unit;
With
The control unit sets the blocking region so that light from the real space that overlaps an image displayed on the display unit in the augmented reality space is blocked or dimmed by the shutter unit. Augmented reality space display device.

上記発明では、表示部に表示させた画像と重なる部分の外光をシャッタ部で遮光もしくは減光する。これにより、外光の影響を受け難くなり、拡張現実空間に表示された情報の色再現性や視認性を高めることができる。   In the above invention, the portion of the external light that overlaps the image displayed on the display unit is blocked or dimmed by the shutter unit. Thereby, it becomes difficult to be influenced by external light, and the color reproducibility and visibility of information displayed in the augmented reality space can be improved.

[2]前記現実空間を撮影するカメラ部をさらに備え、
前記制御部は、前記遮断領域として前記重なる部分と前記重なる部分以外の他部分とを設定し、前記他部分に対応する前記表示部の領域に、前記カメラ部が出力する映像もしくはこれを加工した映像を表示させる
ことを特徴とする[1]に記載の拡張現実空間表示装置。
[2] A camera unit for photographing the real space is further provided,
The control unit sets the overlapping part and the other part other than the overlapping part as the blocking area, and processes the video output from the camera unit or the video in the display part area corresponding to the other part. The augmented reality space display device according to [1], wherein an image is displayed.

上記発明では、表示部に表示させた画像と重なる部分以外の他部分にも遮光領域を設定し、該他部分に、カメラ部の出力する現実空間の映像もしくはこれを加工した映像を表示する。たとえば、高輝度部分にも遮断領域を設定し、この部分に対応するカメラ映像を、明るさを下げて合成表示するといったことが可能になる。なお、他部分は、表示させた画像と重なる部分から離れた領域でもよいし、重なる部分と連続した領域でもよい。   In the above-described invention, a light-shielding region is set in other parts other than the part overlapping with the image displayed on the display unit, and an image of the real space output from the camera unit or a processed image is displayed on the other part. For example, it is possible to set a blocking area also in a high-luminance portion, and to compositely display a camera image corresponding to this portion with reduced brightness. The other part may be an area separated from a part overlapping the displayed image, or may be an area continuous with the overlapping part.

[3]前記遮断領域は、前記表示部に表示予定の画像と前記拡張現実空間において重なる部分を含んで該重なる部分より広い領域であり、
前記遮断領域に対応する前記表示部の領域に、前記カメラ部が出力する映像のうち前記遮断領域に対応する部分の映像もしくはこれを加工した映像に前記表示予定の画像を合成した画像を表示させる
ことを特徴とする[2]に記載の拡張現実空間表示装置。
[3] The blocking area is an area wider than the overlapping part including the overlapping part in the augmented reality space with the image to be displayed on the display unit,
In the area of the display unit corresponding to the blocking area, an image of a portion corresponding to the blocking area or an image obtained by processing the image to be displayed is displayed on the image output from the camera unit. The augmented reality space display device according to [2], wherein

上記発明では、表示予定の画像を含むより広い範囲を遮断領域とし、この遮断領域に対応する部分に、該遮断領域に対応する現実空間のカメラ映像もしくはこれを加工した映像に表示予定の画像を合成した画像を表示する。表示予定の画像の周辺の現実空間が、表示予定の画像に近い色の場合や輝度が高すぎる場合などに、表示予定の画像の周辺をカメラ映像に置き換えることで、表示予定の画像の周囲の視界に対して色や明るさの補正を行って見やすい状態にすることができる。   In the above invention, a wider range including an image to be displayed is set as a blocking area, and an image scheduled to be displayed on a camera image in a real space corresponding to the blocking area or an image obtained by processing the same in a portion corresponding to the blocking area. Display the synthesized image. If the real space around the image to be displayed is close to the image to be displayed or if the brightness is too high, the surroundings of the image to be displayed are replaced with a camera image. Color and brightness can be corrected for the field of view to make it easy to see.

[4]前記制御部は、前記カメラ部が出力する映像から高輝度領域を検出し、前記高輝度領域に対応する部分の現実空間からの光を前記シャッタ部で遮光もしくは減光するように前記遮断領域を設定する
ことを特徴とする[1]乃至[3]のいずれか1つに記載の拡張現実空間表示装置。
[4] The control unit detects a high-luminance region from the video output from the camera unit, and the shutter unit blocks or reduces the light from the real space corresponding to the high-luminance region. An augmented reality space display device according to any one of [1] to [3], wherein a blocking area is set.

上記発明では、高輝度部分を遮光することで、合成する画像の視認性が向上する。   In the said invention, the visibility of the image to synthesize | combine improves by light-shielding a high-intensity part.

[5]人の頭部に装着して使用されるヘッドマウントディスプレイである
ことを特徴とする[1]乃至[4]のいずれか1つに記載の拡張現実空間表示装置。
[5] The augmented reality space display device according to any one of [1] to [4], wherein the display device is a head mounted display that is used by being mounted on a human head.

本発明に係る拡張現実空間表示装置によれば、視界の色や明るさに影響されることなく、表示される情報の視認性、色再現性を良好に確保することができる。   According to the augmented reality space display device of the present invention, it is possible to satisfactorily ensure the visibility and color reproducibility of displayed information without being affected by the color and brightness of the field of view.

本発明の実施の形態に係る拡張現実空間表示装置の光学系の構成例を示す図である。It is a figure which shows the structural example of the optical system of the augmented reality space display apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る拡張現実空間表示装置の光学系の他の構成例を示す図である。It is a figure which shows the other structural example of the optical system of the augmented reality space display apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る拡張現実空間表示装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the augmented reality space display apparatus which concerns on embodiment of this invention. 第1の実施の形態の拡張現実空間表示装置が画像を合成表示する際に行う処理の流れ図である。It is a flowchart of the process performed when the augmented reality space display apparatus of 1st Embodiment synthesize | combines and displays an image. 遮断領域決定処理(図4のステップS103)の詳細を示す流れ図である。It is a flowchart which shows the detail of the interruption | blocking area | region determination process (step S103 of FIG. 4). ユーザの見ている現実空間、これに合成する重畳画像、遮断領域の一例を示す図である。It is a figure which shows an example of the real space which the user is seeing, the superimposition image combined with this, and the interruption | blocking area | region. ユーザの見る拡張現実空間が、現実空間、遮断領域、重畳画像を重ね合わせて形成される様子を示す説明図である。It is explanatory drawing which shows a mode that the augmented reality space which a user sees is formed by superimposing the real space, the interruption | blocking area | region, and a superimposition image. 図6に対して、高輝度領域をさらに遮光した様子を示す説明図である。FIG. 7 is an explanatory diagram showing a state in which a high-luminance region is further shielded from the light in FIG. 第2の実施の形態の拡張現実空間表示装置が画像を合成表示する際に行う処理の流れ図である。It is a flowchart of the process performed when the augmented reality space display apparatus of 2nd Embodiment displays a composite image. 遮断領域決定処理(図9のステップS203)の詳細を示す流れ図である。It is a flowchart which shows the detail of the interruption | blocking area | region determination process (step S203 of FIG. 9). ユーザの見ている現実空間、これに合成する重畳画像、遮断領域の一例を示す図である。It is a figure which shows an example of the real space which the user is seeing, the superimposition image combined with this, and the interruption | blocking area | region. ユーザの見る拡張現実空間が、現実空間、遮断領域、重畳画像を重ね合わせて形成される様子を示す説明図である。It is explanatory drawing which shows a mode that the augmented reality space which a user sees is formed by superimposing the real space, the interruption | blocking area | region, and a superimposition image.

以下、図面に基づき本発明の実施の形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の第1の実施の形態に係る拡張現実空間表示装置10の光学系10Aの概略構成を示している。拡張現実空間表示装置10は、人の頭部にメガネのように装着されて使用される、所謂、ヘッドマウントディスプレイとして構成されている。   FIG. 1 shows a schematic configuration of an optical system 10A of an augmented reality space display device 10 according to the first embodiment of the present invention. The augmented reality space display device 10 is configured as a so-called head mounted display that is used by being worn like a pair of glasses on a human head.

拡張現実空間表示装置10は、ユーザの見ている現実空間(視界)から到来する光(外光L1)に、自発光式の表示部である画像表示素子11が出力する光(画像光L2とする)をプリズム12で重ね合わせることで、画像表示素子11に表示した画像をユーザの見ている現実空間に合成した拡張現実空間を表示するAR表示部13を有する。画像表示素子11はドットマトリクス式の表示装置であり、任意の画像を表示することができる。画像表示素子11は、自発光式であり、表示する画像の部分は発光し、画像のないブランク部分は発光しない。   The augmented reality space display device 10 emits light (image light L2 and light output from the image display element 11 which is a self-luminous display unit) to light (external light L1) arriving from a real space (view) viewed by the user. The AR display unit 13 displays an augmented reality space in which an image displayed on the image display element 11 is combined with a real space viewed by the user. The image display element 11 is a dot matrix display device and can display an arbitrary image. The image display element 11 is self-luminous, and the portion of the image to be displayed emits light, and the blank portion without the image does not emit light.

また、拡張現実空間表示装置10は、ユーザの見ている現実空間から到来する外光L1を遮光もしくは減光するシャッタ14と、ユーザの見ている現実空間を撮影するカメラ部15をさらに備えている。カメラ部15にはユーザの見ている現実空間から到来する外光L1をプリズム16で一部反射した一方の光が入射される。AR表示部13のプリズム12にはプリズム16を透過した他方の光が入射される。   The augmented reality space display device 10 further includes a shutter 14 that blocks or reduces the external light L1 coming from the real space that the user is viewing, and a camera unit 15 that captures the real space that the user is viewing. Yes. One light, which is partly reflected by the prism 16, is incident on the camera unit 15 from the external light L <b> 1 arriving from the real space viewed by the user. The other light transmitted through the prism 16 enters the prism 12 of the AR display unit 13.

シャッタ14はプリズム12の手前に設けられており、プリズム16を経てプリズム12に入射する外光L1を遮光もしくは減光する。なお、以後、遮光は減光を含むものとして説明する。   The shutter 14 is provided in front of the prism 12, and blocks or attenuates external light L 1 that enters the prism 12 through the prism 16. Hereinafter, the description will be made assuming that the light shielding includes dimming.

シャッタ14は、遮光する領域(以後、遮断領域とする)を任意に変更可能に構成されている。たとえば、シャッタ14は微小な遮光部を縦横のマトリクス状に配列した液晶シャッタで構成される。シャッタ14は画像表示素子11と同一もしくは画像表示素子11以上の解像度を有することが好ましい。   The shutter 14 is configured to be able to arbitrarily change a light shielding region (hereinafter referred to as a blocking region). For example, the shutter 14 is composed of a liquid crystal shutter in which minute light shielding portions are arranged in a matrix form. The shutter 14 preferably has the same resolution as that of the image display element 11 or a resolution equal to or higher than that of the image display element 11.

拡張現実空間表示装置10は、AR表示部13に表示される拡張現実空間において、画像表示素子11に表示させる画像(重畳画像とする)と重なる部分の現実空間からの外光L1をシャッタ14によって遮光する。もしくは、任意の遮光したい領域、たとえば、太陽や発光体などの高輝度の領域、あるいは外界の物体の形状に合わせた領域、をシャッタ14によって遮光する。これにより、外界の色や明るさの響を受けることなくユーザに重畳画像を見せることができ、視界内での重畳画像の色再現性や視認性を大幅に高めることができる。   In the augmented reality space display device 10, the external light L <b> 1 from the part of the actual space that overlaps with the image to be displayed on the image display element 11 (assumed to be a superimposed image) is displayed by the shutter 14 in the augmented reality space displayed on the AR display unit 13. Shield from light. Alternatively, an arbitrary region to be shielded from light, for example, a region with high brightness such as the sun or a light emitter, or a region matched to the shape of an object in the outside world is shielded by the shutter 14. As a result, the superimposed image can be shown to the user without being affected by the color and brightness of the outside world, and the color reproducibility and visibility of the superimposed image within the field of view can be greatly enhanced.

図2は、拡張現実空間表示装置10で採用可能な他のタイプの光学系10Bを示している。AR表示部は、自発光式であって透過型の画像表示素子13Bで構成される。シャッタ14、カメラ部15、プリズム16は図1に示すものと同一である。シャッタ14は、透過型の画像表示素子13Bの背面(プリズム16からの外光L1が入射する側)に設けられている。   FIG. 2 shows another type of optical system 10 </ b> B that can be employed in the augmented reality space display device 10. The AR display unit is a self-luminous type and includes a transmissive image display element 13B. The shutter 14, the camera unit 15, and the prism 16 are the same as those shown in FIG. The shutter 14 is provided on the rear surface (the side on which the external light L1 from the prism 16 is incident) of the transmissive image display element 13B.

図2に示す光学系10Bでは、外光L1はプリズム16およびシャッタ14(遮光していない部分)を通過して透過型の画像表示素子13Bの背面に入射する。透過型の画像表示素子13Bに入射した外光L1は、透過型の画像表示素子13Bにおいて該透過型の画像表示素子13Bの出力する画像光L2と重ねあわされてユーザの目に到達する。   In the optical system 10B shown in FIG. 2, the external light L1 passes through the prism 16 and the shutter 14 (the unshielded portion) and enters the back surface of the transmissive image display element 13B. The external light L1 incident on the transmissive image display element 13B is superimposed on the image light L2 output from the transmissive image display element 13B in the transmissive image display element 13B and reaches the eyes of the user.

拡張現実空間表示装置10の光学系は、図1に示す光学系10A、図2に示す光学系10Bのいずれでもかまわない。以後の説明では図1の光学系10Aを使用した拡張現実空間表示装置10について説明する。   The optical system of the augmented reality space display device 10 may be either the optical system 10A shown in FIG. 1 or the optical system 10B shown in FIG. In the following description, the augmented reality space display device 10 using the optical system 10A of FIG. 1 will be described.

図3は、拡張現実空間表示装置10の電気的な概略構成を示すブロック図である。拡張現実空間表示装置10は、前述したカメラ部15と、画像表示素子11と、シャッタ14のほかに、カメラ部15の姿勢を検出して姿勢情報を出力するカメラ姿勢検出部21と、画像表示素子11に表示する画像(オブジェクト)を生成する空間内オブジェクト生成部22と、画像表示素子11に表示する画像である重畳画像を生成する重畳画像生成部23と、遮断領域を決定する遮断領域決定部24を備えて構成される。   FIG. 3 is a block diagram showing a schematic electrical configuration of the augmented reality space display device 10. In addition to the camera unit 15, the image display element 11, and the shutter 14, the augmented reality space display device 10 detects the posture of the camera unit 15 and outputs posture information, and an image display. An in-space object generation unit 22 that generates an image (object) to be displayed on the element 11, a superimposed image generation unit 23 that generates a superimposed image that is an image to be displayed on the image display element 11, and a blocking area determination that determines a blocking area The unit 24 is configured.

カメラ姿勢検出部21、空間内オブジェクト生成部22、重畳画像生成部23、遮断領域決定部24は、画像表示素子11による画像の表示とシャッタ14による遮光を制御する制御部としての機能を果たし、CPU(Central Processing Unit)、不揮発メモリ、RAM(Random Access Memory)を主要部として構成される。CPUは、不揮発メモリに格納されているプログラムを実行することで上記の制御を行う。RAMはCPUがプログラムに基づいて処理を実行する際に各種のデータを一時的に格納するワークメモリや表示する画像のデータを格納する画像メモリなどとして使用される。不揮発メモリには、プログラムのほか、画像表示素子11に表示する画像の元データ等が記憶されている。   The camera posture detection unit 21, the in-space object generation unit 22, the superimposed image generation unit 23, and the blocking area determination unit 24 serve as a control unit that controls image display by the image display element 11 and light shielding by the shutter 14. A CPU (Central Processing Unit), a nonvolatile memory, and a RAM (Random Access Memory) are configured as main parts. The CPU performs the above control by executing a program stored in the nonvolatile memory. The RAM is used as a work memory for temporarily storing various data when the CPU executes processing based on a program, an image memory for storing image data to be displayed, and the like. In addition to the program, the nonvolatile memory stores original data of an image to be displayed on the image display element 11 and the like.

カメラ姿勢検出部21は、たとえば、カメラ部15と一体に設けられたジャイロによりカメラ部15の姿勢を検出する。空間内オブジェクト生成部22は、画像表示素子11に表示するオブジェクトの画像を生成する。重畳画像生成部23は、画像表示素子11に表示する重畳画像を生成する。たとえば、カメラ部15の出力する姿勢情報からユーザの視線方向(上下、左右、斜めなど)を認識し、空間内オブジェクト生成部22によって生成されたオブジェクトの画像を、ユーザの視線方向から見た状態の画像に変換し、これを重畳画像として画像表示素子11に出力して表示させる。ユーザの視線から見た状態の重畳画像を現実空間に合成することで、3次元の現実空間に対して違和感なく重畳画像が合成された拡張現実空間を表示することができる。   The camera posture detection unit 21 detects the posture of the camera unit 15 using, for example, a gyro provided integrally with the camera unit 15. The in-space object generation unit 22 generates an image of an object to be displayed on the image display element 11. The superimposed image generation unit 23 generates a superimposed image to be displayed on the image display element 11. For example, a state in which the user's line-of-sight direction (up / down, left / right, diagonal, etc.) is recognized from the posture information output from the camera unit 15 and the object image generated by the in-space object generation unit 22 is viewed from the user's line-of-sight direction. Is output to the image display element 11 as a superimposed image and displayed. By synthesizing the superimposed image viewed from the user's line of sight with the real space, it is possible to display the augmented reality space in which the superimposed image is synthesized with no sense of incongruity with the three-dimensional real space.

遮断領域決定部24は、重畳画像生成部23が生成した重畳画像に基づいて、シャッタ14によって外光L1を遮光する遮断領域を決定し、該遮断領域を示す情報をシャッタ14へ出力する。シャッタ14は、遮断領域決定部24から入力された遮断領域を示す情報に従って外光L1を遮光する。   Based on the superimposed image generated by the superimposed image generation unit 23, the blocking area determination unit 24 determines a blocking area in which the external light L 1 is blocked by the shutter 14, and outputs information indicating the blocking area to the shutter 14. The shutter 14 blocks the external light L1 according to the information indicating the blocking area input from the blocking area determination unit 24.

図4は、拡張現実空間表示装置10が行う処理の概要を示している。カメラ姿勢検出部21によってカメラ部15の姿勢を検出し(ステップS101)、空間内オブジェクト生成部22が生成したオブジェクトをカメラ部15の姿勢から検出したユーザの視線方向から見た状態の重畳画像を作成する(ステップS102)。   FIG. 4 shows an outline of processing performed by the augmented reality space display device 10. The camera posture detection unit 21 detects the posture of the camera unit 15 (step S101), and the superimposed image in a state when the object generated by the in-space object generation unit 22 is viewed from the user's line-of-sight direction detected from the posture of the camera unit 15 is obtained. Create (step S102).

次に、ステップS102で作成した重畳画像および高輝度部分の外光を低減するか否かに関する設定に基づいて遮断領域を決定する(ステップS103)。そして、重畳画像のデータを画像表示素子11へ出力して画像表示素子11に重畳画像を表示させると共に、遮断領域の情報をシャッタ14へ出力して、シャッタ14に該遮断領域の外光L1を遮光させる(ステップS104)。   Next, the blocking area is determined based on the superimposed image created in step S102 and the setting regarding whether or not to reduce the external light of the high-luminance portion (step S103). Then, the superimposed image data is output to the image display element 11 to display the superimposed image on the image display element 11, and information on the blocking area is output to the shutter 14, and the outside light L 1 of the blocking area is output to the shutter 14. The light is shielded (step S104).

なお、この処理は短時間の周期(たとえば5ms周期)で繰り返し実行される。これにより、ヘッドマウントディスプレイである拡張現実空間表示装置10を装着しているユーザが視線を移動させても、重畳画像を表示する場所やシャッタ14で遮光する遮断領域を動的に変更してユーザの動きに追従することができる。   This process is repeatedly executed in a short cycle (for example, a 5 ms cycle). As a result, even if the user wearing the augmented reality space display device 10 that is a head-mounted display moves his / her line of sight, the user can dynamically change the location where the superimposed image is displayed and the shielding area shielded by the shutter 14. Can follow the movement of

図5は、遮断領域を決定する処理(図4のステップS103)の詳細を示している。まず、重畳画像に対応する部分(拡張現実空間において重畳画像と重なる部分)を遮断領域に設定する(ステップS111)。次に、外光を低減する設定が成されているか否かを調べ(ステップS112)、外光を低減する設定がなされていない場合は(ステップS112;No)、ステップS111で設定した遮断領域を確定させて、本処理を終了する。   FIG. 5 shows details of the process for determining the blocking area (step S103 in FIG. 4). First, a portion corresponding to the superimposed image (a portion overlapping the superimposed image in the augmented reality space) is set as a blocking region (step S111). Next, it is checked whether or not the setting for reducing the external light is made (step S112). If the setting for reducing the external light is not made (step S112; No), the blocking region set in step S111 is checked. This is finalized.

外光を低減する設定が成されている場合は(ステップS112;Yes)、カメラ画像を解析して、高輝度部分を抽出し、この高輝度部分に対応する部分をステップS111で設定した遮断領域に追加し、追加後の内容で遮断領域を確定させて、本処理を終了する。   When the setting for reducing the external light is made (step S112; Yes), the camera image is analyzed to extract the high-luminance portion, and the portion corresponding to the high-luminance portion is set in step S111. In this case, the blocking area is determined with the contents after the addition, and the process is terminated.

次に、拡張現実空間表示装置10が、遮断領域の外光L1を遮光して重畳画像を表示する例を示す。   Next, an example in which the augmented reality space display device 10 displays the superimposed image while blocking the outside light L1 in the blocking area.

図6(a)は、ユーザが見ている現実空間31の例を示している。   FIG. 6A shows an example of the real space 31 that the user is looking at.

図6(b)は画像表示素子11に表示するオブジェクト32の例を示している。   FIG. 6B shows an example of the object 32 displayed on the image display element 11.

図6(c)は、カメラ姿勢検出部21で検出した姿勢に応じてオブジェクト32を変形して得た重畳画像33を示している。   FIG. 6C shows a superimposed image 33 obtained by deforming the object 32 in accordance with the posture detected by the camera posture detection unit 21.

図6(d)は、重畳画像33に対応する遮断領域34を遮光した状態のシャッタ14を示している。なお、遮断領域34の減光率は、100%(完全に光を遮断)としてもよいし、任意の減光率でもよい。また減光率を変化させてもよい。たとえば、現実空間の明るさ、あるいは現実空間と重畳画像33との明るさの比などに応じて減光率を変化させてもよい。   FIG. 6D shows the shutter 14 in a state where the blocking area 34 corresponding to the superimposed image 33 is shielded. Note that the light attenuation rate of the light blocking region 34 may be 100% (completely light blocking) or an arbitrary light attenuation rate. Moreover, you may change a light attenuation rate. For example, the dimming rate may be changed according to the brightness of the real space or the ratio of the brightness of the real space and the superimposed image 33.

なお、図6の例では、遮断領域34を文字のストローク部分のみとしたが、文字の内側の空白部分を含めた領域を遮断領域34としてもよい。すなわち、重畳画像33のうち(画像表示素子11の発光部分に対応する領域のみを遮断領域34としてもよいし、発光部分の最外周で囲まれる領域全体を遮断領域34としてもよい。   In the example of FIG. 6, the blocking area 34 is only the stroke portion of the character, but an area including a blank portion inside the character may be the blocking area 34. That is, in the superimposed image 33 (only the region corresponding to the light emitting portion of the image display element 11 may be the blocking region 34, or the entire region surrounded by the outermost periphery of the light emitting portion may be the blocking region 34.

図7は、図6(a)の現実空間31から外光を、図6(d)のシャッタ14の遮断領域34で遮光し、これに図6(c)の重畳画像33を合成して拡張現実空間35が形成される様子を示している。ユーザは拡張現実空間35を視認する。   FIG. 7 shows that the external light from the real space 31 of FIG. 6A is shielded by the blocking region 34 of the shutter 14 of FIG. 6D, and the superimposed image 33 of FIG. It shows how the real space 35 is formed. The user visually recognizes the augmented reality space 35.

図8は、高輝度部分にも遮光領域37を設けた場合を示している。この例では、部屋の窓の部分が高輝度部36として抽出されている。高輝度部36からの外光がユーザの目に届かないように、高輝度部36に対応する領域(もしくは高輝度部36とその周囲を含む領域)がさらに遮断領域37として追加されている。なお、遮断領域37の減光率は、現実空間内の高輝度部36の明るさ、あるいは現実空間内の高輝度部36の明るさとその周囲の明るさとの比率などに応じて決定すればよい。   FIG. 8 shows a case where the light shielding region 37 is provided also in the high luminance part. In this example, the window portion of the room is extracted as the high brightness portion 36. A region corresponding to the high luminance portion 36 (or a region including the high luminance portion 36 and its surroundings) is further added as a blocking region 37 so that external light from the high luminance portion 36 does not reach the eyes of the user. It should be noted that the dimming rate of the blocking area 37 may be determined according to the brightness of the high luminance part 36 in the real space or the ratio between the brightness of the high luminance part 36 in the real space and the surrounding brightness. .

なお、遮断領域37の縁部では、回折効果により光の回り込みが生じる。そこで、遮断領域37は高輝度部分や表示するオブジェクトに丁度一致した形状よりも、ある程度その周囲を含むように大きくするとよい。これにより、外光が強い場合などの光の回り込みの影響を少なくすることができる。また、重畳画像の最小線幅などを一定以上に制限してもよい。これにより、光の回り込みがある程度生じても、遮光の効果が確保される。   Note that light wraps around the edge of the blocking region 37 due to the diffraction effect. Therefore, it is preferable that the blocking area 37 is enlarged so as to include the periphery to some extent rather than the shape that exactly matches the high-luminance portion or the object to be displayed. Thereby, it is possible to reduce the influence of light wraparound when the outside light is strong. Further, the minimum line width of the superimposed image may be limited to a certain level or more. As a result, even if the light wraps around to some extent, the light shielding effect is ensured.

次に、本発明の第2の実施の形態について説明する。拡張現実空間表示装置10のハード構成は第1の実施の形態と同様でありその説明は省略する。   Next, a second embodiment of the present invention will be described. The hardware configuration of the augmented reality space display device 10 is the same as that of the first embodiment, and a description thereof will be omitted.

第2の実施の形態では、画像表示素子11に表示する画像に対応する部分と他部分とを遮断領域に設定し、少なくとも他部分に、カメラ部15の撮影した映像もしくはこれを加工した映像を表示する。   In the second embodiment, a portion corresponding to an image displayed on the image display element 11 and another portion are set as a blocking region, and at least the other portion includes a video shot by the camera unit 15 or a video obtained by processing it. indicate.

第2の実施の形態では、たとえば、高輝度部分に対応する領域を第2の遮断領域として加え、カメラ部15の出力する映像から第2の遮断領域に対応する部分の映像を抽出し、明るさを低減する加工や色を補正する加工等を施して、第2の遮断領域に対応する部分の画像表示素子11に表示する、といったことが可能になる。これにより、拡張現実空間において第2の遮断領域に対応する部分に、その部分に対応する現実空間の映像が表示されるので、高輝度部分の外光を遮断しても、その部分が黒の背景になってしまうことがなく、ユーザに違和感を与えない。また、映像を加工することで、外界の色や視認性を改善することができる。   In the second embodiment, for example, an area corresponding to the high-intensity part is added as the second blocking area, and the image of the part corresponding to the second blocking area is extracted from the video output from the camera unit 15 to obtain the brightness. It is possible to display the image display element 11 in a portion corresponding to the second blocking area by performing processing for reducing the thickness, processing for correcting the color, or the like. As a result, in the augmented reality space, the image of the real space corresponding to the second blocked area is displayed in the augmented reality space. It does not become a background and does not give the user a feeling of strangeness. Further, by processing the video, the color and visibility of the outside world can be improved.

また、第2の実施の形態では、現実空間に配置された3Dタグに従って3D画像を合成した拡張現実空間に表示するような場合に、3Dタグとその周辺部分を遮光領域に追加設定し、その部分の現実空間のカメラ映像から3Dタグを消去した画像を作成してその遮光領域に対応する位置に表示すれば、ユーザに、3Dタグを見せないようにして、3D画像を合成した拡張現実空間を見せることができる。   In the second embodiment, when displaying in an augmented reality space in which a 3D image is synthesized in accordance with a 3D tag arranged in the real space, the 3D tag and its peripheral part are additionally set in the light-shielding area. If an image in which a 3D tag is deleted from a camera image of a part of the real space is generated and displayed at a position corresponding to the light shielding area, the augmented reality space in which the 3D image is synthesized without showing the 3D tag to the user Can show.

また、第2の実施の形態では、視界の一部の矩形領域を視界映像のズーム領域として表示することができる。また、第2の実施の形態では、外界の物体の外形に合わせて遮断領域を設定し、その部分にカメラ映像から得たその物体の画像と所定の表示情報とを視認性を高めて合成した画像を作成し、この画像を遮断領域に対応する位置に表示する、といったことが可能になる。   In the second embodiment, a part of the rectangular field of view can be displayed as the zoom region of the view image. In the second embodiment, a blocking area is set in accordance with the outer shape of the object in the outside world, and the image of the object obtained from the camera image and the predetermined display information are combined at that portion with improved visibility. It is possible to create an image and display the image at a position corresponding to the blocking area.

さらには、視界のすべて(シャッタ14全体)を遮断領域に設定し、カメラ部15の出力する映像またはこれを加工した映像に、表示予定のオブジェクトの画像を合成した重畳画像を作成し、該重畳画像を画像表示素子11の表示領域全体に表示して、視認性や色再現性を確保した表示を行う、といったことが可能になる。   Furthermore, the entire field of view (the entire shutter 14) is set as a blocking area, and a superimposed image is created by combining the image of the object to be displayed with the video output from the camera unit 15 or the video processed by the video. It is possible to display an image on the entire display area of the image display element 11 and perform a display ensuring visibility and color reproducibility.

図9は、第2の実施の形態に係る拡張現実空間表示装置10が行う処理の概要を示している。カメラ姿勢検出部21によってカメラ部15の姿勢を検出する(ステップS201)。   FIG. 9 shows an outline of processing performed by the augmented reality space display device 10 according to the second embodiment. The camera posture detection unit 21 detects the posture of the camera unit 15 (step S201).

次に、画像表示素子11に表示予定の画像を作成する(ステップS202)。たとえば、空間内オブジェクト生成部22が生成したオブジェクトを、カメラ部15の姿勢から検出したユーザの視線方向から見た状態の画像を表示予定の画像として作成する(ステップS202)。   Next, an image scheduled to be displayed on the image display element 11 is created (step S202). For example, an image in a state where the object generated by the in-space object generation unit 22 is viewed from the user's line-of-sight direction detected from the posture of the camera unit 15 is created as an image to be displayed (step S202).

次に、カメラ画像を合成するか否か等に応じて遮断領域を決定する(ステップS203)。そして、ステップS203の結果に応じて、表示予定の画像にカメラ画像を合成した重畳画像を作成する、もしくは表示予定の画像をそのまま重畳画像に確定する(ステップS204)。   Next, a blocking area is determined according to whether or not to synthesize a camera image (step S203). Then, according to the result of step S203, a superimposed image is created by combining the camera image with the image to be displayed, or the image to be displayed is determined as the superimposed image as it is (step S204).

表示予定の画像にカメラ画像を合成した重畳画像の作成は、次のように行われる。カメラ部15の出力する映像から遮断領域に対応する領域の画像を抽出し、該抽出した画像に対して所定の加工を施す。たとえば、前述した3Dタグを消去したり、画像の明るさを下げて視認性を改善したりする。そして、加工後の画像に表示予定の画像を重ね合わせて重畳画像を作成する。   Creation of a superimposed image obtained by combining a camera image with an image to be displayed is performed as follows. An image of a region corresponding to the cut-off region is extracted from the video output from the camera unit 15, and predetermined processing is performed on the extracted image. For example, the above-mentioned 3D tag is deleted, or the brightness of the image is lowered to improve the visibility. Then, a superimposed image is created by superimposing the image scheduled to be displayed on the processed image.

その後、重畳画像のデータを画像表示素子11へ出力して画像表示素子11に重畳画像を表示させると共に、遮断領域の情報をシャッタ14へ出力して、シャッタ14に該遮断領域の外光L1を遮光させる(ステップS205)。この処理は、図4の処理と同様に繰り返し実行される。   Thereafter, the data of the superimposed image is output to the image display element 11 to display the superimposed image on the image display element 11, and the information on the blocking area is output to the shutter 14, and the outside light L 1 of the blocking area is output to the shutter 14. The light is shielded (step S205). This process is repeated as in the process of FIG.

図10は、遮断領域を決定する処理(図9のステップS203)の詳細を示している。まず、表示予定の画像に対応する部分(拡張現実空間において表示予定の画像と重なる部分)を抽出し、これを遮断領域に設定する(ステップS211)。次に、カメラ画像を合成する合成モードが設定されているか否かを調べ(ステップS212)、設定がなされていない場合は(ステップS212;No)、ステップS211で設定した遮断領域を確定させて、本処理を終了する。   FIG. 10 shows details of the process for determining the blocking area (step S203 in FIG. 9). First, a portion corresponding to an image scheduled to be displayed (portion overlapping with an image scheduled to be displayed in the augmented reality space) is extracted and set as a blocking area (step S211). Next, it is checked whether or not a synthesis mode for synthesizing camera images is set (step S212). If no setting is made (step S212; No), the blocking area set in step S211 is confirmed, This process ends.

合成モードが設定されている場合は(ステップS212;Yes)、表示予定の画像に対応する部分とその周囲一定範囲を含む領域を遮断領域に設定して(ステップS213)、本処理を終了する。   If the compositing mode is set (step S212; Yes), a region corresponding to the image to be displayed and a region including the surrounding fixed range are set as a blocking region (step S213), and this processing is terminated.

次に、合成モードにおける拡張現実空間表示装置10の表示例を説明する。ここでは、現実空間にある3Dタグに対応した3D画像を合成し、かつ現実空間にあった3Dタグが消去された拡張現実空間を表示する場合を例示する。   Next, a display example of the augmented reality space display device 10 in the synthesis mode will be described. Here, a case where a 3D image corresponding to a 3D tag in the real space is synthesized and an augmented reality space in which the 3D tag in the real space is deleted is displayed is exemplified.

図11(a)は、ユーザが見ている現実空間41の例である。現実空間41には3Dタグ42が配置されている。   FIG. 11A is an example of the real space 41 that the user is looking at. A 3D tag 42 is arranged in the real space 41.

図11(b)は、3Dタグ42に対応したオブジェクトをカメラ姿勢検出部21で検出した姿勢に応じて変形して得た表示予定の画像43を示している。   FIG. 11B shows a display-scheduled image 43 obtained by deforming an object corresponding to the 3D tag 42 according to the posture detected by the camera posture detection unit 21.

図11(c)は、現実空間41に表示予定の画像43を単に合成した場合の拡張現実空間を示している。また、図11(c)には、表示予定の画像43に対応する部分と3Dタグ42とを含むように決定した遮断領域44を破線で示してある。   FIG. 11C shows an augmented reality space when an image 43 to be displayed is simply combined with the actual space 41. Further, in FIG. 11C, a blocking area 44 determined so as to include a portion corresponding to the image 43 to be displayed and the 3D tag 42 is indicated by a broken line.

図11(d)は、カメラ部15の出力する映像から遮断領域44に対応する部分を抽出した抽出画像45を示している。   FIG. 11D shows an extracted image 45 obtained by extracting a portion corresponding to the blocking area 44 from the video output from the camera unit 15.

図11(e)は、遮断領域44の部分を遮光した状態のシャッタ14を示している。   FIG. 11E shows the shutter 14 in a state where the blocking region 44 is shielded from light.

図11(f)は、図11(d)に示す抽出画像45から3Dタグ42を消去する加工を施した加工画像46を示している。   FIG. 11 (f) shows a processed image 46 that has been processed to delete the 3D tag 42 from the extracted image 45 shown in FIG. 11 (d).

図11(g)は、図11(f)に示す加工画像46に図11(b)に示す表示予定の画像43を合成した重畳画像47を示している。   FIG. 11G shows a superimposed image 47 obtained by synthesizing the processed image 46 shown in FIG. 11F with the image 43 scheduled to be displayed shown in FIG.

図12は、図11(a)の現実空間41から外光を、図11(e)のシャッタ14の遮断領域44で遮光し、これに図11(g)の重畳画像47を合成して拡張現実空間48が形成される様子を示している。ユーザは拡張現実空間48を視認する。拡張現実空間48には、3Dタグ42は現れず、3Dタグ42に対応する3D画像43が表示されている。   FIG. 12 shows that the external light from the real space 41 in FIG. 11A is shielded by the blocking area 44 of the shutter 14 in FIG. 11E, and the superimposed image 47 in FIG. A state in which the real space 48 is formed is shown. The user visually recognizes the augmented reality space 48. In the augmented reality space 48, the 3D tag 42 does not appear, and the 3D image 43 corresponding to the 3D tag 42 is displayed.

以上のように、拡張現実空間表示装置10では、重畳画像の形状に合わせて重畳画像に対応する部分を遮断領域としてシャッタ14で外光L1を遮光するので、ユーザの見る拡張現実空間において、重畳画像を、外光の影響を受けずに表示することができ、拡張現実空間における重畳画像の色再現性や視認性を高めることができる。   As described above, in the augmented reality space display device 10, the external light L1 is shielded by the shutter 14 using the portion corresponding to the superimposed image as a blocking region in accordance with the shape of the superimposed image. The image can be displayed without being affected by external light, and the color reproducibility and visibility of the superimposed image in the augmented reality space can be improved.

以上、本発明の実施の形態を図面によって説明してきたが、具体的な構成は実施の形態に示したものに限られるものではなく、本発明の要旨を逸脱しない範囲における変更や追加があっても本発明に含まれる。   The embodiment of the present invention has been described with reference to the drawings. However, the specific configuration is not limited to that shown in the embodiment, and there are changes and additions within the scope of the present invention. Are also included in the present invention.

実施の形態では、拡張現実空間表示装置10をヘッドマウントディスプレイとしたが、拡張現実空間を表示する装置であれば、ヘッドマウントディスプレイに限定されるものではない。たとえば、カメラおよびディスプレイを備えた携帯端末などでもかまわない。   In the embodiment, the augmented reality space display device 10 is a head-mounted display. However, the device is not limited to the head-mounted display as long as the device displays the augmented reality space. For example, a mobile terminal equipped with a camera and a display may be used.

シャッタ14は、液晶シャッタに限定されるものではなく、遮光もしくは減光する領域を任意の範囲・形状に変更可能な機能があればよい。
プリズム12およびプリズム16は、プリズムに限定されるものではなく、ハーフミラーとレンズ光学系など、光学的に映像を分離または合成できる機能があれば良い。
The shutter 14 is not limited to a liquid crystal shutter, and may have a function capable of changing a light shielding or dimming region to an arbitrary range and shape.
The prism 12 and the prism 16 are not limited to prisms, and may have a function capable of optically separating or synthesizing images such as a half mirror and a lens optical system.

10…拡張現実空間表示装置
10A、10B…拡張現実空間表示装置の光学系
11…画像表示素子
12…プリズム
13…AR表示部
13B…透過型の画像表示素子
14…シャッタ
15…カメラ部
16…プリズム
21…カメラ姿勢検出部
22…空間内オブジェクト生成部
23…重畳画像生成部
24…遮断領域決定部
31…現実空間
32…オブジェクト
33…重畳画像
34…遮断領域
35…拡張現実空間
36…高輝度部
37…遮断領域
41…現実空間
42…3Dタグ
43…表示予定の画像
44…遮断領域
45…抽出画像
46…加工画像
47…重畳画像
48…拡張現実空間
L1…外光
L2…画像光
DESCRIPTION OF SYMBOLS 10 ... Augmented reality space display apparatus 10A, 10B ... Optical system of augmented reality space display apparatus 11 ... Image display element 12 ... Prism 13 ... AR display part 13B ... Transmission type image display element 14 ... Shutter 15 ... Camera part 16 ... Prism DESCRIPTION OF SYMBOLS 21 ... Camera attitude | position detection part 22 ... In-space object generation part 23 ... Superimposed image generation part 24 ... Blocking area determination part 31 ... Reality space 32 ... Object 33 ... Superimposition image 34 ... Blocking area 35 ... Augmented reality space 36 ... High-intensity part 37 ... Blocking region 41 ... Real space 42 ... 3D tag 43 ... Image to be displayed 44 ... Blocking region 45 ... Extracted image 46 ... Processed image 47 ... Superimposed image 48 ... Augmented reality space L1 ... External light L2 ... Image light

Claims (5)

現実空間から到来する光に自発光式の表示部が出力する光を重ね合わせることで、前記表示部に表示した画像を現実空間に合成した拡張現実空間を表示するAR表示部と、
前記現実空間から到来する光を遮光もしくは減光する遮断領域を任意に変更可能なシャッタ部と、
前記表示部による画像の表示と前記シャッタ部による遮光もしくは減光を制御する制御部と、
を備え、
前記制御部は、前記拡張現実空間において前記表示部に表示させた画像が重なる部分の前記現実空間からの光を前記シャッタ部で遮光もしくは減光するように前記遮断領域を設定する
ことを特徴とする拡張現実空間表示装置。
An AR display unit that displays an augmented reality space in which an image displayed on the display unit is combined with the real space by superimposing light output from the self-luminous display unit on light arriving from the real space;
A shutter part capable of arbitrarily changing a blocking area for blocking or dimming light coming from the real space; and
A control unit that controls display of an image by the display unit and light shielding or dimming by the shutter unit;
With
The control unit sets the blocking area so that light from the real space in a portion where the image displayed on the display unit overlaps in the augmented reality space is blocked or dimmed by the shutter unit. Augmented reality space display device.
前記現実空間を撮影するカメラ部をさらに備え、
前記制御部は、前記遮断領域として前記重なる部分と前記重なる部分以外の他部分とを設定し、前記他部分に対応する前記表示部の領域に、前記カメラ部が出力する映像もしくはこれを加工した映像を表示させる
ことを特徴とする請求項1に記載の拡張現実空間表示装置。
A camera unit for photographing the real space;
The control unit sets the overlapping part and the other part other than the overlapping part as the blocking area, and processes the video output from the camera unit or the video in the display part area corresponding to the other part. The augmented reality space display device according to claim 1, wherein an image is displayed.
前記遮断領域は、前記表示部に表示予定の画像と前記拡張現実空間において重なる部分を含んで該重なる部分より広い領域であり、
前記遮断領域に対応する前記表示部の領域に、前記カメラ部が出力する映像のうち前記遮断領域に対応する部分の映像もしくはこれを加工した映像に前記表示予定の画像を合成した画像を表示させる
ことを特徴とする請求項2に記載の拡張現実空間表示装置。
The blocking region is a region wider than the overlapping portion including a portion overlapping the image scheduled to be displayed on the display unit in the augmented reality space,
In the area of the display unit corresponding to the blocking area, an image of a portion corresponding to the blocking area or an image obtained by processing the image to be displayed is displayed on the image output from the camera unit. The augmented reality space display device according to claim 2.
前記制御部は、前記カメラ部が出力する映像から高輝度領域を検出し、前記高輝度領域に対応する部分の現実空間からの光を前記シャッタ部で遮光もしくは減光するように前記遮断領域を設定する
ことを特徴とする請求項1乃至3のいずれか1つに記載の拡張現実空間表示装置。
The control unit detects a high-luminance region from an image output from the camera unit, and sets the blocking region so that light from a part of the real space corresponding to the high-luminance region is blocked or reduced by the shutter unit. The augmented reality space display device according to claim 1, wherein the augmented reality space display device is set.
人の頭部に装着して使用されるヘッドマウントディスプレイである
ことを特徴とする請求項1乃至4のいずれか1つに記載の拡張現実空間表示装置。
The augmented reality space display device according to any one of claims 1 to 4, wherein the display device is a head mounted display that is used by being worn on a human head.
JP2013106422A 2013-05-20 2013-05-20 Augmented reality space display Active JP6341355B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013106422A JP6341355B2 (en) 2013-05-20 2013-05-20 Augmented reality space display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013106422A JP6341355B2 (en) 2013-05-20 2013-05-20 Augmented reality space display

Publications (2)

Publication Number Publication Date
JP2014228595A true JP2014228595A (en) 2014-12-08
JP6341355B2 JP6341355B2 (en) 2018-06-13

Family

ID=52128514

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013106422A Active JP6341355B2 (en) 2013-05-20 2013-05-20 Augmented reality space display

Country Status (1)

Country Link
JP (1) JP6341355B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016104279A1 (en) * 2014-12-26 2016-06-30 シャープ株式会社 Display apparatus and wearable device
CN106249415A (en) * 2016-08-31 2016-12-21 深圳超多维科技有限公司 A kind of AR display device and wear-type AR display device
CN106384365A (en) * 2016-11-22 2017-02-08 塔普翊海(上海)智能科技有限公司 Augmented reality system containing depth information acquisition and method thereof
JP2018151459A (en) * 2017-03-10 2018-09-27 日本電信電話株式会社 Stereoscopic vision device
WO2019073688A1 (en) * 2017-10-11 2019-04-18 ソニー株式会社 Image display device
WO2019098265A1 (en) * 2017-11-17 2019-05-23 株式会社テレパシージャパン Color vision support device
JP2020031358A (en) * 2018-08-23 2020-02-27 日本信号株式会社 Imaging apparatus and monitoring system
WO2020137088A1 (en) * 2018-12-26 2020-07-02 株式会社Jvcケンウッド Head-mounted display, display method, and display system
WO2020194458A1 (en) * 2019-03-25 2020-10-01 マクセル株式会社 Head-mounted display and method for controlling light shielding for head-mounted display
WO2021131738A1 (en) * 2019-12-27 2021-07-01 ソニーグループ株式会社 Information processing device, information processing method, and information processing program
JP2022173291A (en) * 2016-12-22 2022-11-18 マジック リープ, インコーポレイテッド System and method for operating light from ambient light source
WO2023228585A1 (en) * 2022-05-24 2023-11-30 株式会社Nttドコモ Display control device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0968964A (en) * 1995-08-30 1997-03-11 Dainippon Screen Mfg Co Ltd Method and apparatus for painting out outline character
JP2000171750A (en) * 1998-12-03 2000-06-23 Sony Corp Head-mounted display, display method and provision medium
JP2008242134A (en) * 2007-03-28 2008-10-09 Nikon Corp Display device
JP2011085705A (en) * 2009-10-14 2011-04-28 Toshiba Corp Video display device and video display method
WO2012039877A1 (en) * 2010-09-21 2012-03-29 Microsoft Corporation Opacity filter for see-through head mounted display

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0968964A (en) * 1995-08-30 1997-03-11 Dainippon Screen Mfg Co Ltd Method and apparatus for painting out outline character
JP2000171750A (en) * 1998-12-03 2000-06-23 Sony Corp Head-mounted display, display method and provision medium
JP2008242134A (en) * 2007-03-28 2008-10-09 Nikon Corp Display device
JP2011085705A (en) * 2009-10-14 2011-04-28 Toshiba Corp Video display device and video display method
WO2012039877A1 (en) * 2010-09-21 2012-03-29 Microsoft Corporation Opacity filter for see-through head mounted display

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016104279A1 (en) * 2014-12-26 2016-06-30 シャープ株式会社 Display apparatus and wearable device
CN106249415A (en) * 2016-08-31 2016-12-21 深圳超多维科技有限公司 A kind of AR display device and wear-type AR display device
CN106249415B (en) * 2016-08-31 2019-03-26 深圳超多维科技有限公司 A kind of AR display device and wear-type AR show equipment
CN106384365A (en) * 2016-11-22 2017-02-08 塔普翊海(上海)智能科技有限公司 Augmented reality system containing depth information acquisition and method thereof
CN106384365B (en) * 2016-11-22 2024-03-08 经易文化科技集团有限公司 Augmented reality system comprising depth information acquisition and method thereof
JP2022173291A (en) * 2016-12-22 2022-11-18 マジック リープ, インコーポレイテッド System and method for operating light from ambient light source
JP7404472B2 (en) 2016-12-22 2023-12-25 マジック リープ, インコーポレイテッド Systems and methods for manipulating light from ambient light sources
US11971551B2 (en) 2016-12-22 2024-04-30 Magic Leap, Inc. Systems and methods for manipulating light from ambient light sources
JP2018151459A (en) * 2017-03-10 2018-09-27 日本電信電話株式会社 Stereoscopic vision device
US11187898B2 (en) 2017-10-11 2021-11-30 Sony Corporation Image display apparatus
WO2019073688A1 (en) * 2017-10-11 2019-04-18 ソニー株式会社 Image display device
JP2019096939A (en) * 2017-11-17 2019-06-20 株式会社テレパシージャパン Color perception support device
JP7011295B2 (en) 2017-11-17 2022-01-26 Fairy Devices株式会社 Color vision support device
WO2019098265A1 (en) * 2017-11-17 2019-05-23 株式会社テレパシージャパン Color vision support device
JP2020031358A (en) * 2018-08-23 2020-02-27 日本信号株式会社 Imaging apparatus and monitoring system
WO2020137088A1 (en) * 2018-12-26 2020-07-02 株式会社Jvcケンウッド Head-mounted display, display method, and display system
WO2020194458A1 (en) * 2019-03-25 2020-10-01 マクセル株式会社 Head-mounted display and method for controlling light shielding for head-mounted display
WO2021131738A1 (en) * 2019-12-27 2021-07-01 ソニーグループ株式会社 Information processing device, information processing method, and information processing program
JP7501543B2 (en) 2019-12-27 2024-06-18 ソニーグループ株式会社 Information processing device, information processing method, and information processing program
US12067677B2 (en) 2019-12-27 2024-08-20 Sony Group Corporation Information processing apparatus, information processing method, and computer-readable storage medium
WO2023228585A1 (en) * 2022-05-24 2023-11-30 株式会社Nttドコモ Display control device

Also Published As

Publication number Publication date
JP6341355B2 (en) 2018-06-13

Similar Documents

Publication Publication Date Title
JP6341355B2 (en) Augmented reality space display
CN112639579B (en) Spatially resolved dynamic dimming for augmented reality devices
US10645374B2 (en) Head-mounted display device and display control method for head-mounted display device
JP4927631B2 (en) Display device, control method therefor, program, recording medium, and integrated circuit
CN104335574B (en) Head-mounted display
JP6112878B2 (en) Wearable display device and program
JP6089705B2 (en) Display device and control method of display device
JP2020520475A (en) Near eye display with extended effective eye box via eye tracking
CN204595327U (en) Head-mounted display apparatus
KR101852680B1 (en) The head mounted display apparatus and method for possible implementation of augmented reality or mixed reality
WO2014057274A1 (en) Head-mountable display with extended field of view
JP6339887B2 (en) Image display device
US20140055324A1 (en) Display device, display method, and readable medium
CN204595329U (en) Head-mounted display apparatus
WO2020115815A1 (en) Head-mounted display device
JP6697751B2 (en) Vehicle display system, electronic mirror system and moving body
JP7118650B2 (en) Display device
JP7189513B2 (en) head-up display device
JP6509101B2 (en) Image display apparatus, program and method for displaying an object on a spectacle-like optical see-through type binocular display
JP5131152B2 (en) Visual support device
CN204595328U (en) Head-mounted display apparatus
US11567323B2 (en) Partial electronic see-through head-mounted display
TWI607243B (en) Display adjustment method for near-eye display
US10001648B2 (en) Occlusion-capable augmented reality display using cloaking optics
JP2019118004A (en) Information processing apparatus, information processing method, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160921

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170707

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20171220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180316

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20180326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180418

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180501

R150 Certificate of patent or registration of utility model

Ref document number: 6341355

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150