JP6648050B2 - Image display device - Google Patents

Image display device Download PDF

Info

Publication number
JP6648050B2
JP6648050B2 JP2017030306A JP2017030306A JP6648050B2 JP 6648050 B2 JP6648050 B2 JP 6648050B2 JP 2017030306 A JP2017030306 A JP 2017030306A JP 2017030306 A JP2017030306 A JP 2017030306A JP 6648050 B2 JP6648050 B2 JP 6648050B2
Authority
JP
Japan
Prior art keywords
image
display device
user
captured
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017030306A
Other languages
Japanese (ja)
Other versions
JP2018136706A (en
Inventor
兼史 堅田
兼史 堅田
里実 井筒
里実 井筒
町田 保
保 町田
圭子 飯塚
圭子 飯塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Gas Co Ltd
Original Assignee
Tokyo Gas Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Gas Co Ltd filed Critical Tokyo Gas Co Ltd
Priority to JP2017030306A priority Critical patent/JP6648050B2/en
Publication of JP2018136706A publication Critical patent/JP2018136706A/en
Application granted granted Critical
Publication of JP6648050B2 publication Critical patent/JP6648050B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)

Description

本発明は、ユーザの前面に画像を表示する画像表示装置に関する。   The present invention relates to an image display device that displays an image in front of a user.

近年、現実空間中に仮想物体が存在するような複合現実感(MR)を体験させる所謂ヘッドマウントディスプレイが知られている。   2. Description of the Related Art In recent years, a so-called head-mounted display for experiencing mixed reality (MR) in which a virtual object exists in a real space has been known.

ヘッドマウントディスプレイのような画像表示装置では、ユーザの前方を撮像する撮像部が設けられているとともに、ユーザの目の前方に画像を表示する表示部が設けられている。そして、撮像部によってユーザの前方を撮像した撮像画像と、仮想物体を表すコンピュータグラフィックス(CG)画像とを位置合わせして合成した合成画像を生成し、表示部に合成画像を表示するようになされている(例えば、特許文献1)。   2. Description of the Related Art In an image display device such as a head-mounted display, an imaging unit that captures an image in front of a user is provided, and a display unit that displays an image in front of a user's eyes is provided. Then, a combined image is generated by aligning a captured image obtained by capturing an image in front of the user with the imaging unit and a computer graphics (CG) image representing the virtual object, and the combined image is displayed on the display unit. (For example, Patent Document 1).

特開2014−112887号公報JP 2014-112887 A

上記特許文献1のような画像表示装置では、撮像部によってユーザの前方を撮像するとともに、撮像された撮像画像に対してCG画像を合成する必要があり、構成が複雑になるとともに、処理負荷が大きくなってしまうといった問題があった。   In the image display device as disclosed in Patent Document 1, it is necessary to take an image of the front of the user with an imaging unit and to synthesize a CG image with the taken image, which complicates the configuration and reduces the processing load. There was a problem that it became large.

そこで、本発明は、このような課題に鑑み、簡易な構成で、処理負荷を低減しつつ、合成画像を表示することが可能な画像表示装置を提供することを目的としている。   In view of the above, an object of the present invention is to provide an image display device that can display a composite image with a simple configuration while reducing the processing load.

上記課題を解決するために、本発明に係る画像表示装置は、ユーザの前方に画像を表示する表示部を備える画像表示装置であって、近未来の技術に関する装置を組み込んだ仮想画像が撮像画像に対して合成された合成画像の画像データが予め記憶されている記憶部と、前記ユーザの視線方向を検出する検出部と、前記検出部によって検出された視線方向に基づいて、前記合成画像における該視線方向に対応する表示画像を前記表示部に表示するよう制御する制御部と、を備え、前記表示部は、前記ユーザと一体的に移動可能であり、前記撮像画像は、前記ユーザが前記画像表示装置を使用する予め決められた位置で、前記ユーザが前記画像表示装置を使用する前に見ることになる空間が予め撮像されたものである。 In order to solve the above problem, an image display device according to the present invention is an image display device including a display unit that displays an image in front of a user, and a virtual image incorporating a device related to a near-future technology is a captured image. A storage unit in which image data of a combined image combined with the detection unit that detects in advance the gaze direction of the user, and a gaze direction detected by the detection unit. A control unit that controls a display image corresponding to the line-of-sight direction to be displayed on the display unit, wherein the display unit is movable integrally with the user, and the captured image is At a predetermined position where the image display device is used, a space which the user will see before using the image display device is imaged in advance.

また、前記撮像画像は、前記予め決められた位置で、予め決められた基準方向を基準として撮像されるとよい。   The captured image may be captured at the predetermined position with reference to a predetermined reference direction.

また、前記撮像画像は、前記予め決められた位置で、前記基準方向を基準として、水平方向および垂直方向の全方位で撮像されるとよい。   The captured image may be captured at the predetermined position in all directions in a horizontal direction and a vertical direction based on the reference direction.

本発明によれば、簡易な構成で、処理負荷を低減しつつ、合成画像を表示することが可能となる。   According to the present invention, it is possible to display a composite image with a simple configuration while reducing the processing load.

画像表示装置の外観構成を説明する図である。FIG. 2 is a diagram illustrating an external configuration of an image display device. 画像表示装置の構成を説明する図である。FIG. 2 is a diagram illustrating a configuration of an image display device. 画像表示装置が用いられる空間を説明する図である。FIG. 3 is a diagram illustrating a space in which the image display device is used. 図4(a)は、撮像画像を説明する図である。図4(b)は、CG画像を説明する図である。FIG. 4A is a diagram illustrating a captured image. FIG. 4B is a diagram illustrating a CG image. 合成画像を説明する図である。FIG. 4 is a diagram illustrating a composite image. 表示画像を説明する図である。It is a figure explaining a display image.

以下に添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。かかる実施形態に示す寸法、材料、その他具体的な数値等は、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、本発明を限定するものではない。なお、本明細書および図面において、実質的に同一の機能、構成を有する要素については、同一の符号を付することにより重複説明を省略し、また本発明に直接関係のない要素は図示を省略する。   Hereinafter, a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings. The dimensions, materials, other specific numerical values, and the like shown in the embodiments are merely examples for facilitating the understanding of the invention, and do not limit the present invention unless otherwise specified. In the specification and the drawings, elements having substantially the same function and configuration will be denoted by the same reference numerals, and redundant description will be omitted. Elements not directly related to the present invention will be omitted. I do.

図1は、画像表示装置1の外観構成を説明する図である。図1に示すように、画像表示装置1は、本体部10およびバンド部12を含んで構成されるヘッドマウントディスプレイである。   FIG. 1 is a diagram illustrating an external configuration of the image display device 1. As shown in FIG. 1, the image display device 1 is a head-mounted display including a main body 10 and a band 12.

本体部10は、表示部20が設けられている。表示部20は、画像表示装置1がユーザの頭部に装着された際に、ユーザの目の前方に位置するように設けられている。バンド部12は、例えばゴム材やプラスチック材によって構成され、本体部10の長手方向の両端に接続されている。そして、画像表示装置1は、表示部20がユーザの目の前方に位置するように、バンド部12によってユーザの頭部に装着される。したがって、表示部20は、常にユーザの目の前方に位置し、ユーザの頭部の移動に伴って、ユーザと一体的に移動可能である。   The display unit 20 is provided in the main body unit 10. The display unit 20 is provided so as to be located in front of the eyes of the user when the image display device 1 is mounted on the head of the user. The band portion 12 is made of, for example, a rubber material or a plastic material, and is connected to both ends in the longitudinal direction of the main body portion 10. The image display device 1 is mounted on the head of the user by the band unit 12 so that the display unit 20 is located in front of the user's eyes. Therefore, the display unit 20 is always located in front of the eyes of the user, and can be moved integrally with the user as the head of the user moves.

図2は、画像表示装置1の構成を説明する図である。図2に示すように、本体部10は、表示部20、制御部22、検出部24および記憶部26を含んで構成される。表示部20は、液晶ディスプレイや有機EL(Electroluminescence)ディスプレイでなり、ユーザの両目に対して、それぞれ異なる画像を別々に表示可能である。   FIG. 2 is a diagram illustrating a configuration of the image display device 1. As shown in FIG. 2, the main unit 10 includes a display unit 20, a control unit 22, a detection unit 24, and a storage unit 26. The display unit 20 includes a liquid crystal display or an organic EL (Electroluminescence) display, and can separately display different images to both eyes of the user.

制御部22は、中央処理装置(CPU)、プログラム等が格納されたROM、ワークエリアとしてのRAM等を含むマイクロコンピュータでなり、画像表示装置1を統括制御する。   The control unit 22 is a microcomputer including a central processing unit (CPU), a ROM storing programs and the like, a RAM as a work area, and the like, and controls the image display device 1 overall.

検出部24は、例えばジャイロセンサでなり、本体部10の3軸方向の回転角速度と各軸の加速度とを検出することで、本体部10の向きを検出し、検出した向きを示す信号を制御部22に送信する。したがって、検出部24は、画像表示装置1がユーザの頭部に装着された際に、任意の空間におけるユーザが向いている方向、つまり、ユーザの視線方向を検出する。   The detection unit 24 is, for example, a gyro sensor, and detects the direction of the main body 10 by detecting the rotational angular velocities of the main body 10 in three axial directions and the accelerations of each axis, and controls a signal indicating the detected direction. To the unit 22. Therefore, when the image display device 1 is worn on the head of the user, the detection unit 24 detects the direction in which the user is facing in any space, that is, the direction of the user's line of sight.

記憶部26は、ハードディスクや不揮発性メモリでなり、画像データ28が予め記憶されている。画像データ28は、詳しくは後述するように、予め撮像された撮像画像に対して、コンピュータグラフィック画像(以下、CG画像と称する)が合成された合成画像のデータである。   The storage unit 26 is a hard disk or a non-volatile memory, and stores image data 28 in advance. As will be described in detail later, the image data 28 is data of a composite image in which a computer graphic image (hereinafter, referred to as a CG image) is composited with a captured image captured in advance.

制御部22は、記憶部26に記憶された画像データ28を読み出し、画像データ28に示される合成画像のうち、検出部24から送信される信号に示されるユーザの視線方向に対応する表示画像を表示部20に表示するよう制御する。   The control unit 22 reads out the image data 28 stored in the storage unit 26, and among the composite images shown in the image data 28, displays the display image corresponding to the user's line of sight indicated by the signal transmitted from the detection unit 24. The display is controlled to be displayed on the display unit 20.

図3は、画像表示装置1が用いられる空間を説明する図である。本実施形態の画像表示装置1は、図3に示すように、テーブル130や椅子132等の家具やキッチン134等が設けられ、近未来に可能となるであろう技術等を紹介するための建物(コンセプトハウス)や実住宅等の室内100において、予め決められた位置(以下、使用位置と称する)110で使用される。   FIG. 3 is a diagram illustrating a space in which the image display device 1 is used. As shown in FIG. 3, the image display device 1 of the present embodiment is provided with furniture such as a table 130 and a chair 132, a kitchen 134, and the like, and is a building for introducing a technology that will be possible in the near future. It is used at a predetermined position (hereinafter, referred to as a use position) 110 in a room 100 such as a (concept house) or a real house.

使用位置110は、例えば、室内100における略中央において、図3中上方が基準方向120として設定されている。したがって、ユーザは、使用位置110において基準方向120を向き、その状態で画像表示装置1を装着することとなる。   The use position 110 is set, for example, substantially in the center of the room 100, and the upper direction in FIG. Therefore, the user faces the reference direction 120 at the use position 110, and wears the image display device 1 in that state.

図4(a)は、撮像画像200を説明する図である。図4(b)は、CG画像210を説明する図である。記憶部26に記憶された画像データ28(合成画像)の基になる撮像画像200は、図3に示した室内100において、水平方向および垂直方向に全方位(360°)を撮像可能なカメラによって使用位置110から撮像される。なお、撮像画像200は、水平方向および垂直方向の所定範囲を撮像したものであってもよい。   FIG. 4A is a diagram illustrating a captured image 200. FIG. 4B is a diagram illustrating the CG image 210. A captured image 200 based on the image data 28 (composite image) stored in the storage unit 26 is obtained by a camera capable of capturing images in all directions (360 °) in the horizontal and vertical directions in the room 100 shown in FIG. An image is taken from the use position 110. Note that the captured image 200 may be an image of a predetermined range in the horizontal and vertical directions.

ここで、撮像画像200は、室内100において、一日の日常がモデルによって体現された動画像となっている。そして、図4(a)においては、撮像画像200の一部(静止画像)を示している。なお、撮像画像200は、図4(a)に示すように、基準方向120が水平方向の中央となり、基準方向120を基準として、左右それぞれに水平方向の180°の範囲が撮像された画像となる。また、撮像画像200は、左右の両端が繋がったものとなる。   Here, the captured image 200 is a moving image embodied by a model in the room 100 in a daily life. FIG. 4A shows a part (still image) of the captured image 200. As shown in FIG. 4A, the captured image 200 has a reference direction 120 at the center in the horizontal direction. Become. Further, the captured image 200 is one in which both left and right ends are connected.

撮像画像200が撮像されると、撮像画像200に対して合成されるCG画像210(仮想画像)が作成される。   When the captured image 200 is captured, a CG image 210 (virtual image) to be synthesized with the captured image 200 is created.

CG画像210は、例えば、近未来に可能となるであろう技術を紹介するための画像である。CG画像210は、例えば、図4(b)に示すように、テーブル130の上に表示される立体的な地図210aや、室内100において、モデルの前方に、今日の天気や気温が表示される仮想パネル210b等により構成される。これらのCG画像210も、撮像画像200と同様に、動画像として作成される。   The CG image 210 is, for example, an image for introducing a technology that will be possible in the near future. For example, as shown in FIG. 4B, the CG image 210 displays a three-dimensional map 210a displayed on the table 130 or the current weather and temperature in front of the model in the room 100. It is composed of a virtual panel 210b and the like. These CG images 210 are also created as moving images, similarly to the captured image 200.

図5は、合成画像220を説明する図である。このように、CG画像210が作成されると、撮像画像200に対してCG画像210が合成された合成画像220が生成される。図5に示すように、合成画像220は、撮像画像200にCG画像210が合成されており、恰も、近未来の日常が撮像されたかのような画像(動画像)となる。そして、合成画像220の画像データ28が記憶部26に記憶される。   FIG. 5 is a diagram illustrating the composite image 220. As described above, when the CG image 210 is created, a combined image 220 in which the CG image 210 is combined with the captured image 200 is generated. As illustrated in FIG. 5, the combined image 220 is a combined image of the captured image 200 and the CG image 210, and becomes an image (moving image) as if a daily life in the near future were captured. Then, the image data 28 of the composite image 220 is stored in the storage unit 26.

図6は、表示画像230を説明する図である。なお、図6では、合成画像220のうち、破線で囲まれた領域が表示画像230(230a〜230c)となる。   FIG. 6 is a diagram illustrating the display image 230. In FIG. 6, a region surrounded by a broken line in the composite image 220 is a display image 230 (230a to 230c).

上記したように、撮像画像200は、使用位置110において、水平方向および垂直方向の全方位が撮像されており、CG画像210も、撮像画像に合わせて水平方向および垂直方向の全方位について作成されている。したがって、合成画像220も水平方向および垂直方向の全方位の画像となる。   As described above, the captured image 200 is captured in all directions in the horizontal and vertical directions at the use position 110, and the CG image 210 is also created in all horizontal and vertical directions in accordance with the captured image. ing. Therefore, the composite image 220 is also an image in all directions in the horizontal and vertical directions.

そして、画像表示装置1は、図3に示したように、室内100における使用位置110で、基準方向120を向いたユーザに装着される。このとき、制御部22は、図6に示すように、合成画像220の中央部分である、基準方向120に対応する画像部分(表示画像230a)を表示部20に表示する。   Then, as shown in FIG. 3, the image display device 1 is worn by a user who is facing the reference direction 120 at the use position 110 in the room 100. At this time, the control unit 22 displays, on the display unit 20, an image portion (display image 230a) corresponding to the reference direction 120, which is the central portion of the composite image 220, as shown in FIG.

これにより、ユーザは、画像表示装置1を装着する前に見ていた空間と同じ映像である表示画像230aを、表示部20を通じて見ることができる。こうして、ユーザは、自身がいる室内100を恰も直接見ているかのように錯覚することになる。   Thus, the user can view, through the display unit 20, a display image 230a that is the same video as the space seen before mounting the image display device 1. In this way, the user has an illusion as if he / she is looking directly at the room 100 where the user is.

そして、制御部22は、不図示の操作部を介した操作に応じて、合成画像220を再生表示する。このとき、ユーザは、画像表示装置1を装着したまま、視線方向を移動させる。そうすると、検出部24は、ユーザの頭部の動きに応じた視線方向を検出する。また、制御部22は、検出部24によって検出される視線方向を示す信号に基づいて、例えば、図6に示すように、合成画像220のうち、視線方向に対応する表示画像230bや表示画像230cを表示部20に表示する。   Then, the control unit 22 reproduces and displays the composite image 220 according to an operation via an operation unit (not shown). At this time, the user moves the gaze direction while wearing the image display device 1. Then, the detection unit 24 detects the gaze direction according to the movement of the user's head. Further, based on the signal indicating the line-of-sight direction detected by the detection unit 24, the control unit 22 may, for example, display the display image 230b or the display image 230c corresponding to the line-of-sight direction in the composite image 220 as illustrated in FIG. Is displayed on the display unit 20.

これにより、ユーザは、自身の視線方向の移動に合わせて表示画像230が変化することから、自身がいる室内100が近未来に変わったかのように錯覚することになる。また、自身がいる室内100が、近未来の空間に変わったかのような臨場感を体験することができる。   Accordingly, the user changes the display image 230 in accordance with the movement of the user's line of sight, and thus has the illusion that the room 100 in which the user is located has changed in the near future. In addition, it is possible to experience a sense of reality as if the room 100 in which the user is has changed into a near-future space.

特に、コンセプトハウスでは、従来、近未来の体験をユーザにさせようとした場合、室内100に、近未来の技術に関する装置を組み込む必要があった。しかしながら、近未来の技術に関する装置を組み込む場合、装置の制作上の限界があり、また、装置を変更しようとする場合には、大掛かりな改変が必要であった。   In particular, in a concept house, in the past, it was necessary to incorporate a device related to near-future technology into the room 100 in order to allow a user to experience the near-future experience. However, there is a limit in the production of the device when incorporating a device relating to the near-future technology, and a large-scale modification is required when trying to change the device.

これに対して、画像表示装置1では、近未来の技術に関する装置を変更する場合には、CG画像210の内容を変えるだけでよく、展示内容に自由度があり、容易な作業で改変も容易となる。   On the other hand, in the image display device 1, when the device related to the near-future technology is changed, it is only necessary to change the content of the CG image 210. Becomes

ここで、表示部20に表示する画像の全てをCG画像にしようとしても、ユーザがいる室内100の全てをコンピュータにより生成することは困難であるとともに、全てがCG画像となると、臨場感に欠けてしまうことになる。   Here, even if all of the images displayed on the display unit 20 are converted into CG images, it is difficult to generate all of the room 100 where the user is located by a computer. Will be.

以上のように、画像表示装置1は、室内100における、ユーザが使用する使用位置110で予め撮像された撮像画像200に対してCG画像210が合成された合成画像220を表示部20に表示する。これにより、画像表示装置1は、撮像部を設ける必要がない簡易な構成で、かつ、リアルタイムにCG画像を合成する必要もなく処理負荷を低減して、表示画像230を表示部20に表示することができる。   As described above, the image display device 1 displays, on the display unit 20, the composite image 220 in which the CG image 210 is composited with the captured image 200 previously captured at the use position 110 used by the user in the room 100. . As a result, the image display device 1 displays the display image 230 on the display unit 20 with a simple configuration that does not require an imaging unit, reduces the processing load without combining CG images in real time, and reduces the processing load. be able to.

このとき、撮像画像200が、ユーザが使用する使用位置110で撮像されているため、使用位置110で画像表示装置1が装着されると、画像表示装置1を装着する前に見ていた空間と同じ映像である表示画像230aをユーザに提供することができ、臨場感を与えることができる。   At this time, since the captured image 200 is captured at the use position 110 used by the user, when the image display device 1 is mounted at the use position 110, the space viewed before mounting the image display device 1 is The display image 230a that is the same video can be provided to the user, and a sense of realism can be given.

以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明はかかる実施形態に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   As described above, the preferred embodiments of the present invention have been described with reference to the accompanying drawings, but it goes without saying that the present invention is not limited to such embodiments. It is obvious to those skilled in the art that various changes or modifications can be conceived within the scope of the claims, and it is understood that these also naturally belong to the technical scope of the present invention. Is done.

例えば、上記の実施形態において、撮像画像200、CG画像210、合成画像220は動画像である場合について説明した。しかしながら、撮像画像200、CG画像210、合成画像220は静止画像であってもよい。   For example, in the above embodiment, the case where the captured image 200, the CG image 210, and the composite image 220 are moving images has been described. However, the captured image 200, the CG image 210, and the composite image 220 may be still images.

また、上記の実施形態において、上記の実施形態において説明した撮像画像200、CG画像210、合成画像220は一例であり、撮像画像200、CG画像210、合成画像220の内容は問わない。   In the above embodiment, the captured image 200, the CG image 210, and the composite image 220 described in the above embodiment are merely examples, and the contents of the captured image 200, the CG image 210, and the composite image 220 are not limited.

また、上記の実施形態において、画像表示装置1は、コンセプトハウスや実住宅等の室内100で使用される場合について説明した。しかしながら、画像表示装置1は、モデルハウスやモデルルーム等の様々な室内、および、屋外で使用されるようにしてもよい。ただし、画像表示装置1は、予め決められた使用位置110が設定されており、撮像画像200が使用位置110で撮像される必要がある。例えば、モデルハウスやモデルルームで使用される場合、家具の配置を変えた時の様子、室内における人の動線等を、CG画像210で作成して撮像画像200に合成することで、家具の配置を変更したときの様子や、動線の確認をユーザに提供することができる。また、実住宅において、新たに購入する家具の配置、リフォーム後の室内の様子等をCG画像210で生成して撮像画像200に合成することで、新たに家具を購入する際のイメージや、リフォーム後のイメージをユーザに提供することができる。   Further, in the above embodiment, the case where the image display device 1 is used in the room 100 such as a concept house or a real house has been described. However, the image display device 1 may be used in various rooms, such as a model house and a model room, and outdoors. However, in the image display device 1, a predetermined use position 110 is set, and the captured image 200 needs to be captured at the use position 110. For example, when the furniture is used in a model house or a model room, a state when the arrangement of the furniture is changed, a flow line of a person in the room, and the like are created in the CG image 210 and combined with the captured image 200 to obtain the furniture. It is possible to provide the user with the state when the arrangement is changed and the confirmation of the flow line. Further, in a real house, the arrangement of newly purchased furniture, the state of the interior of the room after renovation, and the like are generated as a CG image 210 and combined with the captured image 200, so that an image when newly purchasing furniture and a renovation are obtained. Later images can be provided to the user.

また、上記の実施形態において、表示部20は、ユーザの両目に対して異なる画像を表示可能である場合について説明したが、ユーザの両目に対して同一の画像を表示可能とするようにしてもよい。   Further, in the above embodiment, the case has been described where the display unit 20 can display different images for both eyes of the user. However, the same image may be displayed for both eyes of the user. Good.

また、上記の実施形態において、画像表示装置1は、撮像画像200を1つの動画像として撮像し、撮像画像200に対してCG画像210を合成した合成画像220の画像データ28を記憶部26に記憶するようにした。しかしながら、これに限らず、ユーザの両目の位置に対応する撮像画像を撮像するとともに、これらの撮像画像に対してCG画像を作成し、それぞれの撮像画像に対してCG画像を合成した合成画像のデータを記憶部に記憶するようにしてもよい。   In the above-described embodiment, the image display device 1 captures the captured image 200 as one moving image, and stores the image data 28 of the composite image 220 obtained by combining the captured image 200 with the CG image 210 in the storage unit 26. I remember it. However, the present invention is not limited to this. In addition to capturing captured images corresponding to the positions of both eyes of the user, a CG image is created for these captured images, and a CG image is synthesized for each captured image. Data may be stored in the storage unit.

また、上記の実施形態において、本体部10は、表示部20、制御部22、検出部24および記憶部26を含んで構成されるようにした。しかしながら、本体部10は、少なくとも表示部20がユーザの目の前方に位置するように設けられていればよく、制御部22、検出部24および記憶部26が、本体部10とは別体に設けられていてもよい。   In the above-described embodiment, the main body unit 10 is configured to include the display unit 20, the control unit 22, the detection unit 24, and the storage unit 26. However, the main unit 10 may be provided so that at least the display unit 20 is located in front of the user's eyes, and the control unit 22, the detection unit 24, and the storage unit 26 are separately provided from the main unit 10. It may be provided.

本発明は、ユーザの前面に画像を表示する画像表示装置に利用することができる。   INDUSTRIAL APPLICATION This invention can be utilized for the image display apparatus which displays an image in front of a user.

1 画像表示装置
20 表示部
22 制御部
24 検出部
26 記憶部
28 画像データ
200 撮像画像
210 CG画像(仮想画像)
220 合成画像
230 表示画像
1 image display device 20 display unit 22 control unit 24 detection unit 26 storage unit 28 image data 200 captured image 210 CG image (virtual image)
220 Composite image 230 Display image

Claims (3)

ユーザの前方に画像を表示する表示部を備える画像表示装置であって、
近未来の技術に関する装置を組み込んだ仮想画像が撮像画像に対して合成された合成画像の画像データが予め記憶されている記憶部と、
前記ユーザの視線方向を検出する検出部と、
前記検出部によって検出された視線方向に基づいて、前記合成画像における該視線方向に対応する表示画像を前記表示部に表示するよう制御する制御部と、
を備え、
前記表示部は、前記ユーザと一体的に移動可能であり、
前記撮像画像は、前記ユーザが前記画像表示装置を使用する予め決められた位置で、前記ユーザが前記画像表示装置を使用する前に見ることになる空間が予め撮像されたものである画像表示装置。
An image display device including a display unit that displays an image in front of a user,
A storage unit in which image data of a combined image in which a virtual image incorporating a device related to the near future technology is combined with the captured image is stored in advance,
A detection unit configured to detect a gaze direction of the user;
A control unit that controls the display unit to display a display image corresponding to the line-of-sight direction in the composite image based on the line-of-sight direction detected by the detection unit,
With
The display unit is movable integrally with the user,
The image display device, wherein the captured image is an image in which a space to be viewed before the user uses the image display device is captured in advance at a predetermined position where the user uses the image display device. .
前記撮像画像は、
前記予め決められた位置で、予め決められた基準方向を基準として撮像される請求項1に記載の画像表示装置。
The captured image is
The image display device according to claim 1, wherein an image is captured at the predetermined position with reference to a predetermined reference direction.
前記撮像画像は、
前記予め決められた位置で、前記基準方向を基準として、水平方向および垂直方向の全方位で撮像される請求項2に記載の画像表示装置。
The captured image is
The image display device according to claim 2, wherein an image is taken at all the horizontal and vertical directions with respect to the reference direction at the predetermined position.
JP2017030306A 2017-02-21 2017-02-21 Image display device Active JP6648050B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017030306A JP6648050B2 (en) 2017-02-21 2017-02-21 Image display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017030306A JP6648050B2 (en) 2017-02-21 2017-02-21 Image display device

Publications (2)

Publication Number Publication Date
JP2018136706A JP2018136706A (en) 2018-08-30
JP6648050B2 true JP6648050B2 (en) 2020-02-14

Family

ID=63365538

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017030306A Active JP6648050B2 (en) 2017-02-21 2017-02-21 Image display device

Country Status (1)

Country Link
JP (1) JP6648050B2 (en)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4272966B2 (en) * 2003-10-14 2009-06-03 和郎 岩根 3DCG synthesizer
JP2007226580A (en) * 2006-02-24 2007-09-06 Advanced Telecommunication Research Institute International Image output device and image output method
JP5136442B2 (en) * 2009-01-27 2013-02-06 ブラザー工業株式会社 Head mounted display
JP5759110B2 (en) * 2010-04-27 2015-08-05 泉陽興業株式会社 Ferris wheel
JP6056171B2 (en) * 2012-03-29 2017-01-11 富士通株式会社 Stereoscopic image display apparatus and method
JP6147966B2 (en) * 2012-06-01 2017-06-14 任天堂株式会社 Information processing program, information processing apparatus, information processing system, and information processing method
EP3007137A4 (en) * 2013-05-27 2017-01-18 Sony Corporation Image processing device, image processing method, and program
JP2014240961A (en) * 2014-06-17 2014-12-25 独立行政法人理化学研究所 Substitutional reality system control device, substitutional reality system, substitutional reality control method, program, and storage medium

Also Published As

Publication number Publication date
JP2018136706A (en) 2018-08-30

Similar Documents

Publication Publication Date Title
US10429925B2 (en) Head-mounted display, information processing device, display control method, and program
US10627628B2 (en) Information processing apparatus and image generating method
US10614589B2 (en) Information processing apparatus and image generating method
US20230188843A1 (en) Image display apparatus having a plurality of display modes
KR102257621B1 (en) The Apparatus and Method for Head Mounted Display Device displaying Thumbnail image
US20190075288A1 (en) Virtual Reality Helmet and Method for Using Same
EP3008548B1 (en) Head-mountable apparatus and systems
JP5869712B1 (en) Head-mounted display system and computer program for presenting a user's surrounding environment in an immersive virtual space
WO2016013272A1 (en) Information processing device, information processing method and image display system
JP2017138973A (en) Method and program for providing virtual space
JP2017021824A (en) Head-mounted display control method and head-mounted display control program
WO2019225354A1 (en) Information processing device, information processing method, and program
JP6648050B2 (en) Image display device
JP2019028638A (en) Head-mounted display and video display device thereof
US10339722B2 (en) Display device and control method therefor
KR20180055637A (en) Electronic apparatus and method for controlling thereof
JP6442619B2 (en) Information processing device
TWI620100B (en) Method, virtual reality apparatus and recording medium for displaying fast moving frames of virtual reality
CN213934814U (en) 3D (three-dimensional) interactive display system
US20220032196A1 (en) Animation production system
JP6503407B2 (en) Content display program, computer device, content display method, and content display system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180213

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180213

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180612

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180619

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190423

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190619

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190910

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200115

R150 Certificate of patent or registration of utility model

Ref document number: 6648050

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250