JP2023178093A - Display unit, control method, and program - Google Patents

Display unit, control method, and program Download PDF

Info

Publication number
JP2023178093A
JP2023178093A JP2022091156A JP2022091156A JP2023178093A JP 2023178093 A JP2023178093 A JP 2023178093A JP 2022091156 A JP2022091156 A JP 2022091156A JP 2022091156 A JP2022091156 A JP 2022091156A JP 2023178093 A JP2023178093 A JP 2023178093A
Authority
JP
Japan
Prior art keywords
virtual image
depth
image
determining
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022091156A
Other languages
Japanese (ja)
Inventor
総一郎 鈴木
Soichiro Suzuki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022091156A priority Critical patent/JP2023178093A/en
Publication of JP2023178093A publication Critical patent/JP2023178093A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

To provide a display unit that allows a user to more clearly see a virtual image such as a menu icon.SOLUTION: A display unit controls a depth position of a virtual image to be displayed, and has: first acquisition means that acquires depth information from an image; second acquisition means that acquires congestion information on both eyes of a user; and depth determination means that determines the depth position of the virtual image. The depth determination means has first determination means that determines the depth position based on the depth information acquired by the first acquisition means, and second determination means that determines the depth position based on the congestion information acquired by the second acquisition means. The display unit determines the depth position by switching between the first determination means and the second determination means according to the virtual image to be displayed.SELECTED DRAWING: Figure 1

Description

本発明は、実空間に虚像を重畳して表示する表示装置に関する。 The present invention relates to a display device that displays a virtual image superimposed on real space.

近年、立体画像を表示する技術開発が進み、奥行きを持った立体画像を表示することが可能なヘッドマウントディスプレイ(以下「HMD」と記載する)が普及してきており、光学透過型のHMDも開発されている。光学透過型のHMDは、ホログラフィック素子やハーフミラー等を用いて、仮想的な立体画像であるAR(Augmented Reality)イメージを表示しつつ、HMD外の実空間の様子をシースルーで表示可能である。この時、ARイメージである虚像は、実空間に重畳して表示される。 In recent years, the development of technology for displaying 3D images has progressed, and head-mounted displays (hereinafter referred to as "HMD") that can display 3D images with depth have become popular, and optically transparent HMDs have also been developed. has been done. Optically transmissive HMDs use holographic elements, half mirrors, etc. to display an AR (Augmented Reality) image, which is a virtual three-dimensional image, and can also display the real space outside the HMD in a see-through manner. . At this time, the virtual image, which is the AR image, is displayed superimposed on the real space.

このARイメージである虚像が実空間の物体と違和感なく調和し、実空間に存在するかのように見えるように、虚像の立体感を向上させる様々な技術が開発されている。例えば、特許文献1では、取得した実空間の奥行き情報をもとに、表示する虚像の奥行き位置を自由に変更可能にすることで、より実空間に調和した虚像の表示を可能にしている。この虚像の奥行き位置を制御する技術により、ユーザーが虚像を見ている時は虚像が鮮明に見え、虚像とは異なる奥行き位置の実空間の物体を見ている時は虚像が自然にぼやけて見える為、ユーザーは虚像に対して実物体のような自然な奥行き感を得る事ができる。 Various technologies have been developed to improve the stereoscopic effect of virtual images so that the virtual images, which are AR images, harmonize seamlessly with objects in real space and appear as if they exist in real space. For example, in Patent Document 1, the depth position of the displayed virtual image can be freely changed based on the acquired depth information of the real space, thereby making it possible to display the virtual image that is more in harmony with the real space. With this technology that controls the depth position of the virtual image, when the user is looking at the virtual image, the virtual image appears clear, and when the user is looking at an object in real space that has a different depth position than the virtual image, the virtual image naturally appears blurred. Therefore, the user can obtain a natural sense of depth from the virtual image, similar to that of a real object.

特開2016-24273号公報JP2016-24273A

しかしながら従来技術では、ユーザーが実空間を見ながら同時にメニューアイコンや付加情報等の虚像を見たい場合、ユーザーが見ている実空間の物体の奥行き位置と、表示している虚像の奥行き位置が一致していないと虚像がぼやけて見えてしまう。ユーザーが虚像に視線を合わせると、ユーザーが見ていた実空間の物体は虚像とは異なる奥行き位置である為、ぼやけて見えてしまい、実空間の物体と表示される虚像を同時に見ることが困難になってしまう。ユーザーが実空間の物体と虚像を同時に見たい場合に、それぞれの奥行き位置に合わせて視線の奥行き位置を変更する事はユーザーにとって大きな負荷になる。また、虚像を常にユーザーから鮮明に見えるように表示すると、虚像が実空間に存在するかのように表示したい場合に、ユーザーが視線を変えても虚像は自然にぼやけて見えない為、実物体のような自然な奥行き感を得る事が出来なくなってしまう。このように、従来技術では、虚像の立体感が向上するように実空間の奥行き情報に基づいて虚像の表示奥行き位置を制御しつつ、メニューアイコン等の虚像をユーザーが見ている実空間の物体と常に同時に鮮明に見ることが困難であるという課題があった。 However, in the conventional technology, when a user wants to view a virtual image such as a menu icon or additional information while viewing the real space, the depth position of the object in the real space that the user is viewing and the depth position of the displayed virtual image are not the same. If not, the virtual image will appear blurry. When the user focuses on the virtual image, the object in real space that the user is looking at is at a different depth from the virtual image, so it appears blurry, making it difficult to see the object in real space and the displayed virtual image at the same time. Become. When a user wants to view an object in real space and a virtual image at the same time, changing the depth position of the line of sight to match the respective depth positions places a heavy burden on the user. In addition, if you display a virtual image so that it is always clearly visible to the user, if you want to display the virtual image as if it exists in real space, the virtual image will naturally blur even if the user changes his/her line of sight. It becomes impossible to obtain a natural sense of depth. In this way, in the conventional technology, the display depth position of the virtual image is controlled based on the depth information in the real space so as to improve the three-dimensional effect of the virtual image, and the virtual image, such as a menu icon, is controlled by the object in the real space that the user is viewing. There was a problem in that it was difficult to always see clearly at the same time.

本発明の目的は、メニューアイコン等の虚像を、ユーザーがより鮮明に見ることが可能な表示装置を提供することである。 An object of the present invention is to provide a display device that allows a user to view virtual images such as menu icons more clearly.

その目的を達成するために、本発明の一側面としての表示装置は、表示する虚像の奥行き位置を制御する表示装置であって、画像から奥行き情報を取得する第1の取得手段と、ユーザーの両眼の輻輳情報を取得する第2の取得手段と、前記虚像の奥行き位置を決定する奥行き決定手段と、を有し、前記奥行き決定手段は、前記第1の取得手段で取得した奥行き情報に基づいて奥行き位置を決定する第1の決定手段と、前記第2の取得手段で取得した輻輳情報に基づいて奥行き位置を決定する第2の決定手段と、を有し、表示する虚像に応じて、前記第1の決定手段と第2の決定手段とを切り替えて、奥行き位置を決定することを特徴とする。 In order to achieve the object, a display device according to one aspect of the present invention is a display device that controls the depth position of a virtual image to be displayed, and includes a first acquisition means that acquires depth information from the image, and a display device that controls the depth position of a virtual image to be displayed. It has a second acquisition means that acquires the convergence information of both eyes, and a depth determination means that determines the depth position of the virtual image, and the depth determination means uses the depth information acquired by the first acquisition means. and a second determining means that determines the depth position based on the convergence information acquired by the second acquisition means, and according to the virtual image to be displayed. , the depth position is determined by switching between the first determining means and the second determining means.

本発明の表示装置によれば、メニューアイコン等の虚像を、ユーザーがより鮮明に見ることが可能となる。 According to the display device of the present invention, a user can see virtual images such as menu icons more clearly.

本発明の実施形態に係る、立体画像表示装置のシステム構成図である。1 is a system configuration diagram of a stereoscopic image display device according to an embodiment of the present invention. 本発明の実施形態に係る、実空間画像情報に基づいた虚像の表示方法を説明する図である。FIG. 2 is a diagram illustrating a method of displaying a virtual image based on real space image information according to an embodiment of the present invention. 本発明の実施形態に係る、ユーザーの視線情報に基づいた虚像の表示方法を説明する図である。FIG. 3 is a diagram illustrating a method of displaying a virtual image based on user's line-of-sight information according to an embodiment of the present invention. 本発明の実施形態に係る、立体画像表示装置の外観構成図である。1 is an external configuration diagram of a stereoscopic image display device according to an embodiment of the present invention. 本発明の実施形態に係る、虚像の奥行き位置の制御方法を説明する図である。FIG. 3 is a diagram illustrating a method for controlling the depth position of a virtual image according to an embodiment of the present invention. 本発明の実施形態に係る、ユーザーの視線奥行き情報の取得方法を説明する図である。FIG. 2 is a diagram illustrating a method for acquiring user's line-of-sight depth information according to an embodiment of the present invention. 本発明の第1の実施形態に係る、虚像表示シーケンスである。1 is a virtual image display sequence according to a first embodiment of the present invention. 本発明の第2の実施形態に係る、ユーザーの視線情報に基づいた虚像の表示を説明する図である。FIG. 7 is a diagram illustrating display of a virtual image based on user's line-of-sight information according to the second embodiment of the present invention. 本発明の第2の実施形態に係る、虚像表示シーケンスである。3 is a virtual image display sequence according to a second embodiment of the present invention.

[実施形態1]
本発明の第1の実施の形態を説明する。
[Embodiment 1]
A first embodiment of the present invention will be described.

図4は、本実施例における立体画像表示装置100の外観構成の一例を示す図である。 FIG. 4 is a diagram showing an example of the external configuration of the stereoscopic image display device 100 in this embodiment.

102は、実空間の画像情報を取得する撮像部であり、左右2つの画像情報を同時に取得可能である。この取得した2つの画像の視差情報から、立体画像表示装置100と実空間の物体との距離を算出することが可能である。例えば、左右2つの撮像部102の間の距離(基線長)と、撮像部102の焦点距離、2つの画像の視差情報から、一般的な三角測量の手法を用いて実空間の物体との距離情報を算出することが出来る。111は、撮像部で取得した実空間の画像に、虚像を重畳させて表示する表示部である。表示部111は、左目用の視差画像と右目用の視差画像を表示することで、奥行き感を持った立体的な画像を表示することが出来る。 Reference numeral 102 denotes an imaging unit that acquires image information in real space, and is capable of simultaneously acquiring left and right image information. From the parallax information of the two acquired images, it is possible to calculate the distance between the stereoscopic image display device 100 and the object in real space. For example, from the distance (baseline length) between the two left and right imaging units 102, the focal length of the imaging unit 102, and the parallax information of the two images, the distance to the object in real space can be determined using a general triangulation method. Information can be calculated. A display unit 111 displays a virtual image superimposed on the real space image acquired by the imaging unit. The display unit 111 can display a three-dimensional image with a sense of depth by displaying a parallax image for the left eye and a parallax image for the right eye.

図2は、本実施例における、実空間の画像の奥行き情報に基づいて虚像を表示する場合の虚像表示方法を説明する図である。 FIG. 2 is a diagram illustrating a virtual image display method in the case of displaying a virtual image based on depth information of an image in real space in this embodiment.

図2(a)は、立体画像表示装置100を使用したユーザーが、虚像を重畳していない実空間の物体200を見ている様子を示す図である。立体画像表示装置100は、撮像部102で撮像した実空間の画像に対して、仮想的な3次元直交座標系を設定している。立体画像表示装置100は、撮像部102で撮像した画像から被写体を認識し、各被写体の仮想的な3次元直交座標系における座標を算出する。立体画像表示装置100は、撮像部102で撮像した2つの画像の視差情報から被写体の奥行き位置を算出し、算出した奥行き位置と、撮像した画像における被写体の水平・垂直位置とから、仮想的な3次元座標系における被写体の座標位置を算出する。本実施例では、立体画像表示装置100は、実空間の物体200を認識し、物体200の奥行きL1を算出して、仮想的な3次元直交座標系における物体200の座標を算出している。 FIG. 2A is a diagram showing how a user using the stereoscopic image display device 100 views an object 200 in real space on which a virtual image is not superimposed. The stereoscopic image display device 100 sets a virtual three-dimensional orthogonal coordinate system for the real space image captured by the imaging unit 102. The stereoscopic image display device 100 recognizes subjects from images captured by the imaging unit 102 and calculates coordinates of each subject in a virtual three-dimensional orthogonal coordinate system. The stereoscopic image display device 100 calculates the depth position of the subject from the parallax information of the two images captured by the imaging unit 102, and uses the calculated depth position and the horizontal and vertical positions of the subject in the captured image to create a virtual image. The coordinate position of the subject in the three-dimensional coordinate system is calculated. In this embodiment, the stereoscopic image display device 100 recognizes the object 200 in real space, calculates the depth L1 of the object 200, and calculates the coordinates of the object 200 in a virtual three-dimensional orthogonal coordinate system.

図2(b)は、立体画像表示装置100が、実空間の画像に虚像201を重畳して表示する様子を示す図である。本実施例では、立体画像表示装置100に予め登録された複数の虚像の中からユーザーに表示を指示された虚像201を表示している。立体画像表示装置100は、物体200の上に虚像201が置かれているように見せる為に、算出した物体200の奥行きL1と同じ奥行き位置に虚像201を表示している。本実施例では、立体画像表示装置100が実空間の画像から検出した被写体は物体200の1つのみだが、複数の被写体が存在しても良い。立体画像表示装置100が複数の被写体を検出した場合は、複数の被写体の中から選択した1つの被写体の奥行き位置と、虚像201の奥行き位置が一致するように虚像201を表示する。立体画像表示装置100が実空間の画像から被写体を1つも検出しなかった場合は、予め設定された奥行き位置に虚像201を表示する。また、立体画像表示装置100は、撮像部102が撮像した被写体を人・動物・物体等、複数の種類に分類して認識可能である。本実施例では、表示する虚像毎に、どの分類の被写体のどの位置に重畳して表示するかが予め設定されている。例えば、皿の虚像は実空間の机の上に置かれているように重畳し、帽子の虚像は実空間の人が頭にかぶっているように重畳する。実空間画像の奥行き情報に基づいて虚像を表示する場合、立体画像表示装置100は、設定した仮想的な3次元直交座標系の絶対座標位置に虚像を表示し、ユーザーから虚像の再表示や表示位置の移動を指示されない限り、虚像の表示座標は変更しない。よって、ユーザーが顔の向きを変えると虚像はユーザーの視界から外れ、顔の向きを元に戻すと虚像は再び見えるようになる。また、ユーザーが視線を虚像とは異なる奥行き位置に変更すると、虚像は自然とぼやけて見え、視線を再び虚像に合わせると虚像は鮮明に見ることが出来る。このような表示方法を実施することで、実空間に虚像が存在するかのように表示することが出来る。 FIG. 2B is a diagram showing how the stereoscopic image display device 100 displays a virtual image 201 superimposed on an image in real space. In this embodiment, the virtual image 201 that the user has instructed to display is displayed from among a plurality of virtual images registered in advance in the stereoscopic image display device 100. The stereoscopic image display device 100 displays the virtual image 201 at the same depth position as the calculated depth L1 of the object 200 in order to make it appear as if the virtual image 201 is placed on the object 200. In this embodiment, the stereoscopic image display device 100 detects only one object, the object 200, from the real space image, but a plurality of objects may exist. When the stereoscopic image display device 100 detects a plurality of subjects, the virtual image 201 is displayed so that the depth position of one subject selected from the plurality of subjects matches the depth position of the virtual image 201. If the stereoscopic image display device 100 does not detect any object from the real space image, the virtual image 201 is displayed at a preset depth position. Furthermore, the stereoscopic image display device 100 can classify and recognize subjects imaged by the imaging unit 102 into a plurality of types, such as people, animals, and objects. In this embodiment, for each virtual image to be displayed, it is set in advance at which position of which category of subject the virtual image is to be superimposed and displayed. For example, a virtual image of a plate is superimposed as if it were placed on a desk in real space, and a virtual image of a hat is superimposed as if it were being worn on a person's head in real space. When displaying a virtual image based on the depth information of a real space image, the stereoscopic image display device 100 displays the virtual image at the absolute coordinate position of the set virtual three-dimensional orthogonal coordinate system, and requests the user to redisplay or display the virtual image. The display coordinates of the virtual image are not changed unless a position movement instruction is given. Therefore, when the user changes the orientation of the user's face, the virtual image disappears from the user's field of view, and when the user changes the orientation of the user's face, the virtual image becomes visible again. Furthermore, when the user changes the line of sight to a depth position different from that of the virtual image, the virtual image naturally appears blurred, and when the user adjusts the line of sight to the virtual image again, the virtual image can be seen clearly. By implementing such a display method, it is possible to display a virtual image as if it existed in real space.

図3は、本実施例における、ユーザーの視線情報に基づいて虚像を表示する場合の虚像表示方法を説明する図である。図3は、立体画像表示装置100を使用したユーザーが、実空間の被写体300を見ながら同時にメニューアイコンや付加情報等の虚像301を見たい場合における、虚像301の表示方法を示している。本実施例では、立体画像表示装置100に予め登録された複数の虚像の中からユーザーに表示を指示された虚像301を表示している。立体画像表示装置100は、ユーザーが見ている視線の奥行き情報を算出可能であり、図3では算出した視線奥行き位置に基づいて虚像を表示している。本実施例では、図2で示したように実空間画像の奥行き情報に基づいて虚像を表示するか、図3で示すようにユーザーの視線情報に基づいて虚像を表示するか、が表示する虚像毎に予め設定されている。例えば、実空間に存在するかのように表示したい虚像は、実空間画像の奥行き情報に基づいて表示し、メニューアイコンや付加情報等の虚像は、ユーザーの視線奥行き情報に基づいて表示する。立体画像表示装置100は、算出したユーザーの視線奥行きL2と同じ奥行き位置に虚像301を表示している。立体画像表示装置100は、ユーザーの視線奥行き情報を常に算出しており、ユーザーの視線奥行き位置が変化したら、虚像301の奥行き位置も常に視線奥行き位置と一致するように虚像301の表示位置を変更する。よって、ユーザーが実空間で見たい被写体を変更しても、常に虚像301はユーザーの視線奥行き位置と同じ奥行き位置に表示される為、ユーザーは虚像301と実空間で見たい被写体を常に同時に鮮明に見ることが出来る。 FIG. 3 is a diagram illustrating a virtual image display method in the case of displaying a virtual image based on user's line-of-sight information in this embodiment. FIG. 3 shows a method of displaying a virtual image 301 when a user using the stereoscopic image display device 100 wants to simultaneously view a virtual image 301 such as a menu icon or additional information while viewing a subject 300 in real space. In this embodiment, the virtual image 301 that the user has instructed to display is displayed from among a plurality of virtual images registered in advance in the stereoscopic image display device 100. The stereoscopic image display device 100 can calculate the depth information of the line of sight viewed by the user, and in FIG. 3 displays a virtual image based on the calculated line of sight depth position. In this embodiment, the virtual image to be displayed depends on whether the virtual image is displayed based on the depth information of the real space image as shown in FIG. 2, or the virtual image is displayed based on the user's line of sight information as shown in FIG. It is set in advance for each. For example, a virtual image that is desired to be displayed as if it exists in real space is displayed based on the depth information of the real space image, and virtual images such as menu icons and additional information are displayed based on the user's line of sight depth information. The stereoscopic image display device 100 displays the virtual image 301 at the same depth position as the calculated user's line-of-sight depth L2. The stereoscopic image display device 100 constantly calculates the user's line-of-sight depth information, and when the user's line-of-sight depth position changes, the display position of the virtual image 301 is changed so that the depth position of the virtual image 301 always matches the line-of-sight depth position. do. Therefore, even if the user changes the object they want to see in real space, the virtual image 301 is always displayed at the same depth position as the user's line of sight, so the user can always clearly see the virtual image 301 and the object they want to see in real space at the same time. It can be seen in

図1は、本実施例における立体画像表示装置100のシステム構成図である。 FIG. 1 is a system configuration diagram of a stereoscopic image display device 100 in this embodiment.

101は、立体画像表示装置100全体の制御を司るCPUである。102は、実空間の画像情報を取得する撮像部であり、フォーカス調節や露出調節を行う結像光学部や、光学像を電気信号に変換する撮像素子等で構成される。103は、撮像した画像データに対して、ノイズ低減処理等の各種画像処理を施す画像処理部である。106は、撮像した画像から被写体を検出する被写体検出部である。104は、画像データを一時的に格納する為のメモリとなるDRAMである。105は、表示する各虚像情報や各種設定値を記憶するメモリとなるROMである。107は、撮像した画像データから3次元座標を算出する画像3次元座標算出部であり、画像奥行き算出部108は、検出した被写体等の奥行き位置を算出する。109は、ユーザーの視線先の3次元座標を算出する視線3次元座標検出部であり、視線奥行き算出部110は、ユーザーの視線奥行き位置を算出する。112は、ユーザーから表示を指示された虚像の表示位置を決定する虚像3次元座標決定部であり、113は、画像奥行き算出部108の算出結果と、視線奥行き算出部110の算出結果から、表示する虚像の奥行き位置を決定する虚像奥行き決定手段である。111は、ユーザーから表示を指示された虚像を、虚像3次元座標決定部112が決定した表示位置に表示する表示部である。 101 is a CPU that controls the entire stereoscopic image display device 100. Reference numeral 102 denotes an imaging unit that acquires image information in real space, and includes an imaging optical unit that performs focus adjustment and exposure adjustment, an imaging device that converts an optical image into an electrical signal, and the like. Reference numeral 103 denotes an image processing unit that performs various image processing such as noise reduction processing on captured image data. 106 is a subject detection unit that detects a subject from a captured image. A DRAM 104 serves as a memory for temporarily storing image data. 105 is a ROM that serves as a memory for storing virtual image information to be displayed and various setting values. Reference numeral 107 denotes an image three-dimensional coordinate calculation unit that calculates three-dimensional coordinates from captured image data, and an image depth calculation unit 108 calculates the depth position of a detected object. A line-of-sight three-dimensional coordinate detection unit 109 calculates the three-dimensional coordinates of the user's line of sight, and a line-of-sight depth calculation unit 110 calculates the line-of-sight depth position of the user. 112 is a virtual image three-dimensional coordinate determination unit that determines the display position of the virtual image that the user has instructed to display; virtual image depth determining means for determining the depth position of the virtual image. Reference numeral 111 denotes a display unit that displays a virtual image, which the user has instructed to display, at a display position determined by the virtual image three-dimensional coordinate determining unit 112.

図5は、本実施例における、表示する虚像の奥行き位置の制御方法を説明する図である。 FIG. 5 is a diagram illustrating a method of controlling the depth position of a displayed virtual image in this embodiment.

視点500の視線方向にZ軸が定められており、Z軸上に凸レンズ501の光軸とZ軸が一致するように凸レンズ501は配置されている。凸レンズ501の焦点距離はFである。502、503は透過型有機EL等の透過型表示素子であり、不図示のモータ等によって凸レンズ501からの距離A1、A2はそれぞれ変更可能である。尚、図5では502、503の2枚しか図示していないが、3枚以上の複数の透過型表示素子を備えても良い。透過型表示素子502、503は、それぞれ独立して異なる画像504、505を表示することが可能である。透過型表示素子502、503は、可視光を透過可能な部材である。透過型表示素子502、503によって表示される画像は、視点500から見ると重畳されて見える。透過型表示素子502、503は、凸レンズ501の焦点の内側に配置されており、視点500から表示画像504を見ると、表示画像504は凸レンズ501から距離B1離れた位置に、虚像506として観察される。このとき、距離A1、B1、および焦点距離Fの関係は、以下の式(1)で示す既知のレンズの公式によって規定される。
1/A1 - 1/B1 = 1/F ・・・・ 式(1)
A Z-axis is defined in the viewing direction of the viewpoint 500, and the convex lens 501 is arranged so that the optical axis of the convex lens 501 and the Z-axis coincide with each other on the Z-axis. The focal length of the convex lens 501 is F. 502 and 503 are transmissive display elements such as transmissive organic EL, and distances A1 and A2 from the convex lens 501 can be changed by a motor (not shown), respectively. Although only two transmissive display elements 502 and 503 are shown in FIG. 5, three or more transmissive display elements may be provided. Transmissive display elements 502 and 503 can independently display different images 504 and 505, respectively. Transmissive display elements 502 and 503 are members that can transmit visible light. Images displayed by the transmissive display elements 502 and 503 appear to be superimposed when viewed from the viewpoint 500. The transmissive display elements 502 and 503 are arranged inside the focal point of the convex lens 501, and when viewing the display image 504 from the viewpoint 500, the display image 504 is observed as a virtual image 506 at a distance B1 from the convex lens 501. Ru. At this time, the relationship between the distances A1, B1, and the focal length F is defined by the known lens formula shown in equation (1) below.
1/A1 - 1/B1 = 1/F... Formula (1)

また、表示画像504の大きさP1に対する虚像506の大きさQの割合は、以下の式(2)で表される。
Q/P1 = B1/A1 ・・・・ 式(2)
Further, the ratio of the size Q of the virtual image 506 to the size P1 of the display image 504 is expressed by the following equation (2).
Q/P1 = B1/A1... Formula (2)

また、式(1)を変形することにより、距離A1を距離B1の関数として、以下の式(3)のように表すことが出来る。
A1 = FB1/(F+B1) = F/(1+F/B1) ・・・・ 式(3)
Further, by transforming the equation (1), the distance A1 can be expressed as a function of the distance B1 as shown in the following equation (3).
A1 = FB1/(F+B1) = F/(1+F/B1) ... Formula (3)

式(3)により、凸レンズ501からの距離B1の位置に虚像506を表示する為に、画像504を表示する透過型表示素子502を配置すべき位置A1を求めることが出来る。 Using equation (3), in order to display the virtual image 506 at a position at a distance B1 from the convex lens 501, a position A1 at which the transmissive display element 502 that displays the image 504 should be placed can be determined.

また、式(2)に式(1)を代入して変形すると、以下の式(4)のように表すことが出来る。
P1 = QF/(B1+F) ・・・・ 式(4)
Furthermore, by substituting equation (1) into equation (2) and transforming it, it can be expressed as equation (4) below.
P1 = QF/(B1+F)... Formula (4)

式(4)により、距離B1の位置にQの大きさの虚像506を表示する為に表示画像504として表示すべき大きさP1を求めることが出来る。次に、凸レンズ501からの距離B1とは異なる距離B2に、虚像506と同じ大きさQの虚像507を表示したい場合の制御方法について説明する。凸レンズ501と、透過型表示素子503との距離A2は、式(3)より、以下の式(5)で表すことが出来る。
A2 = F/(1+F/B2) ・・・・ 式(5)
Using equation (4), it is possible to determine the size P1 to be displayed as the display image 504 in order to display the virtual image 506 of size Q at the position of distance B1. Next, a control method when it is desired to display the virtual image 507 having the same size Q as the virtual image 506 at a distance B2 different from the distance B1 from the convex lens 501 will be described. The distance A2 between the convex lens 501 and the transmissive display element 503 can be expressed by the following equation (5) from equation (3).
A2 = F/(1+F/B2)... Formula (5)

式(5)により、凸レンズ501からの距離B2の位置に虚像507を表示する為に、画像505を表示する透過型表示素子503を配置すべき位置A2を求めることが出来る。 Using equation (5), in order to display the virtual image 507 at a position at a distance B2 from the convex lens 501, a position A2 where the transmissive display element 503 that displays the image 505 should be placed can be determined.

また、表示すべき画像505の大きさP2は、式(4)より以下の式(6)で表すことが出来る。
P2 = QF/(B2+F) ・・・・ 式(6)
Further, the size P2 of the image 505 to be displayed can be expressed by the following equation (6) from equation (4).
P2 = QF/(B2+F) ... Formula (6)

式(6)により、距離B2の位置にQの大きさの虚像507を表示する為に表示画像505として表示すべき大きさP2を求めることが出来る。このように、透過型表示素子502、503の凸レンズ501からの距離A1、A2、及び表示する大きさP1、P2を変更することで、表示する虚像506、507の視点500からの奥行き位置Z1、Z2と大きさQを制御することが出来る。 Using equation (6), it is possible to determine the size P2 that should be displayed as the display image 505 in order to display the virtual image 507 of size Q at the position of distance B2. In this way, by changing the distances A1 and A2 of the transmissive display elements 502 and 503 from the convex lens 501 and the display sizes P1 and P2, the depth position Z1 of the displayed virtual images 506 and 507 from the viewpoint 500, Z2 and size Q can be controlled.

図6は、ユーザーの視線奥行き情報の取得方法を説明する図である。図5で説明したように、500は視点、501は凸レンズ、502、503は透過型表示素子である。600は、視線方向検出器であり、ユーザーの左右両眼の視線が交差する角度、すなわち輻輳角θを輻輳情報として検出することが出来る。視線方向検出器600の視線方向検出方法は、一般的な様々な方法で実現可能である。例えば、左右両眼について、近赤外光を眼球に照射してその反射光を黒眼の両側に配置した光検出器で検出し、その黒眼と白眼の境界で光量の変化を捉えて視線方向ないし眼球運動を検出する方法がある。他の方法として、スポット光を眼球に照射し、その反射光を2次元光位置検出器で捉えるようにし、あるいは微小テレビジョンカメラを用いて黒眼の位置情報を得ることで眼球運動を検出することが出来る。図6のIは、瞳孔間隔である。輻輳角θと、瞳孔間隔Iより、視点500から視線が交差する輻輳位置、すなわち視線の奥行き位置Zは、以下の式(7)で表すことが出来る。(輻輳角θの単位はラジアン)
Z = I/θ ・・・・ 式(7)
FIG. 6 is a diagram illustrating a method for acquiring user's line-of-sight depth information. As explained in FIG. 5, 500 is a viewpoint, 501 is a convex lens, and 502 and 503 are transmissive display elements. A line-of-sight direction detector 600 can detect the angle at which the line-of-sight of the user's left and right eyes intersect, that is, the convergence angle θ, as convergence information. The line-of-sight direction detection method of the line-of-sight direction detector 600 can be implemented using various general methods. For example, for both the left and right eyes, near-infrared light is irradiated onto the eyeballs, the reflected light is detected by photodetectors placed on both sides of the black eye, and changes in the amount of light are detected at the boundary between the black eye and the white of the eye. There are ways to detect direction or eye movement. Another method is to detect eye movement by shining a spot light onto the eyeball and capturing the reflected light with a two-dimensional optical position detector, or by obtaining positional information of the melanogaster using a microscopic television camera. I can do it. I in FIG. 6 is the interpupillary distance. From the convergence angle θ and the interpupillary interval I, the convergence position where the line of sight intersects from the viewpoint 500, that is, the depth position Z of the line of sight, can be expressed by the following equation (7). (The unit of vergence angle θ is radian)
Z = I/θ... Formula (7)

このようにして、ユーザーの視線の奥行き位置を算出出来る為、図5で説明した制御により、ユーザーの視線奥行き位置に虚像を表示することが出来る。 Since the depth position of the user's line of sight can be calculated in this way, a virtual image can be displayed at the user's line of sight depth position by the control described with reference to FIG.

図7は、本実施例における虚像表示シーケンスである。 FIG. 7 is a virtual image display sequence in this embodiment.

CPU101は、ユーザーから虚像の表示を指示されたら(S701)、ユーザーに表示を指示された虚像が、撮像した画像奥行き情報から算出した固定座標位置に表示する虚像なのか、ユーザー視線奥行き位置に表示する虚像なのか判断する。本実施例では、どちらの方法で算出した奥行き位置に表示すべきか表示する虚像毎に予め設定されている。撮像した画像奥行き情報から算出した固定座標位置に表示すべき虚像の場合は(S702)、撮像した画像から検出した被写体の奥行き位置を算出する(S703)。ユーザー視線奥行き位置に表示すべき虚像の場合は、ユーザーの視線奥行き位置を算出する(S704)。虚像奥行き決定手段113は、算出した被写体の奥行き位置、および算出したユーザーの視線奥行き位置を用いて、表示する虚像の奥行き位置を決定する(S705)。表示部111は、決定した奥行き位置に虚像を表示する(S706)。ユーザーから虚像表示の停止を指示されなければ上記虚像表示のシーケンスを繰り返し、虚像表示の停止を指示されたら(S707)、CPU101は虚像の表示を停止する(S708)。 When the CPU 101 receives an instruction from the user to display a virtual image (S701), the CPU 101 determines whether the virtual image that the user has instructed to display is a virtual image to be displayed at a fixed coordinate position calculated from the captured image depth information, and whether it is displayed at the user's line-of-sight depth position. Determine whether it is a virtual image. In this embodiment, the depth position calculated by which method should be displayed is preset for each virtual image to be displayed. If the virtual image is to be displayed at a fixed coordinate position calculated from the captured image depth information (S702), the depth position of the subject detected from the captured image is calculated (S703). In the case of a virtual image to be displayed at the user's line-of-sight depth position, the user's line-of-sight depth position is calculated (S704). The virtual image depth determination unit 113 determines the depth position of the virtual image to be displayed using the calculated depth position of the subject and the calculated user's line-of-sight depth position (S705). The display unit 111 displays the virtual image at the determined depth position (S706). If the user does not instruct to stop the virtual image display, the CPU 101 repeats the virtual image display sequence, and if the user instructs to stop the virtual image display (S707), the CPU 101 stops the virtual image display (S708).

以上、上記本実施例の制御により、虚像が実空間に存在するかのように虚像の奥行き位置を制御しつつ、かつ、メニューアイコン等の虚像は、ユーザーが見ている実空間の物体と常に同時に鮮明に見ることが出来る。 As described above, with the control of this embodiment described above, the depth position of the virtual image is controlled as if it existed in real space, and the virtual image such as a menu icon is always aligned with the object in real space that the user is looking at. You can see clearly at the same time.

尚、本実施例では、撮像した画像の奥行き情報のみ、もしくはユーザーの視線奥行き情報のみのどちらか一方を用いて表示する虚像の奥行き位置を決定したが、両方の情報を元に表示する虚像の奥行き位置を決定しても良い。例えば、撮像した画像から複数の被写体を検出し、検出した複数の被写体から1つの被写体を選択する際、ユーザーの視線奥行き位置に一番近い奥行き位置の被写体を選択し、選択した被写体と同じ奥行き位置に虚像を表示しても良い。 Note that in this embodiment, the depth position of the virtual image to be displayed is determined using either only the depth information of the captured image or only the user's line of sight depth information, but the depth position of the virtual image to be displayed is determined based on both pieces of information. The depth position may also be determined. For example, when multiple objects are detected from a captured image and one object is selected from the detected objects, the object at the depth position closest to the user's line of sight depth position is selected, and the object at the same depth as the selected object is selected. A virtual image may be displayed at the position.

また、本実施例では、撮像した画像の奥行き、及びユーザーの視線奥行きと同じ奥行き位置に虚像を表示したが、撮像した画像の奥行き、及びユーザーの視線奥行きから予め設定された距離内の奥行き位置に虚像を表示しても良い。 In addition, in this embodiment, the virtual image is displayed at the same depth position as the depth of the captured image and the user's line of sight depth, but the virtual image is displayed at a depth position within a preset distance from the depth of the captured image and the user's line of sight depth. A virtual image may be displayed.

また、本実施例では、撮像した画像の奥行き位置に基づいて虚像を表示する場合は固定の奥行き位置に虚像を表示したが、ユーザーの指示によって虚像の表示位置を変更可能な構成であっても良い。 Furthermore, in this embodiment, when displaying a virtual image based on the depth position of a captured image, the virtual image is displayed at a fixed depth position. good.

[実施形態2]
本発明の第2の実施の形態を説明する。
[Embodiment 2]
A second embodiment of the present invention will be described.

本実施例では、ユーザーの視線情報に基づいた虚像の表示方法、虚像表示シーケンスが第1実施例と異なる。他の構成は第1実施例と同様である為、説明を省略する。 This embodiment differs from the first embodiment in the virtual image display method and virtual image display sequence based on the user's line-of-sight information. The other configurations are the same as those in the first embodiment, so their explanation will be omitted.

図8は、本実施例における、ユーザーの視線情報に基づいた虚像表示方法を説明する図である。図8は、立体画像表示装置100を使用したユーザーが、実空間の被写体300を見ながら同時にメニューアイコンや付加情報等の虚像301を見たい場合における、虚像301の表示方法を示している。本実施例では、立体画像表示装置100に予め登録された複数の虚像の中からユーザーに表示を指示された虚像301を表示している。本実施例では、図2で示したように実空間画像の奥行き情報に基づいて虚像を表示するか、図8で示すようにユーザーの視線情報に基づいて虚像を表示するか、が表示する虚像毎に予め設定されている。立体画像表示装置100は、算出したユーザーの視線奥行きL2と同じ奥行き位置に虚像301を表示している。立体画像表示装置100は、仮想的な3次元直交座標系を設定しており、設定した3次元座標系におけるユーザーの視線先の座標を算出している。本実施例では、ユーザーの視線先の奥行きL2だけでなく、算出した3次元座標上におけるユーザー視線先座標に近い位置に虚像301を表示している。これは、ユーザーの視線先と同じ奥行きL2に虚像を表示すれば実空間の被写体と虚像を同時に鮮明に見る事が出来るが、被写体と虚像が離れているとユーザーは視線を移動する必要があり、被写体と虚像を同時に見る事が出来なくなる可能性がある為である。但し、ユーザーが見ている被写体300と同じ座標位置に虚像を表示してしまうと、被写体300を見る事が出来なくなってしまう為、ユーザーが見ている被写体300とは異なる位置に虚像を表示する。本実施例では、撮像した画像に被写体が存在するか被写体検出部106で検出する。ユーザーの視線先座標に被写体が存在しない場合は、3次元座標上におけるユーザー視線先の座標位置に虚像を表示する。ユーザーの視線先座標に被写体が存在する場合は、3次元座標上における視線先座標から所定距離範囲内で、ユーザーが見ていない他の被写体も存在しない座標位置に虚像301を表示する。この所定距離範囲の値は予め設定されており、所定距離範囲内に被写体が存在しない領域がない場合は、所定距離範囲を拡大して被写体が存在しない領域に虚像を表示する。所定距離範囲を拡大しても被写体が存在しない領域がない場合は、ユーザーが見ていない被写体と同じ位置に虚像を表示する。また、本実施例では、所定距離範囲内の中でユーザーが視線位置を移動しても、虚像301の表示位置は変更しない。これは、ユーザーが虚像301を見る為に視線位置を被写体300から虚像301へ移動した時に虚像301も移動してしまい、ユーザーが虚像301を見る事が出来なくなってしまうからである。ユーザーの視線先位置が所定距離範囲を超えて移動した場合は、視線移動先から所定距離範囲内に虚像301を表示するように、虚像301の表示位置を変更する。本実施例では、ユーザーの視線先が移動している最中は虚像301の表示位置は変更せず、ユーザーの視線先の移動が停止してから予め設定された所定時間経過後に、虚像301の表示位置を変更する。これは、ユーザーが視線を激しく移動している最中に、虚像301も連動して激しく表示位置を変更すると、ユーザーにとって虚像の表示が煩わしく見えてしまう為である。 FIG. 8 is a diagram illustrating a virtual image display method based on user's line-of-sight information in this embodiment. FIG. 8 shows a method of displaying the virtual image 301 when a user using the stereoscopic image display device 100 wants to view the virtual image 301 such as a menu icon or additional information while viewing the object 300 in real space. In this embodiment, the virtual image 301 that the user has instructed to display is displayed from among a plurality of virtual images registered in advance in the stereoscopic image display device 100. In this embodiment, the virtual image to be displayed depends on whether the virtual image is displayed based on the depth information of the real space image as shown in FIG. 2, or the virtual image is displayed based on the user's line of sight information as shown in FIG. It is set in advance for each. The stereoscopic image display device 100 displays the virtual image 301 at the same depth position as the calculated user's line-of-sight depth L2. The stereoscopic image display device 100 has set a virtual three-dimensional orthogonal coordinate system, and calculates the coordinates of the user's line of sight in the set three-dimensional coordinate system. In this embodiment, the virtual image 301 is displayed not only at the depth L2 of the user's line of sight but also at a position close to the user's line of sight coordinates on the calculated three-dimensional coordinates. This is because if the virtual image is displayed at the same depth L2 as the user's line of sight, the object in real space and the virtual image can be seen clearly at the same time, but if the object and the virtual image are far apart, the user needs to move his or her line of sight. This is because there is a possibility that the subject and the virtual image cannot be viewed at the same time. However, if the virtual image is displayed at the same coordinate position as the subject 300 that the user is looking at, the user will not be able to see the subject 300, so the virtual image is displayed at a different position from the subject 300 that the user is looking at. . In this embodiment, the subject detection unit 106 detects whether a subject exists in the captured image. If the subject does not exist at the coordinates of the user's line of sight, a virtual image is displayed at the coordinate position of the user's line of sight on the three-dimensional coordinates. When a subject exists at the user's line-of-sight coordinates, a virtual image 301 is displayed at a coordinate position within a predetermined distance range from the line-of-sight coordinates on the three-dimensional coordinates and at a coordinate position where there are no other subjects that the user is not looking at. The value of this predetermined distance range is set in advance, and if there is no area within the predetermined distance range where the subject does not exist, the predetermined distance range is expanded and a virtual image is displayed in the area where the subject does not exist. If there is no area where the subject does not exist even after enlarging the predetermined distance range, a virtual image is displayed at the same position as the subject that the user is not looking at. Furthermore, in this embodiment, even if the user moves his or her line of sight within a predetermined distance range, the display position of the virtual image 301 does not change. This is because when the user moves his line of sight from the subject 300 to the virtual image 301 in order to view the virtual image 301, the virtual image 301 also moves, making it impossible for the user to view the virtual image 301. When the user's line of sight position moves beyond a predetermined distance range, the display position of the virtual image 301 is changed so that the virtual image 301 is displayed within a predetermined distance range from the line of sight destination. In this embodiment, the display position of the virtual image 301 is not changed while the user's line of sight is moving, and the display position of the virtual image 301 is changed after a predetermined time has elapsed after the user's line of sight stops moving. Change the display position. This is because, if the virtual image 301 also changes its display position rapidly while the user is moving his or her line of sight rapidly, the display of the virtual image will look bothersome to the user.

以上の制御を実施することにより、ユーザーは視線位置を大きく移動することなく、実空間で見たい被写体と虚像を常に同時に鮮明に見ることが出来る。 By performing the above control, the user can always clearly view the object he or she wants to see in real space and the virtual image at the same time without significantly moving the line of sight.

図9は、本実施例における虚像表示シーケンスである。 FIG. 9 is a virtual image display sequence in this embodiment.

CPU101は、ユーザーから虚像の表示を指示されたら(S901)、指示された虚像が、撮像した画像3次元座標から算出した固定座標位置に表示する虚像なのか、ユーザー視線3次元座標から算出した座標位置に表示する虚像なのか判断する。本実施例では、どちらの方法で算出した座標位置に表示すべきか表示する虚像毎に予め設定されている。撮像した画像3次元座標から算出した固定座標位置に表示すべき虚像の場合は(S902)、撮像した画像から検出した被写体の3次元座標位置を算出する(S903)。虚像3次元座標決定部112は、算出した被写体の3次元座標位置を用いて、表示する虚像の3次元座標位置を決定する(S904)。表示部111は、決定した3次元座標位置に虚像を表示する(S920)。ユーザー視線3次元座標から算出した座標位置に表示すべき虚像の場合は、ユーザーの視線先の3次元座標位置を算出する(S910)。画像3次元座標算出部107は、被写体検出部106で検出した被写体の座標位置を算出する(S911)。虚像3次元座標決定部112は、前フレームでユーザー視線3次元座標に基づいた位置に虚像を表示したか判断する(S912)。前フレームで表示していない場合、虚像3次元座標決定部112は、視線先座標から所定距離内、かつ被写体が存在しない領域を虚像の表示座標位置として算出する(S915)。前フレームで表示していた場合、虚像3次元座標決定部112は、前フレームで算出した所定距離範囲内に、現在のユーザーの視線先座標が存在するかを判断する(S913)。現在のユーザーの視線先座標位置が、前フレームで算出した所定距離範囲外であった場合は、現在の視線先座標から所定距離内、かつ被写体が存在しない領域を虚像の表示座標位置として算出する(S915)。現在のユーザーの視線先座標位置が、前フレームで算出した所定距離範囲内であった場合は、虚像表示位置に被写体が存在しないか判断する(S914)。虚像表示位置に被写体が存在する場合は、現在の視線先座標から所定距離内、かつ被写体が存在しない領域を虚像の表示座標位置として算出する(S915)。虚像表示位置に被写体が存在しない場合は、表示する虚像の座標位置は、前フレームで表示した虚像位置から変更しない(S916)。表示部111は、虚像3次元座標決定部112が決定した3次元座標位置に虚像を表示する(S920)。ユーザーから虚像表示の停止を指示されなければ上記虚像表示のシーケンスを繰り返し、虚像表示の停止を指示されたら(S921)、CPU101は虚像の表示を停止する(S922)。 When the CPU 101 receives an instruction from the user to display a virtual image (S901), the CPU 101 determines whether the instructed virtual image is a virtual image to be displayed at a fixed coordinate position calculated from the three-dimensional coordinates of the captured image, or whether the instructed virtual image is a virtual image to be displayed at a fixed coordinate position calculated from the three-dimensional coordinates of the user's line of sight. Determine whether it is a virtual image to be displayed at the location. In this embodiment, the coordinate position calculated by which method should be displayed is set in advance for each virtual image to be displayed. If the virtual image is to be displayed at a fixed coordinate position calculated from the three-dimensional coordinates of the captured image (S902), the three-dimensional coordinate position of the subject detected from the captured image is calculated (S903). The virtual image three-dimensional coordinate determining unit 112 determines the three-dimensional coordinate position of the virtual image to be displayed using the calculated three-dimensional coordinate position of the subject (S904). The display unit 111 displays the virtual image at the determined three-dimensional coordinate position (S920). If the virtual image is to be displayed at a coordinate position calculated from the three-dimensional coordinates of the user's line of sight, the three-dimensional coordinate position of the user's line of sight is calculated (S910). The image three-dimensional coordinate calculation unit 107 calculates the coordinate position of the subject detected by the subject detection unit 106 (S911). The virtual image three-dimensional coordinate determining unit 112 determines whether the virtual image was displayed at a position based on the three-dimensional coordinates of the user's line of sight in the previous frame (S912). If the virtual image is not displayed in the previous frame, the virtual image three-dimensional coordinate determination unit 112 calculates an area within a predetermined distance from the line-of-sight coordinates and in which no subject exists as the display coordinate position of the virtual image (S915). If the previous frame was displayed, the virtual image three-dimensional coordinate determination unit 112 determines whether the current user's line-of-sight coordinates exist within the predetermined distance range calculated in the previous frame (S913). If the current user's line-of-sight coordinate position is outside the predetermined distance range calculated in the previous frame, calculate the area within the predetermined distance from the current line-of-sight coordinate and where no subject exists as the display coordinate position of the virtual image. (S915). If the current coordinate position of the user's line of sight is within the predetermined distance range calculated in the previous frame, it is determined whether a subject exists at the virtual image display position (S914). If a subject exists at the virtual image display position, an area within a predetermined distance from the current line-of-sight coordinates and where the subject does not exist is calculated as the display coordinate position of the virtual image (S915). If the subject does not exist at the virtual image display position, the coordinate position of the virtual image to be displayed is not changed from the virtual image position displayed in the previous frame (S916). The display unit 111 displays the virtual image at the three-dimensional coordinate position determined by the virtual image three-dimensional coordinate determination unit 112 (S920). If the user does not instruct to stop the virtual image display, the CPU 101 repeats the virtual image display sequence, and if the user instructs to stop the virtual image display (S921), the CPU 101 stops the virtual image display (S922).

以上、上記本実施例の制御により、虚像が実空間に存在するかのように虚像の奥行き位置を制御しつつ、かつ、メニューアイコン等の虚像は、ユーザーが視線位置を大きく移動することなく、実空間で見たい被写体と虚像を常に同時に鮮明に見ることが出来る。 As described above, with the control of the present embodiment described above, the depth position of the virtual image is controlled as if it existed in real space, and virtual images such as menu icons can be viewed without the user significantly moving the line of sight. You can always clearly see the object you want to see in real space and the virtual image at the same time.

尚、撮像した画像の3次元情報に基づいて虚像を表示する場合、ユーザーの視線情報も用いて虚像の表示位置を決定しても良い。例えば、撮像した画像から複数の被写体を検出し、検出した複数の被写体から1つの被写体を選択する際、ユーザーの視線座標位置に一番近い座標の被写体を選択し、選択した被写体の座標位置に基づいて虚像を表示しても良い。 Note that when displaying a virtual image based on three-dimensional information of a captured image, the display position of the virtual image may also be determined using user's line-of-sight information. For example, when multiple objects are detected from a captured image and one object is selected from the detected objects, the object whose coordinates are closest to the user's line of sight coordinate position is selected, and the coordinate position of the selected object is A virtual image may be displayed based on this.

また、本実施例では、撮像した画像の奥行きと同じ奥行き位置に虚像を表示したが、撮像した画像の奥行きから予め設定された距離内の奥行き位置に虚像を表示しても良い。 Further, in this embodiment, the virtual image is displayed at the same depth position as the depth of the captured image, but the virtual image may be displayed at a depth position within a preset distance from the depth of the captured image.

また、本実施例では、撮像した画像の奥行き位置に基づいて虚像を表示する場合は固定の奥行き位置に虚像を表示したが、ユーザーの指示によって虚像の表示位置を変更可能な構成であっても良い。 Furthermore, in this embodiment, when displaying a virtual image based on the depth position of a captured image, the virtual image is displayed at a fixed depth position. good.

[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other embodiments]
The present invention provides a system or device with a program that implements one or more of the functions of the embodiments described above via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. This can also be achieved by processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形および変更が可能である。 Although preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and changes can be made within the scope of the gist thereof.

100 立体画像表示装置
101 CPU
102 撮像部
103 画像処理部
104 DRAM
105 ROM
106 被写体検出部
107 画像3次元座標算出部
108 画像奥行き算出部
109 視線3次元座標算出部
110 視線奥行き算出部
111 表示部
112 虚像3次元座標決定部
113 虚像奥行き決定手段
100 Stereoscopic image display device 101 CPU
102 Imaging unit 103 Image processing unit 104 DRAM
105 ROM
106 Subject detection section 107 Image three-dimensional coordinate calculation section 108 Image depth calculation section 109 Line-of-sight three-dimensional coordinate calculation section 110 Line-of-sight depth calculation section 111 Display section 112 Virtual image three-dimensional coordinate determination section 113 Virtual image depth determination means

Claims (10)

表示する虚像の奥行き位置を制御する表示装置であって、
画像から奥行き情報を取得する第1の取得手段と、
ユーザーの両眼の輻輳情報を取得する第2の取得手段と、
前記虚像の奥行き位置を決定する奥行き決定手段と、を有し、
前記奥行き決定手段は、
前記第1の取得手段で取得した奥行き情報に基づいて奥行き位置を決定する第1の決定手段と、
前記第2の取得手段で取得した輻輳情報に基づいて奥行き位置を決定する第2の決定手段と、を有し、
表示する虚像に応じて、前記第1の決定手段と第2の決定手段とを切り替えて、奥行き位置を決定する
ことを特徴とする表示装置。
A display device that controls the depth position of a displayed virtual image,
a first acquisition means for acquiring depth information from an image;
a second acquisition means for acquiring convergence information of the user's eyes;
depth determining means for determining the depth position of the virtual image,
The depth determining means includes:
a first determining means for determining a depth position based on the depth information acquired by the first acquiring means;
a second determining means for determining a depth position based on the congestion information acquired by the second acquiring means;
A display device characterized in that a depth position is determined by switching between the first determining means and the second determining means depending on a virtual image to be displayed.
画像を撮像する撮像手段を有し、
前記第1の取得手段は、前記撮像手段が撮像した画像に基づいて、奥行き情報を取得する
ことを特徴とする請求項1に記載の表示装置。
It has an imaging means for capturing an image,
The display device according to claim 1, wherein the first acquisition unit acquires depth information based on an image captured by the imaging unit.
前記撮像手段が撮像した画像から被写体を検出する被写体検出手段を有し、
前記第1の取得手段は、前記被写体の奥行き情報を取得する
ことを特徴とする請求項2に記載の表示装置。
comprising a subject detection means for detecting a subject from an image taken by the imaging means,
The display device according to claim 2, wherein the first acquisition means acquires depth information of the subject.
前記第1の決定手段は、前記第1の取得手段が取得した奥行き位置から所定の距離範囲内の位置を前記虚像の奥行き位置とする
ことを特徴とする請求項1に記載の表示装置。
The display device according to claim 1, wherein the first determining means sets a position within a predetermined distance range from the depth position acquired by the first acquisition means as the depth position of the virtual image.
前記第2の決定手段は、前記第2の取得手段が取得した輻輳位置から所定の距離範囲内の位置を前記虚像の奥行き位置とする
ことを特徴とする請求項1に記載の表示装置。
The display device according to claim 1, wherein the second determining means sets a position within a predetermined distance range from the convergence position acquired by the second acquiring means as the depth position of the virtual image.
前記第1の取得手段は、前記画像の奥行きの3次元座標を取得し、
前記第2の取得手段は、前記両眼の輻輳位置の3次元座標を取得し、
前記奥行き決定手段は、前記虚像の3次元座標を決定する
ことを特徴とする請求項1に記載の表示装置。
The first acquisition means acquires three-dimensional coordinates of the depth of the image,
The second acquisition means acquires three-dimensional coordinates of the convergence position of both eyes,
The display device according to claim 1, wherein the depth determining means determines three-dimensional coordinates of the virtual image.
前記第2の決定手段は、前記第2の取得手段が取得した輻輳位置の3次元座標から所定の距離範囲内の座標を前記虚像の座標とする
ことを特徴とする請求項6に記載の表示装置。
The display according to claim 6, wherein the second determining means sets coordinates within a predetermined distance range from the three-dimensional coordinates of the convergence position acquired by the second acquiring means as the coordinates of the virtual image. Device.
前記奥行き決定手段は、前記第1の取得手段が取得した奥行きの3次元座標とは異なる座標を前記虚像の3次元座標として決定する
ことを特徴とする請求項6に記載の表示装置。
The display device according to claim 6, wherein the depth determining unit determines coordinates different from the three-dimensional coordinates of the depth acquired by the first acquiring unit as the three-dimensional coordinates of the virtual image.
表示装置に表示する虚像の奥行き位置を制御する制御方法であって、
画像から奥行き情報を取得する第1の取得工程と、
ユーザーの両眼の輻輳情報を取得する第2の取得工程と、
前記虚像の奥行き位置を決定する奥行き決定工程と、を有し、
前記奥行き決定工程は、
前記第1の取得手段で取得した奥行き情報に基づいて奥行き位置を決定する第1の決定工程と、
前記第2の取得手段で取得した輻輳情報に基づいて奥行き位置を決定する第2の決定工程と、を有し、
表示する虚像に応じて、前記第1の決定工程と第2の決定工程とを切り替えて、奥行き位置を決定する
ことを特徴とする制御方法。
A control method for controlling the depth position of a virtual image displayed on a display device, comprising:
a first acquisition step of acquiring depth information from the image;
a second acquisition step of acquiring convergence information of the user's eyes;
a depth determining step of determining a depth position of the virtual image,
The depth determining step includes:
a first determining step of determining a depth position based on the depth information acquired by the first acquisition means;
a second determining step of determining a depth position based on the congestion information acquired by the second acquisition means,
A control method characterized in that the depth position is determined by switching between the first determining step and the second determining step depending on the virtual image to be displayed.
請求項9に記載の制御方法の各工程をコンピュータに実行させるためのプログラム。 A program for causing a computer to execute each step of the control method according to claim 9.
JP2022091156A 2022-06-03 2022-06-03 Display unit, control method, and program Pending JP2023178093A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022091156A JP2023178093A (en) 2022-06-03 2022-06-03 Display unit, control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022091156A JP2023178093A (en) 2022-06-03 2022-06-03 Display unit, control method, and program

Publications (1)

Publication Number Publication Date
JP2023178093A true JP2023178093A (en) 2023-12-14

Family

ID=89124225

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022091156A Pending JP2023178093A (en) 2022-06-03 2022-06-03 Display unit, control method, and program

Country Status (1)

Country Link
JP (1) JP2023178093A (en)

Similar Documents

Publication Publication Date Title
US20200142480A1 (en) Immersive displays
US20240037880A1 (en) Artificial Reality System with Varifocal Display of Artificial Reality Content
US10999412B2 (en) Sharing mediated reality content
US11277603B2 (en) Head-mountable display system
US8692870B2 (en) Adaptive adjustment of depth cues in a stereo telepresence system
US20180246331A1 (en) Helmet-mounted display, visual field calibration method thereof, and mixed reality display system
JP2017204674A (en) Imaging device, head-mounted display, information processing system, and information processing method
JP2017142569A (en) Method and program for providing head-mounted display with virtual space image
JPH11155152A (en) Method and system for three-dimensional shape information input, and image input device thereof
WO2016163183A1 (en) Head-mounted display system and computer program for presenting real space surrounding environment of user in immersive virtual space
CN111226187A (en) System and method for interacting with a user through a mirror
US11956415B2 (en) Head mounted display apparatus
KR101046259B1 (en) Stereoscopic image display apparatus according to eye position
CN109799899B (en) Interaction control method and device, storage medium and computer equipment
JP6963399B2 (en) Program, recording medium, image generator, image generation method
JP6509101B2 (en) Image display apparatus, program and method for displaying an object on a spectacle-like optical see-through type binocular display
JP6649010B2 (en) Information processing device
US11212502B2 (en) Method of modifying an image on a computational device
JP2002354505A (en) Stereoscopic system
CN114371779A (en) Visual enhancement method for sight depth guidance
JP2023178093A (en) Display unit, control method, and program
JP2022111143A (en) Information processor and warning presentation method
CN115202475A (en) Display method, display device, electronic equipment and computer-readable storage medium
JP2011205385A (en) Three-dimensional video control device, and three-dimensional video control method
WO2018083757A1 (en) Image provision device, image provision method, program, and non-transitory computer-readable information recording medium

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213