JP2023178093A - Display unit, control method, and program - Google Patents
Display unit, control method, and program Download PDFInfo
- Publication number
- JP2023178093A JP2023178093A JP2022091156A JP2022091156A JP2023178093A JP 2023178093 A JP2023178093 A JP 2023178093A JP 2022091156 A JP2022091156 A JP 2022091156A JP 2022091156 A JP2022091156 A JP 2022091156A JP 2023178093 A JP2023178093 A JP 2023178093A
- Authority
- JP
- Japan
- Prior art keywords
- virtual image
- depth
- image
- determining
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 22
- 210000001508 eye Anatomy 0.000 claims abstract description 10
- 238000003384 imaging method Methods 0.000 claims description 15
- 238000001514 detection method Methods 0.000 claims description 7
- 238000010586 diagram Methods 0.000 description 16
- 238000004364 calculation method Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 235000002673 Dioscorea communis Nutrition 0.000 description 2
- 241000544230 Dioscorea communis Species 0.000 description 2
- 208000035753 Periorbital contusion Diseases 0.000 description 2
- 210000005252 bulbus oculi Anatomy 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000004424 eye movement Effects 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 241001599018 Melanogaster Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
本発明は、実空間に虚像を重畳して表示する表示装置に関する。 The present invention relates to a display device that displays a virtual image superimposed on real space.
近年、立体画像を表示する技術開発が進み、奥行きを持った立体画像を表示することが可能なヘッドマウントディスプレイ(以下「HMD」と記載する)が普及してきており、光学透過型のHMDも開発されている。光学透過型のHMDは、ホログラフィック素子やハーフミラー等を用いて、仮想的な立体画像であるAR(Augmented Reality)イメージを表示しつつ、HMD外の実空間の様子をシースルーで表示可能である。この時、ARイメージである虚像は、実空間に重畳して表示される。 In recent years, the development of technology for displaying 3D images has progressed, and head-mounted displays (hereinafter referred to as "HMD") that can display 3D images with depth have become popular, and optically transparent HMDs have also been developed. has been done. Optically transmissive HMDs use holographic elements, half mirrors, etc. to display an AR (Augmented Reality) image, which is a virtual three-dimensional image, and can also display the real space outside the HMD in a see-through manner. . At this time, the virtual image, which is the AR image, is displayed superimposed on the real space.
このARイメージである虚像が実空間の物体と違和感なく調和し、実空間に存在するかのように見えるように、虚像の立体感を向上させる様々な技術が開発されている。例えば、特許文献1では、取得した実空間の奥行き情報をもとに、表示する虚像の奥行き位置を自由に変更可能にすることで、より実空間に調和した虚像の表示を可能にしている。この虚像の奥行き位置を制御する技術により、ユーザーが虚像を見ている時は虚像が鮮明に見え、虚像とは異なる奥行き位置の実空間の物体を見ている時は虚像が自然にぼやけて見える為、ユーザーは虚像に対して実物体のような自然な奥行き感を得る事ができる。 Various technologies have been developed to improve the stereoscopic effect of virtual images so that the virtual images, which are AR images, harmonize seamlessly with objects in real space and appear as if they exist in real space. For example, in Patent Document 1, the depth position of the displayed virtual image can be freely changed based on the acquired depth information of the real space, thereby making it possible to display the virtual image that is more in harmony with the real space. With this technology that controls the depth position of the virtual image, when the user is looking at the virtual image, the virtual image appears clear, and when the user is looking at an object in real space that has a different depth position than the virtual image, the virtual image naturally appears blurred. Therefore, the user can obtain a natural sense of depth from the virtual image, similar to that of a real object.
しかしながら従来技術では、ユーザーが実空間を見ながら同時にメニューアイコンや付加情報等の虚像を見たい場合、ユーザーが見ている実空間の物体の奥行き位置と、表示している虚像の奥行き位置が一致していないと虚像がぼやけて見えてしまう。ユーザーが虚像に視線を合わせると、ユーザーが見ていた実空間の物体は虚像とは異なる奥行き位置である為、ぼやけて見えてしまい、実空間の物体と表示される虚像を同時に見ることが困難になってしまう。ユーザーが実空間の物体と虚像を同時に見たい場合に、それぞれの奥行き位置に合わせて視線の奥行き位置を変更する事はユーザーにとって大きな負荷になる。また、虚像を常にユーザーから鮮明に見えるように表示すると、虚像が実空間に存在するかのように表示したい場合に、ユーザーが視線を変えても虚像は自然にぼやけて見えない為、実物体のような自然な奥行き感を得る事が出来なくなってしまう。このように、従来技術では、虚像の立体感が向上するように実空間の奥行き情報に基づいて虚像の表示奥行き位置を制御しつつ、メニューアイコン等の虚像をユーザーが見ている実空間の物体と常に同時に鮮明に見ることが困難であるという課題があった。 However, in the conventional technology, when a user wants to view a virtual image such as a menu icon or additional information while viewing the real space, the depth position of the object in the real space that the user is viewing and the depth position of the displayed virtual image are not the same. If not, the virtual image will appear blurry. When the user focuses on the virtual image, the object in real space that the user is looking at is at a different depth from the virtual image, so it appears blurry, making it difficult to see the object in real space and the displayed virtual image at the same time. Become. When a user wants to view an object in real space and a virtual image at the same time, changing the depth position of the line of sight to match the respective depth positions places a heavy burden on the user. In addition, if you display a virtual image so that it is always clearly visible to the user, if you want to display the virtual image as if it exists in real space, the virtual image will naturally blur even if the user changes his/her line of sight. It becomes impossible to obtain a natural sense of depth. In this way, in the conventional technology, the display depth position of the virtual image is controlled based on the depth information in the real space so as to improve the three-dimensional effect of the virtual image, and the virtual image, such as a menu icon, is controlled by the object in the real space that the user is viewing. There was a problem in that it was difficult to always see clearly at the same time.
本発明の目的は、メニューアイコン等の虚像を、ユーザーがより鮮明に見ることが可能な表示装置を提供することである。 An object of the present invention is to provide a display device that allows a user to view virtual images such as menu icons more clearly.
その目的を達成するために、本発明の一側面としての表示装置は、表示する虚像の奥行き位置を制御する表示装置であって、画像から奥行き情報を取得する第1の取得手段と、ユーザーの両眼の輻輳情報を取得する第2の取得手段と、前記虚像の奥行き位置を決定する奥行き決定手段と、を有し、前記奥行き決定手段は、前記第1の取得手段で取得した奥行き情報に基づいて奥行き位置を決定する第1の決定手段と、前記第2の取得手段で取得した輻輳情報に基づいて奥行き位置を決定する第2の決定手段と、を有し、表示する虚像に応じて、前記第1の決定手段と第2の決定手段とを切り替えて、奥行き位置を決定することを特徴とする。 In order to achieve the object, a display device according to one aspect of the present invention is a display device that controls the depth position of a virtual image to be displayed, and includes a first acquisition means that acquires depth information from the image, and a display device that controls the depth position of a virtual image to be displayed. It has a second acquisition means that acquires the convergence information of both eyes, and a depth determination means that determines the depth position of the virtual image, and the depth determination means uses the depth information acquired by the first acquisition means. and a second determining means that determines the depth position based on the convergence information acquired by the second acquisition means, and according to the virtual image to be displayed. , the depth position is determined by switching between the first determining means and the second determining means.
本発明の表示装置によれば、メニューアイコン等の虚像を、ユーザーがより鮮明に見ることが可能となる。 According to the display device of the present invention, a user can see virtual images such as menu icons more clearly.
[実施形態1]
本発明の第1の実施の形態を説明する。
[Embodiment 1]
A first embodiment of the present invention will be described.
図4は、本実施例における立体画像表示装置100の外観構成の一例を示す図である。
FIG. 4 is a diagram showing an example of the external configuration of the stereoscopic
102は、実空間の画像情報を取得する撮像部であり、左右2つの画像情報を同時に取得可能である。この取得した2つの画像の視差情報から、立体画像表示装置100と実空間の物体との距離を算出することが可能である。例えば、左右2つの撮像部102の間の距離(基線長)と、撮像部102の焦点距離、2つの画像の視差情報から、一般的な三角測量の手法を用いて実空間の物体との距離情報を算出することが出来る。111は、撮像部で取得した実空間の画像に、虚像を重畳させて表示する表示部である。表示部111は、左目用の視差画像と右目用の視差画像を表示することで、奥行き感を持った立体的な画像を表示することが出来る。
図2は、本実施例における、実空間の画像の奥行き情報に基づいて虚像を表示する場合の虚像表示方法を説明する図である。 FIG. 2 is a diagram illustrating a virtual image display method in the case of displaying a virtual image based on depth information of an image in real space in this embodiment.
図2(a)は、立体画像表示装置100を使用したユーザーが、虚像を重畳していない実空間の物体200を見ている様子を示す図である。立体画像表示装置100は、撮像部102で撮像した実空間の画像に対して、仮想的な3次元直交座標系を設定している。立体画像表示装置100は、撮像部102で撮像した画像から被写体を認識し、各被写体の仮想的な3次元直交座標系における座標を算出する。立体画像表示装置100は、撮像部102で撮像した2つの画像の視差情報から被写体の奥行き位置を算出し、算出した奥行き位置と、撮像した画像における被写体の水平・垂直位置とから、仮想的な3次元座標系における被写体の座標位置を算出する。本実施例では、立体画像表示装置100は、実空間の物体200を認識し、物体200の奥行きL1を算出して、仮想的な3次元直交座標系における物体200の座標を算出している。
FIG. 2A is a diagram showing how a user using the stereoscopic
図2(b)は、立体画像表示装置100が、実空間の画像に虚像201を重畳して表示する様子を示す図である。本実施例では、立体画像表示装置100に予め登録された複数の虚像の中からユーザーに表示を指示された虚像201を表示している。立体画像表示装置100は、物体200の上に虚像201が置かれているように見せる為に、算出した物体200の奥行きL1と同じ奥行き位置に虚像201を表示している。本実施例では、立体画像表示装置100が実空間の画像から検出した被写体は物体200の1つのみだが、複数の被写体が存在しても良い。立体画像表示装置100が複数の被写体を検出した場合は、複数の被写体の中から選択した1つの被写体の奥行き位置と、虚像201の奥行き位置が一致するように虚像201を表示する。立体画像表示装置100が実空間の画像から被写体を1つも検出しなかった場合は、予め設定された奥行き位置に虚像201を表示する。また、立体画像表示装置100は、撮像部102が撮像した被写体を人・動物・物体等、複数の種類に分類して認識可能である。本実施例では、表示する虚像毎に、どの分類の被写体のどの位置に重畳して表示するかが予め設定されている。例えば、皿の虚像は実空間の机の上に置かれているように重畳し、帽子の虚像は実空間の人が頭にかぶっているように重畳する。実空間画像の奥行き情報に基づいて虚像を表示する場合、立体画像表示装置100は、設定した仮想的な3次元直交座標系の絶対座標位置に虚像を表示し、ユーザーから虚像の再表示や表示位置の移動を指示されない限り、虚像の表示座標は変更しない。よって、ユーザーが顔の向きを変えると虚像はユーザーの視界から外れ、顔の向きを元に戻すと虚像は再び見えるようになる。また、ユーザーが視線を虚像とは異なる奥行き位置に変更すると、虚像は自然とぼやけて見え、視線を再び虚像に合わせると虚像は鮮明に見ることが出来る。このような表示方法を実施することで、実空間に虚像が存在するかのように表示することが出来る。
FIG. 2B is a diagram showing how the stereoscopic
図3は、本実施例における、ユーザーの視線情報に基づいて虚像を表示する場合の虚像表示方法を説明する図である。図3は、立体画像表示装置100を使用したユーザーが、実空間の被写体300を見ながら同時にメニューアイコンや付加情報等の虚像301を見たい場合における、虚像301の表示方法を示している。本実施例では、立体画像表示装置100に予め登録された複数の虚像の中からユーザーに表示を指示された虚像301を表示している。立体画像表示装置100は、ユーザーが見ている視線の奥行き情報を算出可能であり、図3では算出した視線奥行き位置に基づいて虚像を表示している。本実施例では、図2で示したように実空間画像の奥行き情報に基づいて虚像を表示するか、図3で示すようにユーザーの視線情報に基づいて虚像を表示するか、が表示する虚像毎に予め設定されている。例えば、実空間に存在するかのように表示したい虚像は、実空間画像の奥行き情報に基づいて表示し、メニューアイコンや付加情報等の虚像は、ユーザーの視線奥行き情報に基づいて表示する。立体画像表示装置100は、算出したユーザーの視線奥行きL2と同じ奥行き位置に虚像301を表示している。立体画像表示装置100は、ユーザーの視線奥行き情報を常に算出しており、ユーザーの視線奥行き位置が変化したら、虚像301の奥行き位置も常に視線奥行き位置と一致するように虚像301の表示位置を変更する。よって、ユーザーが実空間で見たい被写体を変更しても、常に虚像301はユーザーの視線奥行き位置と同じ奥行き位置に表示される為、ユーザーは虚像301と実空間で見たい被写体を常に同時に鮮明に見ることが出来る。
FIG. 3 is a diagram illustrating a virtual image display method in the case of displaying a virtual image based on user's line-of-sight information in this embodiment. FIG. 3 shows a method of displaying a
図1は、本実施例における立体画像表示装置100のシステム構成図である。
FIG. 1 is a system configuration diagram of a stereoscopic
101は、立体画像表示装置100全体の制御を司るCPUである。102は、実空間の画像情報を取得する撮像部であり、フォーカス調節や露出調節を行う結像光学部や、光学像を電気信号に変換する撮像素子等で構成される。103は、撮像した画像データに対して、ノイズ低減処理等の各種画像処理を施す画像処理部である。106は、撮像した画像から被写体を検出する被写体検出部である。104は、画像データを一時的に格納する為のメモリとなるDRAMである。105は、表示する各虚像情報や各種設定値を記憶するメモリとなるROMである。107は、撮像した画像データから3次元座標を算出する画像3次元座標算出部であり、画像奥行き算出部108は、検出した被写体等の奥行き位置を算出する。109は、ユーザーの視線先の3次元座標を算出する視線3次元座標検出部であり、視線奥行き算出部110は、ユーザーの視線奥行き位置を算出する。112は、ユーザーから表示を指示された虚像の表示位置を決定する虚像3次元座標決定部であり、113は、画像奥行き算出部108の算出結果と、視線奥行き算出部110の算出結果から、表示する虚像の奥行き位置を決定する虚像奥行き決定手段である。111は、ユーザーから表示を指示された虚像を、虚像3次元座標決定部112が決定した表示位置に表示する表示部である。
101 is a CPU that controls the entire stereoscopic
図5は、本実施例における、表示する虚像の奥行き位置の制御方法を説明する図である。 FIG. 5 is a diagram illustrating a method of controlling the depth position of a displayed virtual image in this embodiment.
視点500の視線方向にZ軸が定められており、Z軸上に凸レンズ501の光軸とZ軸が一致するように凸レンズ501は配置されている。凸レンズ501の焦点距離はFである。502、503は透過型有機EL等の透過型表示素子であり、不図示のモータ等によって凸レンズ501からの距離A1、A2はそれぞれ変更可能である。尚、図5では502、503の2枚しか図示していないが、3枚以上の複数の透過型表示素子を備えても良い。透過型表示素子502、503は、それぞれ独立して異なる画像504、505を表示することが可能である。透過型表示素子502、503は、可視光を透過可能な部材である。透過型表示素子502、503によって表示される画像は、視点500から見ると重畳されて見える。透過型表示素子502、503は、凸レンズ501の焦点の内側に配置されており、視点500から表示画像504を見ると、表示画像504は凸レンズ501から距離B1離れた位置に、虚像506として観察される。このとき、距離A1、B1、および焦点距離Fの関係は、以下の式(1)で示す既知のレンズの公式によって規定される。
1/A1 - 1/B1 = 1/F ・・・・ 式(1)
A Z-axis is defined in the viewing direction of the
1/A1 - 1/B1 = 1/F... Formula (1)
また、表示画像504の大きさP1に対する虚像506の大きさQの割合は、以下の式(2)で表される。
Q/P1 = B1/A1 ・・・・ 式(2)
Further, the ratio of the size Q of the
Q/P1 = B1/A1... Formula (2)
また、式(1)を変形することにより、距離A1を距離B1の関数として、以下の式(3)のように表すことが出来る。
A1 = FB1/(F+B1) = F/(1+F/B1) ・・・・ 式(3)
Further, by transforming the equation (1), the distance A1 can be expressed as a function of the distance B1 as shown in the following equation (3).
A1 = FB1/(F+B1) = F/(1+F/B1) ... Formula (3)
式(3)により、凸レンズ501からの距離B1の位置に虚像506を表示する為に、画像504を表示する透過型表示素子502を配置すべき位置A1を求めることが出来る。
Using equation (3), in order to display the
また、式(2)に式(1)を代入して変形すると、以下の式(4)のように表すことが出来る。
P1 = QF/(B1+F) ・・・・ 式(4)
Furthermore, by substituting equation (1) into equation (2) and transforming it, it can be expressed as equation (4) below.
P1 = QF/(B1+F)... Formula (4)
式(4)により、距離B1の位置にQの大きさの虚像506を表示する為に表示画像504として表示すべき大きさP1を求めることが出来る。次に、凸レンズ501からの距離B1とは異なる距離B2に、虚像506と同じ大きさQの虚像507を表示したい場合の制御方法について説明する。凸レンズ501と、透過型表示素子503との距離A2は、式(3)より、以下の式(5)で表すことが出来る。
A2 = F/(1+F/B2) ・・・・ 式(5)
Using equation (4), it is possible to determine the size P1 to be displayed as the
A2 = F/(1+F/B2)... Formula (5)
式(5)により、凸レンズ501からの距離B2の位置に虚像507を表示する為に、画像505を表示する透過型表示素子503を配置すべき位置A2を求めることが出来る。
Using equation (5), in order to display the
また、表示すべき画像505の大きさP2は、式(4)より以下の式(6)で表すことが出来る。
P2 = QF/(B2+F) ・・・・ 式(6)
Further, the size P2 of the
P2 = QF/(B2+F) ... Formula (6)
式(6)により、距離B2の位置にQの大きさの虚像507を表示する為に表示画像505として表示すべき大きさP2を求めることが出来る。このように、透過型表示素子502、503の凸レンズ501からの距離A1、A2、及び表示する大きさP1、P2を変更することで、表示する虚像506、507の視点500からの奥行き位置Z1、Z2と大きさQを制御することが出来る。
Using equation (6), it is possible to determine the size P2 that should be displayed as the
図6は、ユーザーの視線奥行き情報の取得方法を説明する図である。図5で説明したように、500は視点、501は凸レンズ、502、503は透過型表示素子である。600は、視線方向検出器であり、ユーザーの左右両眼の視線が交差する角度、すなわち輻輳角θを輻輳情報として検出することが出来る。視線方向検出器600の視線方向検出方法は、一般的な様々な方法で実現可能である。例えば、左右両眼について、近赤外光を眼球に照射してその反射光を黒眼の両側に配置した光検出器で検出し、その黒眼と白眼の境界で光量の変化を捉えて視線方向ないし眼球運動を検出する方法がある。他の方法として、スポット光を眼球に照射し、その反射光を2次元光位置検出器で捉えるようにし、あるいは微小テレビジョンカメラを用いて黒眼の位置情報を得ることで眼球運動を検出することが出来る。図6のIは、瞳孔間隔である。輻輳角θと、瞳孔間隔Iより、視点500から視線が交差する輻輳位置、すなわち視線の奥行き位置Zは、以下の式(7)で表すことが出来る。(輻輳角θの単位はラジアン)
Z = I/θ ・・・・ 式(7)
FIG. 6 is a diagram illustrating a method for acquiring user's line-of-sight depth information. As explained in FIG. 5, 500 is a viewpoint, 501 is a convex lens, and 502 and 503 are transmissive display elements. A line-of-
Z = I/θ... Formula (7)
このようにして、ユーザーの視線の奥行き位置を算出出来る為、図5で説明した制御により、ユーザーの視線奥行き位置に虚像を表示することが出来る。 Since the depth position of the user's line of sight can be calculated in this way, a virtual image can be displayed at the user's line of sight depth position by the control described with reference to FIG.
図7は、本実施例における虚像表示シーケンスである。 FIG. 7 is a virtual image display sequence in this embodiment.
CPU101は、ユーザーから虚像の表示を指示されたら(S701)、ユーザーに表示を指示された虚像が、撮像した画像奥行き情報から算出した固定座標位置に表示する虚像なのか、ユーザー視線奥行き位置に表示する虚像なのか判断する。本実施例では、どちらの方法で算出した奥行き位置に表示すべきか表示する虚像毎に予め設定されている。撮像した画像奥行き情報から算出した固定座標位置に表示すべき虚像の場合は(S702)、撮像した画像から検出した被写体の奥行き位置を算出する(S703)。ユーザー視線奥行き位置に表示すべき虚像の場合は、ユーザーの視線奥行き位置を算出する(S704)。虚像奥行き決定手段113は、算出した被写体の奥行き位置、および算出したユーザーの視線奥行き位置を用いて、表示する虚像の奥行き位置を決定する(S705)。表示部111は、決定した奥行き位置に虚像を表示する(S706)。ユーザーから虚像表示の停止を指示されなければ上記虚像表示のシーケンスを繰り返し、虚像表示の停止を指示されたら(S707)、CPU101は虚像の表示を停止する(S708)。
When the
以上、上記本実施例の制御により、虚像が実空間に存在するかのように虚像の奥行き位置を制御しつつ、かつ、メニューアイコン等の虚像は、ユーザーが見ている実空間の物体と常に同時に鮮明に見ることが出来る。 As described above, with the control of this embodiment described above, the depth position of the virtual image is controlled as if it existed in real space, and the virtual image such as a menu icon is always aligned with the object in real space that the user is looking at. You can see clearly at the same time.
尚、本実施例では、撮像した画像の奥行き情報のみ、もしくはユーザーの視線奥行き情報のみのどちらか一方を用いて表示する虚像の奥行き位置を決定したが、両方の情報を元に表示する虚像の奥行き位置を決定しても良い。例えば、撮像した画像から複数の被写体を検出し、検出した複数の被写体から1つの被写体を選択する際、ユーザーの視線奥行き位置に一番近い奥行き位置の被写体を選択し、選択した被写体と同じ奥行き位置に虚像を表示しても良い。 Note that in this embodiment, the depth position of the virtual image to be displayed is determined using either only the depth information of the captured image or only the user's line of sight depth information, but the depth position of the virtual image to be displayed is determined based on both pieces of information. The depth position may also be determined. For example, when multiple objects are detected from a captured image and one object is selected from the detected objects, the object at the depth position closest to the user's line of sight depth position is selected, and the object at the same depth as the selected object is selected. A virtual image may be displayed at the position.
また、本実施例では、撮像した画像の奥行き、及びユーザーの視線奥行きと同じ奥行き位置に虚像を表示したが、撮像した画像の奥行き、及びユーザーの視線奥行きから予め設定された距離内の奥行き位置に虚像を表示しても良い。 In addition, in this embodiment, the virtual image is displayed at the same depth position as the depth of the captured image and the user's line of sight depth, but the virtual image is displayed at a depth position within a preset distance from the depth of the captured image and the user's line of sight depth. A virtual image may be displayed.
また、本実施例では、撮像した画像の奥行き位置に基づいて虚像を表示する場合は固定の奥行き位置に虚像を表示したが、ユーザーの指示によって虚像の表示位置を変更可能な構成であっても良い。 Furthermore, in this embodiment, when displaying a virtual image based on the depth position of a captured image, the virtual image is displayed at a fixed depth position. good.
[実施形態2]
本発明の第2の実施の形態を説明する。
[Embodiment 2]
A second embodiment of the present invention will be described.
本実施例では、ユーザーの視線情報に基づいた虚像の表示方法、虚像表示シーケンスが第1実施例と異なる。他の構成は第1実施例と同様である為、説明を省略する。 This embodiment differs from the first embodiment in the virtual image display method and virtual image display sequence based on the user's line-of-sight information. The other configurations are the same as those in the first embodiment, so their explanation will be omitted.
図8は、本実施例における、ユーザーの視線情報に基づいた虚像表示方法を説明する図である。図8は、立体画像表示装置100を使用したユーザーが、実空間の被写体300を見ながら同時にメニューアイコンや付加情報等の虚像301を見たい場合における、虚像301の表示方法を示している。本実施例では、立体画像表示装置100に予め登録された複数の虚像の中からユーザーに表示を指示された虚像301を表示している。本実施例では、図2で示したように実空間画像の奥行き情報に基づいて虚像を表示するか、図8で示すようにユーザーの視線情報に基づいて虚像を表示するか、が表示する虚像毎に予め設定されている。立体画像表示装置100は、算出したユーザーの視線奥行きL2と同じ奥行き位置に虚像301を表示している。立体画像表示装置100は、仮想的な3次元直交座標系を設定しており、設定した3次元座標系におけるユーザーの視線先の座標を算出している。本実施例では、ユーザーの視線先の奥行きL2だけでなく、算出した3次元座標上におけるユーザー視線先座標に近い位置に虚像301を表示している。これは、ユーザーの視線先と同じ奥行きL2に虚像を表示すれば実空間の被写体と虚像を同時に鮮明に見る事が出来るが、被写体と虚像が離れているとユーザーは視線を移動する必要があり、被写体と虚像を同時に見る事が出来なくなる可能性がある為である。但し、ユーザーが見ている被写体300と同じ座標位置に虚像を表示してしまうと、被写体300を見る事が出来なくなってしまう為、ユーザーが見ている被写体300とは異なる位置に虚像を表示する。本実施例では、撮像した画像に被写体が存在するか被写体検出部106で検出する。ユーザーの視線先座標に被写体が存在しない場合は、3次元座標上におけるユーザー視線先の座標位置に虚像を表示する。ユーザーの視線先座標に被写体が存在する場合は、3次元座標上における視線先座標から所定距離範囲内で、ユーザーが見ていない他の被写体も存在しない座標位置に虚像301を表示する。この所定距離範囲の値は予め設定されており、所定距離範囲内に被写体が存在しない領域がない場合は、所定距離範囲を拡大して被写体が存在しない領域に虚像を表示する。所定距離範囲を拡大しても被写体が存在しない領域がない場合は、ユーザーが見ていない被写体と同じ位置に虚像を表示する。また、本実施例では、所定距離範囲内の中でユーザーが視線位置を移動しても、虚像301の表示位置は変更しない。これは、ユーザーが虚像301を見る為に視線位置を被写体300から虚像301へ移動した時に虚像301も移動してしまい、ユーザーが虚像301を見る事が出来なくなってしまうからである。ユーザーの視線先位置が所定距離範囲を超えて移動した場合は、視線移動先から所定距離範囲内に虚像301を表示するように、虚像301の表示位置を変更する。本実施例では、ユーザーの視線先が移動している最中は虚像301の表示位置は変更せず、ユーザーの視線先の移動が停止してから予め設定された所定時間経過後に、虚像301の表示位置を変更する。これは、ユーザーが視線を激しく移動している最中に、虚像301も連動して激しく表示位置を変更すると、ユーザーにとって虚像の表示が煩わしく見えてしまう為である。
FIG. 8 is a diagram illustrating a virtual image display method based on user's line-of-sight information in this embodiment. FIG. 8 shows a method of displaying the
以上の制御を実施することにより、ユーザーは視線位置を大きく移動することなく、実空間で見たい被写体と虚像を常に同時に鮮明に見ることが出来る。 By performing the above control, the user can always clearly view the object he or she wants to see in real space and the virtual image at the same time without significantly moving the line of sight.
図9は、本実施例における虚像表示シーケンスである。 FIG. 9 is a virtual image display sequence in this embodiment.
CPU101は、ユーザーから虚像の表示を指示されたら(S901)、指示された虚像が、撮像した画像3次元座標から算出した固定座標位置に表示する虚像なのか、ユーザー視線3次元座標から算出した座標位置に表示する虚像なのか判断する。本実施例では、どちらの方法で算出した座標位置に表示すべきか表示する虚像毎に予め設定されている。撮像した画像3次元座標から算出した固定座標位置に表示すべき虚像の場合は(S902)、撮像した画像から検出した被写体の3次元座標位置を算出する(S903)。虚像3次元座標決定部112は、算出した被写体の3次元座標位置を用いて、表示する虚像の3次元座標位置を決定する(S904)。表示部111は、決定した3次元座標位置に虚像を表示する(S920)。ユーザー視線3次元座標から算出した座標位置に表示すべき虚像の場合は、ユーザーの視線先の3次元座標位置を算出する(S910)。画像3次元座標算出部107は、被写体検出部106で検出した被写体の座標位置を算出する(S911)。虚像3次元座標決定部112は、前フレームでユーザー視線3次元座標に基づいた位置に虚像を表示したか判断する(S912)。前フレームで表示していない場合、虚像3次元座標決定部112は、視線先座標から所定距離内、かつ被写体が存在しない領域を虚像の表示座標位置として算出する(S915)。前フレームで表示していた場合、虚像3次元座標決定部112は、前フレームで算出した所定距離範囲内に、現在のユーザーの視線先座標が存在するかを判断する(S913)。現在のユーザーの視線先座標位置が、前フレームで算出した所定距離範囲外であった場合は、現在の視線先座標から所定距離内、かつ被写体が存在しない領域を虚像の表示座標位置として算出する(S915)。現在のユーザーの視線先座標位置が、前フレームで算出した所定距離範囲内であった場合は、虚像表示位置に被写体が存在しないか判断する(S914)。虚像表示位置に被写体が存在する場合は、現在の視線先座標から所定距離内、かつ被写体が存在しない領域を虚像の表示座標位置として算出する(S915)。虚像表示位置に被写体が存在しない場合は、表示する虚像の座標位置は、前フレームで表示した虚像位置から変更しない(S916)。表示部111は、虚像3次元座標決定部112が決定した3次元座標位置に虚像を表示する(S920)。ユーザーから虚像表示の停止を指示されなければ上記虚像表示のシーケンスを繰り返し、虚像表示の停止を指示されたら(S921)、CPU101は虚像の表示を停止する(S922)。
When the
以上、上記本実施例の制御により、虚像が実空間に存在するかのように虚像の奥行き位置を制御しつつ、かつ、メニューアイコン等の虚像は、ユーザーが視線位置を大きく移動することなく、実空間で見たい被写体と虚像を常に同時に鮮明に見ることが出来る。 As described above, with the control of the present embodiment described above, the depth position of the virtual image is controlled as if it existed in real space, and virtual images such as menu icons can be viewed without the user significantly moving the line of sight. You can always clearly see the object you want to see in real space and the virtual image at the same time.
尚、撮像した画像の3次元情報に基づいて虚像を表示する場合、ユーザーの視線情報も用いて虚像の表示位置を決定しても良い。例えば、撮像した画像から複数の被写体を検出し、検出した複数の被写体から1つの被写体を選択する際、ユーザーの視線座標位置に一番近い座標の被写体を選択し、選択した被写体の座標位置に基づいて虚像を表示しても良い。 Note that when displaying a virtual image based on three-dimensional information of a captured image, the display position of the virtual image may also be determined using user's line-of-sight information. For example, when multiple objects are detected from a captured image and one object is selected from the detected objects, the object whose coordinates are closest to the user's line of sight coordinate position is selected, and the coordinate position of the selected object is A virtual image may be displayed based on this.
また、本実施例では、撮像した画像の奥行きと同じ奥行き位置に虚像を表示したが、撮像した画像の奥行きから予め設定された距離内の奥行き位置に虚像を表示しても良い。 Further, in this embodiment, the virtual image is displayed at the same depth position as the depth of the captured image, but the virtual image may be displayed at a depth position within a preset distance from the depth of the captured image.
また、本実施例では、撮像した画像の奥行き位置に基づいて虚像を表示する場合は固定の奥行き位置に虚像を表示したが、ユーザーの指示によって虚像の表示位置を変更可能な構成であっても良い。 Furthermore, in this embodiment, when displaying a virtual image based on the depth position of a captured image, the virtual image is displayed at a fixed depth position. good.
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
[Other embodiments]
The present invention provides a system or device with a program that implements one or more of the functions of the embodiments described above via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. This can also be achieved by processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形および変更が可能である。 Although preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and changes can be made within the scope of the gist thereof.
100 立体画像表示装置
101 CPU
102 撮像部
103 画像処理部
104 DRAM
105 ROM
106 被写体検出部
107 画像3次元座標算出部
108 画像奥行き算出部
109 視線3次元座標算出部
110 視線奥行き算出部
111 表示部
112 虚像3次元座標決定部
113 虚像奥行き決定手段
100 Stereoscopic
102
105 ROM
106
Claims (10)
画像から奥行き情報を取得する第1の取得手段と、
ユーザーの両眼の輻輳情報を取得する第2の取得手段と、
前記虚像の奥行き位置を決定する奥行き決定手段と、を有し、
前記奥行き決定手段は、
前記第1の取得手段で取得した奥行き情報に基づいて奥行き位置を決定する第1の決定手段と、
前記第2の取得手段で取得した輻輳情報に基づいて奥行き位置を決定する第2の決定手段と、を有し、
表示する虚像に応じて、前記第1の決定手段と第2の決定手段とを切り替えて、奥行き位置を決定する
ことを特徴とする表示装置。 A display device that controls the depth position of a displayed virtual image,
a first acquisition means for acquiring depth information from an image;
a second acquisition means for acquiring convergence information of the user's eyes;
depth determining means for determining the depth position of the virtual image,
The depth determining means includes:
a first determining means for determining a depth position based on the depth information acquired by the first acquiring means;
a second determining means for determining a depth position based on the congestion information acquired by the second acquiring means;
A display device characterized in that a depth position is determined by switching between the first determining means and the second determining means depending on a virtual image to be displayed.
前記第1の取得手段は、前記撮像手段が撮像した画像に基づいて、奥行き情報を取得する
ことを特徴とする請求項1に記載の表示装置。 It has an imaging means for capturing an image,
The display device according to claim 1, wherein the first acquisition unit acquires depth information based on an image captured by the imaging unit.
前記第1の取得手段は、前記被写体の奥行き情報を取得する
ことを特徴とする請求項2に記載の表示装置。 comprising a subject detection means for detecting a subject from an image taken by the imaging means,
The display device according to claim 2, wherein the first acquisition means acquires depth information of the subject.
ことを特徴とする請求項1に記載の表示装置。 The display device according to claim 1, wherein the first determining means sets a position within a predetermined distance range from the depth position acquired by the first acquisition means as the depth position of the virtual image.
ことを特徴とする請求項1に記載の表示装置。 The display device according to claim 1, wherein the second determining means sets a position within a predetermined distance range from the convergence position acquired by the second acquiring means as the depth position of the virtual image.
前記第2の取得手段は、前記両眼の輻輳位置の3次元座標を取得し、
前記奥行き決定手段は、前記虚像の3次元座標を決定する
ことを特徴とする請求項1に記載の表示装置。 The first acquisition means acquires three-dimensional coordinates of the depth of the image,
The second acquisition means acquires three-dimensional coordinates of the convergence position of both eyes,
The display device according to claim 1, wherein the depth determining means determines three-dimensional coordinates of the virtual image.
ことを特徴とする請求項6に記載の表示装置。 The display according to claim 6, wherein the second determining means sets coordinates within a predetermined distance range from the three-dimensional coordinates of the convergence position acquired by the second acquiring means as the coordinates of the virtual image. Device.
ことを特徴とする請求項6に記載の表示装置。 The display device according to claim 6, wherein the depth determining unit determines coordinates different from the three-dimensional coordinates of the depth acquired by the first acquiring unit as the three-dimensional coordinates of the virtual image.
画像から奥行き情報を取得する第1の取得工程と、
ユーザーの両眼の輻輳情報を取得する第2の取得工程と、
前記虚像の奥行き位置を決定する奥行き決定工程と、を有し、
前記奥行き決定工程は、
前記第1の取得手段で取得した奥行き情報に基づいて奥行き位置を決定する第1の決定工程と、
前記第2の取得手段で取得した輻輳情報に基づいて奥行き位置を決定する第2の決定工程と、を有し、
表示する虚像に応じて、前記第1の決定工程と第2の決定工程とを切り替えて、奥行き位置を決定する
ことを特徴とする制御方法。 A control method for controlling the depth position of a virtual image displayed on a display device, comprising:
a first acquisition step of acquiring depth information from the image;
a second acquisition step of acquiring convergence information of the user's eyes;
a depth determining step of determining a depth position of the virtual image,
The depth determining step includes:
a first determining step of determining a depth position based on the depth information acquired by the first acquisition means;
a second determining step of determining a depth position based on the congestion information acquired by the second acquisition means,
A control method characterized in that the depth position is determined by switching between the first determining step and the second determining step depending on the virtual image to be displayed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022091156A JP2023178093A (en) | 2022-06-03 | 2022-06-03 | Display unit, control method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022091156A JP2023178093A (en) | 2022-06-03 | 2022-06-03 | Display unit, control method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023178093A true JP2023178093A (en) | 2023-12-14 |
Family
ID=89124225
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022091156A Pending JP2023178093A (en) | 2022-06-03 | 2022-06-03 | Display unit, control method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023178093A (en) |
-
2022
- 2022-06-03 JP JP2022091156A patent/JP2023178093A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200142480A1 (en) | Immersive displays | |
US20240037880A1 (en) | Artificial Reality System with Varifocal Display of Artificial Reality Content | |
US10999412B2 (en) | Sharing mediated reality content | |
US11277603B2 (en) | Head-mountable display system | |
US8692870B2 (en) | Adaptive adjustment of depth cues in a stereo telepresence system | |
US20180246331A1 (en) | Helmet-mounted display, visual field calibration method thereof, and mixed reality display system | |
JP2017204674A (en) | Imaging device, head-mounted display, information processing system, and information processing method | |
JP2017142569A (en) | Method and program for providing head-mounted display with virtual space image | |
JPH11155152A (en) | Method and system for three-dimensional shape information input, and image input device thereof | |
WO2016163183A1 (en) | Head-mounted display system and computer program for presenting real space surrounding environment of user in immersive virtual space | |
CN111226187A (en) | System and method for interacting with a user through a mirror | |
US11956415B2 (en) | Head mounted display apparatus | |
KR101046259B1 (en) | Stereoscopic image display apparatus according to eye position | |
CN109799899B (en) | Interaction control method and device, storage medium and computer equipment | |
JP6963399B2 (en) | Program, recording medium, image generator, image generation method | |
JP6509101B2 (en) | Image display apparatus, program and method for displaying an object on a spectacle-like optical see-through type binocular display | |
JP6649010B2 (en) | Information processing device | |
US11212502B2 (en) | Method of modifying an image on a computational device | |
JP2002354505A (en) | Stereoscopic system | |
CN114371779A (en) | Visual enhancement method for sight depth guidance | |
JP2023178093A (en) | Display unit, control method, and program | |
JP2022111143A (en) | Information processor and warning presentation method | |
CN115202475A (en) | Display method, display device, electronic equipment and computer-readable storage medium | |
JP2011205385A (en) | Three-dimensional video control device, and three-dimensional video control method | |
WO2018083757A1 (en) | Image provision device, image provision method, program, and non-transitory computer-readable information recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20231213 |