JP7467748B1 - Display control device, display system and program - Google Patents

Display control device, display system and program Download PDF

Info

Publication number
JP7467748B1
JP7467748B1 JP2023165224A JP2023165224A JP7467748B1 JP 7467748 B1 JP7467748 B1 JP 7467748B1 JP 2023165224 A JP2023165224 A JP 2023165224A JP 2023165224 A JP2023165224 A JP 2023165224A JP 7467748 B1 JP7467748 B1 JP 7467748B1
Authority
JP
Japan
Prior art keywords
display
user
image
viewpoint
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023165224A
Other languages
Japanese (ja)
Inventor
隆司 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2023165224A priority Critical patent/JP7467748B1/en
Application granted granted Critical
Publication of JP7467748B1 publication Critical patent/JP7467748B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】ユーザが表示装置の正面に存在しない場合であっても、利用者視点と、表示画像とを一致させ、没入感を得られるようにする。【解決手段】表示制御装置は、表示対象物を表示装置へ表示することを制御する表示制御部と、表示装置と剛性連結された撮像装置により撮像された画像であって、使用者の顔が撮像された画像を取得する画像取得部と、使用者の視点と表示装置との相対的な位置関係を算出する視点相対位置算出部と、重力方向の加速度及びその方位角に関する情報を取得する重力情報取得部と、自装置が存在する位置情報を取得する初期位置情報取得部と、加速度情報を取得する加速度情報取得部と、表示装置が像を射影する射影面の絶対位置を算出し、使用者の絶対的な位置座標を算出し、射影面が向く方向を算出するベクトル算出部を備え、表示制御部は、ベクトル算出部により算出された情報に基づいて表示対象物の三次元情報を変形させる。【選択図】図9[Problem] Even if the user is not in front of the display device, the user's viewpoint and the displayed image are matched to provide a sense of immersion. [Solution] A display control device includes a display control unit that controls the display of a display object on the display device, an image acquisition unit that acquires an image of the user's face captured by an imaging device rigidly connected to the display device, a viewpoint relative position calculation unit that calculates the relative positional relationship between the user's viewpoint and the display device, a gravity information acquisition unit that acquires information about acceleration in the gravity direction and its azimuth angle, an initial position information acquisition unit that acquires position information of the device's location, an acceleration information acquisition unit that acquires acceleration information, and a vector calculation unit that calculates the absolute position of a projection plane onto which the display device projects an image, calculates the absolute position coordinates of the user, and calculates the direction in which the projection plane faces, and the display control unit transforms the three-dimensional information of the display object based on the information calculated by the vector calculation unit. [Selected Figure] Figure 9

Description

本発明は、表示制御装置、表示システム及びプログラムに関する。 The present invention relates to a display control device, a display system, and a program.

従来、仮想空間に存在する物体の三次元情報を、スマートフォンやタブレット端末装置等の表示装置に表示する技術があった。ユーザは、このような技術が用いられた表示装置による表示を見ることにより、表示装置を通して仮想的な物体が存在するかのような感覚を得ることが可能となる。例えば、このような技術が用いられた装置の一例として、仮想空間における物体の三次元情報を、現実世界の画像に合成可能な画像処理装置が開示されている(特許文献1を参照)。 Conventionally, there has been technology that displays three-dimensional information of objects that exist in a virtual space on a display device such as a smartphone or tablet terminal device. By viewing an image displayed on a display device using such technology, a user can get the sensation that a virtual object is actually present through the display device. For example, as an example of a device using such technology, an image processing device that can synthesize three-dimensional information of an object in a virtual space with an image of the real world has been disclosed (see Patent Document 1).

特開2022-113269号公報JP 2022-113269 A

このような技術によれば、ユーザが表示装置を正面から見ることが前提として、仮想空間における物体の三次元情報が表示装置に表示される。しかしながら、ユーザの視点が固定されたまま、表示装置のみが移動したり、表示装置の角度が変化したりする場合がある。このような場合、ユーザの視線が固定されているため、ユーザは、表示装置を通して同一の仮想的な物体を見続けることを期待する。一方、装置が行う制御としては、ユーザが正面に存在することが前提となっているため、ユーザが期待する画像と実際に表示される画像とが一致しなくなってしまう。したがって、ユーザは、表示装置を通して仮想的な物体を見ても、当該物体があたかもそこに存在しているかのような感覚を得ることができず、仮想世界への没入感を得ることが難しかった。換言すれば、従来技術には、ユーザが表示装置の正面に存在しない場合、利用者視点と、表示画像とが一致しないといった課題があった。 According to such technology, three-dimensional information of an object in a virtual space is displayed on the display device, assuming that the user views the display device from the front. However, there are cases where the user's viewpoint remains fixed and only the display device moves, or the angle of the display device changes. In such cases, since the user's line of sight is fixed, the user expects to continue to view the same virtual object through the display device. On the other hand, the control performed by the device assumes that the user is in front, so the image the user expects does not match the image actually displayed. Therefore, even if the user views a virtual object through the display device, the user cannot get the feeling that the object is actually there, and it is difficult to get a sense of immersion in the virtual world. In other words, the conventional technology has a problem that the user's viewpoint does not match the displayed image when the user is not in front of the display device.

本発明は、このような事情を考慮してなされたものであり、その目的は、ユーザが表示装置の正面に存在しない場合であっても、利用者視点と、表示画像とが一致し、仮想世界への没入感を得ることが可能な表示制御装置、表示システム及びプログラムを提供することにある。 The present invention has been made in consideration of these circumstances, and its purpose is to provide a display control device, display system, and program that allows the user's viewpoint to match the displayed image, even when the user is not in front of the display device, thereby enabling the user to feel immersed in the virtual world.

(1)本発明の一態様は、三次元情報を有する表示対象物を、表示装置へ表示することを制御する表示制御部と、前記表示装置と剛性連結された撮像装置により撮像された画像であって、前記表示装置に表示された前記表示対象物を見る使用者の顔が撮像された画像を取得する画像取得部と、取得した前記画像に基づき、前記使用者の視点と、前記表示装置との相対的な位置関係を算出する視点相対位置算出部と、重力方向の加速度及びその方位角に関する情報を取得する重力情報取得部と、所定の地点を原点としたときの、自装置が存在する位置情報を取得する初期位置情報取得部と、自装置の加速度情報を取得する加速度情報取得部と、前記初期位置情報取得部により取得された位置情報と、前記加速度情報取得部により取得された加速度情報とに基づき、前記表示装置が像を射影する射影面の絶対位置を算出し、算出された前記射影面の絶対位置と、前記視点相対位置算出部により算出された前記使用者の視点と前記表示装置との相対的な位置関係とに基づき、前記使用者の視点の絶対的な位置座標を算出し、算出された前記射影面の絶対位置と、前記重力情報取得部により取得された重力情報と、前記加速度情報取得部により取得された前記加速度情報とに基づき、前記射影面が向く方向のベクトルを算出するベクトル算出部と、を備え、前記表示制御部は、前記表示装置が像を射影する射影面の絶対位置と前記射影面が向く方向のベクトルで決定される射影面に、前記使用者の視点の絶対的な位置座標を焦点として、前記表示対象物の三次元情報を変形させた像を透視射影するよう、前記表示装置への表示を制御する表示制御装置である。
(2)また、本発明の一態様は、上述した(1)の表示制御装置において、前記視点相対位置算出部は、予め取得された前記使用者の属性に基づき、前記使用者の視点と前記表示装置との相対的な位置関係を算出するものである。
(3)また、本発明の一態様は、上述した(1)の表示制御装置において、前記視点相対位置算出部は、前記画像取得部により取得された前記画像に基づき、前記使用者の瞳孔間の距離を計測し、計測された前記使用者の瞳孔間の距離に基づき、前記使用者の視点と前記表示装置との相対的な位置関係を算出するものである。
(4)また、本発明の一態様は、上述した(3)の表示制御装置において、前記視点相対位置算出部は、前記画像取得部により取得された前記画像に基づき、前記使用者の瞳孔間距離と、瞳孔間画角とを計測し、計測された前記使用者の瞳孔間距離と、瞳孔間画角とに基づき、前記使用者の視点と前記表示装置との相対的な位置関係を算出するものである。
(5)また、本発明の一態様は、上述した(3)の表示制御装置において、前記視点相対位置算出部は、予め記憶された前記使用者の瞳孔間距離と、前記画像取得部により取得された前記画像から計測された前記使用者の瞳孔間距離とに基づき、前記使用者の視点と前記表示装置との相対的な位置関係を算出するものである。
(6)また、本発明の一態様は、上述した(1)から(5)のいずれかの表示制御装置において、前記視点相対位置算出部は、前記画像取得部により取得された前記画像に基づいて得られた前記使用者の左右の瞳孔又は虹彩の大きさの比率の変化に応じて、前記使用者の視点と前記表示装置との相対的な位置関係を更新するものである。
(7)また、本発明の一態様は、上述した(1)から(6)のいずれかの表示制御装置において、前記表示制御部は、複数の前記表示対象物を前記表示装置へ表示し、複数の前記表示対象物それぞれの仮想的位置に基づいて、それぞれ異なる誤差を付与する誤差付与部を更に備え、前記表示制御部は、付与された誤差の範囲で前記表示対象物と背景との相対関係を変動させることにより、複数の前記表示対象物の前記表示装置への表示を制御するものである。
(8)また、本発明の一態様は、上述した(7)の表示制御装置において、前記表示制御部は、付与された誤差の範囲で前記表示対象物を表示させる位置を変動させることにより、複数の前記表示対象物の前記表示装置への表示を制御するものである。
(9)また、本発明の一態様は、上述した(7)の表示制御装置において、前記表示制御部は、付与された誤差の範囲で前記表示対象物を表示させる位置を、所定の一方向に変動させることにより、複数の前記表示対象物の前記表示装置への表示を制御するものである。
(10)また、本発明の一態様は、上述した(1)の表示制御装置において、前記表示制御部は、前記表示装置からそれぞれ異なる距離に存在する複数の前記表示対象物を前記表示装置へ表示し、複数の前記表示対象物は、前記表示装置からの距離に応じて、異なる表示タイミングにより表示されるものである。
(11)また、本発明の一態様は、上述した(1)から(10)のいずれかの表示制御装置と、使用者の顔を撮像し、撮像した前記画像を前記画像取得部に提供する前記撮像装置と、前記表示制御部により制御される前記表示装置とを備える表示システムである。
(12)また、本発明の一態様は、コンピュータに、三次元情報を有する表示対象物を、表示装置へ表示することを制御する表示制御ステップと、前記表示装置と剛性連結された撮像装置により撮像された画像であって、前記表示装置に表示された前記表示対象物を見る使用者の顔が撮像された画像を取得する画像取得ステップと、取得した前記画像に基づき、前記使用者の視点と、前記表示装置との相対的な位置関係を算出する視点相対位置算出ステップと、重力方向の加速度及びその方位角に関する情報を取得する重力情報取得ステップと、所定の地点を原点としたときの、自装置が存在する位置情報を取得する初期位置情報取得ステップと、自装置の加速度情報を取得する加速度情報取得ステップと、前記初期位置情報取得ステップにより取得された位置情報と、前記加速度情報取得ステップにより取得された加速度情報とに基づき、前記表示装置が像を射影する射影面の絶対位置を算出し、算出された前記射影面の絶対位置と、前記視点相対位置算出ステップにより算出された前記使用者の視点と前記表示装置との相対的な位置関係とに基づき、前記使用者の視点の絶対的な位置座標を算出し、算出された前記射影面の絶対位置と、前記重力情報取得ステップにより取得された重力情報と、前記加速度情報取得ステップにより取得された前記加速度情報とに基づき、前記射影面が向く方向のベクトルを算出するベクトル算出ステップと、を実行させるプログラムであって、前記表示制御ステップは、前記表示装置が像を射影する射影面の絶対位置と前記射影面が向く方向のベクトルで決定される射影面に、前記使用者の視点の絶対的な位置座標を焦点として、前記表示対象物の三次元情報を変形させた像を透視射影するよう、前記表示装置への表示を制御するプログラムである。
(1) One aspect of the present invention includes a display control unit that controls the display of a display object having three-dimensional information on a display device; an image acquisition unit that acquires an image captured by an imaging device rigidly connected to the display device, the image capturing an image of a user's face looking at the display object displayed on the display device; a viewpoint relative position calculation unit that calculates a relative positional relationship between the viewpoint of the user and the display device based on the acquired image; a gravity information acquisition unit that acquires information regarding acceleration in the gravity direction and its azimuth angle; an initial position information acquisition unit that acquires position information of the location of the device when a predetermined point is set as the origin; and an acceleration information acquisition unit that acquires acceleration information of the device. a vector calculation unit that calculates an absolute position of a projection plane onto which the display device projects an image, calculates absolute position coordinates of the user's viewpoint based on the calculated absolute position of the projection plane and the relative positional relationship between the user's viewpoint and the display device calculated by the viewpoint relative position calculation unit, and calculates a vector of a direction in which the projection plane faces based on the calculated absolute position of the projection plane, gravity information acquired by the gravity information acquisition unit, and the acceleration information acquired by the acceleration information acquisition unit, and the display control unit is a display control device that controls the display on the display device so as to perspectively project an image obtained by deforming three-dimensional information of the object to be displayed onto a projection plane determined by the absolute position of the projection plane onto which the display device projects an image and the vector of the direction in which the projection plane faces, with the absolute position coordinates of the user's viewpoint as a focus.
(2) Also, one aspect of the present invention is that in the display control device described above in (1), the viewpoint relative position calculation unit calculates the relative positional relationship between the user's viewpoint and the display device based on attributes of the user that have been acquired in advance.
(3) Also, one aspect of the present invention is that in the display control device of (1) described above, the viewpoint relative position calculation unit measures the distance between the user's pupils based on the image acquired by the image acquisition unit, and calculates the relative positional relationship between the user's viewpoint and the display device based on the measured distance between the user's pupils.
(4) Also, in one aspect of the present invention, in the display control device of (3) described above, the viewpoint relative position calculation unit measures the interpupillary distance and interpupillary angle of view of the user based on the image acquired by the image acquisition unit, and calculates the relative positional relationship between the user's viewpoint and the display device based on the measured interpupillary distance and interpupillary angle of view of the user.
(5) Also, one aspect of the present invention is that in the display control device described above in (3), the viewpoint relative position calculation unit calculates the relative positional relationship between the user's viewpoint and the display device based on the user's interpupillary distance stored in advance and the user's interpupillary distance measured from the image acquired by the image acquisition unit.
(6) Also, one aspect of the present invention is that in any of the display control devices described above in (1) to (5), the viewpoint relative position calculation unit updates the relative positional relationship between the user's viewpoint and the display device in response to a change in the ratio of the sizes of the user's left and right pupils or irises obtained based on the image acquired by the image acquisition unit.
(7) Furthermore, one aspect of the present invention is a display control device according to any one of (1) to (6) above, wherein the display control unit displays a plurality of the display objects on the display device, and further includes an error assigning unit that assigns different errors to each of the plurality of display objects based on a virtual position of each of the plurality of display objects, and the display control unit controls the display of the plurality of display objects on the display device by varying the relative relationship between the display objects and the background within the range of the assigned errors.
(8) Also, one aspect of the present invention is that in the display control device described above in (7), the display control unit controls the display of a plurality of display objects on the display device by varying the position at which the display objects are displayed within a given error range.
(9) Also, one aspect of the present invention is that in the display control device described above in (7), the display control unit controls the display of a plurality of display objects on the display device by varying the position at which the display objects are displayed in a predetermined direction within a given error range.
(10) Also, one aspect of the present invention is that in the display control device of (1) described above, the display control unit displays on the display device a plurality of display objects that are each located at a different distance from the display device, and the plurality of display objects are displayed at different display timings depending on their distance from the display device.
(11) Another aspect of the present invention is a display system comprising: a display control device according to any one of (1) to (10) described above; an imaging device that captures an image of a user's face and provides the captured image to the image acquisition unit; and the display device controlled by the display control unit.
(12) Also, one aspect of the present invention is a method for controlling a computer to display a display object having three-dimensional information on a display device, comprising: a display control step of controlling a computer to display a display object having three-dimensional information on a display device; an image acquisition step of acquiring an image captured by an imaging device rigidly connected to the display device, the image capturing an image of a user's face looking at the display object displayed on the display device; a viewpoint relative position calculation step of calculating a relative positional relationship between the viewpoint of the user and the display device based on the acquired image; a gravity information acquisition step of acquiring information regarding acceleration in the gravity direction and its azimuth angle; an initial position information acquisition step of acquiring position information of the location of the device when a predetermined point is set as the origin; an acceleration information acquisition step of acquiring acceleration information of the device; and a pre-determined position based on the position information acquired by the initial position information acquisition step and the acceleration information acquired by the acceleration information acquisition step. a vector calculation step of calculating an absolute position of a projection plane onto which the display device projects an image, calculating absolute position coordinates of the user's viewpoint based on the calculated absolute position of the projection plane and the relative positional relationship between the user's viewpoint and the display device calculated in the viewpoint relative position calculation step, and calculating a vector of the direction in which the projection plane faces based on the calculated absolute position of the projection plane, gravity information acquired in the gravity information acquisition step, and the acceleration information acquired in the acceleration information acquisition step, wherein the display control step is a program that controls the display on the display device so that an image obtained by deforming three-dimensional information of the object to be displayed is perspectively projected onto a projection plane determined by the absolute position of the projection plane onto which the display device projects an image and the vector of the direction in which the projection plane faces, with the absolute position coordinates of the user's viewpoint as a focus.

本発明によれば、ユーザが表示装置の正面に存在しない場合であっても、利用者視点と、表示画像とを一致させることができ、仮想世界への没入感を得ることができるという効果が得られる。 According to the present invention, even if the user is not in front of the display device, the user's viewpoint can be aligned with the displayed image, providing the effect of creating a sense of immersion in the virtual world.

一実施形態に係る表示システムが表示する像の変化について説明するための図である。11A and 11B are diagrams for explaining changes in an image displayed by a display system according to an embodiment. 本実施形態に係る表示システムが表示する仮想オブジェクトについて説明するための図である。1A to 1C are diagrams for explaining virtual objects displayed by the display system according to the embodiment. 本実施形態に係る表示システムにより撮像された画像に基づくユーザの視点の解析処理の一例について説明するための第1の図である。FIG. 11 is a first diagram for explaining an example of a process for analyzing a user's viewpoint based on an image captured by the display system according to the present embodiment. 本実施形態に係る表示システムにより撮像された画像に基づくユーザの視点の解析処理の一例について説明するための第2の図である。13 is a second diagram for explaining an example of a process for analyzing a user's viewpoint based on an image captured by the display system according to the present embodiment. FIG. 本実施形態に係る表示システムのイメージについて説明するための図である。FIG. 1 is a diagram for explaining an image of a display system according to an embodiment of the present invention. 本実施形態に係る表示システムが解析する情報の過不足について説明するための図である。10A and 10B are diagrams for explaining excess and deficiency of information analyzed by the display system according to the embodiment. 本実施形態に係る表示システムにより算出されるベクトルについて説明するための図である。5A and 5B are diagrams for explaining vectors calculated by the display system according to the embodiment. 本実施形態に係る表示システムを実現するための機能ブロックの一例について示すブロック図である。FIG. 2 is a block diagram showing an example of a functional block for realizing the display system according to the present embodiment. 本実施形態に係る表示制御装置の機能構成の一例について示す機能構成図である。1 is a functional configuration diagram showing an example of a functional configuration of a display control device according to an embodiment of the present invention. 本実施形態に係る表示制御装置の機能構成の変形例について示す機能構成図である。FIG. 11 is a functional configuration diagram showing a modified example of the functional configuration of the display control device according to the embodiment. 本実施形態に係る表示システムにおいて、ユーザの顔が傾いた場合の考え方について説明するための図である。11A and 11B are diagrams for explaining how to handle a case where the user's face is tilted in the display system according to the present embodiment. 本実施形態に係る表示制御装置の内部構成の一例を示すブロック図である。1 is a block diagram showing an example of an internal configuration of a display control device according to an embodiment of the present invention. 従来技術に係る拡張現実又は複合現実の技術を用いて、スマートフォンに仮想オブジェクトを表示しようとした場合、スマートフォンの傾きの変化に応じた座標軸の変化について説明するための図である。11 is a diagram for explaining a change in coordinate axes in response to a change in the inclination of a smartphone when attempting to display a virtual object on the smartphone using augmented reality or mixed reality technology according to the related art. FIG. 従来技術に係る仮想現実の技術を用いて、スマートグラスに仮想オブジェクトを表示しようとした場合、スマートグラスの傾きの変化に応じた座標軸の変化について説明するための図である。FIG. 13 is a diagram for explaining changes in coordinate axes in response to changes in the inclination of smart glasses when attempting to display a virtual object on the smart glasses using virtual reality technology according to the related art. 従来技術を用いてスマートフォンに仮想オブジェクトを表示する場合において、スマートフォンが傾いた場合における仮想オブジェクトの見え方の変化について説明するための図である。11A and 11B are diagrams for explaining a change in the appearance of a virtual object when the smartphone is tilted in a case where the virtual object is displayed on the smartphone using conventional technology.

本発明の態様に係る表示制御装置、表示システム及びプログラムについて、好適な実施の形態を掲げ、添付の図面を参照しながら以下、詳細に説明する。なお、本発明の態様は、これらの実施の形態に限定されるものではなく、多様な変更または改良を加えたものも含まれる。つまり、以下に記載した構成要素には、当業者が容易に想定できるもの、実質的に同一のものが含まれ、以下に記載した構成要素は適宜組み合わせることが可能である。また、本発明の要旨を逸脱しない範囲で構成要素の種々の省略、置換または変更を行うことができる。また、以下の図面においては、各構成をわかりやすくするために、各構造における縮尺および数等を、実際の構造における縮尺および数等と異ならせる場合がある。また、使用可能文字の関係上、以下に示す数式においてベクトル記号が付されているもの(英文字記号又はギリシャ文字で表された変数)については、本明細書の文章において、「ベクトル(英文字又はギリシャ文字)」と記載する場合がある。 The display control device, display system, and program according to the present invention will be described in detail below with reference to the accompanying drawings, showing preferred embodiments. Note that the present invention is not limited to these embodiments, and includes various modifications or improvements. In other words, the components described below include those that a person skilled in the art can easily imagine, and those that are substantially the same, and the components described below can be combined as appropriate. In addition, various omissions, substitutions, or modifications of the components can be made without departing from the gist of the present invention. In addition, in the drawings below, the scale and number of each structure may be different from the scale and number of the actual structure in order to make each structure easier to understand. In addition, due to the available characters, those in the formulas shown below that are accompanied by vector symbols (variables expressed in English letters or Greek letters) may be described as "vectors (English letters or Greek letters)" in the text of this specification.

[実施形態]
以下、図面を参照しながら、本発明の実施形態について説明する。まず、本発明の実施形態の前提となる事項について説明する。本発明に係る表示制御装置、表示システム及びプログラムは、拡張現実(Augmented Reality:AR)、複合現実(Mixed Reality:MR)及び仮想現実(Virtual Reality:VR)等の技術に用いることが可能である。本発明に係る表示制御装置、表示システム及びプログラムは、現実世界の画像(又は映像。以下、単に画像と記載する。)の上に、仮想的なオブジェクトを重畳させて表示することが可能である。現実世界の画像とは、ユーザが現実に見ている世界の画像であり、撮像装置により撮像されたものであってもよい。また、撮像装置により撮像された画像から特徴が抽出され、抽出された特徴に合わせて仮想的なオブジェクトが重畳されるものであってもよい。また、本実施形態によれば、位置情報、方位情報、及びジャイロ情報等に基づいて、装置の位置や方向を検出し、検出した位置及び方向等に基づいて表示を制御する。このような表示を行うことにより、ユーザは、没入感を得ることができる。
[Embodiment]
Hereinafter, an embodiment of the present invention will be described with reference to the drawings. First, the matters that are the premise of the embodiment of the present invention will be described. The display control device, display system, and program according to the present invention can be used in technologies such as Augmented Reality (AR), Mixed Reality (MR), and Virtual Reality (VR). The display control device, display system, and program according to the present invention can display a virtual object by superimposing it on an image (or video, hereinafter simply referred to as an image) of the real world. The image of the real world is an image of the world that the user actually sees, and may be captured by an imaging device. In addition, features may be extracted from an image captured by an imaging device, and a virtual object may be superimposed according to the extracted features. In addition, according to this embodiment, the position and direction of the device are detected based on position information, orientation information, gyro information, and the like, and the display is controlled based on the detected position and direction. By performing such a display, the user can obtain a sense of immersion.

しかしながら、本実施形態はこの一例に限定されず、仮想的なオブジェクトのみを表示することも可能である。仮想的なオブジェクトとは、三次元的な情報を有するものであればよく、物体や、背景等が広く含まれる。以下の説明では、単に、仮想的なオブジェクトを表示する場合の実施形態について説明する。この場合の背景は、現実世界のものであってもよいし、仮想世界のものであってもよい。 However, this embodiment is not limited to this example, and it is also possible to display only virtual objects. A virtual object is anything that has three-dimensional information, and broadly includes objects, backgrounds, and the like. In the following explanation, an embodiment in which a virtual object is simply displayed will be explained. The background in this case may be from the real world or from the virtual world.

なお、本実施形態に係る技術は、スマートフォンやタブレット端末等のディスプレイを有する装置の他、スマートグラスや、スマートゴーグル等のウェアラブルデバイスにおいても適用されることが可能である。以下の説明では、一例として、スマートフォンを用いた場合の実施形態について説明する。 The technology according to this embodiment can be applied to devices with displays such as smartphones and tablet terminals, as well as wearable devices such as smart glasses and smart goggles. In the following explanation, an embodiment using a smartphone will be described as an example.

まず、図13から図15を参照しながら、従来技術による課題について、詳細に説明する。 First, we will explain in detail the problems with the conventional technology with reference to Figures 13 to 15.

図13は、従来技術に係る拡張現実又は複合現実の技術を用いて、スマートフォンに仮想オブジェクトを表示しようとした場合、スマートフォンの傾きの変化に応じた座標軸の変化について説明するための図である。同図を参照しながら、ユーザUが仮想オブジェクトを表示可能なデバイス91を用いて仮想的なオブジェクト92を見る場合の一例について説明する。デバイス91とは、例えば、スマートフォンであってもよい。 Figure 13 is a diagram for explaining changes in coordinate axes according to changes in the inclination of a smartphone when attempting to display a virtual object on the smartphone using augmented reality or mixed reality technology according to the conventional technology. With reference to the figure, an example of a case where a user U views a virtual object 92 using a device 91 capable of displaying virtual objects will be described. The device 91 may be, for example, a smartphone.

図13(A)は、ユーザUが第1の角度でデバイス91を保持する場合の一例を示している。この場合、ユーザUの視点と、デバイス91とを結んだ先に、オブジェクト92が存在する。デバイス91は、現実世界の画像又は映像を撮像し、撮像した画像又は映像に重畳させてオブジェクト92を表示する。オブジェクト92の表示は、例えば、撮像された画像上の参照特徴を基準に描画される。ユーザUは、デバイス91のディスプレイを、正面から見ることにより、オブジェクト92があたかも現実世界に存在するかのような感覚を得ることができる。しかしながら、従来技術によれば、ユーザUによりデバイス91の角度が傾けられ、ユーザがディスプレイの正面ではない位置からオブジェクト92を見る場合、この限りではない。 Figure 13 (A) shows an example in which the user U holds the device 91 at a first angle. In this case, an object 92 exists at the point where the user U's viewpoint is connected to the device 91. The device 91 captures an image or video of the real world and displays the object 92 by superimposing it on the captured image or video. The display of the object 92 is drawn, for example, based on a reference feature on the captured image. By looking at the display of the device 91 from the front, the user U can get the feeling that the object 92 exists in the real world. However, according to conventional technology, this is not the case when the angle of the device 91 is tilted by the user U and the user views the object 92 from a position that is not in front of the display.

図13(B)は、ユーザUが第2の角度でデバイス91を保持する場合の一例を示している。図13(B)に示した一例では、現実世界の座標軸と、デバイス91の座標軸との関係が、図13(A)に示した一例とは異なる。デバイス91がユーザUにより傾けられた結果、デバイス91の座標軸も傾き、デバイス91の撮像画角からオブジェクト92が外れてしまう。この場合、ユーザUの視点と、デバイス91とを結んだ先に、オブジェクト92が存在するはずであるにもかかわらず、デバイス91のディスプレイには、オブジェクト92が表示されないこととなる。したがって、ユーザUは、デバイス91の傾きによっては、仮想的なオブジェクトが表示された仮想空間への没入感を得ることができなかった。 FIG. 13(B) shows an example in which the user U holds the device 91 at a second angle. In the example shown in FIG. 13(B), the relationship between the coordinate axes of the real world and the coordinate axes of the device 91 is different from the example shown in FIG. 13(A). As a result of the device 91 being tilted by the user U, the coordinate axes of the device 91 are also tilted, and the object 92 falls outside the imaging angle of view of the device 91. In this case, even though the object 92 should exist at the point where the user U's viewpoint and the device 91 are connected, the object 92 is not displayed on the display of the device 91. Therefore, the user U is unable to feel immersed in the virtual space in which the virtual object is displayed, depending on the tilt of the device 91.

図14は、従来技術に係る仮想現実の技術を用いて、スマートグラスに仮想オブジェクトを表示しようとした場合、スマートグラスの傾きの変化に応じた座標軸の変化について説明するための図である。図14に示す一例では、スマートグラスを用いた場合の一例である。この場合も図13に示した場合と同様に、ユーザUは、仮想的なオブジェクトが表示された仮想空間への没入感を得難い等の課題や、没入感を得るための課題等、複数の課題がある。同図を参照しながら、ユーザUが仮想オブジェクトを表示可能なデバイス93を用いて仮想的なオブジェクト92を見る場合の一例について説明する。デバイス93とは、例えばユーザUが装着可能なスマートグラスであってもよい。 Figure 14 is a diagram for explaining the change in coordinate axes according to the change in the inclination of smart glasses when a virtual object is to be displayed on the smart glasses using virtual reality technology according to the conventional technology. The example shown in Figure 14 is an example of a case where smart glasses are used. In this case, as in the case shown in Figure 13, the user U has multiple issues, such as difficulty in achieving a sense of immersion in the virtual space in which the virtual object is displayed, and issues in achieving a sense of immersion. With reference to the same figure, an example of a case where the user U views a virtual object 92 using a device 93 capable of displaying virtual objects will be described. The device 93 may be, for example, smart glasses that the user U can wear.

図14(A)は、ユーザUがデバイス93を装着し、第1の角度で仮想的なオブジェクト92を視認する場合の一例を示している。図14(B)は、ユーザUがデバイス93を装着し、第2の角度で仮想的なオブジェクト92を視認する場合の一例を示している。スマートグラスの場合、デバイス93は、固定された操作者視点を焦点として透視描画を行う。スマートグラスの場合は、視点とデバイスの座標軸とが固定されているため、図13に示したように、ユーザUの視点が固定されたままデバイスの座標軸のみが変化してしまうような事態が発生しない。よって、スマートグラスの場合は、スマートフォンと比較して、より没入感を得ることができるといった効果があった。しかしながら、スマートグラスでは、視界がふさがってしまい、安全上の課題が存在する。また、スマートグラスは、装着の手間が多く、較正の手間も多い。更に、現在の技術においてスマートグラスを小型化することは容易でないといった課題があった、スマートグラスが小型でないと、装着時に違和感が生じ、仮想世界への没入感が得られ難くなってしまう。このような事情から、スマートグラスの普及率は、スマートフォンの普及率と比較して、低いと言わざるを得なかった。 FIG. 14(A) shows an example of a case where a user U wears a device 93 and views a virtual object 92 at a first angle. FIG. 14(B) shows an example of a case where a user U wears a device 93 and views a virtual object 92 at a second angle. In the case of smart glasses, the device 93 performs perspective drawing with a fixed operator's viewpoint as a focus. In the case of smart glasses, the viewpoint and the coordinate axis of the device are fixed, so as shown in FIG. 13, a situation does not occur in which only the coordinate axis of the device changes while the viewpoint of the user U is fixed. Therefore, in the case of smart glasses, there is an effect that a greater sense of immersion can be obtained compared to a smartphone. However, smart glasses have a safety issue because the field of view is blocked. In addition, smart glasses require a lot of effort to wear and a lot of effort to calibrate. Furthermore, there is a problem that it is not easy to miniaturize smart glasses with current technology. If smart glasses are not small, a sense of discomfort occurs when wearing them, making it difficult to obtain a sense of immersion in the virtual world. For these reasons, it has to be said that the penetration rate of smart glasses is low compared to that of smartphones.

図15は、従来技術を用いてスマートフォンに仮想オブジェクトを表示する場合において、スマートフォンが傾いた場合における仮想オブジェクトの変化について説明するための図である。同図を参照しながら、従来技術において、スマートフォンが傾いた場合における、仮想オブジェクトの見え方の変化について説明する。図示する一例では、仮想オブジェクトを表示可能なデバイス91は、複数の仮想的なオブジェクト92-1、オブジェクト92-2及びオブジェクト92-3のうち、デバイス91が向いている方向に存在するオブジェクトを表示する。 Figure 15 is a diagram for explaining how a virtual object changes when the smartphone is tilted when the virtual object is displayed on the smartphone using conventional technology. With reference to the figure, the change in the appearance of the virtual object when the smartphone is tilted in conventional technology will be explained. In the illustrated example, a device 91 capable of displaying virtual objects displays, of multiple virtual objects 92-1, object 92-2, and object 92-3, an object that exists in the direction in which the device 91 is facing.

図15(A)は、ユーザUが第1の角度でデバイス91を保持する場合の一例を示している。この場合、デバイス91は、オブジェクト92-2が存在する方向を向いているため、オブジェクト92-2の像92-2Aを表示する。ここで、ユーザUの視点が固定されたまま、デバイス91のみを傾けた場合の一例を図15(B)に示す。図15(B)に示すように、デバイス91が右側に傾けられた場合、デバイス91の先には、オブジェクト92-2及びオブジェクト92-3が存在する。したがって、デバイス91は、オブジェクト92-2の像92-2A及びオブジェクト92-3の像92-3Aを表示する。しかしながら、デバイス91を介したユーザUの視線の先には、オブジェクト92-2のみが存在するはずであり、このような表示が行われたのでは、ユーザUは仮想的な世界への没入感を得ることができなかった。 FIG. 15(A) shows an example of a case where the user U holds the device 91 at a first angle. In this case, the device 91 faces the direction in which the object 92-2 exists, and therefore displays an image 92-2A of the object 92-2. FIG. 15(B) shows an example of a case where the user U tilts only the device 91 while keeping the viewpoint of the user U fixed. As shown in FIG. 15(B), when the device 91 is tilted to the right, the object 92-2 and the object 92-3 exist in front of the device 91. Therefore, the device 91 displays an image 92-2A of the object 92-2 and an image 92-3A of the object 92-3. However, only the object 92-2 should exist in the line of sight of the user U through the device 91, and if such a display were made, the user U would not be able to feel immersed in the virtual world.

次に、図1から図12を参照しながら、本発明に係る表示制御装置、表示システム及びプログラムについて説明する。以下の説明においては、本実施形態に係る表示制御装置、表示システム及びプログラムが、スマートフォンSPに適用される場合の一例について説明する。しかしながら本実施形態はこの一例に限定されず、ディスプレイを有しユーザに画像を表示させるデバイスに広く適用可能である。以下、一例として示すスマートフォンSPとは、仮想オブジェクトを表示可能なデバイスである。まず、図1及び図2を参照しながら、本実施形態に係る表示制御装置、表示システム及びプログラムの概要について説明する。 Next, the display control device, display system, and program according to the present invention will be described with reference to Figs. 1 to 12. In the following description, an example of a case in which the display control device, display system, and program according to this embodiment are applied to a smartphone SP will be described. However, this embodiment is not limited to this example, and can be widely applied to devices that have a display and display images to a user. The smartphone SP shown below as an example is a device that can display virtual objects. First, an overview of the display control device, display system, and program according to this embodiment will be described with reference to Figs. 1 and 2.

図1は、一実施形態に係る表示システムが表示する像の変化について説明するための図である。同図を参照しながら、本実施形態に係る表示システムにおいて、スマートフォンSPが傾いた場合において、ユーザUの視点との関係で、仮想オブジェクトの見え方の変化について説明する。図示する一例では、スマートフォンSPは、複数の仮想的なオブジェクトOBJ1、オブジェクトOBJ2及びオブジェクトOBJ3のうち、スマートフォンSPが向いている方向に存在するオブジェクトを表示する。これらの仮想的なオブジェクトは、仮想世界の座標軸において互いに存在する位置の位置関係が予め定められているものである。 Figure 1 is a diagram for explaining changes in an image displayed by a display system according to one embodiment. With reference to the figure, a change in the appearance of a virtual object in relation to the viewpoint of a user U when a smartphone SP is tilted in a display system according to this embodiment will be explained. In the example shown, the smartphone SP displays, of multiple virtual objects OBJ1, object OBJ2, and object OBJ3, an object that exists in the direction in which the smartphone SP is facing. The positional relationship between the positions of these virtual objects relative to each other on the coordinate axes of the virtual world is predetermined.

図1(A)に示すような位置関係では、スマートフォンSPは、オブジェクトOBJ2が存在する方向を向いている。したがって、スマートフォンSPは、オブジェクトOBJ2の像OBJ2Aを表示する。ここで、図1(B)では、ユーザUとスマートフォンSPの重心との位置関係に変化はないが、スマートフォンSPが右方向に回転することにより、スマートフォンSPの向く方向が変化している。従来技術によれば、スマートフォンSPの回転のみを検知して表示対象を決定していたため、スマートフォンSPの回転とともに表示対象が変わっていたが、本実施形態によれば、スマートフォンSPの回転を検知することに加えて、更にユーザUの視点等の情報を考慮することにより、ユーザUの視点と、スマートフォンSPと、仮想的なオブジェクトとの位置関係に応じた表示を行う。 In the positional relationship shown in FIG. 1(A), the smartphone SP faces the direction in which the object OBJ2 exists. Therefore, the smartphone SP displays an image OBJ2A of the object OBJ2. Here, in FIG. 1(B), there is no change in the positional relationship between the user U and the center of gravity of the smartphone SP, but the direction in which the smartphone SP faces changes as the smartphone SP rotates to the right. According to the conventional technology, the display object was determined by detecting only the rotation of the smartphone SP, so that the display object changed as the smartphone SP rotated. However, according to the present embodiment, in addition to detecting the rotation of the smartphone SP, information such as the user U's viewpoint is also taken into consideration, and display is performed according to the positional relationship between the user U's viewpoint, the smartphone SP, and the virtual object.

ここで、図1(C)は、図1(B)のような位置関係から、ユーザUがスマートフォンSPの正面に移動した場合に、スマートフォンSPが表示する情報の一例について示している。図1(B)に示す位置関係と、図1(C)に示す位置関係とを比較した場合、スマートフォンSPと、仮想的なオブジェクトとの位置関係に変化はない。しかしながら、図1(C)では、ユーザUが視点を変えて、左側から(スマートフォンSPの正面から)画面を覗きこんでいる。このような場合、スマートフォンSPは、スマートフォンSPを介したユーザUの視線の先に存在するオブジェクトOBJ2及びオブジェクトOBJ3を表示する。すなわち、本実施形態によれば、ユーザUの視点等の情報を考慮することにより、ユーザUの視点と、スマートフォンSPと、仮想的なオブジェクトとの位置関係に応じた表示を行うため、ユーザUは仮想的な世界への没入感を、より得易くなるということができる。視点の動きに追従して描画される複数のオブジェクトの相対位置関係が変化することにより、奥行知覚に関する運動に基づく手がかり(運動視差)を得ることで、他の知覚心理学的手がかり(例えば両眼視差)に依存しない奥行知覚を生じ、対象物に対する立体感を得ることができる。 Here, FIG. 1(C) shows an example of information displayed by the smartphone SP when the user U moves from the positional relationship shown in FIG. 1(B) to the positional relationship shown in FIG. 1(C), there is no change in the positional relationship between the smartphone SP and the virtual object. However, in FIG. 1(C), the user U changes his/her viewpoint and looks into the screen from the left side (from the front of the smartphone SP). In such a case, the smartphone SP displays objects OBJ2 and OBJ3 that are in the line of sight of the user U through the smartphone SP. That is, according to this embodiment, by taking into account information such as the user U's viewpoint, a display is performed according to the positional relationship between the user U's viewpoint, the smartphone SP, and the virtual object, so that the user U can more easily get a sense of immersion in the virtual world. The relative positions of multiple rendered objects change in response to the movement of the viewpoint, providing motion-based clues (motion parallax) related to depth perception, resulting in depth perception that is independent of other perceptual psychological clues (e.g. binocular disparity), and providing a sense of three-dimensionality for the object.

図2は、本実施形態に係る表示システムが表示する仮想オブジェクトについて説明するための図である。同図には、ユーザUとスマートフォンSPと仮想的なオブジェクトOBJとの位置関係が示されている。また、同図には、ユーザUが存在する現実世界の座標軸と、スマートフォンSPの座標軸とが示されている。スマートフォンSPの座標軸とは、すなわち、スマートフォンSPに仮想的なオブジェクトを描写するための、描写基準座標軸であるということもできる。図2(A)には、ユーザUがスマートフォンSPを第1の傾きで保持する場合の一例が示されており、図2(B)には、ユーザUがスマートフォンSPを第2の傾きで保持する場合の一例が示されている。本実施形態によれば、図示するように、スマートフォンSPの傾きが変わっても、スマートフォンSPの座標軸は固定されたままである。すなわち、本実施形態によれば、画面の位置や角度に関わらず、ユーザUの視点を基準に、オブジェクトOBJが画面を透過するように描画することが可能となる。また、このような構成を採用することにより、ユーザUは、現実世界の空間に、仮想的なオブジェクトOBJが固定されているかのような体感を得ることができる。 2 is a diagram for explaining a virtual object displayed by the display system according to the present embodiment. The figure shows the positional relationship between the user U, the smartphone SP, and the virtual object OBJ. The figure also shows the coordinate axes of the real world in which the user U exists and the coordinate axes of the smartphone SP. The coordinate axes of the smartphone SP can be said to be the depiction reference coordinate axes for depicting a virtual object on the smartphone SP. FIG. 2(A) shows an example of a case in which the user U holds the smartphone SP at a first tilt, and FIG. 2(B) shows an example of a case in which the user U holds the smartphone SP at a second tilt. According to this embodiment, as shown in the figure, even if the tilt of the smartphone SP changes, the coordinate axes of the smartphone SP remain fixed. That is, according to this embodiment, it is possible to draw the object OBJ so that it is transparent through the screen based on the viewpoint of the user U, regardless of the position or angle of the screen. Furthermore, by adopting such a configuration, the user U can experience as if the virtual object OBJ is fixed in the space of the real world.

次に、図3から図7を参照しながら、本実施形態に係る表示制御装置10、表示システム1及びプログラムの、動作原理について説明する。 Next, the operating principles of the display control device 10, display system 1, and program according to this embodiment will be described with reference to Figures 3 to 7.

図3は、本実施形態に係る表示システムにより撮像された画像に基づくユーザの視点の解析処理の一例について説明するための第1の図である。また、図4は、本実施形態に係る表示システムにより撮像された画像に基づくユーザの視点の解析処理の一例について説明するための第2の図である。まず、表示システム1は、ユーザUの顔を撮像し、ユーザUの瞳孔の位置を解析する。同図には、ユーザUの顔が撮像された画像IMGが示されている。画像IMGは、動画像データに含まれる連続するフレーム画像のうち、1つのフレーム画像であってもよい。表示システム1は、画像IMGを解析し、ユーザUの右目ERと、左目ELの位置をそれぞれ特定する。表示システム1は、特定したユーザUの右目ER及び左目ELの位置に基づき、ユーザUの右目ERから左目ELまでの距離Dbaseを算出する。なお、ユーザUの右目ERから左目ELまでの距離Dbaseは、画像処理によって算出されてもよいし、ユーザUが自身で計測して、あらかじめ入力しておいてもよい。 FIG. 3 is a first diagram for explaining an example of an analysis process of a user's viewpoint based on an image captured by the display system according to the present embodiment. FIG. 4 is a second diagram for explaining an example of an analysis process of a user's viewpoint based on an image captured by the display system according to the present embodiment. First, the display system 1 captures the face of the user U and analyzes the position of the user U's pupil. In the figure, an image IMG in which the face of the user U is captured is shown. The image IMG may be one of consecutive frame images included in the moving image data. The display system 1 analyzes the image IMG and specifies the positions of the right eye ER and the left eye EL of the user U. The display system 1 calculates the distance Dbase from the right eye ER to the left eye EL of the user U based on the specified positions of the right eye ER and the left eye EL of the user U. The distance Dbase from the right eye ER to the left eye EL of the user U may be calculated by image processing, or may be measured by the user U himself and input in advance.

また、表示システム1は、画像IMGの中心Oから、瞳孔の重心を結ぶ線と、画像IMGの基準線とがなす角である角ηを特定する。更に、表示システム1は、瞳孔間画角φを特定する。ここで、基準長さL=Dbase/sin(φ/2)とした場合、右目ERの重心COGR及び左目ELの重心COGLから基準長さL離れた点であってユーザUの右目ERから左目ELまでの距離Dbaseの中点における点を、点Pとすることができる。瞳孔間画角φとは、点P及び右目ERの重心COGRを結ぶ線と、点P及び左目ELの重心COGLを結ぶ線とがなす角である。また、表示システム1は、画像IMGの中心Oから瞳孔重心までの画角θを特定する。なお、これら角度の特定や、数値の算出を行うためには、物体検知技術等の公知の画像処理技術が用いられてもよい。 The display system 1 also specifies an angle η between a line connecting the center O of the image IMG to the center of the pupil and a reference line of the image IMG. The display system 1 also specifies an interpupillary angle of view φ. Here, when the reference length L 0 =D base /sin(φ/2), a point that is a point away from the center COGR of the right eye ER and the center COGL of the left eye EL by the reference length L 0 and is at the midpoint of the distance D base from the right eye ER to the left eye EL of the user U can be defined as point P. The interpupillary angle of view φ is an angle between a line connecting the point P and the center COGR of the right eye ER and a line connecting the point P and the center COGL of the left eye EL. The display system 1 also specifies an angle of view θ from the center O of the image IMG to the center of the pupil. In addition, in order to specify these angles and calculate the numerical values, a known image processing technique such as an object detection technique may be used.

図5は、本実施形態に係る表示システムのイメージについて説明するための図である。同図を参照しながら、表示システム1により行われる仮想空間内透視面の座標を示すベクトルV、仮想空間内透視面の平面ベクトルW、及び仮想空間内視点座標を示すベクトルUの算出処理について説明する。なお、透視面とは、スマートフォンSPが備えるディスプレイ(表示器)の表示面である。仮想空間内視点座標を示すベクトルU、仮想空間内透視面の座標を示すベクトルV、及び仮想空間内透視面の平面ベクトルWの算出には、上述したユーザUの右目ERから左目ELまでの距離Dbaseと、瞳孔の重心を結ぶ線と画像IMGの基準線とがなす角である角ηと、瞳孔間画角φと、画像IMGの中心Oから瞳孔重心までの画角θとに加え、仮想空間内初期座標を示すベクトルSと、表示器と重力方向がなす角を示すベクトルζが用いられる。 5 is a diagram for explaining an image of the display system according to the present embodiment. With reference to the figure, a calculation process of a vector V indicating the coordinates of the perspective plane in the virtual space, a plane vector W of the perspective plane in the virtual space, and a vector U indicating the viewpoint coordinates in the virtual space performed by the display system 1 will be described. The perspective plane is the display surface of a display (display device) equipped in the smartphone SP. In the calculation of the vector U indicating the viewpoint coordinates in the virtual space, the vector V indicating the coordinates of the perspective plane in the virtual space, and the plane vector W of the perspective plane in the virtual space, in addition to the distance D base from the right eye ER to the left eye EL of the user U described above, the angle η that is the angle between the line connecting the center of gravity of the pupil and the reference line of the image IMG, the interpupillary angle of view φ, and the angle of view θ from the center O of the image IMG to the center of the pupil, a vector S indicating the initial coordinates in the virtual space, and a vector ζ indicating the angle between the display device and the direction of gravity are used.

仮想空間内初期座標を示すベクトルSは、仮想空間内における初期座標(参照座標)である。表示対象となる仮想的なオブジェクトは、仮想空間内初期座標を示すベクトルSに基づいて生成されている。仮想空間内初期座標を示すベクトルSは、予め定められており、所定の記憶部に記憶されていてもよい。 The vector S indicating the initial coordinates in the virtual space is the initial coordinates (reference coordinates) in the virtual space. The virtual object to be displayed is generated based on the vector S indicating the initial coordinates in the virtual space. The vector S indicating the initial coordinates in the virtual space may be determined in advance and stored in a predetermined storage unit.

表示器と重力方向がなす角を示すベクトルζは、重力センサGsから取得される。重力センサGsは、スマートフォンSPに備えられ、重力方向の加速度を検知する。また、重力センサGsは、重力方向の方位角を検知する。表示システム1は、重力センサGsから重力方向の加速度とその方位角に関する情報を取得し、取得した情報に基づき、表示器と重力方向がなす角を示すベクトルζを算出する。 The vector ζ indicating the angle between the display and the direction of gravity is obtained from the gravity sensor Gs. The gravity sensor Gs is provided in the smartphone SP and detects the acceleration in the direction of gravity. The gravity sensor Gs also detects the azimuth angle of the direction of gravity. The display system 1 obtains information on the acceleration in the direction of gravity and its azimuth angle from the gravity sensor Gs, and calculates the vector ζ indicating the angle between the display and the direction of gravity based on the obtained information.

仮想空間内視点座標を示すベクトルUの算出には、次の(1)式が用いられてもよい。 The following formula (1) may be used to calculate vector U, which indicates the viewpoint coordinates in the virtual space.

Figure 0007467748000002
Figure 0007467748000002

ここで、(1)式におけるfは、座標変換関数である。座標変換関数fは、仮想空間内初期座標を示すベクトルSに対して、仮想空間内視点座標を示すベクトルUがどの位置にあるのかを、カメラと瞳孔の相対位置関係から決める座標変換関数である。 Here, f in equation (1) is a coordinate transformation function. The coordinate transformation function f is a coordinate transformation function that determines the position of vector U, which indicates the viewpoint coordinate in the virtual space, relative to vector S, which indicates the initial coordinate in the virtual space, from the relative positional relationship between the camera and the pupil.

また、仮想空間内透視面の座標を示すベクトルVの算出には、次の(2)式が用いられてもよい。 The vector V indicating the coordinates of the perspective plane in the virtual space may be calculated using the following formula (2):

Figure 0007467748000003
ここで、(2)式におけるgは、座標変換関数である。座標変換関数gは、仮想空間内初期座標を示すベクトルSに対して、仮想空間内透視面の座標を示すベクトルVがどの位置にあるのかを、決める座標変換関数である。座標変換関数gは、仮想空間内初期座標を示すベクトルSに対して、仮想空間内透視面の座標を示すベクトルVがどの位置にあるのかを、加速度センサにより得られる情報に基づいて算出するものであってもよい。
Figure 0007467748000003
Here, g in formula (2) is a coordinate transformation function that determines the position of vector V indicating the coordinates of the perspective plane in virtual space relative to vector S indicating the initial coordinates in virtual space. Coordinate transformation function g may calculate the position of vector V indicating the coordinates of the perspective plane in virtual space relative to vector S indicating the initial coordinates in virtual space based on information obtained by an acceleration sensor.

また、仮想空間内透視面の平面ベクトルを示すベクトルWの算出には、次の(3)式が用いられてもよい。 The vector W, which indicates the plane vector of the perspective surface in the virtual space, may be calculated using the following formula (3).

Figure 0007467748000004
ここで、(3)式におけるhは、座標変換関数である。座標変換関数hは、仮想空間内初期座標を示すベクトルSに対して仮想空間内透視面の平面ベクトルを示すベクトルWがどの方向にあるのかを重力センサーから決める座標変換関数である。座標変換関数hは、仮想空間内初期座標を示すベクトルSに対して仮想空間内透視面の平面ベクトルを示すベクトルWがどの方向にあるのかを、更にジャイロセンサにより得られる情報に基づいて算出するものであってもよい。
Figure 0007467748000004
Here, h in formula (3) is a coordinate transformation function. The coordinate transformation function h is a coordinate transformation function that determines, from a gravity sensor, the direction of vector W, which indicates the plane vector of the perspective surface in virtual space, relative to vector S, which indicates the initial coordinate in virtual space. The coordinate transformation function h may also calculate, based on information obtained by a gyro sensor, the direction of vector W, which indicates the plane vector of the perspective surface in virtual space, relative to vector S, which indicates the initial coordinate in virtual space.

表示システム1は、仮想空間内の三次元オブジェクトを、仮想空間内視点座標を示すベクトルUを焦点とし、仮想空間内透視面の座標を示すベクトルV/仮想空間内透視面の平面ベクトルWであらわされる平面に透視描画する。 The display system 1 perspectively renders a three-dimensional object in a virtual space on a plane represented by vector V indicating the coordinates of the perspective plane in the virtual space and plane vector W of the perspective plane in the virtual space, with vector U indicating the viewpoint coordinates in the virtual space as the focus.

なお、仮想空間内視点座標を示すベクトルU、仮想空間内透視面の座標を示すベクトルV、及び仮想空間内透視面の平面ベクトルWの算出には、ユーザUの右目ERから左目ELまでの距離Dbaseを用いることに代えて、図示するような基線長さLが用いられてもよい。基線長さLの算出には、LiDAR(Light Detection And Ranging)やToF(Time of Flight)センサ等の距離センサが用いられてもよい。 In addition, in order to calculate the vector U indicating the viewpoint coordinates in the virtual space, the vector V indicating the coordinates of the perspective plane in the virtual space, and the plane vector W of the perspective plane in the virtual space, a base line length L0 as shown in the figure may be used instead of using the distance Dbase from the right eye ER to the left eye EL of the user U. In order to calculate the base line length L0 , a distance sensor such as a LiDAR (Light Detection and Ranging) or ToF (Time of Flight) sensor may be used.

基線長さLを用いて、仮想空間内視点座標を示すベクトルU、仮想空間内透視面の座標を示すベクトルV、及び仮想空間内透視面の平面ベクトルWの算出をする場合、次の(4)式、(5)式、及び(6)式が用いられる。 When calculating a vector U indicating the viewpoint coordinates in the virtual space, a vector V indicating the coordinates of the perspective plane in the virtual space, and a plane vector W of the perspective plane in the virtual space using the base line length L0 , the following equations (4), (5), and (6) are used.

Figure 0007467748000005
Figure 0007467748000005

Figure 0007467748000006
Figure 0007467748000006

Figure 0007467748000007
Figure 0007467748000007

図6は、本実施形態に係る表示システムが解析する情報の過不足について説明するための図である。同図を参照しながら、本実施形態に係る表示システム1が用いる情報量の過不足について説明する。同図に示したベクトルは、表示システム1が求める未知の情報である。既知の情報としては、表示器と重力方向がなす角を示すベクトルζと、ユーザUの右目ERから左目ELまでの距離Dbaseであり、情報数は、4である。また、取得する情報としては、瞳孔の重心を結ぶ線と画像IMGの基準線とがなす角である角ηと、瞳孔間画角φと、画像IMGの中心Oから瞳孔重心までの画角θと、表示器と重力方向がなす角を示すベクトルζであり、情報数は、6である。すなわち、本実施形態に係る表示システム1が用いる情報のうち、既知の情報数は、10である。 FIG. 6 is a diagram for explaining the excess and deficiency of information analyzed by the display system according to the present embodiment. With reference to the figure, the excess and deficiency of the amount of information used by the display system 1 according to the present embodiment will be explained. The vectors shown in the figure are unknown information required by the display system 1. The known information includes a vector ζ indicating the angle between the display device and the direction of gravity, and a distance D base from the right eye ER to the left eye EL of the user U, and the number of pieces of information is 4. The information to be acquired includes an angle η between a line connecting the centers of gravity of the pupils and a reference line of the image IMG, an interpupillary angle of view φ, an angle of view θ from the center O of the image IMG to the center of the pupil, and a vector ζ indicating the angle between the display device and the direction of gravity, and the number of pieces of information is 6. That is, the number of pieces of known information among the information used by the display system 1 according to the present embodiment is 10.

一方、表示システム1が決定すべき情報(未知の情報)としては、仮想空間内視点座標を示すベクトル(三次元)、仮想空間内透視面座標を示すベクトル(三次元)、及び仮想空間内透視面の平面ベクトル(三次元)であり、未知の情報数は、9である。 On the other hand, the information (unknown information) that the display system 1 must determine is a vector (three-dimensional) indicating the viewpoint coordinates in the virtual space, a vector (three-dimensional) indicating the perspective plane coordinates in the virtual space, and a plane vector (three-dimensional) of the perspective plane in the virtual space, and the amount of unknown information is 9.

したがって、既知数10に対して未知数9であるため、情報過多であるということもできる。ただし、瞳孔間距離と瞳孔間画角の2情報を用いて、基線長さL(1情報)が算出されるため、既知数は9となる、したがって、情報量の過不足はなしとなり、これが最小構成となる。 Therefore, since there are 9 unknowns compared to 10 knowns, it can be said that there is an excess of information. However, since the baseline length L 0 (one piece of information) is calculated using two pieces of information, the interpupillary distance and the interpupillary angle of view, the known number is 9, and therefore there is no excess or deficiency of information, which is the minimum configuration.

図7は、本実施形態に係る表示システムにより算出されるベクトルについて説明するための図である。同図を参照しながら、上述した未知数(3つの三次元情報)の算出方法について説明する。なお、以下に説明する方法の条件としては、第一に、表示装置の表示面(射影面)とユーザUの顔を撮像するセルフィーカメラと重力センサが剛性結合されていること、第二に、略同一の平面内に表示面とセルフィーカメラ焦点と重力センサが配置されていること、第三に、表示面とセルフィーカメラ焦点と重力センサの間の距離が、視点相対位置Eに比べて十分に小さいことを挙げることができる。 7 is a diagram for explaining the vectors calculated by the display system according to this embodiment. With reference to the same figure, the calculation method of the unknowns (three pieces of three-dimensional information) described above will be described. Note that the conditions for the method described below include, first, that the display surface (projection surface) of the display device, the selfie camera that captures the face of the user U, and the gravity sensor are rigidly coupled, second, that the display surface, the selfie camera focus, and the gravity sensor are arranged in approximately the same plane, and third, that the distance between the display surface, the selfie camera focus, and the gravity sensor is sufficiently smaller than the viewpoint relative position E L.

図示するように、表示システム1が行う表示に必要な、未知数(3つの三次元情報)の算出は、既知ベクトルの合成で求めることができる。例えば、視点絶対位置Ezは、次の(7)式により求めることができる。 As shown in the figure, the unknowns (three pieces of three-dimensional information) required for display by the display system 1 can be calculated by combining known vectors. For example, the absolute viewpoint position Ez can be calculated by the following equation (7).

Figure 0007467748000008
Figure 0007467748000008

なお、(7)式中のP及びQは、セルフィーカメラ軸と重力センサ軸の結合角による補正値である。 Note that P and Q in equation (7) are correction values based on the coupling angle between the selfie camera axis and the gravity sensor axis.

なお、重力方位センサ入力Gθについて、初回又は定期測定値をGθ0として、Gθ=Gθ0+Δθとしてもよい。 In addition, regarding the gravity orientation sensor input G θ , the initial or periodical measurement value may be set as G θ0 , and G θ = G θ0 + Δ θ may be set.

なお、既知ベクトルの合成により未知数(3つの三次元情報)の算出を行う場合、次の(8)式、(9)式、及び(10)式により求めることができる。 When calculating the unknowns (three pieces of three-dimensional information) by combining known vectors, they can be found using the following equations (8), (9), and (10).

Figure 0007467748000009
Figure 0007467748000009

Figure 0007467748000010
Figure 0007467748000010

Figure 0007467748000011
Figure 0007467748000011

なお、(10)式に示したベクトルWは、(11)式を用いることにより求めることもできる。 The vector W shown in equation (10) can also be calculated using equation (11).

Figure 0007467748000012
Figure 0007467748000012

次に、図8から図12を参照しながら、上述したような表示システム1を実現するための、具体的な構成の一例について説明する。 Next, with reference to Figures 8 to 12, we will explain an example of a specific configuration for realizing the display system 1 described above.

図8は、本実施形態に係る表示システムを実現するための機能ブロックの一例について示すブロック図である。同図を参照しながら、表示システム1の機能構成の一例について説明する。表示システム1は、撮像装置2と、重力センサ3と、加速度センサ4と、記憶装置5と、表示装置6と、表示制御装置10とを備える。なお、表示システム1は、図示する構成の他、ジャイロセンサ等を備えていてもよい。 FIG. 8 is a block diagram showing an example of a functional block for realizing the display system according to this embodiment. An example of the functional configuration of the display system 1 will be described with reference to the diagram. The display system 1 includes an imaging device 2, a gravity sensor 3, an acceleration sensor 4, a storage device 5, a display device 6, and a display control device 10. Note that the display system 1 may include a gyro sensor and the like in addition to the configuration shown in the figure.

撮像装置2は、ユーザUの顔を撮像する。すなわち、撮像装置2は、スマートフォンSP等に備え付けられるインカメラ(セルフィーカメラ)であってもよい。なお、ユーザUとは、表示システム1の使用者である。撮像装置2は、具体的には、CCD(Charge Coupled Devices)イメージセンサを用いたCCDカメラであってもよいし、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサを用いたCMOSカメラ等であってもよい。 The imaging device 2 captures an image of the face of the user U. That is, the imaging device 2 may be an in-camera (selfie camera) attached to a smartphone SP or the like. The user U is a user of the display system 1. Specifically, the imaging device 2 may be a CCD camera using a CCD (Charge Coupled Devices) image sensor, or a CMOS camera using a CMOS (Complementary Metal Oxide Semiconductor) image sensor.

重力センサ3は、重力方向の加速度を検出する。また、重力センサ3は、地軸等の絶対基準に対する装置の相対方位を検出する。 The gravity sensor 3 detects acceleration in the direction of gravity. The gravity sensor 3 also detects the relative orientation of the device with respect to an absolute reference such as the earth's axis.

加速度センサ4は、自装置の加速度を検出する。加速度センサ4は、重力加速度を検出可能であってもよく、この場合、重力センサ3と加速度センサ4とは同一の構成であってもよい。加速度センサ4は、3軸方向(X軸・Y軸・Z軸)の加速度を検出する。 The acceleration sensor 4 detects the acceleration of the device itself. The acceleration sensor 4 may be capable of detecting gravitational acceleration, in which case the gravity sensor 3 and the acceleration sensor 4 may have the same configuration. The acceleration sensor 4 detects acceleration in three axial directions (X-axis, Y-axis, and Z-axis).

記憶装置5は、演算に用いられるパラメータ情報を記憶する。パラメータ情報には、ユーザUの属性等に関する情報や、表示システム1の初期位置に関する情報が含まれる。記憶装置5に記憶される情報は、不図示の操作受付部によりユーザUから受け付けてもよいし、表示制御装置10により更新されてもよい。 The storage device 5 stores parameter information used in the calculation. The parameter information includes information on the attributes of the user U and information on the initial position of the display system 1. The information stored in the storage device 5 may be received from the user U by an operation reception unit (not shown), or may be updated by the display control device 10.

表示装置6は、表示制御装置10の制御に応じて各種情報を表示する。表示装置6は、表示制御装置10から制御信号を取得し、取得した制御信号に応じた情報を表示する。表示装置6は、例えば液晶ディスプレイ、有機EL(Electroluminescence)ディスプレイ等であってもよい。なお、撮像装置2と表示装置6とは、互いに剛性連結されていることが好適である。 The display device 6 displays various information according to the control of the display control device 10. The display device 6 acquires a control signal from the display control device 10 and displays information according to the acquired control signal. The display device 6 may be, for example, a liquid crystal display, an organic EL (Electroluminescence) display, or the like. It is preferable that the imaging device 2 and the display device 6 are rigidly connected to each other.

表示制御装置10は、撮像装置2、重力センサ3、加速度センサ4及び記憶装置5等から情報を取得し、取得した情報に基づき、表示装置6に表示させる情報を生成し、表示装置6への表示を制御する。以下、図9を参照しながら、表示制御装置10の機能構成の一例について詳細に説明する。 The display control device 10 acquires information from the imaging device 2, the gravity sensor 3, the acceleration sensor 4, the storage device 5, etc., generates information to be displayed on the display device 6 based on the acquired information, and controls the display on the display device 6. An example of the functional configuration of the display control device 10 will be described in detail below with reference to FIG. 9.

図9は、本実施形態に係る表示制御装置の機能構成の一例について示す機能構成図である。表示制御装置10は、画像取得部11と、視点相対位置算出部12と、重力情報取得部13と、表示装置角度算出部14と、加速度情報取得部15と、初期位置情報取得部16と、ベクトル算出部17と、表示制御部18とを備える。これらの各機能部は、例えば、電子回路を用いて実現される。また、各機能部は、必要に応じて、半導体メモリや磁気ハードディスク装置などといった記憶手段を内部に備えてよい。また、各機能を、CPU(Central Processing Unit)を有するコンピュータおよびソフトウェアによって実現するようにしてもよい。また、各機能部の全てまたは一部は、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)又はFPGA(Field-Programmable Gate Array)等のハードウェアを用いて実現されてもよい。また、各機能部の全部または一部は、ソフトウェアとハードウェアとの組み合わせにより実現されてもよい。 Figure 9 is a functional configuration diagram showing an example of the functional configuration of a display control device according to this embodiment. The display control device 10 includes an image acquisition unit 11, a viewpoint relative position calculation unit 12, a gravity information acquisition unit 13, a display device angle calculation unit 14, an acceleration information acquisition unit 15, an initial position information acquisition unit 16, a vector calculation unit 17, and a display control unit 18. Each of these functional units is realized, for example, using electronic circuits. Furthermore, each functional unit may include internal storage means such as a semiconductor memory or a magnetic hard disk device, as necessary. Furthermore, each function may be realized by a computer having a CPU (Central Processing Unit) and software. In addition, all or part of each functional unit may be realized using hardware such as an ASIC (Application Specific Integrated Circuit), a PLD (Programmable Logic Device), or an FPGA (Field-Programmable Gate Array). In addition, all or part of each functional unit may be realized by a combination of software and hardware.

画像取得部11は、撮像装置2により撮像された画像を取得する。画像取得部11により取得される画像は、表示システム1のユーザUの顔が撮像されたものである。なお、画像取得部11は、撮像装置2により撮影された動画像データに含まれる連続したフレーム画像を、取得してもよい。 The image acquisition unit 11 acquires an image captured by the imaging device 2. The image acquired by the image acquisition unit 11 is an image of the face of the user U of the display system 1. The image acquisition unit 11 may acquire successive frame images included in the video data captured by the imaging device 2.

視点相対位置算出部12は、画像取得部11により取得された画像に基づき、ユーザUの視点と、表示装置6との相対的な位置関係を算出する。視点相対位置算出部12は、例えば、瞳孔位置特定部121と、瞳孔間画角特定部122と、視点相対位置特定部123とを備えることにより、ユーザUの視点と、表示装置6との相対的な位置関係を算出する。なお、視点相対位置算出部12の具体的算出方法は、この一例に限定されず、その他の方法が用いられてもよい。 The viewpoint relative position calculation unit 12 calculates the relative positional relationship between the viewpoint of the user U and the display device 6 based on the image acquired by the image acquisition unit 11. The viewpoint relative position calculation unit 12 is equipped with, for example, a pupil position identification unit 121, an interpupillary angle of view identification unit 122, and a viewpoint relative position identification unit 123, thereby calculating the relative positional relationship between the viewpoint of the user U and the display device 6. Note that the specific calculation method of the viewpoint relative position calculation unit 12 is not limited to this example, and other methods may be used.

瞳孔位置特定部121は、画像取得部11により取得された画像に基づき、ユーザUの左目ELの位置座標と、右目ERの位置座標とを特定する。ユーザUの左目ELの位置座標と右目ERの位置座標とを特定することにより、瞳孔間距離を特定することができる。なお、位置座標の特定には、例えば、物体検知技術等の公知の画像処理技術が用いられてもよい。次に、瞳孔間画角特定部122は、特定されたユーザUの左目ELの位置座標と、右目ERの位置座標とに基づき、瞳孔間画角φを検出する。更に、視点相対位置特定部123は、特定された瞳孔間距離と、検出された瞳孔間画角φと、画像取得部11により取得された画像等に基づき、ユーザUの視点と表示装置6との相対位置を特定する。なお、ユーザUの視点と表示装置6との相対位置の特定方法は、図3から図7を参照しながら説明したような方法で行うことができる。 The pupil position identification unit 121 identifies the position coordinates of the left eye EL and the right eye ER of the user U based on the image acquired by the image acquisition unit 11. By identifying the position coordinates of the left eye EL and the right eye ER of the user U, the interpupillary distance can be identified. In addition, a known image processing technique such as an object detection technique may be used to identify the position coordinates. Next, the interpupillary angle of view identification unit 122 detects the interpupillary angle of view φ based on the identified position coordinates of the left eye EL and the right eye ER of the user U. Furthermore, the viewpoint relative position identification unit 123 identifies the relative position between the viewpoint of the user U and the display device 6 based on the identified interpupillary distance, the detected interpupillary angle of view φ, and the image acquired by the image acquisition unit 11. In addition, the method of identifying the relative position between the viewpoint of the user U and the display device 6 can be performed by the method described with reference to FIG. 3 to FIG. 7.

なお、ユーザUの視点と表示装置6との相対位置の特定は、ユーザUの属性に基づいて行われてもよい。ユーザUの属性とは、例えば、瞳孔間距離の実寸値や、性別、年齢、人種等であってもよい。ユーザUの属性は、予めユーザUの操作に基づいて入力され、所定の記憶部に記憶される。この場合、視点相対位置算出部12は、予め取得されたユーザUの属性に基づき、ユーザUの視点と表示装置6との相対的な位置関係を算出する。例えば、視点相対位置算出部12は、予め記憶されたユーザUの瞳孔間距離と、画像取得部11により取得された画像から計測されたユーザUの瞳孔間距離とに基づき、ユーザUの視点と表示装置6との相対的な位置関係を算出してもよい。 The relative position between the user U's viewpoint and the display device 6 may be specified based on the attributes of the user U. The attributes of the user U may be, for example, the actual value of the interpupillary distance, gender, age, race, etc. The attributes of the user U are input in advance based on the operation of the user U and stored in a predetermined storage unit. In this case, the viewpoint relative position calculation unit 12 calculates the relative positional relationship between the user U's viewpoint and the display device 6 based on the attributes of the user U acquired in advance. For example, the viewpoint relative position calculation unit 12 may calculate the relative positional relationship between the user U's viewpoint and the display device 6 based on the interpupillary distance of the user U stored in advance and the interpupillary distance of the user U measured from the image acquired by the image acquisition unit 11.

重力情報取得部13は、重力センサ3から、重力方向の加速度、及び地軸等の絶対基準に対する装置の相対方位に関する情報を取得する。 The gravity information acquisition unit 13 acquires information from the gravity sensor 3 regarding the acceleration in the direction of gravity and the relative orientation of the device with respect to an absolute reference such as the earth's axis.

表示装置角度算出部14は、重力情報取得部13により取得された重力方向の加速度、及びその方位角に関する情報に基づき、表示装置6の角度を算出する。ここで、表示装置6は、重力センサ3と剛性結合されているため、表示装置角度算出部14は、重力情報取得部13により取得された重力方向の加速度、及び地軸等の絶対基準に対する装置の相対方位に関する情報に基づき、表示装置6の角度を算出することが可能となる。 The display device angle calculation unit 14 calculates the angle of the display device 6 based on the acceleration in the direction of gravity acquired by the gravity information acquisition unit 13 and information related to the azimuth angle. Here, since the display device 6 is rigidly coupled to the gravity sensor 3, the display device angle calculation unit 14 is able to calculate the angle of the display device 6 based on the acceleration in the direction of gravity acquired by the gravity information acquisition unit 13 and information related to the relative orientation of the device with respect to an absolute reference such as the earth's axis.

加速度情報取得部15は、加速度センサ4から、自装置の加速度情報を取得する。具体的に、加速度情報取得部15は、3軸方向(X軸・Y軸・Z軸)の加速度情報を取得する。 The acceleration information acquisition unit 15 acquires acceleration information of the device itself from the acceleration sensor 4. Specifically, the acceleration information acquisition unit 15 acquires acceleration information in three axial directions (X-axis, Y-axis, and Z-axis).

初期位置情報取得部16は、加速度情報取得部15により取得された自装置の加速度情報を取得し、所定の地点の三次元座標情報である原点座標OCを取得する。初期位置情報取得部16は、原点座標OCを原点としたときの、自装置が存在する位置情報を取得する。初期位置情報とは、図7に記載した初期位置ベクトルS(Ix,Iy,Iz)である。 The initial position information acquisition unit 16 acquires the acceleration information of the own device acquired by the acceleration information acquisition unit 15, and acquires the origin coordinates OC, which are three-dimensional coordinate information of a specified point. The initial position information acquisition unit 16 acquires the position information of the own device when the origin coordinates OC are set as the origin. The initial position information is the initial position vector S (Ix, Iy, Iz) described in FIG. 7.

ベクトル算出部17は、既知の情報に基づき、未知の情報を算出する。ベクトル算出部17により算出される未知の情報とは、図6及び図7を参照しながら説明した3つの三次元ベクトルである。ベクトル算出部17により算出される未知の情報とは、具体的には、表示装置6が像を射影する射影面の絶対位置(透視面位置ベクトル)と、ユーザUの絶対的な位置座標(視点位置ベクトル)と、射影面が向く方向のベクトル(透視面平面ベクトル)である。以下、具体的な算出方法について説明する。 The vector calculation unit 17 calculates unknown information based on known information. The unknown information calculated by the vector calculation unit 17 is the three three-dimensional vectors described with reference to Figures 6 and 7. Specifically, the unknown information calculated by the vector calculation unit 17 is the absolute position of the projection plane onto which the display device 6 projects an image (perspective plane position vector), the absolute position coordinates of the user U (viewpoint position vector), and the vector of the direction in which the projection plane faces (perspective plane vector). A specific calculation method will be described below.

表示装置6が像を射影する射影面の絶対位置(透視面位置ベクトル)とは、図7に記載の射影面絶対位置ベクトルV(Px,y,)である。当該ベクトルは、初期位置情報取得部16により取得された位置情報と、加速度情報取得部15により取得された加速度情報とに基づき、算出される。 The absolute position of the projection plane onto which the display device 6 projects an image (perspective plane position vector) is the projection plane absolute position vector V (Px , Py, Pz ) shown in Fig. 7. This vector is calculated based on the position information acquired by the initial position information acquisition unit 16 and the acceleration information acquired by the acceleration information acquisition unit 15.

ユーザUの絶対的な位置座標(視点位置ベクトル)とは、図7に記載の視点絶対位置ベクトルU(Ex,y,)である。当該ベクトルは、算出された射影面絶対位置ベクトルV(Px,y,)と、視点相対位置算出部12により算出されたユーザUの視点と表示装置6との相対的な位置関係とに基づき、算出される。 The absolute position coordinates (viewpoint position vector) of the user U are the viewpoint absolute position vector U (E x, E y, E z ) shown in Fig. 7. This vector is calculated based on the calculated projection plane absolute position vector V (P x, P y, P z ) and the relative positional relationship between the viewpoint of the user U and the display device 6 calculated by the viewpoint relative position calculation unit 12.

射影面が向く方向のベクトル(透視面平面ベクトル)とは、図7に記載の射影面ベクトル(Pθ,Φ,Ψ)である。当該ベクトルは、射影面絶対位置ベクトルV(Px,y,)と、重力情報取得部13により取得された重力情報と、加速度情報取得部15により取得された加速度情報とに基づき、算出される。 The vector of the direction in which the projection plane faces (perspective plane vector) is the projection plane vector (Pθ ,, ) shown in Fig. 7. This vector is calculated based on the projection plane absolute position vector V (Px , Py, Pz ), the gravity information acquired by the gravity information acquisition unit 13, and the acceleration information acquired by the acceleration information acquisition unit 15.

表示制御部18は、ベクトル算出部17により算出された情報に基づいて、表示対象物の三次元情報を変形させ、表示装置6への表示を制御する。 The display control unit 18 transforms the three-dimensional information of the object to be displayed based on the information calculated by the vector calculation unit 17, and controls the display on the display device 6.

このような構成を採用することにより、表示システム1は、仮想的なオブジェクトである表示対象物を、ユーザUの顔の位置や、スマートフォンSPの傾き等に応じて変形させ、表示する。したがって、ユーザUは、ウェアラブル端末を使わなくとも、あたかも窓から仮想空間を覗くような体験を得ることができる。更に、利用者の微細な動きによる運動視差が生まれることにより没入感が高まる。 By adopting such a configuration, the display system 1 deforms and displays the display target, which is a virtual object, according to the position of the user U's face, the inclination of the smartphone SP, etc. Therefore, the user U can have the experience of looking into a virtual space through a window without using a wearable device. Furthermore, the sense of immersion is enhanced by the motion parallax created by the user's subtle movements.

ここで、上述した実施形態によれば、ユーザUの視点とスマートフォンSPとの位置関係が変わらない場合、仮想的なオブジェクトの表示は、表示装置6に固定されたままとなる。画面に動きがない場合、三次元的な位置関係を把握しづらく、仮想空間への没入感を得難い場合がある。そこで、以下、本実施形態に係る表示制御装置10の変形例として、ユーザUの視点とスマートフォンSPとの位置関係が変わらない場合であっても、仮想空間への没入感を得ることが可能な表示制御装置10Aについて説明する。 Here, according to the embodiment described above, if the positional relationship between the user U's viewpoint and the smartphone SP does not change, the display of the virtual object remains fixed on the display device 6. If there is no movement on the screen, it may be difficult to grasp the three-dimensional positional relationship, and it may be difficult to achieve a sense of immersion in the virtual space. Therefore, below, as a modified example of the display control device 10 according to this embodiment, a display control device 10A that can achieve a sense of immersion in the virtual space even if the positional relationship between the user U's viewpoint and the smartphone SP does not change will be described.

図10は、本実施形態に係る表示制御装置の機能構成の変形例について示す機能構成図である。同図を参照しながら、表示制御装置10Aの機能構成の一例について説明する。表示制御装置10Aの説明において、表示制御装置10と同様の構成については同様の符号を付すことにより説明を省略する場合がある。表示制御装置10Aは、更に誤差付与部19を備える点において、表示制御装置10とは異なる。 FIG. 10 is a functional configuration diagram showing a modified example of the functional configuration of a display control device according to this embodiment. An example of the functional configuration of the display control device 10A will be described with reference to the same diagram. In the description of the display control device 10A, the same components as those in the display control device 10 are given the same reference numerals and may not be described. The display control device 10A differs from the display control device 10 in that it further includes an error assignment unit 19.

誤差付与部19は、複数の表示対象物それぞれの仮想的位置に基づいて、それぞれ異なる誤差を付与する。誤差は、例えば距離情報として与えられるものであってもよい。誤差付与部19は、例えば、算出された視点位置の近くに存在する物体には大きな誤差を与え、算出された視点位置の遠くに存在する物体には小さな誤差を与えてもよい。また、誤差付与部19は、逆に、スマートフォンSPの近傍には小さな誤差を与え、スマートフォンSPの遠くに存在する物体には大きな誤差を与えてもよい。 The error assigning unit 19 assigns a different error to each of the multiple display objects based on the virtual position of each of them. The error may be given as distance information, for example. The error assigning unit 19 may, for example, assign a large error to an object that exists near the calculated viewpoint position, and a small error to an object that exists far from the calculated viewpoint position. Conversely, the error assigning unit 19 may assign a small error to an object near the smartphone SP, and a large error to an object that exists far from the smartphone SP.

表示制御部18は、誤差付与部19により付与された誤差の範囲で、表示対象物と背景との相対関係を変動させることにより、複数の表示対象物の、表示装置6への表示を制御する。すなわち、本実施形態によれば、スマートフォンSPから仮想的なオブジェクトが存在する位置までの距離に応じて、表示対象物と背景との相対関係が変動させられることとなる。相対関係が変動させられることにより、ユーザUは、仮想的なオブジェクトがプルプルと動いているような感覚を得ることができる。また、プルプルと動く量が、距離に応じて異なるため、ユーザUは、三次元的な位置関係を容易に把握することができ、三次元的な仮想世界に没入することができる。 The display control unit 18 controls the display of multiple display objects on the display device 6 by varying the relative relationship between the display objects and the background within the error range assigned by the error assigning unit 19. That is, according to this embodiment, the relative relationship between the display objects and the background is varied depending on the distance from the smartphone SP to the position where the virtual object is located. By varying the relative relationship, the user U can get the sensation that the virtual object is trembling. Furthermore, because the amount of trembling varies depending on the distance, the user U can easily grasp the three-dimensional positional relationship and can be immersed in the three-dimensional virtual world.

なお、表示対象物及び背景の相対関係の変動は、仮想的なオブジェクトの位置情報を変動することにより実現されてもよいし、背景の位置情報を変動することにより実現されてもよい。仮想的なオブジェクトの位置情報を変動することにより実現する場合、表示制御部18は、付与された誤差の範囲で表示対象物を表示させる位置を変動させることにより、複数の表示対象物の表示装置6への表示を制御する。 The change in the relative relationship between the display objects and the background may be achieved by changing the position information of the virtual objects, or by changing the position information of the background. When the change is achieved by changing the position information of the virtual objects, the display control unit 18 controls the display of the multiple display objects on the display device 6 by changing the positions at which the display objects are displayed within the given error range.

なお、表示対象物及び背景の相対関係の変動は、所定の一方向に対して行われることが好適である。所定の一方向とは、水平方向又は垂直方向のいずれかであることが好適である。例えば、垂直方向と水平方向とをミックスして変動させることも可能であるが、過度な変動はユーザUの負担となり、酔ったような感覚を生じさせる可能性がある。 The change in the relative relationship between the display object and the background is preferably performed in a specific direction. The specific direction is preferably either the horizontal direction or the vertical direction. For example, it is possible to perform the change in a mixture of the vertical direction and the horizontal direction, but excessive change may be a burden to the user U and may cause the user U to feel drunk.

また、複数の表示対象物が表示装置6に表示されており、絶対視点位置、表示器絶対位置、又は表示器向きベクトルのいずれかの動きにより表示が変形される場合、それぞれ異なる長さの遅延時間をもって表示の更新を遅延させることが好適である。このような構成を採用することにより、実際よりも変位を大きく錯覚させ、奥行を知覚しやすくすることができる。この場合、誤差付与部19は、それぞれ異なる長さの遅延時間を付与してもよい。 In addition, when multiple display objects are displayed on the display device 6 and the display is deformed by movement of either the absolute viewpoint position, the display absolute position, or the display orientation vector, it is preferable to delay updating the display by a delay time of different lengths for each. By adopting such a configuration, it is possible to give the illusion of a larger displacement than in reality, making it easier to perceive depth. In this case, the error imparting unit 19 may impart a delay time of different lengths for each.

また、ベクトルの変化によって、オブジェクト同士の表示位置が変化した場合、それぞれ異なる遅延時間で表示させることにより、より現実的な変化を表現してもよい。例えば、図1(C)において、ユーザUが左方向に動いた際に、ユーザUの手前にあるオブジェクトOBJ2と、ユーザUの奥にあるオブジェクトOBJ3に関して、ユーザからの見え方は、手前の方が早く動き、奥の方がゆっくり動くというのが物理法則として存在する。したがって、このような物理法則に倣って、スマートフォンSP上でも手前と奥とで表示タイミングに遅延を設けて表示させてもよい。この場合、表示制御部18は、表示装置6からそれぞれ異なる距離に存在する複数の表示対象物を表示装置6へ表示し、複数の表示対象物は、それぞれ表示装置6からの距離に応じて、異なる表示タイミングにより表示されることとなる。 In addition, when the display positions of objects change due to a change in vector, a more realistic change may be expressed by displaying them with different delay times. For example, in FIG. 1C, when the user U moves leftward, the object OBJ2 in front of the user U and the object OBJ3 behind the user U appear to the user as if the object in front moves faster and the object in the back moves slower, as a physical law. Therefore, following such physical laws, the smartphone SP may also display the objects in front and behind with a delay in display timing. In this case, the display control unit 18 displays multiple display objects that are at different distances from the display device 6 on the display device 6, and the multiple display objects are displayed with different display timings depending on their distances from the display device 6.

図11は、本実施形態に係る表示システムにおいて、ユーザの顔が傾いた場合の考え方について説明するための図である。同図を参照しながら、顔の左右の傾きによる瞳孔間画角の見かけの距離変化への処理について説明する。図11(A)は、ユーザUが表示装置6を正面から視認した場合の瞳孔間画角φを示している。図11(B)は、ユーザUが表示装置6を斜めから(横目で)見た場合の瞳孔間画角φを示している。このように、ユーザUの顔の傾きに応じて、瞳孔間画角φは変化する。また、ユーザUの顔の傾きに応じて、瞳孔間距離も変動する。このような課題を解決するため、ユーザUの視点と表示装置6との相対位置の特定は、ユーザUの左右の瞳孔又は虹彩サイズの比率に基づいて行われてもよい。この場合、視点相対位置算出部12は、画像取得部11により取得された画像に基づいて得られたユーザUの左右の瞳孔又は虹彩の大きさの比率の変化に応じて、ユーザUの視点と表示装置6との相対的な位置関係を更新してもよい。 11 is a diagram for explaining the concept of the case where the user's face is tilted in the display system according to this embodiment. With reference to the same figure, the processing of the change in apparent distance of the interpupillary angle of view due to the left-right tilt of the face will be explained. FIG. 11(A) shows the interpupillary angle of view φ when the user U looks at the display device 6 from the front. FIG. 11(B) shows the interpupillary angle of view φ when the user U looks at the display device 6 from an angle (sideways). In this way, the interpupillary angle of view φ changes depending on the tilt of the user U's face. In addition, the interpupillary distance also varies depending on the tilt of the user U's face. In order to solve such a problem, the relative position between the user U's viewpoint and the display device 6 may be specified based on the ratio of the size of the user U's left and right pupils or irises. In this case, the viewpoint relative position calculation unit 12 may update the relative positional relationship between the user U's viewpoint and the display device 6 in accordance with the change in the ratio of the size of the user U's left and right pupils or irises obtained based on the image acquired by the image acquisition unit 11.

なお、目、鼻、口等の特徴位置が配置された顔面立体モデルを用いて、ユーザUの視点と表示装置6との相対位置の特定が行われてもよい。顔面立体モデルとは、最も簡易なものは球面モデルによってあらわすことができ、その他、好適なモデルが用いられてもよい。この場合、顔面立体モデル上には、目、鼻、口等の特徴位置が配置され、見かけの位置に最も適合する顔面立体モデルの位置及び角度を算出することにより、相対的な位置関係を更新することができる。 The relative position between the viewpoint of the user U and the display device 6 may be determined using a three-dimensional facial model on which the positions of features such as the eyes, nose, and mouth are arranged. The simplest three-dimensional facial model can be represented by a spherical model, but any other suitable model may be used. In this case, the positions of features such as the eyes, nose, and mouth are arranged on the three-dimensional facial model, and the relative positional relationship can be updated by calculating the position and angle of the three-dimensional facial model that best matches the apparent positions.

なお、実際のユースケースを考えると、2人が表示装置6を同時にのぞき込む場合がある。そのような場合、虹彩認証技術を用いて、いずれか一方のユーザUを特定し、特定したユーザUに好適な表示を行ってもよい。 In addition, in actual use cases, there may be cases where two people look into the display device 6 at the same time. In such cases, iris authentication technology may be used to identify one of the users U, and a display appropriate for the identified user U may be provided.

図12は、本実施形態の表示制御装置10内部構成の一例を示すブロック図である。表示制御装置10の少なくとも一部の機能は、コンピュータを用いて実現され得る。図示するように、そのコンピュータは、中央処理装置901と、RAM902と、入出力ポート903と、入出力デバイス904や905等と、バス906と、を含んで構成される。コンピュータ自体は、既存技術を用いて実現可能である。中央処理装置901は、RAM902等から読み込んだプログラムに含まれる命令を実行する。中央処理装置901は、各命令にしたがって、RAM902にデータを書き込んだり、RAM902からデータを読み出したり、算術演算や論理演算を行ったりする。RAM902は、データやプログラムを記憶する。RAM902に含まれる各要素は、アドレスを持ち、アドレスを用いてアクセスされ得るものである。なお、RAMは、「ランダムアクセスメモリー」の略である。入出力ポート903は、中央処理装置901が外部の入出力デバイス等とデータのやり取りを行うためのポートである。入出力デバイス904や905は、入出力デバイスである。入出力デバイス904や905は、入出力ポート903を介して中央処理装置901との間でデータをやりとりする。バス906は、コンピュータ内部で使用される共通の通信路である。例えば、中央処理装置901は、バス906を介してRAM902のデータを読んだり書いたりする。また、例えば、中央処理装置901は、バス906を介して入出力ポートにアクセスする。また、表示制御装置10が備える各機能部の全てまたは一部は、ASIC、PLD又はFPGA等のハードウェアを用いて実現されてもよい。また、各機能部の全部または一部は、ソフトウェアとハードウェアとの組み合わせにより実現されてもよい。 FIG. 12 is a block diagram showing an example of the internal configuration of the display control device 10 of this embodiment. At least some of the functions of the display control device 10 can be realized using a computer. As shown in the figure, the computer is configured to include a central processing unit 901, a RAM 902, an input/output port 903, input/output devices 904 and 905, etc., and a bus 906. The computer itself can be realized using existing technology. The central processing unit 901 executes instructions included in a program read from the RAM 902, etc. According to each instruction, the central processing unit 901 writes data to the RAM 902, reads data from the RAM 902, and performs arithmetic operations and logical operations. The RAM 902 stores data and programs. Each element included in the RAM 902 has an address and can be accessed using the address. Note that RAM is an abbreviation for "random access memory." The input/output port 903 is a port through which the central processing unit 901 exchanges data with external input/output devices, etc. The input/output devices 904 and 905 are input/output devices. The input/output devices 904 and 905 exchange data with the central processing unit 901 via the input/output port 903. The bus 906 is a common communication path used inside the computer. For example, the central processing unit 901 reads and writes data from the RAM 902 via the bus 906. Also, for example, the central processing unit 901 accesses the input/output port via the bus 906. Also, all or part of each functional unit provided in the display control device 10 may be realized using hardware such as an ASIC, a PLD, or an FPGA. Also, all or part of each functional unit may be realized by a combination of software and hardware.

[実施形態のまとめ]
本実施形態によれば、表示制御装置10は、表示制御部18を備えることにより、三次元情報を有する仮想的なオブジェクトである表示対象物を、表示装置6へ表示することを制御し、画像取得部11を備えることにより、表示装置6と剛性連結された撮像装置2により撮像された画像であって、表示装置6に表示された表示対象物を見るユーザUの顔が撮像された画像を取得し、視点相対位置算出部12を備えることにより、取得した画像に基づき、ユーザUの視点と、表示装置6との相対的な位置関係を算出し、重力情報取得部13を備えることにより、重力方向の加速度及びその方位角に関する情報を取得し、初期位置情報取得部16を備えることにより、所定の地点を原点としたときの、自装置が存在する位置情報を取得し、加速度情報取得部15を備えることにより、自装置の加速度情報を取得する。
[Summary of the embodiment]
According to this embodiment, the display control device 10 is provided with a display control unit 18, which controls the display of a display object, which is a virtual object having three-dimensional information, on the display device 6; by providing an image acquisition unit 11, it acquires an image captured by an imaging device 2 rigidly connected to the display device 6, which image captures an image of the face of a user U looking at a display object displayed on the display device 6; by providing a viewpoint relative position calculation unit 12, it calculates the relative positional relationship between the viewpoint of the user U and the display device 6 based on the acquired image; by providing a gravity information acquisition unit 13, it acquires information regarding acceleration in the direction of gravity and its azimuth angle; by providing an initial position information acquisition unit 16, it acquires position information at which the device is located when a specified point is set as the origin; and by providing an acceleration information acquisition unit 15, it acquires acceleration information of the device.

また、表示制御装置10は、初期位置情報取得部16により取得された位置情報と、加速度情報取得部15により取得された加速度情報とに基づき、表示装置6が像を射影する射影面の絶対位置(透視面位置ベクトル)を算出し、算出された射影面の絶対位置と、視点相対位置算出部12により算出されたユーザUの視点と表示装置6との相対的な位置関係とに基づき、ユーザUの絶対的な位置座標(視点位置ベクトル)を算出し、算出された射影面の絶対位置と、重力情報取得部13により取得された重力情報と、加速度情報取得部15により取得された加速度情報に基づき、射影面が向く方向のベクトル(透視面平面ベクトル)を算出する。また、表示制御部18は、ベクトル算出部17により算出された情報に基づいて、表示対象物の三次元情報を変形させ、表示装置6への表示を制御する。このような構成を採用することにより、ユーザUが表示装置6の正面に存在しない場合であっても、表示制御装置10は、ユーザUの視点と、表示画像とを一致させ、没入感を得られるようにすることができる。 The display control device 10 calculates the absolute position (perspective plane position vector) of the projection plane onto which the display device 6 projects the image based on the position information acquired by the initial position information acquisition unit 16 and the acceleration information acquired by the acceleration information acquisition unit 15, calculates the absolute position coordinates (viewpoint position vector) of the user U based on the calculated absolute position of the projection plane and the relative positional relationship between the user U's viewpoint and the display device 6 calculated by the viewpoint relative position calculation unit 12, and calculates a vector (perspective plane vector) in the direction in which the projection plane faces based on the calculated absolute position of the projection plane, the gravity information acquired by the gravity information acquisition unit 13, and the acceleration information acquired by the acceleration information acquisition unit 15. The display control unit 18 also transforms the three-dimensional information of the display object based on the information calculated by the vector calculation unit 17, and controls the display on the display device 6. By adopting such a configuration, even if the user U is not in front of the display device 6, the display control device 10 can match the viewpoint of the user U with the display image, allowing the user to feel immersed.

また、上述した実施形態によれば、視点相対位置算出部12は、予め取得されたユーザUの属性に基づき、ユーザUの視点と表示装置6との相対的な位置関係を算出する。したがって、表示制御装置10によれば、精度よくユーザUの視点と表示装置6との相対的な位置関係を算出することができる。よって、表示制御装置10は、ユーザUの視点と、表示画像とを精度よく一致させ、より没入感を得られるようにすることができる。 Furthermore, according to the above-described embodiment, the viewpoint relative position calculation unit 12 calculates the relative positional relationship between the viewpoint of the user U and the display device 6 based on the attributes of the user U acquired in advance. Therefore, according to the display control device 10, it is possible to accurately calculate the relative positional relationship between the viewpoint of the user U and the display device 6. Therefore, the display control device 10 can accurately match the viewpoint of the user U with the display image, thereby providing a more immersive feeling.

また、上述した実施形態によれば、視点相対位置算出部12は、画像取得部11により取得された画像に基づき、ユーザUの瞳孔間の距離を計測し、計測されたユーザUの瞳孔間の距離に基づき、ユーザUの視点と表示装置6との相対的な位置関係を算出する。よって、表示制御装置10は、ユーザUの視点と、表示画像とを精度よく一致させ、より没入感を得られるようにすることができる。 Furthermore, according to the above-described embodiment, the viewpoint relative position calculation unit 12 measures the distance between the pupils of the user U based on the image acquired by the image acquisition unit 11, and calculates the relative positional relationship between the viewpoint of the user U and the display device 6 based on the measured distance between the pupils of the user U. Thus, the display control device 10 can accurately match the viewpoint of the user U with the displayed image, providing a more immersive feeling.

また、上述した実施形態によれば、視点相対位置算出部12は、画像取得部11により取得された画像に基づき、ユーザUの瞳孔間距離と、瞳孔間画角とを計測し、計測されたユーザUの瞳孔間距離と、瞳孔間画角とに基づき、ユーザUの視点と表示装置6との相対的な位置関係を算出する。よって、表示制御装置10は、ユーザUの視点と、表示画像とを精度よく一致させ、より没入感を得られるようにすることができる。 Furthermore, according to the above-described embodiment, the viewpoint relative position calculation unit 12 measures the interpupillary distance and interpupillary angle of view of the user U based on the image acquired by the image acquisition unit 11, and calculates the relative positional relationship between the viewpoint of the user U and the display device 6 based on the measured interpupillary distance and interpupillary angle of view of the user U. Thus, the display control device 10 can accurately match the viewpoint of the user U with the displayed image, providing a more immersive feeling.

また、上述した実施形態によれば、視点相対位置算出部12は、予め記憶されたユーザUの瞳孔間距離と、画像取得部11により取得された画像から計測されたユーザUの瞳孔間距離とに基づき、ユーザUの視点と表示装置6との相対的な位置関係を算出する。よって、表示制御装置10は、ユーザUの瞳孔間距離が既知である場合、ユーザUの視点と、表示画像とを精度よく一致させ、より没入感を得られるようにすることができる。 Furthermore, according to the above-described embodiment, the viewpoint relative position calculation unit 12 calculates the relative positional relationship between the viewpoint of the user U and the display device 6 based on the interpupillary distance of the user U stored in advance and the interpupillary distance of the user U measured from the image acquired by the image acquisition unit 11. Therefore, when the interpupillary distance of the user U is known, the display control device 10 can accurately match the viewpoint of the user U with the displayed image to provide a more immersive feeling.

また、上述した実施形態によれば、視点相対位置算出部12は、画像取得部11により取得された画像に基づいて得られたユーザUの左右の瞳孔又は虹彩の大きさの比率の変化に応じて、ユーザUの視点と表示装置6との相対的な位置関係を更新する。よって、表示制御装置10は、ユーザUの顔が傾いた場合であっても、ユーザUの視点と、表示画像とを精度よく一致させ、より没入感を得られるようにすることができる。 Furthermore, according to the above-described embodiment, the viewpoint relative position calculation unit 12 updates the relative positional relationship between the viewpoint of the user U and the display device 6 in accordance with a change in the ratio of the sizes of the left and right pupils or irises of the user U obtained based on the image acquired by the image acquisition unit 11. Therefore, even if the face of the user U is tilted, the display control device 10 can accurately match the viewpoint of the user U with the displayed image, thereby providing a more immersive feeling.

また、上述した実施形態によれば、表示制御装置10Aによれば、表示制御部18は、複数の表示対象物を表示装置6へ表示する。表示制御装置10Aは、複数の表示対象物それぞれの仮想的位置に基づいて、それぞれ異なる誤差を付与する誤差付与部19を更に備え、表示制御部18は、付与された誤差の範囲で表示対象物と背景との相対関係を変動させることにより、複数の表示対象物の表示装置6への表示を制御する。すなわち、表示制御装置10Aは、表示物をわざとプルプルと動かすことにより、より立体的に見えるような視覚的効果を与え、ユーザUに対して、仮想的な世界への没入感を与えることができる。 Furthermore, according to the above-described embodiment, in the display control device 10A, the display control unit 18 displays a plurality of display objects on the display device 6. The display control device 10A further includes an error imparting unit 19 that imparts different errors to the plurality of display objects based on the virtual positions of the respective display objects, and the display control unit 18 controls the display of the plurality of display objects on the display device 6 by varying the relative relationship between the display objects and the background within the range of the imparted errors. In other words, the display control device 10A intentionally moves the display objects in a jiggling manner to provide a visual effect that makes them appear more three-dimensional, and can give the user U a sense of immersion in the virtual world.

また、上述した実施形態によれば、表示制御部18は、誤差付与部19により付与された誤差の範囲で、表示対象物を表示させる位置を変動させることにより、複数の表示対象物の表示装置6への表示を制御する。すなわち、表示制御部18は、背景及び表示対象物のうち、表示対象物の位置を変動させることにより、表示対象物と背景との相対関係を変動させる。したがって、表示制御装置10Aは、背景に対して表示物をわざとプルプルと動かすことにより、より立体的に見えるような視覚的効果を与え、ユーザUに対して、仮想的な世界への没入感を与えることができる。 Furthermore, according to the above-described embodiment, the display control unit 18 controls the display of multiple display objects on the display device 6 by varying the position at which the display objects are displayed within the range of error given by the error giving unit 19. That is, the display control unit 18 varies the relative relationship between the display objects and the background by varying the position of the display objects among the background and the display objects. Therefore, the display control device 10A intentionally moves the display objects against the background in a jiggling manner, thereby creating a visual effect that makes the objects appear more three-dimensional, and can give the user U a sense of immersion in the virtual world.

また、上述した実施形態によれば、
表示制御部18は、誤差付与部19により付与された誤差の範囲で、表示対象物を表示させる位置を、所定の一方向に変動させることにより、複数の表示対象物の表示装置6への表示を制御する。本実施形態によれば、表示制御装置10Aは、上下左右をミックスさせてプルプルはさせないため、ユーザUは、表示制御装置10Aにより表示された画面をみても、酔ったような感覚となることが少ない。
Furthermore, according to the above-described embodiment,
The display control unit 18 controls the display of a plurality of display objects on the display device 6 by varying the position at which the display object is displayed in a predetermined direction within the range of error given by the error giving unit 19. According to this embodiment, the display control device 10A does not cause shaking by mixing up, down, left, and right, so that the user U is unlikely to feel dizzy even when looking at the screen displayed by the display control device 10A.

なお、これにより、例えばスマートフォンやタブレット端末等を介して、仮想的な三次元情報をユーザに提示するサービスについて、サービス品質の向上を実現することができることから、国連が主導する持続可能な開発目標(SDGs)の目標8「すべての人々のための包摂的かつ持続可能な経済成長、雇用およびディーセント・ワークを推進する」に貢献することが可能となる。 As a result, it will be possible to improve the quality of services that present virtual three-dimensional information to users via smartphones, tablet devices, etc., thereby contributing to Goal 8 of the United Nations-led Sustainable Development Goals (SDGs) which is to "promote inclusive and sustainable economic growth, employment and decent work for all."

以上、本発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。 The above describes an embodiment of the present invention in detail with reference to the drawings, but the specific configuration is not limited to this embodiment, and includes design modifications and the like that do not deviate from the gist of the present invention.

また、上述した各装置の機能を実現するためのコンピュータプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行するようにしてもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、DVD(Digital Versatile Disc)等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
In addition, a computer program for implementing the functions of each of the above-mentioned devices may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read into a computer system and executed. Note that the term "computer system" may include hardware such as an OS and peripheral devices.
In addition, the term "computer-readable recording medium" refers to a flexible disk, a magneto-optical disk, a ROM, a writable non-volatile memory such as a flash memory, a portable medium such as a DVD (Digital Versatile Disc), or a storage device such as a hard disk built into a computer system.

さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。 また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
Furthermore, "computer-readable recording medium" also includes a medium that holds a program for a certain period of time, such as a volatile memory (e.g., DRAM (Dynamic Random Access Memory)) inside a computer system that becomes a server or client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. The above program may also be transmitted from a computer system that stores the program in a storage device or the like to another computer system via a transmission medium, or by transmission waves in the transmission medium. Here, the "transmission medium" that transmits the program refers to a medium that has the function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
The program may be a program for implementing some of the above-mentioned functions, or may be a so-called differential file (differential program) that can implement the above-mentioned functions in combination with a program already recorded in the computer system.

1…表示システム、2…撮像装置、3…重力センサ、4…加速度センサ、5…記憶装置、6…表示装置、10…表示制御装置、11…画像取得部、12…視点相対位置算出部、13…重力情報取得部、14…表示装置角度算出部、15…加速度情報取得部、16…初期位置情報取得部、17…ベクトル算出部、18…表示制御部、19…誤差付与部、121…瞳孔位置特定部、122…瞳孔間画角特定部、123…視点相対位置特定部、OC…原点座標、DOI…表示対象物情報 1...display system, 2...imaging device, 3...gravity sensor, 4...acceleration sensor, 5...storage device, 6...display device, 10...display control device, 11...image acquisition unit, 12...viewpoint relative position calculation unit, 13...gravity information acquisition unit, 14...display device angle calculation unit, 15...acceleration information acquisition unit, 16...initial position information acquisition unit, 17...vector calculation unit, 18...display control unit, 19...error assignment unit, 121...pupil position determination unit, 122...interpupillary angle of view determination unit, 123...viewpoint relative position determination unit, OC...origin coordinates, DOI...display object information

Claims (12)

三次元情報を有する表示対象物を、表示装置へ表示することを制御する表示制御部と、
前記表示装置と剛性連結された撮像装置により撮像された画像であって、前記表示装置に表示された前記表示対象物を見る使用者の顔が撮像された画像を取得する画像取得部と、
取得した前記画像に基づき、前記使用者の視点と、前記表示装置との相対的な位置関係を算出する視点相対位置算出部と、
重力方向の加速度及びその方位角に関する情報を取得する重力情報取得部と、
所定の地点を原点としたときの、自装置が存在する位置情報を取得する初期位置情報取得部と、
自装置の加速度情報を取得する加速度情報取得部と、
前記初期位置情報取得部により取得された位置情報と、前記加速度情報取得部により取得された加速度情報とに基づき、前記表示装置が像を射影する射影面の絶対位置を算出し、算出された前記射影面の絶対位置と、前記視点相対位置算出部により算出された前記使用者の視点と前記表示装置との相対的な位置関係とに基づき、前記使用者の視点の絶対的な位置座標を算出し、算出された前記射影面の絶対位置と、前記重力情報取得部により取得された重力情報と、前記加速度情報取得部により取得された前記加速度情報とに基づき、前記射影面が向く方向のベクトルを算出するベクトル算出部と、
を備え、
前記表示制御部は、前記表示装置が像を射影する射影面の絶対位置と前記射影面が向く方向のベクトルで決定される射影面に、前記使用者の視点の絶対的な位置座標を焦点として、前記表示対象物の三次元情報を変形させた像を透視射影するよう、前記表示装置への表示を制御する
表示制御装置。
a display control unit that controls displaying a display object having three-dimensional information on a display device;
an image acquisition unit that acquires an image captured by an imaging device rigidly connected to the display device, the image being an image of a face of a user looking at the display object displayed on the display device;
a viewpoint relative position calculation unit that calculates a relative positional relationship between the viewpoint of the user and the display device based on the acquired image;
a gravity information acquisition unit that acquires information about the acceleration in the gravity direction and its azimuth angle;
an initial position information acquisition unit that acquires position information of the location of the own device when a predetermined point is set as an origin;
an acceleration information acquisition unit that acquires acceleration information of the own device;
a vector calculation unit that calculates an absolute position of a projection plane onto which the display device projects an image, based on the position information acquired by the initial position information acquisition unit and the acceleration information acquired by the acceleration information acquisition unit, calculates absolute position coordinates of the user's viewpoint, based on the calculated absolute position of the projection plane and the relative positional relationship between the user's viewpoint and the display device calculated by the viewpoint relative position calculation unit, and calculates a vector of the direction in which the projection plane faces, based on the calculated absolute position of the projection plane, the gravity information acquired by the gravity information acquisition unit, and the acceleration information acquired by the acceleration information acquisition unit;
Equipped with
The display control unit controls the display on the display device so that an image obtained by deforming three-dimensional information of the object to be displayed is perspectively projected onto a projection plane determined by the absolute position of the projection plane onto which the display device projects an image and a vector of the direction in which the projection plane faces, with the absolute position coordinates of the user's viewpoint as a focus.
前記視点相対位置算出部は、予め取得された前記使用者の属性に基づき、前記使用者の視点と前記表示装置との相対的な位置関係を算出する
請求項1に記載の表示制御装置。
The display control device according to claim 1 , wherein the viewpoint relative position calculation unit calculates the relative positional relationship between the viewpoint of the user and the display device based on attributes of the user acquired in advance.
前記視点相対位置算出部は、前記画像取得部により取得された前記画像に基づき、前記使用者の瞳孔間の距離を計測し、計測された前記使用者の瞳孔間の距離に基づき、前記使用者の視点と前記表示装置との相対的な位置関係を算出する
請求項1に記載の表示制御装置。
The display control device according to claim 1 , wherein the viewpoint relative position calculation unit measures a distance between the user's pupils based on the image acquired by the image acquisition unit, and calculates a relative positional relationship between the user's viewpoint and the display device based on the measured distance between the user's pupils.
前記視点相対位置算出部は、前記画像取得部により取得された前記画像に基づき、前記使用者の瞳孔間距離と、瞳孔間画角とを計測し、計測された前記使用者の瞳孔間距離と、瞳孔間画角とに基づき、前記使用者の視点と前記表示装置との相対的な位置関係を算出する
請求項3に記載の表示制御装置。
4. The display control device according to claim 3, wherein the viewpoint relative position calculation unit measures an interpupillary distance and an interpupillary angle of view of the user based on the image acquired by the image acquisition unit, and calculates a relative positional relationship between the viewpoint of the user and the display device based on the measured interpupillary distance and interpupillary angle of view of the user.
前記視点相対位置算出部は、予め記憶された前記使用者の瞳孔間距離と、前記画像取得部により取得された前記画像から計測された前記使用者の瞳孔間距離とに基づき、前記使用者の視点と前記表示装置との相対的な位置関係を算出する
請求項3に記載の表示制御装置。
The display control device according to claim 3 , wherein the viewpoint relative position calculation unit calculates a relative positional relationship between the viewpoint of the user and the display device based on a pre-stored interpupillary distance of the user and an interpupillary distance of the user measured from the image acquired by the image acquisition unit.
前記視点相対位置算出部は、前記画像取得部により取得された前記画像に基づいて得られた前記使用者の左右の瞳孔又は虹彩の大きさの比率の変化に応じて、前記使用者の視点と前記表示装置との相対的な位置関係を更新する
請求項1に記載の表示制御装置。
The display control device according to claim 1 , wherein the viewpoint relative position calculation unit updates the relative positional relationship between the viewpoint of the user and the display device in accordance with a change in the ratio of the sizes of the left and right pupils or irises of the user obtained based on the image acquired by the image acquisition unit.
前記表示制御部は、複数の前記表示対象物を前記表示装置へ表示し、
複数の前記表示対象物それぞれの仮想的位置に基づいて、それぞれ異なる誤差を付与する誤差付与部を更に備え、
前記表示制御部は、付与された誤差の範囲で前記表示対象物と背景との相対関係を変動させることにより、複数の前記表示対象物の前記表示装置への表示を制御する
請求項1に記載の表示制御装置。
The display control unit displays a plurality of the display objects on the display device,
an error providing unit that provides different errors based on the virtual positions of the plurality of display objects,
The display control device according to claim 1 , wherein the display control unit controls the display of the plurality of display objects on the display device by varying a relative relationship between the display objects and a background within a given error range.
前記表示制御部は、付与された誤差の範囲で前記表示対象物を表示させる位置を変動させることにより、複数の前記表示対象物の前記表示装置への表示を制御する
請求項7に記載の表示制御装置。
The display control device according to claim 7 , wherein the display control unit controls the display of the plurality of display objects on the display device by varying positions at which the display objects are displayed within a given error range.
前記表示制御部は、付与された誤差の範囲で前記表示対象物を表示させる位置を、所定の一方向に変動させることにより、複数の前記表示対象物の前記表示装置への表示を制御する
請求項7に記載の表示制御装置。
The display control device according to claim 7 , wherein the display control unit controls the display of the plurality of display objects on the display device by varying the positions at which the display objects are displayed in a predetermined direction within a given error range.
前記表示制御部は、前記表示装置からそれぞれ異なる距離に存在する複数の前記表示対象物を前記表示装置へ表示し、
複数の前記表示対象物は、前記表示装置からの距離に応じて、異なる表示タイミングにより表示される
請求項1に記載の表示制御装置。
the display control unit displays, on the display device, a plurality of the display objects that are present at different distances from the display device;
The display control device according to claim 1 , wherein the plurality of display objects are displayed at different display timings depending on a distance from the display device.
請求項1から請求項10のいずれか一項に記載の表示制御装置と、
使用者の顔を撮像し、撮像した前記画像を前記画像取得部に提供する前記撮像装置と、
前記表示制御部により制御される前記表示装置と
を備える表示システム。
A display control device according to any one of claims 1 to 10,
the imaging device that captures an image of a user's face and provides the captured image to the image acquisition unit;
and the display device controlled by the display control unit.
コンピュータに、
三次元情報を有する表示対象物を、表示装置へ表示することを制御する表示制御ステップと、
前記表示装置と剛性連結された撮像装置により撮像された画像であって、前記表示装置に表示された前記表示対象物を見る使用者の顔が撮像された画像を取得する画像取得ステップと、
取得した前記画像に基づき、前記使用者の視点と、前記表示装置との相対的な位置関係を算出する視点相対位置算出ステップと、
重力方向の加速度及びその方位角に関する情報を取得する重力情報取得ステップと、
所定の地点を原点としたときの、自装置が存在する位置情報を取得する初期位置情報取得ステップと、
自装置の加速度情報を取得する加速度情報取得ステップと、
前記初期位置情報取得ステップにより取得された位置情報と、前記加速度情報取得ステップにより取得された加速度情報とに基づき、前記表示装置が像を射影する射影面の絶対位置を算出し、算出された前記射影面の絶対位置と、前記視点相対位置算出ステップにより算出された前記使用者の視点と前記表示装置との相対的な位置関係とに基づき、前記使用者の視点の絶対的な位置座標を算出し、算出された前記射影面の絶対位置と、前記重力情報取得ステップにより取得された重力情報と、前記加速度情報取得ステップにより取得された前記加速度情報とに基づき、前記射影面が向く方向のベクトルを算出するベクトル算出ステップと、
を実行させるプログラムであって、
前記表示制御ステップは、前記表示装置が像を射影する射影面の絶対位置と前記射影面が向く方向のベクトルで決定される射影面に、前記使用者の視点の絶対的な位置座標を焦点として、前記表示対象物の三次元情報を変形させた像を透視射影するよう、前記表示装置への表示を制御する
プログラム。
On the computer,
a display control step of controlling the display of a display object having three-dimensional information on a display device;
an image capturing step of capturing an image captured by an imaging device rigidly connected to the display device, the image being an image of a face of a user looking at the display object displayed on the display device;
a viewpoint relative position calculation step of calculating a relative positional relationship between the viewpoint of the user and the display device based on the acquired image;
a gravity information acquiring step of acquiring information about an acceleration in a gravity direction and an azimuth angle thereof;
an initial position information acquisition step of acquiring position information of a location where the own device is located when a predetermined point is set as an origin;
an acceleration information acquisition step of acquiring acceleration information of the own device;
a vector calculation step of calculating an absolute position of a projection plane onto which the display device projects an image, based on the position information acquired in the initial position information acquisition step and the acceleration information acquired in the acceleration information acquisition step, calculating absolute position coordinates of the user's viewpoint, based on the calculated absolute position of the projection plane and the relative positional relationship between the user's viewpoint and the display device calculated in the viewpoint relative position calculation step, and calculating a vector of a direction in which the projection plane faces, based on the calculated absolute position of the projection plane, the gravity information acquired in the gravity information acquisition step, and the acceleration information acquired in the acceleration information acquisition step;
A program for executing
The display control step is a program for controlling the display on the display device so that an image obtained by deforming the three-dimensional information of the object to be displayed is perspectively projected onto a projection plane determined by the absolute position of the projection plane onto which the display device projects the image and a vector of the direction in which the projection plane faces, with the absolute position coordinates of the user's viewpoint as a focus.
JP2023165224A 2023-09-27 2023-09-27 Display control device, display system and program Active JP7467748B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023165224A JP7467748B1 (en) 2023-09-27 2023-09-27 Display control device, display system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023165224A JP7467748B1 (en) 2023-09-27 2023-09-27 Display control device, display system and program

Publications (1)

Publication Number Publication Date
JP7467748B1 true JP7467748B1 (en) 2024-04-15

Family

ID=90667696

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023165224A Active JP7467748B1 (en) 2023-09-27 2023-09-27 Display control device, display system and program

Country Status (1)

Country Link
JP (1) JP7467748B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014082648A (en) 2012-10-17 2014-05-08 Casio Comput Co Ltd Electronic apparatus, image correction method, and program
JP2017501500A (en) 2013-09-17 2017-01-12 アマゾン テクノロジーズ インコーポレイテッド Approach for 3D object display
JP2023093170A (en) 2021-12-22 2023-07-04 日本放送協会 Portable terminal device, and its program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014082648A (en) 2012-10-17 2014-05-08 Casio Comput Co Ltd Electronic apparatus, image correction method, and program
JP2017501500A (en) 2013-09-17 2017-01-12 アマゾン テクノロジーズ インコーポレイテッド Approach for 3D object display
JP2023093170A (en) 2021-12-22 2023-07-04 日本放送協会 Portable terminal device, and its program

Similar Documents

Publication Publication Date Title
CN113168007B (en) System and method for augmented reality
US11217024B2 (en) Artificial reality system with varifocal display of artificial reality content
JP6353214B2 (en) Image generating apparatus and image generating method
US9728010B2 (en) Virtual representations of real-world objects
WO2017163720A1 (en) Information processing device, information processing system, and information processing method
US20160267720A1 (en) Pleasant and Realistic Virtual/Augmented/Mixed Reality Experience
US10037614B2 (en) Minimizing variations in camera height to estimate distance to objects
JP6732617B2 (en) Information processing apparatus and image generation method
US10999412B2 (en) Sharing mediated reality content
EP3462283B1 (en) Image display method and device utilized in virtual reality-based apparatus
US20170153700A1 (en) Method of displaying an image, and system therefor
US20190371072A1 (en) Static occluder
US11238616B1 (en) Estimation of spatial relationships between sensors of a multi-sensor device
KR20230072757A (en) Wearable electronic device and operating method of wearable electronic device
KR20170100371A (en) Apparatus and method of stereo scopic 3d contents creation and display
JP7467748B1 (en) Display control device, display system and program
US20220405996A1 (en) Program, information processing apparatus, and information processing method
US11150470B2 (en) Inertial measurement unit signal based image reprojection
JP6996450B2 (en) Image processing equipment, image processing methods, and programs
US20170302904A1 (en) Input/output device, input/output program, and input/output method
JP7300569B2 (en) Information processing device, information processing method and program
TWI779332B (en) Augmented reality system and display method for anchor virtual object thereof
WO2023157332A1 (en) Information processing apparatus and adjustment screen display method
JP2024018242A (en) Information processing apparatus and image generating method
JP2023096844A (en) Program, information processing method, and information processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231213

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20231213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240403

R150 Certificate of patent or registration of utility model

Ref document number: 7467748

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150